Citat:
Branimir Maksimovic: Ako ćemo tako Risc V ISA je još kompaktnija dok je ARM na granici. Gde si našao podatak za Apple dekoder?
Super za RISC V - ako se udomi kod nekog pametnog + pristup TSMC-u, to moze biti vrlo opaka stvar.
Detalji za M1 arhitekturu:
https://www.anandtech.com/show...ple-silicon-m1-a14-deep-dive/2
I malo diskusije na ovu temu:
https://news.ycombinator.com/item?id=25257932
Secas se na ovakvim ES diskusijama da sam ja uvek odbacivao blanko ocenu da je Intel automatski losiji ili trosi vise zbog x86 instrukcija? Instrukcijski dekoder za x86 trosi jako malo prostora na cipu i trosi jako malo u odnosu na ukupan TDP.
Takodje, sve do Apple-a Intel jednostavno nije imao nikog ni blizu po performansama, tako da nisu morali da se brinu da ce jednog dana samo >postojanje< tog x86 dekodera biti problem.
Cek... samo postojanje? WTF? Zar nije zanemarljiv?!?!
"Zavisi" :-) Intel je sigurno imao racunicu da jedini nacin da x86 dekoder postane problem ako se dese 2 stvari:
1. Da izgube prednost u performansama same arhitekture
2. Cak i ako ih stizu u #1, nije problem dok god imaju generacijsku (nekad i par) prednost u fabrikaciji --> mogu, kao sto ademare rece, da ulupaju tranzistore u problem :-)
I to je bila tacna procena rizika koja je Intel-u dozvolila da se uopste ne bavi x86 dekoderom, posto je sve vreme bio to
TEORIJSKI problem. Umesto bavljenja teorijom, Intel se bavio... praksom: primenom marketinske teorije na segmentaciju proizvoda, vrlo uspesno. Nema ECC-a za HEDT, nema overclock-a za servere... nema MP-a za HEDT, nema XMP za servere. Nema VT-x (jbt) za "K overclocker modele", nema overclock-a za "vPro/VT-x modele", imas neki petium? Nema AVX-a bato (cek cek... pa na cipu je?? Iskljucili smo ga!)... ajmo step-up: nema Hyperthreading-a za jeftine ulaznice, nema podrske za brzu memoriju za jeftinije ploce (wtaf? pa to je funkcija CPU-a... haha) - a neki ASUS provalio kako da zaobidje? BAM - microcode update, nema vise. O cenama serverskih procesora necemo, disertacija na primeru kako se muze kravica...
A onda se promenilo sve...
1. Pojavio se konkurent cija arhitektura nije u klasi "mozda vas stignemo" vec je bukvalno 2 generacije ispred... rizik bafer je ne nestao vec promenio znak!
2. No problemo... Intel uvek moze da strpa tranz... oh wait! Apple je na TSMC procesu koga intel
MOZDA ali samo mozda stigne za 2 godine... Apple je taj koji moze da "strpa tranzistore" i to... rade :-)
Pazi sad... sta je koji q ovo toliki problem? Ako pogledas one silne dijagrame koje smo razmenili ubedjujuci se sta je arhitektura a sta ne - primetices da Intel bukvalno ima duplirane stvari:
Da ti pomognem:
https://en.wikichip.org/wiki/i...itectures/sandy_bridge_(client)
Znaci, Intel mora da se *bava sa optimizacijama x86 dekodera. Te optimizacije su
jebene - x86 instrukcije su varijabilne duzine, show... A onda, kad zavrse sa dekodiranjem
E ONDA mogu da predju na pravu stvar, spajanje i baferovanje mikro-instrukcija i sav taj jazz.
Problem? Intel moze da razbije optimizaciju toka mikro-operacija (sto i rade). Bilo bi im pametno da prosire dizajn, 4+1 vise nije kul posle Apple-a, ali - okreni-obrni, tu ne mogu da pogrese samo ako dobro rade posao... OK!
Hmmm... ali, koliko god da im je uOP pipeline dobar, on na kraju zavisi od x86 dekodera koji ga puni, a taj dekoder je nezgodni deo... varijabilne instrukcije & sht. Znaci, mogu da naprave najbolji, najbrzi, najjaci deo procesora koji radi sa uOP-ovima, ali dzaba im sve to ako nesrecnik mora da ceka na x86 dekoder da ispljuje svoje instrukcije.
Kapiras? Ovo >nije< problem potrosnje ili problem tranzistorskog budzeta. Ovo je problem gde imas potencijalni ferarri koji mora da ceka da vozac dodje busem. A ne mozes da nadobudzis taj bus i ugradis mu turbine, zato sto nemas vise budzet za budzenje (nema tranzistora, potrosnja ne moze u nebesa)
Ouch...
I tek kad pomislis da nije moglo da bude gore... samo jos jedna stvar: Apple nije stigao Intel sa M1... Apple je razbio Intel u arhitekturi jos pre 2 godine. Samo sto to nije bilo moguce dokazati jednostavno a Apple je bolela ona stvar uopste za to. Apple je samo nemusto procesor nazivao "brzim od desktop procesora" i tu stao. Vec taj A12 iz 2018 je bio daleko ispred Intel-ovih tehnologija Jedino sto si samo mogao da poteras Geekbench i cela stvar je uvek dolazila spakovana u kuciste telefona bez aktivnog hladjenja. Bilo je par testova gde su ljudi portovali numericke solvere, gde se videlo pravo stanje stvari - ali sve to je bilo odbaceno kao periferni testovi, Apple fanboyi... stagod.
K'o rani Pentium III testovi koji su predskazali sta ce biti sa NetBurst arhitekturom.
--
Sta Intel moze? Pojma nemam - morace u isto vreme da debelo unaprede uArch i debelo da poboljsaju fabrikaciju... *ebeno.
Apple im je zadao domaci. TSMC im je zadao domaci... AM.. ok, dosta je :-)
DigiCortex (ex. SpikeFun) - Cortical Neural Network Simulator:
http://www.digicortex.net/node/1 Videos:
http://www.digicortex.net/node/17 Gallery:
http://www.digicortex.net/node/25
PowerMonkey - Redyce CPU Power Waste and gain performance! -
https://github.com/psyq321/PowerMonkey