GPU je vec preuzeo kontrolu za veliki deo posla, tamo gde je to primenjivo i ima smisla. GPU nije isto sto i CPU, arhitekture su im razlicite, broj core-ova, nacin kako rade itd. itd. Tako da je tvoja prica o "malwareu" koji je "preuzeo" od CPU-a izvrsenje i prebacio na GPU cista glupost. Obrazuj se malo.
GPU nije "magicni metak" koji moze sve zivo da radi - odredjene stvari da, mnogo brze od CPU-a, ali u tom slucaju treba optimizovati code koji ce da se izvrshava na GPU zbog specificnosti rada samog procesora (arhikteture/nacina na koji je GPU zamisljen da radi, kolicine kesha, razlicitih instrukcija itd) - tj. nije svaki code i program dobra opcija za GPU. Mahom su to operacije kojih ima jako mnogo, ciji code moze uspesno da se keshira, i koji nije preveliki (paralelno racunanje gomile relativno malih matematickih poslova, idealno za prikazivanje grafike).
Na graficku kartu sa GPU-om, treba da se gleda kao na poseban racunar, kome se zada nesto da uradi, saceka rezultat, i onda prebaci nazad u glavnu aplikaciju (ili direktno prikaze na ekranu). Svaka bespotrebna komunikacija non-stop remeti brznu izvrshenja GPU-a i izbegava se. Podela posla je kljucna, i to odgovarajuce vrste posla. Gleda se da se sve iskeshira i prebaci u memoriju graficke karte, kao i da posao koji GPU treba da radi, nema mnogo grananja.
Recimo, gomila 3D aplikacija koristi CUDA i OpenCL API da prebaci deo posla zaduzen za realtime rendering na GPU. Realna ubrzanja su nekoliko puta, pritom se ne koci izvrshavanje ostatka aplikacije koji radi na CPU-u. Pa onda, dekodiranje video materijala je isto tako prebaceno na GPU (gde je to primenjivo), izvrshavanje efekata u aplikacijama za montazu video materijala (Photoshop, Adobe AfterEffects, Premiere...) itd. Simulacje za fiziku... itd.
Ali pricati gluposti o (svemogucem) malweru, pa onda u to ubacivati pricu o API-jima za rad sa GPU-om, je spinovanje.
GPU != CPU
GPU > CPU - po performansama u odredjenim specijalizovanim slucajevima (sa faktorom od nekoliko puta)
GPU < CPU - u slucajevima gde code ne moze da se optimizuje da izvuce maksimum za datu arhiktekturu GPU-a
GPU nije CPU, specijalizovan je za odredjenu vrstu posla. Tako da su i CPU i GPU, vitalni delovi sistema, svaki za sebe ima odredjene prednosti i mane, u zavisnosti od vrste posla koji treba da se obavi.
[Ovu poruku je menjao Otto23 dana 11.10.2016. u 15:27 GMT+1]