Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Kristof93 #36066 üzenetére

    Bocs, hogy beleszólok, de a GameWorksnek sosem volt célja az optimalizálás. Egy színtiszta middleware, ami direkt a könnyű beépíthetőségre van kialakítva, ergo annyira általános amennyire csak lehet. Ebbe sebességet nem lehet bevinni, mert semmit sem tudsz belőle integrálni a motorba. Szóval az nem is cél, hogy gyorsan fusson, nem teszi lehetővé a felépítése.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36075 üzenetére

    Ha van, akkor sem rakhatják rá kereskedőknek küldött útitervre. Akkora pénzbünti jár érte, hogy az fájna nekik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36084 üzenetére

    Mindenki ennyit esett. A PC Partner jóval többet is. Természetesen számít a bevétel oldalán, hogy 1000-ért adod a VGA-t, vagy 500-ért. Ettől még kifejezetten kevés ment a bányákba az idei évben, amit a JPR fel is mért. Viszont a gaming piacra is 1000-ért vitték a kereskedők az árút.

    A Steam és a JPR között az a különbség, hogy a JPR a teljes piacot méri, míg a Steam a piac alig 1%-át. Nagyjából kétmillió GPU van a rendszerben engedélyezetten megjelenítve, míg az éves szintű GPU-eladás úgy ~400 millió. Ezért sem jelenik meg az Intel piacvezetőként a Steamben, holott magasan ők adják el a legtöbb GPU-t. Borzalmasan kicsi a Valve mintája. Persze segítene a helyzeten, ha minden regisztrált felhasználó gépét kitennék, de ezt nem tehetik meg az engedélyük nélkül. Viszont még azzal is alig 10% lenne a minta a teljes piachoz viszonyítva. Ezért szűrik ma a Kínai gépeket is, mert annyira aprócska a minta, hogy szimplán a keleti netkávézók is nagyon durván torzítják az eredményt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36090 üzenetére

    A bányászpiacra sose gyártottak semmit. A Vega 20 igazából használható gamer kártyának is, de az a gond, hogy a TSMC 7 nm-es node-ján készül. Ergo azzal egy ideig úgyis arra kell kalkulálni, hogy az Instinctbe elmegy mindegyik lapka. Aztán a TSMC 7 nm plusz node-jára pedig már ott a Navi. Vagyis a Vega 20 elvileg jó játékra is, de lenne kb. két hónapja a piacon, amíg nem lesz házon belül is jobb megoldás nála. Ennyi időre nem feltétlenül éri meg bevetni. A Vega 20 az Instinct mellett jó lesz a Rome mellé a tokozásra, és akkor kipróbálják azt a projektet is egy nulladik generációs termékkel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36095 üzenetére

    Nem tud leállni a Vega 10 gyártása, mert a Radeon Pro V340-nek ez az alapja. A Vega 20 pedig drága lesz a 7 nm-es EUV nélküli node-on.

    Bányászoknak ott lesz a 32-magos Threadripper. Cryptonightban majdnem 3000 Hash/s-ot tud. Háromszor hatékonyabb, mint a gaming Vega, és kétszeresen jobb a Frontier Editionnél. Moneróban gyakorlatilag minden GPU-ra legalább duplán ráver hatásfokban, a legtöbb modellre négyszeresen is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36097 üzenetére

    Asztali VGA-nál nem biztos. Professzionális szinten és OEM-eknél még tovább is, mint egy év. Itt azért kell a partnereknek a kivezetéshez az idő.

    Csinál neked grafikát, csak nem olyan gyorsan, ahogy egy GPU.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Az is probléma most, hogy Kína ideiglenesen "kibannolta" a Micront, ebben több GDDR memória is benne van. Ergo most azért nem egy kínai piacra dolgozó cég próbál memóriákat szerezni a Hynix/Samsung duónál, mert bizonytalanságot jelent a Micronnal maradni. Ez is rossz irányba viszi a GDDR memóriák árait sajnos, mert nő a rendelés a Hynix/Samsung felé, eközben gyártókapacitás véges, vagyis erősebb versenyhelyzet áll elő a memóriákért. Kis túlzással minden összeesküdött most a VGA-piac ellen. :(

    (#36107) Petykemano: 4 GB HBM2 már egy ideje olcsóbb opció 256 GB/s-os szintre, de ez igazából nem lényeges. Maximum az AMD-nek jelent alternatívát. Itt a kérdés, hogy hol áll meg a kínai Micron-BAN után a GDDR drágulása.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz hokuszpk #36110 üzenetére

    Ez import ban. Teljesen mindegy, hogy hol gyártják, nem vihetik be Kínába. Ezzel nem tud mit kezdeni egy VGA-gyártó. A Micron memóriákkal szerelt VGA-kat nem adhatják el ott. Akkora katasztrófa egyébként nincs, a gyártás során Kínának mennek a Hynix/Samsung memóriás VGA-k, de a jövőben ugye a rendelések annyiban módosulnak, hogy a Micron bizonytalan a kínai piacon, így például, aki a keleti régióra dolgozik, az nem fog kérni többet Micron memóriás VGA-t a gyártópartnerétől. Ez pedid arra sarkallja a gyártópartnereket, hogy több Samsung és Hynix memóriát rendeljenek, amit a két cég nem tud teljesíteni, vagyis mennek az árak fel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz hokuszpk #36113 üzenetére

    De ez nem ilyen egyszerű. Ha mondjuk egy VGA-kat forgalmazó cégnek nincs joga a nyugati piacokra bevinni a terméket, akkor meg vannak lőve. Csak olyan megrendelésük lesz a gyártópartnernél, amin nincs Micron memória. Itt komoly szerződések vannak, sok esetben nem lehet ide-oda küldözgetni a VGA-kat. A legtöbb amit tehetnek, hogy keresnek egy európai piacra is jogosult OEM-et, aki felnyalja a Kínának szánt készletet, és majd hitelesítik a VGA-kat a teljes gép részeként.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36171 üzenetére

    Semmi jelenség nincs. Az AMD és az NV is elfogadta azt, hogy a bányászpiac felnyomta az árakat, emiatt több tervezett lapkát töröltek vagy eltoltak. Mert egy olyan piacra nincs értelme újításokat kiadni, ahol a teljesítmény 2000+ dolláros listaárat jelentene. Ezt egy játékos nem tudja megvenni. Ergo meg kellett várni, amíg visszamennek az árak a normális szintre, és most elkezdik üríteni a raktárakat. Jelenleg erre várnak.

    Miért vágnál meg egy lapkát nagyon? A mostani node-ok abszolút nem szenvednek kihozatali problémákkal, ergo majdnem mindegyik legyártott termék eladható teljes értékűként. Nagyon vágni akkor érdemes, ha nincs elég jó minőségű lapka. De ha el tudsz adni mindent magas áron, akkor el kell adni mindent magas áron.

    A HBM2 jelenleg a legolcsóbb memória a GDDR extrém áremelkedése után. Volt persze drágább is, amikor a GDDR-ek a mostani ár harmadán mentek. Ez pedig egy kartellezésből eredő probléma, amiért Kína már üti a memóriagyártókat. Nyilván nem számítottak erre, de ez is jelentősen befolyásolta az útiterveket, mert már nem lehet annyi memóriát rakni az új VGA-kra, amennyit eredetileg terveztek.

    (#36175) Dandris: Azért az autóipar az nehéz ügy. Még mindig a Xilinx és a MobilEye uralja a piac 90+%-át, és az AMD is maximum annyit tudott volna ajánlani, amennyit az NV, amivel kb ugyanott tartanának, ahol az NV. Lenne egy nagy ígéret, miközben a Xilinx és a MobilEye jelentős piaci területeket fed le a gyakorlatban is. A konzolpiac kifizetődőbb volt számukra, mert az nem csak egy ígéret, és nagyon lényeges, hogy nincs reális versenytárs ezen a területen, míg az autóiparban azért az ADAS-ba benyomulni a Xilinx és a MobilEye mellé azért elég nehéz feladat. Talán évtizedekig tartó építkezést igényel.

    (#36176) golya87: Ahogy most kinéz inkább saját lapkákat terveznének az autógyártók. A legnagyobb gondjuk a zárt környezet, ami gyakorlatilag behatárolja a lehetőségeiket. Ez már a MobilEye esetében is meglátszik. Aki ilyet használ, az lényegében ugyanazt kínálja, vagyis semmivel nem tud a versenytárs fölé kerekedni. Ugyanez lesz az NV-vel is a probléma, nem véletlen, hogy a Xilinx elkezdte nyomni a megkülönböztethetőséget, mint piaci előnyt, mivel ők olyan megoldást kínálnak, ahol egy Mercedes mondjuk tervezhet jobbat, mint egy Peugeot. MobilEye és NV mellett erre nincs lehetőség, ilyenkor a Mercedes és az Peugeot pontosan ugyanazt a minőséget képviselni. Ez nem tetszik az autógyártóknak. Ez jó mondjuk a feltörekvő cégeknek, mint a Tesla, amely az ígérgetésen kívül nem sokat tett még le az asztalra, de nem jó a Mercedesnek, mert nekik a nevük arra épít, hogy jobbat kínálnak, mint a többiek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz regener #36180 üzenetére

    Nem. A probléma az, hogy nem sokan készültek arra, hogy alig egy év alatt háromszorosára emelkedik bizonyos GDDR5-ös memóriák ára. Nyilván a Hynix-Samsung-Micron nem jelentette be a megrendelőknek, hogy kartelleznek egy kicsit. Valszeg az AMD sok HBM2-eset hoz, mert ők eleve erre készültek. Az NV inkább GDDR6-osakat. De még ott is, ahova korábban GDDR5-öt terveztek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36182 üzenetére

    Ez egy hatalmas tévhit. Az AMD már csak maximális feszültséggel dolgozik és a hardver mindig egy optimális feszültséget választ arra a terhelésre és környezetre, ahol működik. A maximális feszültséget viszont magasra helyezik szándékosan, mert azt egyrészt a világ legtöbb pontján sosem éri el a hardver, maximum a nagyon hideg környezetekben, másrészt ilyenkor optimálisa az órajelskálázás, ugyanis ha csökkenne ez a maximális feszültség, akkor lehet, hogy romlana a hardver teljesítménye. És például az AVFS esetében nem mindegy, hogy az órajelskálázás mennyire optimális, mert ez a technika bekapcsoláskor számol egy skálázási táblázatot, vagyis ha a kezdeti hőmérséklet magas, akkor a kártya a kikapcsolásig lassabb lesz, mintha a kezdeti hőmérséklet alacsony lenne. Emiatt van az, hogy pont ugyanaz a Radeon VGA télen Kanadában gyorsabb, mint nyáron Indiában, és a korábbi DVFS megoldáshoz képest legalább 10%-kal gyorsabb minden földrészen, de ha nagyon északon, nagyon hidegben működik, akkor 18%-kal is.
    A feszültségeket pedig arra tervezik, hogy a bírja az órajelváltásokat, ez a megterhelő ugyanis, nem az, hogy egy fix magas órajelen üzemel. A tervezésnél egy több napos olyan próba van, amikor a lapka órajele a maximum és a minimum között ugrál a specifikációban lefektetett minimum időtartalom belül. Ehhez vannak szabva az órajelek. Ezt persze lehet csökkenteni, de régebben az instabilitást hozott ezeknél a váltásoknál, illetve a Vega bevezetett egy újítást itt is, hogy a hardver előre felméri, hogy az órajelváltás sikerülhet-e. Ezt a hő- és terhelési térképből állapítja meg, amit egy mikrovezérlő elemez a lapkán belül. Viszonylag pontos megoldás hiszen van vagy tízezer szenzorja, ami ezt generálja. Ha úgy látja a rendszer, hogy a tervezet órajelváltás nem fog sikerülni, akkor kér rá egy késleltetést. Ha többször sem sikerült, akkor megpróbál safe módban órajelet váltani, ami annyit jelent, hogy a legközelebbi PowerTune szintre ugrik, és így több lépcsőben jut el a minimum órajelre. Ennek az az előnye, hogy rendkívül alacsony feszültséggel is stabil marad a VGA, viszont hátránya, hogy az idle fogyasztás átlagosan elég sokat, akár 50-70%-ot is nő, és peak akár 3x-os ugrások lesznek, mivel a hardver, az újonnan beállított, rosszul skálázott feszültségtartományok miatt folyamatosan soft váltásra kényszerül. A safe mód egyik nagy problémája, hogy az igen sokáig aktiválva marad, hogy a stabilitást megőrizze a rendszer, és ebben a módban nagy órajelugrás nem lehetséges, vagyis a race to idle kondíció nem működik tovább. És ezt egy szoftver ki sem fogja jelezni, mert az AMD-nél már nincs valós idejű mérés. A hardver annyira gyorsan dolgozik, hogy a szoftverek tipikus, 3-6 másodperces mintavételezési időtartamán belül vagy tízezerszer ugorhat az órajel, miközben a GPU-Z még mindig azt mutatja, hogy betonstabilan idle órajel van. Akkor mutat valamivel nagyobbat, amikor a hardver egy nagyobb átlagot számol az adott időtartamra, de ez azért csalóka, mert arányaiban az adott tartományon belül többet voltál idle-ben, mint annál magasabb órajelen, vagyis nagyon az idle-hoz közeli lesz a visszajelzett érték, közben pedig a váltások miatt a fogyasztás jelentősen nőt, csak ezt egy szoftver nem tudja visszajelezni, mert túl ritka a mintavétel a hardver sebességéhez képest.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #36184 üzenetére

    És kezdtek egy középkategóriát 700 dolláros listaárról? Az milyen középkategória?

    A mostani árak elég jók, valamekkora általános drágulás a komponensek árának növekedése miatt, illetve a 7 nm-re való tervezett áttérés következtében úgyis lesz.

    Egyelőre nem hülyéskednek a Vega 12-vel. Ugyanúgy vannak mintái, mint a Vega 20-nak.

    Oké, megcsinálják, de nem tudták volna ideálisan árazni, mert bányászláz volt.

    Maximum az AMD-nek elég. Az NV-nek nincs x86/AMD64 licence a HBCC-hez.

    Egyrészt a HBM2-höz tervezni kell a lapkát. Ha azt GDDR5/6-hoz tervezted, amihez PHY szinten nagyjából elég ugyanaz, akkor arra nem tudsz már HBM2-t rakni, akkor sem, ha nem arra számítottál, hogy másfél év alatt megháromszorozódnak a GDDR árak. Ergo a GDDR-rel kell küzdeni. Annyit tudnak csinálni, hogy letiltanak pár csatornát, és akkor elég a kevesebb DRAM is.
    Az AMD eleve a HBM2-re készült, mert van HBCC-jük, amivel a kapacitás nem kritikus tényező. Az NV-nek is van hasonló, a Volta támogatja, de PC-n nulla IBM Power procival szerelt gép van a usereknél, vagyis ez a fícsőr itt nekik nem ér semmit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36192 üzenetére

    Olvasd el még egyszer. Most is azt írtam.

    A feszültségskálázás nem olyan egyszerű, ahogy hiszed. A környezeti hőmérséklettel akkor nem érsz semmit, amikor órajeleket kell váltanod. Az indításkor mindenképpen kell egy táblázat, ami alapján a vezérlés működni fog. Nem várhatsz valós időben táblázatgenerálást, mert nincs idő rá. Az indításkor kell generálni. Nyilván akkor para van, ha olyan környezetben csinálod, amikor teszem azt 15 fokon generálod, majd befűtesz 45 fokra, akkor már nem fog optimálisan működni a hardver, de a Vega akkor sem fog fagyni, a Polarisszal lehetséges volt. Bár ma már nem az, mert az Adrenalin driver sunyiban visszaállíthatja a feszt, ha nem tartja elég jónak a beállított értéket, maximum egy TDR-be futsz. :)

    A DVFS ugye már eleve egy beégetett táblázattal jön, ami a worst case-re van kialakítva.

    Nincs öntanuló mód. Mindent egy előre beállított szabályrendszer szerint csinál.

    Lehet alulfeszelni, csak nem feltétlenül éri meg. Jóval többet fizetsz érte az idle fogyasztásban, mint amennyit nyersz vele terhelés mellett. A legtöbb gépben az idle a kulcstényező, mert bányagépekkel ellentétben nincsenek leterhelve 24/7. Ha az AMD-nek utóbbi számítana, akkor alacsonyabb feszültséggel hozná a VGA-kat, de az idle fontosabb, mert a legtöbb gép az életciklus a 80%-át idle tölti. Ez ilyen nyersz vesztesz szituáció, de ha logikusan végiggondolod, akkor egy Vega 56 esetében az átlag 210 wattos fogyasztásból az alulfeszeléssel nyersz 20 wattot, de az idle-ben buksz legalább ennyit, de inkább többet. Az, hogy egy szoftver ezt nem mutatja, csak a szoftverek mintavételezésének lassusságára vezethető vissza.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #36194 üzenetére

    Mert mondjuk jó drága volt egy időben a Polaris 20.

    Ma már kezdenek visszaállni a VGA-k, így már normális MSRP árat lehet szabni. Jobbra ne nagyon számíts, drágábbak a komponensek, illetve a 7 nm-es node is sokkal költségesebb, mint a 12/14/16 nm-es. Ingyen nem fognak VGA-kat gyártani.

    A DICE-szal nem működik az az eladsz sok VGA-t modell. Pontosan azért nem erőltetik, mert a DICE nem igazán vevő a technológiákra, van egy saját elgondolásuk és azt fejlesztik. Emiatt nem volt hasznos a VGA-k eladásában a BF1. Ezért léptek át a Bethesdához, mert ők konkrétan az AMD-vel végeztetik az R&D-t, így például ott nem a fejlesztők döntenek a technológia kérdésekről, hanem az AMD. A BF5 kb. ugyanannyira fog VGA vásárlásra ösztönözni, mint a BF1, kb. semennyire. Főleg, mert rohadt jól fut. [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #36198 üzenetére

    Nem. Szerintem a felsőház olyan 700-1000 dollár lesz, a középkategória pedig 350-450.

    A magas VRAM-igény az nagyjából annyi, hogy Ultra->High. Minőségben nem sokat veszítesz. :) Most ugye a High->Ultra váltás alig kerül 2-3 fps-be, de persze az alfából hiányzik is az Ultra szint, csak papíron van jelen.

    2021-ben pláne ne várj olcsó VGA-kat. Akkorra az Intelnek itt lesz az Arctic Soundja, ami úgy 400 dollárig minden alól kirántja a talajt. Az AMD-nek is saját pGPU-val kell ellene mennie, mert dGPU-t nem fognak vásárolni az OEM-ek, ha a proci mellett ki kell fizetniük ugyanazt a teljesítményt. Az Intel érkezésével a középkategóriának úgy ahogy meszeltek. Az NV is ezért próbálkozott a GPP-vel, hogy rákényszerítse a gyártókat valamilyen szerződéssel, hogy mindenképpen kelljen dGPU-t vásárolni, ha ezek a gyors pGPU-k beütnek.

    A DICE-nál szart sem ér a reklámszerződés. Nem kötnek olyan üzletet, amivel nincs teljes kontrolljuk a programjuk felett. Ez volt az AMD baja, és ez lesz az NV-é is. Hiába szerződnek, akkor is saját kút fő után megy az EA. Egyedül a teljesítményjavaslatokat hallgatják meg. Az AMD-nek az előnye csak ennyi. Évekig ölték a pénzt abba, hogy a Frostbite tele legyen AMD-specifikus, nem szabványos shaderekkel, így a szabványos shaderek teljesítménye, illetve a culling rendszer procilimitje nem érinti őket annyira, mint a többieket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36202 üzenetére

    Szerintem nagyrészt pGPU-ban gondolkodnak már 2021-től.

    Ha megnézed, hogy a Kaby Lake-G milyen erős, és ez egy szimpla kényszerprojekt volt, akkor eléggé veszélyes a pGPU irány a dGPU-ra, amikor már tényleg olyan hardvert tervezel, ami ide jó, nem csak PCI Express interfésszel összekötve, hanem az AMD-nél GMI-jal, az Intelnél UPI-jal. És akkor egy rakás dolog egyszerűbb lesz. A tokozáson van a GPU, amit a CPU-val veszel, és nem kell költeni a NYÁK-ra, mert az alaplapot a CPU mellé úgyis meg kell venned. A memóriát pedig veszed bele külön, a tokozáson pedig lesz egy HBM2 cache-ként. Ezzel árban a dGPU versenyképtelen, de nem ez tesz be leginkább, hanem az, hogy az Intel és az AMD ebben a jövőképben ezt fogja erőltetni. Sokkal jobban járnak, ha minden CPU mellé eladnak egy GPU-t és fordítva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Mirman #36226 üzenetére

    Az Arctic Sounddal. Az AMD annyira nem lényeges, ők csak mennek az Intel után, mert nyilván nekik is káros lesz, ha az Intel kifizetteti a processzor mellett a tokozásra rakott pGPU-t is. Ilyenkor az OEM-ek nem fognak még egy extra dGPU-t vásárolni. Emiatt lett volna fontos az NV-nek a GPP, mert akkor ha technikailag nem is, de jogilag megkötötték volna az OEM-ek kezét, így viszont menni kell nekik is az Intel után, ami még mindig reális alternatíva, csak el kell érni a Microsoftnál, hogy végezze ki a Win32 API-t, és az UWP-vel az NV is nagyon jól ellene egy ARM proci mellett. Az Azure felhőből ez is tudná futtatni a Win32 alkalmazásokat.

    Szerintem a következő nagy Windows ugrásnál a Win32-nek eleve meszelni fognak, szóval az NV megmarad, csak nem dGPU-kat fog eladni, hanem ARM CPU+pGPU-t.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Envo_ #36232 üzenetére

    A WinRT az API. Az UWP az gyakorlatilag a Win8 "névtelen" app platformjának utódja.

    A hagyományos app platformnak idővel mennie kell. Akadályozza az ARM bejutását a Windows környezetbe. Ez nem lehet kérdés, az a kérdés, hogy mikor és hogyan. A Microsoft valószínűleg azt akarja elérni, hogy a hagyományos appok simán fussanak a felhőben az Azure-n keresztül, és akkor az ARM számára könnyű lesz beférkőzni a Windowsba, ami megnyitja az OS-t rengeteg gyártó előtt. Ezt maximum az Intel és az AMD ellenjavallja, de nézd a másik oldalt, hogy mennyi gyártó nyalja körbe az MS-t, hogy megtörténjen. Köztük az NVIDIA és a Qualcomm.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz beef #36240 üzenetére

    Az az 1/4-ed éves szinten úgy 200-300 millió dollár a VGA üzletágból. Ha teljesen elveszne, akkor sincs semmi, mert a többi terület sokkal gyorsabban nő.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Envo_ #36243 üzenetére

    Az egész AMD nem ad el annyi VGA-t, hogy a bevétel negyedét kitegye. Talán, ha beszámítjuk az APU-kat, a konzolokat, és a HPC-be szánt gyorsítókat, de ezeket nehéz VGA-nak nevezni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #36255 üzenetére

    De legalább aki csinálja ezeket ügyelne arra, hogy az NV admin felülete az: https://nvid.nvidia.com
    Ilyen hülyeséget kitalálni, hogy www.adminportal.nvidia... :D:D:D:D
    Már az álhírek sem a régiek basszameg. :DDD

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #36264 üzenetére

    Egyelőre semmi hivatalos nincs. Majd ha nem beszélek ezekről, akkor hivatalos lesz. ;)

    AMD-re is ugyanez érvényes. Ezek mind-mind pletykák.

    De elmondom egyébként, hogy VGA szempontjából sehol semmilyen hivatalos infó. Új hardver tekintetében annyit tudok, hogy mindjárt itt a Z390, ami tényleg jön, illetve a Threadripper, valamint pár új Rizsszem. Ezeket lehet várni biztosan, mert tényleg olyan adatok, hogy a gyártóknál is vannak kész hardverek, és a szállítást készítik elő. Lehet várni VGA-t is, de ezekről nincs semmi információ a gyártóknál. Még az új Intel HEDT-ről tudok, az is jön, már kész, de csak október körül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #36268 üzenetére

    Polaris felújítás nem igazán lesz. Nem tudja a RPM-et teljes sebességgel, miközben az AMD benyomta a fícsőrt több tucat motorba. A Resident Evil 2 Remake-nél úgy, hogy az összes karakteren TressFX lesz RPM-mel. Ilyen terhelésre nem alkalmasak a hardverek teljes sebességű RPM nélkül. Persze emiatt lesz egy low beállítás, de akkor is. Ezek megint fake news kategóriába esnek, de olyanok generálják, akiknek fingjuk sincs róla, hogy az AMD miket rakat be a motorokba.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Looserke #36272 üzenetére

    Össze, de rohadt drága lenne. Sokkal kedvezőbb az AMD-nek innentől kezdve HBM2-t használni, mert a Vega (és ami később jön) már lapalapú memóriamenedzsmentet használ. A GDDR6 a kapacitás miatt kell, ha az architektúra allokációalapú menedzsmenten ragadt. Nyilván nem akarnak ott ragadni, de például az NV-nek nincs x86/AMD64 licence a lapalapúhoz. Amúgy persze a Volta is támogatja ezt a fícsőrt, de IBM Power9 host CPU kell hozzá.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Looserke #36274 üzenetére

    Mert hiába hagyott alább a bányászláz, még így is elég jól viszik az aktuális készletet, főleg azok, akik eddig vártak a vásárlással. Egy új hardver megjelenése viszont elég sok pénzbe kerül, illetve a partnereknek is megfelelő átállási időt kell hagyni.
    Emellett az augusztus a legrosszabb hónap a VGA-k megjelenésére. Ha nincs rákényszerítve a vállalat, hogy kiadják, akkor inkább tolják novemberig, ami egyébként a legjobb hónap erre. A lényeg itt igazából az iskolakezdés, és ekkor a vásárlók nagyrészt inkább PC-t vesznek nem pedig szimpla VGA-t.
    Az elmúlt évek alapján az április-május és az október-november az ideális a start szempontjából. Míg a legrosszabb a január és az augusztus.

    (#36276) FollowTheORI: Nem jött az korábban, csak a TSMC az első 7 nm-es node-ra azt mondta, hogy nem lesz jó a kihozatala. Ehhez képest meglepően jó lett, így azok jártak jól, akik kockáztattak és ráugrottak az EUV nélküli 7 nm-re. Az EUV-s 7 nm-re a többiek jövő ilyenkorra tudnak ugrani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #36275 üzenetére

    És mit demózol vele? Minden komolyabb projekt jövőre jön.

    Ez a probléma ezzel az iránnyal. Titan V-n 18,4 ms Full HD-ben. Ha mondjuk 70 fps-sel fut Full HD-ben a program, akkor ezt bekapcsolva 30-cal fog futni. 3000 dollárért cserébe. Így ez nem fog nagy sikert aratni, mert eleve annyira ki kell végezned a raszterizációs pipeline minőségét, hogy többet vesztesz ott, mint amit ATAA-val nyersz. Lásd a Metro Exodus videó, ami gyakorlatilag egy 2010-es játék benyomását kelti. Még a 2x beállítás is 4,6 ms, és általában 3 ms az a határ egy csúcs-VGA-n, ami fölött nem éri meg pusztán egy effektet használni, mert bekapcsolhatatlan lesz a prémium szinten.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36298 üzenetére

    Lehet. A régi SiSoft adatbázisből megmaradt adat, hogy 28 CU van benne, de akkor az HBM volt rákötve. Ugyanakkor persze négyet letiltanak, meg lehet benne GDDR5 vezérlő is. 12/14/16 nm-en ezek már nem jelentenek nagy lapkaterületet.

    (#36302) Crytek: Ha ez a Fenghuang, akkor leveri, mint a szart. Az 1070-et is kergette a Compal tesztjeiben. Az a kérdés, hogy a teljes lapkából mit engedélyeztek, mert ennél több CU van benne fizikailag, ha ebből tiltottak le, akkor kérdés, hogy tiltottak-e ROP-ot, stb. Az Xbox-hoz nem érdemes hasonlítani, az nem PC. Sokkal jobb szoftverkörnyezetet lehet rajta használni. Hardveresen nyilván jobb a kínai cumó, akármi is van benne letiltva, de a szoftveres előny a Sony és a Microsoft kezében van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Crytek #36305 üzenetére

    A Raven Ridge teljesítményét nagyban visszafogja a memória-sávszélesség. Lehet, hogy marhára gyorsnak hat alapból, de laborszinten ki van mérve, hogy 60% sávszélemeléssel majdnem 50%-ot nő a teljesítménye is. A Fenghuang pedig nem csak több CU-t tartalmaz, hanem sokkal több setupot és ROP-ot is.

    (#36306) Petykemano: Attól függ, hogy miben mérik. Tesztszinten a saját alkalmazásaikkal. Az OEM-eknek van egy eléggé erős tesztcsomagja arra vonatkozóan, hogy melyik hardver miben erős. A Vega pár tesztben hagy mindent, de úgy tényleg mindent maga mögött (kivéve a Titan V-t, az eléggé tartja a lépést). Ilyen például a resource pressure, ami a Frostbite compute heavy tesztje. De egyébként ezt nehéz, illetve nem érdemes így kiemelni, mert ezt a tesztet direkt arra tervezték, hogy a hardver fusson ki az erőforrásaiból, és a wave-ek száma csökkenjen eléggé alacsonyra, csak a Volta és a Vega már nem érzékeny rá. Értsd ezt úgy, hogy hiába van feldolgozód és teraflopsod a GPU-ban, ha nincs hol tárolni a feldolgozásra váró adatokat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Z10N #36311 üzenetére

    Feltételezve azt, hogy a mostani gép a Fenghuang, akkor a konzolban a CPU GDDR5-ös memóriavezérlőt használ, míg az IGP-nél opció lehet a HBM2 a HBCC-vel, ugye a belső busszal a GDDR5 is elérhető. Az alaplapgyártók korábban is mondták még a Kaveri idején, hogy nem érdekeltek a GDDR5-ben, tehát ugyanúgy felesleges lenne nekik felkínálni. Valszeg marad a beágyazott piac még, ahol az ilyen csemegére rá szoktak cuppanni, és korábban voltak is róla híresztelések.

    A SiSoft alapján 28 CU lehet benne. A többi paraméter nem ismert, de nyilván 12/14/16 nm-en sok dolog elfér.

    (#36310) Crytek: De a gyártók nem így nézik. Náluk életciklusa lesz egy terméknek, tehát arra kíváncsiak, hogy a népszerű motorokban, az erre kialakított, direkt gyilkoló beállításokban mit tud majd. Ez alapján döntenek a beszállítóról.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #36313 üzenetére

    A CPU miatt. A HBM2 memóriabusza a Fenghuangon csak az IGP HUB-jába van bekötve. Ergo a CPU-nak is kell egy saját memória. Nyilván itt a HBM nem opció, mert túl pici a kapacitása. Az, hogy a GDDR5 drága nem igazán számít, mert nem tudsz mit rakni a helyére.

    Sose mondtam, hogy a Vega csak HBM-mel működik. Sőt, sokszor ismételtem el, hogy a HBCC nem függ a HBM-től. Azért van HBM2 a Vegán, mert jelenleg ez a létező legjobb memória. Csak nagyon sokan a HBCC-t a HBM-hez kötötték. Eléggé alaptalanul.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #36316 üzenetére

    Most ugye csak viccelsz velem? :) Hol írtam itt, hogy a Vega architektúra nem támogat GDDR5-öt?

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Kaptak egy doksit a partnerek, amiben benne vannak az AMD supportált címek az év végéig. Nem írják, hogy milyen szoros az együttműködés, de itt a lista: Strange Brigade, Star Control: Origins, Assassin’s Creed Odyssey, Fallout 76, Call of Duty: Black Ops 4

    Az első háromra támogatást ad az AMD, ha valaki a kártyái mellé akarja tenni, míg a Fallout 76 úgy tűnik, hogy egy Reward cím lesz.

    Szerk.: Rálestem a csillagozott részre. A Strange Brigade és Star Control: Origins explicit API-t is támogat. DX12/Vulkan van odaírva, de gondolom ezzel csak azt jelzik, hogy az egyiket ... vagy mindkettőt, nem egyértelmű. :U

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Televan74 #36329 üzenetére

    Dunno, csak ez a lényegi adat, ami bele van írva. Meg az, hogy novemberig ürítsenek, de az nem biztos, hogy azért van ott, mert új széria jön, lehet a felhalmozás is az ok.

    A Monster Hunter World az katasztrófa. Hat mag alatt hozzá se nyúlj. ;] GPU-ből nincs akkora igénye, de CPU-t azt két pofára zabálja. Igazából a nyolcmagosokat is képes megfektetni, négy fizikai maggal pedig konkrétan instabil. Elvileg known issue, de hogy lesz-e fix? :F

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #36333 üzenetére

    Aha, tehát akkor véletlenül sem az baj, hogy egy négymagos CPU-n az Intel VTune szerint a prociidő 15%-át sem tölti ki munkával. Már azt hittem, hogy a driver szálak nem engedik a hozzáférést a rengeteg szabad erőforráshoz a sok kényszerített stall miatt, de akkor kiderült, hogy azért lassú, mert nagyon jól van optimalizálva és nagyon jól skálázódik. :R
    Hála az égnek a PC-s port minősége is hasonló a konzolokéhoz. [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36361 üzenetére

    Nem a webdizájnnal dolgoztak sokat, de ez is fontos. Azért az elmúlt évben iszonyatosan sok panaszt kaptak, hogy kiadták az Adrenalint és egyszerűen nem volt egyértelmű, hogy miképp lehet eljutni a letöltéséig. :) Ezt idén el akarták kerülni. A mostani dizájn már eléggé egyszerű. Az új "nagyfrissítésnél" ez nem lesz többet baj.

    De mi köze van a HSA-nak az IGP-hez? Az működik dedikált GPU-val is. Nyugodtan próbáld ki. Olyan CPU kell csak, ami támogat PCIe Atomic-ot... Ryzen/Epyc, Haswell óta minden Intel. [link]

    A szerverpiacnak a nagy része csak CPU. De egyébként a Vega 20 pont arra a részre készül, ahol a Matisse mellé pakolható a GPU ugyanabba a tokozásba. A maradék terület pedig a teljes piac 3-4%-a, de ez anyagilag nagyon kis haszonnal kecsegtet. Mindenesetre a Vega 20 végleges mintája egy PCI Express 4.0-s kártya. Kb. így néz ki, csak díszítés nélkül: [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36368 üzenetére

    Ezt a feltételt nem csak IGP-vel lehet teljesíteni. Ami igazából kell az a címfordító a multiprocesszorba.
    A HSA önmagában egy olyan szabvány, ami különálló memóriákat nem is támogat, de mivel már rég nem a szabványosítás szakaszban vagyunk, hanem a gyakorlati, implementációs szakaszban, így a gyártók a szabvány adta kereteket ugyan kötötten implementálhatják, de ezen bőven túlléphetnek, ahogy az AMD túl is lép a ROCm implementációjával. Emiatt a HSA-nak van nekik egy HSA+ kiterjesztésük, amivel mehetnek a dedikált GPU-k is, GCN3+ architektúrával.

    A Vega 20 sok területre készül. A gyorsítónak viszont nem igazán lehet más célterülete, elvégre PCI Express csatolót használ. A tokozott megoldások támadhatnak mást is. Plusz ez a hardver ugyanúgy professzionális és gaming is, mint a többi.
    Az NV-nek az adatközpontokból 700 millió bevétele van. Az AMD-nek ugyaninnen nagyjából 400 millió. De az Intelnek nagyságrendekkel több, negyedévente majdnem tízmilliárdos szintű, tehát maga a piac óriási, csak az AMD és az NV eddig a morzsákat kapta belőle. Ezeket a morzsákat felszedegették, de nem fognak leragadni ennyinél. Az AMD-nél a Rome és a Vega 20 párosa fogja nagyon letámadni az egészet, amivel már az Intel sem fog tudni mit kezdeni, akkor teljesítményfölénybe kerülnek. Az NV is saját Power9 dizájnt csinál, ami megint az Intelnek rossz, hiszen már a mai GPU-ikat is Power9-hez szabják, hát még ha együtt is tervezik a platformot. Plusz jön fel az ARM, mint a talajvíz. Krzanich lassan látta meg, hogy hagyományos szempontból itt bajok lesznek, és ezeket is rosszul reagálta le. Vettek FPGA-gyártót, vettek egy rakás AI céget, szóval költekeztek mocskosul, amiből eddig egyedül a Nervana jött be. Az Alterával sem tudnak igazán mit kezdeni a 10 nm-es node nélkül, ráadásul a Xilinx szoftverben durván elhúzott, és még spanolnak is a konkurensekkel, AMD-vel, NVIDIA-val, IBM-mel, ARM-mal. Nem azért lett Krzanich kipaterolva, mert másfél évtizeddel korábban rossz helyre tette...

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36425 üzenetére

    Elvitte az AMD az összes 2019-es kapacitást. Tud másnak is gyártani a GloFo, de csak 2020-tól lesz rá gyártósoruk. Ez igazából nem nagy baj az IBM-nek, mert amúgy sem terveztek hamarabb 7 nm-re ugrani, és a partnereik sem igazán.

    A TSMC-hez lehet menni, de ott is elvitte a 7 nm-es FF kapacitást az AMD, az Apple és a Qualcomm. Majd valamikor az FF+-ből lesz annyi, hogy ne csak ez a három cég gyárthasson. Ez se akkora baj, a legtöbben az FF-t is kihagyták volna eleve.

    Egyébként a Power9-et nem igazán éri meg levinni 7 nm-re, mire gyártatni tudod, addigra le tudsz tervezni egy Power10-et.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Szeszkazán #36427 üzenetére

    Vagy a TSMC-nél vagy a Samsungnál. Vagy mindkettőnél, de akár a GloFo is opció, 2020-tól nekik is lesz igen sok gyártósoruk, és le is megy a waferár. De az EUV nélküli node-ot kihagyják, mert nem tudják optimálisan kigazdálkodni az árát. Nem azért rendeli csak a Qualcomm, az Apple és az AMD a 7 nm-es FF-et, mert csak nekik kell, hanem azért mert ők tudják gazdaságosan bevállalni.

    (#36428) Petykemano: Mindent 7 nm-en gyártanak, ami nem Vega 12 és Picasso. A GloFo tudtommal csak a Mattiséért felel.

    A dual source azért lett kialakítva, mert Lisa Su azt gondolta, hogy a Zen2-vel nem tudják majd kiszolgálni a piacot. Ezért kompenzációt fizettek a GloFónak, hogy engedje őket a TSMC-nél is gyártatni. Ezzel az eredetileg tervezett kapacitásukat nagyjából megtriplázták. Ez sem feltétlenül lesz elég, a Hot Chipsen volt olyan pletyi, hogy tárgyalnak a Samsunggal is, de az csak 2020-tól lehet opció. De ezért is kell majd némi kompenzációt fizetni, viszont alapvetően megéri, mert az Intel 2022-ig minimum kiütötte magát a szerverpiacról.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36432 üzenetére

    Nem. A 7 nm-es FF annyira drága, hogy oda egy pénzes piac kell. A gamer az nem pénzes. Bármennyire is furcsa azzal nem mész sokra, hogy egy teoretikus 400-500 mm2-es lapkát gyártasz majd 1000 dolláros VGA-kra. A profi szinten pedig az eladás lényegesen kisebb, hiába a sok nyereség.

    Az AMD azért engedheti ezt meg magának, mert a Rome a szerverpiacot célozza, ami méretben és nyereségben is sokkal jobb. Gyártanak majd 200 mm2-es lapkákat, amelyekből kettőt-négyet adnak majd 3000-8000 dollárért is, de a Hot Chipsen volt már olyan pletyi is, hogy a EPYC2 csúcsa 15000 dollár lesz. És ezen a piacon megveszik, mert nem a hardver a drága, hanem az üzemeltetés és a szoftver. És ha üzemeltetésben ez a hardver jobb, mint a korábbi, akkor visszahozza az árát. És valószínűleg az asztali Matisse verzión sem lesz hatalmas haszon, a Vega 20-on sem, de igazából mindegy, mert az EPYC2 kigazdálkodja, és csak emiatt már megéri váltani, a többi pedig ennek a hátán megél.

    Valószínű, hogy lesz kereslet. A Rome-ot az Intel leghamarabb az Ice Lake-kel fogja hozni, nagyon talán. De az csak 2020 végén jön. És addig az AMD kiad még egy Milan platformot, illetve a kicsit is veszélyesnek kinéző, de még mindig az IF-nél gyengébb UPI-ra építő Sapphire Rapidsot már a Zen5 fogja várni. Tehát az AMD meglátása szerint úgy 2023-ig biztosan uralkodnak majd a szerverpiacon a Zennel. Utána nehéz megjósolni, hogy mi lesz, ez már nagyon nagy táv, de az elkövetkező két-három évben biztosan el tudják adni a legyártott termékeket, akár sokat is.

    Az FF-et mindenki FF+-ra fogja váltani. Ez csak ilyen early megoldás.

    Szerintem az AMD az eredeti gyártókapacitást még arra kalkulálta, hogy 2018-ban lesz valamilyen 10 nm-es node-ja az Intelnek. Jelenleg 2019 ősz a target, és ez még csúszhat. Emiatt a Samsunggal nem árt tárgyalni, mivel az Intel most már szinte minden következő AMD-s termékre minimum egy generációval később tud reagálni.

    (#36435) Jack@l: A gyártósor és a technológia a GlobalFoundries tulajdona. Annak adja el, akinek akarja. Mivel az AMD az egyetlen kritikus partnerük, így természetesen ők élveznek prioritást. De ezzel nem hiszem, hogy baja van az IBM-nek, mivel eleve a Power10-hez tervezték a 7 nm-es átállást, ami meg úgyis 2020-ban jön. Az OpenPoweren keresztül pedig az IBM csak licencel, ahogy az ARM, majd a megrendelő viszi oda a lapkát, ahova akarja. Az IBM-nek ez marhára mindegy.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36436 üzenetére

    Eléggé messze lesz a Navi a Vegától. [link] - itt már lehet bogarászni, mert vannak benne gfx10-es cuccok. A Gfx10ForceWaveBreakSize alapján valamiféle packing megoldást kap a wavefrontokra, de akár az is elképzelhető, hogy MIMD dizájnról lesz szó. Nehéz ennyiből megállapítani, de az biztos, hogy ez egy orbitális különbség már önmagában.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36448 üzenetére

    Linuxon igen. Abba sokkal kevesebb pénz megy. Windowson már működik az IW, ami az NGG egyik eleme. Sajnos a Linux ennél sokkal könnyebben implementálható funkciókat sem kap meg, egyszerűen nem éri meg az erőforrást az az ~1%-os részesedés.

    Az NGG igazából nem egy eljárás, hanem sok eljárás együttes neve. Ebből a primitive shader nem működik, mert az AMD helyette inkább compute shader mellett döntött. [link]
    A Navi idejére csinálhatnak egy olyan pipeline-t az API-kba, amely támogatja a primitive shadert, és rendelkezik compute shader fallback-kel is a többi hardver számára, így a fejlesztő primitive shaderre írt kódja kompatibilis marad az összes, compute shadert támogató hardverrel. Persze csak DX12/Vulkan API-k esetében, mert ezeknél engedik meg a futószalag módosítását az új specifikációkban. Ezt eredetileg a Microsoft és a Khronos is arra tervezte, hogy könnyebb legyen a különböző, egyéb API-kat valahogy befűzni, de mivel ezek miatt szabad prédává vált a raszterizációs futószalag, így az AMD gondolom lecsapott a lehetőségre, hogy akkor lecserélik már az egészet, ami még a Vega idejében nem volt realitás, mert mások voltak a specifikációk. Most csak az van előírva, hogy ha valami változás történik, akkor azon belül mindenképpen legyen compute shader fallback, ami megőrzi a régebbi hardverek felé a kompatibilitást.

    Ha kicserélik a futószalagot, akkor annak az összes limitációjától megmenekülnek, ami manapság elég sok lehet, elvégre a mostani futószalag alapjait a 15 évvel korábbi problémákhoz tervezték, és megközelítőleg sem a mai geometriai komplexitáshoz. Természetesen igen sok hardver bőven tudna többet, ha nem 15 évvel korábbi döntések működtetnék a rendszer, ami alapvetően borzasztóan bekorlátozza az elérhető geometriai részletességet.

    Nem véletlenül látsz olyan dolgokat a mai motorokban, mint a GPU-driven pipeline és az abból kialakított GPGPU-culling megoldások. Ezek mind arra mennek rá, hogy ha a futószalag szar is, ahol lehet megkerüljék azt, így megpróbálják a hardvereket optimálisabban használni. Elvben a mai, modernebb hardverek (Vega, Volta, Turing) a mai részlegesség sokszorosát is elviselnék. Ez nem téma pusztán a nyers hardvernek. A 15 évvel korábban kialakított futószalag egyes döntésein megy el a teljesítmény.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #45185024 #36450 üzenetére

    Ez alapján a Vega 12 1280 shader, 80 textúrázó és 32 blending. Nyilván az órajelet nem tudni, de a Raven Ridge revíziója menne 1800-on is, csak nincs hozzá TDP-keret.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Cathulhu #36464 üzenetére

    Ennél sokkal nagyobb különbségen vannak a VDI környezetek között. [link]
    Az a dupla Vega 10-es megoldás egészen más szint, mint amit az eddigi megoldások képviseltek. Mind működésben, mind biztonságban.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #45185024 #36517 üzenetére

    Cube Map Capture Points. Ennek egy régebbi verziója van még a Radeon HD 3800-hoz tervezett Ping-Pong demóban. [link]
    A Cube Map nem csak úgy használható, hogy generálsz egy statikus alapot, hanem akár a teljes jelenet lementhető, így valós idejű Cube Mapok vannak mindig generálva. [link] - 3:19-nél látható is, ennek a hatása, a pingponglabdák visszatükrözik az adott jelenet teljes tartalmát. Ennek a megoldásnak az előnye, hogy a mai hardvereken nagyon olcsó, gyakorlatilag maximum 4-5%-nyi sebességcsökkenést okoz, miközben van teljes visszaverődés. A hátránya, hogy geometry shadert használ, tehát a memóriára vonatkozóan van egy nagyobb stream out terhelése. Bár ez leginkább tíz éve volt igazán baj, amikor csak 256 MB volt a VGA-kon.

    A Star Citizen is egy hasonló trükkre épít. Valós időben generálják a cube mapokat, így a visszatükröződés mindig valós idejű lesz, nem egy előre generált állapot. Bár ők nem az AMD megoldását használják, hanem írtak egy sajátot. Elég sok út vezet ugyanoda, nem kell feltétlenül elővenni a tíz éve kifejlesztett megoldásokat. A Star Citizen megoldása úgy tudom, hogy compute shadert használ, és az előző jelenetről dolgozik, így aszinkron compute-tal az egész mindössze 1-2%-os teljesítményvesztést okoz. Ez viszont lényegesen bonyolultabb, mint amit a Strange Brigade használ. Itt jön ki, hogy a Rebellion nem 100 millió dollárból fejleszt. Persze az Asura teljesítménye már alapból megengedi a némileg lassabb, de hasonló eredményhez vezető megoldást, tehát akkora gondot ez nem okoz.

    (#36521) Petykemano: Azért tegyük hozzá, hogy az NVIDIA sosem jelentette ki, hogy az általuk mutatott effekteket nem lehet elérni sokkal olcsóbban, más formában persze.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yany #36524 üzenetére

    Alapvetően valós idejű global illuminationhöz való ez a technika. Tehát ahhoz már egy csomó dolgot kiszámolsz eleve. A cube mapokat persze. Innen a reflection már csak egy olyan lépcső, ami csak betehetsz némi sebességvesztéssel, de a GI-hoz számolt dolgok zömét fel tudod használni. A GI nyilván jobban zabálja a sebességet, de ha ehhez még rákapcsolod a reflectiont, akkor onnan már csak kevés tempó veszik oda. A GI nélküli eredményhez képes valóban sokkal többet lassul, de úgy meg eleve nincs értelme alkalmazni. Ugyanez igaz a Star Citizenre is, csak egy már meglévő számítást egészít ki ahhoz, hogy olcsó reflectionhöz jussanak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #36554 üzenetére

    Miből kellene? Alapvetően a shading és a BVH határozzák meg a sebességet. Előbbi FP32 számítás, míg utóbbi a memória-sávszélességet zabálja, de nagyon-nagyon dulván. A denoising esetében hasznos a TOPS, de arányaiban ez a shadingra fordított időnek nincs a 20%-a sem.

    A 9,76 Gigarays/s azért jön ki neki a Vega 10-re, mert egyrészt ott nem háromszögek vannak, így nem lesz dulván limitáló a memória-sávszélesség, másrészt párhuzamosan futtatja az elsődleges és az AO sugarakat.

    A DXR-ben eleve nem lehet hardverre programozni. Csak a Microsoft fallback layer célozható az 1.0-s specifikációval. A DXR 0.9-ben még a programkódból kellett a hardverre programozni, de ez az 1.0-s végleges verzióból eltűnik. Semmilyen célhardvert nem tudsz címezni a programkódból. Az aszinkron compute-ról pedig nem az alkalmazás dönt, hanem a DXR futtatási környezet. Ez dönti el, hogy a compute parancsot odaadja a drivernek, vagy betölti az OS grafikai parancslistájába. Nyilván aszerint dönt majd erről, hogy a driver tudja-e egyáltalán a parancsot kezelni, ha nem, akkor az OS tudni fogja, csak nem compute parancslistában. Rapid packed math a shaderekre vonatkozik. A DXR-hez semmi köze nincs.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #36556 üzenetére

    A Quadro GV100 a Computexen egy out of memory üzenetig jutott. Itt nem csak azt mutatták be, hogy mennyire gyors a 7 nm-es Vega, hanem azt is, hogy nincs baja egy 80 GB-os modellel sem. Elfogadja akkor is, ha elvileg a 32 GB-os memóriájába be se férne.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yany #36558 üzenetére

    Itt ugye maga a számítás mértéke is extrém módok eltér. Amíg DXR esetében a fejlesztők nem igazán mennek egy sugár per pixel fölé (leginkább eddig se), és ott sem viszik el a sugarakat túl messzire, azért professzionális környezetben azért nagyságrendekkel több sugárral is számolnak, mert jóval nagyobb realizmus kell a kép szempontjából. Meg úgy általában a modellek is teljesen mások. Profi szinten egy modell akkora, mint két mai játék összesen. Ezek a szemcsés zajok igazából a minőség növelésével megszüntethetők, de ha ezt növeled, akkor durván nő az erőforrásigény is (nem igazán a számítási teljesítmény a probléma, hanem a memória-sávszélesség), és itt van egy olyan pont, amikor inkább keresel egy minőség és sebesség szempontjából is ideális középutat. A legtöbb renderelő erre ad többféle beállítást, tehát az egész a konfigurálástól függ, és nem igazán a hardverhez van köze.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #36560 üzenetére

    Nem valószínű. 80 GB a modell. Közkincsé szoktak néha tenni dolgokat, de 80 GB-ot hülyeség lenne.

    Csak egy sugár az nem egyenlő egy másik sugárral. Baromira nem mindegy ugyanis, hogy a gyorsítóstruktúra belefér-e az L1 cache-be, vagy esetleg talán az L2 cache-be, vagy csak a VRAM-ban. Aztán, ha ezen túljutottunk, akkor az sem mindegy, hogy a modell belefér-e a VRAM-ba.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák