-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
-
sutyi^
senior tag
Itt az eredendő elgondolás más volt.
AMD olyan GPGPU-t gyártott, ami jobbára befogható gaming-re.
NV olyan Gaming GPU-t gyártott, ami jobbára befogható Compute-ra.Konzumer piacon utóbbi lett a menő, bár ez annak is köszönhető hogy RTG fejlesztési ciklusok egyre hosszabbak lettek vagyis inkább csúsztak...
-Pedig nem is én utállak téged, te utálod saját magad! - ...és mégis egész nap együtt kell lennem saját magammal.
-
HSM
félisten
Van amúgy egy szuperjó írás az input lag témájában, szerintem aktuális. [link]
A probléma, hogy felhős játékoknál ezek a tényezők ugyanúgy számítanak, csak még hozzájuk jönnek újak, ráadásul ahogy írod, ami erősen RTT függőek is, ami azért baj, mert a "való életben" elég sokszor találkozni durván ingadozó RTT-vel, miközben adott esetben az átlag sávszélesség egész magas.
Illetve szerintem a két képkockás buffer is az abszolút minimum, nem véletlen van pl. az összes videó streamelő szolgáltatáson 30s körüli buffer (még élő közvetítésnél is minimum 4-5s!!!), minden szempontból kímélőbb és megbízhatóbb, mint alacsony késleltetéssel realtime átvinni ugyanazt.
A QoS esetében két óriási probléma van. Az egyik, hogy a teljes láncon, értsd, a user számítógépétől kezdve (nem elég, ha a streamelő alkalmazás tudja, minden másnak tudnia kellene) egészen a kiszolgáló szerverig mindennek kellően konfigurálva kell(ene) lennie ehhez, mégpedig úgy, hogy mindenki a te játékod priorizálja. Nekem pl. egyáltalán nem tűnik reálisnak, hogy nagy sávszélességű játékokat priorizáljanak, amikor tipikusan a kommunikáció (hang, videó, VOIP) szolgáltatások szoktak itt lenni, mivel a sávszélesség igényük mérsékelt, viszont a késleltetésre érzékenyek. Az nem reális alternatíva, hogy ilyen nagy fogyasztókat priorizáljunk, ráadásul ha megzabálták a szolgáltató sávszélességét, akkor már nem is tudsz priorizálni, mert nincs már miből adni.... A másik, ha ezek a kevéssé életszerű feltételek adottak is lesznek, még mindig az elérhető sávszélesség. Ha foglalt bárhol a csatorna, akár csak egy rövid torlódás idejére, már buktad a játékot. Pl. egy VOIP hívásnál ilyenkor van egy rövid kimaradás a hangban, de megoldod, vagy játékban is, de amikor a kép is elkezd durván bedöcögni, az azért nem túl szép játéknál.
Szerintem ezeknél a Gbites neteknél is legfeljebb addig tudsz normális megoldást adni, amíg nem használják túl sokan egy adott területen, mert minél többen használják, annál rosszabb kiszolgálási garanciákat fogsz tudni adni.Amúgy az sem véletlen, hogy pl. egy BF4 szervernél, ha 10 feletti a pinged, már erősen érezni azt is. Még nem játszhatatlan, de nem olyan élmény, mint amikor alacsony késleltetésű rendszeren, minimum 60hz-es szerveren tolod, szűk 20ms pinggel....
Ezért is írtam, biztos lesz ennek is szuper felhasználási területe, de kiváltani szvsz nem fogja a lokális PC-s/konzolos játékot.
(#40582) -Solt-: Ezt egyébként meg tudom erősíteni. Nálam viszonyítási alap "csak" a 60Hz-es közönséges IPS monitorom, 8ms GTG panellel. Már azt erősen észrevenni, ha 80Hz-re tuningolom, de tovább megyek, valami miatt DP porton is csökken a késleltetése a DVI-hoz képest, és az is érzékelhető. Sőt, BF4 multiban régebben azt is érezni lehetett, ha a Mantle móddal toltam, ami kevesebb képkockát bufferelt be CPU-n, mint a DX11 mód. Itt alapvetően néhány ms difikről beszélünk, képzeld akkor el, mekkora difi lehet ennek a nagyon sokszora....
(#40584) -Solt-: A monitor paneljének GTG válaszidejét szokták így jelölni.
-
Abu85
HÁZIGAZDA
Eléggé. Az A4 Engine nem lett jelentősen átírva, ezért is fut eléggé gyorsan.
Nm a háromszögről van szó, hanem arról, hogy a GPU felé mennyi adat megy. Egy GPU-driven pipeline motornál már a leképezés előtt ki lesz vágva egy rakás háromszög, amiért compute shaderek felelnek. Ettől még mérheted a GPU-k közötti különbséget a háromszögek terhelése szempontjából, csak a nagy terhelést a culling fogja jelenteni, ami viszont TFLOPS-okat zabál.
(#40683) Petykemano: Eleve az a probléma ezzel, hogy egy rakás új játék wave intrinsics shadereket használ, és ezek még a GCN-en belül sem szabványosak, tehát az lesz a leggyorsabb architektúra, amely a legtöbb intrinsics függvényt kapja a culling kódokon belül. Mindegy, hogy a hardver mit tud elméletben, ha nem ugyanaz a kód fut rajtuk. Szóval jelentősége lesz ezeknek, csak nem a hardvertől fog függni, hanem attól, hogy az egyes GPU-kon milyen nem szabványos optimalizálásokat engedélyeztek.
A szabványosság is para ebből a szempontból, lásd a World War Z-t, ami először csinálja azt, hogy szabványosan elérhető intrinsics függvényeket használ minden hardverre a cullinghoz is. Aztán ez jól megkavarta ám az állóvizet, és nem azért ver a Vega mindent, mert annyira gyors maga a hardver. Szóval a hardver az intrinsics függvények terjedésével, főleg a szabványosokkal nem pont egy egzakt kiindulási pont, mert nagyon sok függ magától a kódtól. Az a hardver lesz a legjobb, amelyiken maga a shader, illetve ennek a fordítása a leghatékonyabban fut, ettől a hardvernek nem kell nyersen a leggyorsabbnak lennie.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem basztam le, csak rávilágítottam, hogy a Frostbite, az AnvilNext, a Snowdrop, a Dunia, a Dawn, a Foundation, az Asura, az id Tech, a Saber, ésatöbbi-ésatöbbi motorok már másképp működnek, mint az elavult feldolgozási formát megvalósító 3DMark, Unigine, Metro, stb. motorjai. Emiatt mások az arányok is egy újabb motorban, már csak azért is, mert a háromszögek feldolgozása részben compute feladattá vált bennük.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Például arról, hogy ezeknek a hardvereknek a parancsprocesszora eltérő, így mondjuk egy async compute visibility test, ami egy GPU-driver pipeline motornál eléggé tipikus nyilván sokkal jobban fekszik egy újabb dizájnú hardvernek. Ettől a TFLOPS lehet ugyanolyan, csak ahogy a Vega 20-on is látszik. Nagy különbség van parancsprocesszor és parancsprocesszor között.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Én nem akarok árulkodni, de a World War Z-ben a Vega 56 még a 2080-at is veri, ráadásul utóbbi azzal a driverrel futott, ami +18%-ot hozott rajta. Ezzel a driverrel egyébként a 2080 Ti elkapja a Vega 64-et. De ahogy korábban is írtam, a subgroup egy kellemetlen dolog, mert nagyon sok tényezőtől függ, tehát nem lehet kiindulni az első fecskéből, de még a sokadikból sem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem. A WWZ csak az első játék, ami használ subgroup shadereket. Mindig van egy első fecske. Aztán követik a többiek. Itt most kellene még példa, mert a subgroup nem egy nagyon specifikus újítás, hanem eléggé általános. Tehát a hatása sem specifikus, hanem a használattól függő, elvégre alapvetően megváltoztatja, hogy egy shader miképpen futhat egy multiprocesszoron.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Envo_
aktív tag
Én szálljak magamba, mikor én vagyok az aki képtelen egy terméket megvásárolni, hogy tényleg a kívánt terméket kapjam meg azon az áron amit megérne?
Kérdem én, mit érzel akkor, amikor pl egy játékot meg tudsz venni 20€-ért, és ha egy hozzá tartozó starter packkel együtt 30€. Na most képzeld el, hogy a játékot csak a 30€-s csomagon keresztül tudod megvásárolni, és képtelen vagy hozzájutni a 20€-ért, amennyit igazából tényleg érne, és amennyit akarsz rá kiadni, mert úgy neveltek, hogy ne szórd feleslegesen a pénzt.
"de hát 30€ értékű dolgot kapsz" ja... hurrá
[ Szerkesztve ]
-
Mi járul még hozzá? A #41894-ban leírtakból szerintem ez elég jól következik. Ja meg azt is el is felejtettem, hogy az 12 nm az FFN, azaz NV-nek készült saját gyártósor, ez így akkor nem drága?
Meggyőzhető vagyok, csak ne ilyen kartelles meg mocskolódós "érvek" jöjjenek.
[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Pug
veterán
- wafer cost
- naked production cost
- additional QA check cost
- yield
- volumenMiniél nagyobb a lapkád annál magasabb a wafer cost per chip (eléggé triviális)
Minél nagyobb (magasabb komplexitás általában ezzel kéz a kézben jár a Semi businessben) a lapkád, annál nagyobb a selejt aránya. Szóval de, a chip méret és komplexitás mocskos módon meg tudja dobni a költségeket.[ Szerkesztve ]
-
Igen, ezzel nehéz vitatkozni.
Csak azért a 314, 471 vs 445, 545, 754 számok elég beszédesek. Ilyen még sosem volt. A 2070-es kártya saját chipet kapott, s nincs vágva, mint az 1070; tehát bazidrága lehet, hogy nem éri meg vágni, inkább külön lapkát kapott. Sőt, a nagyobb lapkát használó kártyák vágva vannak. Ez már olyan méretbeli különbség, ami ha nem befolyásolja erősen az árat, akkor semmi. Ugye a chipmérettel a gyártás ára exponenciálisan nő, főleg exkluzív gyártósoron.
[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Jó, nevezzük nevén, azaz polinomiális növekedésnek, hisz x^a nem pedig a^x. Szóval egy kétszer akkora lapka nem dupla, hanem inkább tripla vagy még magasabb áron van. Ez ugye legalább háromkettedik hatvány kb, számoljunk ezzel, szerintem eléggé óvatos érték ez.
Az azonos számú (azaz pl 1080 és 2080) Turing lapkák átlagosan 60%-kal nagyobb méretűek a Pascal-nál, 3/2 hatvánnyal számolva ez dupla ár / GPU minden kategóriában. Ez azért nagyon nem kevés. Ugye a Turing legkisebb GPU-ja akkora, mint egy GP102.
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
-
Az kártyák közötti arányok tényleg nem igazán stimmelnek. De egy kártyán belül az alkatrészek árának aránya azért eléggé reális.
Előállítási költség lesz az, hisz egy kártyán a GPU-gyártónak kéne a legtöbb hasznot hajtania, nem pedig a VGA-gyártónak, aki "csak" összerakta a tervek alapján a referenciakártyát.A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Pug
veterán
Arra nem tudok magyarázatot adni.
Maximum, ha a fogyasztó abban reménykedik, hogy az új szegmentációban megjelenő terméknek sokkal jobb lesz a perf/price mutatója, mint a szériában eddig jelenlevő daraboknak. a'la "népkártya". Amit én sajnos erősen kétlek a mostani piacon. -
Petykemano
veterán
Örülnék, ha belemennél a számokba, mert érdekel.
Ez a $100-120 hogy jön ki? Százalékos, vagy fix? Mik a számok egy $139-os rx 570 esetén? Vagy egy $99-os proci esetén? Azt akkor az utolsó centig lenyeli a kereskedelmi lánc és logisztika?Találgatunk, aztán majd úgyis kiderül..
-
#82819712
törölt tag
Azt állítod hogy egy mondjuk 300 ezer forint értékű kártyának 150 ezer forint onnan hogy áll egy raktárba bedobozolva eljutnia hozzám ha megnyomok egy BUY gombot pl az AMD oldalon úgy hogy én fizetem a hajózást mert az postaköltség ???
Na mindegy egy Edge UP post azt mondja nem jön Augusztusban Asus Navi custom kártya csak majd később.
[ Szerkesztve ]
-
nagyúr
Számítógépes játékok esetén a vételár nagyjából 25-30%-át viszi például el a disztribúció fizikai kiadásnál. Ezért lőtte be a Steam is 70%-ra a játékok árának royalty-ját (royalty: a tartalom készítőjének részesedése a teljes bevételből), mert nem árulhat(tta) olcsóbban, mint a fizikai boltok.
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
paprobert
senior tag
Egy öreg motoros Nvidia mérnök beszélt felületesen arról, hogy egy $150-os kártya esetén, ha az alkatrészek ára nem jön ki összesen $50-ból, akkor baj van.
Ez persze régi infó, azóta változott a világ, de nagyrészt jól mutatja hogy hogyan kalkulálnak a cégnél.
[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
-
Petykemano
veterán
DE (ezúttal ) én se azt mondtam, hogy $250-en kellett volna hozni.
Hanem azt, hogy néhány peremfeltétel teljesülése esetén:
- tovább javul a kihozatal
- nem nő a kereslet a 7nm iránt, tehát bő gyártáskapacitás mellett, tehát ahogy avul el a 7nm, csökken iránta a kereslet
- ha nem indul be a mining
- és ezzel együtt más alkatrészek, különösen a ram árának változatlansága mellett2-3 negyedév múlva a $250-300 árra való csökkenést nem tartom irreálisnak. És akkor még azon is lenne haszna a szereplőknek.
Egyébként csak azért fogalmazok pikírten, mert Simid megkérdőjelezte a az $50-60 lapkárat és beárazta $90-re. Te pedig azt állítottad, hogy a disztribúciós költségek elérik a 40-50%-ot.
Ha ezt koherensen összeadod:
$90 wafer költség +35% TSMC margin = $120
$120 die költség + 45% AMD margin = $175
$175 + add hozzá a PCB-t és RAM-ot: $40+$80 =~ $300
És akkor ha a teljes ár 40-50%-a a disztribúciós költség és margó (amibe benne van az AiB partner margója is), akkor azt jelenti, hogy ez a $300 a teljes ár 50-60%-a, ami azt jelenti, hogy legkevesebb $500-ért kéne adni a végterméket.Így akkor a $349-399-ért adott kártyákon valaki vagy masszívan veszteséges, vagy valamelyik szám nem stmmel.
De ezt egyikőtök sem számolta koherensen végig.Találgatunk, aztán majd úgyis kiderül..
-
nagyúr
Itten van, rögtön 4 modell is:
Nyilván minden egyes adatba egyenként bele lehet kötni, nálam ezek a feltételezések jöttek ki némi olvasgatás után. Az AMD marginja a számolt érték, azaz ennyi marad meg, ha minden mást leveszünk az MSRP-ből.
Az MSRP-t és az igen népszerű disztribúciós költséget két-két változatban is feltettem. Látható, hogy 299 USD-s áron még a kedvezőbb disztribúciós ár mellett is kevés az AMD-nál maradó pénz, ha az én feltételezésem helyes a 40%+ környékével, akkor egyenesen mínuszba mennének. A 399-es ár esetén tisztességes marginjuk van 40%-os disztribúcióval, és egészen magas 30% esetén.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
awexco
őstag
Annyira tévedésbe vagy , hogy nem is tudod ... a szállitás a legolcsóbb dolog az egészben .
de igen emlegetett egy bolond pali 40% -ot ."ha a kisker 1-3%-kal dolgozik, akkor az MSRP alatt adja az árut" : ezek a piaci árak .
8-10% helyett 3%, akkor a fenti szám is kevesebb : max a gombelemre tud annyiért adni meg a skype kompatibilis fülest .
I5-6600K + rx5700xt + LG 24GM77
-
Petykemano
veterán
Engem sokkal jobban zavar, hogy ahelyett, hogy a nemrég megjelent Arcturus/GFX908 infókról találgatnánk, ahelyett arról szól a diskurzus, hogy a nulla hozzáadott értékket hozó, mégis magas renoméval bíró általában az élő fába is rendszeresen belekötő tuskó stílusú fórumozó szerint egy másik dilettáns.
[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
Ó nem csoda az. Ugye tipikusan jellemző, hogy minden új architektúránál kell némi idő, mire a fordító kiforr. A GCN-nél is volt egy driver, ami dobott egy 10%-ot a legelső meghajtóhoz viszonyítva, ami jött a HD 7970-hez. Az után 1-2%-okat lehetett általánosságban hozni, de ugye amíg nem ismered tökéletesen a hardvert, addig van benne tartalék, és ez a zsír új architektúráknál jellemző, ahol a kezdetekben nehéz nagyon teljesítménycentrikus szoftvertámogatást adni, elvégre kevés idő volt a hardver megismerésére. Persze ezeket lehet csodának hívni, de csak tapasztalatszerzésből eredő optimalizálásról van szó, ami az új architektúráknál többet ér, mint ha egy régi architektúra áttervezéséről lenne szó.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
A Kepler ugyan tényleg sokat hozott, de inkább úgy fogalmaznék, hogy utolérte a GCN-t (GK104 vs Tahiti), nagy különbség nem volt. A Maxwell csinált csodát. Ez az amit csak a Polaris-szal tudtak hozni. Most meg a Navival hozzák a Pascal / Turing szintjét. Maga az olló nem nyílik, habár komoly lemaradásban vannak, ez tény.
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Mumee
őstag
Ez csak azért tűnik így, mert (gondolom) a rossz kihozatal miatt közel sem optimális keretek között lett kiadva a kártya.
1,2V GPU, 1,2V SoC , de még sima nonXT 5700-nál is közel 1V GPU, 1,2V SoC.
XT esetén a gyári órajelet a kártyák 95%+ bírja 1,1V körül, 1V pedig 1900-1950mhz-hez kell nem 1750mhz.
SoC pedig AIB-ok is mind 1,05V-on jöttek.
Ezzel a 2 fesz-el pedig undorító módon együtt mozog a fogyasztás.
Az a 0,1V a GPU-n kb. 50W és a SoC-on a 0,15V is kb. 10W.1,1V GPU körül kéri be a 200W-ot, ami az alapórajelhez elég.
A sima 5700 normális fesz-el 150W-ból megvan peak-el együtt, alapórajelen. -
Mumee
őstag
Biztos vagyok benne, hogy nem fogják, de ettől függetlenül ez legalább nem a Navi architektúra hibája, csak nem optimális órajel/feszültség -en adták ki, gondolom megint azért hogy 2060-2070-nél biztosan gyorsabb legyen a két 5700 és minél kevesebb selejtel.
Érdekesség képpen :
1,3V-on Hwinfo 300W, Igor-nál [1,25V] normális méréssel 250W volt, így nagyjából reális a 300W, még ha nem is teljesen pontos, hisz víz alatt volt mind2.
A 30k graphics pont pedig 2080 Super szint, ami 350W gyárilag Furmark alatt. [link]Persze itt optimalizálva van már az 5700 és víz alatt, léggel lenne ez is 350-380W.
A lényeg, hogy felfelé is korrektül skálázódik a Navi, arányosan a feszültséggel és hűtéssel és nincs elborulva az Nvidia-tól teljesítmény/fogyasztásban csak optimalizálatlanul van gyárilag és 7nm. -
Prohardveren (teljes rendszer fogyasztása terén) a 680 perf/watt 10%-kal volt jobb 7970-nél, a TPU teszt szerint (csak GPU-t mérve) csak 5%-kal. Mondjuk ez eléggé ellentmondó. A 480 vs 5870 esetén az utóbbi 17%-kal jobb PH teszten, míg TPU-nál meg 60%-kal, ami azért bőven odabasz-kategória. Szóval fordult a dolog, de arányaiban nagyon más, csak erről van szó.
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen