- Akciófigyelő: Humble Games Bundle - Nightdive FPS Remasters
- Call of Duty: Modern Warfare III - Új szezon, újabb ingyenes hétvége jön
- Hunt: Showdown - Jön az engine csere, befutnak az újgenerációs verziók
- Steamre tart a Crime Boss: Rockay City
- The Witcher - Befutott a TV sorozat folytatásának első rövid kedvcsinálója
-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
A textúratömörítés úgy 25 éve volt innováció. Manapság nem az. Az AI textúratömörítéssel pedig rengeteg gond van. Például az, hogy nem rendelkezik különálló regisztertárral az AI hardver a multiprocesszorokban, így nagymértékben lassítja a shaderek feldolgozását egy ilyen munkafolyamat. Arról nem is beszélve, hogy a kikódolt tartalom irtó méretes lesz, így kb. 40-50 GB a belépő a VRAM szempontjából. Akkor persze talán reális alternatíva lehet, de amíg a VGA-knál nem válik általánossá a 32 GB, addig nehéz lesz vele mit kezdeni, mert az lenne az optimális, hogy egyszer kikódolja a tartalmat az AI motor, és elmenti a VRAM-ba. A valós idejű kódolással a VGA teljesítményének a 70-80%-a elvész, mert nem marad regiszter a valós munkára.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yany
addikt
Úgy néz ki, hogy sem a vevők (ld. piaci tendenciák), sem a szakportálok (ld. legutóbbi HUB videó) kedvét nem az AMD oldalára tolja a jelenlegi felhozatal. De a kérdésem sokkal inkább a jövő és a trendek változására vágyásom miatt kérdeztem, nem amiatt, hogy _most_ mi van. De ha 0 innováció van a tarsolyban (és úgy néz ki, hogy így van), akkor ennyi. Az erőlködés nyoma sincs sehol. Kár.
szerk.: Abu, amúgy ezt a VRAM témát nem egészen értem, miért beszélsz mégtöbb VRAM használatról, mikor ezek a technológiák épp annak támogatására születnek, hogy ne kelljen annyi VRAM. Valaki felhomályosítana, hogy most én értek valamit félre, vagy a szokásos félredumát látom megint? Nem bántani akarlak Abu, de mostanában (nem csak nekem) annyira nem a kérdésekre válaszolsz, hogy szörnyű látni és már lassan nem tudom, hogy csak félreértek valamit, vagy tényleg én vagyok helikopter.
[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
-
kopi72
aktív tag
Sziasztok megkerdezem itt is, tenyleg nem erdemes mar desktopot es vga kartyat venni gaming-re?
van par kollegam, akik valtig allitjak, h pl a Steam Deck-el 4K kulso monitorra kirakva a mai ujabb jatekok legalabb 60 frame/s -el futnak full high felbontasban... Pl Far Cry 6, ez a cucc meg kb 140-150e ft csak! es ez a HW : "AMD APU
CPU: Zen 2 4c/8t, 2.4-3.5GHz (up to 448 GFlops FP32)
GPU: 8 RDNA 2 CUs, 1.0-1.6GHz (up to 1.6 TFlops FP32)
APU power: 4-15W"Aztan egy masik kollegam meg vett egy Mac air M2-t az meg szerinte siman lenyomja az RTX 4070-et 9 watt-al!!!!
Ez szerintetek igaz?[ Szerkesztve ]
Magyarorszag a mosoly orszaga. Akar kiskoruton akar nagykoruton elmenygazdag utazasban lehet resze!
-
Abu85
HÁZIGAZDA
A VRAM használatának csökkentését nem ilyen technológiákkal lehet elérni. Erre például traversal shader kellene, valós idejű defragmentáció a memóriamenedzsmentbe, Microsoft ajánlásait követő bekötések, stb. Utóbbi kettő rendelkezésre is áll. Vagy ultimate megoldásként ott a lapalapú menedzsment, amit a konzolok is használnak. Azzal harmadolható a memória terhelése.
Az olyan újítások, mint mondjuk a DirectStorage, a nagy teljesítményigényű textúratömörítés mind csak növelni fogják a VRAM-igényt, mert ugyanazt az adatot kétszer is megkövetelik a VRAM-ban. Egyszer kódolva, egyszer pedig kikódolva.
A másik lehetőség, hogy ha külön regisztertárat kapnak az AI feldolgozók a multiprocesszorokon belül, de az akkora tranzisztorköltséggel járna, hogy nem érné meg. Tehát az elkövetkező pár generációban erre nincs esély. Sokkal nagyobb annak a valószínűsége, hogy raknak a GPU mellé 32-64 GB memóriát, és akkor onnantól kezdve nem kell valós időben gondolkodni a textúrakitömörítést tekintve.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mert akkor nem a regisztertárat terhelte a munka, hanem erre szabott dedikált részegységet. Extrém különbség ez. A textúratömörítés addig csökkenti a VRAM terhelését, amíg erre van egy dedikált hardvered. Amint nincs, és a regisztereket költöd a feladatra, rögtön elkezdi lezabálni a konkurens wave-ek számát, amitől lassul a GPU, vagy lemondasz a valós idejű kikódolásról, és a VRAM-ot terheled szarrá.
Mint írtam a VRAM-igény csökkentéséhez igazából két alapvető dolog kellene inkább: Microsoft ajánlásait követő bekötések, illetve defragmentáció a memóriamenedzsmentet tekintve. Ezeket elég ritkán használják a PC-s játékok, mert nagy lehet a többletterhelés a CPU oldalán. Vannak persze pozitív példák, lásd újabb COD-ok, újabb AC-k, indie címből a Plague Tale: Requiem. Ezek valamennyire spórolnak a VRAM-mal, mert jól van felépítve a menedzsment, de közben meg átlagosnál nagyobb a többletterhelés a CPU-n.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yany
addikt
Teszem azt a DLSS-hez szükséges részeket terhelő megoldással kvázi le kell mondani a DLSS-ről. Érdekes kompromisszum lehet a VRAM használat csökkentése mellett. Én simán látok ilyesmi lehetőségekben potenciált. Meg legalább értékelem a törekvést. Ezért gondoltam itt az AMD topicban rákérdezek, hogy most milyen törekvés látszik az AMD oldalán legalább a horizonton...
Építs kötélhidat - https://u3d.as/3078
-
HSM
félisten
válasz kopi72 #61363 üzenetére
Igazából ki és miért venne 200+ W-os, 20 Tflops-os VGA-t, ha 15W-ból, 2Tflops-al is elég lenne tizedannyi pénzből?
Ha a költői kérdés nem elég, nézd meg őket, kipróbálták: [link] . Szóval, medium/low 720P-n egész jól elfut pár hardverigényesebb cím is. Biztosan nagyon jól nézne ki egy 4K monitoron... -
PuMbA
titán
válasz kopi72 #61363 üzenetére
De van, csak ha valaki ennyire lusta, hogy annak se képest utána járni, amit 2 perc alatt könnyű szerrel megtalál, az valójában nem akar tudást felszedni, csak menőzni akar a nem tudásával:
1280x800 felbontáson, legalacsonyabb grafikán tud 35-50 fps-t a Steam Deck.
[ Szerkesztve ]
-
félisten
válasz Alogonomus #61328 üzenetére
Csak ez nem véletlen. A szoftveres RT PC-n nem tudja azt nyújtani amit a hardveres jelenleg. Tehát azért is veszít kevesebbet a sebességből amiért itt láthatod.
Nvidia megoldása jelenleg a legpontosabb és legjobb de ez is csak kapizsgálja a z RT felületét.
Ezen lehet javítani biztos API val meg egyedi megoldásokkal,( Vulkan alatt is gyorsabb lenne az RT ) csak el kellene tudni néha fogadni, hogy az Nvidánál elég jó mérnöki gárda van és hogy már a 3. generációt dobják ki a piacra, amiben azért van hardveres részegység, mert tudják hogy az RT nem véletlenül hardver igényes, mert minőségi ugrást is kellene hogy jelentsen grafikában.
A Raytracing pontos és valósághű.
Szotferes RT amúgy tök jó gyengébb kártyákra de nem véletlenül van lehetőség hardveres megoldásra is a motorokban, mert így mindenki nyer ezzel a dologgal.
Azért hogy lehessen látni hol tartana most Nvidia ha a saját útját járhatná és nem lenne bekorlátozva API-ba és egy megfeleltetetési kényszernek hogy minden futnia kell egy játéknak, 4090-ről itt hagyok neked egy táblázatot hogy lásd ha kimaxolnának egy Szoftveres RT-t és egy Ada 4090 hardveres RT tudását mennyi lenne a különbség. Brutális és ez a szám a valóságot tükrözi , nézve 7900XTX és az előző genes Ampere kapcsolatát nagyjából ez látszik a játékokban is.Szóval hidd el Nvidiát hátráltatja jelenleg ez az Api és ez a megoldás hogy jó lenne ha Microsoft lépne, mert szoftveresen nagyon el van maradva minden az Ada valós RT tudásához képest. Ha most Az RTX 4090 egy konzol lenne saját APIval jó ideig kapaszkodna utána bárki ,aki szoftveresen be akarná hozni ezt a lemaradást.
Tehát baromira nem lenne jó senkinek ha akár az Nvidia akár az AMD saját megoldásokat erőltetné.
Jó dologm, hogy hogy egy alapjában raytracinghez gyenge hardveren próbálunk szoftveres trükkökkel javítani ,de ha ez AMDnél egy saját utas megoldására alapszik, akkor könnyen eljöhet azt hogy Nvidia rálép arra az útra, hogy a saját címeit úgy telepakolja ,hogy egyetlen AMD kártyán sem fog megmoccanni.
EZ elhozna azt hogy megosztódna a piac, ami senkinek nem lenne jó. Szóval a megoldás Microsoft lenne és egy egységes API, ami folyamatosan fejlődik.Én azt gondolom jókor vettem a 3080 12 GB kártyát. Nem emlékszem Pontosan 800 euro körül volt de lehet tévedek (garanciával) jelenleg ezt a teljesítményt a 4070 Ti übereli az eddigi kártyák közül az új genben és a 7900XT, de drágábban.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
A DLSS alig használ tensor magot. Az 98%-ban a shadereket fut, az algoritmus egy egészen elenyésző része AI csak. Ugyanaz a probléma, mint az AI textúratömörítésnél. Ha elkezded terhelni a tensor magokat, akkor lezabálod a regisztert és nem jut elég wave a fő feldolgozótömbre. Ezért használ csak elenyésző mértékben tensort.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Itt megint az a gond, hogy az RT nem csak Ray-triangle intersection vizsgálat... Jól néz ki papíron ez, de a gyakorlati haszna szvsz erősen kérdéses az alapján, amiket eddig láttam RT-s shader elemzések.
Abból is világos lehet, hogy pl. semelyik mai játék semelyik beállításán nem hoz a 3090Ti másfélszeres tempót a 7900XTX-hez képest, és a 4090 is legfeljebb csak dupla tempó, a 4X-esnek a közelében sincs. A 4090 esetén ezt rá lehet fogni az API-ra, a 3090Ti esetén viszont nem, hiszen a mai 1.1 DXR API kb. arra a hardverre íródott. -
félisten
Nem íródott semmi arra hardverre, ez urban legend. Az Intel belépett a piacra és az Arc 770 sok esetben hozza a vele egyenrangú Nvidiás társát RT alatt. [link]
A Miértjét leírtam miért nem láthatsz .mert ezek elméleti számok és semelyik gyártó nem saját megoldásra fejleszt( szerencsére), kivéve pár techdemót. Ott a Portal próbáld meg futatni egy 7900XTX-en.[link] hányszoros sebességre képes az RTX 4090 ..[link]
Ha megosztódik a piac ez várható.
Nem értem miért lehetetlen elfogadni itt ezt hogy egyszerűen RT alatt szükséges mérlegelni hogy az AMD hardverek gyengébbek ebben. Lehet elhitetni hogy majd szoftveresen be lehet ezt hozni de csak úgy ha a másik gyártó kártyában benne hagyjuk a sebességet és /vagy a minőséget. Mind a két út szükséges.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
HSM
félisten
Ez is pl. arra utal, hogy nem a metszésvizsgálat miatt lassú pl. az RDNA2 RT-je [link] .
A második bekezdésed nem tudom hova tenni, de biztos nem arra reagál, amiről beszéltem.
Azzal teljes mértékben egyetértek, hogy egy épkézláb API nagyon kéne, ami mindkét hardverre elég jó. -
Alogonomus
őstag
válasz Alogonomus #61372 üzenetére
*egyik legszebb RT megvalósítás, hogy pontosan idézzem
-
félisten
válasz Alogonomus #61372 üzenetére
Biztos így van , csak jelenleg szoftveres RT UE5 alatt korlátokkal küzd és nagyon sok olyan javításra vár ( ha megnézed az UE5 checklistáját láthatod Régebben már kitárgyaltuk de benn is van a motor leírásában- amit a DXR API-n hagyományos sugárkövetéssel hibátlanul teljesíthető és szerencsére támogatja is a hardveres RT-t.
A videóban láthatsz ebből párat és az 5.2 ebből nem hozott ezen a téren javítást.
Miattam terjedhet ez is engem nem zavar csak azért hoztam a példát hogy lásd a sebességnek ára van és hogy a zöldek nem hülyék. JÓ minőségű a DXR csak nagyon magas a hardverigénye.HSM: Jogos ,a második fele nem neked szólt. Általánosságban címeztem.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
kopi72
aktív tag
válasz Busterftw #61373 üzenetére
Sajnos biztosan tudom, h az egyik most vett M2-t. De nem szokott jatszani, es linuxot hasznal a mac-en is. Raadasul okos, ertelmes embernek ismertem meg, de nagyon elcsodalkoztam ezen amit mondott : "az M2 lenyomja az RTX 4070-et" :-)
Magyarorszag a mosoly orszaga. Akar kiskoruton akar nagykoruton elmenygazdag utazasban lehet resze!
-
TESCO-Zsömle
félisten
válasz kopi72 #61354 üzenetére
Nekem azért "kellett" a 6900 XT-t lecserélni egy 7900 XTX-re, mert 4K alatt már kevés volt.
Persze, ki lehet rakni a SteamDeck képét a 4K TV-re és ha kellően messziről nézed, akkor még jó is lesz rajta a 720p felbontás, de hogy az a vas neked semmi újat nem hajt meg 720p fölött, főleg nem full high felbontás mellett, arra egy nagyobb összeget fel mernék tenni.Sub-Dungeoneer lvl -57
-
PuMbA
titán
Az AMD-nél most lehet, hogy meglepetten néznek Vajos lesz-e 16GB-os RX7600(XT)? Az NVIDIA visszaüt-e VRAM marketinggel
[ Szerkesztve ]
-
Ribi
nagyúr
válasz kopi72 #61377 üzenetére
Lehet olyan eset amikor lenyomja, de mikor és miben?
Pl egy teszt, igaz M1 pro ahol látszik, hogy bizonyos alkalmazásokban igen erős. Másokban pedig nem.
Hogy is mondjam kollégáid nem erősek kokrétumokban. Inkább csak általánosságok puffogtatására mennek alátámasztás nélkül. "Lenyomja" dolgokat meg lehet mérni. -
Abu85
HÁZIGAZDA
7600 sima biztos nem, az túl alacsonyra van árazva a 16 GB-hoz. XT lehet, de problémát jelent majd a 7700 sorozat, ami alapból 16 GB-os. Nem sok szabad sáv van árban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Busterftw
veterán
válasz kopi72 #61377 üzenetére
Tehát nem játszik (azt is Linuxon), de gyorsabb.
Nem történt más csak benyalta az újabb Apple marketinget, ugye az M1-el ezt már eljátszották, szerintük gyorsabb mint az RTX 3090.Aztán persze játékban fasorban sincs. Hivatkozz tesztekre, ne barátokra, akik nem is játszanak
-
S_x96x_S
őstag
válasz kopi72 #61377 üzenetére
> az M2 lenyomja az RTX 4070-et" :-)
pontosabban
- az M2 Max 38 Core GPU lenyomja az RTX 4070 laptop GPU-t.
- de az M2 PRO 19-core GPU csak az RTX 4050 laptop GPU -val van egy szinten.
( teszt: GFXBench - GFXBench 5.0 Aztec Ruins High Tier Offscreen )
https://www.notebookcheck.net/Apple-M2-Max-38-Core-GPU-Benchmarks-and-Specs.682902.0.htmlMottó: "A verseny jó!"
-
Petykemano
veterán
Az Nvidia megtette tétjeit.
Az elmúlt néhány hónap során két hosszabb értekezésben ismertettem a jósgömböm által mutatott jövőt a eljövendő kártyák képességeire és főleg árazására vonatkozólag.
[link] [link]Persze - tévedtem.
Akkor még nem volt ennyire felkapott téma a gigabejtek számolgatása, de végülis a a $449-cel épp sikerült a 8GB-os és a 16GB-os 4060Ti közé lőni. Átlagban kijött.Viszont a 4060-at a $349-cel fölé lőttem.
A pletykák szerint a 7600 (full Navi33) is $299-re várható.
Most nincs előttem, hogy mi mihez hogy viszonyul majd, de valószínűnek tartom, hogy a full Navi33 együtt fog mozogni árban és teljesítményben a 4060-nal. Azonos áron valószínűleg erősebb lesz annál raszterben, és/vagy olcsóbb lesz. Ugyanakkor abban erősen kételkedem, hogy ugyanúgy 115W-os lesz-e.Talán épp azért lett 7600, mert érezhetően gyorsabb a 4060-nál és a 7600XT-t pedig $399-ért fogják árulni 4060Ti sebességgel, de 12GB rammal. (Navi32 alapon)
Ez alapján én nem várok a Navi33-at 16GB rammal.Találgatunk, aztán majd úgyis kiderül..
-
S_x96x_S
őstag
> Ezek nem játéktesztek, tehát nem relevánsak ebben az esetben,
> hiszen az alap feltevésben játékokról volt szóazért ne felejtsd el, hogy játékra a "sakk" mindig tökéletes teszt
persze a profik komolyabb HW-t tesznek alá.
Hardware: 2x A100-PCIE-40GB + 2x Xeon 6230R (52 cores/104 threads)
Hardware: 4x V100 + Xeon 8163 CPU @ 2.50GHz, 32 vcores
https://lczero.org/watch/competitions/tcec/Mottó: "A verseny jó!"
-
Petykemano
veterán
Volt egy ilyen táblázat. [link]
Különös, hogy az RX 7600 game és base órajele alacsonyabb az RX 6650XT (180W) és RX 6600XT (160W)-nél is. Viszont magasabb az RX 6600 (132W)-nál.
Mennyi lehet majd így a TDP - figyelembe véve, hogy rákerült a 8pines tápcsatlakozó (225W-ban maximálva a pillanatnyi áramfelvételt)
Csak tippelgetek, de azt gondolnám, hogy a tápcsatlakozót a közel azonos Boost órajel indokolhatja. Ugyanakkor mivel a 160W-os RX 6600-nál alacsonyabbak a gaming és base órajelek, ezért azt gondolnám, hogy 160W-nál kevesebb kéne hogy legyen a TDP keretnek. Figyelembe véve, hogy az RX 6600-nál viszont érezhetően magasabbak az órajelek, annak TDP kereténél azért valamivel magasabbnak kéne lennie.
Összességében én egy 140W-os TDP keretre tippelnék.Találgatunk, aztán majd úgyis kiderül..
-
huskydog17
addikt
"A Brixelizernek köze sincs a GI-hoz."
E közben az AMD a saját prezentációjában több oldalon keresztül részletezi a BRIXELIZER GLOBAL ILLUMINATION működését.
Köszönöm nincs több kérdésem.
A másik dologra reflektálva: engem, mint vásárlót a legkisebb mértékben sem érdekel, hogy egy adott technológia nyílt forrás kódú vagy nem, na persze nyilván mindenkinek az a jobb elméletben ha nyílt, hiszen akkor elméleten mindenkinek elérhető. Na de ha a nyílt forráskódú technika minőség szempontból nem tud versenyezni a gyártóspecifikus kóddal, akkor hiába nyílt. Megkockáztatom, hogy a vásárlók nagy része is így vagy nagyon hasonlóan gondolkodnak. Ha egy gyártó olyan feature-t tud felmutatni, ami vevőcsalógató (akár minőség akár tempó stb.) és nem tudja a másik oldal, akkor azzal lehet új vevőket szerezni.
Tehát összességében a nyílt forráskód akkor jó ezen a területen ha az tudja hozni a gyártóspecifikus minőségét. A gyakorlatban azonban nem mindig van így.
Az AMD csak úgy tudna piacot szerezni ha olyan feature-t mutatnak fel, amit a másik két oldal nem tud vagy azok sokkal rosszabbul, mert máskülönben az emberek nem fognak átmenni az egyik oldalról a másikra. Az AMD-nek jelenleg semmilye nincs a tarsolyában, amivel tömegeket lehetne megmozgatni. Ezért tart ott a piaci részesedés ahol.[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
válasz huskydog17 #61390 üzenetére
Nem azt részletezi, hanem azt, hogy miképpen tudják felhasználni a brixelizer adatait egy GI effekthez. Óriási különbség. Ha nem értesz hozzá, akkor inkább kérdezz. Kevésbé égő.
És mennyire fogsz vásárlóként örülni, hogy nem tudod hardveresen gyorsítva futtatni az egyes eljárásokat a Snowdrop 2 címekben? Mert ugye azokban ilyenek lesznek. Ezért jó a nyílt forráskód, hogy ne a shaderek számoljanak, ha már be van építve a gyorsításért felelős hardver a GeForce-okba. Gondolod hasznos lesz ez a piacnak? Értem én, hogy a DXR egy masszív black box, de ennek az a megoldása, hogy a DXR-en belül kezeled a problémákat, nem pedig kívülről keresel alternatívát.
Ezek a dolgok egyébként az embereket a konzolok felé lökik, nem x gyártóról y-ra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yany
addikt
válasz huskydog17 #61390 üzenetére
A nyílt forrásnak az is előnye, hogy hosszútávon nagyobb valószínűségű a támogatottsága. Csakhogy olyan hosszútávúságról beszélünk, ami egy adott kártya életciklusán többnyire túlmutat (vagyis irreleváns), illetve nem mindig válik be. Vegyük pl. a DLSS vs FSR kérdést: nem csak az lehet vonzerő, hogy a DLSS (mostmár iparági konszenzusban) jobb minőségű az esetek túlnyomó részében, de is fontos, hogy az NVIDIA vajon kiáll-e a DLSS mellett annyi ideig, mint a nyílt forrású FSR mellett az AMD és a köré gyűlő közösség. Csakhogy láthatjuk, hogy egyelőre a támogatottsága sem billent szignifikánsan egyik irányba sem, ami persze a jövőben változhat, csak akkor majd újra el tudják dönteni az akkori vásárlók az akkori helyzet alapján, hogy piros vagy zöld. Tehát lehet, hogy kamatozik a nyílt forráskód szépen lassan, de 1-2 éves távlatban nem jelent vonzerőt láthatóan, amikor meg azzá válik, majd úgyis lesz más a tarsolyban, egy akkori divat. Most RT, DLSS és társai futnak, akkor majd más lesz.
Részben ehhez hasonló okból kérdeztem Abut is, hogy számíthatunk-e a rövid-közel jövőben az AMD oldaláról valami piaci diktálásra egy új trükk, technológia, api, szoftver, bármi felmutatása által, ahogy azt az NVIDIA-tól szoktuk meg az elmúlt években, mert ha ő tudja tematizálni a piacot, akkor kevésbé fog számítani a másik oldal arzenálja. Igenis az AMD jövőjét befolyásoló tényező lenne, de hát...
Építs kötélhidat - https://u3d.as/3078
-
Busterftw
veterán
Az a gond hogy az AMD-nél ezekkel a "meglévő" nyílt cuccokkal csak fut az Nvidia után és szerintem pont az ellenkezőjét érik el vele megítélésben.
Zárt az Nvidia cucc? Persze mert belerakták a melót és tényleg piacvezető megoldást csináltak. Miért adnák ki ezt a kezükből?
Az AMD meg a nagy nyílt forrású megoldásaival csak kullog utánuk.
Mindig ezek a félgőzös megoldások születnek. -
huskydog17
addikt
"Nem azt részletezi, hanem azt, hogy miképpen tudják felhasználni a brixelizer adatait egy GI effekthez."
vs.
"A Brixelizernek köze sincs a GI-hoz."
Döntsd már el mit akarsz!
Szerintem inkább az az égő, hogy össze vissza beszélsz, egyszer magadnak, máskor az AMD-nek mondasz ellent. El kéne dönteni, hogy mi legyen. Nem én neveztem el a technológiát GI-nek, hanem az AMD, velük boxold le ahogy az valójában nem az.
Nekem aztán mindegy minek nézed, az AMD GI-nek nevezi, de nem kéne a másikat "hülyének nézni" csak azért, mert nem akar többet bele látni mint a készítő."És mennyire fogsz vásárlóként örülni, hogy nem tudod hardveresen gyorsítva futtatni az egyes eljárásokat a Snowdrop 2 címekben? Mert ugye azokban ilyenek lesznek."
Legutóbb azt mondtad, hogy nem így lesz, mert az rossz lenne a PC-nek és helyette szabványos kód lesz. Most akkor mi van?
A nagy nyílt forráskódú hozzáállással mit ért el az AMD? Rekordalacsony piaci részesedést és azt, hogy jelenleg se RT se upscale téren nem versenyképesek. Van néhány üres ígéretük, amit senki nem látott még működés közben, miközben az NV úgy letarolta a piacot, hogy az AMD már most elkésett. Ha az AMD szabványos kódba öli a pénzt, akkor az a konkurencia hardverén is működni fog, ráadásul ugyanolyan minőségben, tehát semmivel nem adnak többet a saját vásárlóiknak, ezzel pedig nem szereznek piaci részesedést.
#61392 Yani: Pont a DLSS vs FSR téma az egyik tökéletes példa arra, hogy az AMD miért nem ér el semmit a nyílt forráskóddal. Az mára egyértelmű tény, hogy az FSR versenyképtelen a DLSS-el szemben, képminőség szempontból óriási a szakadék a DLSS javára, ezen felül a DLSS több száz játékban van ráadásul rendkívül egyszerű cserélni a verziót benne, mert moduláris lett (egy dll fájl és kész), az FSR-t kizárólag a játék fejlesztője képes cserélni és látjuk hogy mekkora az akarat a fejlesztők részéről (finoman fogalmazva igen csekély).
Szóval röviden tömören itt pont az NV zárt technológiája lett óriási siker míg az AMD nyílt próbálkozása versenyképtelen.
Későbbiekben is pont a DLSS van előnyben, mert azt bármikor frissítheted kézzel, az FSR-t nem.
Ha ez még mindig nem volna elég, a nyílt forráskódú FSR-t az NV kártyák is képesek futtatni, és mivel a legjobb minőséget a zárt kódos DLSS adja, így az AMD-sek igen masszív kompromisszumokra kényszerülnek képminőség terén, hiszen AMD VGA-val elvágod magad még csak a lehetőségtől is, hogy a legjobb minőségű és a leginkább "felhasználóbarát" felskálázási eljárást használhasd.[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Pug
veterán
válasz huskydog17 #61394 üzenetére
Khm...
Ha talán a teljes mondatát idéznéd... talán...
A Brixelizernek köze sincs a GI-hoz. Az egy sparse distance fields-et generáló eljárás. Erre lehet egy csomó effektet csinálni, például GI-t is, de még ezernyi mást.
Az általad linkelt AMD diasorból... tessék...
[ Szerkesztve ]
-
Pug
veterán
válasz FLATRONW #61396 üzenetére
Abban a formában, amit husky először írt nem, mivel ő azt írta, hogy az biza egy GI.
"Brixelizer? Rákerestem, egy screen space alapú GI"
Szóval nem, nem GI, lehet az output-ját bele feed-elni, de attól még nem lesz az.
A "köze nincs", az azt jelenti, hogy nem AZ, attól még hogy az output abba feedel-hető.
De ezt Abu már leírta... ugyan abban a mondatban, amiben a lovagolt "köze nincs" rész van...Erre lehet egy csomó effektet csinálni, például GI-t is, de még ezernyi mást.
husky írt valamit, ami nem állja meg a helyét és a helyett, hogy annyit írna, "jah, ezt benéztem"... na a helyett megy a szokásos ipari Abu fika
[ Szerkesztve ]
-
PuMbA
titán
Vettem egy fogyasztás mérőt, hogy egy esetleges jövőbeli, még jobb áras RX6800 vétel esetén elég lenne-e a 450W-os tápom. Ki tudja, milyen zord idők lehetnek még a VGA piacon. A kártyához 650W-os tápegységet ajánlanak, de úgy látom, hogy a VGA-khoz ajánlott tápegység a csúcs procikhoz van belőve, mert nekem a 130W-ra alulfeszelt RTX3060-nal játék közben 240W-ot írt a teljes rendszerre, amibe még ugye benne van a tápegység vesztesége is. Így könnyű szerrel belefér akár egy 120W-tal több maximális fogyasztású, 250W-os VGA is.
[ Szerkesztve ]
-
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen