- Akciófigyelő: Humble Games Bundle - Nightdive FPS Remasters
- Call of Duty: Modern Warfare III - Új szezon, újabb ingyenes hétvége jön
- Hunt: Showdown - Jön az engine csere, befutnak az újgenerációs verziók
- Steamre tart a Crime Boss: Rockay City
- The Witcher - Befutott a TV sorozat folytatásának első rövid kedvcsinálója
-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Az FX 8350-et le lehet nézni, de a legújabb procitesztünkben csak az R5 1400 volt a játékokban gyorsabb nála, mármint az átlagolt eredmények tekintetében. Igen, mi is nagyon meglepődtünk, de ez van.
No persze az eredmények között alig van különbség. De PH-s mércével ugye néha kettéhúgyozásról is beszélhetünk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Én remekül megvoltam a 2900 közvetlen leszármazottjával, a 3870-el. Sőt, számomra jóval meggyőzőbb volt, mint a kortárs 8800 GTS 320MB. (Mindkettő referencia, saját gépben tesztelve.)
Az FX-eknek pedig egy rossz szavad nem lehet a többszálú teljesítményére, a mai napig korrekt, amit tud. Egyszálon persze, nem lett erősebb, nyilván. -
HSM
félisten
Itt adtak neki rendesen, és egészen szépen bírta: [link].
Illetve több topikban is azt olvastam, hogy az egyetlen ok, amiért throttlingol, hogy 70 fok magasságába rakták a határát BIOS-ból, ami nem éppen indokolt, de ez a megjelenés környékén volt, azóta nem követtem a dolgokat.A fenntartásaid amúgy sajnos teljesen jogosak, nagyítóval kell keresni a normálisan meghűtött notebookokat komolyabb hardverrel.
(#34143) Jack@l: "Viszont te még mindig desktop procit akarsz beletuszkolni egy laptopa, ez eddig mindig bukta volt a gyártóknál."
Remélem, tisztában vagy vele, hogy ez az érv itt ebben a kontextusban teljesen irreleváns... -
Z10N
veterán
Latom nem sikerult felfogni mirol beszelek.
7790-560-Vega14/16 vonalrol volt szo.
Ide a "csoda" hbm2" eleg 1-2GB kivitelben.Nem tudom hogyan sikerult idekavarni az NV-t.
Ismetlem casual gaming-rol van szo.
Ertsd alapesetben is 2-3GB hasznalat.A peldadban a 1060-3GB ehhez boven eleg.
HBM-bol meg ennyi:
entry: 1GB
low: 2GB
mid: 4GB
high/ultra: 8GB+# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Z10N
veterán
Mi az hogy hisztizni?! Te kezdtel el kotekedni es "pampogni", hogy nem eleg. Szoval hiaba forgatod a szemeid.
HBM-rol volt szo es vele egyutt a HBCC-rol.
1GB nem csak nekem lenne eleg, abbol ami sporol, illetve dragan implementalhato. Ha tobb kell ott a 2GB verzio. A hbm teszteket nezd meg deus ex-nel, ne az nv teszttel peldalozzal.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Abu85
HÁZIGAZDA
Igazából nem kell. A HBCC alapvetően azt csinálja, hogy van a shared memory, ami a játékoknál az a terület, amit a CPU és a GPU is elérhet. DirectX memóriának is szokták hívni, de nem hívjuk így, mert más API is így működik. A HBCC lényegében ezt a területet kezeli ügyesebben. Ugyanis normál hozzáférésnél a VRAM-ba teljes allokációk kerülnek át a CPU és a GPU között megosztott memóriából, míg a HBCC ezt felügyeli, így csak szimplán blokkokat helyez át. Olyan blokkokat, amelyekre valóban szükség van, és ha csak 1 MB-nyi adat kell, akkor ne kerüljön bele a GPU melletti memóriába egy 100 MB-os allokáció, mert a maradék 99 MB lényegtelen, csak a helyet foglalja, de nem kezd vele a hardver semmit. A HBCC-nek azért kell beállítani a működését előre, mert ki kell jelölnie a rendszernek, hogy a RAM melyik részéből fog gyorsítótárazni, és a WDDM 2.0 innentől kezdve elmondja az OS-nek, hogy a CPU és GPU között megosztott memóriát arra a részre allokálja. Ettől egyébként lehet benne más is, de HBCC a driveres móddal csak olyan allokációt tud gyorsítótárazni, ami shared.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Z10N
veterán
Most ki jatsza a sertodottet?!
AMD-s topikban, amd-s tech-rol beszeltem egy lehetseges amd gpu-rol. Erre tovabbra is folytatod a nv emlegeteset. What for? Ebbol latszik, hogy meg mindig nem esett le. Olvass vissza Stratova kollega belinkelte.
Rendszer memoriabol meg igy s ugy is egyre tobb kell, amikor mar bongeszesre sem eleg a 8GB. Az szerencsetlen, hogy a ddr4 draga, de nekem meg a ddr3 megfelel, abbol van 16gb. Majd akkor rakok be 24-32-t olcson. A gddr5 viszont dragul es nem valaszthatod meg. A gddr6 meg szinten draga lesz. Es az alap problemat tovabbra sem oldjak meg.
"lehet neked pont elég lesz 1GB ram, de akkor 1GB-ból kb elég lenne gddr is"
Tevedes. Pontosoan ebbol latszik, hogy meg mindig nem erted. Szoval jobb lesz, ha hagyod a temat."De inkább hagyuk, mert amint valamiért leírom NV, te csak erre reagálsz..."
Ezenkivul pedig ne ferdits...# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Tyrel
őstag
Nem mintha az RTX demo nem ilyen lett volna...
Amúgy a Navi bejelentését én is valószínűtlennek tartom, pedig nagyon örülnék neki. Szerintem csak Vega refresh jön, az is várhatóan kb. olyan "jó" lesz mint az RX 590 az 580-hoz képest.
Mondjuk ha meg nem lesz igazam akkor rájuk borítom a pénztárcám az biztos.Turenkarn
-
Envo_
aktív tag
Mit is lehetett tudni? leaket maximum...
(#38797) solfilo
"Igen, nyugodtan elvárhatjátok, hogy azt a helyet fel fogjuk tölteni, ami kimaradva látszik" Ha mégsem így lenne akkor nem mondhatott volna ilyet. Másrészt van több piaci oka is, hogy nem e legnagyobbat mutatták be.[ Szerkesztve ]
-
Oliverda
félisten
Tök mindegy, csak ne ragadjon a nyakukon. Ilyenkor már egy kisebb veszteség is belefér.
A Vega 10 egy baromi nagy, 495 mm²-es chip. A TU104 csupán kb. 10 százalékkal nagyobb nála és az arra épülő legolcsóbb kártya, az RTX 2080, 700 dollár környékéről indul.
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
-
Raymond
félisten
Azert ilyen aron sokan megveszik, pedig meg az AMD-s reddit-en is inkabb az volt hogy "haggyadbeken" ami meglepo volt. De szerintem ennyi penzert jo ajanlat volt egy kis UV beallitasok es jatszadozas utan meg jo (vagyis inkabb hasznalhato) is lehet a kartya. Na persze most kint vannak a 1660Ti tesztek igy megint mas a fekvese
Privat velemeny - keretik nem megkovezni...
-
félisten
Az MCM nél az egy fontos szempont, hogy többféle stackot és akár eltérő memóriát is alkalmazhatsz külöböző blokkokhoz, amit egy központi csatorna gyűjt egybe. Elég fantasztikus megoldás, sok mindenre adhat lehetőséget.. Például ha x számú modul az RT-t számolja az mehet HBM rammal,a kevésbé ramigényes megoldásokhoz elég lehet olcsóbb megoldású GDDR6 memória is. Elméletileg képes arra is megfelelő vezérlővel, hogy egységként kezelje az egész 36 egységet és a 87 millió tranyót de akár 36 részre osztva is tudja vezérelni, vagy akár le is tudja kapcsolni a nem használt modulokat. Tehát egy fejlesztőre lenne bízva , hogy most teszem azt 10 modult befog RT gyorsításra 20 at meg általános számításra satöbbi. Nagyon ez a jövő szerintem, remélem 2 generáción belül AMD és Nvidia is lehozza gamer szegmensbe még ha nem is 36 modullal de egy 4 modulos megoldással már megoldódna a dedikát hardveregységek problémája a Raytracingnál valamint egy könnyebben gyártható VGA-t eredményezne jobb kihozatallal.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
épp ez a lényeg hogy ez attól hogy 36 modulból áll egy egységet képez.Persze minél szeparáltabban használják, annál nagyobb probléma az általad felvázolt, gondolom én, persze ezek csak találgatások.Épp ezért írtam, hogy ha egyenlőre 4 modullal abszolválnák a gyártók már az is egy hatalmas előrelépés lenne.
De egyébként ha megnézed a cikket ezt írják benne:
"100GB/s I/O bandwidth per chip." tehát elég gyors kommunikáció lenne a modulok között.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
Ezek nagyon kevés helyet igénylő linkek a tokozáson. Nem azért limitálják ezeket, mert nem férne el, hanem azért, mert elég akkora sebesség, amekkora amúgy is szokott lenni a lapkán belül. De elméletben, és tulajdonképpen gyakorlatban is, nem jelentene problémát az 1 TB/s sem, csak overkill. Ágyúval felesleges verébre lőni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem kell több. NUMA-aware módon kell programozni. Ez a szervereknél eleve nem gond, mert ott ilyenek a programok. [link]
A késleltetés egyébként az igazi gond, de csak akkor, ha a program érzékeny rá. A NUMA-aware lényege pont az, hogy az alkalmazás működése toleráns legyen a késleltetéssel, ugyanis a szervereknél vannak többutas rendszerek, amiket csak így lehet jól kezelni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
X2N
senior tag
Jobban teljesít frametime grafikonon persze, de azért nem szar a 2080-se. Ez csak 1 játék, viszont a zöld biztos hogy kevesebbet fogyaszt és nem melegszik annyira, és nem kell neki 650W-os táp. Egy átlag user már ezek miatt sem vega-t fog venni. Egyszerűen ennyi kevés sajnos, pedig én is gondolkozok ha eladom a 980Ti-t akkor elég lenne nekem egy Vega56, és HBCC-t használnák valami Freesync-es monitorral, de mostanában már amúgy se játszom sokat. Jelenlegi játékokra meg ez a kártya is bőven elég 2560x1080-ban.
[ Szerkesztve ]
Launch code for russian nukes: 97 99 116 105 118 97 116 101 32 100 101 97 100 32 104 97 110 100
-
Envo_
aktív tag
-
Abu85
HÁZIGAZDA
Ha a hardver power limitbe ütközik, akkor a feszültség változik először és azt követi az órajel. Ha hőmérsékleti limitbe, akkor az órajel változik először, és azt követi a feszültség. Nagyjából negyed milliszekundum az a maximum időtartam, amíg a hardver képes átvészelni stabilan azt, ha csak az egyik paraméter változik. Bármelyik lehet. Viszont ha az órajel nő először és nem a feszültség, akkor azzal nagyobb perf/watt jár. És bár a negyed milliszekundum nem hangzik soknak, de a Navi 10 nanoszekundumonként tud órajelet és feszültséget váltani, ezért jelez a hardver vissza egy átlagos órajelet és feszültséget, mert maga a monitorozás másodperces szintű, tehát az előző másodperc órajeleit és feszültségét átlagolja a hardver, és azt adja vissza a szoftvernek. Ennek igazából akkor van előnye, ha a program beleütközteti a hardvert a hőmérsékleti limitbe. Ha nem, akkor a referencia esetében is a power limit lesz a döntő tényező, ahogy a custom esetében is, így a feszültség fog előbb változni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
Van a Wattmanban cél és maximális hőmérsékletre való beállítás. De eléggé ki kell tesztelni, hogy a custom dizájnoknak mi az optimális, hol érik el az ideális perf/wattot.
(#43237) paprobert: Nem úgy állították be. Ennek megvannak a tipikus működési normái, hogy mikor és hogyan marad stabil a hardver.
(#43238) Ribi: A hogyan kérdése leginkább attól függ, hogy hogyan lesz stabil a hardver. Ez részben tapasztalati módszerrel lesz meghatározva. Szóval nem kötelező így működnie, de így van beállítva. Bizonyosan jó okkal.
(#43243) sutyi^: A régi hardverek sokkal szarabbak voltak, mint a Navi. De a Navi esetében már lehet így is működtetni, hogy előnyt kaparj ki belőle. Azzal, amit az AMD alkalmaz manapság, el kell felejteni minden régi kötöttséget, amit a DVFS jelentett. Az innentől kezdve kőkorszaki technológia, ezért lett lecserélve AVFS-re, ami sokkal rugalmasabb. Csak az AVFS-t nagyságrendekkel nehezebb megcsinálni, nem véletlen, hogy az AMD is 15 év alatt jutott el ide.
(#43239) Petykemano: Vega 20
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Mumee
őstag
Sima 5700-ból nem kell custom, mert alapból is kellőképp hűvös csak a ventiket kell átállítani, hogy halk legyen. XT az aminél a referencia kevés.
Ez már ígyis OC-zott referencia 2100rpm-ről 1300rpm-en, ami logikusan túlzás csak anno az alját kerestem, ami még 100fok alatt marad, de 1300rpm-en halkabb, mint bármelyik custom.
1800rpm körül van a normál custom-ok zaja, amin a kártya gyári beállítások mellett a 80 fokot is alig éri el junction.[ Szerkesztve ]
-
HSM
félisten
Persze, világos. Írják is a végén: " If the finding here is accurate, then the 4GB RX 5500 XT will consequently become very difficult to recommend as the majority of the people shopping with this budget will likely not opt for expensive PCIe 4.0-capable X570 motherboard offerings.".
Az is szépen látszik, a 8GB-os szépen elvan 3.0-n is, míg a 4GB-os mindkét illesztőn szenved, csak a 4.0-n kicsit kevésbé látványosan. [link] -
Devid_81
nagyúr
Jo hat ezt lehetne folytatni akar a Ryzen 3300X-el, konkretan alig beszerezheto meg mindig.
Vega, de Polaris is mission impossible volt eleinte.
NVidiatol nem ezt "szoktak meg" a userek, pedig Turing se volt startnal.
Talan itt most az a baj, hogy a konyhas video nagyon jol sikerult, es azzal krealltak egy nagy urt, sokan ereztek, hogy ez az a kartya amire nagyon vartak, de kozben nincs.
Es ahogy haladunk elore az idovel ugy egyre tobb fura leak jon, + kozben Jensen is mondta, hogy iden majdnem felejtos a 3080/3090.
Fura az egesz nah...
-
.Ishi.
aktív tag
Eh, én ezt úgy látom, hogy vannak a fanatikusok, vannak a tech kedvelők (akik valóban elolvassák a teszteket, akik igyekeznek informált döntést hozni), és csak ezután jön a nagy többség, akik szerint az a jobb videókártya, amin több memória van...szerintem mindannyian láttuk már, hogy néha mik mennek a kiskerekben, és ez kőkeményen ki van használva.
-
Petykemano
veterán
Az a beetetés is köcsög húzás volt a potenciális vásárlókkal szemben.
De a piaci helyzet alapján nem volt semmilyen kényszerítő ereje a konkurenciára nézve.Magunk közt szólva én hangosan méltatlankodtam, amikor a Navi10 árazása beállt az Nvidia perf/$ vonalára és most is hangosan méltatlankodtam, amikor a zen3 árakon emelt az AMD úgy, hogy pont az alsóbb szegmens kapta a legnagyobb drágítást
Találgatunk, aztán majd úgyis kiderül..
-
#09256960
törölt tag
Ezzel azért én vitatkoznék hogy trend.
Vannak fejlesztési irányok.
Magát kártyát akkor szabad venni ha vannak összehasonlító tesztek. Pro Kontra látod a kártya előnyeit hátrányait.
és Te kiválasztod magadnak mi a fontos belőle.
Csakhogy ahhoz érteni kell a jövőt, az új fejlesztéseket,
pl hogy a DirectX11 januártól megszűnik így aki tudja már nem ad neki jelentőséget.
Abban igazad van hogy néha vannak tévút fejlesztések, mivel a VR nem jött be már most próbálják újraéleszteni szerintem kevés sikerrel, ezért aki amiatt vett annó erős kártyát az bukta nem mennek az AAA játékok rá max most ez a star wars szimuláció.
Azt is mondták ez a dual GPU majd jobb lesz hozzá mert szemenként 1 GPU jobb eredményeket produkál , aztán az is elhalt.
Eddig True ! De ha megnézel konzolokkal foglalkozó elemzéseket akkor mind azt mondja hogy most fog a legnagyobbat robbanni a grafika. Az RT az RT szép de a SSD meg az Unreal 5 demo az teljesen más tészta! A durván megnövekedett betöltési sebességek meg a szinematik assetek mindent megváltoztatnak.
Magát a játékfejlesztést. Az hogy kimész az erdő szkennelgetni hazamész betöltöd a programba és nem kell időigényesen downgradelgetni arra a szintre amit a gép képes egy teljesen alapjaiban más játékfejlesztés jön, Brutális töltési sebességek hatalmas memóriák és sávszéleségek kora (vagy aki akarja cacheval megoldani azzal)
Ez nem vagylagos. Amint kijönnek a konzolt kihasználó játékok EZ LESZ mindegy Te mit gondolsz ! vagy viszi a géped vagy nem.
Ha csak a mába gondolkozol akkor elég a 12 GB.[ Szerkesztve ]
-
Busterftw
veterán
Ez meg a masik. Nem ugyanaz a ketto.
Plusz kb 2 ev mulva a kovetkezo gen kozepkategoriaba kuldi a jovotallo kartyat.
2-3 evre boven eleg a 10GB, amikor a jatekosok tobbsege 1080p-ben jatszik, meg csak most jon fel a 1440p, a 4k meg 1%.Eltunik a dx11, de mikor tunik el? Mar 4 eve jon a dx12...
Tul van ez reagalva. Kb senki nem vesz 6-8 evre kartyat. Elobb fog keves lenni eroben a Big Navi, mint a 16GB vram.[ Szerkesztve ]
-
nagyúr
Szelektálni kell, de ez minden oldalra igaz. Ettől még a hír konkrétan a [news.bitcoin.com] oldalról indult el (a link benne van a cikkben). Átvette kismillió másik oldal, szóval ha csak amiatt nem vagy hajlandó megnézni, mert éppen a WCCFTech oldalról linkeltem be, az már a Te bajod...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Pug
veterán
Ez korábban ki lett már tárgyalva, két külön utat követnek:
- nV: magasabb single idle, alacsonyabb multi monitor idle
- AMD: alacsonyabb single idle, magasabb multi monitor idleEbből fakadóan az általad linkelt 33W multi monitor idle a 6700XT esetén egyáltalán nem problémás, a mostani 100W, az teljesen más kategória, ezért jutott sok tesztelő arra, hogy ez valszeg driver szintjén orvosolható kéne, hogy legyen.
Nekem btw az elmúlt 10 évben nagyobb driveres gubancom nem volt AMD oldalon (ettől még természetesen nem voltak teljesen porblémamentesek, ami ugyan úgy igaz nV esetén is) és általánosan el lehet mondnai, hogy kb mindkét gyártó hasonló arányban baszarint el driveres dolgokat, így én egyáltalán nem értek egyet az alábbi kitételeddel
Drivert egyszerűen képtelenek írni
[ Szerkesztve ]
-
Petykemano
veterán
Előrebocsátom, nem tudom a részleteket, de az általad említett különbség úgy hangzik, mintha a kártya 4K-ban GPU limites volt, és 1440p-ben eltérő CPU használata miatt mutatkozott különbség. De ez a feltételezés csak akkor állná meg a helyét, ha tudnánk, hogy tényleg eltért a CPU.
Találgatunk, aztán majd úgyis kiderül..
-
Raggie
őstag
Itt van két különböző kártyának a grafikonja. Mindkettőn látható a GPU diódának is a hőmérséklet emelkedése is, csak az nem egyből kezdődik el és a fehér grafikonon jóval kisebb mértékű(de ott van).
Saját teória:
Szerintem nem kell egyből mennie mindennek fel akkor sem, ha a vapor chamber "átesik". Ekkor nem válik hőszigetelővé a vapor chamber, csak jóval kevésbé lesz jó hővezető. Tehát valamennyire még ekkor is vezeti a hőt.
A hotspot a legmelegebb pontot nézi, azaz azt a pontját a chipnek ami a legtöbb hőt termeli épp. Itt lesz leghamarabb és legjobban érezhető a hőelvezetés csökkenése.
A normál GPU dióda ebben a terhelésben jóval kevésbé melegedő részt mér direktben. Tehát az tovább "elviseli" a kisebb hőelvezetést is, mert még azzal is valamennyire elvan, és csak amikor már a környezetében minden felmelegedett és tényleg elégtelenné válik a hővezetés akkor kezd el melegedni.[ Szerkesztve ]
Clint Eastwood FTW
-
Abu85
HÁZIGAZDA
De az felbontásfüggő. Alapvetően akkor optimális a textúra felbontása, ha minden pixelsorhoz külön texelsorból származnak a minták. Ezt a legegyszerűbb úgy elérni, ha a textúra felbontását növeled.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem pont a textúrázás határozza meg a VRAM terhelését, hanem maga az alkalmazott leképező. Vannak kifejezetten memóriakímélő leképező algoritmusok, majdnem minden forward renderer, de ezeknek megvan a maguk baja, például a számítási kapacitás szempontjából a megnövekedett igény. Ezért alternatíva a deferred renderer opció a különböző lehetőségekkel, mert az kevésbé eszi a TFLOPS-ot, de több memóriát zabál. Játékfüggő, hogy melyik fejlesztő számára mi a fontos, és ebből a szempontból nagyon egyedi döntések születnek. Leginkább az határozza meg ezt, hogy a fejlesztő hogyan érzi az adott címre a vállalható limitet, a memóriát jobb-e lezabálni, vagy a számítási kapacitást.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Alogonomus
őstag
A fogyasztási értékek elvileg mind a két esetben a teljes kártya fogyasztását jelentik, azzal nincs gond.
A gond ott van, hogy Igor 6950 XT tesztjében egyértelműen beazonosítható, hogy FHD, QHD és UHD mellett mennyit fogyasztott nála a kártya, míg a 4070-es tesztben jobbik esetben is csak összemosta az értékeket egy átlagszámba. Ráadásul a TPU maximumértékénél is gyanúsan magasabb értéket mért már FHD felbontáson is a 6950 XT esetén, míg a 4070 esetén "sikerült" a TPU maximumértékét hoznia a kártyával.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Ozeki Kft.
Város: Debrecen