- Akciófigyelő: Humble Games Bundle - Nightdive FPS Remasters
- Call of Duty: Modern Warfare III - Új szezon, újabb ingyenes hétvége jön
- Hunt: Showdown - Jön az engine csere, befutnak az újgenerációs verziók
- Steamre tart a Crime Boss: Rockay City
- The Witcher - Befutott a TV sorozat folytatásának első rövid kedvcsinálója
-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
DudeHUN
senior tag
Alapból 8GB-os kártya esetén a mediumot ajánlja a TLOU. Mert kifut feljebb. A PS5 pedig legalább a High-at használja.
Most komolyan azt hiszitek, ha ezek a konzolok 12+GB memóriával gazdálkodhatnak akkor a nextgen címeknek 1440p és felette elég lesz a 8GB ahhoz a grafikai szinthez? Minimum a texturákat butítanod kell majd. A gépigények nem véletlenül ekkorák. Nem csak a "lusta" fejlesztők miatt.Gamer for Life
-
paprobert
senior tag
-
félisten
válasz DudeHUN #61053 üzenetére
Nézz meg egy összehasonlítást. [link]Pc textúráknál medium settings + FSR/ DLSS 1440P felel meg a PS5 high-nek ami 1800P 60 FPS tud magából kihozni ráadásul annyira elmossa néhol a textúrákat a dinamikus felskálázás konzolon még így is, hogy öröm nézni. A legújabb patch jót tett PC-n neki ettől függetlenül a 8 GB nem igazán nevezhető elégnek ma már de a12 elég, a 10 határeset ami igényli már a törődést a beállításoknál. A Vram viszont kissé megmagyarázhatatlan , hogy kérhet egy játék 27 GB rendszer memóriát működés közben.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz DudeHUN #61057 üzenetére
És meg is nézted? Nézd meg a kabátot / pulcsit ,az arcszörzetet ,a növényzetet.
Jó esetben is medium, de biztos, hogy közel nem éri el a PC port Ultra szintjét textúrákban.
Mint írtam nem fogok kardoskodnia 8 GB Vram mellett ,mert szerintem is kevés és a Ps5 egy jó gép de túl van ez misztifikálva.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Hashvrad
tag
Daniel Owen új videójában elég érdekesen "viselkedik" a Jedi Survivor.
AMD oldalon (7900 XTX) csak ezt a videót találtam.
Egyenlőre nekem az jön le, hogy több VRAMot eszik RDNA 3 alatt, de jobban is fut.Kíváncsi lennék, hogy fut másolásvedelem nélkül.
Másrészről ilyen számok mellett nem tudom meddig lesz elég számomra a 16 GB VRAM 4 k-ra, vagy másoknak 8GB FHD-ra.
[ Szerkesztve ]
R7 5800X | RX 6900 XT | 32 GB@3200 | LG C2 42"
-
félisten
válasz Hashvrad #61059 üzenetére
Jól látszik amit leírtak róla, hogy nem üríti ki addig a Vramot amíg van hely.. 9,7 ről indul és ahogy telik az idő szépen megy fel 20 GB -ig.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Hashvrad
tag
A videó hossza + egy kis beletekerés miatt tűnt úgy, mintha AMD-t jobban szemetelné.
Ebben a videóban ugyan az van, mint AMD-nél + a GPUt is jobban használja.
R7 5800X | RX 6900 XT | 32 GB@3200 | LG C2 42"
-
PuMbA
titán
Amilyen ratyi állapotban adják ki ma a játékokat, ez tényleg baj. Pár napon belül elavul az egész videója egy ilyen YouTube csatornának, mert 2 hét alatt kijön 4 javítócsomag. Last of Us esetén pont a pár nappal ezelőttiben módosítottak a textúra részletességen Medium és Low beállításon.
[ Szerkesztve ]
-
DudeHUN
senior tag
Ami még mindig mosott a High-hoz képest.
Mindegy. Ahogy kolléga is írta a számitási kapacitás simán ott van, de a 8GB VRAM tökön lövi a nextgen szintet, mert butítasz hozzá képest lárványosan.
Amúgy nem vagyok PS5 "rajongó", de be kell látni a nextgen fejlesztések idén kezdenek el jönni. Ezeknék már (az eladási rekordokat döntő) PS5 az alap. Egyébkent ha megnézed a Horizon DLC-t a Sony belsős csapata megmutatta, hogy mire képes a gép. Erre a PC-s szemmel elavult hardverre letették kvázi a legszebb játékot. Ezért kár a VRAM-on való spórolás a cégektől, mert az átirat majd itt is ezen fog elcsúszni.
Tudom, hogy az Nvidia a szíved csücske, viszont itt pont az AMD kártya miatt húztuk a szánkat.Gamer for Life
-
félisten
válasz DudeHUN #61066 üzenetére
Hát el is várható hogy a High jobb legyen .
Ennek nincs köze ehhez hogy kedvelem az Nvidiát. ( Amúgy már nem igazán, egyetlen IT céget sem kedvelek már, sőt..
De jensen nekem mindig etalon marad cégvezetés és cégirányítás terén és innen kötődök az Nvidiához rajta keresztül.
Szerintem anno én voltam aki először kritizálta őket Vram terén, a kártyáik megvágása terén ennéla szériánál, kiszámoltam hogy a 4070 valójában egy 4060 stb...( És ez a hozzáállás kezd igaz lenni a játék stúdiókra is)
Csupán arra világítottam rá, hogy a PS5 szintjét ugyan azon a felbontáson ugyan arra a lebutított grafikai szinten egy RTX 3060 - RTx 2080 hozni képes normális port esetén.
És az is tény, hogy a szerintem, hogy a LOU1 nem lett jó PC port, annyira nem követtem le megmondom őszintén, azt láttam hogy a 12 GB 3080 ami nekem van vígan elvan vele.
Ezért írtam a 3060-t mert az is 12 GB Vrammal van,de a 8- nak nem néztem utána valóban.
De nem csak a Vram igény hanem nagyon sok egyéb probléma halmozódik el benne. Lásd Spiderman ami vígan elfut egy 3060 Ti-n fullos grafikán .
Botrány ami ma történik az új "A" kategóriás PC játékok terén és ez számomra nem a PS5 re világít rá, hogy milyen jó hanem a stúdiókra és a hardver fejlesztőkre mennyire tré lett ez az ipar.
Ha belegondolsz manapság a stúdiók az FSR -től és a DLSS -től várják el az optimalizálást
A hardvergyártók megoldásai amik játszhatóvá teszik a kijövő félkész címeket elfogadható szintre.
Twittert is elöntötték a szavazások meg a megjegyzések, mára meg kigyulladt a GN -nél az AMD alaplap, eldurrannak a CPU-k leégnek a kártyák...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Alogonomus
őstag
Az állítólagosan "broken" játékok a megfelelő mennyiségű VRAM birtokában levő Radeon kártyák esetén rendben működnek, vagyis nem a játék a "broken", hanem a legtöbb Geforce kártyából hiányzik a modern játékok által megkívánt memóriakapacitás, amit csak tovább ront a szokásos driver overhead probléma.
-
Pug
veterán
válasz Alogonomus #61069 üzenetére
Azert probaljunk meg objektivek lenni, az adott jatekok nagy resze megjeleneskor igen is "broken" volt... kellett jo par patch, hogy az anomaliak eltunjenek.
Az mas kerdes, hogy a mar kigyomlalt jatek verziok eseten is sok uj cimnel megmaradt a kifejezetten magas VRAM igeny. Ami kb varhato trend lesz az ujabb portok eseten is ezt kovetoen.
A 4090/4080 vasarlobazisat megertem, az aron kivul nincs mas negativ a kartyak eseten. Ami nekem meglepo, hogy a 4070Ti-t is viszik, annak ellenere, hogy csak 12GB VRAM van rajta es az ara a 800USD/EUR szegmensben mozog.
[ Szerkesztve ]
-
Alogonomus
őstag
A 4090 rendben van a memória szempontjából, és a 4080 is valószínűleg nem lesz nagy bajban, de a 4070 Ti-t inkább csak azóta viszik nagyobb számban, amióta akciózzák, mint az árengedmények, vagy a Microcenter 100 dolláros Steam kuponja, ami persze a többi 4000-es kártyához is jár, és valószínűleg a 4080 eladásait is határozottan segíti.
-
félisten
válasz Alogonomus #61069 üzenetére
Fenét, ezt nem lehet leegyszerűsíteni Vram problémára. ezek a játékok trágyák voltak a megjelenéskor technikailag.
A 4070 Ti kb a piacon maradásáig elég lesz a 12 GB vrammal 1440P re tovább is. Plusz azt is érdemes szemelött tartani, hogy nem feltétlenül ezek a játékok minden játékosnak célszoftverei. Nvdiia meg jobban odafigyel a Vram optimalizálásra AMD -nek meg pont az ellenkezője a cél, ők meg azt erőltetik hogy minél több Vramot kérjen egy játékakár indokolatlanul is. Spider man PC portját nvidia támogatta meg, 8 GB Vram RT-vel elég neki..[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Alogonomus
őstag
Na igen, a Spider-Man PC-s portjánál is ugyanúgy látszott, hogy az Nvidia fizette a kódírókat, ahogy a Cyberpunk esetén is. Persze az AMD oldalán ugyanez elmondható például az AC: Valhalla kapcsán.
A konzolok elmúlt években jelentkező térnyerésével, valamint az AMD azzal párhuzamosan történő PC-s megerősödésével viszont a játékiparnak 2020 környékétől kezdve már egyértelműen sokkal vonzóbb lett a konzolokkal együtt már jelentősen nagyobb halmazt képviselő AMD-s hardverekhez igazítaniuk a játékmotorokat és játékcímeket, aminek a következménye a memóriában szegény Nvidia kártyákkal tapasztalható "broken" érzés, ami csak romlani fog azzal, hogy az Nvidia határozottan vonul ki a PC-s piacról, és teszi át a fókuszát a szerverek és AI területére. -
félisten
válasz Alogonomus #61073 üzenetére
arghhh.
Hogy beszélhetsz ilyen dolgokat kijelentő módban ? Miben látod hogy az Nvidia hardverekhez nem igazítják a motorokat?
Nvidia határozottan vonul ki a PC piacról? atyavilág.. sokszor eszembe jut hogy vannak jó kommentjeid aztán bedobsz egy ilyen oltári nagy baromságot kifejezetten megkérdőjelezhetetlen kijelentőd módban és megrémülök hogy te ebben hiszel vagy fogalmam sincs miből vonod ezt le, úgy hogy én napi szinten követem az Nvidia lépéseit...
Egyetlen kártya van memóriában kissé alatta a szükségesnek a 4070 Ti , az is számomra kérdőjeles, hogy valóban nem elég 12 GB vram, a többi teljesen megfelelően van memóriában elengedve a 4070 -4080 4090.
Az érkező 7600 sku-k 8 GB vrammal jönnek.
Aza gond hogy te motorokról beszélsz nem játékstúdiókról akik grafikus motorokat használnak. Nivdiához minden nagy játékengine fejlesztő első körben fejleszt mert a PC játékokban és alkalmazásokban az ő hardvereik a meghatározóak. Egyik sem köteleződik el se Amd se Nvidia irányában, hanem együttműködik velük.
Az Unreal a telefonoktól kezdve az almás dolgokig mindent támogat, és ezzel sok stúdió így van, mert az a cél, hogy minél szélesebb körben minél több hardveren el tudják adni...
Próbáld meg értelmezni azt hogy egy PC-s Játékengine ≠ Egy stúdió által átírt játékkal.
Az utóbbit meg lehet venni és támogatni és el lehet érni hogy egy 10 éves játék 20 GB Vramot kérjen vagy pedig beleférjen 8 GB míg az előbbit nem.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Busterftw
veterán
válasz Alogonomus #61073 üzenetére
Ugyanezt a mesét hallgattuk már a PS4 korszakban.
Aztán 9% dvga market share lett belőle, az AMD játékokban ugyanúgy nem tudja megközelíteni az Nvidiat, nem hogy még meg is előzze.A kivonulós példád is vicces, amikor épp az AMD tette át kb minden elérhető kapacitást és fókuszt dvga-ról szerverre már pár generáció óta, aztán kétévente annyit bedobnak hogy "we love gamers".
Hol a 7800XT? Hol a 7600XT? -
paprobert
senior tag
Alogonomus már megtörtént tényként állítja be a projekcióit. Ráadásul részletekbe menően, és nagyon sokszor rosszul.
Annyiban igaza van, hogy kb. 2018 óta elkezdődött egy folyamat, hogy sokkal kevesebbszer fordul elő az, hogy kijön egy AAA cím, és az AMD hardver nem tud mit kezdeni vele.
Nem nagy kockázat az a feltételezés, hogy az RDNA család folytatni fogja ezt a továbbiakban.Ez azonban csak arra a grafikai csomagra vonatkozik, amelyet a konzol reálisan renderelni tud.
PC-n a lehetőségek már ma is sokkal nagyobbak, lásd. RT Overdrive, és hogy ezekkel, a konzolt meghaladó grafikai feature-ökkel mi történik, abban az Nvidiának már sokkal nagyobb szava van.
Úgyhogy szerintem az alap konzol szint kompatibilitása gyakorlatilag "garantált", viszont minden ami felette van kétségesebb AMD hardver szempontból.640 KB mindenre elég. - Steve Jobs
-
Alogonomus
őstag
Hát igen, sajnos legjobb pillanataidban is minimum annyira szemellenzősen látsz mindent, mint én a legrosszabb pillanataimban.
Miben látod hogy az Nvidia hardverekhez nem igazítják a motorokat? Hát nem pont arról szól a helyzet, hogy az Nvidia kártyák helyett az AMD kártyák profitálnak többet mind az IW9, mind az UE5 motorból?
Nvidia határozottan vonul ki a PC piacról? Ránéztél már idén az eladott Radeon és Geforce kártyák darabszámára? Az általatok mantrázott 20:80 arányt látod?A 4090 nyilván megfelelően el van engedve memóriában, csak nem sokan veszik. A 4080 még csak-csak, bár a 16 GB egyértelműen sokkal hamarabb válik kevéssé, mint a másik oldal 24 GB-ja, vagyis a 24 GB-os kártya sokkal jövőállóbb. A 4070 és különböző 3080 kártyák 10-12 GB-ja pedig a 1080p ultra mellé is lassan kezd szűkössé válni, vagy ritkán már múlt idő is az, míg a másik oldal 16 GB-ja kényelmesen elég.
Az érkező 7600 valóban 8 GB-tal jön, viszont a 8 GB-os 4060 és 4060 Ti ellenfele a 12 GB-os 7700 lesz, vagy talán még a 16 GB-os 7800 is, ha jól árazzák.
Költséghatékonyságból egyre több játékstúdió leépíti a saját grafikus motor fejlesztését, mert sokkal egyszerűbb egy kész motort használni, valamint a motort használó más stúdiókkal együtt sokkal nagyobb is a termelődő tudáshalmaz. A stúdiók nem köteleződnek el egyik hardverfejlesztő irányába sem, mert minimum a CDPR kapcsán látványos volt annak a veszélye. Viszont a játékfejlesztők arra felé optimalizálnak, ahonnan majd több eladást remélhetnek. Ezért nem foglalkoznak például az Intel kártyáival.
a "broken" játékok kapcsán láttuk, hogy el lehet érni hogy csak a rendelkezésre álló memóriáig terjeszkedjenek, de attól a látványviláguk romlik le az érintett Geforce kártyákon.
-
félisten
válasz Alogonomus #61078 üzenetére
Miben látod a szemellenzős megnyilvánulásomat? Hogy nem értek egyet veled? van itt még pár ember. Nem kell ehhez szemellenzősnek lenni hogy az ember értetlenül álljon a fenti kijelentéseid elött.
Én most sem az AMD kártyákat kérdőjeleztem meg hanem az Nvidiáról ésa z Ada-ról tett kijelentéseidet.
Az Unreal engine semmivel nem fut jobban az új AMD kártyákon mint az Ada-n.Néztem Fortnite-t és Matrixot is. Egy egy játék majd biztos futhat jobban AMD-n vagy Nvidián ahogy eddig is. Minden Unreal 5.1 és 2 demot az utolsó bemutatón NVidia hardverrel demózott az Epic.
De lehetet volna az AMD is. Mindegyik gyártóhoz fejlesztenek és elfogadnak Pluginokat és együtt működnek velük. Már annyiszor leírtad ezt a dolgot és mindig megkérdőjeleztem.
A 16 GB nem lesz kevés. Az hogy Vram alapján jelented ki hogy a 4080 kevésbé jövőtálló ugyan olyan bugyuta kijelentés minta kinduló kommented. Az Ampere is jövőtálóbb RT és DLSS miatt mint az RDNA2 az én szememben.
Elengedem mert rájöttem, hogy nem tudsz továbblépni arról a fan szintről ahol megrekedtél.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Busterftw
veterán
válasz Alogonomus #61078 üzenetére
Profitalnak hogy? Elerik az Nvidia launch teljesitmenyenek atlag 80%-at?
"Ránéztél már idén az eladott Radeon és Geforce kártyák darabszámára?"
Te mirol beszelsz? Q4 ben Nvidia market share 80+%, Q1 report meg nincs kinn.
A darabszam teljesen ertheto, mindket ceg csak high end kartyaval volt a piacon egy PC crash alatt.Tehat amikor Q1 2019-ben 50%-al esett az darabszam 16.1 millorol, 8.9 milliorol elozo evhez kepest, Q1 2018-ban, akkor az Nvidia mar elkezdte a dvga piacrol a kivonulast?
Ilyen marhasagokat mondani.[ Szerkesztve ]
-
DudeHUN
senior tag
válasz Alogonomus #61078 üzenetére
Pedig eddig az Ada egy kategóriával jobbnak néz ki, mint az RDNA3. Energiahatékonyságban főleg. AMD a VRAM méretével és az árral tud versenyezni. Már persze, ha akarna.
Az más kérdés, hogy Nvidia feljebb tolta a kártyákat, mint reális lenne. Kategóriában és árban is. De amúgy AMD is ezt csinálta sajnos.Gamer for Life
-
félisten
válasz DudeHUN #61081 üzenetére
A textúrák minősége és a raytracing messze túlmutat a PS-re megjelent. Spider-Man: Miles Moralesen PC-n és a Last of Us nak sem kellene hogy gondot okozzon ez, ha foglalkoztak volna a porttal legalább annyit.
Ez egy gyenge munka ahogy átültették PC re, ez tény.
Ettől függetlenül a 8 GB vram nem elég mindenre ma már, ez is tény, ez nem is kérdéses.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
PuMbA
titán
Itt lassan már tényleg az lesz a kérdés, hogy az AMD ne még szarabb kártyákkal jöjjön ki, mint az NVIDIA. Ez a chipletezés első körben azzal járt, hogy az NVIDIA-val már nem tudnak teljesítmény / fogyasztásban versenyezni, ami az RDNA2-vel még ment. Ez eddig pont annak tűnik, ami a prociknál. Az AMD-nek jó, nekünk nem feltétlenül, mert a Zen 4 rohadtul nem bírja kezelni a hipergyors memóriákat meg szétég az I/O die.
[ Szerkesztve ]
-
HSM
félisten
"Itt lassan már tényleg az lesz a kérdés, hogy az AMD ne még szarabb kártyákkal jöjjön ki, mint az NVIDIA."
Azért én ennyire nem látom borúsnak a helyzetet."mert a Zen 4 rohadtul nem bírja kezelni a hipergyors memóriákat meg szétég a chiplet"
És nem is kell neki, mert mint látható a tesztekből, egy 7800X3D "lassú" 6000Mhz memóriákkal, 8 maggal is fele fogyasztásból lelépi a konkurencia 24 magos csúcsmodelljét, és a sima modellek teljesítménye is több, mint kielégítő. A chiplet szétégése pedig vélhetőleg rengeteg hiba szerencsétlen együttállásának következménye, amit remélhetőleg mihamarabb javítanak majd AGESA/BIOS oldalról. Sajnos az AM5-öt sikerült egy bughalmazként piacra dobni, ahogy az RDNA2-3 szoftveres oldalára is ráférne egy komolyabb rendberakás, pl. egy épkézláb működésű, értelmes módon használható WattMan piszokul kellene. Ez a rengeteg bug, bénázás és szoftveres kiforratlanságok szerintem sokkal több vásárlót riasztanak el, mint a hardvereik teljesítménye, ami alapvetően rendben lenne. -
PuMbA
titán
"Ez a rengeteg bug, bénázás és szoftveres kiforratlanságok szerintem sokkal több vásárlót riasztanak el, mint a hardvereik teljesítménye, ami alapvetően rendben lenne."
Ebben egyetértünk A mostani CPU fiaskó miatt jó pár évig sokan nem fognak AMD CPU-t venni, de a 7900XTX induláskori szoftveres dolgai is megadták sokaknak az irányt. Évek óta ugyanezt csinálják és még mindig nem találják az ellenszert....egyszerre szomorú és hihetetlen.
[ Szerkesztve ]
-
félisten
Az ár döntő tényező lehet és elnézve az előző genes 6900XT árakat 500 dollár köré tippelném a legnagyobb verziót, annyiért viszont nagyon jó vétel lehet ,de AMD nek nem biztos hogy ideális.
Valószínűleg ezért írták, hogy nem jó nekik ha Nvidia 399 dollárra teszi a 4060 Ti-t ,mert úgy kénytelenek lesznek a kisebbekkel vagy alámenni árban vagy annyiért kínálni egy drágábbra előszámított( talán el is nevezett) kártyát és a nagyobb verzió árazását is befolyásolja ez.
Twitteren azt írják 3 féle, amit biztos kiad AMD.Az Amperenél azért a kompetenciához az is kellett a versenyképességhez energiahatékonyság terén, hogy a Samsung 8 nm elég szar volt Nvidiának.
Elméletileg a 3090 15 -20 % kal gyorsabb lett volna a kiadott verzióál, ha el tudta volna érni a tervezett órajeleket azon a gyártáson.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
HSM
félisten
Egy szó: menedzsment. Mire, és mennyi pénzt költenek. A 7900-ast el kellett volna pár hónappal csúsztatni, javítani a hardvert is, befejezni a drivert, és egy sokkal pozitívabb képpel lehetett volna nyitni vele mondjuk idén februárban.
Az AM5 ugyanez. Azt pletykálják, már megjelenés előtt voltak ilyen leégős esetek, és így kiadták, és hónapokig nem történt semmi... Én azért is maradtam még AM4-en, azért nem fogom kifizetni az AM5 igen vastag felárát, hogy még béta hardver tesztelő is lehessek. Fordítva kéne, nekik kéne nekem fizetniük, hogy kitesztelem a vackukat...#61093 b.: Ez nem csak a gyártástechnológia volt. A 6800XT/6900XT-k igen jó energiahatékonyságra lettek volna képesek, ha erre állítják be őket. Sajnos gyárilag csak a sima 6800 volt erre hangolva, látszott is az eredményein, az erős vágás ellenére is igen jó számokat hozott.
[ Szerkesztve ]
-
félisten
válasz DudeHUN #61066 üzenetére
Az új patch 1.0.4.1 helyretette a textúrákat is már. 3070 nél a High teljesen ok vele a low is kb medium szintre ment fel.
Pár hónap és játszható lesz az új Jedivel együtt.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
Itt is ez volt a gond sajnos,de a low az alapból ilyesmi mosott ..kupac volt. Még 2-3 patch aztán jó lesz . 25 GB volt az előző patch
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Raymond
félisten
En azert ovatos lennek az 500-as arakat varva. Az aktualis elozo gen arak a raktarsopresrol szolnak. 6950XT es 6900XT mar majdnem kifogyott, par modell van meg 650-700EUR kozott. A 6800XT-bol meg van tobb de azok is 560-640EUR kozott vannak, a sima 6800-bol van 3 modell 500-540 kozott ahogy nezem [link] A 7900XT per pillanat 839EUR-nal kezdodik es nagyon sok hely van 500 es 839 kozott azert.
Szoval lehet hogy jon valami nem olyan sokara az 500-as regiokba, de ott meg van nekik eleg termek es raktarkeszlet, en ahogy nezem ami "surgosen" kell meg nekik az valami 600-700 koze. Mar ha van megfelelo teljesitmenyu termek keszen oda ami lelepi a 4070-et vagy legalabb ugyanazon a szinten van hogy lehessen a 16GB vs 12GB jatekot jatszani. En nem temetnem olyan gyorsan a 7800-as kartyakat.
Privat velemeny - keretik nem megkovezni...
-
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Politika
- iPhone topik
- Realme GT Master Edition - mestermunka
- Még több AI-t hozna a Windowsba a Microsoft
- Projektor topic
- sziku69: Szólánc.
- Luck Dragon: Asszociációs játék. :)
- eBay-es kütyük kis pénzért
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- sziku69: Fűzzük össze a szavakat :)
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs