-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
KillerKollar
senior tag
válasz daveoff #8341 üzenetére
Kíváncsi leszek Most az NV szerintem megsürgette az AMD-t,mert az új generációs Nvidia kártyák verik az 1 éves AMD-ket értelemszerűen,kínos is lett volna az NV-nek ha nem így lenne,viszont a fogyasztásuk és meglepően még az áruk is elég korrekt ami mostanában nem jellemző az NV-re.Főleg a 970-é.
-
nagyúr
válasz daveoff #8364 üzenetére
pedig ez így van. sőt, ha ugyanazon a pályán mérsz mondjuk más felbontásban, akkor is lehet más a két kártya sebességének az aránya (pl. számos játékban a 290X és a 980 relatíve 5-10%-ot gyorsul a 780Ti-hez képest, ha fullHD-ből átkapcsolsz WQHD-be).
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Drizzt
nagyúr
válasz daveoff #8364 üzenetére
Pedig mi sem természetesebb. Különféle architektúráknak különféle bottleneckjeik vannak. Lehet olyan pálya, ahol sok a tesszelláció, ekkor az egyik architektúra, amelyik erős ebben, jóval nagyobb arányban fog vezetni, mint egy olyan pályán, amin nem nagyon van tesszelláció. Ilyesmire gondolj, hogy mondjuk az egyik pálya dzsungelben játszódik, a másik meg egy hajón az óceánon. Ez két eléggé sarkított eset, de ilyen nagy különbségek esetén valószínűleg már teljesítményben is van különbség( ahhoz képest, ha mondjuk két dzsungel pályát nézel). Legegyszerűbb ilyen befolyásoló bottleneckek szemléltetésére a memória. Egyik kártya mondjuk 3 gigás, a másik meg 2. Elég ha felbontást növelsz, s messze nem maradnak meg a korábbi arányok. De a kártyán ugyanúgy el tud fogyni a shader, a tesselator, bármi más.
I am having fun staying poor.
-
válasz daveoff #8367 üzenetére
Ha nem elég tág a mintavétel, akkor hiába, mert csak annyi változik, hogy a tudatos manipuláció helyett a véletlen fogja eldönteni egyenként 50/50 valószínűséggel, hogy épp melyik versenyzőnek kedveztek a feltételek, szóval csak sok-sok reprezentatív pont átlaga mond majd valamit (azzal közelítesz a valós 50/50 szóráshoz). De ha bevonjuk a képbe, hogy akár már a játékok készítői is részrehajlók, akkor nem 50/50-ről indulsz. Viszont az sem valószínű, hogy minden tesztoldal és fejlesztő ugyan annak az egy gyártónak a zsebében van. Sőt, valószínűleg nem a vásárlás pillanatában már megjelent játékok lennének a mértékadók, hanem amik az alatt jelennek meg, míg rendeltetésszerűen használod ezt a kártyát (amit még nyilván nem tudsz előre tesztelni).
Szerintem egész jó a helyzet olyan szempontból, hogy a kvázi "futures market" most inkább az AMD manipulációiról szólt (ők adták el a tesszelációt, GCN-t, Mantle-t, stb, mielőtt valós gyakorlati haszna is lett volna), miközben a jelen inkább az nVidia-ról (kb. DX9-re ragasztva sok minden, de ami DX10+, az sem szállt el GCN párti irányba, legfeljebb néhány kivétel többé-kevésbé), így különböző rétegeket tudtad elbűvölni (aki már tegnap vs. aki majd csak holnap akarta használni a kártyát, aki pedig azonnal, az valószínáleg nem ért rá bővebben foglalkozni vele).
Ha úgy teszteled a kártyákat, hogy hónapokon át mindkét versenyző nálad van és rendszeresen veszel mintákat (itt-ott egy-egy fps érték különböző játékok különböző jeleneteiben, ami épp megtetszik).
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
félisten
válasz daveoff #8424 üzenetére
Desktop szegmensben elfogadható, hogy egyeseknek nem számít a fogyasztás (bár a kártya hangja itt sem mindegy), de ugyanazt az architektúrát laptopba is bele kell tenni, és itt nem nem mindegy, hogy egy GPU architektúra mire képes egy adott fogyasztás mellett.
[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
félisten
válasz daveoff #8426 üzenetére
Mivel a mobil és a desktop vonal azonos fejlesztésre épül, így az AMD-nek is oda kell figyelnie az alacsony fogyasztásra (20nm, HBM, HDL, architektúra, stb. útján), ha nem akarnak több generációnyi egér utat adni az nVidiának a laptop szegmensben.
Így az asztali megoldásnak is jó teljesítmény/fogyasztás arányúnak kell(ene) lennie.Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
TTomax
nagyúr
válasz daveoff #8436 üzenetére
Jahm azért hullottak eddig is szép számmal a két gpus kártyák... mert a 105Cfok az nem vészes...az pont annyira vészes,hogy egy gramm tartalék se marad a kártyában... garit jó eséllyel kibírja,azon a két gpus kártyán pont ugyanaz a VRM van mint a refen... és pont ezért nem örülnék neki ha ez a hűtés kerülne a 390X-re.Pontosan ezért,mert csak a gput hűti...
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
HSM
félisten
válasz daveoff #8449 üzenetére
Erről már egyszer elmondtam a véleményem... A gyári hűtő sem éppen olcsó, nem hiszem, hogy ha sikerül nekik egy jó megállapodást kötni az Asetek-el egy nagy volumenű hűtő-megrendeléssel, akkor az annyira drága lenne. Simán érthető lépés lenne, évek óta szidva vannak a hűtéseik, logikus lépés lenne prémium hűtést rátenni, ami minden szempontból a legjobb egy ilyen egyszerű kompakt víz. Egy csúcs-VGA árába szvsz simán beleférne.
-
HSM
félisten
válasz daveoff #8493 üzenetére
Elvileg még kb. 200 shader van benne, letiltva. Azt be tudják kapcsolni, plussz tudnak szinte biztosan egy revízióval is kicsit javítani a fogyasztáson is. Nem tudom, mennyire lesz ütős, meglásuk. Nekem a jelnelegi 290X-ek is bejönnek, szóval ha jó áron adják, kicsit javított fogyasztással, szerintem teljesen jó lehet.
Ez a 980 Ti ellen tuti kevés lenne, de egy sima 980 megközelítésre jó lehet.
-
HSM
félisten
válasz daveoff #8495 üzenetére
Nem a létjogosultságát, hanem a népszerűségét. Az Nv-nek sikerült akkora marketinget tenni a terméke mögé, amivel megvette kilóra az embereket. Persze, a termék is jó lett, szó se róla, de azért közelsem egy akkora eresztés, mint amennyire népszerű lett. Persze, ez csak az én véleményem.
Ha ma VGA-t kéne vegyek, nem lenne kérdés, R9 290-et vagy Maxwell 900-ast vegyek, egy jóárasított 290-es lenne újra.
[ Szerkesztve ]
-
Crytek
veterán
válasz daveoff #8524 üzenetére
Ha csak nem adnak ki rá 2 hétre egy 390x+t akkor kevés.Nv bármelyik pillanatban piacra tud dobni egy 980ti-t ami akár 30%-al is verheti a sima 980 at mert a fogyasztást meg mindent bőlére eresztehetnek még.
Amd inkább az árakkal játszhatna a többet olcsóbban elv alapján.
Mekkora népkártya és világsiker lenne 85k-s 970 verő vga.
Kár hogy a xiaomi nem gyárt vgakat akkor kb a csúcskártyák 80k fölé nem mennének a cég elvei miatt.
Csak hát amd és nv csőves cégek.Next PC Upgrade: 2022
-
Abu85
HÁZIGAZDA
válasz daveoff #8582 üzenetére
Nem ezt mondtam, csak azt, hogy a prioritás a szoftver, mert ott van több éves lemaradás. Az új hardver sok előnyt nem kínál, max annyit, hogy több erőből lesz kevés kihasználva. Az AMD szerint a PC-piac érdeke jelenleg az, hogy a ma elérhető hardvereket használják ki jobban a fejlesztők, mert a teljesítményük kétharmad részét simán bennük hagyják. Jó nem kell mindent kisajtolni, de legalább a 60% legyen meg. Ez jó az új hardvereknek is. A felhasználóknak pedig főleg, mert nem feltétlenül kell hardverre költeniük.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #8584 üzenetére
Annyit elértünk, hogy az új API-val készülő játékok terhelése 60-70% közötti. Ami egy jó ~10%-os ugrás az ide tartozó játékok DX11 portjaihoz képest. Ami nagy ugrásnak tűnik az a Nitrous. A StarSwarmban a hardverkihasználás sosem esik 50% alá, míg DX11-es portnál a hardverkihasználás 2-20% közötti. Persze ez a program alpha, de ezt tényleg nem a DX11-re építették, tehát látszik, hogy működik.
Amiről még nincs adat az az asszinkron compute, ami most került be az Omega driverrel. Ez növelheti a hardverkihasználást 80-90%-ra. Ezzel egyes compute effekteket teljesen ingyenessé tehetők. Ha bekapcsolod, akkor nem fogja levenni érte az fps-t. Ez egyelőre csak pár PS4 exkluzív játékokban működik, de idővel át lesz mentve PC-be a koncepció.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
válasz daveoff #8584 üzenetére
Azért azt ne felejtsd el, hogy a mai játékok elsősorban még DX11-re készültek. Amúgy a saját tapasztalat, hogy igencsak erős CPU-val is nálam igencsak erősödött a VGA is pl. BF4-ben, DX-ben csak High-on tudtam tolni, Mantle-ben pedig minden tekintetben jobban futott Ultrán is.... Pedig egy i5 4690K 4,4Ghz-en nem épp gyenge 16GB 2133Mhz-es ram társaságában.
A Mantle csak lehetőséget ad a kihasználatlan erőforrások kihasználására, de kell a játék is, ami él vele. Másfelől a felszabaduló rengeteg processzoridőt is ezer dologra használhatja a fejlesztő, csak ha használja, akkor nagy cumi lenne DX alatt.Javaslom ezt a régi APU13-as előadást: [link].
Magam is bár rég elmentettem megnézendő videónak, de csak nemrég volt lehetőségem megtekinteni, és eléggé szépen körbejárják a témát. Ez is elég jó, Johan Andersson-tól: [link].A StarSwarm demó pedig igenis jó példa arra, micsoda lehetőségek lakoznak a Mantle-ben, ha kihasználják őket....
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz daveoff #8587 üzenetére
A StarSwarm abból a szempontból nagyon fontos, hogy az már egy új elvek szerint épített motorra épül. A Nitrous ledönti azt a régi modellt, hogy van egy viszonylag egyszerű leképződ, és nagyrészt post-process effekttel szépíted meg. A filmekben a CGI azért néz ki piszok jól, mert nem ilyen formában valósul meg. A Nitrous működése a filmekben használt CGI modellhez hasonló, vagyis ez az első motor, ahol funkcionálisan lehetségessé válik a grafikai minőségugrás gondolata.
A StarSwarm technikai demó célja az, hogy bebizonyítsa, hogy a CGI minőségéhez szükséges alapokat képes stabil teljesítménnyel feldolgozni. Ez elég jól sikerült, hiszen az aktuális játékokban alkalmazottnál százszor nagyobb terhelés mellett sem omlik össze a sebesség, azaz nem a hardver az akadálya a grafika fejlődésének.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
stratova
veterán
válasz daveoff #8592 üzenetére
Csak sanda sejtés, de lehet hogy Abu kifejezetten a shader procik kihasználására célzott.
Ettől függetlenül a többi egység (pl TMU ROP) már komolyabban ki van használva, így nem mutatkozik meg komolyabb javulás vagy más ponton nem teljesen kiegyensúlyozott a VGA.
Viszont ha úgy vesszük pl a Hawaii/Tahiti kártyáknak jelenleg játékos szempontból teljesen feleslegesen magasabb a DP Flops aránya. Kérdés ez is hasznosítható lenne-e általános számításra más API-val játékok alatt.StarSwarm számomra mondjuk azért furcsa példa, mert tipikusan olyan területet szimulál, ahol rengeteg egységgel kell számolni, így komoly a CPU-ra jutó teher.
Pár online MMO is elég durván skálázódik magszállal és IPC-vel együtt (korábbról Guild Wars 2 talán). -
Abu85
HÁZIGAZDA
válasz daveoff #8592 üzenetére
A mai programok még DX11-re vannak tervezve. Kivéve a Frostbite 3, ami sajnos egyre instabilabb DX alatt, ahogy nő a motorverzió. Ezt mondjuk nem tartom jó ötletnek. Tudom, hogy fél az EA attól, hogy mit szólnának a játékosok, ha a DX grafikát butítanák/sebességet visszavennék, de az instabil program a legrosszabb döntés: [link]
Azért mondtam példának a StarSwarmot, mert az olyan program, amerre megyünk, és ott már nem csak 2000-et rajzol a konfig. Ez a 2000-es határ a DirectX 11 miatt él, és nem azért, mert "hú de elég" ez a mennyiség.
Nem kell, hogy meggyőzzön téged. Nem te fogsz erre az API-ra programokat írni.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #8657 üzenetére
5-6 éve a seggünket csapkodtuk volna a földhöz ilyen minőségű GI és particle effektek, illetve anyagárnyalás láttán:
Azt a fény-árnyék kezelést, részecskerendszert és radiosity modellt, amit az Alien: Isolation használ, még több mai játéknak sem sikerült elérni. Persze no para, majd később más is megkapja azokat az effekteket, amelyeket ez a játék alkalmaz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #8659 üzenetére
Igen. Játszottam már vele. Első osztályú a megvilágítási modell és a részecskerendszer. De ezt eddig is tudtuk, hiszen a fejlesztők már jó előre elmondták, hogy a legjobban implementálják, ami létezik és bevethető. Majd később a többiek is bedobnak valami hasonlót.
A Creative Assembly előnye, hogy ezt a motort a nulláról építették fel. Úgy választhatták össze a működéshez szolgáló komponenseket, ahogy azt jónak látták. Persze sok pénz volt, de amikor valami mindig a nulláról készül el, az előnyt élvez egy darabig, mert a többi motorba az új technikák nem feltétlenül építhetők be problémamentesen. Ez az oka annak, hogy ebben a motorban van most a legjobb indirekt fénykezelés és részecskerendszer. Egyedül a CryEngine közelít hozzá.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Bandi79
aktív tag
válasz daveoff #8657 üzenetére
Ha el is fogadjuk, hogy 5-6 éves grafika (szerintem nem), akkor hasonlítsuk a GTA 4 PC portjához (2008):
GTA 4-et ha fel tudtam volna tenni maxra (1 giga VRAM maxon kevés neki), akkor kb diavetítést nézek, Alien Isolation meg röccenés nélkül megy. Nincsenek hatalmas FPS esések, textúra hibák, memory leak stb...
Ez a különbség az optimalizálatlan és a jól megírt között.
Régi C64-es időket sírom vissza, akkor még a játékkészítők tudtak programozni. ~1MHz CPU + 64K ram. Ennyi van, erre írj játékot. Nem volt "minimum" és "recommended" specs
Ennyi off elég is, köszönöm a válaszokat !
-
Abu85
HÁZIGAZDA
válasz daveoff #8666 üzenetére
Pedig de. Mondok egy példát rá az Alien: Isolationből. A modern GPU-s részecskerendszer, amit használ teljes mértékben mentes a többletrajzolás problémájától. Ez az első mozaikos alapokra épített algoritmus, és kapaszkodj meg ... legalább ötször gyorsabb azoknál a GPU-s megoldásoknál, amelyet ma az egyes játékok használnak, és a még szintén használt CPU-s megoldásoknál nagyjából százszor gyorsabb. Persze a CPU-s megoldások eléggé le vannak butítva, ahogy a GPU-sak is, hogy a többletrajzolás ne okozzon gondot, de az Alien: Isolation motorja koncepció szintjén védekezik ellene. Több tucat ilyen trükkből tevődik össze az Alien: Isolation sebessége. És az oka a nulláról írt motor.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
válasz daveoff #8755 üzenetére
A Mantle-nek semmi gond a jelenlegi formájában, csaképpen mivel kb. egy éve sincs a piacon, még nem készültek rá programok, amik kihasználnák.
Másfelől igencsak szemet kényeztető azoknak, akiknek nincs atomdrága gépük fullos, széttuningolt i7-es procival. Még nálam is CPU-limites volt a BF4 DX-ben, 4,4Ghz-es i5-ön Ultrán, így csak High-on tudtam tolni a 290-es Radeonon. Igencsak kellemes volt utána Mantle+Ultrára emelni, amit így már kirázott a proci a kisujjából másfélszeres tempóban.(#8756) Departed: Az 5850-em több, mint megduplázta sebességben már a 7950-em is... Az 5850-nél pedig nem sokkal gyorsabb a 6970. A 290 meg végképp brutál. A fogyasztása meg túl van reagálva.
900Mhz-en a gyári 950 helyett, -20mv feszen 300W volt a komplett gépem fogyasztása konnektorból BF4 Mantle-ben, ami 80%-on tekerte a húzott i5-öm, és 100%-on a 290-est, és közben gyorsabb volt egy szénné húzott 280X-nél is... De amúgy hamarosan aktuális a 300-as széria, ott sanszosan jöhet pár szimpatikus alternatvía.[ Szerkesztve ]
-
-Solt-
veterán
válasz daveoff #8759 üzenetére
Nálam megoldotta az nv... minden játék beakad, megáll egy pillanatra teljesen változó időközönként... (10-20 perc)
(#8763) daveoff: A Nitrous engine az alapja, játék is jönni fog rá. Egyébként pont az a lényege, hogy megmutatja mit lehet elérni, ha a DX nem korlátoz.
[ Szerkesztve ]
www.smart-bus.hu
-
-Solt-
veterán
válasz daveoff #8765 üzenetére
Gondoltam, csak muszáj volt megemlítenem, mert lassan kezd bosszantani... Érik egy szűz winfos, ha utána is csinálja, akkor elkezdek majd komolyan aggódni!
Reklám... valahol az, mert prezentálja, hogy mit lehet elérni vele... de ettől még játék is jön rá tudtommal.
www.smart-bus.hu
-
HSM
félisten
válasz daveoff #8765 üzenetére
Kb. 30 percen keresztül ecsetelik a motor fejlesztői, mekkora szívás a Dx-re fejleszteni, mennyire korlátolja a lehetőségeiket, és mennyi felesleges plusszmunka, és mennyire lemaradt a hardverek fejlődéséhez képest. [link]
Persze, biztos csak reklám, megvették őket kilóra...(#8766) -Solt-: A StarSwarm végülis reklám abból a szempontból, amit írsz. Viszont itt a prezentáció, ami azért elég sokmindenről lerántja a leplet.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Autós topik látogatók beszélgetős, offolós topikja
- Apple iPhone 13 Pro Max - őnagysága
- Bluetooth hangszórók
- Debrecen és környéke adok-veszek-beszélgetek
- Sweet.tv - internetes TV
- ASUS notebook topic
- Konzolokról KULTURÁLT módon
- Videós, mozgóképes topik
- Kínai, és egyéb olcsó órák topikja
- További aktív témák...
- Nvidia GTX 960 Gaming - 2GB ------------------12.000 Ft
- Keresek egy Power Color Hellhound Rx 6600 vagy rx6600xt videókártyát.
- PNY GTX 1060 6GB
- ZOTAC GeForce GAMING AMP White RTX 3060 Ti OC 8GB GDDR6 256bit Videokártya
- NVIDIA Asus GeForce GTX 1660 SUPER OC Edition 6GB/ 192-bit/ felbontás 7680 x 4320/ OC Mode -1860hz
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs