Új hozzászólás Aktív témák

  • HSM

    félisten

    válasz gbors #8598 üzenetére

    Én a jelenről beszélek elsősorban... 3 éve jelent meg a Tahiti, DX12 Tier 3 azaz full tudással. Ehhez képest, az Nv a mai napig nem képes ezt nyújtani a legfrisebb Maxwell csipjeivel sem. Sőt, még dokumentációjuk sincs.
    Korábban, ahogy jöttek az okosabb hardverek, jöttek hozzá az okosabb API-k is rövid időn belül. Ez most megszakadt, ugyanis az egyik játékos a kvázi kétszereplős piacon nem igazán akarta tudásban követni a másikat, így semmi kényszer nem volt a Microsofton, se senkin. A játékfejlesztőknek pedig évekig együtt kellett élni a DX11 nyűgjeivel, amit mára már nagyon kinőttek a nagyobb koponyák. Gondolj bele, olyan talán még sosem volt, hogy ott legyen a HW-ben a tudás (GCN, ahogy mondtad korábban, "túl okos"), amit a mai napig nem lehet DX alól kb. semennyire kihasználni, és legkorábban a kiadás után 4 évvel lesz hozzá alkalmas API, a DX12....
    Ha az Nv is meglépte volna már a Keplernél, hogy okosabb csipet tesz le az asztalra, már rég előrébb járhatna ez az egész API-s történet és a PC játékok az én véleményem szerint.

    [ Szerkesztve ]

  • stratova

    veterán

    válasz daveoff #8600 üzenetére

    Simán lehet, hogy készül belőle pl. Vapor-X 8 GB RAM-mal, de kicsit megdobná az árat.
    (WS vonalon még Tonga is kap ennyit, de ugye az más tészta).

    Ez a HBM nekem jövő év elejére kicsit drága mókának tűnne.

  • Abu85

    HÁZIGAZDA

    válasz daveoff #8592 üzenetére

    A mai programok még DX11-re vannak tervezve. Kivéve a Frostbite 3, ami sajnos egyre instabilabb DX alatt, ahogy nő a motorverzió. Ezt mondjuk nem tartom jó ötletnek. Tudom, hogy fél az EA attól, hogy mit szólnának a játékosok, ha a DX grafikát butítanák/sebességet visszavennék, de az instabil program a legrosszabb döntés: [link]
    Azért mondtam példának a StarSwarmot, mert az olyan program, amerre megyünk, és ott már nem csak 2000-et rajzol a konfig. Ez a 2000-es határ a DirectX 11 miatt él, és nem azért, mert "hú de elég" ez a mennyiség.
    Nem kell, hogy meggyőzzön téged. Nem te fogsz erre az API-ra programokat írni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Crytek

    veterán

    válasz HSM #8601 üzenetére

    PFF. Megint itt vagyunk. És mire ment az AMD ezzel, továbbra is kérdem.
    Azt meg hagyjukmár hogy előrébb tartana.
    Ezek szerint gyakorlatilag azt állítod, hogy az nvidia a nonplusszultra meghatározó tag a VGA ipaban akinek az MS is becsókol és a NV-re alapoz őt várja a szavakun csüng. Hát epic fail megalol baromság ez.

    Az AMD az egész gcn-estül egyenlőre egy nagy "0" abból a szempontból hogy több éves technológiai előnnyel sem képes úgymond semmire. CPU fronton meg ugyanez igaz rá csak negatív értelemben ott kb 80 éve nem csináltak semmit.

    Next PC Upgrade: 2022

  • Abu85

    HÁZIGAZDA

    válasz gbors #8598 üzenetére

    Más, hasonló teljesítményű CPU-val is így viselkedik. Athlon 5350-en is kipróbáltam, amivel DX11-ben csak 13-15 fps-t kaptam, de az AMD API-jával maradt 40 fps körül.

    Sajnos a mai driverek nem úgy működnek, mint a régebbiek. A Civ5-höz képest számos korlátozást kapott a Civ6. A mai driverek ahhoz, hogy elfogadható teljesítményt nyújtsanak nagyon agresszívek többszálú optimalizálásokat kaptak, ami azt eredményezi, hogy kíméletlenül elveszik a processzoridőt az alkalmazástól. Ma az az optimális, ha a legalább három magot kap a driver (ez az NV előírása, és az AMD is hajlik efelé). Ezért is ajánlanak ma minimum 4 magot a friss játékoknak, de inkább 5-6 kell. Így lesz a legjobb az általános folyamatosság. Persze a minimumok nagyon esni fognak, de a DX11 ma a kompromisszumról szól.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • egyskacc

    újonc

    Üdv, egy fura kérdésem lenne hozzát, egy új venti befolyásolhat egy videókártyát a normális működésben??
    Hogy meg is értsétek mi a gond, elmagyarázom.
    Tehát van egy ati 5970 es kártyám, amihez jó áron, viszont használtan jutottam hozzá, egy ideig minden jó volt, de 2 hónap után nagyon csunyán el kezdett zörögni benne a venti( gondolom csapágyas lett), keresgéltem a neten ventit hozzá, de ebay en találtam csak 15 dollárért, és annyit meg nem akartam érte adni.A lényeg az h a végén mégis lett bele egy venti, mivel a haveromnak volt egy 8800 gtx ventije, néztem az átmérőt jó, 4 pines a ventije, ez is jó, annyi volt a különbség h a csavarhelyek nem ott voltak ahol az atis ventinél. Kis pillanatragasztó és akkor elkészült a csoda, ami igy néz most ki :)

    A gondom csak annyit hogy mikor belépne a win be, a win7 felismeri a kártyát, viszont azt irja h driver nincs hozzá, és amint el kezdem telepiteni a drivert, azonnal lekapcsol a kártya, a venti 100% ékon pörög és elmegy a kép, a gép csak akkor áll helyre, ha kikapcsolom majd vissza be, de ezután már a win töltésénél meghal.
    Szerintetek ?? Vélemény??
    Valamit a bioszban kellene működni talán ??
    Viszont azt hozzáteszem hogy a haver gépében tökéletessen megy, itthon meg nem, de van egy 4850 esem, amit jelenleg használok, az viszont gond nélkül megy, tehát még az is kizárható h a lap vagy esetleg a pci-e ment volna gajra....

  • Sondi1986

    addikt

    válasz Werkly #8597 üzenetére

    Ha ez tényleg igaz, és az AMD kiadja ezt a kártyát HBM memória nélkül, kemény veszteség után nézhet, mivel csak év végere lehet kész a 16nm esetleg a 14nm amire rá tudna állni, és meg tudja mutatni az új architektúra képességét is ha csinál addigra.

    egyskacc Nem jót helyre írtad ezt. Különben a tápod nem lehet a ludas?

    [ Szerkesztve ]

  • gainwardgs

    addikt

    válasz Crytek #8604 üzenetére

    Mindig is így volt kB 2900xt óta így jövőt álló stb..
    De ne aggódj a 460 jó lesz még egy darabig :D

  • Crytek

    veterán

    válasz gainwardgs #8608 üzenetére

    Már csak annyit kell kihúzni a veterán gépemnek hogy kiderüljön a 380X jobban megéri-e majd mint 970!És akkor beindul a nagy game dömping évekre visszamenőleg újra végigviszek mindent ami eddig akadt és nem ment maxon.Előre sírok az örömtől :O :C

    Next PC Upgrade: 2022

  • gbors

    nagyúr

    válasz Abu85 #8605 üzenetére

    és esetleg Atom N2800-zal nem próbáltad? ne komolytalankodjunk már :U

    amit a driverekkel kapcsolatban írtál, az elég vicces - majd veszek olyan CPU-t, ami 2C8T felállású (ie. mindkét fizikai maghoz 4-4 logikai szál tartozik) :DDD ettől függetlenül, amikor a Civ az AI-t számolja, akkor a balanszon éppen lehetne állítani...

    (#8601) HSM: ne haragudj, de kevered a szezont a fazonnal. low level API-t simán lehet csinálni bármelyik DX10-es VGA-n, maximum convenience feature-ök hiányoznak mondjuk egy 8800-ból vagy 2900-ból, amitől hatékonytalan lenne programozni rájuk. a DX11-gyel való szenvedésnek az a fő oka, hogy a nagyon kényelmes és sokáig olcsó raszterizációs modellhez és multilevel API-hoz ragaszkodott mindenki, amíg lehetett. most már sokaknak fáj, és még ez sem kényszerítette volna ki a DX12-t, ha az AMD meg nem lépi a Mantle-t (amiért, hangsúlyozom, nagyon tisztelem őket - a b@szogatás az eredményességnek szól, nem a koncepciónak). hogy a félig CPU jellegű GCN mennyivel jobb low level API-hoz, azt nem tudom megítélni, de ez nem is fontos - ha lenne standard API, akkor lehetne rá fejleszteni, és kiderülne, ki a legény a gáton. az nVidiának ebben a versenyben a Maxwell az első tétje - ők vállalják ezzel az esetleges kockázatot, teljesen irreális emiatt rájuk kenni az iparág töketlenségét.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz gbors #8610 üzenetére

    De mi a probléma ezekkel a CPU-kkal? A teljesítményük egy normális, hangsúlyozom normális API-val nem limitált. Nem a hardver a rossz, hanem a DirectX 11! Ma azért fizetsz, mert tíz éve képtelen a Microsoft összehozni egy olyan API-t, ami nem pazarolja el az elérhető erőforrás 90%-át.

    Az a baj a driverrel, hogy borzalmasan rosszul működik a virtuális szálakkal. Azért nem javasolják ma a minimum gépigényeknél az i3-at, mert a grafikus drivernek nem jó a Hyper-Threading. Ez persze nem a hardver hibája, hanem a DirectX 11 kényszerít a fejlesztőkre egy rossz programozási modellt. És egyszerű innen azt mondani, hogy változtassanak rajta, de a Civ6 azért olyan amilyen, mert a rendkívül rossz kialakítású szoftveres réteg mellett ez a valóban nevetséges működési mód a legjobb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Dtomka

    veterán

    válasz Crytek #8609 üzenetére

    Szerintem a 970-et simán le fogja nyomni a 380x, A 390x a 980 és ha lesz Ti majd azt is, legalábbis teljesítményben, fogyasztásban lehet több lesz. Jó lenne ha így lenne, mert akkor beindulna az AMD szekere és akkor (még) komolyabban vennék őket. Több pénzük lenne, és az nekünk is jobb lenne, mert így is ők tesznek többet a játékosokért (annak ellenére, hogy a Nvidia-hoz képes milyen "kicsik") a többi konkurensekhez viszonyítva.

  • pp193474

    újonc

    Sziasztok!
    Segítséget szeretnék kérni,vagy legalább valami infót,hogy "mé" nem megy a gépem Hybrid CrossFireX™-ben.
    Mikor minden feltétel adott elméletileg.A legújabb bios van az alaploapon,a legújabb Ati driverek vannak feltelpítve.Biosban állítgattam,windowsban ujratelepítettem a drivereket.De a Crystalist Controll centerben, nem jelenik meg az opció hogy engedéjjezni tudnám a crossfiret.sehol sem találom.Mind a két videokórtyát (HD8570D és HD6670) frankón felismeri a rendszer,önállóan szuperül működnek de miért??? nem tudom crossfireben összekapcsolni őket? mikor elméletileg minden adott a dolgohoz....
    Pedig direkt ez miatt "építettem" ezt a rendszert....:(
    A konfig a következő:
    Adott egy AMD A8 6600K Blackbox Edition, egy ASRock FM2A85X Extreme4 alaplap és egy Sapphire Radeon HD6670 1GB 128bit DDR5 PCI-E
    Windows 7 ultimate Sp1 64Bit rendszeren
    elméletben menniük kéne...gyakorlatban viszont mégsem megy ...mi lehet az oka???
    Elszomorító hogy időt,energiát és pénzt beleölve sem működik.... :F
    Kérem segítsen valaki aki találkozott a problémával..
    köszönet és kellemes ünnepeket.

  • Abu85

    HÁZIGAZDA

    válasz pp193474 #8613 üzenetére

    Hybrid CrossFire már nem létezik. Évek óta kikerült a driverből. Dual Graphics mód létezik helyette. Ezt a meghajtó automatikusan engedélyezi. Az eszközkezelőben látnod kell a két VGA-t, de a Dual Graphics módnál az egyik mögé oda lesz írva a Dual Graphics jelző.
    Ha nem jelenik meg, akkor a BIOS-ban aktiválni kell a multi-monitor módot, és a VGA-ra kösd a kijelződ. Az elsődleges kártya szempontjából kérd a BIOS-t, hogy a PCI Expressen keresse. Az IGP-t pedig ne autó módban válassza ki, hanem kényszerítetten. Az IGP memóriája legyen annyi, amennyi a VGA memóriája. A te esetedben 1 GB.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz Crytek #8604 üzenetére

    Nagyon írod, mekkora fail így meg úgy, de még azt se nagyon értetted meg, amit leírtam. :(
    Csak nézd meg a történelmet... Mindig közösen ment a fejlődés, API/hardver téren, és a gyártók is többé-kevésbé hasonló tudású GPU-kat gyártottak. Ma viszont ez rendkívül kiegyenlítetlen, az API is egy őskövület. Mivel nem szerencsés a fejlesztőknek a potenciális vásárlóbázis kb. felétől elesni, így az Nv korlátaival kell elkészíteni a játékokat mind a mai napig. :U Nézd meg a StarSwarm-ot, mi történik vele Nv-n és Dx-en, összecsinálja magát röviden, mivel azt már úgy írták, hogy kihasználja a GCN és az alacsony elérés lehetőségeit. Nem véletlen, hogy az AMD saját API fejlesztésére adta a fejét, ez is eléggé példátlan, de nyilvánvalóan elkerülhetetlen volt a fejlesztések szempontjából.

    (#8610) gbors: Írjál low-level API-t egy VLIW architektúrára, nagy élmény lesz. :C Még az Ati-nak is hosszú hosszú évek kellettek, mire megtanultak rá jó drivert írni. ;) A 8800-at nem vágom annyira, de ott talán jobb a helyzet.

    Te iparági töketlenségről beszélsz, én viszont mást látok. Az iparág a profitról szól, tehát ha az Nv a piac kb. felével leragad egy szinten, akkor nem adhatsz ki semmit, ami azon a szinten meg se mozdul. Márpedig üzletileg nem kifizetődő gyártani egy Nv verziót, meg egy AMD verziót, ugyanis ha igazán ki akarnád használni a GCN lehetőségeit, egész más működésű motor és low level API is kell, ami horror költség. Ezért van a mai Mantle játékokban is, amik alapvetően Dx alá készültek, csak mérsékelt előnye a Mantle-nek.

    (#8611) Abu85: Persze, hogy nem jó a HT, egymástól veszik el a szálak a fizikai erőforrást priorizálhatatlanul, ami maga a halál egy sok ponton soros, kritikus szálat futtató API-nál és sok háttérfolyamatnál. :)

    [ Szerkesztve ]

  • Crytek

    veterán

    válasz HSM #8615 üzenetére

    Hehe attól még hogy a fél világnak nvje van nyugodtan jöhetne itt mindenféle API meg stb.
    Azt hogy nem lépik meg mert nem éri meg nekik nehogymár az nv legyen a hibás.
    Szánalmas ez a felfogás.
    Biztos vagyok benne ha meglépnék nv is változtatna, de amig nincs miért minek erőlködjenek?

    [ Szerkesztve ]

    Next PC Upgrade: 2022

  • HSM

    félisten

    válasz Crytek #8616 üzenetére

    Befejezhetnéd már érvek helyett a személyeskedést... :U

    Van API, Mantle-nek hívják, de maga az API nem sokat ér, amíg nincsenek rá játékok. Márpedig játékok addig nem igazán fogják kihasználni, amíg valahogy az Nv-re meg nem oldódik, hogy használható maradjon a játék.

    Az Nv-nek pont, hogy ez áll érdekében, rövid távon a lehető legtöbb, lehető legolcsóbban előállítható GPU-t eladni. Márpedig ahhoz remek egy ilyen lecsupaszított, nem túl okos, de emiatt keveset fogyasztó, de a mai igényekhez piszok gyors Maxwell.

  • Crytek

    veterán

    válasz HSM #8617 üzenetére

    Nem kéne bedobni a személykedés kártyát ,mert veled nincs bajom.A nv támadással van a bajom hogy alaptalan.

    Next PC Upgrade: 2022

  • HSM

    félisten

    válasz Crytek #8618 üzenetére

    :R

    Nem támadom én az Nv-t, csak így látom az iparra gyakorolt hatásukat. :R Nyilván, ez csak egy vélemény.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz HSM #8615 üzenetére

    A VLIW nem számít, mert maga a fordító még mindig a driver része marad.

    Maga a Hyper-Threading jó, ha figyelembe veszed, hogy ez egy virtuális erőforrás-kezelés. A gond az, hogy az API-k alapja state machine dizájnú. A DX ezt már átdolgozta, de sokan sajnos így sem ér. Ez rendkívül hátrányos a többszálú optimalizálásra vonatkozóan és különösen hátrányos a Hyper-Threadingnek. Ugyanakkor, az új API-k már ezt az elavult dizájnt nem használják, tehát a Hyper-Threading is úgy szuperálhat, ahogy kell. Nem rossz ez a technika, csak rossz a programozási modell, amit a fejlesztőkre kényszerítenek az elavult API-k.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • daveoff

    veterán

    válasz HSM #8617 üzenetére

    Majd lesz DX12, és lesznek rá játékok is, és akkor majd az okos, és a nem túl okos GPU-k is jók lesznek...

    LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®

  • HSM

    félisten

    válasz Abu85 #8620 üzenetére

    Ugyanakkor amennyire tudom, még mindig nem könnyű bizonyos kódokat hatékonyan futtathatóra megírni VLIW-re. Bár nyilván, ha a fordító adott, azért egy fokkal könnyebb a helyzet. :R

    Tévedsz viszont a HT-vel. Az nem erőforrás kezelés, ez a probléma. Az erőforrás megosztás. Arra való, hogy a memória-eléréseket és pipeline kiürüléseket megelőzve gyorsuljon a végrehajtás. Ugyanakkor pont emiatt folyamatosan nyomja mindkét szál a parancsokat, amiket a hardver oszt be magának, innentől pedig az OS időszeletes ütemezője értelmét és működőképességét veszti. Ahogyan a %-os terhelésmérő is. Egyszerűen át van verve az OS, hiszen 4 magot lát, pedig csak 2 van.
    A HT jó lesz, ha eltűnnek a kritikus, soros részek, és jól párhuzamosítva lesz minden, de amíg ez nem áll fenn (DX11), könnyen lehet hátrányosabb, mint előnyös. Volt alkalmam megtapasztalni. ;)

    (#8621) daveoff:Meglátjuk. Legalább lesz végre valami közös alap, ha nem is közös tudás. Mivel a DX12-ből is csak a a tervezett közepes szintet tudja a Maxwell, míg a GCN a magasat.

    [ Szerkesztve ]

  • pp193474

    újonc

    válasz Abu85 #8614 üzenetére

    Köszönöm a gyors választ!

    Megpróbáltam ahogy tanácsoltad, de semmi eredmény. Az eszközkezelőben megvan a két videokártya de nincs ott a Dual Graphics jelző.Az asrock biosában nincs külön IGP funkcio viszont a memóriát auto-rol átálítottam 1GB-ra a,pci-express az elsődleges és engedéjezve van Dual graphics.A videokártyáról megy a monitor.
    A legújabb illesztőprogram csomag van fent (14.501.1003-141120a-177998c)
    De semmi eredmény.

    Arra gondoltam hogy újrarakom a windowst ha lesz egy kis időm.,kb már fél éve fentvan,hátha az segít.

    Eggyenlőre még semmi ötletem... :(((

  • Abu85

    HÁZIGAZDA

    válasz HSM #8622 üzenetére

    Igazából magas szintű nyelvben írod a shadert, tehát túl sokat a hardver működéséből nem veszel majd észre. Persze lehet magas szintű nyelvben is alacsony szintű működére optimalizálni, de ez nem olyan nehéz. A fordító pedig a többit elvégzi.

    De te is írod, hogy maga a DX11 a probléma és nem a HT. Igen elavult API-kkal a HT sokszor hátrányos, de ezért a HT-t nem hívhatjuk problémának, mert az új API-kkal meg megjavul, tehát maga a HT működik.

    Valójában a DX12-ben lesz egy TIER3-nál is magasabb szint a bindingre, amit csak az Xbox One esetén lehet elérni. Főleg az exkluzív alkalmazásokhoz lehet lekérni, hogy ne kelljen egy rakás erőforrással tökölni, így a memória az valóban memória lesz. Ez a működés a PS4-es GNM-hez és a Mantle-höz fog közelebb állni, de PC-re nem jön.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz Abu85 #8624 üzenetére

    Természetesen működik a HT, nem mondtam egy szóval sem, hogy nem működik. Csak elveszi a szoftveres priorizálás lehetőségét, amiből könnyen gondok sülhetnek ki. Ugyanakkor ha jól van párhuzamosítva az API/Driver/játék, akkor jelentős extra teljesítményt hoz. :R
    A notis procimban is ki-be kapcsolgatom, mikor mire van épp szükség. Sajnos ez ilyen...

  • gbors

    nagyúr

    válasz Abu85 #8611 üzenetére

    nem a CPU-kkal van a gond, hanem azzal, hogy játék szempontból sarokesetek, és velük akarod bizonyítani a Mantle világmegváltását. sure, elvi síkon szép, hogy pusztán szoftveres úton a legolcsóbb CPU-k is alkalmasak játékra, thanks to AMD, de ez nem egy széles körben létező igény (még szűkben is alig). továbbra is várom az első földbedöngölést (ami az első driver fix után is az marad) - legyen mondjuk a viszonyítási alap az én konfigom (i3-3220 + GTX660).

    2T/8C-vel csak vicceltem. Civ-et nem akarom átíratni a fejlesztőkkel, de amíg az AI-t számolja, addig bátran takarékra lehet tenni a renderert és a VGA-kommunikációt.

    (#8615) HSM: erre most két részben:
    1. még messze nem tartunk ott, hogy hányféle verzió, 2015 végén lesz egyáltalán IHV-független API. ezt hogy a jó égbe' lehet az egyik IHV számlájára írni?
    2. low level API mellett minden architektúrára külön kell optimalizálni, a low level API hype cycle-jében ez a felismerés (ill. amikor a felismerés alapján dolgozni kell) lesz majd a disillusionment trough.

    VLIW-re valóban nehéz lehet optimalizált renderert írni, de ennek semmi köze a DX10-hez. a G80-ra pl. shader fronton kifejezetten komfortos lehet.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz gbors #8627 üzenetére

    Elmondom, hogy a Square Enix Steames felmérése szerint a Thiefet megvásárló személyek 72%-ának van az enyémnél gyengébb processzora. Sarokeset lenne tehát? Maximum egy szűk rétegnek, akik azt hiszik, hogy mert megengedhetik maguknak az erős négymagosokat a világ nagy része is ezt fogja venni. A statisztika viszont nagyon jól jön a fejlesztőknek, mert a Steam megmondja, hogy ki milyen gépet használ.

    Takarékra van véve a render. Az a gond, hogy a drivert nem akarják befolyásolni, mert úgy járnak, mint az EA. Le fog fagyni a program, ahogy a Dragon Age is fagy DX11 alatt. Ez rosszabb, mint a kávészünetnyi lépésidő. Ezért mondják azt ezek a fejlesztők, hogy a DX11 nagyon rossz API, mert kompromisszumra kényszerít.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #8627 üzenetére

    A low level API-k esetében ez az architektúrára optimlizálás nem tűnik akkora érvágásnak, mint amennyit nyerni lehet vele. Meglássuk, majd mi sül ki belőle. :R

    Azt felejted ki az érvelésedből, mennyi mindent csinálhatna az erősebb CPU is a felszabaduló CPU-időben. Gondolok itt komolyabb fizikára, AI-ra, csomó mindenre lehetne használni. De nem lehet, mert a DX esetére meg szabadon kell hagyni. :U

  • egyskacc

    újonc

    válasz Sondi1986 #8607 üzenetére

    Venticsere előtt simán ment a gépben, különben egy 750 es corsair em van tehát tuti nem az a gond...

  • gbors

    nagyúr

    válasz Abu85 #8628 üzenetére

    és azt is mutatja a survey, hogy ezekhez a CPU-khoz R9-285-öt applikálnak a delikvensek, és high detailben tolják? :DDD

    (#8629) HSM: ja, ameddig van 2-3, amivel számolni kell. majd amikor lesz 6-8, akkor lesz nagy pislogás.
    a második paragrafus nem tudom, mire válasz :F

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • HSM

    félisten

    válasz gbors #8631 üzenetére

    Igenám, de az Intel vezérlőit leszámítva kellően kiforrottak a mai architektúrák alapjaiban, ilyen téren drasztikus változásokra nem számítok, persze, ettől lehetnek. De ha annyira más cuccok jönnének, akkor ott más API-kkal is lehetnének gondok. :) Vész esetére pedig lehetnek alternatív renderelési módok.

    A második bekezdésben erre próbáltam reagálni: "sure, elvi síkon szép, hogy pusztán szoftveres úton a legolcsóbb CPU-k is alkalmasak játékra, thanks to AMD...." ;)

  • Abu85

    HÁZIGAZDA

    válasz gbors #8631 üzenetére

    Azt is tudják a fejlesztők, csak a 285 túl új termék. Viszont arra állandóan panaszkodnak, hogy a mai gépvásárlási norma eltolódott a VGA-k felé. A fejlesztők összevont statisztikát is kérhetnek, és abból látszik, hogy akinek drága CPU-ja van az többnyire olcsó, illetve akinek olcsó CPU-ja van az többnyire drága VGA-t használ. Nagyon kevés a kiegyensúlyozott gép. Abszolút nem igaz az a norma a valóságban, hogy a drága VGA-k mellett drága proci van. Ez egy éve még rosszabb, mert az USA-ban elterjedőben van az a tévhit, hogy a konzolban gyenge proci van, és erős a GPU, tehát a PC-be elég a legolcsóbb proci, hogy minél több pénz maradjon a GPU-ra. És nem tudod megmagyarázni egy átlagembernek, hogy a konzolt máshogy programozzák.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ALONSO11 #8634 üzenetére

    Írtam nemrég egy hsz-ben, hogy beszéltem az AMD-vel, illetve egy képviselőjükkel. Azt tudom, hogy lesznek a CES-en új mobil VGA-k, stb. Amúgy nagyjából marad ez a termékskála az év elején.

    Azért nincs 285X, ha erre vagy kíváncsi, mert a Tongát az Apple is veszi. Nekik oda kell adni a lapkákat. Na meg a 280X készletek is megvannak még. A 280 készletek lényegében kiürültek, de ezért jött a 258. A 4 GB-os 285 opció volt, de annyira voltak rámozdulva erre a gyártók idén, így tipli lett. Még a 8 GB-os 980-akra is húzták a szájukat. Magasnak tartják a memóriák árait. Ez elfogadható indok.

    Low-level API-ban nyilván számítani fog, hogy a konzolból áthozott kód már eleve GCN-optimalizált, de a többihez is lehet optimalizálni azt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • gbors

    nagyúr

    válasz Abu85 #8633 üzenetére

    akkor konklúzió: azért jó a Mantle, mert az amerikai vásárlók hülyék. thank you :R ;]

    (#8632) HSM: értem. én úgy látom, hogy az AI-ra meg a fizikára eddig is magasról tett mindenki, függetlenül a számítási kapacitástól...

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • Abu85

    HÁZIGAZDA

    válasz gbors #8636 üzenetére

    Nyilván van egy törekvés arra, hogy a lehető legjobban biztosítsd a szoftvert megvásárló rétegnek.

    Az AI-ra és a fizikára nem tettünk magasról, csak nincs esély komplexebb számításra. Egyrészt lassú a processzorok fejlődése, másrészt a driverek egyre több processzoridőt igényelnek, hogy értékelhető sebességű legyen a megjelenítés. Tehát az elérhető processzoridő szempontjából effektíve évek óta nincs nagyobb teljesítmény a gameplay elemekre, sőt konkrétan romlik a helyzet. Eközben a kutatások futnak, bár nyilván csökkentett kiadások mellett, hiszen úgy sem lehet beépíteni az eredményüket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz gbors #8636 üzenetére

    Én azért ezt nem így gondolom. :N
    Az AI is azért fejlődgetett az utóbbi években és a fizika is. Pl. a BF4-ben is elég komoly a rombolható környezeti elemek, ilyen azért korábban nem sok volt... A fizika is fejlődő pályán van. A mai napig ott figyelnek pl. bizonyos játékokban a PhysX effektek, amik bár annyit nem érnek, hogy Nv-t vegyek, de igen szép dolgokra lehet felhasználni jó sok év óta, és fel is használják. :K

    (#8637) Abu85: Igen, pontosan így látom én is.
    Jut eszembe a gameplay dolgok vs CPU témáról, a TrueAudio-ról mi hír a fejlesztők oldaláról?

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz HSM #8638 üzenetére

    Sokkal jobban izgatja őket a Mantle, mint a TrueAudio. A grafikus API problémája sokkal kritikusabb, mint a hangok feljavítása.
    Egyébként a VR-nél majd ráállnak erre is. Ott fontos lesz, hogy a füled is azt a térbeli információt kapja, amit a szemed lát, különben rossz lesz az agyadnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz Abu85 #8639 üzenetére

    Ez jó hír. Na, nem a VR, az hidegen hagy (félek rossz lenne az agyamnak ;] ), de jó térbeli effektezett, realisztikus hangok, na azok már jöhetnének. :C

    [ Szerkesztve ]

  • gbors

    nagyúr

    válasz Abu85 #8637 üzenetére

    "nem tettünk?" no mesélj csak, melyik cégnek vagy a beépített embere? :D

    úgy látom, megint gond van a memóriáddal. a 4 magos CPU-k közel 8 éve vannak velünk, tavaly pedig pont Te nyomattad a leghangosabban, hogy a DX milyen szar, mert csak 1 szálon képes dolgozni (leszámítva a deferred contextet, ami - szintén Tőled idézve - bukta). akkor most hol van az a cirka 6.5-7 év, amíg parlagon hevert a legtöbb játékban legalább 2 mag?

    (#8638) HSM: biztosan léteznek kivételek, de ezek pont azok, nem pedig trendsetterek. a legtöbb shooterben még mindig gyengébb AI van, mint a 2005-ös FEAR-ben.
    a PhysX pedig jelenleg nem fizika, hanem eye candy. én a magam részéről nagyon szeretem a jól sikerült implementációkat, de ettől még ez csak vizuális extra.

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • LonGleY

    veterán

    [ IGP + VGA = ? ]

    Van valamilyen módja az ASUS M5A88-V EVO alaplapon található integrált HD 4250-nak a dedikált kártyával (HD 6870) való együtt működtetésének? A segítségére lehet, vagy értelmetlen az integrálttal bármilyen szinten is foglalkozni?

    [ Szerkesztve ]

  • TTomax

    nagyúr

    válasz LonGleY #8642 üzenetére

    Ha jól emlékszek,akkor a HD5450 a legerősebb vga amivel együtt munkára lehet fogni Hybrid CrossFireX-ben...

    [ Szerkesztve ]

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • Abu85

    HÁZIGAZDA

    válasz gbors #8641 üzenetére

    PH-nak. :D

    Egyébként csak egy példa: Kevin Floyer-Lea - sok mántlis szöveg ... stb ... de a lényeg:
    - ...
    - Scope for increasing scene and world complexity
    - Ability to increase the CPU budget for other systems like AI

    The last two points are more relevant to our future games, ...

    Tehát jelenleg a Rebellion, független stúdióként is elkezdte kutatni a jobb AI és jelenetkomplexitást, amire mostantól lehetőségük van.

    Egyébként a FEAR pont jó példa. Annál komplexebb AI-t PC-be nem igazán implementált játék, rosszabbat vagy közel hasonlót kaptunk, tehát lényegesen jobbat nem. És a FEAR 2005-ben jelent meg. Azóta kvázi nincs előrelépés, és nem a hardverekkel van baj, mert azok gyorsulnak, csak nincs lehetőség ezt az erőt befogni. És persze ebben benne van, hogy a DX11-nek a többszálúsítása az MS szerint is rossz, illetve nagy egészében vizsgálva az elmúlt nagyjából egy évtizedben a potenciális megoldások sorra elvéreztek a gyakorlatban. Ezért látjuk most a radikális megoldások előretörését, mint például az AMD és az Apple low-level API-ja.

    Viszont azt távolról sem lehet mondani, hogy a FEAR viszi az AI-ban a csúcsot. A PC-ből kilépve ott a PS3, aminek van Uncharted szériája, ahol a 2-3. részben például iszonyatosan látszik, hogy az AI csapatban dolgozik, bekerítenek, amíg páran folyamatosan tüzelnek. Visszadobják a gránátjaidat, és nem mindig rád, hanem esetleg a környezetre, hogy az rád omoljon. Megsemmisítik rakétával vagy gránáttal a potenciális fedezéket. Folyamatosan zárótűzben tartják az előnyös helyeket, hogy ne juss el oda. Tehát nem a programozók bénák, van lehetőség jó AI-ra, ha hozzátudsz nyúlni a gép erőforrásaihoz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Z10N

    veterán

    válasz LonGleY #8642 üzenetére

    Sajnos nem. Anno hasonloan probalkoztam 785G/RS880 chipsettel: HD4200 + 6850 (SPU: 40+960), de sikertelenul. Pedig a HD4200 mellett van ugye integralt 128MB DDR3 is a lapomon. Jo lett volna, ha mukodik. Foleg eyefinity-ben, ha lekapcsolt volna a dVGA. Amugy ITT a topikja.

    Ui: ISO-kat csinalsz meg?

    # sshnuke 10.2.2.2 -rootpw="Z10N0101"

  • gbors

    nagyúr

    válasz Abu85 #8644 üzenetére

    ez nekem már x-akta. írod, hogy a FEAR AI kb. a PC-s csúcs - ugye mindezt egy magon. azt is írod, hogy egyre nő a HW-ek ereje -> magasabb IPC és több mag. sure. ezek után meg írsz egy olyat, hogy az extra számítási kapacitást nincs lehetőség befogni. ugyan miért nincs? ki akadályozta meg pl. a Cryteket vagy a 2K Bostont, hogy a 2007-es játékaikba erősebb AI-t tegyenek több CPU-használat árán? szerintem azon kívül, hogy sajnálták rá a pénzt, semmi...

    [ Szerkesztve ]

    Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...

  • LonGleY

    veterán

    válasz TTomax #8643 üzenetére

    Köszönöm a választ!

    Z10N: Neked is! :)

    Ui: Nem tudom, miről beszélsz. :] Szoftveres híroldalt csinálok, már ha sikerül lassacskán folytatni végre...

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz gbors #8646 üzenetére

    Erről beszélnek kb. jó ideje a fejlesztők. Hiába nő a teljesítmény, ha ahhoz nem lehet hozzányúlni, mert valami megakadályozza. A DX API akadályozza meg ezt alapból, de ez a probléma többszintű, mert a DX API nem lenne annyira korlátozó tényező, ha a mai grafikus driverek úgy működnének, mint három éve, csak akkor meg a grafikát kellene lebutítani. Régebben nem igazán törődtek azzal a fejlesztők, hogy mik a grafikus driver igényei. Ma ezek annyira máshogy működnek, hogy követni kell a gyártók ajánlásait, mert más irányból megközelítve rossz lesz az eredmény. Főleg az NVIDIA ajánlásait érdemes követni, mert a GeForce driver nagyon agresszívan kisajátítja az erőforrást, így ha DC mellett nem kap három, illetve IC mellett kettő magot, amihez a program onnantól kezdve hozzá sem nyúl, akkor sok esetben káros lesz a sebességre és a stabilitásra a driver működése. Persze ezt nem minden modern motor követi, például a Frostbite 3 csak egy magot ad a drivereknek, és azért éri el így is azt a jó teljesítményt, amit tud, mert minden lehetséges módon megakadályozza a drivert abban, hogy elvégezze a feladatának egy részét. Azt a részét, amelyet amúgy a Frostbite már elvégzett, tehát felesleges lenne még egyszer erőforrást pazarolni rá. A Frostbite 3 ma az egyetlen motor, amely például DX11 alatt az állapotváltások szűrését csak egyszer futtatja, és azután a rendszer elzárja az adatokat a DX API és a driver elől, hogy az a programszál, amely arra létrejött ne futtasson több szűrést ezeken. A driver szimplán várakozásra van kényszerítve, és addig vár az adatra, amíg a program fut. Nem elegáns megoldás, mert ez a várakozás programfagyást eredményezhet (sőt egyszer biztosan fagyni fog, de kb. 20 óra után, ameddig nem sok ember játszik egyhuzamban). A BF4-nél vagy a PvsZ:GW-nél a DX11-es kód igen sokáig bírja anélkül, hogy a Frostbite 3 driver működését akadályozó modulja device hung hibát eredményezne, amivel ugye kilépne a program. A DA Inquisition az ellenpélda. Ott DX11 alatt sajnos igen sűrű a fagyás. Jelenleg 15% az esélye, hogy a program egy óra játék után device hungot dob és kilép. Ezen nagyon dolgoznak a fejlesztők, mert ez sokkal rosszabb arány, mint ahogy a korábbi játékok működtek, igaz azok nem a legújabb Frostbite 3-at kapták meg.

    Felelősöket nem érdemes keresni, mert a probléma többszintű. A legtöbb fejlesztő az új grafikus driverek agresszív erőforrásigényét nevezik meg problémaként, de valójában az, hogy ma öt-hét szálat simán futtat egy driver annak az eredménye, hogy a DX11 2000 batch/frame-es limitjét nem teljesítik a fejlesztők, tehát az NV-nek és az AMD-nek sincs igazából sok választása, valamilyen módon meg kell oldani, hogy meglegyen a 3000-5000 batch/frame-re is a teljesítmény. Nehéz azt mondani a fejlesztőknek, hogy márpedig butítsátok le úgy a PC-s port grafikáját, hogy beférjen a DX11 limitjébe. Saját maguknak ásnák a sírt, ha ezt mondanák a PC-ből élő gyártók, mert a konzolon ezt nem kell megtenni. Szóval a probléma alapja egyértelműen a DX11, amely képtelen kompromisszumok nélkül kiszolgálni a fejlesztők igényeit.
    Jelenleg nagyjából három opció van a fejlesztők előtt DX11-re:
    - betartani a DX11 limitjeit, így maga az API optimálisan működik, tehát viszonylag sok erőforrás marad a szimulációra, de cserébe a grafikát a konzolos szint alá kell belőni
    - túllépni a DX11 limitjeit, így a drivernek rengeteg magot adni, hogy egyáltalán optimálisan működjön, azaz hozható legyen a konzolos grafikai szint, cserébe a szimulációra nem lesz több erőforrásod, mint amennyi tíz éve rendelkezésre állt, sőt, lehet, hogy kevesebbel kell kalkulálni
    - kidolgozni egy olyan rendszert a motorba, amely nem engedi a grafikus drivert működni, így sokkal optimálisabban lehet a hardver kihasználása és grafikai butítás nélkül is lehetőség lesz több erőforrást kinyerni a szimulációra, cserébe nem lesz stabil a program, illetve egy ilyen rendszert csak a leggazdagabb fejlesztők engedhetnek meg maguknak, mert extrém mértékű tesztelést igényel
    És igen, az utolsó pontot fel lehet úgy fogni, hogy csak pénz kérdése a dolog, de valójában cseppet sem optimális az, hogy meghúzol egy határt, hogy mennyi potenciális fagyást tekintesz még elfogadhatónak. Hidd el pont annyira káros a PC-s játékosoknak, hogy DX11-ben 15% az esélye annak, hogy az új Dragon Age lefagy egy óra alatt, mintha lebutították volna a grafikát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • HSM

    félisten

    válasz Abu85 #8648 üzenetére

    No igen. Ezt én is megtapasztaltam BF4 multiban. A cél kb. 70FPS tartása volt, és DX alatt le kellett butítanom a grafikát Ultra+4X MSAA-ról High + 4X-es MSAA-ra, mert különben néhány helyen procilimitbe ütközött és leesett az FPS az 50-es tartományba. Mindezt egy i5 4690K-n, 4,4Ghz-en, 4*4GB 2133Mhz-es rammal, tehát egy igen erős, modern rendszerrel. Mantle-n ezzel semmi gond nem volt, simán tartotta az elvárt szintet Ultra+4X MSAA grafikán is.

    Nálam szerencsére a BF4 DX alatt is meglehetősen stabil volt, nem voltak fagyások 1-2 óra alatt sem.

    Ami viszont érdekes, bár nem szorosan a témához kapcsolódik, hogy Nv-n Dx alatt nem esik le ennyire az FPS a tulajok beszámolója szerint. Ott vajon mivel trükközik az Nv/Driver, vagy mit csinál rosszul az AMD-s DX driver? Erre gondolok: [link]
    Főleg Shanghai mapon a ledőlés után mutatott siralmas FPS-eket nálam a DX, amíg Ultra-n tesztelgettem, tehát magam is tapasztaltam, hogy ott beesik. :K

  • Abu85

    HÁZIGAZDA

    válasz HSM #8649 üzenetére

    Nagyon nehéz meghúzni azt a határt, ahol a driver már káros hatásokat fejt ki. Önmagában nagyon egyszerű a helyzet, hogy a DX11-ben 2000 batch/frame a limit és azt nem kellene túllépni. De túllépjük, és minden problémának ez az alapja. Teoretikusan levezetve rengeteg lehetőség van arra, hogy a driver az elérhető processzoridőt valamilyen módon hasznosítsa. Az egyik a flip-queue mérete, amivel előre több jelenet lesz felkötegelve és így nő a GPU kihasználtsága. A másik a single queue/multiple queue modell. Utóbbi növeli a GPU kihasználást, olyan compute feldolgozás mellett, ahol az adott motor még elavult puffermenedzselési modellre épül. A valós idejű shader fordítás is egy optimalizálási terep. Gyorsan gyors kódot nem lehet fordítani. Szóval meg kell találni az optimális értéket, vagy bevállalni, hogy sok processzoridőt vesz igénybe a valós idejű shader fordítás. És milliónyi apróbb optimalizálási terület van, ahol azt kell mérlegelni, hogy mi az a processzoridő, amit a driver elvehet, ugyanis ez drámaian csökkenti a program által elérhető, szimulációra használható processzoridőt.
    Arra Daniel Baker már 2010-ben felhívta a figyelmet, hogy a grafikus driverek pár év múlva túlzott processzorigényekkel fognak rendelkezni, és borzalmasan nehéz lesz kinyerni a legújabb processzorokból is azt a processzoridőt, ami egy évtizede elérhető volt, vagyis a PC azért, hogy a grafika szinten tarthassa magát, a játékmenetbeli butításokkal fog fizetni. És a helyzet az, hogy pokolian igaza lett, mivel ma mindenki arról beszél, hogy nem lehet befogni a gyors processzorok teljesítményét, és közvetve ennek az az oka, hogy a driverek elveszik a processzoridőt a program elől. A mennyit az kérdéses. Én ebből a szempontból a Microsofttal értek egyet. A DX11-nek megvannak maga a korlátjai, és azon belül kell maradni. E korlátok kiterjesztése lehetséges, az MS sem tagadja, de drámaian csökken a program által felhasználható processzoridő is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák