- Akciófigyelő: Humble Games Bundle - Nightdive FPS Remasters
- Call of Duty: Modern Warfare III - Új szezon, újabb ingyenes hétvége jön
- Hunt: Showdown - Jön az engine csere, befutnak az újgenerációs verziók
- Steamre tart a Crime Boss: Rockay City
- The Witcher - Befutott a TV sorozat folytatásának első rövid kedvcsinálója
-
GAMEPOD.hu
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
fatallerror
addikt
na a haswell még odébb van, durván 1 év múlva jön addig még sok minden történik. jó h megcélozták az igp-t csak mire annak normális teljesítménye lesz az még sok év és nem járnának jól ha addig prémium termékként tekintenének a vga-kra mert egyre drágábbak és mindjárt kitalálják h 1000 dollárnál olcsóbb nem lesz (jó ez erős túlzás de bármit kinézek belőlük). az igény elég nagy a vga-kra csak hazudják h nem és ahogy látoma abefektetőknél működik is a hazugság h azért fogy egyre kevesebb vga mert nincs rá igény pedig van csak nem 500 meg 1000 dollárért (szerintem az emebreknél a lélektani határ vhol 300-450 dollár között van ami már nagyon max) ezért jobban kellene figyelniük a 200 dolláros kártyákra ha már a pénz számít nekik akkor jelenleg még a vga-val tudnak többet keresni nem az apukkal
don't tell me what i can't do!
-
Abu85
HÁZIGAZDA
válasz fatallerror #6151 üzenetére
Inkább háromnegyed év, mert ugye 2013Q2.
Az IGP-re nem csak grafikát lehet rakni. Szépen át lehet nyomni egy játéknál rá a fizikát, az útkeresést, a különböző culling eljárásokat, a sortingot és a tartalom kikódolást. Nem viccből gyúr az Intel a Haswellnél az IGP-re.
Ennyiért lehet őket adni. Ennél lentebb alig-alig mennek majd az árak. És ha nem kell ennyiért, akkor nem az lesz az üzenet a cégeknek, hogy drága, hanem az, hogy a piac nem igényli őket. Vannak 200 dodóért is VGA-k. Új generációs megoldások is. A HD 7850 memóriától függően 190-210 dollár.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
nem azt írtam h nem kell hanem h még legalább ugyanannyi figyelmet kellene szentelni a vga-kra is
meglátjuk azt a q2-őt, ha lesz pénzem várni nem fogok rá mert a mostani ib platform is elég erős és modern ahhoz h időtálló legyen még 2-3 évig is akárjó de 250ről indult, a mostani áruk már oké de innen kellett volna indulniuk :] viszont a 100 dollár alattiakat már teljesen megkéne szüntetniük, óriási pocséklás
[ Szerkesztve ]
don't tell me what i can't do!
-
Abu85
HÁZIGAZDA
válasz Ric4m0nd #6153 üzenetére
Nem csak a BOINC számára lenne hasznos. A játékfejlesztők is kérik. Eddig csak a GK110-re jelentették be, hogy kínál ilyen funkciót, de az kérdéses, hogy megjelenik-e GeForce-ként.
A HD 8000 2013 elején jön. Hasonló lesz a start, mint idén. Talán karácsony előtt enged teszteket az AMD.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
point taken. amit leírtál, az ugyan sokaknak a varázslás kategória, de azért örömteli, hogy legalább létezik megoldás. tényleg ki fogom próbálni
azt elhiszem, hogy webböngészéshez jó a PT. játékhoz nem jó.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Mi a baj a játékoknál vele? Az órajel dobálása? A PowerTune 0%-os alapbeállításokkal mindig tartja az alapórajelet, kivéve a Furmarknál. Ha tuningolsz, akkor +20%-ra kell húzni, és a tuningórajel is stabil lesz. Ha pedig kevesebb fogyasztást akarsz, akkor -20%. Ekkor tényleg valós időben változik az órajel a legtöbb játéknál. Tehát ha nem mész negatívba, akkor sosem lesz egy játékban kisebb az órajel az alapnál.
Ami alapbeállításon is dobálja az órajelet az a GeForce-on a GPU Boost, akár 100 MHz-eket is pakol oda vissza. A PowerTune Boost is ilyen csak finomabb határokkal.
Van két kép, hogy mi az amit a GPU Boost és a PowerTune Boost beállíthat, mint érték. Az AMD esetében a váltás az alapon kívül csak egy órajelállapot. Az NV-nél az alapon kívül 8 külön órajelállapot van, de termékenként változó ugye, mivel ebből csak az alsó 4 garantált. Ezek között a rendszer valós időben válthat a terhelés függvényében.
A képeken egyébként a pontok erőssége azt jelenti, hogy az adott teszt során a rendszer milyen gyakorisággal lőtte be az órajel-feszültség párosát. Ha erősebb a szín, akkor sokszor, ha gyengébb, akkor kevésszer. A GPU Boost esetében ugye vannak üres helyek. Azok is léteznek, mint állapot, csak nem voltak a teszt közben aktívak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
igen. a PT boosttal, gondolom, nincs semmi gond, ugyanazért, amiért az nV boostjával sem - csak időnként kapcsol órajelet. persze akkor sincs gond, ha a PT nem kapcsol be - de akkor minek van? ha viszont bekapcsol, akkor az órajel folyamatos billegtetése látható a játékon, és engem személy szerint borzasztóan zavar.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
A PowerTune azért van, hogy védje a hardvert a Furmarktól. Ha téged az órjelváltás zavar, akkor a GPU Boosttal és a PowerTune Boosttal lesz inkább bajod. Ezek sokkal agresszívebben működnek, mert állandóan dobálják az órajelet, ahogy látod a grafikonon is. A PowerTune Boost csak egy órajelbeállításra és 50 MHz-et, míg a GPU Boost az 100 MHz-es szinteket is dobálhat ide-oda. [link] - Ez az NV saját mérése hogyan működik. 1 másodpercenként változott az órajel. Ez a minimum határ, ugyanis a driver dönt erről, vagyis a kérés is a válasz között 800 ms van.
Maga a PowerTune 0%-on egy játékban semmit sem csinál, mert a Furmarkra szabták. Ha nem így védi az AMD a Furmarktól a terméket, akkor máshogy kell elfojtani a teljesítményt. Furmark szerű terhelés pillanatokra előjöhet játék alatt is. Ilyen volt például a StarCraft 2. [link] - erről írtunk is. Sokan elhullott GeForce-ról beszéltek a fórumban. Akkor az NVIDIA semmivel sem védte a hardvereket a túlterheléstől. Az AMD a HD 5000-be már rakott egy alapvető védelmet, ami a túlterhelés érzékelésére az órajelet ugyan nem módosítja, de képes kiadni egy halt parancsot. Elméletben a GPU addig nem dolgozik az adott ciklusban, amíg a halt parancsot kapja. Egyszerűen futja az üres ciklusokat. Jellemző volt a Radeonokon, hogy a vezérlés úgy volt megoldva, hogy egy halt és egy munka parancs volt, és így folytatódott. Ugyanakkora ez teljesítményvesztéssel járt, mivel két ciklusra nézve a teljesítmény a felére esett, mivel az egyik ciklus üres volt. Persze ez 10 ciklusnál közel sem volt ilyen drámai. Furmark alatt 10 ciklust nézve 2-3 halt van, míg nagyon jól optimalizált játékban (StarCraft 2) 100 ciklusra 1 halt (de egy játék nem állandó jelenettel dolgozik, mint a Furmark, szóval itt ez az érték nagyon függött a jelenet típusától). Az NVIDIA hasonló védelmet vezetett be a GeForce GTX 580-on. Ez abban különbözött az AMD megoldásától, hogy nem volt kötelező egy halt után csinálni egy munkaciklust, vagyis előfordulhatott, hogy a GPU öt ciklusig nem csinált semmit. Utána persze jellemzően volt munka, mert a túlterhelés sosem lehetett olyan nagy, hogy öt ciklus után ne legyen meló, de ha ez a ciklus állandósuló, például Furmark, akkor a hardver megállapít egy extrém terhelési szintet. Tehát ha öt ciklusos lenne a halt, és egy a munka, akkor a rendszer inkább megfelezte a feldolgozás sebességét. Ezt úgy érte el az ütemező, hogy a külső parancsnál halt helyett slow jelet kapott, ami azt jelentette, hogy az erőforrások felét sose használja ki. Gyakorlatilag az ütemezőnek meg lett tiltva, hogy az összes GPC blokkra osszon szálat. Így működött a GTX 590 is, azzal a különbséggel, hogy a keret szűkösebb volt, így ha tuningoltál, akkor lassult a sebesség egy játékban. Természetesen a korábbi halt túlterhelés nélküli védelem a driveres tiltásra helyezte a terhet. Ez is hasonlóan működött, mint a GeForce-on a slow, csak a driver a program futtatásának elején kiadta, hogy lassítani kell, mert ez a program túlterhel. Ezt a rendszerprogramozók tesztelték ki, és a friss meghajtókba került a dolog. A Furmark ez ellen az exe átnevezéssel védekezett, így később ez a program kapott egy módosítást, vagyis a driver nem az exét detektálta, hanem a shader fordító rakott üres ciklusokat a Furmark shaderjébe. A játékoknál nyilván túl nagy veszélye nincs annak, hogy a user átnevezi a fájlokat, így ott a fájl szerinti fojtás megfelelt. A HD 4000 például azért volt gyenge a HD 5000-hez képest Starcraft 2 alatt, mert az AMD már a program kiadása előtt érzékelte, hogy gyilkolni fog, és belerakták a driverekbe a fojtást, amint bekerült a meghajtóba a profil a játékra. Az NVIDIA ezt nem tette meg, és ezért hullottak a GeForce-ok a játék kiadásakor. Később persze megtörtént, aminek meg kellett történnie. Az NVIDIA is lelassította a hardveres túlterhelésvédelemmel nem rendelkező termékeket, a helyzet ugyanaz volt, mint az AMD-nél fojtás a driverbe. Ezért van az, hogy a GeForce GTX 480 lelassult az új driverekkel, míg a GTX 580 sebessége nem változott StarCraft 2 alatt. Persze a StarCraft 2 az nem Furmark, szóval annyira drasztikus fojtás nem kellett bele, nem kell tehát felezett sebességtől tartani, amolyan 10-15%-os mínusz volt a jellemző.
A HD 6900-nál mutatkozott be a PowerTune, ami azt a célt szolgálta, hogy kevésbé legyen drasztikus a túlterhelés elleni védelem. Könnyen kitalálható, hogy nincs rosszabb annál, ha egy GPU kap egy halt ciklust, mert jelentősen növelhet a frame elkészülésének idején, ha egy egész ciklusig nincs munka. A több ciklusos halt, ami a GTX 580/590-en volt, pedig nagyon gáz lehet. Nyilván tök egyértelmű, hogy a játékok ebből nem sokat éreztek, azok terhelése nem Furmark szintű, de a halt, ha bekapcsolt, akkor nagyon is érezhetően ártott a folyamatos képszámításnak. Ugyanakkora a halt túlzott, amikor a teljes ciklust üresbe rakta, hiszen jellemzően a túlterhelést nem kell feltétlenül a terhelés megszüntetésével orvosolni. Nyilván a pillanatnyi túlterhelés nem gond, csak a folytonos. Például, ha 2-3 másodpercig tart, az már para lehet (a hardver persze gyorsan dolgozik, így lereagálja a dolgot a másodperc töredéke alatt). A PowerTune abban újított, hogy kivette a haltra való igényt, ugyanis a rendszer precízen monitorozta a terhelést, és ha érezte, hogy a peak meghatározott idejénél tovább tart a terhelés, akkor be kell avatkozni. A haltra viszont nincs szükség, mivel a túlterhelés mértéke változó, és a PowerTune kiszámolja, hogy mekkora az az órajel, amivel a terhelés a specifikált limit alá szorítható, és annyival csökkenti az órajelet. Ez lehet akár 1 MHz is, ha ennyi elég. Ha a terhelés a limit alá ment, akkor lehet növelni az órajelet. Ez egy valós monitorozás lényegében, és az órajel folyamatosan reagál a terhelés szintjére. A Powertune megkötése persze, hogy van egy órajelminimum is. Jellemzően ~300 MHz-es az a sáv, amiben működik. Ez azt jelenti, hogy ~300 MHz-nél nagyobb órajelcsökkentést nem enged meg. Ez persze fejlesztésenként változó, mindig az adott fejlesztéshez szabják. Van olyan, ahol ~200 MHz a PowerTune sáv. Természetesen a specifikált limitet lehet változtatni. A 0%-ot az AMD mindig úgy állítja be, hogy az a játékoknál ne jelentsen órajelváltást. Ez ügye elemi érdek, mert ha csökken az órajel, akkor csökken a sebesség. Ennek a limitnek a negatívba és pozitívba eltolása a user feladata, ha akarja. Nyilván hagyható 0%-on, de ha tuningolsz, akkor nem árt pozitívba tolni, mert nyilván a tuningórajel, már csökkenhet, hiszen a limitet az alapórajelre szabták. A -20%, akkor lehet hasznos, ha futtatsz valami BOINC projektet. Még mindig sokkal gyorsabban számol a GPU, mint a CPU, de legalább nem fogyaszt annyit, mint 0%-on. Illetve nyilván a mobil felhasználás során is értékes a dolog. Ha nincs konnektor a közelben, de valami 3D-s alkalmazást nyomsz, akkor -20%-os paraméter sokat segít az aksinak ergo később fog a noti lemerülni. A PoweTune Boost, mint "újdonság" tök egyértelmű. Sokszor a 0%-os PowerTune limit, is sok és bőven van hely órajelemelésre. Ezt használja ki a PowerTune Boost. Fontos viszont, hogy a PowerTune Boost egy megkülönböztetett jel, vagyis az vagy aktív, vagy nem, nincsenek köztes állapotok. Ha aktív a PowerTune Boost, akkor az órajel a Boost órajel ez fixen annyi marad, amíg az állapot aktív. Ha a Boostot kilövi a hardver, akkor az eredeti PowerTune paraméterezés lét érvénybe az alapórajellel, és az 1 MHz-es lehetséges minimális csökkentésekkel. Az órajel változása egyébként fejlesztésenként eltérő, de 10-100 ns-os reakcióidő van, vagyis 10-100 ns-onként lehet órajelet váltani a Radeonnak. Ugyanez érvényes a Boostra. 10 ns-onként ki-be lehet kapcsolni (itt a 100 ns azért nem él, mert a Tahiti az egyedüli boostos termék, és az 10 ns-mal dolgozik, de nyilván ez a paraméter is eltérő lehet fejlesztésenként)
A Keplernél az NVIDIA is áttért egy hasonló megoldásra, de a PowerTune-nal ellentétben nem a hardver értékel, hanem a driver. A hardver csak mér, és adagolja az infót a drivernek, ami egy adatbázis alapján válaszol, hogy a beküldött (azaz legutóbb kimért) terhelési szint után milyen órajelet és feszültséget kell beállítani. A GPU Boost bines lépcsőkben zajlik. És egy binnek megvan az órajelértéke (GTX 680-nál például 13 MHz). Az órajel tehát ennál a terméknél 13 MHz-cel változhat, de a maximum változás pedig 8 bin mellett 104 MHz lehet. 4 bin mellett pedig a specifikációkban megadott 52 MHz. A köztes bineket ki lehet számolni. Nyilván ez csak a GTX 680-ra vonatkozik, de elég egyszerű az NV speckója. Minden termékre 4 bin van biztosan garantálva. A bin órajele pedig a hivatalos GPU Boost órajel mínusz az alapórajel osztva néggyel. A PowerTune-hoz tehát az alapvető különbség, hogy nem a hardver dönt az órajelről, hanem a driver mondja meg. Ez egy 800 ms-os késleltetés az oda vissza jel miatt, illetve a proci munkája. Éppen ezért az NVIDIA termékein az órajelváltás minimum 1 másodpercig tart, és a Boost módban váltott órajelet 1 másodpercig minimum meg kell őrizni. A Boost viszont lefelé is működik. Az NVIDIA szintén eldobta a halt rendszert, hasonló okokból, mint az AMD. Ha a hardver nem bírja alapórajelen a terhelést, akkor egy negatív GPU Boost lép érvénybe, ami a bin órajelértékével, illetve annak többszörösével csökkenti majd az órajelet. Erre szintén van adatbázis a driverben. Lefelé egyébként terméktől függően 20-30 bin engedélyezett. A GeForce esetében magát a specifikált limitet nem lehet módosítani. Az állandó. Ez attól van, hogy a GPU nem monitorozza magát, mivel ezt egy külső IC végzi. Az AMD azért képes a limitet paraméterezhetővé tenni, mert a PowerTune a GPU-ba van építve (tehát nincs külön IC erre), és a PowerTune áramkör programozható.
Ezenkívül a PowerTune nem csak a terhelés monitorozásáért, hanem az energiagazdálkodásért is felelt. Nyilván egyértelmű, hogy ha az adott munkafolyamat terhelése megszűnik, akkor az a legjobb, ha a hardver a lehető leggyorsabban vált idle, vagy köztes órajelre. A szoftveres megoldásoknál ez lassú, mert a driverből kell erre enegedéjt kérni, de az nem foglalkozik a driverrel, mert maga dönt. A ZeroCore is egy PowerTune technika alapvetően. Azért akarják ezt másolni a konkurensek, mert ennél hatékonyabb vezérlési forma nincs. És ebből érthető, hogy az AMD miért védi a specifikációkat még a saját partnerei elől is.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #6160 üzenetére
Nagyon jól működnek már. A Furmark fejlesztője le is állt a program polírozásával. A szoftvert meg lehet kerülni, de hardvert nem. Persze a GeForce GTX 580 és 590 védelme a GPU-Z-vel kikapcsolható, de nem ajánlott megtenni. Asszem a Kepler Boostja is kikapcsolható pozitív-negatív irányban, de azzal sem érdemes élni, mert a hardver erre támaszkodik a védelmeknél.
A PowerTune kikapcsolhatatlan, mert az a display driver betöltéséhez van kötve. Tehát az egyetlen mód ezt kikapcsolni, ha megtiltod a display driver betöltődését, ami pedig lényegtelenné teszi a dolgot, mert display driver nélkül semmilyen 3D-s program nem fut.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
a tesztekben én azt láttam, hogy a boost messze nem ennyire hektikus - jellemzően egy órajelen megy. meg ugye max. 100MHz-es range-en csinálja, míg a powertune akár 300-400MHz-eket változtat, ciklikusan. igen, ha nem kapcsol be, akkor jó - de pont Te írtad, hogy pl. az OEM 6990-et így tolják be 300W alá. na egy olyan géppel nem szeretnék találkozni
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Z10N
veterán
Reszben erinti a kerdesem a temat. HD6850-nel a "PowerState"-ek elvileg dinamikusan valtozank. Esetemben Eyefinityben es Extended modban hasznalom. Ugye alapbol egy kijelzo eseten visszaveszi az orajelet 100/300@950mV, ez 3db megjelenitonel 250/1000@1000mV, ami alapbol 300/1000@1000mV, viszont 250 alatt mar nem stabil. Illetve foleg videozasnal (flash) felugrik 600-ra. Szoval a kerdesem az lenne az Eyefinity/Extended mod ennyire igenyelne a plusz orajelet es feszultseget 2D-ben (bar a scaling be van kapcsolva). Ez kb 10°C jelent 45/55°C, illetve ilyen melegben is 47/57°C (1 vs 3 display) 2D-ben (ez HD6950-nel is kb azonos volt). A vicces az, hogy terhelve 3D-ben viszont nem megy 65°C (67) fole, huzamosabb terhelesnel max 70 (BF3MP), mikozben 975@1200mV megy. A masik az elobbihez kapcsolodik az EYE/EXT mod mennyire befolyasolna az overclockot, mivel 1 kijelzonel az 1GHz-cel sincs gondja, 3-nal viszont neha eldobja (ertsd a venti felporog es eldobja a vedelem az alkalmazast), illetve EYE/EXT modban az energiagazdalkodas, hogyan mukodik nem csak HD6000-nal, hanem HD7000-nel is. Udv.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Abu85
HÁZIGAZDA
A PowerTune pedig 0 MHz-et változtat 0%-os beállítással. A Boostok sokkal hektikusabbak. A GPU Boost a legrosszabb. Ott a TPU-s kép ... vagy az NV mérése, ami másodpercenkénti órajel módosítást mutatott. Egy mérés alatt az összes órajelszintet érintette többször is. Ugyanígy a PowerTune Boost, de annak csak egy szintje van, de az is nyilván váltogat az alap és a boost szint között.
Egyébként, ha elolvastad, akkor a GPU Boost ugyanúgy működik negatív irányba is. Tehát az órajeskálázás mindkét architektúrán közel 300-400-500 MHz-es tartományban működik. De ez csak elmélet. A gyakorlatban egy játék nem képes úgy leterhelni a hardvert, hogy az alapórajel alá kelljen menni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A HD 6850 nem PowerTune-os rendszer.
Több megjelenítőnél persze, hogy nem stabil 250 MHz alatt. Egy kijelzőre van tesztelve az idle. És azért nincs engedélyezve a kártyákon ez több kijelzőnél, mert nem lesz stabil. Ez nem csak a Radeonokon, hanem az összes terméken így működik. Ha több kijelzőt használsz, akkor nincs idle.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
De, sajnos van, ha fut az MSI AfterBurner. Ilyenkor vibrálnak is a kijelzőim, szóval vagy feszemelt overclock vagy multimonitor. (Na jó, talán lenne más megoldás a kettőre együtt, de egyszerűről nem tudok.)
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Abu85
HÁZIGAZDA
-
Hol van az overdrive-ban a VCore csúszka?
A HD5850 nem 1V-on megy 1Ghz-et, hanem 1.2-n.Egyébként azt hiszem a memóriaórajelet is elég lenne magasabban tartani a multimondiot setuphoz, de felfoghatatlan számomra, hogy az AfterBurner-ben miért nem oldható ez meg. Pedig egyáltalán nem tűnik lehetetlennek vagy egy olyan opciót adni, hogy ne is váltson soha órajelet a kártya ("force constant clocks" vagy valami), vagy legalább a külön elmenthető 2D/3D profilokat rendesen kezelné, és ha azt mondom 2D-ben is 1Ghz a RAM, akkor nem viszi le 300-ra idleben sem. De nem... mindig leveszi és bele sem szólhatok, hogy meddig...
A BIOS-ba is beírtam volna már én, ha nem lenne túlbonyolítva és ott is egyszerűen megadhatnám hogy 1.2V-on menjen 3D-ben a GPU.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
hoolla
aktív tag
http://www.hardwareheaven.com/reviews/1561/pg1/powercolor-devil-13-hd-7990-graphics-card-review-introduction.html
"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."
-
válasz TESCO-Zsömle #6170 üzenetére
Nem tudom, egyszerűen nem vergődtem zöld ágra az RBE-vel Vcore ügyben.
Ha mutatsz egy jó leírást HD5-höz, akkor megcsinálom, de nem tűnik egyértelműnek a túlfeszelés. Szerintem hexeditor móka, amitől még nem félek, csak magamtól nem találom ki melyik regisztert kell átütni.TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
hoolla
aktív tag
http://www.techpowerup.com/reviews/Powercolor/HD_7990_Devil_13/1.html
[ Szerkesztve ]
"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."
-
hoolla
aktív tag
válasz radi8tor #6175 üzenetére
Igen azon én is pupilláztam, de amit müvel sleeping dogsban az ütös. Vagy épp mit nem müvel az ellenfele. De sajnos egyenlöre nem gyözött meg. Meglátjuk itt mennyit kérnek érte.
"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."
-
hoolla
aktív tag
válasz KillerKollar #6178 üzenetére
Ha valaha megjelenik a ref egyáltalán. Ezért az árért szerintem sem elég meggyözö. Viszont adnak csavarhúzókészletet, amivel kijavíthatod a szarrápénzelt mérnökök bakiját, így sokkal jobban a magadénak tudhatod a kártyát.
"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."
-
radi8tor
MODERÁTOR
válasz KillerKollar #6180 üzenetére
Semmilyen VGA kártyánál nem veszted a garanciát a hűtő leszedése miatt.
Csak akkor ugrik a garancia, ha eközben megsérül a GPU vagy az áramköri lap.⭐ Stella
-
radi8tor
MODERÁTOR
MSI R7970 Lightning-nál kérdeztem rá a magyar képviseletnél, hogy ugyan már mondja meg: Mi értelme az LN2 módnak a kártyán, ha bukom a garanciát a hűtő leszerelésével?
Erre a kérdésemre válaszolta azt, hogy semelyik kártyán nem vész el a garancia, ha sérülés mentesen cserélsz rajta hűtőt. Lightning esetében LN2 módnak akkor van értelme, ha egy LN2 potot szerelsz rá és folyékony nitrogénnel hűtöd.
Szóval a Lightning-en még a gyártó is engedi a hűtő cserét.[ Szerkesztve ]
⭐ Stella
-
hoolla
aktív tag
Mind a ketten uazt írtátok. Ha sérülésmentesen cserélsz hütöt, nem veszi észre senki, tehát gariztathatod. Még akkor is, ha a boltba ahova visszavitted, megmondod, hogy volt rajta csere de visszaraktad. Ha ök nem látnak semmi nyomát cserének, vissza tudják küldeni. Ha viszont csere közben akár csak elnyalsz egy csavart, azzal már bukod a garit. Nem kell, hogy nagyobb sérülés legyen rajta. Nem fogják kicserélni, ha visszaviszed azzal a szöveggel, hogy hát csak hütö csere volt rajta, viszont hàrom csavar feje úgy szét van nyalva, hogy már nem lehet meghúzni, illetve lazítani.
"It was the best of times, it was the worst of times, it was the age of wisdom, it was the age of foolishness..."
-
Z10N
veterán
válasz janos666 #6167 üzenetére
"vagy feszemelt overclock vagy multimonitor"
Erdekes nalam mukodik
2D 250/1000@1000mV
3D 975/1225@1200mV
Ezert is kerdeztem korabban toled mekkora feszultsegen megy nalad az 5850 Eyefinity-ben, mert kisse hihetetlennek tunt. Nalam egy kijelzo eseten viszi az 1GHz-t a fentebbi feszultseggel, de 3 megjelenitonel mar nem, ezert tovabbra is furcsallom.ui: Sajnos a vibralas nalam is megvan ha tobb HD video megy egyidoben, pedig a rendszer birja, alig van terheles (sot ugye ilyenkor a gpu felugrik 600MHz-re), szoval ez driveres problema (HD6850). Ezt az Eyefinity-s topikban mar targyaltuk.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Z10N
veterán
válasz janos666 #6169 üzenetére
Nalam, mint emlitetetm mukodik. Eyefinity-nel 300/1000@1000mV ugye az alap.
gpu: 250 alatt mar kifagy, mem: 500-ig muxik (ertsd 2000MHz), csak videozasnal a framerate leesik (MPHC/VLC) drasztikusan 15-20 fps, ezert inkabb hagytam 1000-n (4000MHz), a gpu feszt. idle-ben probaltam 950mV/975mV 950-nel azonnal kifagy a kep, 975-nel neha elszall a szinkronizacio (DVI signal not found) 980mV stabilnak tunik, de neha reccen egyet, szoval ez is maradt 1000mV-n. Ugy latszik ebbol a szempontbol is jobb a HD6800 szeria (Eyefinity orajel es energia menedzsmentje). Mindezt en is AB-ben profiloztam be, illetve meg a Trixx-et erdemes kiprobalni, bar lehet a CHiL VRM miatt lehet igy finomhangolni (6870 PCB).# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
dangerzone
addikt
8000-res szériáról valami infó?
-
ricshard444
veterán
válasz dangerzone #6187 üzenetére
Semmi hivatalos,feltuningolt 7000-s lesz és valószínű,hogy december környékén jönnek az első tesztek.Év elején pedig megjelennek az első 8000-sek,de ez is mind tipp
[ Szerkesztve ]
Vannak dolgok...
-
fatallerror
addikt
válasz dangerzone #6187 üzenetére
nagy változás nem lesz, a gcn volt a nagy lépés és ez lesz finomítva 1 picit, szerintem 10-15% gyorsulás várható kb azonos fogyasztással
szóval ricsike jól mondtadon't tell me what i can't do!
-
ViiiiktorOC
senior tag
válasz fatallerror #6189 üzenetére
Hát remélem azért többet fog hozni.
És lehet hogy XDR2?Egy 8870-esre beneveznék szívesen a GTA V-re.
LamboLVR - CSR2 Lambo T. Hungary
-
fatallerror
addikt
válasz ViiiiktorOC #6190 üzenetére
á az nagyon drága, szerintem ddr5ös marad. jó lenne persze de tuti h nagyon költséges még, nagyon talán a csúcs kártyában lehet
don't tell me what i can't do!
-
ricshard444
veterán
válasz ViiiiktorOC #6190 üzenetére
Kétlem,hogy az lenne benne,talán majd jövőre,de 2014ben jön a GDDR6 szóval nemtudom mikor akarják egyáltalán rádobni a karikra...
Vannak dolgok...
-
fatallerror
addikt
-
ricshard444
veterán
válasz fatallerror #6193 üzenetére
Az első GDDR6 modulok ill. az ezekkel szerelt grafikus kártyák a várakozások szerint legkorábban 2014-ben kerülhetnek majd piacra. Ugyanakkor a specifikáció vélhetően legalább 2020-ig velünk marad majd, és utódja - a logikusan vélhetően GDDR7 nevet viselő specifikáció - bevezetése csak ezt követően válhat majd indokolttá.
Ezt olvastam még múltkor,az hogy mennyire valós ez kiderül
Vannak dolgok...
-
fatallerror
addikt
válasz ricshard444 #6194 üzenetére
aha tehát a hd9000esektől várható, kösz az infot nem hallottam róla, reméljük így lesz v xdr2
don't tell me what i can't do!
-
radi8tor
MODERÁTOR
válasz fatallerror #6195 üzenetére
Aztán utána meg is áll a fejlődés, mert mindenki APU-ban látja a jövőt.
⭐ Stella
-
-
Z10N
veterán
-
ViiiiktorOC
senior tag
Szvsz idén már nem lesz ebből 7990-es kártya!
Nagyon késő van hozzá már!
4-5 hónap azt itt az új generáció.LamboLVR - CSR2 Lambo T. Hungary
-
fatallerror
addikt
válasz ViiiiktorOC #6199 üzenetére
nem is kell mőr ők 8asban gondolkodnak szerintem
don't tell me what i can't do!
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Promenade Publishing House Kft.
Város: Budapest