Keresés

Új hozzászólás Aktív témák

  • #54625216

    törölt tag

    válasz D-LAN|FuRioN #20 üzenetére

    Az M1 Air továbbra is kapható és az is lesz még egy darabig, tehát továbbra is az a belépő szintű Mac, nem az M2 Air.
    Az M2 valahol az M1 Pro és az M1 között van félúton mind árban, mind teljesítményben.
    Vicces is lenne, ha fél évvel a pro kategóriás laptopjaik bemutatása után előállnának egy $1000 géppel, ami hozza a $2000-től induló pro széria teljesítményét.
    Tehát nem árat emeltek, hanem egy új terméket pozícionáltak a meglévők közé, kb. mint amikor az NVIDIA kiadja 3050 és a 3070 után a 3060-at.
    Szvsz az M2 ára idővel (értsd: a chiphiány enyhülésével) csökkenni fog, azaz kb. egy év múlva kivezetik az M1 Airt és az M2 árát viszik le $1000 alá és onnantól lesz majd az a belépő szint.
    Egyelőre viszont az új design, jobb képernyő, jobb hang és a nagyobb teljesítmény így is megfelelő keresletet generál. Ha most $1000 alá áraznák, akkor sem tudnának többet eladni belőle, mert a chiphiány miatt a már futó megrendeléseiket is csak több hónap csúszással tudják teljesíteni.

  • #54625216

    törölt tag

    válasz VirsLee #29 üzenetére

    "Két év alatt ennél többet kellett volna letenni az asztalra."

    Konkrétan mit is?
    Más CPU gyártók hány % növekedést tudnak felmutatni két generáció között úgy, hogy közben javítanak az energia hatékonyságon?
    Az M2 egy belépő kategóriájú chip, amit a pro vonalon tudnak még felfele skálázni, ahogy az M1-el is tették.

  • #54625216

    törölt tag

    válasz D-LAN|FuRioN #30 üzenetére

    Apple-nél árazásban érdemes mindig az USA store-t nézni, mert az nettó USD ár és abból számolják a lokális árakat (USD árfolyam, áfa, kereskedői jutalék mind országonként eltérő).

  • #54625216

    törölt tag

    válasz VirsLee #36 üzenetére

    "Más CPU gyártók eléggé odatették magukat az elmúlt 3 évben."

    Melyik konkurens CPU+GPU kombó hozza az M2 teljesítményét hasonló fogyasztás mellett? És itt a teljesítmény / fogyasztás a lényeg, mert egy passzív hűtéses ultrathin kategóriás laptop SoC-ról van szó ugyebár.

  • #54625216

    törölt tag

    válasz emvy #39 üzenetére

    A Ryzen 6800U tdp-je majdnem a duplája az M1-ének.

  • #54625216

    törölt tag

    válasz VirsLee #40 üzenetére

    "Pl. tudta az M1 másfél-két évvel ezelőtt.
    Ahhoz képest lehetne gyorsabb 15%-kal IPC."

    Miért is?

  • #54625216

    törölt tag

    válasz Oliverda #43 üzenetére

    Nem idle fogyasztásról volt szó, hanem teljesítmény / fogyasztás arányról. (Az idle fogyasztást Emvy hozta csak fel.)

    Az M2 Air 20% felára pedig nem csak a SoC, hanem a jobb kijelző, jobb hang, jobb kamera, új desig stb. Hogy kinek éri meg, az már más kérdés.
    Én pl. 8GB rammal nem vennél, 16GB-al pedig már az M1 pro gépek árát nyaldossa. Ettől függetlenül el tudom képzelni, hogy az ultra hordozhatóság, extra aksi idő és a passzív (hangtalan) hűtés miatt lesz, aki akár a 14" pro helyett is ezt választja.

  • #54625216

    törölt tag

    válasz VirsLee #46 üzenetére

    "De attól még azt fogom mondani, hogy k@rva gáz, ha kiderül, hogy két év alatt nem tudtak 15%-ot emelni az IPC-n! Azt várom, hogy fejlesszenej. Ennyi. "

    De miért pont 15%-ot? Miért nem 150%-ot? Vagy 1500%-ot?
    Elvégre bemondani nem kerül semmibe, az Apple meg csinálja meg, különben váááá.

  • #54625216

    törölt tag

    válasz makkmarce #52 üzenetére

    Az M1 az Apple A szériás mobil SoC-okból nőtte ki magát, amit az Apple kb. 2010 óta fejleszt.
    Ha megnézed az egymást követő A chipek közötti teljesítmény különbséget, akkor kb. olyan ütemben fejlődtek, mint az M2 az M1-hez képest. Tehát az Apple tök ugyanazt a fejlesztési szisztémát követi.
    A telefonoknál is mindig előjön az az abszurd érvelés, hogy hát a 13 és a 12 között túl kicsi a különbség, ezért nincs értelme lecserélni az alig egy éves telefont -> sZaRAzaPpLe.
    Hogy egyébként sosem volt cél, hogy közvetlenül az előző generációt kelljen váltani (eleve ha valaki egy éven belül telefont cserél, akkor rossz terméket választott), az persze a fórumhuszárokat nem nagyon szokta érdekelni.
    Az Apple most hasonló fejlesztési stratégiát követ a notebook chipekkel: generációról generációra reszelgetik és mire valóban megérik az eszköz a cserére (4-5-6 év múlva), addigra már lesz akkora ár / teljesítmény különbség, hogy megérje váltani.

  • #54625216

    törölt tag

    válasz makkmarce #55 üzenetére

    "Ha lassabbat adsz ki, mint a tavalyi modell, akkor ott komoly gondok lehetnek."

    Mármint mi a lassabb és mihez képest?

  • #54625216

    törölt tag

    válasz makkmarce #63 üzenetére

    "nézd meg az AMD roadmap-et, zen4-nél nem volt cél az IPC növelése, nem is volt tervben"

    Mert az Apple-nél meg tervben volt, hogy ezen kell rugózni?

  • #54625216

    törölt tag

    válasz VirsLee #60 üzenetére

    "mert a 15% 2 év alatt az több, mint 7% évente. Az szép eredmény"

    Tehát szubjektív alapon beállítasz egy mércét, amit szerinted meg kellett volna ugraniuk és arra hivatkozva problémázol.

  • #54625216

    törölt tag

    válasz VirsLee #77 üzenetére

    Ahogy a cikkekben is leírták az intelek a teljes rendszer teljesítmény / fogyasztását nézve nem tudják lenyomni az M1 Pro és Max chipeket. Az Intel a táblázataiban csak a nettó cpu teljesítményt hasonlította össze, és nem vették figyelembe, hogy ha az M1-hez hasonló GPU teljesítményt is akarsz a gépbe, akkor vagy a fogyasztást növeled, vagy a CPU teljesítményből kell leadnod.
    Azaz továbbra is ott tartunk, hogy a desktop replacement "zsinóros" x86 laptopok jobb eredményt tudnak produkálni, de csak amíg a másfél kilós tápjukon lógnak. Ha valóban hordozható gépre van szükséged értelmezhető aksiidővel, ami nem kapcsol sugárhajtómű hangerőre ha a procit megpörgeti valami és mondjuk nem nehezebb 3 kilónál, akkor jelenleg az M1-es szériának nem nagyon van alternatívája.

  • #54625216

    törölt tag

    válasz makkmarce #100 üzenetére

    "pontosabban bárkinek, aki 3d-t akar"

    Ez még nagyon korai így kijelenteni, mivel a komolyabb M1 SoC-ok (Max, Ultra) alig fél évesek, így egyelőre natív támogatás is alig van, nemhogy szénné optimalizált alkalmazások, mint PC-s GPU-khoz.
    Másodszor jellemzően olyan alkalmazásokkal tesztelik jelenleg a PC-s GPU-kat, amiket eleve azokra írtak, így nyilván 100%-ban kihasználják az előnyeiket és kerülik a hátrányaikat.
    Ehhez képest M1 Max-ra lehet olyan alkalmazást írni, ami fullra pakolja több százmillió polygonnal a teljes 64GB ramot, amin a ma kapható PC-s dGPU megoldások 99%-a garantáltan elvérezne, ilyet értelem szerűen egy ma kereskedelmi forgalomban lévő 3D szoftver meg sem próbál. (Kivéve a Maya, azt könnyen meg lehet fingatni, de az nem a hardver hibája. :U )
    Windowson már valós produkciós helyzetben is lazán ki lehet futni a vramból, elég elindítani Nuke-t, RV-t és Unreal Engine-t egymás mellett (és néha sajnos kell is), ezzel fél órán belül jó eséllyel el lehet jutni hardver resetig.
    Tehát attól, mert a jelenleg még emulációban futó, vagy legjobb esetben is béta natív 3D alkalmazásokban az M1-ek a dGPU megoldásokhoz képest alul teljesítenek (persze csak ha a fogyasztást kivonod a képletből) még nem érdemes hosszabb távú következtetéseket levonni, mivel még nem jelentek meg azok a szoftverek, amik az M1-ek előnyeit valóban ki is használnák. Amik meg igen, mint pl. Resolve, azok bezony hozzák is a top dGPU-k teljesítményét.

  • #54625216

    törölt tag

    válasz makkmarce #110 üzenetére

    "ha valamiben van 10000 shaderező, a másikban meg 1000(m1 ultra), akkor ott ha fejre állsz, akkor se fogsz csodákat látni."

    Azokban az alkalmazásokban, amikben a shaderezőknek komoly szerepe van (javarészt játékok), de ez nem fedi le a teljes 3D alkalmazás palettát ugyebár.

    "Ezt azért megnézném, hogy mondjuk 4k-ban mit csinál 100 millióval, mikor a minecraft 20 fps-el száguld 1080p-ben egy sima m1-en."

    A minecraft az x86-os java-nak köszönhetően volt lassú, az új 1.19 verzió - ami már natív M1 - 200fps felett pörög. Ezért nem érdemes egy optimalizálatlan, emulált alkalmazásból szerzett tapasztalatokat extrapolálni a hardver általános teljesítményére.

    "Lentebb linkeltem az archicad tesztet.. 1050ti.. ezt tudja, ha jobb napja van, és ott még komplexebb shaderek sincsennek."

    Az általad linkelt cikkből:

    "Archicad and BIMcloud running on M1 chip via Rosetta 2"

    Azaz megint csak egy emulált x86-os alkalmazással példálózol.
    Félreértés ne essék, ha az a kérdés, hogy itt és most, határidős melóra érdemes-e Archicad-hez M1-et venni, akkor természetesen nem, mint még számtalan egyéb, nem M1 natív alkalmazás esetében.
    Ez viszont nem sokat mond el magáról a hardver teljesítményéről, ami ugyebár a téma.

    Egyébként számtalan clickbait "hazudott az Apple" nívójú youtube channel játssza el ugyanezt, hogy x86-os kóddal és/vagy nem támogatott video codec-ekkel tesztel vagy két napos M1 beta buildet hasonlít össze több éve csiszolt x86 verzióval és abból von le teljesen fals következtetéseket a hardverről.

    A lényeg: érdemes különválasztani, hogy általában az Apple SoC-ok hardveres képességeiről beszélünk vagy arról, hogy jelen pillanatban egy konkrét alkalmazást futtatva érdemes-e a jelenlegi szoftver támogatás mellett M szériás Mac-et használni egy adott feladatra.
    A "jelenlegit" azért emelem ki, mert mint a minecraft példád is mutatja, akár heteken-napokon belül is gyökeresen változhatnak az eredmények annak függvényében, hogy frissítenek-e a kódon.

    [ Szerkesztve ]

  • #54625216

    törölt tag

    válasz makkmarce #113 üzenetére

    "Értsd már meg, ami nincs benne, azt nem tudod software-esen belevarázsolni, hogy 10-20x gyorsabb legyen."

    Csak ha közben van egy emulációs réteg, amin keresztül kergeted az adatot, akkor az lesz a szűk keresztmetszet és onnantól tök mindegy, hogy mit tud a GPU-d. Lásd az általad is hivatkozott minecraft: elég egy ponton megfogni az adatfolyamot és beesik az fps az asztal alá. Tehát jelenleg jó pár alkalmazásról egyáltalán nem lehet megállapítani, hogy hardveres limitbe ütközött, vagy csak az emulációnak köszönhetően valamilyen szűk keresztmetszet fogja vissza a teljesítményt.
    De mint mondtam, nem is első sorban a nettó shader teljesítmény az érdekes, hanem hogy vannak a rendszernek olyan előnyei, amit a jelenleg vizsgált alkalmazásokban egyáltalán nem használnak ki, mint pl. az extra vram.
    Az Archicad tesztekből is jól látszik, hogy ahogy nő a polygonszám, úgy csökken az 1050Ti előnye és 10 millió fölött már az M1 nyer.
    Most képzeld el ugyanezt egy M1 Ultra 128GB vs. 3090Ti 24GB összehasonlításban: amint a scene túlmenne a 24GB vram limiten az 3090Ti garantáltan behasalna, csak ugye nem ilyennel tesztelik. És itt nem a teszt maga az érdekes, hanem hogy vannak olyan valós felhasználási területek, amelyek sokkal többet profitálnak a nagyobb vramból, mint a több shaderezőből.
    Ebből következik, hogy nem lehet en bloc leírni, hogy az M1 Mac-ek úgy általában véve nem alkalmasak 3D munkára, mert erősen attól függ, hogy konkrétan mi is az a 3D munka illetve hogy maga a szoftver környezet natívan támogatja-e a hardvert és hogy kihasználja-e az előnyeit.

    "A másik ami a codec, pont ezt mondtam, ha úgy és azt használod amit az apple akar, akkor gyors, ha nem, akkor nem HW gyorsítással oldod meg, és ugyanúgy működik, mint bármi máson."

    Ez kb. olyan, mintha olyan szoftveren tesztelnék az nvidia kártyákat, amik nem használnak GPU gyorsítást és abból akarnád levezetni az nvidia GPU-k teljesítményét.
    Természetesen, értelem szerűen egy hardver abban erős, amit támogat.
    És persze léteznek a prores-en kívül más professzionális video codec-ek is, de ahogy nem tesztelünk AMD kártyákat CUDA-val, úgy felmerül a kérdés, hogy mi a rákért tesztelik az M1-et olyan kodekekkel, amelyeket a user eleve nem használ, ha Mac-et vesz. Válasz: mert egy prekoncepciót próbálnak manipulált (vagy csak dilettáns) teszteredményekkel alátámasztani, mert attól remélnek nagyobb kattintásszámot.

  • #54625216

    törölt tag

    válasz makkmarce #115 üzenetére

    "ami oda felkerül, az már a gpunak megfelelő adat."

    Tehát az nem számít, hogy az adat milyen sebességgel kerül oda? Akkor mégis hogy a rákba tudott a minecraft egyik verzióról a másikra a tízszeresére gyorsulni?

    "behasal a 3090.. egyre viccesebb vagy :)"

    Konkrétan a munkagépemben 3090 van és ha több Nuke fut egymás mellett (muszáj ha több jeleneten dolgozol egyszerre) és mondjuk nem zárogatom be a szintén vram zabáló RV-kat, akkor lazán kifut a rendszer a vramból és onnantól a windows konkrétan összesz@rja magát, lehet hardresetelni. Tényleg vicces.

    "Ha nem elég a VRAM, teszel bele még1 3090-et."

    És akkor már csak további három kell, hogy elérje egy M1 Ultra vram mennyiségét. :))

    "Mutathatnál már igazán egy szuper 3d-s programot, ami nem a 6 évvel ezelőtti legolcsóbb belépős kártyával versenyez, hogy lássuk a csodát."

    Éppen ez az, hogy olyan optimalizálatlan szoftverekkel példálózol, ami egy 6 évvel ezelőtti legolcsóbb belépős kártya szintjét tudja csak kihozni a hardverből és erre hivatkozva minősíted magát a hardvert.

  • #54625216

    törölt tag

    válasz #54625216 #116 üzenetére

    Jah és nem tudom, hogy a 10000 vs. 1000 shaderezőt honnan vetted, de az M1 Max-ban 4096 shading unit van, az Ultra-ban meg ennek a duplája. [link]

  • #54625216

    törölt tag

    válasz makkmarce #118 üzenetére

    "akkor miért is nem használod a csodamac-et, ha ennyire használhatatlan a mostani configod? "

    Céges gép, amit példának hoztam fel, hogy bezony produkciós használat során lazán bele lehet futni vram limitbe.

    "ismét egy nevetséges ferdítés, de gondolom ebben profi vagy."

    Arra a felvetésre, hogy a 128GB vram az M1 Ultra-ban komoly előny lehet egyes alkalmazásoknál az a brilliáns megoldásod, hogy ha nem elég a 3090Ti 24GB vramja, akkor a user rakjon a gépbe még egy 3090Ti-t (jelenleg 1 millió körül vesztegetik, azaz csak a két vga-ból kijön a Mac Studio ára).
    De ha ugyanezt felskálázom 128GB-ig, az már nevetséges ferdítés.
    Hát jó.

    "tehát nem tudsz, de te aztán biztosan tudod, hogy sokkal jobb, tehát te a nemlétező software-ekkel akarsz meggyőzni.. profi érvelés."

    Ahogy feljebb elég világosan leírtam, senki sem akar meggyőzni, hogy jelen pillanatban határidős 3D melóra akármelyik M1-es mac-et használd mert még nem tart ott a szoftver támogatottsága, hogy kiforrott natív M1-es kódok kihasználják a rendszer előnyeit.
    Ettől függetlenül a jelenlegi helyzetből kiindulva hülyeség leírni az M1 3D hardveres képességeit pusztán az alapján, hogy optimalizálatlan, emulált, célzottan konkurens termékekre írt szoftverek alatt milyen teljesítményt produkál.
    Erről volt szó nem pedig csoda szoftverekről, azokat csak Te hoztad be szalmabáb érvelésként.

  • #54625216

    törölt tag

    válasz makkmarce #120 üzenetére

    "még1x. a gpunak nem megy emulált kód, ott ami kimegy, az már a saját nyelvén van."

    És ez mégis mennyiben releváns az alkalmazás működése szempontjából? Ha valahol szűk keresztmetszet van, az az egész alkalmazás sebességére kihat. Amíg nincs rendesen optimalizált natív kód, addig max. annyit jelenthetsz ki, hogy x alkalmazás jelenlegi buildje ezen a hardveren ennyire képes, de ez nem egyenlő a hardver nettó teljesítményével.
    Csak egy példa: az általad linkelt graphisoft oldalon is szerepel, hogy önmagában a GPU teljesítménye kevés, ha a CPU egyszálas teljesítménye a szűk keresztmetszeté válik.
    A graphisoft hivatalos közleménye pedig külön kiemeli, hogy Rosetta 2 alatt az Archicad teljesítménye limitált.

    "nem, arra, hogy azt írtad az egész unified memoryt kikérheted VRAM-nak."

    Oké, foglaljunk le mondjuk 32GB-ot az OS-nek és magának az alkalmazásnak, ez esetben elég négy darab 3090Ti, 4 millióból talán kijön. :D
    Egyébként pont az a lényege a unified memory-nak, hogy nem kell külön a ram és a vram között másolgatni az adatokat, hanem a nagy részét ki lehet osztani a GPU-nak, ha éppen arra van igény.

    "Tehát szalmabáb érvelés, ha nem elképzelt, hanem valós teljesítménytesztet nézek egy rendszerről"

    Az a szalmabáb érvelés, hogy egy új architektúrára épülő alig fél éves hardver teljesítményét kritizálva számon kéred, hogy hol a "csodaszoftver", ami demonstrálja a képességeit. Mintha a lázmérő okozná a lázat.
    Valamiért képtelen vagy felfogni, hogy a jelenlegi "valós teljesítmény tesztek" nem a hardver valódi teljesítményét mérik, hanem csak az adott szoftver sebességét a hardveren, ami a hardver teljesítménye szempontjából egyszerűen nem releváns információ, ha maga a kód bevallottan nem arra az architektúrára íródott.

    Ettől még nem feltétlenül fogja az M1 leverni a top dGPU-kat (ilyet egyébként senki sem állított), csak az a kijelentésed nem állja meg a helyét, hogy az aktuális pro kategóriás Apple SoC-ok a nettó hardver teljesítményük miatt eleve nem alkalmasak 3D munkára, mivel a jelenlegi 3D alkalmazások alapján ezt se pro, se kontra nem lehet kijelenteni.

  • #54625216

    törölt tag

    válasz makkmarce #123 üzenetére

    "tehát csak az a jó teszt, amit kpbendeguz elfogad, bármi más teszt az hibás, és figyelmen kívül hagyható"

    Elég részletesen leírtam, hogy jelen állás szerint ezek az alkalmazás tesztek miért nem alkalmasak a nyers hardver teljesítmény tesztelésére.
    A net tele van ilyenekkel, pl. összehasonlítják a Ryzen és az i9 teljesítményét Resolve alatt (windowson), miközben a teszt jelenet 99%-ban a GPU-t tekeri, majd kihoznak 1% (kb. random) előnyt az i9-nek és levonják a tanultságot, hogy lám az Intel beelőzte az AMD-t.
    Szal nem olyan nehéz megérteni (már ha van rá igény persze), hogy ha olyan szoftverrel tesztelnek, amit nem az adott architektúrára írtak és nem használja ki az adott hardver előnyeit, az ugyan releváns lehet az adott szoftver adott buildjének a teljesítmény mérésére adott hardver környezetben, de magáról a nyers hardver teljesítményről nem sokat árul el.
    (Persze prekoncepciók görcsös igazolására kétségtelenül elég.)

    "holott te pont ezt állítottad, hogy már dobod a kukába a 3090-eket, mert le vannak verve az új mac-el. nem én mondtam, te mondtad."

    Klasszikus szalmabáb érvelés, mert ilyet nem mondtam, de nyugodtan idézz.
    Én az M1 Ultra 128GB unified memory-járól beszéltem, hogy jelenleg a szoftverek nem használják ki a potenciálisan több vramot, pedig ha megtennék, azzal meg tudnák fingatni a 3090-eket. Ettől még a desktop GPU-k a direkt rájuk optimalizált szoftverekkel és 400W feletti fogyasztással lehetnek gyorsabbak, ahogy egy 4 magos CPU is lehet gyorsabb a 32 magos csodaryzennél, ha másfélszer annyi órajelen egy szálon fut a program.

    "dehogynem, pont a jelenlegi 3d alkalmazások szerint lehet kijelenteni."

    Maximum a jelenlegi 3d alkalmazások teljesítményéről lehet kijelenteni bármit is. Ha CUDA kódot futtatsz AMD-n és 0%-ot kapsz, attól még az AMD kártyák sebessége nem lesz nulla.

    "Ha majd változik a helyzet, akkor meg majd mást lehet kijelenteni"

    Ezzel pont az én érvelésemet támasztod alá, mert egy adott hardver nyers teljesítménye önmagában nem tud javulni, legfeljebb a szoftvereket lehet jobban optimalizálni hozzá és az által kihozni belőle a jobb teljesítményt.
    Én pedig pontosan erről beszéltem: az Apple SoC-okban benne van a versenyképes 3D teljesítmény, csak az általad felhozott alkalmazások nem, vagy rosszul használják ki.
    Lásd minecraftos példád: mire leírtad kijött az új verzió, így visszafelé sült el, amikor az M1 3D képességeit egy korai minecraft teszt alapján próbáltad megítélni.

  • #54625216

    törölt tag

    válasz makkmarce #129 üzenetére

    "Tehát szerinted az archicad-ék hazudnak a saját méréseikben? Nem tudják lemérni a saját programjaikat?"

    A saját programjuk egy adott buildjének teljesítményét mérik egy adott hardveren. Azt már csak Te költöd hozzá - és nem az archicad-ék -, hogy ebből a hardver nyers teljesítményére bármilyen következtetést le lehet vonni.

    "nem én írtam, szerinted a 3090 elhasal, de a csodamac-ed, ami már hozza a 1050ti-t, az bealázza.
    "Most képzeld el ugyanezt egy M1 Ultra 128GB vs. 3090Ti 24GB összehasonlításban: amint a scene túlmenne a 24GB vram limiten az 3090Ti garantáltan behasalna""

    lásd korábbi válaszom:

    "Én az M1 Ultra 128GB unified memory-járól beszéltem, hogy jelenleg a szoftverek nem használják ki a potenciálisan több vramot, pedig ha megtennék, azzal meg tudnák fingatni a 3090-eket."

    "tessék, itt natív metal supporttal teszteltek:"

    Jaja, a blender alpha verziós buildje az egyik kedvence "szarazapple" channeleknek.

    "Igazad van, ha jó a csillagok állása, 1 gpu-s gamer rendszereket az ultra majd talán meg tudja szorítani."

    Ha ez Téged megnyugtat, akkor nyugodtan hidd csak ezt.

    [ Szerkesztve ]

  • #54625216

    törölt tag

    válasz makkmarce #131 üzenetére

    "ha a gyártó a saját softwarét teszteli, az hazudik.. "

    Most komolyan az ilyen szalmabábozással miért alázod magad?
    Ki beszélt itt hazudozásról?
    A gyártó a saját szoftveréről meg tudja mondani, hogy M1-en hogyan fut. Se az archicadosok, se más szoftver gyártó nem von le sommás következtetéseket az M1 nyers hardver teljesítményéről a saját tesztjei kapcsán, egyedül Te teszed, mert valamiért görcsösen igazolni akarod az előítéleteidet, aztán ha az egyik érveddel behasalsz, akkor húzod elő a következőt.
    Szó sincs itt csalásról, egyszerűen az általad idézett tesztek nem azt mérik, amit Te valamiért nagyon szeretnél kihozni belőlük.

  • #54625216

    törölt tag

    válasz makkmarce #133 üzenetére

    " A használhatóságról volt szó, nem arról, hogy a te álomvilágodban mit kéne csinálnia annak az adott software-nek."

    Az egész vircsaft onnan indult, hogy szerintetek az M2 nem elég nagy előrelépés, mert hogy az M1 nyers hardveres teljesítménye sem elég. Tehát pont, hogy nem a használhatóságról, hanem az Apple SoC-ok hardver teljesítményéről volt szó. Innen faroltál át lassan de biztosan a "jó, de x,y,z optimalizálatlan, emulációban futó szoftver hú mennyire lassú M1-en" érvelésbe.

    "Ez a nyers hw bullshit, mivel a fejlesztők a konzolokon kívül(sőt, sok esetben ott sem), érnek rá arra, hogy minden egyes subrutint az adott hw-re optimalizáljanak, mert van egy fejlesztési költség, és van egy határidő."

    Van néhány árnyalatnyi különbség aközött, hogy facsarjanak ki minden létező tartalékot a SoC-ból pár fps kedvéért, és hogy ne x86-os kód fusson ARM-on vagy valami egy éjszaka alatt összedobott béta build.

    "Mesélj, akkor mit mérnek az általam linkelt tesztek?"

    Látom átkapcsoltál write only üzemmódba, így a kedvedért idézek a fenti hozzászólásaimból, hátha most átjön:

    "A saját programjuk egy adott buildjének teljesítményét mérik egy adott hardveren. "

    " ha olyan szoftverrel tesztelnek, amit nem az adott architektúrára írtak és nem használja ki az adott hardver előnyeit, az ugyan releváns lehet az adott szoftver adott buildjének a teljesítmény mérésére adott hardver környezetben, de magáról a nyers hardver teljesítményről nem sokat árul el"

    "a jelenlegi "valós teljesítmény tesztek" nem a hardver valódi teljesítményét mérik, hanem csak az adott szoftver sebességét a hardveren, ami a hardver teljesítménye szempontjából egyszerűen nem releváns információ, ha maga a kód bevallottan nem arra az architektúrára íródott."

    "Most akkor felhasználást nézünk, vagy virtuális lóerőket"

    Mindkettőt érdemes nézni, csak nem érdemes összekeverni. Ha lóerőkről teszel sommás kijelentéseket, akkor ne olyan tesztekkel példálózz, amik nem azt mérik.

    "lemegy X másodperc alatt a teszt, de te megmagyarázod, hogy az hazugság, mert miért is?"

    Légy szíves idézz már akár egyetlen mondatot is tőlem, amiben szerepel a "hazugság" szó.

  • #54625216

    törölt tag

    válasz makkmarce #138 üzenetére

    "én csak annyit írtam, hogy jelenleg 3d-s munkára nem jó választás"

    És ebben egyet is értettem veled annyi kiegészítéssel, hogy ettől még magáról az M1 nyers hardver teljesítményéről nem lehet kijelenteni, hogy nem alkalmas 3D-re.
    Ezen kattant be nálad valami és kezdtél el teljesen irreleváns szoftver tesztekkel példálózni, én meg próbáltam szisztematikusan elmagyarázni, hogy azok a szoftverek jelen állapotukban miért alkalmatlanok az M1 nyers hardver teljesítményének a mérésére.

    "tehát azt állítod, hogy a natív kódos blender, miner és minecraft az mind x86.. gratulálok"

    A minecraft natív kódja teljesen jól fut M1-en, te egy korábbi build tesztjét linkelted, amivel sikeresen cáfoltad a saját narratívádat, ehhez ismételten gratulálok.
    A natív kódos blender pedig klasszikusan az "egy éjszaka alatt összedobott béta build", kb. végigküldték a fordítón és kigyomlálták a kritikus bugokat, ezt nem én állítom, hanem maguk a fejlesztők és hogy még nagyon az elején tartanak, továbbá együtt dolgoznak az Apple-el a valódi Metal támogatáson.

    "Milyen érdekes, valahogy a valós teszteknél mindig leírod, hogy nem a valóság, mert épp zöld volt, kék volt, rossz volt a csillagok állása. Gondolom a 3090-et már kidobtátok, és ultrán dolgozol, ha még se, akkor miért nem? hisz már napok óta azt bizonygatod, hogy bealázza, és alkalmasabb rá, és sokkal gyorsabb."

    " Szerinted mindegyik teszt hazudik, hisz nem az elképzeléseid szerint alakul a végeredménye, ezért azokat nem is lehet figyelembe venni, de eddig egyet se mutattál, ami megfelel az elképzeléseidnek."

    Ez nálad amolyan fétis, hogy még a tőled megszokottnál is nívótlanabb szalmabáb érveléssel alázod magad a nyilvánosság előtt?

  • #54625216

    törölt tag

    válasz makkmarce #140 üzenetére

    Nem tudom hányszor akarod még lefutni ugyanazokat a köröket, mivel erre is válaszoltam már nem egyszer: kb. fél éves hardverről beszélünk, amire a 3D szoftverek nagy részét még csak le sem fordították, nemhogy optimalizálták volna, így jah, pont ez a lényeg, hogy nincsenek a 3D hardver nyers teljesítményét hitelt érdemlően mérő tesztek, ezért se pro, se kontra nem lehet kijelenteni még, hogy általában véve az Apple SoC-ok a nyers hardver teljesítményüket nézve alkalmasak-e 3D munkára és ha igen, akkor mely célterületeken.
    (Erre mondtam, hogy szerintem a sok vramot igénylő munkáknál előzhet majd be az Apple, ha a szoftverfejlesztők ki is használják.)
    Hogy egyébként a jelenlegi 3D szoftverek jelenlegi buildjeihez érdemes-e M1-et venni, abban egyetértek: nem érdemes, de nem is ez volt a téma. (Mert eleve az M1 és az M2 nyers hardver teljesítménye közötti különbséggel indult az egész diskurzus, mivel ugye a cikk is erről szól.)

  • #54625216

    törölt tag

    válasz makkmarce #142 üzenetére

    Szalmabábozással vádolsz miközben szalmabábozol.
    Nem mondtam, hogy alázza a 3090-t, hanem hogy az Ultra-ra lehet olyan szoftvert írni, ami kihasználja a 3090 vram limitjénél nagyobb vramot, így az Ultra egyes felhasználási szcenáriókban lehagyhatja a 3090-t, ha és amennyiben írnak rá olyan szoftvert. Mindezt arra hoztam fel példának, hogy nagyon nem mindegy, hogy egy szoftvert mely hardver mely képességeinek és / vagy limitációinak figyelembevételével fejlesztenek.

  • #54625216

    törölt tag

    válasz makkmarce #144 üzenetére

    Oké, visszaolvasva a topikban mindenki maga eldöntheti, hogy melyikünk viaskodik itt a saját démonjaival.

Új hozzászólás Aktív témák