bope Posted August 4, 2007 Posted August 4, 2007 A már megszellõztetett DX10 okán a Gamestar fórumán azt bizonygatja sok hozzáértõ, vagy hozzánemértõ, hogy felesleges 8800-ba beruházni, hisz novemberben itt a 9800-as széria, nameg a 8800-aknak problémát okoznak majd a DX10-et valóban használó játékok. Én pár hete ruháztam be egy 8800 GTX-be... szóval számomra elég idegesítõek ezek a vélemények. Mennyi a valóságalapjuk? A DX10-rõl terjengõ híreket tekintve mekkora ennek a kártyának a szavatossága?
kori Posted August 4, 2007 Posted August 4, 2007 Sajnos az igazság az, hogy ha mindíg a legjobb, legerősebb kártyát szeretné az ember a gépébe tenni, akkor egyrészt nagyon gazdagnak kell lennie, másrészt kb févente cserélnie kellene. Ne aggódj, kb még egy évig biztosan elvisz bármilyen játékot a kártyád még a legnagyobb felbontásban is. Egyenlőre még alig van DX10-es játék, de a kártyával nem lesz probléma a későbbiekben sem.
Watto Posted August 4, 2007 Posted August 4, 2007 Szerintem ez a rossz vétel dolog marhaság. 8800 GTX jóideig időtálló lesz.
Abu85 Posted August 4, 2007 Posted August 4, 2007 bope: Semmilyen hivatalos hír nem mondta, hogy év végére jön a 9800 széria. Egyrészt az xBitlabs-on megírt hír lényegében az R600 és a Xenos slidejaiból lett összerakva. Bár kétségtelen, hogy aki összedobta az értet hozzá, mert a "MAD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)" lehetséges. A jelenlegi GF8 féle MAD+MUL megvalósításnál biztos jobb, mert az ADD utasítás fel lehet használni címmeghatározásra. Maga a GF8 és a D3D10 viszonya kérdéses. Alapvetõen a D3D szabvány olyan méretûre nõtte ki magát, hogy nehéz megreformálni a rendszert. A D3D10 némileg megváltozott a D3D9-hez képpest, eleve az MS dönti el, hogy melyik kari D3D10-es, tehát nincs önjelölés. Ez azt a problémát volt hivatott megszüntetni, hogy minden D3D10-es VGA támogassa 100%-ig a szabványt, ugye volt egy kis ferdítás az x1000-es Radeonnál, amikor az Ati a SM3.0 legnagyobb újítását a VTF-et nem támogatta. Igazából most is baj van. Az nV és az AMD másképp képzeli el a D3D10-es gyorsítót. A Microsoft vélhetõleg a Xenoshoz hasonló képességû GPU-t képzelt el az API-jához, de az nV nem éppen ebbe az irányba lépet. Mindenesetre sokkal jobban meg kellet volna határoznia az MS-nek, hogy mit ért D3D10 gyorsító alatt, bár talán az nv is tudta, hogy milyen hardver illik az új API-hoz, csak bojkottálni akarta az AMD Xenos-ból származó elõnyét. Az MS felfogásában minden bizonnyal az R600 az a 3D-s gyorsító amit elképzelt az új API igényeihez. A probléma, hogy az R600-ra jellemzõ irányelvekkel jelenleg ezt a teljesítményt lehet elérni (plusz optimalizált driver rutinok amik még tényleg gyerekcipõben járnak, fõleg D3D10-ben). Ha az nV annó egy éve a G80-nal a Xenos-hoz hasonló képességû hardvert ad ki akkor elvétve verte volna a rendszer a régi x1950XTX-et és a 7950GTX-et. Ennek köszönhetõen a G80 egyfajta D3D9-D3D10 hibrid lett, belõve az életciklusát a jelenlegi idõszakra. Lényegében két rivális rendszer borzasztóan széthúz. Mondok egy példát. Olyan Shader kódot írunk amiben trigonometrikus (például sinus) függvény van. D3D9-ben az API adotságai miatt LUT (Look-Up table) texturát használunk, hogy kikeressük a megfelelõ eredményt, ehhez szükség van textura fetch-re ami igen nagy idõveszteség a memória címzése végett. D3D10-ben lehetõség van speciális utasítások elvégzésére, mint a sinus (sin). Ezt a GPU SFU egysége hajtja végre és meg is van az eredmény. Két eltérõ megoldás és a jelenlegi D3D10-es karikkal mindkettõ kivitelezhetõ. Hol itt a probléma? A LUT texturás megoldás a magas Alu:Tex arányú kialakítás végett nem nagyon fekszik majd az R600-nak. A G80-ban viszont az SFU egység jelentõsen lassabb a Stream prociknál, így az nV üdvöskéje a számolós megoldást nem szívlelné. Mi a teendõ? Vagy kiszúrunk az egyik gyártóval, vagy leprogramozzuk mindkettõ algoritmust. Az MS a D3D10-es API-val a számlálós megoldást próbálná erõltetni, hiszen a textura fetch nélkülözése miatt jelentõsen gyorsabban van eredmény. A D3D10 legnagyobb újítása a Unified Shader. Ha megnézed a fejlõdést akkor látható, hogy a Pixel Shadert használják orba-szájba. A Vertex Shader kihasználatlan terület. Ezt annak köszönheti, hogy eddig kevés volt a karik Vertex feldolgozó képessége. A Unified kialakítással az MS azt akarta elérni, hogy minden shader típus hasonló sebességgel fusson. Egy valódi Unified Shader rendszer ugyanolyan gyorsan végez bármilyen Shader kóddal. Ez lenne a D3D10 áttörése. Homokszem a G80-nal kerül a rendszerbe. Az nv rendszere gyenge tejesítményt nyújt Vertex és fõleg Geometry Shader alatt. Többnyire a G80 problémája a késleltetésre vezethetõ vissza. Egy Shader proci ugye 8 Stream prociból áll (+ 2 darab SFU, de ez most nem lényeg), ezáltal 32-es batchekkel dolgozik Pixel számítás esetén. Ez azért jó, mert ez a batchméret lefedni a textura fetch esetében bekövetkezõ elérési idõ kiesését, és a Dynamic Branching hatékonysága is megfelelõ. Vertex Shader esetén 16-os batcheket számol, elméletileg azért, mert kevés a cache mérete egy futószalagon belül. A kicsi a batchnél érezteti hatását a elérési idõ kiesése. De mivel a mai programok nagyon kevés vertex Shader kódot tartalmaznak így a problémát kompenzálja a Fragment számítás gyorsasága. Sajna Geometry Shader esetén is a cache mérete lehet a probléma csak itt jóval több adatot kell elhelyezni, így jobban érezteti a hatását. Ennek a kompenzálására nagyon kicsi tömbökkel operál a rendszer, mivel így fér bele a szûkös memóriába. Azonban a kis batch duplán visszaüt, hiszen az elérési idõ nem lesz lefedve, így a számítás az adat megérkezéséig szünetel. Látható, hogy részecske alapú GS-nél még úgy ahogy jól mûködik a G80, de egy nagyméretõ Vertex tömböt kap nem megy neki normális sebességgel a számítás. Nagyon erdekes az AMD megoldása a GS feladatokra, az R600-ban. A Shader feldolgozók mellett elhelyezett egy Memory Read/Write Cache-t, azoknak az adatoknak amik idõlegesek és nem mennek tovább a ROP egységeknek. Lényegében minden D3D generáció váltás új elképzeléseket szül. Ezek akkor jók ha fokozatosan lesznek bevezetve. Ilyen volt a D3D7-D3D8 áttérés. Ellenben a D3D8-D3D9 váltást némileg akadályozta az FX karik képességei. Ez sajnos nem következetesen ment végbe. Az nv tartotta a fejlesztõket addig míg ki nem jött az új szériája és utána bumm, jött a drasztikus teljesítményesés. Persze ez csak az FX tulajokat érintette rosszul. Akkor is kivolt kövezve egy út amit az MS és a fejlesztõk elképzeltek, de csak késõbb tudták alkalmazni. Most is van biztosan elképzelés a jövõ megoldásairól. Az egyik véglet az, hogy maradnak a jelenlegi megoldások és a jelenleg mutatott teljesítmény lesz mérvadó. A másik véglet, hogy elmennek a fejlesztõk ténylegesen a D3D10 elképzeléseinek az irányába és a G8x teljesítménye drasztikusan visszaesik, mint anno az FX-nél. Értékelni nem szeretnék, mert a GF8800 is jó rendszer lett. Azt kell látni, hogy a GF8800 nem most májusban, hanem múlt év szeptemberében jelent meg, tehát elviekben az életciklusa is hamarabb jár le az AMD R600-hoz képpest. Teljesen világos, hogy az HD2900XT jobban fogja bírni a jövõben érkezõ megpróbáltatásokat. Nem arra lett tervezve az R600, hogy most verje a G80-at, hanem arra, hogy elbírja a D3D10 elvekre épülõ erõsen shader intenzív játékokat.
Akos1994 Posted August 13, 2007 Posted August 13, 2007 Én is beruháztam kb. 3héttel ez elõtt 1 8800GTS-be.És most sokkot kaptam ettõl a cikktõl: http://pcforum.hu/hirek/10692/Maris+elavul...es+kartyak.html nyugtassatok meg légy szíves hogy ugye vaklárma, hogy nem fog menni a játék a vadiúj vidikártyámon!!! ír:
Omega32 Posted August 14, 2007 Posted August 14, 2007 Ez talán kicsit jobban kifejti. Egyébként nem értem ezt a mizériát. Futni fognak rajta, nem kell aggódni, csak lehet, hogy pár dolgot nem fog támogatni. Pl. a GTR2 elmegy a Geforce 4-es kártyán is, csak nincs maximum részletesség, alacsonyabb a felbontás. Tehát a DX10.1-ben lesz pár olyan dolog, amit a te kártyád hardveresen nem támogat. Ennyi.
bope Posted August 14, 2007 Author Posted August 14, 2007 A Gamestaros egyik komment tökéletes választ ad. vagy legalábbis mindenképp megnyugtatót. Nem kell kidobni a kártyámat, se másnak a 8xxx szériáját. Csak a cím szenzációhajhász meg egykét újgazdag kölök élezi a nyelvét azokon akik nemrég vettek ilyen kártyát. Úgy könnyû ha anyuci meg apuci keresi meg mindenre a pénzt....
nagyjani Posted August 14, 2007 Posted August 14, 2007 Az Ubisoft-nak most is van olyan játéka ami csak legalább a shader model3-at támogató hardverrel indul, különben sehogy. Ezért lehetségesnek látom, hogy lesznek olyan játékok, amelyek tényleg csak mindig a legújabb, max. 1 éves videóvezérlõvel fognak elindulni.
Fujitsu Posted August 14, 2007 Posted August 14, 2007 A 8800GTX tudtommal 150 ezer forint fölött van. Én a komplett gépemet vettem 200 ezerért... Szerencsés az, aki ennyi pénzt bele tud invesztálni egy videókártyába.
DeaTHeX Posted August 15, 2007 Posted August 15, 2007 Ez kb olyan lesz amikor geforce 4 el toltam a gaméknak szüksége volt a pixel & vertex shaderra... Az anyuci apuci pénzérõl meg ne beszéljünk, mert úgy könnyû 8800GTX-et venni, amúgy meg a 8800 Ultra az azt hiszem jobb... Légy szíves írj rendesebben! Üdv.:Gereby
Abu85 Posted August 16, 2007 Posted August 16, 2007 A D3D10.1-gyel csak rosszul járunk legalábbis játékos szemmel nézve. Legnagyobb újításnak az MRT Blending módokat, FP32-es szûrést érdemes felhozni illetve a Cube map tömbök bevezetését. Az int16 blending támogatása pedig nem túl lényeges, inkább pótlásnak nevezném. Ebbõl az FP32-es szûrést már tudja a Radeon HD2000. Az új Shader alapú AA móddal pedig nem hiszem, hogy jól járnak a felhasználók. Tudom, hogy szükség van egy nagyobb kompatibilítást nyújtó SBAA féle kidolgozásra, de ne feledjük, hogy ez nem hardveres eljárás, tehát a Shaderek fogják számolni. Ilyen módot használ a Radeon HD2000 család, meg is látszik, hogy gyengén teljesít az AA alkalmazásakor. Ezzel a lépéssel az MS az AMD-nek csinál jót, mert komolyan be fogják lassítani a jelenlegi GeForce8-akat, lévén mellõzni fogják a hardveres MSAA kezelését. Nem hiszem, hogy a felhasználóknak az az érdeke, hogy minimálisan jobb képminõségért drasztikus teljesítményeséssel fizessenek. Bár kétségtelen, hogy ez lesz a jövõ, így tök mindegy, hogy mennyire háborgunk ez ellen. Ez a D3D10.1 gyanítom AMD-MS akció volt. Nem tartalmaz annyi és olyan mérvadó újdonságot, hogy ki kelljen adni 10.1 néven. Itt az volt a probléma, hogy gyors a GF8 az AA alatt a HD2000-ekhez képpest, így át kellett alakítani az AA eljárások menetét, hogy belassítsák a HD2000 család alá. Rendkívül geci az MS a Lost Planet féle nV akció után a nVidia-val, talán túlságosan is. Kétségtelen, hogy az új Radeon HD2000 család jobb D3D10-re, de nem kellene ennyire egyoldalúan kezelni a szabvány sorsát. Az nV-nek pedig gondolkoznia kellene mielött cselekszik, még legalább két évig ebbõl a piacból fog megélni, nem kellene tönkre tennie azt a szabványt amire jelenleg épít.
cinke Posted November 18, 2007 Posted November 18, 2007 Sziasztok! Tudnátok segíteni a következõ problémában? Vettem egy új videokártyát (nvidia 8800 széria), amin csak DVI és HDTV kimenet van. A TV-n viszont csak S-video és RCA bemenet van. Adtak két kábelt hozzá: 1, Egyik végén sárga jack szerûség másik végén S-video. 2, Egyik végén HDTV (S-video + két luk) másik végén piros-kék-zöld "anya". (Csatolok képet, hogy érthetõbb legyek.) A boltban azt mondták, hogy a Satrunban van ilyesmi átalakító, a Saturnban azt mondták, hogy ezt nem lehet megoldani. Szóval van arra mód, hogy az nvidia 8800-as kártya HDTV kimenete a TV S-video vagy RCA bemenetéhez kapcsolódjön? Köszi
Pjotr Posted November 18, 2007 Posted November 18, 2007 1, Egyik végén sárga jack szerűség másik végén S-video. Ezzel meg tudod oldani.
cinke Posted November 18, 2007 Posted November 18, 2007 Köszi a választ. Sajna nem igazán értem. A TV-be még csak-csak belemegy az S-video-s vége, de a sárga jack szerûség nem megy a kártyába. Vagy fordítva gondolod? A TV sárga RCA bementetébe menjen a sárga jack-szerûség, a kárty HDTV kimenetébe meg dugjam be az S-video-s véget? Ne idézz be elõtted íródott hozzászólást! <PF>
cinke Posted November 18, 2007 Posted November 18, 2007 Az nem gond, hogy a zsinór S-video végû (4 fémszál) a kártyán meg HDTV a kimenet (7 luk)? Belemegy egyébként. Kipróbálni nem tudom most, mert a zsinór 1 méter, a TV meg jóval messzebb van. Ha ez így mûködik próbáljak meg RCA sárga kábelhez hosszabbítót szereni?
Pjotr Posted November 18, 2007 Posted November 18, 2007 Így van. Mûködni fog, nekem is ilyen, csak nem 8800-as kártyán, hanem 7600GS-n.
cinke Posted November 18, 2007 Posted November 18, 2007 Ez egész jól hangzik, bár azt hiszem a 7600GS-en més sima S-Video (4 luk) kimenet van, nem pedig HDTV kimenet (7 luk). most nem tudom kipróbálni, mert nem ér el a TV-ig a zsinór. köszi a segítséget.
nagyjani Posted November 19, 2007 Posted November 19, 2007 Mûködni fog, azért van a gyári kábel. A videókártyán egy több jelet támogató kimenet van, ami felismeri a rácsatlakoztatott gyári kábelt, és annak megfelelõ jelet ad ki.
cinke Posted November 19, 2007 Posted November 19, 2007 Akkor beszerzek egy RCA hosszabbítót. ha így felismeri a kártya a kábelt, az lett volna szuper, ha a sima S-video kábelen keresztül is vitte volna a jelet. Amikor (mindkét végén) S-video kábellel kötöttem össze a gépet a TV-vel csak villant egyet a TV. (Remélem a meghatjó progi jól volt beállítva... ) Légy szíves ne idézz be elõtted íródott hozzászólást! <PF>
nagyjani Posted November 19, 2007 Posted November 19, 2007 Ezt eddig nem írtad! A sima svideó kábelnek jónak kell lennie, (azt minden videókártya jól kezeli) ha a tv-n is van olyan bemenet. Ha így van, akkor lehet, hogy valamit a driverben kell állítani, hogy megtalálja a tv-t.
cinke Posted December 18, 2007 Posted December 18, 2007 (edited) Nem próbáltam meg a fentieket, de utánajártam még egy kicsit, plusz egy haver segített. A HDTV kimenet a kártyán tulajdonképp a komponens kimenet egybegyúrva. A hozzá adott kábel (1-es kép) alakítja a HDTV kimenetet szabványos komponens jellé (piros kék zöld). Ez más mint az S-video vagy RCA, nem megy S-videon belõle jel, nem érdemes összedugni. Megoldás: 1-es kábelt a gépbe, van a Saturnban komponens - Scart átalakító, abba bedugni a kék-piros-zöld zsinórt, a másik vége így euro scart, arra egy Scart toldalékot (mindkét végén bemenet), arra egy Scart hosszabbítót, az megy a TV-be. 4 m-es Scart hosszabbító ha elég, akkor kijön az egész 7500 Ft-ból. Ha nem, akkor 11,500. Vagy vesz az ember egy DivX-es DVD lejátszót, kiírja RW lemezre a filmeket és megnézi. Az se sokkal drágább. Edited December 20, 2007 by Gereby
Scrofa87 Posted April 28, 2008 Posted April 28, 2008 Helló! Én is egy 8800GTS(G92) tulaj vagyok. A témában csak annyit mondanék, hogy józan paraszt is látja, hogy mi a helyzet, bõvebben: Sorban jönnek az újabbnál újabb játékok és ahogy a reklám mondja a GTS még mindig tart... Abu85 ugyis elmondta ezen tények alapjait, én csak a felületes tényeket nézem. Eddig minden megy fullon akadozás nélkül, nemhinném, hogy ilyen gyorsan le kellene írni a 8-as szériát, még jó ideig hû társaink lesznek.
Recommended Posts
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now