Jump to content
GSForum - Segélyvonal

NVIDIA Geforce 8800 topik


bope

Recommended Posts

bope

A már megszellõztetett DX10 okán a Gamestar fórumán azt bizonygatja sok hozzáértõ, vagy hozzánemértõ, hogy felesleges 8800-ba beruházni, hisz novemberben itt a 9800-as széria, nameg a 8800-aknak problémát okoznak majd a DX10-et valóban használó játékok.

 

Én pár hete ruháztam be egy 8800 GTX-be... szóval számomra elég idegesítõek ezek a vélemények.

 

Mennyi a valóságalapjuk? A DX10-rõl terjengõ híreket tekintve mekkora ennek a kártyának a szavatossága?

Link to comment
Share on other sites

kori

Sajnos az igazság az, hogy ha mindíg a legjobb, legerősebb kártyát szeretné az ember a gépébe tenni, akkor egyrészt nagyon gazdagnak kell lennie, másrészt kb févente cserélnie kellene. Ne aggódj, kb még egy évig biztosan elvisz bármilyen játékot a kártyád még a legnagyobb felbontásban is. Egyenlőre még alig van DX10-es játék, de a kártyával nem lesz probléma a későbbiekben sem. ;)

Link to comment
Share on other sites

Watto

Szerintem ez a rossz vétel dolog marhaság. ;) 8800 GTX jóideig időtálló lesz.

Link to comment
Share on other sites

Abu85

bope: Semmilyen hivatalos hír nem mondta, hogy év végére jön a 9800 széria. Egyrészt az xBitlabs-on megírt hír lényegében az R600 és a Xenos slidejaiból lett összerakva. Bár kétségtelen, hogy aki összedobta az értet hozzá, mert a "MAD+ADD configuration for the shader untis (2+1 FLOPS=3 FLOPS per ALU)" lehetséges. A jelenlegi GF8 féle MAD+MUL megvalósításnál biztos jobb, mert az ADD utasítás fel lehet használni címmeghatározásra.

 

Maga a GF8 és a D3D10 viszonya kérdéses. Alapvetõen a D3D szabvány olyan méretûre nõtte ki magát, hogy nehéz megreformálni a rendszert. A D3D10 némileg megváltozott a D3D9-hez képpest, eleve az MS dönti el, hogy melyik kari D3D10-es, tehát nincs önjelölés. Ez azt a problémát volt hivatott megszüntetni, hogy minden D3D10-es VGA támogassa 100%-ig a szabványt, ugye volt egy kis ferdítás az x1000-es Radeonnál, amikor az Ati a SM3.0 legnagyobb újítását a VTF-et nem támogatta. Igazából most is baj van. Az nV és az AMD másképp képzeli el a D3D10-es gyorsítót. A Microsoft vélhetõleg a Xenoshoz hasonló képességû GPU-t képzelt el az API-jához, de az nV nem éppen ebbe az irányba lépet. Mindenesetre sokkal jobban meg kellet volna határoznia az MS-nek, hogy mit ért D3D10 gyorsító alatt, bár talán az nv is tudta, hogy milyen hardver illik az új API-hoz, csak bojkottálni akarta az AMD Xenos-ból származó elõnyét.

Az MS felfogásában minden bizonnyal az R600 az a 3D-s gyorsító amit elképzelt az új API igényeihez. A probléma, hogy az R600-ra jellemzõ irányelvekkel jelenleg ezt a teljesítményt lehet elérni (plusz optimalizált driver rutinok amik még tényleg gyerekcipõben járnak, fõleg D3D10-ben). Ha az nV annó egy éve a G80-nal a Xenos-hoz hasonló képességû hardvert ad ki akkor elvétve verte volna a rendszer a régi x1950XTX-et és a 7950GTX-et. Ennek köszönhetõen a G80 egyfajta D3D9-D3D10 hibrid lett, belõve az életciklusát a jelenlegi idõszakra. Lényegében két rivális rendszer borzasztóan széthúz. Mondok egy példát. Olyan Shader kódot írunk amiben trigonometrikus (például sinus) függvény van. D3D9-ben az API adotságai miatt LUT (Look-Up table) texturát használunk, hogy kikeressük a megfelelõ eredményt, ehhez szükség van textura fetch-re ami igen nagy idõveszteség a memória címzése végett. D3D10-ben lehetõség van speciális utasítások elvégzésére, mint a sinus (sin). Ezt a GPU SFU egysége hajtja végre és meg is van az eredmény. Két eltérõ megoldás és a jelenlegi D3D10-es karikkal mindkettõ kivitelezhetõ. Hol itt a probléma? A LUT texturás megoldás a magas Alu:Tex arányú kialakítás végett nem nagyon fekszik majd az R600-nak. A G80-ban viszont az SFU egység jelentõsen lassabb a Stream prociknál, így az nV üdvöskéje a számolós megoldást nem szívlelné. Mi a teendõ? Vagy kiszúrunk az egyik gyártóval, vagy leprogramozzuk mindkettõ algoritmust. Az MS a D3D10-es API-val a számlálós megoldást próbálná erõltetni, hiszen a textura fetch nélkülözése miatt jelentõsen gyorsabban van eredmény.

A D3D10 legnagyobb újítása a Unified Shader. Ha megnézed a fejlõdést akkor látható, hogy a Pixel Shadert használják orba-szájba. A Vertex Shader kihasználatlan terület. Ezt annak köszönheti, hogy eddig kevés volt a karik Vertex feldolgozó képessége. A Unified kialakítással az MS azt akarta elérni, hogy minden shader típus hasonló sebességgel fusson. Egy valódi Unified Shader rendszer ugyanolyan gyorsan végez bármilyen Shader kóddal. Ez lenne a D3D10 áttörése. Homokszem a G80-nal kerül a rendszerbe. Az nv rendszere gyenge tejesítményt nyújt Vertex és fõleg Geometry Shader alatt. Többnyire a G80 problémája a késleltetésre vezethetõ vissza. Egy Shader proci ugye 8 Stream prociból áll (+ 2 darab SFU, de ez most nem lényeg), ezáltal 32-es batchekkel dolgozik Pixel számítás esetén. Ez azért jó, mert ez a batchméret lefedni a textura fetch esetében bekövetkezõ elérési idõ kiesését, és a Dynamic Branching hatékonysága is megfelelõ. Vertex Shader esetén 16-os batcheket számol, elméletileg azért, mert kevés a cache mérete egy futószalagon belül. A kicsi a batchnél érezteti hatását a elérési idõ kiesése. De mivel a mai programok nagyon kevés vertex Shader kódot tartalmaznak így a problémát kompenzálja a Fragment számítás gyorsasága. Sajna Geometry Shader esetén is a cache mérete lehet a probléma csak itt jóval több adatot kell elhelyezni, így jobban érezteti a hatását. Ennek a kompenzálására nagyon kicsi tömbökkel operál a rendszer, mivel így fér bele a szûkös memóriába. Azonban a kis batch duplán visszaüt, hiszen az elérési idõ nem lesz lefedve, így a számítás az adat megérkezéséig szünetel. Látható, hogy részecske alapú GS-nél még úgy ahogy jól mûködik a G80, de egy nagyméretõ Vertex tömböt kap nem megy neki normális sebességgel a számítás. Nagyon erdekes az AMD megoldása a GS feladatokra, az R600-ban. A Shader feldolgozók mellett elhelyezett egy Memory Read/Write Cache-t, azoknak az adatoknak amik idõlegesek és nem mennek tovább a ROP egységeknek.

Lényegében minden D3D generáció váltás új elképzeléseket szül. Ezek akkor jók ha fokozatosan lesznek bevezetve. Ilyen volt a D3D7-D3D8 áttérés. Ellenben a D3D8-D3D9 váltást némileg akadályozta az FX karik képességei. Ez sajnos nem következetesen ment végbe. Az nv tartotta a fejlesztõket addig míg ki nem jött az új szériája és utána bumm, jött a drasztikus teljesítményesés. Persze ez csak az FX tulajokat érintette rosszul. Akkor is kivolt kövezve egy út amit az MS és a fejlesztõk elképzeltek, de csak késõbb tudták alkalmazni. Most is van biztosan elképzelés a jövõ megoldásairól. Az egyik véglet az, hogy maradnak a jelenlegi megoldások és a jelenleg mutatott teljesítmény lesz mérvadó. A másik véglet, hogy elmennek a fejlesztõk ténylegesen a D3D10 elképzeléseinek az irányába és a G8x teljesítménye drasztikusan visszaesik, mint anno az FX-nél.

 

Értékelni nem szeretnék, mert a GF8800 is jó rendszer lett. Azt kell látni, hogy a GF8800 nem most májusban, hanem múlt év szeptemberében jelent meg, tehát elviekben az életciklusa is hamarabb jár le az AMD R600-hoz képpest. Teljesen világos, hogy az HD2900XT jobban fogja bírni a jövõben érkezõ megpróbáltatásokat. Nem arra lett tervezve az R600, hogy most verje a G80-at, hanem arra, hogy elbírja a D3D10 elvekre épülõ erõsen shader intenzív játékokat.

Link to comment
Share on other sites

KillBorn

Ez kifejezetten tetszett...

Link to comment
Share on other sites

  • 2 weeks later...
Omega32
Ez talán kicsit jobban kifejti. Egyébként nem értem ezt a mizériát. Futni fognak rajta, nem kell aggódni, csak lehet, hogy pár dolgot nem fog támogatni. Pl. a GTR2 elmegy a Geforce 4-es kártyán is, csak nincs maximum részletesség, alacsonyabb a felbontás. Tehát a DX10.1-ben lesz pár olyan dolog, amit a te kártyád hardveresen nem támogat. Ennyi.
Link to comment
Share on other sites

bope

A Gamestaros egyik komment tökéletes választ ad. vagy legalábbis mindenképp megnyugtatót. Nem kell kidobni a kártyámat, se másnak a 8xxx szériáját.

 

Csak a cím szenzációhajhász meg egykét újgazdag kölök élezi a nyelvét azokon akik nemrég vettek ilyen kártyát. Úgy könnyû ha anyuci meg apuci keresi meg mindenre a pénzt.... :S

Link to comment
Share on other sites

nagyjani

Az Ubisoft-nak most is van olyan játéka ami csak legalább a shader model3-at támogató hardverrel indul, különben sehogy. Ezért lehetségesnek látom, hogy lesznek olyan játékok, amelyek tényleg csak mindig a legújabb, max. 1 éves videóvezérlõvel fognak elindulni.

Link to comment
Share on other sites

Fujitsu

A 8800GTX tudtommal 150 ezer forint fölött van. Én a komplett gépemet vettem 200 ezerért...

Szerencsés az, aki ennyi pénzt bele tud invesztálni egy videókártyába. :upsz:

Link to comment
Share on other sites

DeaTHeX

Ez kb olyan lesz amikor geforce 4 el toltam a gaméknak szüksége volt a pixel & vertex shaderra...

Az anyuci apuci pénzérõl meg ne beszéljünk, mert úgy könnyû 8800GTX-et venni, amúgy meg a 8800 Ultra az azt hiszem jobb...

 

Légy szíves írj rendesebben! Üdv.:Gereby

Link to comment
Share on other sites

Abu85

A D3D10.1-gyel csak rosszul járunk legalábbis játékos szemmel nézve. Legnagyobb újításnak az MRT Blending módokat, FP32-es szûrést érdemes felhozni illetve a Cube map tömbök bevezetését. Az int16 blending támogatása pedig nem túl lényeges, inkább pótlásnak nevezném. Ebbõl az FP32-es szûrést már tudja a Radeon HD2000.

Az új Shader alapú AA móddal pedig nem hiszem, hogy jól járnak a felhasználók. Tudom, hogy szükség van egy nagyobb kompatibilítást nyújtó SBAA féle kidolgozásra, de ne feledjük, hogy ez nem hardveres eljárás, tehát a Shaderek fogják számolni. Ilyen módot használ a Radeon HD2000 család, meg is látszik, hogy gyengén teljesít az AA alkalmazásakor. Ezzel a lépéssel az MS az AMD-nek csinál jót, mert komolyan be fogják lassítani a jelenlegi GeForce8-akat, lévén mellõzni fogják a hardveres MSAA kezelését. Nem hiszem, hogy a felhasználóknak az az érdeke, hogy minimálisan jobb képminõségért drasztikus teljesítményeséssel fizessenek. Bár kétségtelen, hogy ez lesz a jövõ, így tök mindegy, hogy mennyire háborgunk ez ellen.

 

Ez a D3D10.1 gyanítom AMD-MS akció volt. Nem tartalmaz annyi és olyan mérvadó újdonságot, hogy ki kelljen adni 10.1 néven. Itt az volt a probléma, hogy gyors a GF8 az AA alatt a HD2000-ekhez képpest, így át kellett alakítani az AA eljárások menetét, hogy belassítsák a HD2000 család alá. Rendkívül geci az MS a Lost Planet féle nV akció után a nVidia-val, talán túlságosan is. Kétségtelen, hogy az új Radeon HD2000 család jobb D3D10-re, de nem kellene ennyire egyoldalúan kezelni a szabvány sorsát. Az nV-nek pedig gondolkoznia kellene mielött cselekszik, még legalább két évig ebbõl a piacból fog megélni, nem kellene tönkre tennie azt a szabványt amire jelenleg épít.

Link to comment
Share on other sites

  • 3 months later...
cinke

Sziasztok!

 

Tudnátok segíteni a következõ problémában?

Vettem egy új videokártyát (nvidia 8800 széria), amin csak DVI és HDTV kimenet van.

A TV-n viszont csak S-video és RCA bemenet van.

Adtak két kábelt hozzá:

1, Egyik végén sárga jack szerûség másik végén S-video.

2, Egyik végén HDTV (S-video + két luk) másik végén piros-kék-zöld "anya".

 

IPB kép

IPB kép

IPB kép

 

(Csatolok képet, hogy érthetõbb legyek.)

 

A boltban azt mondták, hogy a Satrunban van ilyesmi átalakító, a Saturnban azt mondták, hogy ezt nem lehet megoldani.

 

Szóval van arra mód, hogy az nvidia 8800-as kártya HDTV kimenete a TV S-video vagy RCA bemenetéhez kapcsolódjön?

 

Köszi

Link to comment
Share on other sites

Pjotr
1, Egyik végén sárga jack szerűség másik végén S-video.

Ezzel meg tudod oldani.

Link to comment
Share on other sites

cinke

Köszi a választ.

Sajna nem igazán értem.

A TV-be még csak-csak belemegy az S-video-s vége, de a sárga jack szerûség nem megy a kártyába.

Vagy fordítva gondolod?

A TV sárga RCA bementetébe menjen a sárga jack-szerûség, a kárty HDTV kimenetébe meg dugjam be az S-video-s véget?

 

Ne idézz be elõtted íródott hozzászólást! <PF>

Link to comment
Share on other sites

Pjotr

Az S-Video véget dugd be a kártyába.

Link to comment
Share on other sites

cinke

Az nem gond, hogy a zsinór S-video végû (4 fémszál) a kártyán meg HDTV a kimenet (7 luk)?

Belemegy egyébként.

 

Kipróbálni nem tudom most, mert a zsinór 1 méter, a TV meg jóval messzebb van.

Ha ez így mûködik próbáljak meg RCA sárga kábelhez hosszabbítót szereni?

Link to comment
Share on other sites

Pjotr

Így van. ;) Mûködni fog, nekem is ilyen, csak nem 8800-as kártyán, hanem 7600GS-n.

Link to comment
Share on other sites

cinke

Ez egész jól hangzik, bár azt hiszem a 7600GS-en més sima S-Video (4 luk) kimenet van, nem pedig HDTV kimenet (7 luk).

most nem tudom kipróbálni, mert nem ér el a TV-ig a zsinór.

köszi a segítséget.

Link to comment
Share on other sites

nagyjani

Mûködni fog, azért van a gyári kábel. A videókártyán egy több jelet támogató kimenet van, ami felismeri a rácsatlakoztatott gyári kábelt, és annak megfelelõ jelet ad ki.

Link to comment
Share on other sites

cinke

Akkor beszerzek egy RCA hosszabbítót.

ha így felismeri a kártya a kábelt, az lett volna szuper, ha a sima S-video kábelen keresztül is vitte volna a jelet.

Amikor (mindkét végén) S-video kábellel kötöttem össze a gépet a TV-vel csak villant egyet a TV.

(Remélem a meghatjó progi jól volt beállítva... :hááát:)

 

Légy szíves ne idézz be elõtted íródott hozzászólást! <PF>

Link to comment
Share on other sites

nagyjani

Ezt eddig nem írtad! A sima svideó kábelnek jónak kell lennie, (azt minden videókártya jól kezeli) ha a tv-n is van olyan bemenet. Ha így van, akkor lehet, hogy valamit a driverben kell állítani, hogy megtalálja a tv-t.

Link to comment
Share on other sites

  • 5 weeks later...
cinke

Nem próbáltam meg a fentieket, de utánajártam még egy kicsit, plusz egy haver segített.

 

A HDTV kimenet a kártyán tulajdonképp a komponens kimenet egybegyúrva.

A hozzá adott kábel (1-es kép) alakítja a HDTV kimenetet szabványos komponens jellé (piros kék zöld).

Ez más mint az S-video vagy RCA, nem megy S-videon belõle jel, nem érdemes összedugni.

 

Megoldás:

1-es kábelt a gépbe, van a Saturnban komponens - Scart átalakító, abba bedugni a kék-piros-zöld zsinórt, a másik vége így euro scart, arra egy Scart toldalékot (mindkét végén bemenet), arra egy Scart hosszabbítót,

az megy a TV-be.

 

4 m-es Scart hosszabbító ha elég, akkor kijön az egész 7500 Ft-ból.

:(

Ha nem, akkor 11,500.

 

Vagy vesz az ember egy DivX-es DVD lejátszót, kiírja RW lemezre a filmeket és megnézi. Az se sokkal drágább.

Edited by Gereby
Link to comment
Share on other sites

  • 4 months later...
Scrofa87

Helló! Én is egy 8800GTS(G92) tulaj vagyok. A témában csak annyit mondanék, hogy józan paraszt is látja, hogy mi a helyzet, bõvebben: Sorban jönnek az újabbnál újabb játékok és ahogy a reklám mondja a GTS még mindig tart... :D Abu85 ugyis elmondta ezen tények alapjait, én csak a felületes tényeket nézem. Eddig minden megy fullon akadozás nélkül, nemhinném, hogy ilyen gyorsan le kellene írni a 8-as szériát, még jó ideig hû társaink lesznek. :)

Link to comment
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
×
×
  • Create New...