Shader 3.0 und 2.0

- OCinside.de PC Forum
https://www.ocinside.de

-- Grafikkarten OC
https://www.forum-inside.de/forums.cgi?forum=3

--- Shader 3.0 und 2.0
https://www.forum-inside.de/topic.cgi?forum=3&topic=5949

Ein Ausdruck des Beitrags mit 56 Antworten ergibt bei 3 Antworten pro Seite ca. 19 DIN A4 Seiten. Das entspricht bei 80 g/m² ca. 94.80 Gramm Papier.


-- Veröffentlicht durch Stuzzy am 18:33 am 5. Okt. 2005

wenn wir schon beim thema HL2 sind: benutzt das SM3 oder SM2 oder sogar SM1? denn wenn es SM3 nutzen würde dann wäre meine theorie, das meine graka bei SM3 games probleme macht futsch:noidea: denn es lüppt:)
und noch zum Patchen, cracken, etc: wie bringe ich das schöne rote blut aktiviert? hab mal was gelesen, dass die das rausgenommen haben, nur bloodpatches gibbet nirgends:(


-- Veröffentlicht durch Kaffeeheld am 15:23 am 5. Okt. 2005

ok ok 3 1/2 fache

hatte eine Benchmark mit der 128 FX5500 von ca 7800 und mit der ATI 256 9600Pro ca 27500 bei Aquamark 3

MfG Falk :godlike:


-- Veröffentlicht durch N omega G am 14:44 am 5. Okt. 2005

naja 4fach ist übertrieben...;)

ati bringt keine sli karte, weil sli nv gehört! meinst wohl crossfire, ist sowas ähnliches.


-- Veröffentlicht durch Kaffeeheld am 13:54 am 5. Okt. 2005

wunderschönen Guten Tag an all ;)

bin von Geforce wieder auf ATI umgestiegen, zuletzt hatte ich mir eine FX5500 gekauft und das war ein totaler reinfall, hab mir dann die ATI 256 9600Pro geholt und von der leistung herr ist sie fast um das 4fache besser.

die Einzige geforce die mich zurzeit überzeugt ist die 6800 PCIe SLI, die 7800 hab ich noch nett ausprobiert, vielleicht bringt ATI noch eine Fette SLI PCIe Karte heraus.

Denn mit einer ATI Karte hatte ich bis heute am wenigstens probleme mit der kompatibilität von spielen. bei GF2-FX gab es immer wieder probleme. :noidea:

MfG Falk :godlike:


-- Veröffentlicht durch Beschleunigen am 10:14 am 5. Okt. 2005


Was ist so schlimm an Steam? Auf fast jedem anderen Spieleserver wirst Du auch gezwungen, die aktuellen Versionen/Patches etc. zu nutzen und Dein Spiel dahingehend durchgecheckt. Dafür kannst Du Dir bei Steam aber auch sicher sein, daß man ständig mögliche Verbesserungen einbaut und daß alle unter gleichen Bedingungen kämpfen...  


was an steam kacke ist?  alles!  ich bin mit der halflife2 dvd zu meinem bruder gefahren (wohnt 10km entfernt, ist 12 jahre jünger als ich und hat keinen i-net anschluss) - muss ich mehr sagen?

ich stimme da vollends mit vegata und notebook überein - würde ich es wollen, liefe es bei mir ohne steam und auch ohne i-net (anleitung gebe ich aber keine - ist mir zu heiss - es geht aber).


(..)

mfg
tobi

(Geändert von Beschleunigen um 10:17 am Okt. 5, 2005)


-- Veröffentlicht durch Notebook am 20:41 am 4. Okt. 2005

Kein Wunder, dass das viele zum Cracken etc. reizt - sind ja nicht nur alles ach so böse Raubkopierer, sondern auch Leute, die keine Lust auf solches Gebocke haben.


-- Veröffentlicht durch Vegeta2 am 19:10 am 4. Okt. 2005

oder was ist wenn das i net nicht geht und man will gegen bots spielen

arschkarte ^^ den man muss vorher online sein um den offline modus anzumachen!
voll dumm!!!


-- Veröffentlicht durch Notebook am 19:00 am 4. Okt. 2005

Steam ist eine Bevormundung des Spielers.
Ich habe es noch nicht wirklich hingekriegt, Half Life 1 oder 2 offline zu spielen.


-- Veröffentlicht durch kammerjaeger am 18:53 am 4. Okt. 2005

Was ist so schlimm an Steam? Auf fast jedem anderen Spieleserver wirst Du auch gezwungen, die aktuellen Versionen/Patches etc. zu nutzen und Dein Spiel dahingehend durchgecheckt. Dafür kannst Du Dir bei Steam aber auch sicher sein, daß man ständig mögliche Verbesserungen einbaut und daß alle unter gleichen Bedingungen kämpfen... ;)


-- Veröffentlicht durch Beschleunigen am 15:08 am 4. Okt. 2005


War mir ja fast klar, daß sowas kommt.
Aber man hat den NV3x-Pfad deshalb gecancelt, weil auch damit die Performance auf den meisten FX-Karten absolut mies war (lediglich mit den absoluten Top-Modellen wurden annehmbare Frameraten erreicht). Deshalb ist man einheitlich auf DX8 gegangen.



natürlich. darum wird der FX käufer auch dahingehend beschnitten, dass er nichtmal DX9 im options-menu auswählen kann. wenn es für die honks von valve so teuer war, den renderpfad zu entwickeln, warum haben sie ihn dann nicht dringelassen? angeblich war doch alles soweit takko.

-> ich mag das spiel übrigens nicht, auch wenn ich weiss, wie man steam loswird, ist es für die meisten doch eine zumutung.. unabhängig von der graka unterstützung.


(..)

mfg
tobi


-- Veröffentlicht durch kammerjaeger am 13:59 am 4. Okt. 2005


Zitat von Beschleunigen um 12:50 am Okt. 4, 2005
komisch nur, dass man den angeblich schon fertigen NV3x renderpfad wieder zugunsten eines allgemeinen DX8 pfades gekippt hat.



War mir ja fast klar, daß sowas kommt.
Aber man hat den NV3x-Pfad deshalb gecancelt, weil auch damit die Performance auf den meisten FX-Karten absolut mies war (lediglich mit den absoluten Top-Modellen wurden annehmbare Frameraten erreicht). Deshalb ist man einheitlich auf DX8 gegangen.




Zitat von Beschleunigen um 12:50 am Okt. 4, 2005

und weiter merkwürdig, dass man auf der FX, unter DX8 in den wasserreichen leveln, augenkrebs bekommt, wogegen man mit mit etwas shader-replacement, ähm.. sagen wir mal nachträglich von "fans" implementiert, eine nahezu DX8 vergleichbare performance (-1 fps) bekommt, bei mit DX9 vergleichbarer optik



Na logisch, daß Wasser mit DX8 schlecht aussieht. Ist z.B. bei FarCry mit GF4TI auch nicht anders.... ;)

Aber man kann doch Valve nicht dafür verantwortlich machen, daß ATI sich nicht an die DX9-Vorgaben hält und die FX nur 16/32bit kann statt der vorgegebenen 24bit. :blubb:
Valve hat viel dafür getan, Nvidia-Karten flüssig zum laufen zu bringen. Wenn ein paar findige Leute außerhalb der Specs und ohne Bezahlung einen besseren Weg finden, dann ist das ja auch prima. Man sollte nur nicht Valve noch mehr Programmierungskosten dafür abverlangen, daß Nvidia seine eigenen Bröltchen backt. ;)

Schaut man sich im Gegenzug aber mal Doom3 an, wo man mit ein paar kleinen Änderungen der ini-Datei auf ATI-Karten 30-40% mehr Leistung rausholen kann, ohne optisch wahrnehmbare Einbußen zu haben, dann weiß man, daß sich John Carmack seinen Abschied bei id von Nvidia hat versilbern lassen, indem er eine ATI-Handbremse eingebaut hat, die unsinnig ist und nur seinem Geldbeutel diente...

Im Vergleich dazu sind die für Nvidia notwendigen Änderungen mit Shader-Replacements für HL2 gigantisch und haben mit der ursprünglichen Engine wenig zu tun.





-- Veröffentlicht durch Beschleunigen am 12:50 am 4. Okt. 2005

komisch nur, dass man den angeblich schon fertigen NV3x renderpfad wieder zugunsten eines allgemeinen DX8 pfades gekippt hat.

und weiter merkwürdig, dass man auf der FX, unter DX8 in den wasserreichen leveln, augenkrebs bekommt, wogegen man mit mit etwas shader-replacement, ähm.. sagen wir mal nachträglich von "fans" implementiert, eine nahezu DX8 vergleichbare performance (-1 fps) bekommt, bei mit DX9 vergleichbarer optik:




den vergleichsshot hab' ich leider nicht mehr auf der HP, aber es sah genauso aus. hatte aber crappy water und  1 fps mehr auf dem counter.

wie man das HDR in HL² aktiviert, würde mich auchmal interessieren. das sollte, sofern es über pixelshader emuliert wird, ja auf jeder DX9 karte funktionieren. die ATIs haben eigentlich kein technisches alleinstellungsmerkmal, das explizit für diese funktion herhalten könnte.

gründe für "ati only" wären:
-es liefe auf der NV karte auf den FP16 ROPs doppelt so schnell, weil nur mit 8bit gerechnet wird.
-es geht nicht, weil ATI einfach die technisch bessere karte hat.
-es geht, aber nicht über die ROPs, sondern nur über die shader. was auf NV karten endlos langsam wäre..

sry.. mir fällt nichts technisches ein, was das "8bit-bandbreiten-schonende-hdr" zum ati-only feature machen würde, daher der geschriebene schrott.


(..)

mfg
tobi

(Geändert von Beschleunigen um 13:24 am Okt. 4, 2005)


-- Veröffentlicht durch kammerjaeger am 8:49 am 4. Okt. 2005


Zitat von Lucifer um 1:56 am Okt. 4, 2005

Außerdem Ist HL2 ATI Sponsort also ist ja wohl klar was man von diesen Werten halten kann *G*



Daß sich dieses Märchen immer noch so hartnäckig hält. :blubb:

Valve hat nicht ohne Grund viel Entwicklungszeit (und somit Kosten) in die Optimierung für die FX-Reihe gesteckt, nachdem man gemerkt hat, wie stark die Shader-Schwäche diese Karten ausbremst. Von "sponsored by ATI" kann ja wohl kaum eine Rede sein, nur weil die FX so schlecht abschnitt... ;)


-- Veröffentlicht durch Beomaster am 7:48 am 4. Okt. 2005

wie stellt man denn das HDR ein? ich hab das schon versucht, aber irgendwie hat das nich so richtig hingehaun...


-- Veröffentlicht durch Lucifer am 1:56 am 4. Okt. 2005

Naja HDR kommt erst inner Bewegung richtig gut rüber... als ichs hatte wollt ichs nichtmehr missen. Wobei (3tes Bild) das Level fast unspielbar war wenn man net die Taschenlampe anhatte... War halt nur grob eingebaut aber trotzdem schon beeindruckend...

Zu den Lost Coast Benchs... Seltsam das die da FSAA und AA anhatten... Geht doch angeblich nicht... Außerdem Ist HL2 ATI Sponsort also ist ja wohl klar was man von diesen Werten halten kann *G*


-- Veröffentlicht durch Beschleunigen am 14:21 am 30. Sep. 2005

super-sampling haut schon ohne HDR genug rein - wäre allerdings einen versuch wert. einiges kann man sicher über die auflösung kompensieren.

wahrscheinlich würde es so ein versuch sogar schaffen, einen unterschied zwischen AgP und PCIe herauszustellen, vorausgesetzt das PEG system hat massiv viel RAM und nicht noch 30 andere fallstricke. gleichzeitiges lesen und schreiben, sollte zumindest in der theorie hierbei einiges zu "besserer" leistung beitragen.

rein rechnerisch sollte man für FP16HDR in verbindung mit kantenglättung bei hoher auflösung (ich geh' von 1280pixeln aus, da das ATM der standard bei den meisten TFTs ist) auf karten mit 60gb/sek interner bandbreite warten. solange die karten diesen wert nicht erreichen, werden wir mit kompromissen leben müssen. entweder den weg über "weniger" HDR (8bit), so dass dann wenigstens die geringen AA modi wieder an wert gewinnen, oder durch kopplung mehrerer karten, oder der verzicht auf AA oder die paarung mit geringer auflösung und supersampling. weitere parallelisierung über die pipelines löst diesen bandbreiten-flaschenhals jedenfalls nicht.

wobei das ganze theorie-geschwafel noch wackelig ist, da es maßgeblich auf dem HDR beruht, das ich bisher ausgetestet habe. wie sich ein "sauber" (sofern dieser begriff überhaupt irgendwo in der programmierwelt passt) implementiertes HDR verhält, wird abzuwarten bleiben. IMO steht ausser FC ja nichtsoviel HDR-taugliches zur verfügung, als dass man es hinreichend testen könnte. der aufwand wird auch um einiges steigen, da man das tonemapping schlecht bis gar nicht auf jpg's festhalten kann. da müsste man schon animierte .gif's für die webseiten erstellen..


(..)

mfg
tobi

(Geändert von Beschleunigen um 12:29 am Okt. 4, 2005)


-- Veröffentlicht durch BUG am 13:50 am 30. Sep. 2005


Zitat von Beschleunigen um 10:25 am Sep. 30, 2005
..dass HDR nicht mit AA funktioniert, resultiert übrigens nicht aus design-defiziten, sondern daraus, dass keine bandbreite mehr zur verfügung steht. zumindest in der grottigen HDR implementierung bei FC.

..nich unbedingt, FSAA mit SuperSampling wäre durchaus möglich, allerdings fehlt es dann wirklich an Bandbreite für Screenshots würde es aber reichen. ;)

cu
BUG


-- Veröffentlicht durch Vegeta2 am 12:32 am 30. Sep. 2005

naja hab das ati tray tool net mehr zum download gefunden xD
atiodngov356beta
hab die treiber installiert, da waren die auch dabei, nun funzt alles wieda :D

thx for help


-- Veröffentlicht durch Judgi am 11:02 am 30. Sep. 2005

Also ich bin ja ein Fan von Glatten Kanten ohne Treppenstufen...von daher bevorzuge ich das erste Bild mit 4xAA - zumal ich auch die hell/dunkel-Übergänge im 2ten Bild zu übertrieben finde.
Also rein qualitätstechnisch finde ich das erste Bild hochwertiger - das 2te is mir zu übertrieben dunkel und "unsauber".... aber du sagtest ja schon , das die Implementierung hier recht grottig ausfiel....
Naja bei CS:S kann man inzwischen in den Grafik-Settings HDR anwählen...mal sehen wie es dann da wirkt, wenn die ersten Maps/bzw. LostCoast  erscheinen die das unterstützen.....


-- Veröffentlicht durch Beschleunigen am 10:25 am 30. Sep. 2005

ich konnte mir in farcry immer aussuchen, ob ich es so:






ohne HDR 80fps, aber mit 4xMSAA

oder so:



mit HDR 65fps, und ohne MSAA


spielen wollte. gefallen hat mir beides. 80frames mit 4xAA oder die knapp über die hälfte mit HDR ohne AA.. dass es weniger sein muss, ist logisch, da wg. der doppelten bitzahl natürlich auch die bandbreiten-anforderung steigt. dass HDR nicht mit AA funktioniert, resultiert übrigens nicht aus design-defiziten, sondern daraus, dass keine bandbreite mehr zur verfügung steht. zumindest in der grottigen HDR implementierung bei FC.

kann man halten, wie man will. ein mündiger bürger kann sogar selbst entscheiden, was ihm besser gefällt. mir speziell natürlich die HDR variante ;) zu langsam isses jedenfalls nicht. das overbrighting wäre in vergleichbarer optik auch mit shader2 zu realisieren, allerdings nicht das elementar wichtige tonemapping für die iris-simulation.

zum thema shader und dessen programmierung kann man in der noch bis zum 4.10. aktuellen c't ein nettes beispiel respektive einen nachvollziehbaren artikel finden. wer das dann nachgemacht oder kapiert hat, wird schnell die vorzüge von shader3 zu verstehen wissen.

siehe c't 20/2005 s. 200-211


(..)

mfg
tobi

(Geändert von Beschleunigen um 10:39 am Sep. 30, 2005)


-- Veröffentlicht durch Live1982 am 9:40 am 30. Sep. 2005


Zitat von Vegeta2 um 0:33 am Sep. 30, 2005
auf diesen bild sieht man mein problem, open gl geht net einzustellen o.O'''

und was bitte auf deutsch o.O? :noidea:



Hast du evtl. bei der Installation "hide OpenGL Page" aktiviert? Installier es am besten nochmal neu, dann müsste es gehen :thumb:


-- Veröffentlicht durch BUG am 0:37 am 30. Sep. 2005


Zitat von wipeout um 0:10 am Sep. 30, 2005
also ich glaub der cmputerbase mehr wie irgendwelchen leuten die meinen was zu wissen

ich hab damals sm2.0b in FC aktiviert und hatte die selbe grafik die angeblich nur auf ner 6800 mit sm3.0 zustande kommt
ich denke einfach nvidia hat wie kammerjäger schon sagte hellere effekte drin, und das halten vieleicht manche für nvidia sm3.0 only, oder sie habens vieleicht nicht gepeilt wie man den 2.0b bei farcry für ati aktiviert
war damals auch garnicht so leicht zu 1.2

mir auch egal, ich kauf die karte die mir am ende nen besseren nutzen verspricht, da isses mir egal obs dann ne ati oder ne nvidia is...

..also FarCry zaubert mit dem SM3.0 Shadern genau das gleiche auf den Schrim wie ATI mit 2.0b. Einige Shader lassen sich aber mit SM3.0 schneller berechnen als mit 2.0b. Das kann die X800 aber durch den höheren Takt meist wieder ausgleichen.

Bei FarCry kann man maximal HDR zu schallten was bedingt durch die Implementierung nur auf der aktuellen nVidia Hardware möglich ist. Wirklich spielbar mit HDR wirds aber imho erst mit zwei 6800GT SLI oder einer 7800GT(x). "Einer" 6800GT/Ultra geht bei FarCry mit HDR viel zu schnell die Puste aus.

Weiterer "Nachteil" vom HDR bei FarCry ist, dass man kein MultiSampling FSAA nutzen kann (gibt sonnst nur Bildfehler). :(

cu
BUG

(Geändert von BUG um 0:40 am Sep. 30, 2005)


-- Veröffentlicht durch Vegeta2 am 0:33 am 30. Sep. 2005

auf diesen bild sieht man mein problem, open gl geht net einzustellen o.O'''

und was bitte auf deutsch o.O? :noidea:


-- Veröffentlicht durch wipeout am 0:10 am 30. Sep. 2005

also ich glaub der cmputerbase mehr wie irgendwelchen leuten die meinen was zu wissen

ich hab damals sm2.0b in FC aktiviert und hatte die selbe grafik die angeblich nur auf ner 6800 mit sm3.0 zustande kommt
ich denke einfach nvidia hat wie kammerjäger schon sagte hellere effekte drin, und das halten vieleicht manche für nvidia sm3.0 only, oder sie habens vieleicht nicht gepeilt wie man den 2.0b bei farcry für ati aktiviert
war damals auch garnicht so leicht zu 1.2

mir auch egal, ich kauf die karte die mir am ende nen besseren nutzen verspricht, da isses mir egal obs dann ne ati oder ne nvidia is...





-- Veröffentlicht durch DexterDX1 am 23:47 am 29. Sep. 2005


Vielleicht mag es ja auch am Monitor liegen. Wer mit einer krüppeligen alten Röhre statt eines Flachbildschirmes Far Cry zockt, sieht sicher weniger.


Es lässt sich aber auch behaupten:
Wer mit einem tollen Qualitäts-CRT zockt, sieht "mehr" als mit einem 08/15-Office-LCD.

Oder auch: Malus und Pyrus sollte man nur untereinander vergleichen, nicht miteinander, wobei es hier ausnahmsweise um Qualitätsmerkmale (krüppelig alt, tolle Qualität) geht, nicht um Objekte (CRT, LCD).


-- Veröffentlicht durch Notebook am 23:42 am 29. Sep. 2005

Dann muß das halt jeder für sich entscheiden. Jedenfalls sieht Far Cry für mich und auch andere mit SM 3.0 einfach schöner aus.


-- Veröffentlicht durch kammerjaeger am 23:37 am 29. Sep. 2005

Ich glaub, daß ich auf meinem TFT sehr wohl in der Lage bin, Unterschiede zu sehen. Und auch ich hab schon eine 6xxx mit FarCry gesehen. Wie gesagt wirkt es nur etwas überbelichtet, wirklich spürbar schöner finde ich es nicht. ;)


-- Veröffentlicht durch Notebook am 23:16 am 29. Sep. 2005

Ja dann pack dir doch mal zuerst z.B. eine X800 in den Rechner, teste Far Cry an, und anschließend eine Geforce 6xxx mit SM 3.0 .
Ich habe es jedenfalls mit eigenen Augen gesehen und Far Cry sah auf meiner Geforce 6800 Go jedenfalls viel brillanter aus als auf meiner X800 XT PE und der Mobility Radeon 9800 meines alten Notebooks. Andere Leute können das ebenfalls bestätigen.
Vielleicht mag es ja auch am Monitor liegen. Wer mit einer krüppeligen alten Röhre statt eines Flachbildschirmes Far Cry zockt, sieht sicher weniger.
Dass man mit simplen Gamma-Einstellungen etc. ein viel echter wirkendes Wasser hinkriegt, bezweifle ich sehr stark.
Selbst wenn nicht alle Details am Anschlag waren, sah es viel besser aus als auf meiner X800, obwohl die problemlos alles auf höchster Einstellung packt.

Jedenfalls können CB und alle anderen Skeptiker sich wissenschaftliche Abhandlugen darüber schenken und sollen das lieber mal selber testen. Ein "echtes" Spiel sagt sowieso mehr als irgendwelche Screenshots.

@Vegeta2:
Gibt es den Beitrag auch auf Deutsch?
Und was soll jetzt dieses perverse Manga-Bild da sagen? Ist ja ekelhaft...


-- Veröffentlicht durch Vegeta2 am 0:46 am 29. Sep. 2005

ja eigentlich unter 3d o.O'''
abba da isses nicht o.O'''

aso ihr mit euern hdr bla bla

guckt far cry instincs auf xbox an o.O
hammer grafik für das alte ding mit na gf3 ähnlichen gra ka..
wolltsch nur mal sagen
die hdr "effekte" sehen supa aus, sonst auch so viel mehr effekte als aufm pc, naja schauts an!!!

ok auflösung kann nicht mithalten ;)= und da ist viel fake, aber sieht halt geil aus!!!


-- Veröffentlicht durch Judgi am 23:50 am 28. Sep. 2005

Da haste wohl Recht - Kammerjäger ;)
Aber dennoch fänd ich z.B. WOW um einiges geiler, wenn es "ingame" so aussehen würde wie im zughörigen Video oder wie im Natuertest von 3DMK05...weil dadurch eigentlich erst die entsprechende Athmosphäre entsteht.
Die ganzen Kleinigkeiten wie HDR und Shader XY sind da nur kleine Meilensteine auf dem Weg zur realitätsnahen/getreuen Darstellung - und die sind in absehbarer Zeit sowieso überholt/übertroffen/verbessert!
Und n Heady kann bei passender Optik auch sehr beeindruckend sein....auch wenns der eigene ist:lol:


-- Veröffentlicht durch kammerjaeger am 21:57 am 28. Sep. 2005


Zitat von Notebook um 21:16 am Sep. 28, 2005

CB erzählt da Quark. Wer Far Cry mal mit SM 3.0 gesehen hat, weiß, dass es definitiv besser aussieht.



Komisch, daß auch die Bilder dort eine andere Sprache sprechen... ;)
Oder meinst Du im Vergleich zu einer DX8-Karte???

Shader3.0 mag in einigen Situationen zwar ganz nette Effekte erzielen, ob man das als schön erachtet, ist teilweise Geschmacksache. Ich finde, daß es oftmals einfach nur überbelichtet wirkt. Wenn einem das gefällt, dann kann man einen vergleichbaren Effekt i.d.R. auch über Settings wie Farbwerte, Gamma, Helligkeit + Kontrast erzielen.
FarCry sieht mit jeder DX9-Karte gut aus, SM3.0 ist in meinen Augen eindeutig verzichtbar!


Btw.: Ich kann ohnehin nicht verstehen, warum sich teilweise über nicht wahrnehmbare Details in Spielen gestritten wird, als wären es echte Quantensprünge, ohne die man keinerlei Spielspaß haben könnte... :blubb:
Ich spiele Computer/Konsolenspiele schon, seit Pelota (Tennis-Variante) als erstes Konsolenspiel den Fernseher eroberte und man am C64 noch mit Datasette gearbeitet hat.
Früher sahen PC-Spiele bei weitem nicht so gut aus wie heute, aber Spaß haben sie dennoch gemacht. Wer sich daher an kleinsten Details aufhängt, der hat scheinbar nicht begriffen, daß es nicht um den Oscar für Special-Effects geht, sondern daß doch eigentlich der Spielspaß im Vordergrund stehen sollte.
Gut zu sehen ist dies u.a. an CoD2, wovon ih heute die Demo durchgespielt hab. Die Texturen z.B. sind weit hinter heutigen technischen Möglichkeiten zurückgeblieben. Trotzdem kommt da ein Titel auf uns zu, der eindeutig seinen Platz in den Top10 finden wird, auch ohne SM3.0 & Co.
Warum also soll man sich über Details streiten, die absolut belanglos sind? Habt Ihr wirklich nichts Besseres zu tun???  :blubb:
Freut Euch lieber, wenn ein Spiel Spaß macht und dabei auch noch annehmbar gut aussieht und nicht nur auf absoluter High-End-Hardware läuft. Den Rest sollte man denen überlassen, die eigentlich nur über Spiele reden wollen, statt sie zu spielen. Denn ich z.B. stelle mich im Spiel nicht hin und sehe mir an, wie sauber ein Texturfilter arbeitet, während mir der Gegner einen Kopfschuß verpasst.... :lol:


-- Veröffentlicht durch Notebook am 21:16 am 28. Sep. 2005


Zitat von wipeout um 1:59 am Sep. 28, 2005
auf computerbase war auch mal was wegen sm2.0 und sm3.0

die haben geschrieben das es keinen unterschied zur darstellung zwischen den beiden gibt, nur das halt der sm3.0 besser rechnet aber dennoch nicht soviel power rausholt das man hier sagen könnte das sm3.0 ein muss für jeden wäre...


hier der link

hf



CB erzählt da Quark. Wer Far Cry mal mit SM 3.0 gesehen hat, weiß, dass es definitiv besser aussieht.

@Vegeta2:
Keine Auswahlmöglichkeit für OpenGL?:noidea:
Kann nicht sein, müßte direkt unter Direct 3D sein...


-- Veröffentlicht durch Vegeta2 am 18:51 am 28. Sep. 2005


Zitat von Vegeta2 um 0:19 am Sep. 28, 2005
schonmal das cry tec direct x 10 movie gesehn?
PFEIFT auf hdr, sm 4 ist geil :thumb:
=))))))
einfach geil^^ brauch keine sm3 karte ;) sm4 muss her :D


(\_/)
(O.o)
(> <)This is Bunny. Copy Bunny into your signature to help him on his way to world domination.

das ist auch geil xD

und kann mir nebenbei einer erklären wieso bei meinem ati tray tool ich kein opengl einstellen kann o.O?



helpt mal einer :D oda sagt ma wie ich open gl einstellen kann bei original treibern ^^ weil bei den omega driver hackt mein windows immer so doll :((((((


-- Veröffentlicht durch wipeout am 1:59 am 28. Sep. 2005

auf computerbase war auch mal was wegen sm2.0 und sm3.0

die haben geschrieben das es keinen unterschied zur darstellung zwischen den beiden gibt, nur das halt der sm3.0 besser rechnet aber dennoch nicht soviel power rausholt das man hier sagen könnte das sm3.0 ein muss für jeden wäre...


hier der link

hf


-- Veröffentlicht durch Vegeta2 am 0:19 am 28. Sep. 2005

schonmal das cry tec direct x 10 movie gesehn?
PFEIFT auf hdr, sm 4 ist geil :thumb:
=))))))
einfach geil^^ brauch keine sm3 karte ;) sm4 muss her :D


(\_/)
(O.o)
(> <)This is Bunny. Copy Bunny into your signature to help him on his way to world domination.

das ist auch geil xD

und kann mir nebenbei einer erklären wieso bei meinem ati tray tool ich kein opengl einstellen kann o.O?


-- Veröffentlicht durch Notebook am 22:56 am 27. Sep. 2005

Also Far Cry sieht mit SM 3.0 wirklich hammergeil aus...
Geh mal an den Strand und schau dir das Wasser an, das ist ein echter "Wow!"-Effekt.

@skynet:
Bitte geh doch endlich mal auf einem U-Bahn-Gleis spazieren, zum Wohle aller. :bonk:


-- Veröffentlicht durch BDKMPSS am 20:27 am 22. Sep. 2005

was wollen nur alle immer mit HDR?

wenn das erste bild immer ohne und das zweite mit HDR ist, finde ich HDR überaus hässlich und nicht viel realistischer als ohne. vorallen beim letzten bild. einfach nur :gulp:


-- Veröffentlicht durch AssassinWarlord am 19:57 am 22. Sep. 2005

wuste ichs doch, das eine S3 graka des hatt, aber ich wuste nicht mehr genau welche :biglol:


-- Veröffentlicht durch kammerjaeger am 8:42 am 22. Sep. 2005

Der Nachfolger vom DeltaChrome soll es haben, der jetzt bald in den Handel kommt. ;)


-- Veröffentlicht durch AssassinWarlord am 7:04 am 22. Sep. 2005

wer sagt den das nVidia die einzigsten sind, die echtes HDR haben? was ist mit der 3dLabs WildCat Realizm Serie? :noidea: ob die S3 DeltaChrome auch HDR hatt, weis ich nicht mehr so genau :noidea:


-- Veröffentlicht durch BUG am 0:39 am 22. Sep. 2005


Zitat von skynet um 0:20 am Sep. 22, 2005
p.s. falls du fragen dazu hast, lasse es dir von demirug erklären, der lacht dich erstmal aus und pinkelt dir ins gesicht! :lolaway:

..das mag wohl so sein, allerdings sieht er das aus einem komplett anderen Sichtpunkt da er (ich nenns mal) Beruflich damit zu tun hat und wert auf die Genauigkeit legt wenn er damit "rumspielt". Des Weiteren nennt er das NV4x / G7x HDR auch nur "erstmal ausreichend" was auf keinen Fall mit "Perfect" oder "100%tig" verwechselt werden sollte. ;)

Was mich aber mal interesieren würd, ob bei dem HL2 HDR Bench alle Karten den gleichen HDR Modus haben, oder ob der NV40 / G70 ihren "eigenen" HDR Modus nutzen mussten. Aber vermutlich wurden alle Karten im "ATI-HDR" Modus gebencht da ja sonnst kein FSAA möglich wäre was ja beim Bench angeblich auf 2x stand + 8xAF.

cu
BUG

(Geändert von BUG um 0:40 am Sep. 22, 2005)


-- Veröffentlicht durch kammerjaeger am 0:34 am 22. Sep. 2005


Zitat von skynet um 0:20 am Sep. 22, 2005

dir ist aber auch aufgefallen das die eine karte 220€ kostet, und die andere 450€? :noidea:



:blubb:
Ach ja? X850XT für 275,-

Insofern finde ich die >13% Performance-Plus dem Preis mehr als angemessen!


Zum Rest sag ich jetzt mal nix, denn die Diskussion wurde auch hier schon zu Genüge geführt, da kann demirug so lange schiffen gehen wie er will.... ;)




-- Veröffentlicht durch skynet am 0:20 am 22. Sep. 2005


Zitat von kammerjaeger um 0:09 am Sep. 22, 2005

:progen:
Wer hätte das gedacht, daß das "emulierte" und FSAA-fähige "ATI-HDR" weniger einbricht als die 6800GT? :lol:

Bingo! Ein Schlag ins Gesicht all derer, die das "Pseudo-HDR" bei der 6xxx immer in den Himmel gelobt haben...  ;)





dir ist aber auch aufgefallen das die eine karte 220€ kostet, und die andere 450€? :noidea:


und NV pdeudo-hdr... ah-ja... NV hat als einziger karten die ECHTES HDR haben, und vorm R520 wird sich das auch net ändern! :kidding:

p.s. falls du fragen dazu hast, lasse es dir von demirug erklären, der lacht dich erstmal aus und pinkelt dir ins gesicht! :lolaway:


-- Veröffentlicht durch kammerjaeger am 0:09 am 22. Sep. 2005


Zitat von BUG um 23:52 am Sep. 21, 2005

http://www.bit-tech.net/gaming/2005/09/21/lost_coast_benchmark/2.html



:progen:
Wer hätte das gedacht, daß das "emulierte" und FSAA-fähige "ATI-HDR" weniger einbricht als die 6800GT? :lol:

Bingo! Ein Schlag ins Gesicht all derer, die das "Pseudo-HDR" bei der 6xxx immer in den Himmel gelobt haben...  ;)


-- Veröffentlicht durch BUG am 23:52 am 21. Sep. 2005


Zitat von skynet um 21:50 am Sep. 21, 2005
ATI kann nichtmal annähernd echtes HDR! Was ATI macht, ist einfach eine emulation über die pixelshader! Aus dem grund ist es bei ATI ja auch so grottig langsam und ungenau! :)

wenn, dann sollte man es schon halbwegs genau erklären. ;)

..naja besonders "genau" is deine Erklärung auch nicht. ;) Desweiteren ist es auf ATI nicht grottig langsam, es ist nur etwas langsamer als ohne "HDR".  Dafür das es bei ATI über die PixelShader realisiert wird sieht es imho recht anständig aus, man erkennt kaum unterschiede zur nV Lösung (jedenfals bei den bissherigen Spielen) desweiteren besteht die Möglichkeit FSAA nutzen. :)

Es war auch nich mein Ziel HDR genau zu erklären, wer da näheres drüber wissen möchte, brauch sich nur im 3D Center umsehen, auf copy & paste habe ich gerade keine Lust zumale das Thema recht umfang reich ist/sein kann. ;)

Edit: http://www.bit-tech.net/content_images/lost_coast_benchmark/hdr_cube_map_bloom.jpg

..sieht doch ganz nett aus für ich nenn es mal "ATI-HDR". ;)

http://www.bit-tech.net/gaming/2005/09/21/lost_coast_benchmark/2.html

cu
BUG

(Geändert von BUG um 0:01 am Sep. 22, 2005)


-- Veröffentlicht durch Stuzzy am 23:07 am 21. Sep. 2005

THX:)


-- Veröffentlicht durch AssassinWarlord am 23:03 am 21. Sep. 2005

so, bilder stehen wieder :D


-- Veröffentlicht durch skynet am 21:50 am 21. Sep. 2005


Zitat von BUG um 21:11 am Sep. 21, 2005
..naja, also die größte Neuerung ggü PS2.0x ist Dynamisches Branching (Spünge innerhalb eines Shaders). Allerdings sind die heutigen PS3.0 Karten für sowas noch zu lagsam, beim G70 könnte es sich ggf schon lohnen, bei der 6800U und kleiner eher nich, die Karten werden dadurch meist sogar leicht langsamer. :)

PixelShader 3.0 hat rein garnix mit HDR zu tun, dass der NV40 und höher HDR beherscht hat andere Gründe, auf der aktuellen ATI Hardware ist auch "echtes" HDR möglich (siehe neusten Splinter Cell Patch), wenn auch mit ein paar Einschränkungen und etwas weniger Genauigkeit (nVidia 16 Bit, ATI ~10Bit).

Nachteil von "echten" HDR, es ist auf heutigen Karten kein FSAA möglich! :(

cu
BUG




ATI kann nichtmal annähernd echtes HDR!
was ATI macht, ist einfach eine emulation über die pixelshader!

aus dem grund ist es bei ATI ja auch so grottig langsam und ungenau! :)


wenn, dann sollte man es schon halbwegs genau erklären. ;)


-- Veröffentlicht durch Stuzzy am 21:32 am 21. Sep. 2005


Zitat von Stuzzy um 21:57 am Sep. 21, 2005
pic gehen nicht:(


kann die mal so machen, dass man auch was erkennt? ich hab nur son käschen mit nem roten X drin:noidea:


-- Veröffentlicht durch Charon am 21:30 am 21. Sep. 2005


Zitat von BUG um 21:11 am Sep. 21, 2005


PixelShader 3.0 hat rein garnix mit HDR zu tun, dass der NV40 und höher HDR beherscht hat andere Gründe, auf der aktuellen ATI Hardware ist auch "echtes" HDR möglich (siehe neusten Splinter Cell Patch), wenn auch mit ein paar Einschränkungen und etwas weniger Genauigkeit (nVidia 16 Bit, ATI ~10Bit).

cu
BUG

(Geändert von BUG um 21:13 am Sep. 21, 2005)



:thumb::thumb: wenigstens einer mit ahnung


-- Veröffentlicht durch BUG am 21:11 am 21. Sep. 2005

..naja, also die größte Neuerung ggü PS2.0x ist Dynamisches Branching (Spünge innerhalb eines Shaders). Allerdings sind die heutigen PS3.0 Karten für sowas noch zu lagsam, beim G70 könnte es sich ggf schon lohnen, bei der 6800U und kleiner eher nich, die Karten werden dadurch meist sogar leicht langsamer. :)

PixelShader 3.0 hat rein garnix mit HDR zu tun, dass der NV40 und höher HDR beherscht hat andere Gründe, auf der aktuellen ATI Hardware ist auch "echtes" HDR möglich (siehe neusten Splinter Cell Patch), wenn auch mit ein paar Einschränkungen und etwas weniger Genauigkeit (nVidia FP16, ATI ~FP10).

Nachteil von "echten" HDR, es ist auf heutigen Karten kein FSAA möglich! :(

cu
BUG

(Geändert von BUG um 22:47 am Sep. 21, 2005)


-- Veröffentlicht durch faulpelz am 21:09 am 21. Sep. 2005

naja ich finde diese effekte was übertrieben besonders die letzten beiden bilder ist finde ich etwas überzogen


-- Veröffentlicht durch Stuzzy am 20:57 am 21. Sep. 2005

pic gehen nicht:(


-- Veröffentlicht durch AssassinWarlord am 20:07 am 21. Sep. 2005

doch dcoh...mit Pixelshader v.3.0 hast du einen Hardware HDR berechnung, und noch ein paar gleinigkeiten ;) so hast du z.B. in FarCry ab der version 1.3 und mit ner GeForce ab 6xxxer reihe (also die PS3 unterstützen) so übelste geile blendeffekte wenn du in die sonne schaust, oder in eine helle lampe :)











(Geändert von AssassinWarlord um 23:02 am Sep. 21, 2005)


-- Veröffentlicht durch Live1982 am 20:02 am 21. Sep. 2005

Optisch gibts keine Unterschiede... glaub ich! :noidea:


-- Veröffentlicht durch Clawhammer754 am 19:50 am 21. Sep. 2005

Moin,

hab mal ne Frage :

Wo is der Unterschied zwischen 3.0 und 2.0 ??

In der PC-Games stand mal, dass mit shader 3.0 bessere Effekte möglich sind - sprich realistischere Spiegelungen bei nassen Felswänden (Splinter Cell - Chaostheory z.B.)

Jetzt soll aber LostCoast genauso mit 3.0 wie mit 2.0 aussehen.

Also wo zur Hölle ist der verdammte Unterschied ??

Mit freundlichen Grüßen

Klohammer


OCinside.de PC Forum
© 2001 - 2024 www.ocinside.de