D-FENCE Geschrieben: 24. November 2006 #1 Meldung Teilen Geschrieben: 24. November 2006 Manche haben evt schon von Crysis gehört, dem nachfolger von Farcry was alles dagewesene in den schatten stellen soll. Jetz haben die entwickler nen netten vergleich gemacht, es wurden original Landschaften in der Crysis engine umgesezt um zu zeigen wie Realitätsnah die Grafik ist, ach ja das ganze geht unter Direct X10 und Windows Vista will aber nicht wissen was fürn nen Hammer rechner die da haben :) So und nun lass ich bilder für sich sprechen http://img.extreme-players.de/gallery/973/18375_07_06_2006.jpghttp://img.extreme-players.de/gallery/973/18375_07_06_2006.jpghttp://pics.computerbase.de/1/5/0/8/5/30.jpghttp://pics.computerbase.de/1/5/0/8/5/34.jpghttp://pics.computerbase.de/1/5/0/8/5/33.jpghttp://pics.computerbase.de/1/5/0/8/5/32.jpghttp://pics.computerbase.de/1/5/0/8/5/2.jpghttp://pics.computerbase.de/1/5/0/8/5/5.jpghttp://pics.computerbase.de/1/5/0/8/5/6.jpghttp://pics.computerbase.de/1/5/0/8/5/8.jpghttp://pics.computerbase.de/1/5/0/8/5/12.jpghttp://pics.computerbase.de/1/5/0/8/5/15.jpghttp://pics.computerbase.de/1/5/0/8/5/18.jpg Das nenn ich mal ne Hammer grafik, wobei es schon ein wenig erschreckend is, und man muss bedenken das sind keine vorgerenderten bilder sondern Echtzeit gerendert, d.h sogesehen ingame Grafik. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
*Sascha* Geschrieben: 24. November 2006 #2 Meldung Teilen Geschrieben: 24. November 2006 Wow sieht ja mal Geil aus aber wie du schon sagtest "was die wohl fürn Rechner haben" Da werden die Ottonormalzocker wohl ein Prob haben mit ihrne Rechnern sone Grafik hin zu zaubern. Ich zb. werde mit meinem Athlon 2,4 mit 1GB Ram einer Geforce4 TI4200 und Windoof2000 bestimmt schnell die Grenzen erreicht haben Zitieren Du musst ein bösartiger Verschwörer sein, wenn du hier das Gegenteil schön redest Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
D-FENCE Geschrieben: 24. November 2006 Autor #3 Meldung Teilen Geschrieben: 24. November 2006 mit ner 4Ti laufen ja heut schon wenige Games, da die 4TI nur DX8.1 kann, wirst du erst garnicht in den genuss kommen leider, wie gesagt das spiel is auf DX10 programiert und eigentlich gibbet nur eine Grafikkarte die vor 2 wochen rausgekommen ist, die DX10 kann, ist die Geforce 8800GTX 1.4GHZ Chiptackt, 1.8GHz ramtakt, 786mb Ram unklusive 2ter CPU die alle Physikberechnungen erledigt. Daher die krumme Ram zahl, 512mb für grafik und 256mb für die Physikeinheit. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
*Sascha* Geschrieben: 24. November 2006 #4 Meldung Teilen Geschrieben: 24. November 2006 Naja dann sollen sie sich das Spiel mal in den Po schieben *gggg* Sorry aber bis jetzt konnte ich einiges mit meiner TI spielen und was nicht geht leb ich wohl mit. Kann mir ja nicht für 4 Rechner solche Grafikkarten kaufen oder zb. wegen Battlefield auf XP umsteigen. Egal ich denke mal es gibt schlimmeres und da eh ich fast nur CS,CSS,UT oder Autorennen spiele werd ich mich da net drüber ärgern Zitieren Du musst ein bösartiger Verschwörer sein, wenn du hier das Gegenteil schön redest Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
Fuddy Geschrieben: 24. November 2006 #5 Meldung Teilen Geschrieben: 24. November 2006 Dave, meine Güte ist das geil!!! Brauch ich also doch bald nen neuen Prozessor und die zweite SLI-Karte Zitieren GrußMarc Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
Stefan-E30 Geschrieben: 24. November 2006 #6 Meldung Teilen Geschrieben: 24. November 2006 hammer hammer geil....... :sabber:das is ja echt der wahnsinn........... also so nen rechner will ich auch haben... Zitieren Cinis Cinerem, Pulvis ad Pulverum.Cum diabolus regit, omnia licent Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
D-FENCE Geschrieben: 24. November 2006 Autor #7 Meldung Teilen Geschrieben: 24. November 2006 höhö jo Fuddy du müstest dann auf AMD Quad core umrüsten und 2 8800GTX in den Rechner kaufen, aber geht ja alles da ich zukunftssicher geplant hab Ich bin auch schon sehr sehr gespannt auf die erste offizielle Demo Falls ihr das mal alles in bewegung sehen wollt, hier nen paar offizelle Videos Achtung 88mb groß http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=getit&lid=56 http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=getit&lid=105 Also das sieht wirklich sehr viel versprechend aus :) Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
D-FENCE Geschrieben: 24. November 2006 Autor #8 Meldung Teilen Geschrieben: 24. November 2006 So und noch nen Video is zwar 300MB groß aber da sieht man mal wie abartig die grafik ist wärend dem Spielen.http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=109&ttitle=GameSpot_-_HDTV/HQ_-_Cevat_Yerli_Interview_-_WMV Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
the_alien Geschrieben: 24. November 2006 #9 Meldung Teilen Geschrieben: 24. November 2006 Crysis sieht schon verdammt lecker aus, auch wenns wir FarCry dazu neigt teilweise wie Plastik auszusehen Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
D-FENCE Geschrieben: 24. November 2006 Autor #10 Meldung Teilen Geschrieben: 24. November 2006 Das mim Plastiklook liegt am Monitor Ham nicht genug kontrast und Farbabstufung gescheit darzustellen, z.b HDR Rendering ist im Prinzip aufn normalen Monitor nich möglich, das was ma unter HDR versteht is nen pseudo effekt :) Allerdings wird Crysis sich da abheben. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
M3ikl Geschrieben: 24. November 2006 #11 Meldung Teilen Geschrieben: 24. November 2006 Hi, ich finds schade dass DX 10 nur für Vista kommen wird.Denn somit werde ich wohl lange nicht in den Genuss so einer Grafik kommen.Ich seh nicht ein nur wegen bisschen aufgebohrter Oberfläche und haufenweise Hintertürchen und Automatismen die ich nicht mag Geld zum Fenster rauszuwerfen. Gruß, M3ikl Zitieren http://www.sloganizer.net/style3,M3ikl.png Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
Stefan-E30 Geschrieben: 24. November 2006 #12 Meldung Teilen Geschrieben: 24. November 2006 schon schön anzuschaun und anzuhören, aber bis sich einer von uns das leisten kann is die technik schon wieder veraltet.... :rot: Zitieren Cinis Cinerem, Pulvis ad Pulverum.Cum diabolus regit, omnia licent Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
LatteBMW Geschrieben: 24. November 2006 #13 Meldung Teilen Geschrieben: 24. November 2006 Also das Speil kommt auf jeden Fall aufn Markt. Kommt gerade ein bericht auf Pro7, haben mit den Machern gelabbert. Der Chef meinte "Wenn das Spiel in Deutschland verboten wird, wandern wir ins Ausland aus und verkaufen es dort" 20 Millionen haben die in das Game reingebuttert. Da bin ich ja mal gespannt Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
D-FENCE Geschrieben: 24. November 2006 Autor #14 Meldung Teilen Geschrieben: 24. November 2006 Rauskommen wirds das steht auser frage, schon allein wegen der cooperation mit Nvidia, schlieslich is Crysis auch der Startschuss der neuen Grafikkarten Technologie und da liegt weit mehr als nur 20 millionen dahinter denk ich mal. Für Deutsche spieleentwickler is das aktuelle thema schon Kritisch. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
the_alien Geschrieben: 25. November 2006 #15 Meldung Teilen Geschrieben: 25. November 2006 mit ner 4Ti laufen ja heut schon wenige Games, da die 4TI nur DX8.1 kann, wirst du erst garnicht in den genuss kommen leider, wie gesagt das spiel is auf DX10 programiert und eigentlich gibbet nur eine Grafikkarte die vor 2 wochen rausgekommen ist, die DX10 kann, ist die Geforce 8800GTX 1.4GHZ Chiptackt, 1.8GHz ramtakt, 786mb Ram unklusive 2ter CPU die alle Physikberechnungen erledigt. Daher die krumme Ram zahl, 512mb für grafik und 256mb für die Physikeinheit. Hab gerade eine DinA4 Seite Bericht über die 8800 GTX gelesen in der c't und da stand nix von einer Physik CPU. Und zum Speicher steht da: "Der Speicher fasst üppige 768 MByte, ist 900 MHz schnell und über einen 384 Bit breiten Bus angebunden. Diese krummen Werte entstehen, weil NVidia zwälf GDDR3-Speicherchips mit jeweils 512MBit Kapazität und 32 Datenleitungen um den Grafikchip anordnet." Also alles für die GPU. Nicht böse sein, aber irgendwie glaub ich der Zeitschrift etwas mehr Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
D-FENCE Geschrieben: 25. November 2006 Autor #16 Meldung Teilen Geschrieben: 25. November 2006 Da steht nix drin weil die Physik engine in der GPU drinne is nicht umsonst hat das teil 681 Millionen Transistoren und hat damit weit aus mehr als als ne CPU, liegt zwar an den 128 unified shader. Der Tackt von 900mhz stimmt das der richtige takt, aber der efektive DDR tackt is das doppelte, daher der name DDR Double Datet Rata, kurz um 900 mal 2 geben die von mir besagten 1.8ghz. wenn du richtig gelesen hast, dann hast du erkannt das diese 128 unifid shaders bei nvidia Steam prozessoren genannt werden, diese sind für Vertex und Pixelshader programierbar, UND diese können ebenso für Physikberechnungen genuzt werden !!! kurz um hat die karte mitunder ne PhysikCPU sozusagen, die Streamprozessoren sind übrigends mit 1350mhz getacktet (alle angaben bezogen auf die 8800GTX) So falls mir jetz immer noch net glaubst, hier mal nen zitat von Hardwareluxx "Die Stream-Prozessoren sind in der Lage, neben den Vertex- und Pixeloperationen zusätzlich auch Geometrieoperationen durchzuführen. Bisherige Geometriekalkulationen wurden unter zuhilfenahme der CPU mit den Vertexprozessoren berechnet. Ein Geometryshader ist nun in der Lage, die Koordinaten und Geometriedaten, die bisher die CPU anlieferte, selbst zu erzeugen und zu verändern und das sogar schneller als es eine CPU könnte. Außerdem entfällt der Übertragungsweg über den PCI-Express Bus, was sich auch in einem Geschwindigkeitsvorteil niederschlagen könnte." Nachzulesen hier http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=1 Damit ist genau das eingetretten was ich vor nem 3/4 jahr gesagt hab, das die Grafikkarten zusätlich zukünftlich die Physikaufgaben übernehmen werden, ATI hats damals vorgemacht und is auf die fresse gefallen damit (Crossfire System) Nvidia scheint das ja alles richtig gut umgesezt zu haben. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
the_alien Geschrieben: 25. November 2006 #17 Meldung Teilen Geschrieben: 25. November 2006 DDR ist Double Data Rate und heißt, dass auf 2 Leitungen gleichtzeitig mit 900 MHz gesendet wird. Soweit weiss ichs auch. Aber irgendwie ärgert mich das, wenn da wirklich einige Physik Berechnungen durchgeführt werden, dann wäre das mal eine nette Info gewesen in dem Artikel... Aber auf der ganzen DinA4 Seite fällt nicht einmal das Wort "Physik". Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
D-FENCE Geschrieben: 25. November 2006 Autor #18 Meldung Teilen Geschrieben: 25. November 2006 Naja das problem is, das C`t nicht die daten direkt von den Herstellern bekommen vermute ich mal, den die seiten die ich kenne mit den ganzen Tests, die haben diese Karte bereits auch in den händen gehalten, und verlassen sich nicht auf reine spekulationen Das problem war aber auch, das nvidia bis kurz vor der veröffentlichung noch nicht die Details genannt hat, und das was bekannt war über die karte war nur teils teils wahr und bassierte auf reiner spekulation. C´t is nett was so Hardware allgemein angeht, aber hab ich schon selbst bemerkt, die spiele branche und Hardware ist nicht so ganz das themen gebiet von C´t, soll jetz nicht heisen die C´t is schrott, es ist halt nen Allgemein blatt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
M3ikl Geschrieben: 25. November 2006 #19 Meldung Teilen Geschrieben: 25. November 2006 Hi, ich finds gut wenn ´ne Grafikkarte zusätzlich Physikberechnungen machen KANN. So ist man flexibler in der Nutzung der Rechenpower. Von Zusatzkarten wie der PhysX halt ich nix, da die explizit unterstützt werden muss damits funzt.Wenn die Spieledesigner aber via DirectX oder wie auch immer auf die GPU zugreifen und diese meldet "ich kann Physikberechnung" dann nutzen sie sie, wenn net dann halt nicht.Is doch nicht so schwer. Gruß, M3ikl Zitieren http://www.sloganizer.net/style3,M3ikl.png Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
D-FENCE Geschrieben: 25. November 2006 Autor #20 Meldung Teilen Geschrieben: 25. November 2006 Ja der Ansatz ist gut, man kann nur hoffen das es besser umgesezt wird als bei ATI, da wars ja mal so gedacht das ne 2te Crossfire karte die meisten Physikberechnungen übernehmen soll, was aber nach hinten losging. Genauso wie die Physix karten, die sind der Totale flopp, tests haben ergeben das Ghost Recon welches die Physix karten unterstüzt, sogar langsamer mit der Karte lief, was auch kein wunder ist. die Physix karte is über PCI angebunden und deren Bandbreite lang bei weiten nicht um was zu beschleunigen. Daher auch der Totale flopp, für PCI-E wurde diese karte nicht entwickelt, wurde verpennt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
the_alien Geschrieben: 25. November 2006 #21 Meldung Teilen Geschrieben: 25. November 2006 C´t is nett was so Hardware allgemein angeht, aber hab ich schon selbst bemerkt, die spiele branche und Hardware ist nicht so ganz das themen gebiet von C´t, soll jetz nicht heisen die C´t is schrott, es ist halt nen Allgemein blatt. Ich les es auch nicht wegen der tollen Hardwareberichte Die Unterstützung für Physikchips wirds nur geben wenn es eine einheitliche und einfache Schnittstelle gibt, ala DircetX. Hoffe doch mal das kommt. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Weitere Optionen zum teilen...
Empfohlene Beiträge
Deine Meinung
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Benutzerkonto hast, melde Dich bitte an, um mit Deinem Konto zu schreiben.