Zum Inhalt springen

FarCry nachfolger Crysis im vergleich mit der Realität


D-FENCE
 Teilen

Empfohlene Beiträge

Manche haben evt schon von Crysis gehört, dem nachfolger von Farcry was alles dagewesene in den schatten stellen soll.

Jetz haben die entwickler nen netten vergleich gemacht, es wurden original Landschaften in der Crysis engine umgesezt um zu zeigen wie Realitätsnah die Grafik ist, ach ja das ganze geht unter Direct X10 und Windows Vista will aber nicht wissen was fürn nen Hammer rechner die da haben :)

So und nun lass ich bilder für sich sprechen

http://img.extreme-players.de/gallery/973/18375_07_06_2006.jpghttp://img.extreme-players.de/gallery/973/18375_07_06_2006.jpghttp://pics.computerbase.de/1/5/0/8/5/30.jpghttp://pics.computerbase.de/1/5/0/8/5/34.jpghttp://pics.computerbase.de/1/5/0/8/5/33.jpghttp://pics.computerbase.de/1/5/0/8/5/32.jpghttp://pics.computerbase.de/1/5/0/8/5/2.jpghttp://pics.computerbase.de/1/5/0/8/5/5.jpghttp://pics.computerbase.de/1/5/0/8/5/6.jpghttp://pics.computerbase.de/1/5/0/8/5/8.jpghttp://pics.computerbase.de/1/5/0/8/5/12.jpghttp://pics.computerbase.de/1/5/0/8/5/15.jpghttp://pics.computerbase.de/1/5/0/8/5/18.jpg

 

Das nenn ich mal ne Hammer grafik, wobei es schon ein wenig erschreckend is, und man muss bedenken das sind keine vorgerenderten bilder sondern Echtzeit gerendert, d.h sogesehen ingame Grafik.

Link zu diesem Kommentar
Auf anderen Seiten teilen


Wow sieht ja mal Geil aus aber wie du schon sagtest "was die wohl fürn Rechner haben" Da werden die Ottonormalzocker wohl ein Prob haben mit ihrne Rechnern sone Grafik hin zu zaubern. Ich zb. werde mit meinem Athlon 2,4 mit 1GB Ram einer Geforce4 TI4200 und Windoof2000 bestimmt schnell die Grenzen erreicht haben :-(

Du musst ein bösartiger Verschwörer sein, wenn du hier das Gegenteil schön redest

Link zu diesem Kommentar
Auf anderen Seiten teilen

mit ner 4Ti laufen ja heut schon wenige Games, da die 4TI nur DX8.1 kann, wirst du erst garnicht in den genuss kommen leider, wie gesagt das spiel is auf DX10 programiert und eigentlich gibbet nur eine Grafikkarte die vor 2 wochen rausgekommen ist, die DX10 kann, ist die Geforce 8800GTX 1.4GHZ Chiptackt, 1.8GHz ramtakt, 786mb Ram unklusive 2ter CPU die alle Physikberechnungen erledigt. Daher die krumme Ram zahl, 512mb für grafik und 256mb für die Physikeinheit.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Naja dann sollen sie sich das Spiel mal in den Po schieben *gggg* Sorry aber bis jetzt konnte ich einiges mit meiner TI spielen und was nicht geht leb ich wohl mit. Kann mir ja nicht für 4 Rechner solche Grafikkarten kaufen oder zb. wegen Battlefield auf XP umsteigen. Egal ich denke mal es gibt schlimmeres und da eh ich fast nur CS,CSS,UT oder Autorennen spiele werd ich mich da net drüber ärgern :-)

Du musst ein bösartiger Verschwörer sein, wenn du hier das Gegenteil schön redest

Link zu diesem Kommentar
Auf anderen Seiten teilen

hammer hammer geil....... :sabber::sabber:

das is ja echt der wahnsinn...........

 

also so nen rechner will ich auch haben... ;-)

Cinis Cinerem, Pulvis ad Pulverum.

Cum diabolus regit, omnia licent

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

höhö jo Fuddy du müstest dann auf AMD Quad core umrüsten und 2 8800GTX in den Rechner kaufen, aber geht ja alles da ich zukunftssicher geplant hab ;-)

 

Ich bin auch schon sehr sehr gespannt auf die erste offizielle Demo

Falls ihr das mal alles in bewegung sehen wollt, hier nen paar offizelle Videos

Achtung 88mb groß

http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=getit&lid=56

 

http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=getit&lid=105

 

Also das sieht wirklich sehr viel versprechend aus :)

Link zu diesem Kommentar
Auf anderen Seiten teilen

So und noch nen Video is zwar 300MB groß aber da sieht man mal wie abartig die grafik ist wärend dem Spielen.

http://crysis.4thdimension.info/modules.php?name=Downloads&d_op=viewdownloaddetails&lid=109&ttitle=GameSpot_-_HDTV/HQ_-_Cevat_Yerli_Interview_-_WMV

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das mim Plastiklook liegt am Monitor ;-) Ham nicht genug kontrast und Farbabstufung gescheit darzustellen, z.b HDR Rendering ist im Prinzip aufn normalen Monitor nich möglich, das was ma unter HDR versteht is nen pseudo effekt :) Allerdings wird Crysis sich da abheben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hi,

 

ich finds schade dass DX 10 nur für Vista kommen wird.

Denn somit werde ich wohl lange nicht in den Genuss so einer Grafik kommen.

Ich seh nicht ein nur wegen bisschen aufgebohrter Oberfläche und haufenweise Hintertürchen und Automatismen die ich nicht mag Geld zum Fenster rauszuwerfen.

 

Gruß, M3ikl

http://www.sloganizer.net/style3,M3ikl.png

Link zu diesem Kommentar
Auf anderen Seiten teilen

schon schön anzuschaun und anzuhören, aber bis sich einer von uns das leisten kann is die technik schon wieder veraltet.... :D:rot::-D

Cinis Cinerem, Pulvis ad Pulverum.

Cum diabolus regit, omnia licent

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Also das Speil kommt auf jeden Fall aufn Markt. Kommt gerade ein bericht auf Pro7, haben mit den Machern gelabbert.

Der Chef meinte "Wenn das Spiel in Deutschland verboten wird, wandern wir ins Ausland aus und verkaufen es dort"

20 Millionen haben die in das Game reingebuttert. Da bin ich ja mal gespannt

Link zu diesem Kommentar
Auf anderen Seiten teilen

Rauskommen wirds das steht auser frage, schon allein wegen der cooperation mit Nvidia, schlieslich is Crysis auch der Startschuss der neuen Grafikkarten Technologie und da liegt weit mehr als nur 20 millionen dahinter denk ich mal.

Für Deutsche spieleentwickler is das aktuelle thema schon Kritisch.

Link zu diesem Kommentar
Auf anderen Seiten teilen

mit ner 4Ti laufen ja heut schon wenige Games, da die 4TI nur DX8.1 kann, wirst du erst garnicht in den genuss kommen leider, wie gesagt das spiel is auf DX10 programiert und eigentlich gibbet nur eine Grafikkarte die vor 2 wochen rausgekommen ist, die DX10 kann, ist die Geforce 8800GTX 1.4GHZ Chiptackt, 1.8GHz ramtakt, 786mb Ram unklusive 2ter CPU die alle Physikberechnungen erledigt. Daher die krumme Ram zahl, 512mb für grafik und 256mb für die Physikeinheit.

 

Hab gerade eine DinA4 Seite Bericht über die 8800 GTX gelesen in der c't und da stand nix von einer Physik CPU. Und zum Speicher steht da:

 

"Der Speicher fasst üppige 768 MByte, ist 900 MHz schnell und über einen 384 Bit breiten Bus angebunden. Diese krummen Werte entstehen, weil NVidia zwälf GDDR3-Speicherchips mit jeweils 512MBit Kapazität und 32 Datenleitungen um den Grafikchip anordnet."

 

Also alles für die GPU.

 

Nicht böse sein, aber irgendwie glaub ich der Zeitschrift etwas mehr ;-)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Da steht nix drin weil die Physik engine in der GPU drinne is nicht umsonst hat das teil 681 Millionen Transistoren und hat damit weit aus mehr als als ne CPU, liegt zwar an den 128 unified shader. Der Tackt von 900mhz stimmt das der richtige takt, aber der efektive DDR tackt is das doppelte, daher der name DDR Double Datet Rata, kurz um 900 mal 2 geben die von mir besagten 1.8ghz. wenn du richtig gelesen hast, dann hast du erkannt das diese 128 unifid shaders bei nvidia Steam prozessoren genannt werden, diese sind für Vertex und Pixelshader programierbar, UND diese können ebenso für Physikberechnungen genuzt werden !!! kurz um hat die karte mitunder ne PhysikCPU sozusagen, die Streamprozessoren sind übrigends mit 1350mhz getacktet (alle angaben bezogen auf die 8800GTX)

 

So falls mir jetz immer noch net glaubst, hier mal nen zitat von Hardwareluxx

"Die Stream-Prozessoren sind in der Lage, neben den Vertex- und Pixeloperationen zusätzlich auch Geometrieoperationen durchzuführen. Bisherige Geometriekalkulationen wurden unter zuhilfenahme der CPU mit den Vertexprozessoren berechnet. Ein Geometryshader ist nun in der Lage, die Koordinaten und Geometriedaten, die bisher die CPU anlieferte, selbst zu erzeugen und zu verändern und das sogar schneller als es eine CPU könnte. Außerdem entfällt der Übertragungsweg über den PCI-Express Bus, was sich auch in einem Geschwindigkeitsvorteil niederschlagen könnte."

 

Nachzulesen hier

http://www.hardwareluxx.de/cms/artikel.php?action=show&id=487&seite=1

 

Damit ist genau das eingetretten was ich vor nem 3/4 jahr gesagt hab, das die Grafikkarten zusätlich zukünftlich die Physikaufgaben übernehmen werden, ATI hats damals vorgemacht und is auf die fresse gefallen damit (Crossfire System) Nvidia scheint das ja alles richtig gut umgesezt zu haben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

DDR ist Double Data Rate und heißt, dass auf 2 Leitungen gleichtzeitig mit 900 MHz gesendet wird. Soweit weiss ichs auch.

 

Aber irgendwie ärgert mich das, wenn da wirklich einige Physik Berechnungen durchgeführt werden, dann wäre das mal eine nette Info gewesen in dem Artikel... Aber auf der ganzen DinA4 Seite fällt nicht einmal das Wort "Physik".

Link zu diesem Kommentar
Auf anderen Seiten teilen

Naja das problem is, das C`t nicht die daten direkt von den Herstellern bekommen vermute ich mal, den die seiten die ich kenne mit den ganzen Tests, die haben diese Karte bereits auch in den händen gehalten, und verlassen sich nicht auf reine spekulationen ;-) Das problem war aber auch, das nvidia bis kurz vor der veröffentlichung noch nicht die Details genannt hat, und das was bekannt war über die karte war nur teils teils wahr und bassierte auf reiner spekulation.

 

C´t is nett was so Hardware allgemein angeht, aber hab ich schon selbst bemerkt, die spiele branche und Hardware ist nicht so ganz das themen gebiet von C´t, soll jetz nicht heisen die C´t is schrott, es ist halt nen Allgemein blatt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hi,

 

ich finds gut wenn ´ne Grafikkarte zusätzlich Physikberechnungen machen KANN. So ist man flexibler in der Nutzung der Rechenpower. Von Zusatzkarten wie der PhysX halt ich nix, da die explizit unterstützt werden muss damits funzt.

Wenn die Spieledesigner aber via DirectX oder wie auch immer auf die GPU zugreifen und diese meldet "ich kann Physikberechnung" dann nutzen sie sie, wenn net dann halt nicht.

Is doch nicht so schwer.

 

Gruß, M3ikl

http://www.sloganizer.net/style3,M3ikl.png

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ja der Ansatz ist gut, man kann nur hoffen das es besser umgesezt wird als bei ATI, da wars ja mal so gedacht das ne 2te Crossfire karte die meisten Physikberechnungen übernehmen soll, was aber nach hinten losging.

Genauso wie die Physix karten, die sind der Totale flopp, tests haben ergeben das Ghost Recon welches die Physix karten unterstüzt, sogar langsamer mit der Karte lief, was auch kein wunder ist. die Physix karte is über PCI angebunden und deren Bandbreite lang bei weiten nicht um was zu beschleunigen. Daher auch der Totale flopp, für PCI-E wurde diese karte nicht entwickelt, wurde verpennt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

C´t is nett was so Hardware allgemein angeht, aber hab ich schon selbst bemerkt, die spiele branche und Hardware ist nicht so ganz das themen gebiet von C´t, soll jetz nicht heisen die C´t is schrott, es ist halt nen Allgemein blatt.

 

Ich les es auch nicht wegen der tollen Hardwareberichte ;-)

 

Die Unterstützung für Physikchips wirds nur geben wenn es eine einheitliche und einfache Schnittstelle gibt, ala DircetX. Hoffe doch mal das kommt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Deine Meinung

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Benutzerkonto hast, melde Dich bitte an, um mit Deinem Konto zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Lädt...
 Teilen

×
  • Neu erstellen...