Registered: 528 | Members On: 0 | Guests On: 8 | Today: 247 | Month: 8.378 | Total: 2.334.600
Universe-Designs
W M D M D F S S
09   1 2
Geburtstage
rdy4KilL (36)
Vicky (37)
3
10 4 5
Geburtstage
Kn!Fe (38)
6 7 8 9
Geburtstage
Afrolokboss (35)
10
Geburtstage
Shadow (61)
PsYch0 (39)
11 11
Geburtstage
Sl33p (35)
12
Geburtstage
kischt (33)
Schwede(Svensk) (53)
Thomasoldier (51)
13 14 15 16 17
Geburtstage
-s|X-M0T0RHEAD- (37)
12 18
Geburtstage
RaPiD (40)
Jolly Jumper (49)
19 20 21 22 23 24
13 25 26
Geburtstage
Johnny2603 (36)
27 28 29 30 31
Geburtstage
ZeroX (33)
Forum - Thema
Neue Themen Aktive Themen Bestenliste Statistik Suche
Forum » 3.0 Allgemeines Forum » Off Topic » Raytracing – die nächste Grafikrevolution?

Antworten: 0
Seite 1
Wolfenstein


Try to beat me




Herkunft: Dübendorf (CH)
Beiträge: 113
# Thema - 18.09.2018 um 17:58 Uhr
Raytracing – die nächste Grafikrevolution?



Nvidia selbst nennt es den grössten Grafiksprung seit Einführung der CUDA-Architektur: Raytracing. Die neue RTX-Grafikkartenserie des Chipherstellers soll erstmals Echtzeit-Raytracing für Otto-Normal-Verbraucher ermöglichen. Was steckt hinter dem schönklingenden Begriff Raytracing und was bedeutet das für dich als Gamer?

Nachdem Nvidia vor kurzem die neue Grafikkarten-Serie für Workstations basierend auf der Turing-Technologie vorgestellt hat, sind nun auch die Consumer-Karten dran. Nvidia verzichtet bei den Modellen 2070 und 2080 auf die Bezeichnung GTX und setzt auf RTX. Mit der Turing-Plattform soll Echtzeit-Raytracing endlich möglich werden, das bisher zu rechenintensiv war. Die neuen RTX-Modelle verbinden Raytracing und Rasterization indem sie CUDA-Cores und neu Raytracing-Cores auf die Karten packen.

Raytracing erzeugt realistische Lichteffekte. Damit sollen Games noch fotorealistischer werden. Microsoft hat eine neue DirectX Raytracing (DXR) API entwickelt und Epic Games wird den Unreal Engine-Entwicklern noch in diesem Jahr Echtzeit Raytracing zur Verfügung stellen. Alles scheint für die neue Grafikrevolution bereit zu sein.

Woher kommt Raytracing?

Raytracing ist alles andere als neu. Der grundlegende Algorithmus wurde bereits 1979 von John Turner Whitted geschrieben. Es dauerte dann einige Zeit, bis du mit Raytracing gerenderte Bilder bestaunen konntest, da es enorm viel Rechenleistung erfordert. Bei einigen Sequenzen von «Shrek» kam die Technik zum Einsatz. Am ehesten aufgefallen dürfte es dir bei «Cars» von 2006 sein. Aber auch hier wurde die Technologie nur sparsam eingesetzt, da das Rendern einzelner Bilder enorm viel Zeit benötigte. Nvidia hat sich 2008 dazu bekannt, an Raytracing fürs Gaming zu arbeiten. Es hat zehn Jahre gedauert, bis die ersten Raytracing fähigen Karten veröffentlicht werden.

Immerhin unterstützen mit «Shadow of the Tomb Raider», «Battlefield V», «We Happy Few», «Hitman 2», «Final Fantasy XV», «PlayerUnknown's Battlegrounds», «Remanant from the Ashes» und «Dauntless» einige vielversprechende Titel Raytracing.

Wodurch unterscheidet sich Raytracing von Rasterization?

Raytracing zeichnet sich durch die realistische Modellierung einer physischen Umgebung, erfordert aber eine hohe Rechenleistung. Die Rasterung hingegen ist schneller und damit lassen sich viele verschiedene Algorithmen kombinieren. Die Ergebnisse sehen aber unter Umständen nicht so realistisch aus wie mit Raytracing.


Rasterization (Rasterung von Polygonen)

Eine 3D-Szene besteht aus mehreren Elementen: 3D-Modelle aus mit Texturen und Farben überzogenen Dreiecken (Polygonen), Licht, das die Objekte beleuchtet und dem Sichtpunkt, von dem aus die Szene betrachtet wird. Im Wesentlichen wird bei der Rastergrafik vom Sichtpunkt aus ein Pixelraster hergestellt. Für jedes Dreieck in der Szene wird bei der Rastergrafik bestimmt, ob das Dreieck ein Pixel überlappt. Ist dies der Fall, wird die Farbe des Dreiecks auf das Pixel angewendet. Die Rasterisierungs-Engine arbeitet dabei von den entferntesten Dreiecken aus und rückt näher an die Kamera heran. Wenn ein Dreieck ein anderes verdeckt, wird das Pixel zuerst durch das hintere Dreieck, dann durch das davor liegende gefärbt.

Weitere Algorithmen wie Shading oder Shadowmapping kommen dazu, um die endgültige Farbe eines Pixels zu erzeugen und dieses realer aussehen zu lassen.

Die Rasterung von Polygonen hat ihre Grenzen. Ein ausserhalb des Sichtfeld befindliches Objekt wird beispielsweise nicht berücksichtigt. Dieses Objekt könnte immer noch einen Schatten innerhalb der Szene werfen oder anders sichtbar sein. Einige dieser Effekte können mit zusätzlichen Algorithmen wie Shadowmapping erzeugt werden. Szenen werden aber nie so wie die Realität aussehen.

Das liegt daran, dass Rasterization nicht so funktioniert, wie wir sehen. Raytracing hingegen guckt bei der Natur ab.

Raytracing

Raytracing funktioniert genau umgekehrt wie wir sehen. Beim Sehen empfangen unsere Augen die Lichtstrahlen von Lichtquellen, die von den verschiedenen Objekten, von denen wir umgeben sind, reflektiert werden.

Beim Raytracing wirft die Rendering-Engine einen Lichtstrahl vom Sichtpunkt auf jedes Pixel. Der Sichtpunkt ist deine Perspektive auf das zweidimensionale Bild. Der Strahl dehnt sich in einer Halbgeraden aus, bis er ein dreidimensionales Element des zu rendernden Bilds schneidet. Dieser Schnittpunkt wird verwendet, um die Farbe des Pixels zu bestimmen.

Genaugenommen handelt es sich beim Raytracing-Rendering also um sogenanntes Backward Raytracing, da die Lichtstrahlen vom Sichtpunkt zu ihrer Quelle zurückverfolgt werden. Der ursprüngliche Algorithmus von Whitted basiert übrigens auf Forward Raytracing. Dieser ist für Renderaufgaben nicht geeignet, da zu viele unnötige Berechnungen durchgeführt würden.

Die Bestimmung der Farbe eines Pixels allein ist aber nicht ausreichend, um ein realistisches Rendering zu erreichen. Dazu muss auch die Beleuchtung des Pixels bestimmt werden. Das geschieht durch Sekundärstrahlen (im Gegensatz zu den Primärstrahlen, die die Sichtbarkeit der verschiedenen Objekte der Szene bestimmen). Um die Lichteffekte einer Szene zu berechnen, werden die Sekundärstrahlen auf die verschiedenen Lichtquellen abgegeben. Werden diese Strahlen durch ein Objekt blockiert, so befindet sich das betreffende Objekt im Schatten, den die betrachtete Lichtquelle wirft. Die Summe aller Sekundärstrahlen, die eine Lichtquelle erreichen, bestimmt die Lichtmenge, die auf ein Szenenelement fällt.

Es geht aber noch weiter. Um eine noch realistischere Darstellung zu erreichen, müssen Reflexion und Brechung berücksichtigt werden. Das heisst; die Menge an Licht, die beim Auftreffen reflektiert wird, und die Menge an Licht, die das Material durchdringt. Auch hier werden Strahlen ausgesendet, um die endgültige Farbe des Pixels zu bestimmen.

Zusammengefasst werden beim Raytracing verschieden Typen von Lichtstrahlen eingesetzt. Die Primärstrahlen bestimmen die Sichtbarkeit. Die Sekundärstrahlen bestehen aus Schatten-, Reflexion- und Refraktionsstrahlen und dienen als Beleuchtungsmodell.


Wie bereits erwähnt, lassen sich auch mit Rastergrafik relativ realistische Lichteffekte erzeugen. Mit Raytracing werden Reflexionen aber perfekt verwaltet, ohne komplizierte zusätzliche Algorithmen. Alles wird direkt vom Rendering-Algorithmus verarbeitet. Dasselbe gilt für Interreflexion, wie z.B. die Reflexion eines Seitenspiegels an der Karosserie eine Autos. Durch Rasterung ist dieser Effekt nur sehr schwer reproduzierbar.

Transparenzeffekte sind ein weiterer Vorteil von Raytracing. Der korrekte Umgang mit Transparenz ist mit Rastern äusserst schwierig, da die Berechnung der Transparenz von der Rendering-Reihenfolge abhängt. Um gute Ergebnisse zu erzielen, müssen transparente Polygone vor der Berechnung des Renderings vom entferntesten von der Kamera zum nahegelegensten sortiert werden.

In der Praxis wäre das aber viel zu rechenintensiv und Transparenzfehler sind immer noch möglich, da die Sortierung nach Polygonen und nicht nach Pixeln erfolgt. Das Raytracing kann Transparenzeffekte elegant verwalten.

Hinzu kommt die Berechnung von Schatten. Beim Rastern wird unter anderem auf Shadowmapping gesetzt. Dieses benötigt aber viel Speicherplatz und Aliasing ist ein Problem. Raytracing löst das ohne zusätzlichen Algorithmus.


------------------
mehr... +-
Inaktiv
Antworten: 0
Seite 1


Sie müssen sich registrieren, um zu antworten.
- 25.05.2015 -
(3)
- 04.05.2015 -
(0)
- 17.02.2015 -
(7)
- 07.02.2015 -
(4)
- 20.01.2015 -
(4)
- 30.08.2011 -
(0)
- 03.04.2011 -
(4)
- 30.03.2011 -
(2)
- 06.01.2011 -
(3)
- 13.03.2011 -
(8)
- 08.03.2011 -
(4)
- 01.03.2011 -
(2)
- 26.02.2011 -
(6)
B!zzy
Glück Auf! Hat jemand noch die ganzen alten Bilder von den

(02.08.2023 um 21:59 Uhr)
B!zzy
Lan Partys und kann die mir mal jemand zukommen lassen?

(02.08.2023 um 22:00 Uhr)
Ac!D
Bizzy lebt? Ja. Ich hab die alle noch.

(07.10.2023 um 16:34 Uhr)
B!zzy
Na klaro! War paar Jahre ohne Pc unterwegs aber mittlerweile wieder

(12.10.2023 um 21:09 Uhr)
B!zzy
back to the Roots. Kannst du mir die Bilder eventuell irgendwie mal

(12.10.2023 um 21:10 Uhr)
B!zzy
schicken? Wäre nice!

(12.10.2023 um 21:10 Uhr)
www.GGC-Stream.com
- 18.06.2014 -
- 17.06.2014 -
- 18.04.2014 -
- 01.04.2014 -
- 11.03.2014 -
- 09.01.2014 -
Keine Einträge gefunden.
Keine Einträge gefunden.
Keine Umfrage aktiv
Design & Coding - Copyright ©2010, www.Universe-Designs.de
CMS ClanSphere - Copyright ©2003-2010, Scriptinfo
19.03.2024 um 09:51 Uhr nach UTC +1 - Load: 40ms