News

Aufgelöst: Wie arbeitet eine Grafikkarte

Die Hersteller predigen uns immer mehr Power und werfen mit immer mehr Fachbegriffe um sich. Wir erklären die Anglizismen rund um die Technik der Grafikkarten.

Laptop© Micha Bednarek / Fotolia.com
Die Features der neuesten Grafikkarten werden immer umfangreicher und die Bezeichnungen immer abenteuerlicher. Wer weiß schon, was die Leute von ATI meinen, wenn sie ihr Produkt mit "HDR Tone Mapping Acceleration" oder "Alternate Frame Rendering" anpreisen. Aber nicht nur diese neuen Techniken zur Bildverbesserung sollten dem Gamer bekannt sein, damit er die Leistungsfähigkeit einer Karte besser einschätzen kann.

Extreme Techspeaking

Wer im Optionsmenü von seinen Lieblingsspielen die Grafikeinstellungen ändert, hat sich bestimmt auch schon gefragt, warum zum Beispiel dieses "FSAA" seine Grafikkarte so in die Knie zwingt. Auf den nächsten Seiten wollen wir die wichtigsten Begriffe rund um die verschiedenen Techniken zur Darstellung auf dem Bildschirm einmal erläutern.

A wie "Anti Aliasing"

Das Anti Aliasing - in den Spiel-Optionen oft auch unter "Full Screen Anti Aliasing" (FSAA) gefunden - ist eine Methode zur Bildverbesserung durch Kantenglättung. Beim Anti Aliasing werden pixelige Treppeneffekte in Rundungen oder Schrägen der Levelgeometrie durch Halbtonwerte ausgeglichen.

Die grafische Darstellung der Level eines Spiels bestehen aus einzelnen, viereckigen Pixeln einer bestimmten Größe. Wenn nun eine Schräge dargestellt werden soll, bleibt den Designern nichts andres übrig, als diese aus den kleinen Quadraten zusammen zu setzen. Da Monitore nur bis zu einer bestimmten Größe auflösen, entstehen statt glatter Schrägen kleine Treppen.


Links: ohne Anti Aliasing
Rechts: mit Anti Aliasing


Um diesen "Treppeneffekt" für das menschliche Auge zu vermindern, berechnet das Anti Aliasing das Bild in einer höheren Auflösung und rechnet die Informationen dann wieder runter. Rein optisch sieht es so aus, als werden durch das Anti Aliasing zwischen die Treppenstufen wieder Pixel gesetzt, die allerdings vom Farbton her halb transparent sind. Dadurch "verschwimmt" die Kante etwas und der Treppenefekt wird abgeschwächt. Das Full Screen Anti Aliasing verbraucht also deshalb so viel Grafikpower, weil jedes einzelne Bild zunächst in einer höheren Auflösung berechnet werden muss. ATI und Nvidia haben inzwischen noch verschiedene FSAA-Verfahren entwickelt, auf die an dieser Stelle aber nicht eingegangen werden soll.

A wie "Anisotropic Filtering"

Ein weiterer wichtiger Bildverbesserungsfaktor ist das anisotropische Filtern. Die Nachfolgetechnik der bilinearen und trilinearen Filter ist für eine detailliertere Bildtiefe verantwortlich. Besonders bei Texturen, die perspektivisch in den Raum verlaufen, kommt es vor, dass deren Oberflächen durch die Verzerrung unscharf werden und an Detail verlieren oder anfangen zu flackern.

Das liegt daran, dass mit den herkömmlichen bi- oder trilinearen Filtern dreidimensionale Objekte nur mit quadratischen Pixeln dargestellt werden können, egal aus welcher Perspektive das Objekt betrachtet wird. Die anisotrope Filterung kann durch genauere Berechnungen auch schräge und verzerrte Flächen in einer größeren Detailstufe darstellen. Hinzu kommt der "Shimmering-Effekt", der bei perspektivischer Darstellung (siehe auch Mip Mapping) entsteht. Auch hier schafft der anisotrope Filter Abhilfe. Das frisst mehr Rechenleistung, ist für die meisten aktuellen Grafikkarten aber bis zu einem gewissen Grad kein Problem mehr.


Links: ohne Anisotropic Filtering
Rechts: mit Anisotropic Filtering


A wie "Alpha Blending"

Jeder einzelne Bildpunkt einer Grafik enthält Farbinformationen anhand des RGB-Modells, dass das Mischverhältnis der drei Grundfarben abbildet. Zusätzlich wird das Pixel mit einem so genannten Alpha-Kanal (RGBA) ausgestattet, der Auskunft über den Transparenzgrad der einzelnen Farben gibt.


Alpha Blending bei Glasscheiben


Den Einsatz dieses Alpha-Kanals nennt man Alpha Blending. Es wird zum Beispiel benutzt, um Glasscheiben oder Wasser darzustellen. Der Alpha-Wert eines Pixels bestimmt dessen Transparenzgrad. Ein niedriger Alpha-Wert bedeutet hohe Transparenz und wird zum Beispiel für die Darstellung von Fensterglas genutzt. Ein mittlerer Alpha-Wert wird für farbiges Glas oder Wasser gesetzt. Und hohe Alpha-Werte lassen das Pixel massiv wirken.

B wie "Bump Mapping"

Das Bumpmapping ist ein Trick, um eigentlich zweidimensionale Texturen dreidimesional erscheinen zu lassen. Dabei wird durch geschickten Einsatz von Licht und Schatten ein dreidimensionaler Eindruck auf der Fläche erzeugt. Anstatt die Textur wirklich zu verändern, wird jedem Höhenwert einfach ein Helligkeitsgrad zugewiesen, wobei dunkle Farbwerte Tiefen simulieren und helle Farbwerte als Höhen gesehen werden.

Dies geht natürlich nur bis zu einem gewissen Grad an Tiefe. Darum wird Bump Mapping ins besondere auf kleineren Detailobjekten angewandt. Die Technik spart dabei Rechenpower, da nicht wie beim "Displacement Mapping" eine neue Geometrie des Objekts berechnet werden muss. Zur Anwendung kommt das Bump Maping zum Beispiel in der Doom 3 Engine. Dort werden Muskeln und Ähnliches durch diese Technik ziemlich realistisch dargestellt.

D wie "DirectX/Direct3D"

Direct3D ist nicht direkt eine Bildtechnick in der Grafikanimation, aber eine der wichtigsten Elemente, wenn es um 3D-Beschleunigung geht. Es ist Komponente von Microsofts DirectX und genau wie OpenGL ein so genanntes API (Application Programming Interface). APIs sind Progamme, die als Schnittstelle zwischen der Hardware (Grafikkarte) und der Software (z.B. PC-Spiel) "vermitteln".


Bump Mapping bei Gesicht und Körper


Die derzeitig neueste Version von Microsofts Schnittstelle ist DirectX9. Um den vollen Funktionsumfang der Spielesoftware nutzen und Programmieren zu könne, wird immer möglichst die aktuellste Version des APIs benötigt.

H wie "HDR-Rendering"

Das High Dynamic Range Rendering (HDRR) ist eine noch relativ neue Methode, um aktuellen Spielen mehr Realismus zu verpassen. "High Dynamic Range" bedeutet eine hohe Bandbreite an Lichtintensität und ein größeres Kontrastverhältnis. Das HDR-Rendering wird zum einen verwendet, um Explosionen und Laser- oder Blitzefekte realistischer darzustellen. Zum anderen kann HDR-Rendering zur Simulation der menschlichen Irisfunktion verwendet werden.

Dies geschieht zum Beispiel in Valves Half Life 2 Demo-Level "Lost Coast". HDR-Rendering sorgt in diesem Beispiel für Gegenlicht-Effekte oder die Helligkeitsanpassung des menschlichen Auges an verschiedene Umgebungen. Wenn der Spieler zum Beispiel gerade aus einer dunklen Höhle ins helle Tageslicht tritt, wird der Bildschirm zunächst etwas "überbelichtet" und passt sich dann langsam den neuen Gegebenheiten an - genau wie das menschliche Auge.

Der Effekt wird durch Bilder mit extrem hoher Farbtiefe (128 Bit statt 32 Bit) erzielt. Entsprechend reich an Informationen sind die HDR-Images in sehr dunklen und sehr hellen Bereichen. HDR-Rendering beschreibt also die Überblendung von extrem hellen Bilder in extrem dunkle Bilder mit Hilfe von weitaus mehr Farben als normal.


HDR-Rendering: Lichtanpassung vom Dunkeln ins Helle


M wie "Mip Mapping"

Mip Mapping ist einer der Gründe, warum der anisotrope Filter auch zum Einsatz kommt. Objekte in einer 3D-Umgebung sind mit Texturen von bestimmter Auflösung versehen. Befindet sich die Kamera oder der Spieler nahe an einem Objekt, möchte man die Textur so hoch aufgelöst und detailliert wie möglich sehen. Liegt das Objekt aber nun weiter entfernt, schrumpft die optische Größe des Objekts zwar, aber die Auflösung bleibt gleich. Dadurch fängt die Textur an zu flimmern (Texture-Shimmering).

Das Mip Mapping verkleinert die Auflösung der Textur je nach Entfernung, so dass der Detailgrad angemessen ist. Um das Shimmering kümmert sich dann der anisotrope Filter.

M wie "Motion Blur"

Da Grafikanimationen aus einzelnen Bildern bestehen, die natürlich auch alle einzeln scharf gezeichnet sind, entsteht bei Bild- und Objektbewegungen oftmals kein wirklich dynamischer Eindruck der Szene. Um die Illusion von sehr schnellen Bewegungen zu erzeugen, werden durch Motion Blur einfach mehrere Frames zusammengefasst und interpoliert.

Die Bildinformationen eines Objekts an verschiedenen Stellen des Bilds werden also in der Animation vereint. Dadur entsteht ein leicht bis stark verschwommener Eindruck des Objekts oder der Umgebung, der uns Bewegung signalisiert. Besonders extrem wurde dieser Effekt in EAs Need For Speed Underground und Most Wanted genutzt.

P wie "Pixelpipeline"

Die Anzahl der Pixel- oder auch Rendering-Pipelines auf einer Grafikkarte ist zusammen mit dem Arbeitstakt maßgebend für die Leistung des 3D-Beschleunigers. Sie sind der Ort, an dem der Bildaufbau im Chip passiert. Aktuelle Karten verfügen über mindesten 16 der Recheneinheiten - die aktuellen Nvidia-Modelle sogar über 24. Anzahl der Pixelpipelines und Taktrate des Chips stehen dabei in direkter Verbindung - auf die Leistung der Karte bezogen.


Tunneleffekt durch Motion Blur


ATI setzt derzeit zum Beispiel auf höhere Taktfrequenzen, aber dafür auf "nur" 16 Pipelines. Dadurch ist der Datendurchsatz im Endeffekt ähnlich hoch, wie bei niedrigeren Taktfrequenzen und mehr Pipelines - wie es bei Nvidia zuletzt der Fall war.

S wie "Shader"

Shader nennt man die Recheneinheiten auf dem Grafikchip, die zur Berrechnung der 3D-Grafik da sind. Unterteilt werden die Einheiten in Pixelshader und Vertexshader. Die Pixelshader sind dabei für die Gestaltung der Bildpunkte und deren Farbgebung - also auch Reflexionen und Beleuchtung - zuständig. Die Vertexshader kümmern sich um die geometrischen Veränderungen im Bild.


Durch Pixel Shader 3.0 wirken Wasserreflexionen und Ähnliches täuschend echt


Die Anzahl der Shadereinheiten auf einem Grafikchip entscheidet dabei maßgeblich über dessen Leistung. Das aktuelle Shader Model für DirectX9 ist 3.0. Mit ihm lassen sich zum Beispiel Wasseroberflächen schon beinahe fotorealistisch nachstellen.

(Philip Meyer-Bothling)

Kommentieren Forum

Dieser Artikel wurde noch nicht kommentiert. Schreiben Sie uns Ihre Meinung!

Zum Seitenanfang