Eine der interessantesten Aspekte in der Zeit des manuellen „3D“ der Pixelwelten ist die Konstruktion von Perspektive. Hier das Beispiel Gauntlet (oder Garrison) – psychologisch nehmen wir die Regeln dieser 3D Welten sofort an. Die Kamera scheint von oben (top down) herunterzublicken. Irgendwo in der Mitte. Sichtbar sind fast alle 4 Seiten. Wobei die linke und rechte Seite überdimensional hervorgehoben sind. Das Licht ist von links unten gemalt. Es scheint eine parallele Lichtquelle zu sein.
In einer ‚echten‘ 3D Welt würden selbstverständlich die Maueren im Bezug zur Kamera verschieden sein müssen – adaptiv. Die Wände wären sichtbar von Innen nach Aussen in Relation zur Kamera. Anders gesagt: die Umgebung besitzt eine eigene Kamera. Selbstverständlich wäre eine dynamische Anpassung der Perspektive nicht möglich gewesen zu dieser Zeit (keine 3D Engines bzw. die Rechenzeit alle zu berechenen und darzustellen oder die 3D Varianten vorzuzeichnen).
In den Detail interessant ist dann etwa wie die einzelnen Objekt/Avatar/NPCs (Sprites) im Spiel ausgerichtet sind, etwa die Figuren oder Truhen, diese haben eine eigene kleine Kamera on top und sind da Zentralperspektivisch manuell gerendert.


Im Fluss des Spiels akzeptiert man diese Inkonsistenzen ohne Probleme. Denn zum einen gibt eine Tradition – einen visuellen Diskurs wie Welten aussehen in Pixelgames und die Welt ist damit noch offener gestaltbar in Sachen Perspektive – und zum anderen kennt niemand so richtig, wie das Aussehen würde – eine solche Kamera in echt.
Interessant wäre dann auch zu sehen, ob sich das mit der zunehmenden Nutzung von „Luftkameras“ mit Drohnen gerade ändert.
// Thesen: Es scheint als könnten wir (Menschen) durchaus verschiedene Perspektiven Mixen und verstehen (vgl. dazu Mittelalterbilder etc) auch interaktiv – nicht nur als Still in Gemälden vgl. VR
// ToDo: Vgl. erste Top-Down-Shooter mit 3D-Engines wie auf der PS1
Beispiel ein Top-Down Shooter mit Zentralperspektive – Loaded PS1: