Archiv des Autors: admin

Die fehlenden Gameengines auf Homecomputern oder das Problem, dass nur mit Tricks anspruchsvolle Spiele gemacht werden konnten [Kurznotiz]

Letztlich verhinderte die fragmentierte Hardware und die vielen nötigen Tricks in Assembler, um Games zu machen etwa beim Amiga, dass diese Systeme eine längerfristige Chance hatten. Diese Spezialisierung wirkte sich vorallem auf Investionen/Aufwand in die Technik aus, statt in Spielmechanik. So sehen wir (noch genauer zu erforschen) fast keine Gameengines, die sich entwickelt haben.

Der getriebene und geleistete Aufwand lässt sich bis heute (noch genauer zu erforschen) nur damit erklären, dass da auch eine Generation am Werk war, die sich ihre Träume verwirklichte und dabei keine Grenzen kannte. Die das Ganze als Metaspiel verstand gegen jede Wahrscheinlichkeit. Sicher auch mit der Idee dahinter mal Geld zu verdienen, aber realistisch konnte das nicht funktionieren.

Jenseits der Konsumenten*perspektive oder die brutale Produktions- und Entwickler*perspektive

Wer sich Games anschaut eines Computersystems ist meistens erfreut, was es da alles gibt. Da denkt der Recipient: WOW – Unglaublich. Gerade wenn eine Selektion so visuell ist wie die Nachfolgende.

Dabei linearisiert natürlich das Medium Film die interaktive Erfahrung und die Spielmechanik oder das Gameplay spielt keine Rolle. Das ist letztlich die Sicht des Konsums, der Konsumenten. Und damit reproduziert sowohl die Fans, Interessierte Spieler und ganze Teile der Wissenschaft nur den Markt.Beziehungsweise nicht mal den Markt, denn da wäre auch zu nennen, wieviel die Spiele gekostet haben. Meist wird geurteilt ohne jeglichen Bezug einfach nur absolut. Selbst die Entsehungszeit wird oft gnadenlos ausgeblendet,

Die Produzenten*- und Entwickler*-Perspektive

Noch viel schlimmer ist allerdings nur das Betrachten des Endproduktes. Dies ist auch der Marktlogik geschuldet. Der Rezipient*/Spieler* ist ja der Käufer*, der Herrscher über das erstandene Produkt. Wie dieses entstanden ist und zu welchen Kosten auch menschlichen interessiert bis heute in der Gameindustrie niemanden. Das Produkt ist transparent im Informatik-Sinn: Es spielt keine Rolle wie. Deswegen fehlen bis heute im Gamebereich jegliche Labels. Dabei ist es essentiell unter welchen Bedingungen Games entstanden sind.

Dabei spielt es massiv eine Rolle unter welchen Bedingungen, Zeit, Geld, Teams ein Spiel entstand. Die Würdigung des Geleisteten ist nur so möglich und dies ist Teil vom Designprozess. Und hier zeigt sich denn auch bis heute von was Gamer* profitieren. Viele der oben genannten Spiele sind nur durch ausserordentliche Nutzung überhaupt möglich geworden. Das bedeutet letztlich – vermutlich anders als im Consolenbereich – unter massiven Anstrengungen und menschlichen Ressourcen. Teilweise vermutlich jenseits von irgendwelcher möglicher Rendite und angenehmen Arbeitsbedingungen. Nicht dass dies heute anders wäre, wo vorallem der Content so erarbeitet wird. Aber es ist auch diese Spur, die es offen zu legen gilt, um mit dem ’schönen‘ Spiel richtig umzugehen und es einordnen zu können.

Dabei muss jedem* klar sein, so einfach und lustig wie die Leute hier erzählen sind diese Tricks nicht zu implementieren. Auch dies gehört zum Habitus des Geniekults den Aufwand, die Irrungen nicht klar zu machen.

Hier ein paar Tricks ohne die viele Amiga Games etwa nicht möglich wären:

https://codetapper.com/amiga/sprite-tricks

Was waren die Auswirkungen von Joysticks mit 4 Richtungen (8 Richtungen) und nur 1 funktionalen Knopf? [Wird upgedated]

Arcade vs Homecomputer: Knöpfe vgl. Consolen
Simulation des zweiten Knopfs: Zynaps, R-Type und Co.
Specialinterfaces wie Paddle, Drehknopf etc. Immer weniger vorhanden vgl.

Pro
– nur diese Art von Concept
– Standardisierung
– Westen ohne Experiment vs vorallem japanische Arcades
> Experimente

Contra
– nur diese Art von Concept
– Standardisierung
> wenig Neuerung meist Mapping

Weiterentwicklung am PC: WASD-Joystick oder Cursor-Joystick und Mouse

// Todo: Der Lange Knopfdruck
// Todo: Vectrex mit analogem Joystick

Die visuelle Welt des C64 oder das Color-Sudoku erfahrbar machen in einer Ausstellung

Die einfachste Art für eine Ausstellung das Color-Sudoku (8*16 Boxen mit je 3 neuen Farben) erfahrbar zu machen, ist direkt an einem Monitor ein Geflecht darüber zu legen. So dass man sieht wie das ganze ‚funktioniert‘. Eine andere Möglichkeit wäre natürlich eine App für ein Mobile Phone, wo man die Welt durch C64 (oder Apple)-Augen sehen könnte.

Scrolling oder die Einführung der Kamera

OneScreen-Games

Die ersten Spiele waren grossmehrheitlich One-Screen-Games. Das bedeutet aus Sicht des Gamedesigns und auch in der Spielmechanik, alle Dinge sind sichtbar auf einen Blick. Selbstverständlich gibt es Möglichkeiten auch hier die Sicht einzugrenzen, Techniken wären etwa Fog of War oder noch nicht geöffnete Zimmer (die erst beim Eintreten gezeigt werden).
Es bedeutet aber auch, das die Spiele oft die TopDown-Perspektive oder die Seitenperspektive verwenden. Die Objekte sind dabei relativ klein bzw. müssen klein sein, damit wenigstens etwas auf dem Screen passieren kann – auch wenn das Spiel auf verschiedene Screens verteilt ist. Die Spielmechanik des Suchens kommt in diesem Fall auch anders zum Einsatz, die Objekte müssen eher in Dingen versteckt sein wie Kisten als dann später in 3D Welten.

Scrolling-Games

Mit der Einführung des Scrolling ändert sich das. Der Spieler muss bei den einen Spielen im Bild der Kamera bleiben (etwa beim ersten Scrollenden Spiel) oder später in vielen ShootEmUps oder er steuert aktiv den Bildausschnitt oder moderner gesagt: Die Kamera ist über dem Spieler. Da erstaunt es dann auch nicht, dass Parallax-Scrolling genutzt wird, um die Welt auch ins 3D zu erweitern. Die Komplexität der Spielsituation rund um den Avatar bleibt meist die gleiche. Aber der Avatar rückt mehr ins Zentrum und wird nun oft grösser. Und das Suchen durch Scrolling von Gegenständen wird zu einer beliebten Spielmechanik.

// Einsatz von Flöte und Harfe und Funktion einmal untersuchen (vgl. 8Bit-Sound)

Das Warten während des Compilierens – defiktionalisierte (Source-Code-)These

Es ist ein Moment, der eingepasst ist in den Iterationsprozess im Coding oder auch Gamedesign. Aus der These wie der Code funktionieren sollte wird ein Warten.

Beim Compillieren testet der Computer, ob alles zumindestesn formal korrekt ist. Der Entwickler* ist gespannt.

Einfach nicht das beim Compillieren:

Was ist falsch daran? Ein Hinweis vom Compiler. Aber gerade ist das nur die Idee, was sein könnte. Es geht weiter:

Ein erstes Entspannen folgt: „Ok es läuft“. Dann die zweite Anspannung: „Ok was läuft“. „Läuft das, was geplant war.“ Also die These von der Architektur, das was die Veränderung im Source-code nun im Resultat dem laufenden Programm, ist es das.

Dann das Warten beim Aufstarten und dann die Kontrolle, ist die These vom Konstrukt der Software korrekt, stimmt es mit dem laufenden Programm übereinander oder nicht?

Das ist ein Upchecken und ein oft sehr schnelles: „Ok, es läuft“ oder „Nein shit, es geht nicht. Warum nicht? Ist mein Gesamtkonzept falsch?“

Nächste Runde. Nächste Challenge. Nächstes Iteration: IDE. Changes > Kompillierung > Game.

Das neue Interface: Die analoge Mouse – Bitte reinigen

Die Maus eingeführt in den Massenmarkt mit dem Macintosh kam bei der Masse dann an mit den 16/32Bit Homecomputern Atari ST und kurz danach Amiga. Die Mäuse machten GUI bedienbar und einige Game Genres wirklich attraktiv von Arkanoid-Games über Point-And-Click Adventures bis zu Strategiespielen.

Mäuse waren analog (im Gegensatz zu den optischen heute) und damit Maschinen, die Dreck ansammelten bei den Rollen, über die die Kugel „rollte“. Und wenn der Nutzer* sie nicht öfters reinigte, dann sprang der Zeiger oder bewegte sich ruckartig.

Hier ein Beispiel, wie man eine solche (kein Orginal) Maus reinigen musst. Es war eine recht grausige Sache, da der Nutzer* ja wusste, dass das alles Dreck von der – im besten Fall – Mausmatte war.

Das Ende/Untergang der Homecomputer-Szene – ein Verlieren gegen die Mainframe/Workstations

// Smaky fehlt hier: er taucht auf bei 8Bit und 16Bit home bzw. EducationComputer.
// Todo: Differenzierung zwischen Homecomputeren und EducationComputer einführen bzw. als Pole darstellen oder Option.

Warum ging letztlich die Homecomputerszene so sang- und klanglos unter?

Aspekt: Bürosoftware

Da gibt es zuerst natürlich die einfachsten Erklärungen. Die ersten (nach den Selbstbaucomputern) PCs waren teuer und eigentlich Businessmodelle – APPLE II 1977 und viel später der PC 81. Vorallem der zweitere war überhaupt keine Multimediamaschine eher veraltete Technik auf Text(mode) ausgerichtet. Und einem grauenhaften Beepser (7). Mehr brauchte es für die Vorgänger von Excel und Word nicht. Und schliesslich kam der PC als Gegensatz zu den verkauften Mainframe-Computern von IBM auf den Markt. Die Radiation begann mit den Kompatiblen und Microsoft, dass allen MS-DOS verkaufte.

Aspekt: Multimedia und darin eingeschlossen Games (inkl. Piraterie)

Die Homecomputer hingegen mussten sich sehr früh schon zu Hause auch als Konkurrenz auch zum Fernseher etablieren und eben andere Funktionen finden, als nur Business-Software. Da die Zielgruppe Interessiert und auch Jugendliche dabei waren (neben den Elektronikinteressierten). Und da spielten dann Grafik und Sound eine grössere Rolle. Und diese boten fast alle 8Bit-Homecomputer und die 16/32Bitter sowieso. Dieser Umstand wurde erst eingebnet Mitte der 90er Jahre, wo vorallem 3D-Karten und Soundkarten aufkamen für den PC, der PC billiger wurde (Hohe Gesamtkosten) und die Spielindustrie darauf neu ‚erfunden‘ wurde auf aufrüstbaren Computern vs Consolen und Homecomputer.

Aspekt: Programmierung

Fast jeder Homecomputer der 8Bit Generation kam mit einer Programmier-Entwicklungsumgebung meistens Basic daher, das auch meistens gerade das Interface für die Nutzer* war! Soviel Angebot an Softwareentwicklung war nie. Dies wird schon zurückgedrängt in der 2ten Homecomputer Generation mit den 68000ern, Maus und GUI.

Aspekt: Anforderungen über Anforderungen (ab Mitte der 90er Jahre)

Die Anforderungen an Computer steigen ab Anfang der 90er Jahre massiv. So müssen die Systeme ein GUI haben, in der Lage sein Netzwerk, einzubeziehen (LAN und Internet) und vorallem müssen immer mehr Prozesse mehrfach auf den Systemen laufen können. Damit haben alle System, die von „unten“ kommen, also letztlich vom „Rechner“ abstammen (Commodore), immer weniger liefern können. Siehe Macos 6-9 oder Windows 3.11, Windows 95.

Diese Funktionalität kommt vorallem mitgeliedert in den Workstation, die eigentlich Vereinfachungen sind von Mainframes bzw. Mainframe Technologie ist mit Multitasking (Ja der Amiga hatte auch Multitasking), Mehrusersystemen, Netzwerklayer. Und so wundert es denn kaum, dass alle danach überlebenden Systeme von Grossrechnern abstammen – mehrheitlich von UNIX (das nur frei entstand, weil AT wegen Monopolverletzung verurteilt wurde dazu)wie NExTSTep>MacOSX, Windows NT und zuletzt Linux. Es gab natürlich auch andere Versuche ganz neue Betriebssysteme zu entwickelten, aber auch die schauten sich vorallem bei UNIX um.

Fazit

Im Grossen und Ganzen betrachtet, ‚verliert‘ letztlich die Homecomputerszene als Empörkömmling gegen die Grossrechnertechnologie mit ihren Workstationsablegern. Die Homecomputeranbieter hatten einfach zu wenig finanziellen Power (trotz dem Workstation-68000.Prozessor) all dies (trotz Vorlage) nochmals neu zu erfinden und entwickeln.