Beat Suter, René Bauer
Ein Sideeffekt der historischen Forschung bei lebenden Personen und Gruppen, ist die Wieder- oder Neukonstituierung dieser Gruppen. Sie fangen wieder an zu spielen, sich zu treffen oder gar zu entwickeln.
Beat Suter, René Bauer
Ein Sideeffekt der historischen Forschung bei lebenden Personen und Gruppen, ist die Wieder- oder Neukonstituierung dieser Gruppen. Sie fangen wieder an zu spielen, sich zu treffen oder gar zu entwickeln.
Interessant, dass es selbst DoubleBuffering in GFA Basic natürlich gab. Das Resultat lässt sich auch sehen.
Es wird immer wieder Vergessen, dass auch die Hardware vor den Homecomputern und zur/in der Mainframezeit virtualisiert wurde. Da waren zum einen die Entwicklungen von den Lochkarten zu den Computern und hier entstand dann ja auch das RAM für Random Access Memory. Das heisst letztlich auch die Virtualisierung oder die Unabhängigkeit von Daten und deren Verarbeitung. Siehe dazu auch Buch: Wie die Welt in den Computer kam (D. Gugerli) Auch die Zugänge In- und Output zu Grossrechnern wurden später virtualisiert mit den Terminals.
Einen wichtigen Schritt in der Virtualisierunggeschichte sind aber auch die höheren Programmiersprachen. Anfangs direkt in Assembler (Prozessorgebundenheit) entstehen mehr und mehr höhere Programmiersprachen wie COBOL oder ALGO oder die Lernsprache BASIC. Diese lassen sich egal auf welchem System einsetzen und übergehen damit die Hardwaregebundenheit. Das bekannteste Beispiel ist sicherlich C. Der Standard ermöglichte später das schnelle Portieren oder gar das Kaufen nur des SourceCodes zum Compilen auf jeglicher Hardware (Processor) und damit auch das Betriebssystem UNIX.
In diesem Sinn muss das Projekt „Digitale Virtualisierung“ als eine Tendenz betrachtet werden, die seit den Anfängen der Digitalen Revolution immer da war und letztlich auch ein Teil der digitalen Bewegung ist. Letztlich geht es darum so wenig Abhängigkeit und so viel Meta wie möglich zu haben. Wobei natürlich die Homecomputer- und Consolenscene das ganze dann verspätet zu den Grossrechnern nochmals „wiederholte“, um am Ende gegen die verkleinerten Grossrechner alias Mainframes mit den Grossrechnerbetriebssystemen zu unterliegen.
Gesellschaftlich spiegelt sich hier – als These – vermutlich die Idee wieder – Dinge unabhängig von Ort und Zeit laufen zu lassen. Also eine Welt zu schaffen, die kybernetisch überall funktioniert ohne störendes Lokales. Und so wurde letztlich das digitale Medium zum Träger einer Globalisierung nicht zufällig ab 1993 mit dem HTML-Standard und co.
Betrachtet man die Cracker/Demos der 80er und Anfang der 90er Jahre wird etwas schnell klar: das Gegenständliche ist schwierig.
Dabei hemmen mindestens zwei Sachen eine Direktübernahme von Content aus dem analogen Bereich (Zeichnung, Malerei, Photographie): es gibt wenig bis gar keine verfübaren Scanner und wenn es diese gibt dann muss mit Dithering oder anderen seltsamen Sachen gearbeitet werden wie etwa im Druck. Die Farbmöglichkeiten sind dabei ebenfalls minim: teilweise 2, 4 oder wenn es hochkommt 16 Farben aus einer Palette von 16 (bestehenden Farben C64) oder 512 (Atari ST) oder 4096 (Amiga) um ein paar Beispiele zu nennen. Aber noch viel einschränkender: die Auflösungen sind klein und orientieren sich am Fernseher. Es geht hier um 160 (C64) hoch bis 320×200 (ST) oder 320×256 (Amiga, PAL). Das sind nur 64 000 Bildpunkte (auf einem damals kleinen Screen). Dennoch: Farbverläufe lassen sich damit nicht machen und Flächen sind ein Problem.
Dadurch folgt das Screen-Grafikdesign nicht der erarbeiteten Logik von Gestaltung, sondern entwickelt eine eigene Welt. Diesen Welten – gerade im Gamebereich – stossen auf andere Herausforderungen als klassische Grafikentechniken, die mehrheitlich statische Fläche bedienen (Design) oder zwar Animation sind – aber noch mehrheitlich analoge Welten abbilden. Im Game oder der Demoscene geht es um Echtzeitkonstruktion von „Screen“.
Es kann also wenig übernommen werden. Dabei geht es auch nicht nur um das Design von Fläche oder das übermalen von Fläche, denn es gibt in Games ja auch immer Dinge wie Sprites, die über Fläche darüber gelegt werden und und und. Und ja all das muss designed werden für alle möglichen und unmöglichen Kombinationen. Es ist ein unsicheres Design. Digitale Welten besitzen in diesem Sinn eine „eigene“ Logik.
Die Gamedesigner* entwickeln sehr schnell eigene Ästehtiken dafür. Wie sich diese Ästehtiken unterschieden muss dringend erarbeitet werden mit Fragen wie: Wie kann ich mit so wenig Farben und damit Unterscheidung auskommen etc? Welche Rolle spielt die Interaktion etc.
Anders gesagt: Die Computergamerealität musste zuerst erschaffen werden. Es mussten Stile gefunden werden, die in sich funktionieren, interaktiv funktionieren.
Mehr dazu findet man in folgendem BlogBeitrag mit BlogEinträgen zu verschiensten Themen, wie mehr Farben, mehr plastische Grafiken und doch begrenzte Darstellungsmöglichkeiten durch die Auflösung und und und und …
Ein Post mit einer Zusammenstellung von einigen Posts dazu:
Und ja es geht um Games. Dazu ein Blick in das Innenleben eines Joysticks!
Es ist schon erstauntlich – vielleicht auch nur persönlich erstaunlich, die Faszination für generative Welten. Was macht sie so interessant? Sieht man die Ewigkeit, versucht man den Clou dahinter zu sehen oder ist es einfach das ewig Andere aus einer Routine (die man* vielleicht gar nicht kennt?) Oder sind es die anderen Regeln, dieses Befreite von allem Anderen? Oder ist es die ewige Ästhetik? Das Quasi AntiAnaloge mit seinen Grenzen? Das keine Endlosigkeit kennt? Es ist auch eine Art Meditation der digitalen Welten Es beruhigt, weil da immer etwas kommt, es den Tod überwindet? Beruhigend, weil wir verstehen, das ist nicht viel dahinter? Da gibt es keinen Grund. Und ja das kommt alles zusammen in einem Moment. In diesem Moment, wo man am digitalen Meer oder am digitalen Feuer sitzt und das andere sieht.
Oder einfacher, aber auch endlos.
Selbstverständlich sind das „endliche“ Filme .-)
Also eintauchen in die digitalen Feuer(werke) für Ah und Ohhhh
WeiterlesenAutoren: R. Bauer, …
Der folgende Blogpost ist eine Übersicht über das Phänomen VIDEO. Es besteht nicht der Anspruch wissenschaftlich tiefer das Thema zu behandeln, sondern das Phänomen übergreifend zu kontextualisieren, die Links sollen aufgezeigt werden, die rund um das Phänomen Fernseher und Video gruppiert waren in den 80er Jahren.
Das Outputgerät für Zuhause, der Fernseher. Er erweiterte das Radio um ein Bild. Die Technologie war letztlich eine Anwendung des Osziloskop aber nun gerastert. Er löst anfangs Medien ab wie das Kinomedium der Wochenschau etc. Der Fernseher privatisierte letztlich den visuellen Output und verlegte ihn ins Wohnzimmer bzw. Wohnmöbel. Inhalt dieses Mediums (viel Nachdenken dazu auch bei McLuhan) war natürlich alles, was es vorher schon gab von Theater über Film, Nachrichten, Diskussionrunden, Shows und auch Ausbildung (Telekurse etc). Es gab aber auch Neuerfindungen wie etwa interaktive Spieleshows oder Telegames.
Einen Einblick etwa ins Fernsehen 1987 bietet folgender Video – allerdings wird hier nicht wirklich gezapped (da wird nie etwas zu Ende ‚geguckt‘)
Siehe dazu auch Televisionsspiele – TV als Outputgerät (Display) und Telefon als Inputgerät (https://www.gamelab.ch/?p=9101).
Bis hierhin war das Medium Fernseher ein Endgerät. Es lebte vom ‚gestreamten‘ analogen Input und passte perfekt in die Kategorie des Massenmediums. Es erinnert aus heutiger Perspektive frappant an die Server-Client-Lösungen der Mainframes mit ihren Master-Slave-Ideen oder auch Massenmedien wie Zeitungen, Bücher. Damit bildet sich natürlich auch die Organisation der Gesellschaft mit ihren Massenmedien ab.
In den 80er Jahren entstehen nun Medien, die den Fernseher entkoppeln und sich selbst dazwischenschalten, also ganz konkret den TV-Anschluss kapern. Allen voran der Videorecorder.
WeiterlesenEs wird immer wieder vergessen, dass der Videorecorder und vorallem die Videocamera ein ganz neues handliches Medium der 80er Jahre war (und den 8mmFilm ablöste 650×465’px‘ Qualität). Der Film musste nicht entwickelt werden sondern war sofort zu Hause abspielbar und es war „möglich“ Video zu überspielen, wenn diese auch immer schlechter wurden. Es „demokratisierte“ (privatisierte/kommerzialisierte) letztlich auch das Filmen von Realität und das SelberMachen von Filmen.
Hier das Beispiel von einem Film über AJZ 1981 in Basel (nähe Bahnhof).
Dabei hatten viele Videocameras eine gewisse Medienlogik – etwa Weissabgleich und es gab dazu noch die Möglichkeit von eingebauten Effekten in VideoCameras. All dies ist im Video sichtbar.
Der Video arbeitet mit diversen VideoKollagentechniken: Parallelisierung der Geschichte des AJZ mit King Kong, dazu ein 5 Akter(?), wobei immer wieder auch Zeitungsmaterial, Strasseninterviews, Diskussionen, Beschlüsse eingeblendet werden.
// ToDo: Diskussion Videocamera/Videorecorder vs/und Videogame – Video als Weiterentwicklung des Fernsehers mit eigenem Inhalt – sei es analoger Inhalt („gefilmt“) oder Videogames.
Der Atari ST bringt wie viele klassische Computer keine Sprites mit. Diese müssen mühsam simuliert werden. Dabei wird aus dem einfachen Reinladen der Daten in die Hardwaresprites dann ein:
1. Aufbereiten (Maske erstellen)
2. Background sichern
3. Die Maske mit AND auf das Videomemory anwenden und ein Loch herstellen
4. Mit OR das nun leere Memory füllen
5. Warten auf den Raster (= Wechseln des Bildes)
(6. Sprite wieder mit gesichertem Background überschreiben)
GOTO 1