Es wird immer wieder Vergessen, dass auch die Hardware vor den Homecomputern und zur/in der Mainframezeit virtualisiert wurde. Da waren zum einen die Entwicklungen von den Lochkarten zu den Computern und hier entstand dann ja auch das RAM für Random Access Memory. Das heisst letztlich auch die Virtualisierung oder die Unabhängigkeit von Daten und deren Verarbeitung. Siehe dazu auch Buch: Wie die Welt in den Computer kam (D. Gugerli) Auch die Zugänge In- und Output zu Grossrechnern wurden später virtualisiert mit den Terminals.
Einen wichtigen Schritt in der Virtualisierunggeschichte sind aber auch die höheren Programmiersprachen. Anfangs direkt in Assembler (Prozessorgebundenheit) entstehen mehr und mehr höhere Programmiersprachen wie COBOL oder ALGO oder die Lernsprache BASIC. Diese lassen sich egal auf welchem System einsetzen und übergehen damit die Hardwaregebundenheit. Das bekannteste Beispiel ist sicherlich C. Der Standard ermöglichte später das schnelle Portieren oder gar das Kaufen nur des SourceCodes zum Compilen auf jeglicher Hardware (Processor) und damit auch das Betriebssystem UNIX.
In diesem Sinn muss das Projekt „Digitale Virtualisierung“ als eine Tendenz betrachtet werden, die seit den Anfängen der Digitalen Revolution immer da war und letztlich auch ein Teil der digitalen Bewegung ist. Letztlich geht es darum so wenig Abhängigkeit und so viel Meta wie möglich zu haben. Wobei natürlich die Homecomputer- und Consolenscene das ganze dann verspätet zu den Grossrechnern nochmals „wiederholte“, um am Ende gegen die verkleinerten Grossrechner alias Mainframes mit den Grossrechnerbetriebssystemen zu unterliegen.
Gesellschaftlich spiegelt sich hier – als These – vermutlich die Idee wieder – Dinge unabhängig von Ort und Zeit laufen zu lassen. Also eine Welt zu schaffen, die kybernetisch überall funktioniert ohne störendes Lokales. Und so wurde letztlich das digitale Medium zum Träger einer Globalisierung nicht zufällig ab 1993 mit dem HTML-Standard und co.