Digitalisierung ist eigentlich ein komplexer Prozess, bei dem es vermutlich immer darum ging, weg zu kommen von den Constraints des Analogen hin zum Gestaltbaren und damit Kontrollierbaren. Oder anders gesagt: zu selbstläufigen Prozessen, unabhänig vom Menschen (vgl. dazu Turing Maschine etc). Dabei nutzte selbstverständlich – die nächste Schicht immer auch die Schicht darunter, um damit abstrakter und unabhäniger zu werden. Der Begriff Digitalisierung ist auch irreführend, weil er nahelegt, dass Nicht-Digitales digitalisiert wird, also umgewandelt. Dabei ist das nur eine Teil – denn es entstehen auch neue oder zumindest nur noch entfernt verwandte Techniken mitsamt ihren Kulturtechniken. Diese sind dann nicht mehr unbedingt rückübersetzbar. Das Web als Hypertext etwa, wo man tatsächlich Ähnlichkeiten sieht etwa zu Fussnoten, der Link aber dies interaktiv ermöglicht ohne den Gang in die Bibliothek quasi die „Defiktionalisierung“. Und dann gibt es immer ganz neue Dinge. Das Ganze ist vergleichbar mit der „Gutenbergisierung“ – wo auch ganze neue Formate entstanden – etwa das Buch. Aber natürlich auch weit mehr, da die Digitalisierung letztlich nicht mehr auf Menschen als Prozessor bauen muss, sondern eben den Computer erfunden hat, die unabhängig vom Menschen Dinge prozessieren kann und so Server bis zu AI ermöglicht. Dadurch ist es auch möglich sehr viele Dinge, die vormals nur sozial möglich waren oder nur als psychische Prozesse da waren zu defiktionaliseren, also anders gesagt: als Software zu realisieren. Es geht also auch um die Erweiterung der auf Menschen laufenden Medien zu einem Konglomerat von auf Menschen- und Computer-laufenden Medien und der damit verbundenen Gesellschaft.
Interessant ist selbstverständlich auch (siehe L.) das gerade die eigentliche Digitalisierung auch in verschiedene Abschnitte eingeteilt werden muss, die jeweils „ganz andere“ Voraussetzungen hatten (etwa 8Bit Homecomputer vs 16/32Bit Homecomputer).