Die vierte industrielle Revolution gibt Anlass für euphorische Prognosen. Aber werden sie Realität, oder steht der Mensch der Maschine im Weg?
Im ersten Teil dieses Blogs haben wir beschrieben, wie wichtig es für die Entwicklung der Industrie 4.0 ist, vorhandene Daten zu benutzen, Systeme über Grenzen hinaus zu vernetzen und zu integrieren um die Vorstellung einer intelligenten Produktion zu verwirklichen. In diesem zweiten Teil gehen wir nun darauf ein, welche Auswirkungen auf die Mitarbeiter dies haben könnte und was das für eine Realisierung bedeuten könnte.
Paradies Paradoxon
Den Gedanken einer hoch automatisierten, sich selbst steuernden Wirtschaft hat der Wirtschaftswissenschaftler und Nobelpreisträger Wassily Leontief (1905 – 1999) bereits vor Jahren radikal weitergedacht. Das Ergebnis seines Gedankenexperiments wurde als Paradies Paradoxon bekannt:
„Die Geschichte des technologischen Fortschritts der letzten 200 Jahre ist im Grunde die Geschichte der menschlichen Rasse, wie sie langsam, aber sicher versucht, den Weg zum Paradies wieder zu finden. Was würde allerdings passieren, wenn ihr dies gelänge? Alle Güter und Dienstleistungen wären verfügbar, ohne dass dafür Arbeit notwendig wäre, und niemand würde einer Erwerbsarbeit nachgehen. Nun heißt arbeitslos sein auch, keinen Lohn zu empfangen; so würden die Menschen, wenn sie auf die neue technologische Situation nicht mit einer neuen Politik der Einkommensverteilung reagieren würden, im Paradies verhungern …“[1]
Aber man muss nicht gleich das Paradies bemühen – einige interessante Widersprüche aus heutiger Zeit reichen schon, um zumindest die euphorischsten Prognosen in Bezug auf die Industrie 4.0 und die damit verbundene Technik zu relativieren:
Phänomen 1: „Ironie der Automatisation“
Dieses Phänomen wurde 1983 von Lianen Bainbridge[2] beschrieben. Es besagt, dass durch eine zunehmende Automatisierung die Menschen immer mehr nur eine überwachende Funktion ausüben werden. Der Mensch soll nur dann eingreifen, wenn die Systeme in Probleme kommen. Irgendwann wird aber jedes auch noch so gut durchdachte System in Schwierigkeiten geraten und damit einen Eingriff erforderlich machen. Und hier beißt sich die Katze in den Schwanz. Zum einen sind solche Probleme so komplex, dass die Algorithmen sie nicht mehr lösen können und deshalb ein Eingriff erforderlich wird. Zum anderen werden dann aber die Menschen, die die Überwachung sicherstellen, überfordert sein. Sie sind in der Beseitigung von Komplikationen nicht mehr so geübt und zudem haben die Probleme einen höheren Komplexitätsgrad, als die Entwickler in die Algorithmen programmiert haben. Kurz: Je höher die Automatisierung wird, umso weniger ist der Mensch in der Lage, sie zu überblicken und vor allen Dingen dann bei Problemen korrigierend einzugreifen.
Ashbysches Gesetz
Daraus ergibt sich die Notwendigkeit, ein bestimmtes Verhältnis zwischen System und Überwacher einzuhalten. Diesen Zusammenhang hat William Ross Ashby (1903 – 1972) in seinem nach ihm benannten Gesetz (Ashbysches Gesetz) so beschrieben[3]: Die Zahl der möglichen Zustände in einem Kontrollsystem muss immer größer sein als die Zahl der möglichen Zustände im zu kontrollierenden System. Im Umkehrschluss kann man auch sagen, dass der Mensch in seiner »Begrenztheit« die Systeme limitiert.
Phänomen 2: Produktivitätsparadoxie
Empirische Studien haben gezeigt, dass vor allem im Dienstleistungssektor kein positiver Zusammenhang zwischen Investitionen in die Informations- und Telekommunikationstechnik (ITK) und der Produktivität zu bestehen scheint. Dies wird mit einer Reihe von Effekten erklärt, u.a. mit der Verzögerung zwischen Einsatz der ITK-Systeme und deren Auswirkung: Anwender müssen erst lernen, mit den Systemen zu arbeiten. Widerstände sind zu überwinden, zu optimistische Managementannahmen zu Dauer und Aufwand der Einführung sowie den zu erwartenden Ergebnissen führen zu Druck. Unzureichende Neuorganisation von Prozessen sorgt dafür, dass die Umsetzungsmaßnahmen zu kurz greifen. Und diese Faktoren verstärken sich im Zweifel noch gegenseitig.
Phänomen 3: Polanyis Paradox
1966 formulierte der Philosoph Michael Polanyi (1891 – 1976)[4]: „We can know more than we can tell … The skill of a driver cannot be replaced by a thorough schooling in the theory of the motorcar.“[5]
Menschen haben ein stilles (implizites) Wissen (tacit knowledge), bei dessen Anwendung sie sich auf Erfahrungen stützen, die sie teilweise weder in Worten ausdrücken noch in Regeln fassen können. Sie handeln und entscheiden intuitiv, was in erstaunlich vielen Fällen erfolgreicher ist als eine systematische Abwägung. So ist z.B. auch Scotty, der Chefingenieur der USS Enterprise, jemand, der sogar in der fernen Zukunft „seine“ Maschine noch mit (s)einem intuitiven Zugang beherrscht. Roboter haben dieses stille Wissen nicht. Denn alles, was nicht in Regeln fassbar oder in Worten ausdrückbar ist, kann nicht programmiert werden.
Der Faktor Mensch scheint also durch seine „Begrenztheit“ (siehe Ironie der Automatisation), seinen Widerstand (Produktivitätsparadoxon) und / oder sein stilles Wissen eine sehr wichtige Rolle in der ganzen Geschichte zu spielen. Welche wird das sein?
Diese Rolle und was die vierte industrielle Revolution für den Menschen bedeutet, wird dann das Thema des dritten Teils unseres Blogs über das Paradies 4.0.
[1] Zitiert nach: Nach Bosse. (2008). Das Ende der Erwerbsarbeitsgesellschaft – Neue Aufgaben und Möglichkeiten für die Soziale Arbeit. Seite 132. München: Grin Verlag.
[2] Bainbridge, L. (1983): Ironies of automation. Automatica, 19(6), Elsevier Ltd., S.775–779
[3] W. R. Ashby: An introduction to Cybernetics. Wiley, New York 1956
[4] Polanyi, Michael. 1966. The Tacit Dimension. New York: Doubleday
[5] „Wir können mehr wissen, als wir zu sagen vermögen … Die Geschicklichkeit eines Fahrers kann durch eine gründliche Schulung in der Theorie des Kraftfahrzeuges nicht ersetzt werden.“