Bild nicht mehr verfügbar.

Im Silicon Valley nimmt man die Zukunft selbst in die Hand, anstatt über sie Prognosen zu verfassen.

Foto: Getty Images

Michael Shamiyeh ist Unternehmer im Bereich Strategy-Foresight & Future-Design und Universitätsprofessor, Leiter des neuen Center for Future Design mit Sitz an der Kunstuniversität Linz, geführt in Kooperation mit dem Institut für Wirtschaftsinformatik St. Gallen. Er berichtet von seiner Gastprofessur in Stanford.

Foto: ho

Es ist immer das Gleiche: Je mehr das alte Jahr sich neigt, umso mehr richtet sich unsere Aufmerksamkeit auf die Zukunft. Nicht ohne Grund boomt zu dieser Jahreszeit das Geschäft der Bleigießer, Astrologen, und nicht zuletzt der Fitnessstudios. Niemand begibt sich gerne unvorbereitet auf Wanderung. Die alljährliche Sehnsucht nach validen Vorhersagen sowie die Frage, wie wir zu diesen gelangen, ist daher nicht unbegründet.

Im Silicon Valley stellt sich diese Frage allerdings so nicht. Vielmehr liebt man es hier bekanntlich, das Schicksal selbst in die Hand zu nehmen, und hält sich deswegen an den Grundsatz des Nobelpreisträgers Dennis Gabor. Der meinte 1963, die Zukunft kann man nicht vorhersagen, sehr wohl aber erfinden. Die Protagonisten des Tals – wie etwa einst Alan Kay, der wesentlich die konzeptionellen Grundlagen für Laptop- und Tablet-Computer sowie E-Books definierte und als Architekt der modernen grafischen Benutzeroberfläche gilt – berufen sich gerne auf dieses Zitat.

Todsünden der Vorhersage

Viele Beispiele finden sich hier hingegen für Todsünden in der Vorhersage von Zukunft. Drei seien hier kurz erwähnt:

Ein zentraler Irrtum, dem man gerne unterliegt, ist etwa, die Auswirkungen einer neuen Technologie auf kurze Sicht überzubewerten und auf lange Sicht unterzubewerten.

Roy Amara, Mitbegründer und ehemaliger Präsident der in Palo Alto Ende der 1960er-Jahren gegründeten Denkfabrik Institute for the Future gilt als Begründer dieser Erkenntnis, weshalb man auch vom Amaras Gesetz spricht. Ein gutes Beispiel hierfür ist das Aufkommen der Computer.

Computerskepsis

Der Film Desk Set aus dem Jahre 1957 gibt sehr gut wieder, wie sehr man sich vor dem Verlust von Arbeitsplätzen damals fürchtete. Selbst zwei bis drei Dekaden später war noch immer keine substanzielle Veränderung zu spüren.

1977 hielt zum Beispiel das in Palo Alto ansässige Forschungszentrum PARC der Firma Xerox einen Futures Day ab. Den Konzernmitgliedern wurde die Zukunft der Büroarbeit mit PCs gezeigt. In Zeitungsberichten war danach zu lesen, dass eine Tastatur nicht standesgemäß für Männer sei.

Im selben Jahr äußerte auch Ken Olsen, damaliger Präsident und Gründer der Digital Equipment Corporation seine Ansicht (oder Voraussicht), dass es keinen Grund gibt, warum jemand einen Computer zu Hause haben möchte.

Ein zweiter großer Fehler passiert gerne beim unreflektierten Fortschreiben von exponentiellen Entwicklungen. Gordon Moore, ein Mitbegründer von Fairchild Semiconductor und Intel, hat 1965 in einem Aufsatz seine Beobachtung festgehalten, dass sich, einfach formuliert, die Chipleistung alle zwei Jahre verdoppelt. Einige Jahre später revidierte er seine Aussage und korrigierte den Zeitraum auf 18 Monate.

Der entscheidende Punkt ist, dass sich diese damals erkannte Gesetzmäßigkeit nicht endlos fortsetzen lassen muss. Konkret hat man zum Beispiel erkannt, dass physikalische Grenzen in der Machbarkeit von Computerchips dem rund ein halbes Jahrhundert geltenden Moore-Gesetz Einhalt gebieten.

An Schnelligkeit gewöhnt

Ein zweiter Grund für Änderungen in exponentiellen Entwicklungen kann zudem auch in einer gesättigten Marktnachfrage liegen, die dazu führt, dass es keinen Antrieb mehr gibt, Entwicklungen analog der Gesetzmäßigkeit voranzutreiben. Hätten wir die Steigerungsraten analog fortgeschrieben, hätten wir heute Handykameras mit einer dreistelligen Anzahl von Megapixels. Aus gutem Grund hat sich der Bedarf aber bei etwa 12 MP eingependelt.

Und nicht zuletzt wird immer gerne auch die Bereitstellungsgeschwindigkeit von neuen Technologien unterschätzt. In den letzten Jahren haben wir uns an das Tempo der Software-Updates des Silicon Valley gewöhnt – oder gewöhnen müssen. Das funktioniert deshalb, weil die Grenzkosten für die Neuverteilung von Codes nahezu bei null liegen.

Elon Musk muss warten

Anders sieht die Situation allerdings im Bereich der Hardware aus. Das wissen wir aus eigener Erfahrung: Viele der Autos, die wir heute kaufen, die nicht selbst fahren und zum Teil auch gar nicht softwarefähig sind, werden in einer Dekade vermutlich noch unterwegs sein. Gleiches gilt für unsere Produktionsstätten.

Das gerne gezeichnete Zukunftsszenario von einer digitalen Welt, in der sich AI sofort in sämtlichen betrieblichen Bereichen, von der Gestaltung der Produkte über die Produktion bis hin zur Lieferkette, einfach implementieren lassen können wird, ist weit von der Realität entfernt.

Das muss auch Elon Musk mit seinen Tesla-Produktionsstätten in Freemont erkennen, wenn Stellenangebote nach Qualifikationen in alten Industriestandards fragen. (Michael Shamiyeh aus Palo Alto, 3.12.2017)