Forschung, News, zAufi
Schreibe einen Kommentar

Ohne Unsicherheit wäre der Mensch undenkbar

Umgeben von Epikur, Marx, Aristoteles und anderen Denkern sinniert Dr. Helmut Gebauer über die Zusammenhänge von Technik und Gesellschaft. Foto: Heiko Weckbrodt

Umgeben von Epikur, Marx, Aristoteles und anderen Denkern sinniert Dr. Helmut Gebauer über die Zusammenhänge von Technik und Gesellschaft. Foto: Heiko Weckbrodt

Der Dresdner Technikphilosoph Dr. Helmut Gebauer im Oiger-Interview über komplexe Systeme und die Grenzen der Sicherheit

Krisen, Kriegen und Naturkatastrophen schütteln die Welt, so erscheint es uns, wenn wir tagtäglichdie Nachrichten lesen, sehen oder hören. Gerät die Welt aus den Fugen oder sind diese Unsicherheiten Teil eines größeren Bildes? Oiger-Redakteur Heiko Weckbrodt hat darüber den 62-jährigen Technikphilosophen Dr. Helmut Gebauer vom „Zentrum für Interdisziplinäre Technikforschung“ (ZIT) an der TU Dresden befragt.

Ständig hören und lesen wir über Forderungen nach mehr Sicherheit im Internet, im Straßenverkehr, nach einer sicheren Welt. Warum sind Menschen so versessen auf Sicherheit?

Dr. Helmut Gebauer: Weil es ihnen durch permanente öffentliche Problematisierung erfolgreich eingeredet wurde. Gemessen an der Geschichte und der Situation in vielen anderen Ländern dieser Welt leben wir in Deutschland in ausgesprochen sicheren Verhältnissen, in Mitteleuropa schon seit über 70 Jahren in Frieden mit einem hohen Maß an Rechtssicherheit, technischer, wirtschaftlicher und sozialer Sicherheit. Im Zentrum von Politik und öffentlicher Aufmerksamkeit jedoch stehen Krisen: Krieg und Terror, Flüchtlingskrisen, Finanz- und Haushaltskrisen, Umweltkrisen, zunehmende Armut und prekäre Bildungs- und Arbeitsverhältnisse, Pflegenotstand und unsichere Renten. All dies ist für die jeweils Betroffenen häufig emotional einschneidend, erklärt aber die verzerrte Wahrnehmung großer Teile der Bevölkerung nicht.

„Evolutionär gibt es ein Grundbedürfnis nach Kontrolle“

In der Suche nach tiefer liegenden Gründen muss man wahrscheinlich verschiedene Ebenen unterscheiden. Aus evolutionärem Blickwinkel gibt es ein Grundbedürfnis nach Kontrolle. Dieses Bedürfnis erklärt sich aus den Unwägbarkeiten einer sich unumkehrbar verändernden komplexen Welt. Einer Welt, in der einzelne Ereignisse gravierende Auswirkungen haben können. Einer Welt, in der wir nicht nur gefühlt, sondern auch objektiv mit einer ungewissen Zukunft rechnen müssen. Diesem Kontrollbedürfnis kommen wir aber in der Regel ganz unspektakulär nach: indem wir uns an Routinen wie den täglich immer gleichen Weg zur Arbeit klammern. Diese alltäglichen Muster helfen uns, mit Ungewissheit umzugehen.

In kritischen Situationen hingegen, in denen die gewohnten Routinen versagen, konzentriert sich unsere Aufmerksamkeit ganz auf unsere existenzielle Unsicherheit. Dann suchen wir nach neuen stabilen Lösungen.

Davon zu unterscheiden ist die besondere Situation in der modernen Gesellschaft. Sehr gut beschrieben hat dies Helmut Willke. Für ihn ist „Modernität durch nichts anderes präziser gekennzeichnet als durch die Brisanz und Riskiertheit kaum mehr beherrschbarer gesellschaftlicher Komplexität.“ Komplexität galt ihm schon vor 20 Jahren als das Grundproblem moderner Gesellschaften. Im Unterschied zu vormodernen, so genannten traditionalen Gesellschaften, in denen es verbindende Praktiken, Rituale und Normen gab beziehungsweise gibt, sind die Individuen in der modernen marktwirtschaftlich dominierten Gesellschaft auf sich selbst zurückgeworfen.

Dies ist wahrscheinlich der Hintergrund dafür, dass die permanent im Krisenmodus laufende mediale Darstellung gesellschaftlicher Probleme in der subjektiven Wahrnehmung der eigenen Situation auf fruchtbaren Boden fällt.

Ein Ko-Chirurg sitzt während der OP die ganze Zeit am Patienten und beim Roboter, um dort einzugreifen, wo der Roboter an seine Grenzen stößt. Foto: Heiko Weckbrodt

Auch bei der Roboterchirurgie gibt es nur Erfolgswahrscheinlichkeiten, keine Sicherheit.. Foto: Heiko Weckbrodt

Ingenieure scheuen „sichere“ Aussagen darüber, wie lang ein Verschleißteil in einem Auto hält, sprechen statt dessen lieber von Ausfallwahrscheinlichkeiten. Kaum anders ist es mit Chirurgen, wenn man sie fragt, wie sicher ein Eingriff ist. Immer wieder bekommen wir nur Wahrscheinlichkeiten als Antwort. Ist Sicherheit vielleicht ganz generell eine Illusion, ein unerreichbares Ideal?

Dr. Helmut Gebauer: Es ist zwar eine häufig gebrauchte Redewendung, aber keine Plattitüde: Vollkommene Sicherheit gibt es nicht. Vollkommene Sicherheit könnte es nur in einer Welt geben, in der alle möglichen Entwicklungen vorhersehbar wären, weil eindeutig vorbestimmt. In einer solchen Welt wäre Sicherheit kein Thema, weil es Evolution und uns nie gegeben hätte. Unbestimmtheit verunsichert nicht nur, sondern ermöglicht auch Kreativität, Veränderung und Evolution.

„Auch wenn 99 % aller Knie-OPs erfolgreich sind, kann der 100. sein Bein verlieren“

Im Rahmen eines modernen wissenschaftlichen Weltbildes kann nur von Sicherheitsstandards im Sinne von „sicher mit einer bestimmten Wahrscheinlichkeit“ gesprochen werden.

Diese Standards beruhen immer auf statistischen Analysen großer Fallgruppen. Deren Wahrscheinlichkeitsaussagen dürfen aber nicht unbedingt auf den Einzelfall übertragen werden. Selbst wenn beispielsweise 99 % aller Knie-Operationen erfolgreich sind, kann der 100. Patient durch ein Virus sein Bein verlieren.

Ein Baumweißling-Schmetterling saugt Nektar aus einer Klee-Blüte. Foto: Werner Seiler, Wikipedia, gemeinfrei

Foto: Werner Seiler, Wikipedia, gemeinfrei

Außerdem wissen wir aus einer Vielzahl von Unfällen und Katastrophen, dass es komplexe Konstellationen gibt, in denen Einzelereignisse jenseits aller Wahrscheinlichkeit die weitere Entwicklung bestimmen. Wie inzwischen gut erforscht ist, reagieren komplexe Prozesse hochsensitiv auf minimale Änderungen in den Anfangs- und Randbedingungen und Prozessvariablen. Hier wird gern die Metapher vom Flügelschlag eines Schmetterlings benutzt, der gleichsam am anderen Ende der Welt einen Sturm auslösen kann. Denn typisch für solche komplexen Systeme ist, dass sie sich unumkehrbar und nicht-linear entwickeln, kleinste Ursachen also oft sehr große Auswirkungen haben, die nicht mehr korrigiert werden können. Sind solche evolutionären Prozesse einmal angestoßen, sind ihre Folgen nur sehr eingeschränkt voraussagbar. Dieses Geschehen bewegt sich ständig zwischen Regel und Chaos, durchschreitet stabile und instabile Phasen, damit immer auch kritische Punkte, in denen singuläre Ereignisse über die weitere Entwicklung entscheiden.

Können Sie das an einem Beispiel erklären?

Dr. Helmut Gebauer: Denken Sie beispielsweise an die Oktoberrevolution. Das komplexe System wäre hier die russische Gesellschaft, die kritische Phase der Krieg und das Machtvakuum nach der Abdankung des Zaren. Die Singularität war hier Lenin: Man muss sich fragen, ob die Oktoberrevolution vor 100 Jahren so stattgefunden und der Weltgeschichte eine neue Wendung gegeben hätte, wenn der Zug, der Lenin zurückbrachte, Russland aus irgendeinem Grund nie erreicht hätte.

Lenin-Büste aus dem Jahr 1926. Repro: Stadtmuseum Dresden

Lenin-Büste aus dem Jahr 1926. Repro: Stadtmuseum Dresden

Was zählt eigentlich zu den komplexen Systemen? Die menschliche Gesellschaft? Eine Technologie? Das Internet? Ein Aquarium?

Dr. Helmut Gebauer: Entscheidend sind, wie schon erwähnt, nicht-lineare Rückkopplungen, sich selbst verstärkende Prozesse. Kleine Veränderungen führen nicht zu kleinen Wirkungen, sondern potenzieren sich. Aus Konzerten kennen wir die elektroakustische Rückkopplung zwischen Mikrofon, Verstärker und Lautsprecher. Ein anderes Beispiel ist der so genannte Echokammereffekt im Internet. Dieser Effekt entsteht wenn durch die Nutzer ein virtueller Raum aufgesucht wird, indem die eigene Meinung widergespiegelt wird, Resonanz erfährt. Durch vielfältige Wiederholungen schließt sich die betreffende Community sukzessive gegenüber anderen Gruppen und damit Meinungen ab.

Kann man komplexe Systeme steuern oder hilft da nur „ausprobieren“?

Dr. Helmut Gebauer: Komplexe Systeme können gesteuert werden, wenn bestimmte Bedingungen erfüllt sind. Zum einen müssen die System-Umwelt-Beziehungen kontrolliert werden können. Dafür kommen ein Labor, eine Versuchs- oder Produktionsanlage in Frage. Zum anderen muss man die Kontrollparameter kennen, die es gestatten, kontrolliert Eigendynamik auszulösen. Im Bereich der Nanotechnologie werden in diesem Sinne Selbstorganisationsprozesse als technisches Prinzip genutzt. Um hierbei Wissen und Erfahrung zu gewinnen, ist natürlich vielfältiges „Ausprobieren“ erforderlich. Es sind Bedingungen, die es gestatten, aus der Beobachterperspektive heraus zu operieren.

Szenario für selbstkonstruierende Molekularschaltungen aus Micro-Tubuli und Quantenpunkten. Abb.: TUD

Szenario für selbstkonstruierende Molekularschaltungen aus Micro-Tubuli und Quantenpunkten. Abb.: TUD

Dies verändert sich grundlegend, wenn man in einem offenen Feld in vernetzte Prozesse hinein handelt, die immer schon begonnen haben und auf deren Bedingungen die Akteure nur noch sehr eingeschränkt zugreifen können. In diesen Prozessen sind sie immer Teilnehmer, die in ihrer Aktivität immer auch Effekte auslösen, die sich ihrer Steuerung entziehen. Ein möglicher Effekt einer intelligenten sich selbst organisierenden Verkehrssteuerung kann die Verlagerung des Verkehrs in ein Wohngebiet sein.

Bumerang-Effekt durch Fixierung auf Bio-Kraftstoffe

War die Zentralverwaltungswirtschaft der DDR womöglich ein Beispiel für solch ein komplexes System, dass sich letztlich der Steuerung entzog? Die Versuche der SED-Planer, durch immer neue Hebel und Eingriffe die Wirtschaft und die Gesellschaft zu gewünschten Zielen zu führen, führten ja offensichtlich nicht zum Erfolg…

Dr. Helmut Gebauer: Komplexe Systeme bewegen sich im Spannungsfeld von Stabilität und Instabilität. Mitunter fällt hier auch die Formulierung: am Rande des Chaos. Bedingt durch die Sensitivität dieser Systeme für singuläre Ereignisse sind zu tief greifende Interventionen eher kontraproduktiv. So ist aus meiner Sicht die politische Fixierung auf bestimmte Technologien in der Regel problematisch und generiert nicht selten so genannte Rebound-Effekte, eine Art Bumerang-Effekt. Der Einsatz von Bio-Kraftstoffen, der zu einer Konkurrenzsituation in der landwirtschaftlichen Flächennutzung oder zur Abholzung von Regenwäldern führen kann, ist hier ein prominentes Beispiel.

Etwa jeder achte Internetnutzer fürchtet sich vor Beleidigungen im Netz. Abb.: Heiko Weckbrodt

Etwa jeder achte Internetnutzer fürchtet sich vor Beleidigungen im Netz. Abb.: Heiko Weckbrodt

Bundesregierung und EU versuchen in zunehmendem Maße, das Internet durch Datenschutz-Gesetze und, Anti-Hate-Speech-Vorgaben zu regulieren. Drohen auch hier Bumerang-Effekte, etwa zu Lasten der Meinungsfreiheit?

Dr. Helmut Gebauer: Wichtig sind gesetzliche Regelungen, die negative Auswirkungen der verschiedenen Aktivitäten im Internet eindämmen. Hierbei geht es um Aktivitäten, die Werte, wie die menschliche Würde, den Schutz der Privatsphäre, Rechtssicherheit et cetera verletzen. Es ist aus meiner Sicht keineswegs so, dass durch die Sanktionierung von Beleidigungen und Hassbotschaften im Internet die Meinungsfreiheit eingeschränkt wird. Im Gegenteil: Wenn man als Reaktion auf eine bestimmte Ansicht einen Shitstorm befürchten muss, schränkt dies die Meinungsfreiheit ein. Es handelt sich hierbei in der Regel ja um extreme verbale Gewalt. Freiheit ist die Freiheit von Alternativen ausschließendem Zwang, nicht von Abhängigkeiten wie Regeln. Die entscheidenden Instrumente sind Rechtssicherheit und eine hohe Sanktionswahrscheinlichkeit bei Rechtsverstößen. Voraussetzung hierfür ist Transparenz, freilich ohne dabei Persönlichkeitsrechte zu verletzen.

"Industrie 4.0" meint meist hochautomatisierte Fabriken, in der Roboter, Maschinen, Werkstücke und Produkte durch Funkchips vernetzt und flexibel bzw. dezentral gesteuert werden. Foto: Bitkom

„Industrie 4.0“ meint meist hochautomatisierte Fabriken, in der Roboter, Maschinen, Werkstücke und Produkte durch Funkchips vernetzt und flexibel bzw. dezentral gesteuert werden. Foto: Bitkom

Beispiel „Industrie 4.0“: Wenn man darunter hochautomatisierte, vernetzte Fabriken mit Selbstaushandlungsprozessen der Maschinen und Roboter versteht, dürfte so eine Fabrik wahrscheinlich ein komplexes System sein. Erwarten uns da neue Risiken?

Dr. Helmut Gebauer: Das Problem der Sicherheit ist noch weitgehend ungeklärt. Der erforderliche intensive Datenaustausch bietet natürlich Angriffsflächen, sei es für Datendiebstahl, Manipulation der Prozesse oder Sabotage.

Dabei muss man bedenken. Die sogenannten Smart Factories, die intelligenten und vernetzten Fabriken im Sinne des Leitbildes „Industrie 4.0“, entstehen nicht von heute auf morgen. Wir sprechen hier von einem evolutionären Prozess, wobei nicht nur Maschinen und Materialien im Blick sind, sondern immer auch die Mensch-Maschine-Interaktionen. Es geht um das Zusammenspiel von maschinellem und menschlichem Verhalten, von adaptiven maschinellem und menschlichem Lernen. Eine intelligente Kommunikation sollte es auch ermöglichen, spezifisch menschliche Faktoren, wie das Alter oder physische, affektive und kognitive Zustände, besser als bisher zu berücksichtigen. In der Gestaltung dieses Prozesses ist der Parameter der Sicherheit von Beginn an in Forschung und Entwicklung integriert. Anderenfalls würden die besagten Selbstaushandlungsprozesse zwischen Maschinen und zwischen Mensch und Maschine nicht funktionieren. Die intelligente und sichere Steuerung ist quasi Entwicklungsaufgabe. Ein Stichwort hierbei ist Smart Maintenance: Durch die kontinuierliche Analyse von Sensordaten und das Erkennen von Fehler- und Ausfallmustern fallen Werkzeuge und Produktionsanlagen weniger häufig aus. Ziel ist es, kritische Teile vorausschauend auszutauschen.

Auch hier ist aus meiner Sicht die oben getroffene Unterscheidung wichtig. Unser Leben vollzieht sich in einer irreversiblen, sich selbst organisierenden und der Evolution unterliegenden Welt. Technologien zielen auf Kontrolle, die es ermöglicht, Prozesse wiederholbar ablaufen zu lassen. Dies gelingt gut, wenn wir diese Prozesse gegenüber Störungen weitestgehend isolieren bzw. störungsfreundlich entwickeln können, wenn wir von außen Zugriff auf Anfangs- und Randbedingungen haben. Durch die Ausdehnung der Kommunikation in das offene Netz hinein, hebt sich die Isolierung auf und finden sich alle Akteure und Systeme in einer anderen Situation wieder, in einem offenen evolutionären Feld mit nur noch begrenzten Zugriffsmöglichkeiten auf die Bedingungen. Dies erzeugt vollkommen neue Risiken.

Im vernetzten Straßenverkehr der Zukunft sollen Roboterautos und intelligente Ampeln automatisch erkennen, wenn Fußgänger unbedacht auf die Straße rennen - und dafür sorgen, dass die Fahrzeuge rechtzeitig autonom bremsen. Abb.: hw

Im vernetzten Straßenverkehr der Zukunft sollen Roboterautos und intelligente Ampeln automatisch erkennen, wenn Fußgänger unbedacht auf die Straße rennen – und dafür sorgen, dass die Fahrzeuge rechtzeitig autonom bremsen. Abb.: hw

Unter falscher Flagge

„Durch die offene unsichere Umgebung ergeben sich auch neue Herausforderungen für die IT-Sicherheit. Geschlossene Systeme sind vor Angriffen von außen relativ gut absicherbar; Risiken gehen von Innentätern aus. Weitergehende IT-Sicherheits-Mechanismen sind deshalb kaum notwendig. Beispielsweise wird die Steuerung von medizinischen Geräten nicht als sicherheitskritisch im Sinne der IT-Sicherheit eingestuft und deshalb nicht vor Angriffen geschützt, weil sie innerhalb kontrollierter, nicht vernetzter Bereiche eingesetzt werden. Ähnliches gilt für Fabriksteueranlagen.

Cyber-Physical Systems werden prinzipiell aber in unsicheren, offenen Umgebungen betrieben und sind intensiv mit einer unsicheren Umgebung vernetzt. Hierdurch ergeben sich vielfältige Risiken. Der Angriff des Stuxnet-Wurms etwa hat drastisch verdeutlicht, welche Folgen unzureichende IT-Sicherheit haben kann.

Ein weiteres Beispiel: Bei der Kommunikation zwischen Fahrzeugen (Car2Car) sind die Kommunikationspartner an sich bekannte und kontrollierte Systeme. Jedoch könnte ein Angreifer versuchen, sich einen Vorteil zu verschaffen, indem er Falschinformationen sendet – etwa ,Ich bin ein Krankenwagen’ – und sich dadurch illegal freie Fahrt verschaffen.“

(Aus der Studie „Agenda Cyberphysikalische Systeme“ der Deutschen Akademie der Technikwissenschaften)

Wer denkt beim Stichwort "Künstliche Intelligenz" micht gleich am dem HAL 9000 aus der Space Odyssey? Abb.: Cryteria, Wikipedia, CC3-Lizenz

Wer denkt beim Stichwort „Künstliche Intelligenz“ micht gleich an dem HAL 9000 aus der Space Odyssey? Abb.: Cryteria, Wikipedia, CC3-Lizenz

Beispiel „Künstliche Intelligenz“ (KI): Uns umschwirren viele Schlagworte, die mit der Analyse großer Datenmengen zu tun haben: „Big Data“, „Deep Learning“, autonomes Fahren und andere rechenintensive Prozesse mit komplexer Hard- und Software. Könnten diese Entwicklungen womöglich doch noch zu KI-Systemen führen, in die nach dem Einschalten niemand mehr wirklich mit umfassendem Verständnis hineingucken kann? Müssen wir dann mit neuen Sicherheitsrisiken durch unkontrollierbare KIs rechnen, wie in manchem Sci-Fi-Film schon ausgemalt?

Dr. Helmut Gebauer: Ein viel diskutiertes Szenario ist eine Superintelligenz. Ich denke hier an die Visionen von Ray Kurzweil, dem Chef-Ingenieur von Google. Er ist überzeugt, dass Computer 2029 den Turing Test bestehen werden, so dass menschliche und künstliche Intelligenz nicht mehr unterscheidbar sind. Den Zeitpunkt der schon länger diskutierten technologischen Singularität sieht er 2045 gekommen. Er sieht hier eine Wende in der Mensch-Technik-Zivilisation, die unsere Vorstellungskraft sprengt. Stichworte sind Superintelligenz, die über Bewusstsein verfügt, die Möglichkeit des Mind-Uploadings, Hirn-Hirn-Kommunikation über das Internet etc.

 

Biologische Intelligenz tritt auf der Stelle – während die KI galoppiert

„Man muss dabei im Auge behalten, dass sich die künstliche Intelligenz Jahr für Jahr verdoppelt, während die biologische Intelligenz im Wesentlichen stillsteht. In den 2030er Jahren wird der nichtbiologische Teil unserer Intelligenz dominieren. Mitte der 2040er Jahre wird dieser Teil unserer Intelligenz milliardenfach leistungsfähiger sein als der biologische Teil. Nichtbiologische Intelligenz wird Zugang zu ihrem eigenen Design erhalten und in der Lage sein, sich in immer schnelleren Zyklen weiter zu verbessern.“

(Ray Kurzweil: Der Mensch, Version 2.0)