Wenn die Maschine über Leben oder Tod entscheidet – Maschinen die Töten

Noch keine Stimmen.
Bitte warten...

Und plötzlich trifft die Maschine eine Entscheidung

Werbung / Advertisements

Autonomes Fahren. Einfach im Auto sitzen und nichts tun. Einen Kaffee trinken. Whatsapp Nachrichten lesen. Ein Facebook Selfie machen. Zeit ist Geld und Fahrzeit ist unnötig. Und wer kann heute schon mit dem Auto fahren – zu schnell, zu weit links/rechts, zu abgelenkt? Rücksichtslose Autofahrer und ständiger Stau. Nutzloser Zeitverlust. Dieser könnte besser genützt werden (Anm. Facebook Selfies schießen zum Beispiel). Die Zukunft der selbstfahrenden Autos hat bereits begonnen. Es gibt die Technologie, es gibt die Autos – und es gibt auch bereits Teststrecken. Und wir werden uns sehr rasch darauf verlassen. Abgeben von Entscheidungen viel uns immer leicht. Keine Entscheidungen treffen und für nichts mehr verantwortlich sein. Auch in der Industrie wird immer mehr Arbeit / Arbeitsschritte an Maschinen und Roboter abgeben. Protest? Fast keiner. Außer vielleicht wenn Arbeitsplätze verschwinden. Allerdings ob dies klug ist? Wer trifft im Notfall Entscheidungen? Wer trifft überhaupt Entscheidungen bei Unklarheiten? Die Maschine mit ihrer künstlichen Intelligenz? Der Mensch? Der Programmierer? Zufallsvariablen? Statistik?

Wir verlassen uns auf Technik – Try & Error wird Menschenleben kosten

Technik in allen Lebensbereichen. Allerdings hat Technik heute nicht nur mehr mit Mechanik zu tun, sondern ein Großteil nennt sich Elektronik. Und dies benötigt Strom. Ein Stromausfall bringt so ziemlich jede Produktion zu erliegen. Aber nicht nur die Produktion. Durch ausschließliche Arbeitsplätze mit PCs stehen auch Behörden sowie die gesamte Verwaltung eines Betriebes still. Supermärkte bekommen nicht mal die Türen auf – und Taschenrechner anstelle der Kassa? Sicher nicht. Aber widmen wir uns am besten einem Beispiel an dem Try & Error zukünftig Menschen leben kosten könnte (aber langfristig vielleicht auch retten).

Werbung / Advertisements

Die Fluglotsen machen täglich einen sehr guten Job und bringen Flugzeuge sicher vom Start zur Landung quer durch den Luftraum. Doch wo Menschen arbeiten, können auch der ein oder andere Fehler passieren. Wir berufen uns meist darauf, dass dies ganz normal ist. Ein Mensch darf Fehler machen und dies ist legitim. Bis zu einem gewissen grad zumindest. Und normalerweise haben solche Fehler auch keine Auswirkungen – zumindest solange es keine Todesopfer gibt. Und ansonsten unterstürzt uns ja die Technik. Schwierig wird es genau in zwei Fällen.

  1. Die Maschine spielt dem Menschen unwahre (falsche) Tatsachen vor. Können Sie sich noch an den Air France Flug 447 erinnern? Es sollte ein gewöhnlicher Langstrecken Flug von Rio de Janeiro nach Paris mit erfahrenen Piloten werden. Durch Widersprüche der Geschwindigkeitsmesser (Pitot Sonden Ausfall) und unterschiedlichen Messwerten infolgedessen, deaktivierte der Bordcomputer automatisch den Autopilot. Es kam zu einen übersteuern im Modus Alternate Law durch die Piloten welche in großen Höhen eigentlich nur den Autopiloten gewohnt sind. Wie gestresst werden wir, wenn Systeme ausfallen? Der Blutdruck steigt? Es dreht sich alles nur noch um ein Thema, während andere Faktoren ausgeblendet werden. Und dies auch nur, wenn wir bemerken, dass die Maschine einen Fehler gemacht hat. Ansonsten heißt es doch: Blind vertrauen. Die Piloten standen vor zwei Problemen: Sie waren den Ausfall des Autopilots in großer Höhe nicht gewöhnt. Allerdings bringt dies erfahrene Piloten nicht aus dem Konzept. Allerdings ist natürlich jeder Ausfall ein Stress. Dieser blendet gewissen Informationen aus und Gedankengänge werden verhindert. Zusätzlich waren die Geschwindigkeitsmesser nicht mehr korrekt (wodurch sich ja der Autopilot ausgeschalten hat). Der Grund, weshalb sich der Autopilot deaktiviert hat, hätte die Katastrophe verhindern können. Allerdings versuchten die Piloten anhand der falschen Geschwindigkeitswerte das Flugzeug zu manövrieren. Bis in den Tot. Wer trägt in einem solchen Fall die Verantwortung? Die Piloten, weil die Verantwortung ab dem Ausfall an sie überging? Der Computer, weil er nicht alles deaktiviert hat und falsche Geschwindigkeitsmesswerte anzeigte? An die Hersteller der Messsonden? Oder doch eine Kombination aus all dem? Wäre der Vorfall ohne Technik auf Sicht nicht passiert? Wäre ein Flug ohne der vielen Elektronik möglich?
  2. Eine menschliche Anweisung (Information) unterscheidet sich von einer Maschinenanweisung. Im zweiten Fall kann als bestes Beispiel die Flugzeugkollision von Überlingen genannt werden. Eine Tupolew und eine Boeing 757 waren auf gleicher Höhe und flogen unaufhaltsam aufeinander zu. Das Traffic Alert and Collision Avoidance System (oder kurz TCAS), welches in beiden Maschinen installiert war, meldetet nach Unterschreitung des Sicherheitsabstand eine bevorstehende Kollision. Die Boeing 757 bekam vom TCAS den Befehl zu sinken auf eine vorgegebene standardisierte Flughöhe (wird meist mit Autopilot genau gehalten). Die Tupolew hingegen bekam vom TCAS die Meldung zum Steigen. Gleichzeitig bekam die Piloten der Tupolew vom Lotsen (der allerdings nicht wusste wie sich das TCAS entscheidet) die Aufforderung zu sinken. Es entstand eine kurze Diskussion, welchen Befehl ausgeführt werden sollte – Mensch oder Maschine.

Was hätten Sie in einem solchen Fall getan? Mensch oder Maschine vertraut? 


Vertrauen? Wissen?

Die Piloten der Tupolew entschieden sich zugunsten des Lotsen und sanken ebenso wie die Boeing. Sie waren demnach wieder auf exakt gleicher Höhe, das TCAS warnte weiter, doch wurde ignoriert – und es kam was kommen musste. Mittlerweile wurde eine “Reversal Resolution Advisory (Umkehrung) implementiert, falls sich ein Pilot nicht an die Anweisungen des TCAS haltet. In dem Falle wäre die Boeing 757 zum Steigen aufgefordert worden. Zudem besagt eine Anweisung, dass dem TCAS Folge zu leisten ist, egal welche Anweisung der Lotse gibt. Machtabgabe an das TCAS? Doch Drohnen oder Kleinflugzeuge haben diese modernen Sicherungsgeräte meist nicht installiert – sind teilweise sogar unberechenbar in der Flughöhe.

Technik fällt aus – Die Katastrophe beginnt

Was alles passieren kann, wenn Systeme versagen (aufgrund welcher Ereignisse auch immer), kann an vielen Beispielen erörtert werden. Mir gefällt das Buch Blackout von Marc Elsberg relativ gut, weil es einem nochmals bewusst macht, wie sehr wir uns auf Strom und Energie im heutigen Leben verlassen. Wir benützen zwar Wörter wie Handy, Akku, Fernseher, Facebook, WLAN, Internet – aber die Grundlage ist Elektrizität. Unser kompletter Lebensinhalt ist darauf angewiesen. Und leider nicht nur unser Leben – sondern auch unser Gehirn. Unsere Gefühle, Gedanken, Gedächtnis und Informationen.

Werbung / Advertisements

Natürlich ist der Eintritt des Ausfalles von Strom gering. Statistisch weniger als ein Tag pro Jahr und meist nie großflächig. Aber es gibt Schadcodes, überlastete Leitungen, umfallende Bäume und meist weitere Probleme. Können Sie noch beruhigt weiterschlafen?

Probleme aus dem Alltag

Ein kleineres Problem trat erst kürzlich (29.08.2016) am Flughafen Wien auf, als Eurocontrol Daten nicht vollständig an Austrocontrol weiterleitete. Eine sogenannte “Hardware-Software” Komplikation ist aufgetreten und zwang Flieger zum in der Luft kreisen oder verspäteten Start. Oder das Problem führte einfach zu einem Flugausfall. Nun gut, Wien ist nicht die Welt mit einem Massenverkehrsaufkommen wie Frankfurt am Main, aber Berlin baut ja schon 10 Jahre am Flughafen. Ein kleiner Fehler und es entsteht das totale Chaos – die Menschen sind nicht mehr in der Lage, ohne diese fehlenden Daten einen Flieger landen zu lassen. Unglaublich oder? Ein kleines Detail und nichts geht mehr – und es ist lediglich eine Information die fehlt. Eine eigentlich simple und unwichtige Information. Und wenn der Sprit der Flieger ausgeht? Notwasserung im Neusiedlersee? Landung auf der verstopften Süd-Ost-Tangente (mit der Go-Maut-Box ab 6 Reifen klarerweise)? Wie gut, dass wir in Europa leben und noch den ein oder anderen Ausweichflughafen haben (wenn BER fertig wird sogar um einer mehr).

Wer entscheidet auf welcher Grundlage und mit welchen Variablen?

Kann eine Maschine selbstständig entscheiden? Ja, sie kann. Sogar selbstständig. Und zwar mit einer Zufallsvariable welche statistisch gleichverteilt sein sollte. Allerdings hat es einen Haken: Sie kann selber nicht entscheiden, wann sie die Zufallsvariable einsetzt (außer mit einem Zufallstimer) – sobald dies einprogrammiert wird oder der Algorithmus nur noch in Einzelfällen Zufallsvariablen einsetzt, wird es schwierig. Schon allein die Beurteilung ob eine Zufallsvariable eingesetzt wird, obliegt ja schließlich dem Programmierer – oder Auftraggeber. Aber der kennt sich doch meist sowieso nicht aus.

Werbung / Advertisements

Doch Programmierer wollen eigentlich nicht schuld sein. Mit Statistik wollen Programmierer auch nichts zu tun haben. Also einfach einen Schritt weitergehen. Künstliche Intelligenz. Sie entwickeln mittlerweile sogar eine eigenen Sprache, sodass sie abgeschaltet werden mussten. Mit einer Unklarheit: Was erzählten sie sich? Ob die Menschheit vernichtet werden sollte? Roboter die Welt übernehmen sollten? Autos werden zukünftig miteinander kommunizieren. Was passiert wenn ein Auto dem anderen Fake News sendet? Oder die Kaffeemaschine am Tratsch beiwohnen möchte? Oder einfach eine Information fehlt. Eine simple. Oder ausfällt. Wenn der Fahrer sein Facebookselfie macht und die Anweisung bekommt, dass in 0,5 Sekunden ohne sein Handeln ein Unfall passiert? Respekt – so weit werden wir bald sein. Datenschutz mal ganz auf der Seite gelassen.

Die Maschine ist schneller, die Maschine macht Fehler – können wir es besser?

Menschen entscheiden auf gewisse Grundlagen. Diese sind uns meist selber nicht so genau bekannt. Jeder Mensch ist anders und viele kennen sich selbst ja kaum. Weshalb werden Entscheidungen genau so und nicht anders getroffen? Aufgrund vom sozialen Umfeld oder persönlichen Erlebnissen? Aufgrund von Tatsachen oder Fake News? Alles berechtigte Fragen. Das MIT hat einen kurzen Test erstellt, wobei jeweils zwischen zwei Situationen entschieden werden kann. Die Entscheidungen könnte etwa so lauten: Die Anzahl an Menschenleben retten oder doch Rechtstreue? Würden Sie Kinder vor Älteren Personen retten? Hätten Ärzte ein größeres Anrecht auf Leben als ein Bankräuber? Zählt das Eigenleben vor Fremden – selbst für die Maschine? Wie sieht es mit Tierliebe aus?

Ganz egal wie Sie sich nachfolgend entscheiden werden – es werden immer Personen oder Tiere sterben. Die Frage ist doch nur, welche Entscheidung die Maschine treffen soll. Und ob wir wirklich diese Regel implementieren sollten. Wer trägt die Schuld? Software? Hardware? Mensch? Maschine? Ausprobieren auf http://moralmachine.mit.edu/.

Noch keine Stimmen.
Bitte warten...
Werbung / Advertisements
Werbung / Advertisements

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.