Die Erfahrung in anderen Bereichen, sowohl im Verkehr als auch anderswo, zeigt, dass "Kollege Computer" grundsaetzlich weniger Fehler macht als der Mensch.
Nun kann man das juristisch sehen, denn da bedeutet das Wort "grundsätzlich" exakt das Gegenteil dessen, was man landläufig darunter versteht: Ja, vom Grundsatz her ist es so, aber es gibt Ausnahmen.
Im Deutschen haben wir da ein weiteres Problem, denn wo der Engländer
Error und
Mistake kennt, sagt der Deutsche nur Fehler.
Aus einer Schulung zum Thema Human Factors:
Wenn ich auf der Autobahn fahre und die richtige Abfahrt verpasse, dann ist das ein
Error. Ich hatte die richtige Absicht, aber ich habe aus Versehen etwas falsches gemacht.
Wenn ich auf die Autobahn fahre und da in einem angesagten Stau ende, dann ist das ein
Mistake. Ich habe von vornehrein einen falschen Ansatz gewählt, den ich bei sorgfältiger Vorbereitung (Verkehrsfunk hören) hätte vermeiden können.
Grundsätzlich macht der Mensch mehr errors ("To err is human", Irren ist menschlich), er macht mehr Flüchtigkeitsfehler, verwechselt oder misversteht Dinge etc. Das kann man nicht verhindern, bestenfalls minimieren, z.B. mit Training. Computer arbeiten stur ihre Algoritmen ab (zumindest derzeit noch, mit KI wird auch der Computer zu einer Art Error befähigt...) und machen dabei keine Fehler. Einzige Ausnahme sind Hardwarefehler, aber gegen die kann man von vornehrein durch Redundanz, plausibilitätsprüfung etc. angehen, bei Computern kann man Errors sehr einfach und effektiv auf ein Minimum reduzieren.
Bei Mistakes sieht es anders aus, in jedem Algoritmus schlummern konzeptionelle Fehler, jeder Algoritmus wird sehr lange vor der Nutzung erdacht und kann veraltete Annahmen ethalten, in jedem Algoritmus kann man wichtige Plausibilitätskontrollen vergessen haben etc. Computer können sogar mehr Mistakes machen als Menschen, zumindest solange sie mit klassischen Algoritmen laufen.
Vor allem aber haben wir seit der Steinzeit die meisten Schwächen der Menschen identifiziert, und kennen viele Strategien um Mistakes zu minimieren. In der Luftfahrt z.B. durch CRM und SOPs, durch vernünftige Schulung. Jede neue Software ist erstmal weitgehend Neuland, dessen Schwächen man zunächst identifizieren muss.
Und natürlich muss man neben Fehlern auch die Fähigkeiten von Mensch und Kollege Computer sehen. Menschen können seit Jahrtausenden lernen, Menschen können abstrahieren, Menschen können improvisieren.
Der klassische Computer ist dumm und kann nur Schema F. Er lernt nicht, er kann nicht ausserhalb seines Algoritmus denken und handeln, er ist auf eine fixe Anzahl an Informationen beschränkt.
Wenn man die Stärken und Schwächen beider Systeme kennt, wenn man es schafft sie im Team zusammen arbeiten zu lassen, kann die heutige Kombination aus Computern und Menschen das Optimum darstellen.
Wenn man die Aufgaben den falschen zuweist, wenn sie nicht vernünftig zusammenarbeiten, kann die Kombination von Mensch und Maschine richtig schlecht sein. Dann passieren diese Fälle, in denen einer allein es perfekt gemeistert hätte, beide in Kombination aber kläglich versagen.
In dem Zusammenhang: Was macht die 737 eigentlich nach dem MCAS Eingriff natürlicherweise? Trimmt MCAS auch wieder zurück, wenn es der Meinung ist die Überziehgefahr sei gebannt?
Oder ist das System eine Einbahnstraße, und es wird vom Piloten erwartet zu identifizieren, dass die Gefahr jetzt vorbei ist, und dann manuell zurückzutrimmen? Oder wird vom Autopiloten erwartet zurückzutrimmen?
Mit dem aktuellen Informationsstand sieht es für mich so aus, als hätte Boeing die Mensch-MCAS-Schnittstelle von Grund auf unsinnig konstruiert (incl. fehlender Handbuch- und Schulungsdaten). Und das MCAS selbst nicht sinnvoll programmiert (z.B. fehlende Redundanz und Plausibilitätskontrolle)