Das ist wirklich ein trauriger Vorfall, der vielen Menschen das Leben gekostet hat.
Nach dem Motto "safety first" emfinde ich das (vorläufige) Grounding als die richtige Entscheidung. Wichtig in diesem Punkt ist meiner Meinung nach einfach in der Statistik die Korrelation nicht ausser Acht zu lassen - mitunter der absolut häufigste Fehler in statistischen Analysen, egal ob es dadurch besser oder schlechter wird.
Es gibt starke Hinweise dafür, dass in 2 Fällen kurz hintereinander ein und dasselbe(!) System so reagiert hat, dass die Piloten die Maschine nicht mehr in der Luft halten konnten. Dazu gibt es einige anonyme Berichte, die über ein ähnliches aber glimpflich ausgegangenes Verhalten erzählt haben. Und scheinbar ist es schwierig das zu kontrollieren trotz der bekannten Maßnahmen nach dem ersten Vorfall.
Die Statistik bei diesem neuen Flugzeugtypen ist nicht sehr groß, daher sollte dies erst in Ruhe überprüft und ggfs. verbessert werden, daher meine volle Unterstützung für das Grounding. Besser einmal zu viel und das auf Grund einer falschen Vermutung aussprechen, als ein weiteres Unglück zu riskieren.
Mittlerweile bin ich u.a. für Softwareentwicklung für Anwendungen in der Industrieproduktion zuständig. Daher ist meine Sichtweise auf Software folgendermaßen:
- In der Regel sind Computerprogramme deterministisch, d.h. verhalten sich bei gleichen Eingabeparametern vollständig identisch (ich gehe vor Allem bei derart sensiblen Systemen nicht davon aus, dass man nicht deterministische Algorithmen verwendet).
- Es ist sehr schwierig während der Entwicklung alle Situationen vorauszusehen und dafür entsprechende Tests zu schreiben, bei Testlfügen zu simulieren und dann alle Verhaltensweisen korrekt abzufangen.
- Wenn bei Software ein unerwartetes Verhalten auftritt steckt meistens eine nicht bedachte Ausgangssituation dahinter, oder eine falsche Parametereingabe (z.B. Sensor kaputt / verdreckt / aus der montierten Position gerutscht).
- Man kann auch banalerweise etwas übersehen, dass in einem bestimmten (regulären!) Fall der Algorithmus ein nicht gewolltes Ergebnis rausbringt (Softwarefehler). Das kann so sein, dass es nur in seltenen Fällen passiert, und meistens eben nicht in diesen Zweig springt, da die Situation selten auftritt.
- Es kann auch durch eine nicht bedachte Handlungsweise des Bedieners ausgelöst werden. Stichwort: Ich habs entwickelt, ich weiß genau wie ich es bedienen soll. Jemand der das nicht gemacht hat, geht aber vielleicht anders an die Aufgabe dran und kann daher ein anderes Programmverhalten auslösen als gewollt. Man ist dann "betriebsblind" und sieht diese Vorgehensweise erst, wenn es jemand anders so macht.
-> Aus meiner Erfahrung heraus ist es besser, als Lösung zusätzliche Infos im Programm einzublenden und / oder diese Bedienung zu verhindern, bzw. das Programm auf diese Arbeitsweise anzupassen, als eine Schulung vorzunehmen, um diese Art der Bedienung zu verhindern... Gerade in Hektik gibt es ansonsten eine potentielle Gefahr etwas falsch zu machen.
Insbesondere wenn die unerwünschte Verhaltensweise mehrmalig auftritt ist es meiner Meinung nach Zeit sich diesen Punkt genauer anzusehen -> Daher das Grounding absolut folgerichtig. Die Vorgehensweise des Groundings an sich ist dann ein völlig anderer Aspekt. Dieser ist nicht besonders gut und koordiniert vorgenommen worden -> Dafür kann aber weder der Hersteller noch der Fehler an sich etwas und sollte daher getrennt beurteilt werden. Da sollte man hier auch nicht auf die ungefilterte und entweder nicht durchdachte / reflektierte oder absichtlich provozierende "Argumente" bestimmter Schreiblinge eingehen.
Den Unterschied den ich hier sehe, und den ich Boeing (sofern es sich als der Grund des Unfalls rausstellt!) ankreide:
In der Industrie ist es aus Kostengründen üblich auch noch Nachbesserungen in der Inbetriebnahme Phase durch Tests im realen Betrieb beim Kunden vorzunehmen.
Hier hat man aber auch einfach mal Zeit sich Gedanken über den Grund eines Fehlers zu machen und den in Ruhe zu analysieren. Andererseits stehen die Kosten eines kurzen Stillstandes (es lässt sich ja im Handbetrieb im Normalfall recht schnell lösen) plus Softwarenachbesserung in keinem Verhältnis zu den erhöhten Entwicklungskosten für eine deutlich längere Testphase.
In der Luftfahrtindustrie hat man aber ein viel klarer Umrissenes Aufgabenspektrum. Es basiert auf weniger möglichen Fällen / Inputs und bedeutet eine abgekoppelte Reaktion von anderen Bauteilen.
Es ist Lebenswichtig und im Fehlerfalle kann es katastrophal sein. Dort sollten also viel höhere Ansprüche geltend gemacht werden und "einfacher" Tests geschrieben werden können.
Insbesondere eine Plausibilitätsprüfung von Eingabewerten der Sensoren würde ich mir wünschen. Gerade die Vergangenheit hat ja einige Vorfälle verursacht durch defekte / eingefrorene / verstopfe Sensoren aufgezeigt.
Was ich hier allerdings - zugegeben mein Wissensstand ist hier aus den Medien / Berichten zusammengewürfelt - merkwürdig finde ist, dass diese Software etwas verschleiert wird.
Üblicherweise ja ein Hinweis darauf, dass man das absichtlich zum Kaschieren eines Problems macht.
Meiner Meinung nach sollte es eine klare Anzeige im Cockpit geben:
- System greift ein, ggfs. mit 2-3 Begründungen
- Hier kann ich das System overrulen / Abstellen.
-> Genau das macht ja sogar das ESP im Auto: Ich sehe, wenn es eingreift.
Mit dieser Info kann ein Pilot doch viel gezielter eingreifen, als erstmal verwundert zu sein "Fuck warum macht das Flugzeug das? Ich verstehe das nicht?" Das blockiert die Reaktion eines Menschen!
- Zudem ist meiner Meinung nach essentiell: Validierung des Sensorinputs über mindestens ein 2. System. Gerade in der Luftfahrtindustrie gibt es doch eine starke Redundanz. Dazu kann man sich das differentiell / zeitlich betrachten.
Wenn da was nicht passt -> abschalten mit Warn Meldung an den Piloten.
Vorgehensweise wie man das Flugzeug vielleicht nicht optimal aber stabil bekommt (zB wie auch anstellen und Schub geben, wenn die Sensoren ausfallen ala AF447).
Meiner Meinung nach sollte Boeing der Öffentlichkeit beantworten, ob und wie diese Punkte erfüllt wurden, und wenn Nein warum nicht.
Daraus könnte man in Zukunft lernen, um die sicherlich häufiger werden "Assistenzsysteme" besser zu entwickeln und abzusichern.
Je umfangreicher eine Software, desto höher ist die Wahrscheinlichkeit eines Fehlers ...
Ich denke in diese Richtung sollte auch die Entwicklung von Boeing gehen, bzw. wird sie auch gehen (Softwareupdate....).
Alles unter Vorbehalt, dass sich die begründeten Vermutungen als wahr aufzeigen.