10. März 2019: Ethiopian 737 MAX crash

ANZEIGE

thorfdbg

Erfahrenes Mitglied
14.10.2010
3.388
631
ANZEIGE
Die Erfahrung in anderen Bereichen, sowohl im Verkehr als auch anderswo, zeigt, dass "Kollege Computer" grundsaetzlich weniger Fehler macht als der Mensch.

Naja nun. Der Computer kann in dem Sinne keine Fehler machen, richtig. Aber der Programmierer kann, und das Management kann auch fehlerhafte Anforderungen formulieren. Und weder Programmierer noch Manager sitzen in dem Flieger, den sie letztendlich (indirekt) durch ihre Arbeit steuern. Natürlich hat der Computer keine Probleme mit Ermüdung, Ablenkung oder Crew-Kommunikation. Dafür hat er andere Probleme, nämlich keine Möglichkeit, spontane Problemlösungen zu finden oder von seiner Programmierung abzuweichen.

Wie gesagt, ich habe nichts gegen Computer an Bord. Allerdings ist es mein Beruf, Software zu entwickeln, und ich weiß schon, wie schwierig es da ist, fehlerfreie Software zu bauen - es geht nämlich fast überhaupt nicht.

Es hilft nur: Testen, testen, testen. Genau da sehe ich aber Nachlässigkeit bei Boing. Es muss sich doch im Rahmen der Entwicklung des Systems jemand mal überlegt haben: "Was passiert eigentlich, wenn die Sensoren ausfallen, und wie kommunizieren wir das dem Piloten". Fehlerbehandlung ist die hohe Kunst der Softwareentwicklung - wenn Menschenleben davon abhängen, um so mehr.
 
  • Like
Reaktionen: asdf32333

airhansa123

Erfahrenes Mitglied
03.11.2012
4.144
14
Guter Artikel über die Vorurteile ggü. einer afrikanischen Airline (ET) und Afrika als ganzes:

Vielleicht hätte er besser mal was detaillierteres zu den 200 Flugstunden des Co-Piloten gesagt. Die Frage ist doch bislang unbeantwortet. FÜr Philosphie ist noch genug Zeit wenn die Unfallursache geklärt ist.
 

Gulliver

Erfahrenes Mitglied
10.11.2009
1.604
36
Kerkrade (NL)
www.kuhnert.nl

Volume

Erfahrenes Mitglied
01.06.2018
12.297
10.121
Die Erfahrung in anderen Bereichen, sowohl im Verkehr als auch anderswo, zeigt, dass "Kollege Computer" grundsaetzlich weniger Fehler macht als der Mensch.
Nun kann man das juristisch sehen, denn da bedeutet das Wort "grundsätzlich" exakt das Gegenteil dessen, was man landläufig darunter versteht: Ja, vom Grundsatz her ist es so, aber es gibt Ausnahmen.

Im Deutschen haben wir da ein weiteres Problem, denn wo der Engländer Error und Mistake kennt, sagt der Deutsche nur Fehler.
Aus einer Schulung zum Thema Human Factors:
Wenn ich auf der Autobahn fahre und die richtige Abfahrt verpasse, dann ist das ein Error. Ich hatte die richtige Absicht, aber ich habe aus Versehen etwas falsches gemacht.
Wenn ich auf die Autobahn fahre und da in einem angesagten Stau ende, dann ist das ein Mistake. Ich habe von vornehrein einen falschen Ansatz gewählt, den ich bei sorgfältiger Vorbereitung (Verkehrsfunk hören) hätte vermeiden können.

Grundsätzlich macht der Mensch mehr errors ("To err is human", Irren ist menschlich), er macht mehr Flüchtigkeitsfehler, verwechselt oder misversteht Dinge etc. Das kann man nicht verhindern, bestenfalls minimieren, z.B. mit Training. Computer arbeiten stur ihre Algoritmen ab (zumindest derzeit noch, mit KI wird auch der Computer zu einer Art Error befähigt...) und machen dabei keine Fehler. Einzige Ausnahme sind Hardwarefehler, aber gegen die kann man von vornehrein durch Redundanz, plausibilitätsprüfung etc. angehen, bei Computern kann man Errors sehr einfach und effektiv auf ein Minimum reduzieren.
Bei Mistakes sieht es anders aus, in jedem Algoritmus schlummern konzeptionelle Fehler, jeder Algoritmus wird sehr lange vor der Nutzung erdacht und kann veraltete Annahmen ethalten, in jedem Algoritmus kann man wichtige Plausibilitätskontrollen vergessen haben etc. Computer können sogar mehr Mistakes machen als Menschen, zumindest solange sie mit klassischen Algoritmen laufen.
Vor allem aber haben wir seit der Steinzeit die meisten Schwächen der Menschen identifiziert, und kennen viele Strategien um Mistakes zu minimieren. In der Luftfahrt z.B. durch CRM und SOPs, durch vernünftige Schulung. Jede neue Software ist erstmal weitgehend Neuland, dessen Schwächen man zunächst identifizieren muss.

Und natürlich muss man neben Fehlern auch die Fähigkeiten von Mensch und Kollege Computer sehen. Menschen können seit Jahrtausenden lernen, Menschen können abstrahieren, Menschen können improvisieren.
Der klassische Computer ist dumm und kann nur Schema F. Er lernt nicht, er kann nicht ausserhalb seines Algoritmus denken und handeln, er ist auf eine fixe Anzahl an Informationen beschränkt.

Wenn man die Stärken und Schwächen beider Systeme kennt, wenn man es schafft sie im Team zusammen arbeiten zu lassen, kann die heutige Kombination aus Computern und Menschen das Optimum darstellen.
Wenn man die Aufgaben den falschen zuweist, wenn sie nicht vernünftig zusammenarbeiten, kann die Kombination von Mensch und Maschine richtig schlecht sein. Dann passieren diese Fälle, in denen einer allein es perfekt gemeistert hätte, beide in Kombination aber kläglich versagen.

In dem Zusammenhang: Was macht die 737 eigentlich nach dem MCAS Eingriff natürlicherweise? Trimmt MCAS auch wieder zurück, wenn es der Meinung ist die Überziehgefahr sei gebannt?
Oder ist das System eine Einbahnstraße, und es wird vom Piloten erwartet zu identifizieren, dass die Gefahr jetzt vorbei ist, und dann manuell zurückzutrimmen? Oder wird vom Autopiloten erwartet zurückzutrimmen?
Mit dem aktuellen Informationsstand sieht es für mich so aus, als hätte Boeing die Mensch-MCAS-Schnittstelle von Grund auf unsinnig konstruiert (incl. fehlender Handbuch- und Schulungsdaten). Und das MCAS selbst nicht sinnvoll programmiert (z.B. fehlende Redundanz und Plausibilitätskontrolle)
 

Airsicknessbag

Megaposter
11.01.2010
21.784
15.716
Natürlich hat der Computer keine Probleme mit Ermüdung, Ablenkung oder Crew-Kommunikation. Dafür hat er andere Probleme, nämlich keine Möglichkeit, spontane Problemlösungen zu finden oder von seiner Programmierung abzuweichen.

Guter Artikel, in dem das Problem spezifisch fuer die Luftfahrt beleuchtet wird:

Titel: Captain Computer - DER SPIEGEL 31/2009

Zehn Jahre alt, aber nach wie vor lesenswert.
 

MANAL

Erfahrenes Mitglied
29.05.2010
14.913
10.281
Dahoam
Umgekehrt gibt es keinen Grund eine Abrüstung von MCAS zu feiern. Eine MAX ohne MCAS dürfte eine mässig vorbereitete Cockpitcrew ebenfalls vor Herausforderungen stellen. Welchen Einfluss sollen Piloten haben, ab wann ist eine ordentlich programmierte Bevormundung das geringere Risiko?

Dadurch wird es wohl am ehesten in etlichen Softwareupdates und einem eigenen Typerating für die MAX enden. Würde natürlich die Betreiber von NG und MAX treffen die sicher Zusatzkosten an Boeing weiterreichen werd


Dieser Prozess ist auch bei Airbus nicht ohne Unfaelle abgegangen. Siehe Lufthansa in Warschau.

Ob man Warschau mit den MAX-Problemen vergleichen kann? Das System wurde auf bestimmte Limits ausgelegt. Durch diverse Umstände (Rückenwind, sanftes Aufsetzen, Aquaplaning) wurde der On-Ground-Sensor allerdings deutlich später ausgelöst.
Aber Du hast natürlich recht, dass auch Airbus erst durch einige Abstürze gelernt hat, dass Arroganz gegenüber den Piloten keine Lösung ist.


Ob ein A320 so ohne weiteres ohne Flight Envelope Protection fliegbar waere, weiss ich nicht. Siehe XL Airways Germany vor Perpignan.

Der A320 ist als stabiles Flugzeug ausgelegt und sollte auch ohne Protection fliegbar sein. Beim XL-Absturz hatte der Computer sogar richtigerweise erkannt, dass ein Widerspruch bei den Sensoren vorhanden ist, sich ausgeschaltet und auch die Piloten darüber informiert. Auch wurde ein "USE MANUAL PITCH TRIM" angezeigt mit dem das Flugzeug weiterhin steuerbar gewesen wäre.
Dass die Crew den Stall-Test zudem in so geringer Höhe durchgeführt hat spricht nicht für eine saubere Vorbereitung der Tests.



Da hast du Recht, was die Größe angeht, da passt A2xx besser. Aber ist wohl trotzdem eher Verhandlungstaktisch begründet.

Ich glaube LH rechnet genau durch zu welchen Preis und Bedingungen man eine MAX nehmen würde. Dass LH Ladenhüter zu besonderen Konditionen bereit ist zu übernehmen ist ja nichts neues: A340-600, B747-8


Es hilft nur: Testen, testen, testen. Genau da sehe ich aber Nachlässigkeit bei Boing. Es muss sich doch im Rahmen der Entwicklung des Systems jemand mal überlegt haben: "Was passiert eigentlich, wenn die Sensoren ausfallen, und wie kommunizieren wir das dem Piloten". Fehlerbehandlung ist die hohe Kunst der Softwareentwicklung - wenn Menschenleben davon abhängen, um so mehr.

Da man in einem harten Konkurrenzkampf mit Airbus ist wo man eh schon im Hintertreffen war hatte die Konzernführung nicht die Eier in der Hose mehr Zeit und Geld den Entwicklungs- und Testabteilungen zur Verfügung zu stellen. Ebenso realitätsblind waren die Führungsebenen der Airlines die Boeing solchen Druck gemacht haben. Gerade ein Großkunde der soviele Flugzeuge dieses Musters übernimmt sollte darauf bestehen ein fertig entwickeltes Flugzeug ohne Fehler in die Flotte aufnehmen zu wollen.
 

xscampi

Reguläres Mitglied
23.01.2010
93
0
Hintertaunus Nähe Feldberg
Da man in einem harten Konkurrenzkampf mit Airbus ist wo man eh schon im Hintertreffen war hatte die Konzernführung nicht die Eier in der Hose mehr Zeit und Geld den Entwicklungs- und Testabteilungen zur Verfügung zu stellen. Ebenso realitätsblind waren die Führungsebenen der Airlines die Boeing solchen Druck gemacht haben. Gerade ein Großkunde der soviele Flugzeuge dieses Musters übernimmt sollte darauf bestehen ein fertig entwickeltes Flugzeug ohne Fehler in die Flotte aufnehmen zu wollen.

Inwiefern hat sich eigentlich Al Baker zum MAX-Problem geäußert? Er stirbt doch normalerweise nicht an Herzdrücken, wenn es um die Unzulänglichkeiten von Flugzeugmodellen geht.
 

oxygen

Reguläres Mitglied
23.08.2018
53
0
Inwiefern hat sich eigentlich Al Baker zum MAX-Problem geäußert? Er stirbt doch normalerweise nicht an Herzdrücken, wenn es um die Unzulänglichkeiten von Flugzeugmodellen geht.

Mir ist nichts davon bekannt. Er hat ja auch keine 737
 
Zuletzt bearbeitet:

insofern

Erfahrenes Mitglied
29.08.2017
1.160
689
jwd
Im Deutschen haben wir da ein weiteres Problem, denn wo der Engländer Error und Mistake kennt, sagt der Deutsche nur Fehler.

Sehr schöne Analogie, die Autobahn.

Der „Fehler“ ist aber auch nur landläufig.
Error hat im Deutschen die Konnotation von Versehen, mistake von Versäumnis.
 
  • Like
Reaktionen: asdf32333

juliuscaesar

Megaposter
12.06.2014
21.302
19.163
FRA
China, das riesige Land mit eigenen Luftfahrt-Ambitionen in der 737/320-Klasse und circa 25%iger Abnehmer aller zukünftigen 737, war nach dem ET-Unglück eine der ersten Staaten,
die den Vogel [konsequenterweise] gegroundet haben.

Nun kommt zum Grounding auch noch die "Aussetzung der Zulassung" der 737 max hinzu, was nochmal einen starken weiteren Schritt bedeutet:


https://www.aero.de/news-31307/China-setzt-Zulassung-der-737-MAX-aus.html
 

longhaulgiant

Erfahrenes Mitglied
22.02.2015
10.073
9.460
Wir müssen dann nur noch der Natur schlechtes Wetter und plötzliche Winde und den Flugzeugen technische Defekte verbieten, dann funktioniert das auch. :)

In dem Zusammenhang fand ich es recht erheiternd was ein (angeblicher) ATPL drüben im Heise Forum vor wenigen Wochen geschrieben hat.

Sinngemäß meinte er dort, dass man Piloten (also auch ihn selbst! sic!) eigentlich eh nicht mehr bräuchte da die Dinger auch heute schon praktisch alles selbst machen können. Die Piloten wären nur der Psychologie wegen im Cockpit.
Auf den Einwand, dass schon ein stärkerer Wind (dauerhaft) oder etwas kräftigere Böen dazu führen, dass sich der A/P deaktiviert kamen dann lediglich ein paar Zahlen zu Autoland mit einer 777.

Manchmal wundert man sich schon was selbst Piloten für einen Blick auf ihr Arbeitsgerät haben.
Als Vergleich: Ich kann einen Computer programmieren und ein Machine Learning Modell erstellen und trainieren (landläufig als KI bezeichnet). Danach kann das Teil mit einer bestimmten Wahrscheinlichkeit bspw. Bildinhalte erkennen. Würde ich diesem Algorithmus mit einem anderen Trainingsset die Steuerung eines AKW überlassen? Sicherlich nicht!

Ähnlich verhält es sich (noch) hier beim Flugzeug. In gewissen Grenzen erfüllen die heutigen Systeme ihre Aufgabe sehr gut, oft besser als der Mensch selbst. Sobald es aber gewisse Bereiche verlässt ist man verlassen. Dann davon zu sprechen, dass man keine Piloten mehr bräuchte ist einfach nur haarsträubend...
 
  • Like
Reaktionen: asdf32333

ollifast

Erfahrenes Mitglied
04.07.2018
842
0
Als Vergleich: Ich kann einen Computer programmieren und ein Machine Learning Modell erstellen und trainieren (landläufig als KI bezeichnet). Danach kann das Teil mit einer bestimmten Wahrscheinlichkeit bspw. Bildinhalte erkennen. Würde ich diesem Algorithmus mit einem anderen Trainingsset die Steuerung eines AKW überlassen? Sicherlich nicht!
Alleine schon deshalb nicht, weil das Machine Learning Modell sich gerne auch mal an völlig irrelevantem Beiwerk orientiert, das nur zufällig mit den zu erkennenden Mustern korreliert.

Von echtem Lernen, wie wir das mit Kausalität über das "Spike Timing" in jeder Synapse machen, sind die Rechner bei akzeptabler Geschwindigkeit (!, das ist der Knackpunkt, auch beim autonomen Fahren, theoretisch kann die Turing Maschine alles) weit weg.

Ähnlich verhält es sich (noch) hier beim Flugzeug. In gewissen Grenzen erfüllen die heutigen Systeme ihre Aufgabe sehr gut, oft besser als der Mensch selbst. Sobald es aber gewisse Bereiche verlässt ist man verlassen. Dann davon zu sprechen, dass man keine Piloten mehr bräuchte ist einfach nur haarsträubend...
Das sehe ich aktuell auch nicht. Die Kombination ist gut, Rechner können so gut regeln, wie es kein Mensch beherrscht, umgekehrt erkennt der Mensch Zusammenhänge, bei denen der Rechner längst mit der "Nase" im Boden steckt.
 
  • Like
Reaktionen: longhaulgiant

Airsicknessbag

Megaposter
11.01.2010
21.784
15.716
Wieviele Jumbo-Kapitäne tummeln sich in Foren und wieviele Jumbos gibt es überhaupt nur?

Bei a.net ein paar, die es glaubwuerdig behaupten; auch Rentner, was Deinen zweiten Halbsatz etwas relativiert. Zusaetzlich verifiziert zwei FOs, einer forenaktiv, einer fotografierend.

Es sind nicht nur Fakes und Blender im Netz unterwegs.
 

Luftikus

Megaposter
08.01.2010
24.898
10.787
irdisch
Wenn der bei Heise Autopiloten und deren Grenzen gar nicht kennt, scheint der aber fake gewesen zu sein? Viele Leute imitieren auch nur den Jargon und haben dann bei elementaren Sachthemen keinen blassen Schimmer.
 

Loungepotato

Erfahrenes Mitglied
02.12.2016
4.420
5.765
In dem Zusammenhang fand ich es recht erheiternd was ein (angeblicher) ATPL drüben im Heise Forum vor wenigen Wochen geschrieben hat.

Sinngemäß meinte er dort, dass man Piloten (also auch ihn selbst! sic!) eigentlich eh nicht mehr bräuchte ...

Ähnlich verhält es sich (noch) hier beim Flugzeug. In gewissen Grenzen erfüllen die heutigen Systeme ihre Aufgabe sehr gut, oft besser als der Mensch selbst. Sobald es aber gewisse Bereiche verlässt ist man verlassen. Dann davon zu sprechen, dass man keine Piloten mehr bräuchte ist einfach nur haarsträubend...

Der Typ war ein Aufschneider, was nicht heißt, dass es kein Pilot war. ;)

Was du zu den automatischen Flugzeug-Systemen schreibst, trifft doch auf so viele Bereiche zu: z.B. automatische Übersetzung funktioniert für simple Standardaufgaben schon halbwegs brauchbar, so bald es etwas spezieller wird, kommt es schnell zum Unfall. Und das, obwohl man uns seit mind. drei Jahrzehnten erzählt, dass es in ein paar Jahren keine Übersetzer mehr braucht ...
 
  • Like
Reaktionen: Luftikus

ollifast

Erfahrenes Mitglied
04.07.2018
842
0
Ich zwar selber schon für Heise geschrieben (c't), aber das Leserforum sollte man nicht so für voll nehmen.
 

ollifast

Erfahrenes Mitglied
04.07.2018
842
0
Was du zu den automatischen Flugzeug-Systemen schreibst, trifft doch auf so viele Bereiche zu: z.B. automatische Übersetzung funktioniert für simple Standardaufgaben schon halbwegs brauchbar, so bald es etwas spezieller wird, kommt es schnell zum Unfall. Und das, obwohl man uns seit mind. drei Jahrzehnten erzählt, dass es in ein paar Jahren keine Übersetzer mehr braucht ...
OT: Mein ganz heißer Tipp zur Übersetzung: DeepL
 
  • Like
Reaktionen: longhaulgiant

odie

Erfahrenes Mitglied
30.05.2015
8.690
5.375
Z´Sdugärd
Manchmal wundert man sich schon was selbst Piloten für einen Blick auf ihr Arbeitsgerät haben.
Als Vergleich: Ich kann einen Computer programmieren und ein Machine Learning Modell erstellen und trainieren (landläufig als KI bezeichnet). Danach kann das Teil mit einer bestimmten Wahrscheinlichkeit bspw. Bildinhalte erkennen. Würde ich diesem Algorithmus mit einem anderen Trainingsset die Steuerung eines AKW überlassen? Sicherlich nicht!

Ähnlich verhält es sich (noch) hier beim Flugzeug. In gewissen Grenzen erfüllen die heutigen Systeme ihre Aufgabe sehr gut, oft besser als der Mensch selbst. Sobald es aber gewisse Bereiche verlässt ist man verlassen. Dann davon zu sprechen, dass man keine Piloten mehr bräuchte ist einfach nur haarsträubend...

Musst nicht mal so weit gehen. Das komplexe denken kann halt (noch?) keine KI.

Fangen wir doch nur mal beim Alltag an. Jeder denke ich wird einen Foto haben. Egal ob im Handy, als Hosentaschenknipse oder als DSLR. Bei Fotografieren hast du "nur" 3 Unbekannte. Blende, Iso, Verschluss. Jetzt muss deine Cam eine Rechnung mit 3 Unbekannten machen. Und das geht sogar. Nur halt nicht wirklich gut. Greift der Benutzer Händisch ein und bedient die Kamera eben so wie man es soll kommen GANZ andere Bilder raus. Selbiges mit dem Bild selbst. Bei den meiste wird ein JPG auf der Karte landen (mal abgesehen das die meisten keine RAW Bilder können). Dahinter verbrirgt sich auch eine KI die den Speicherabdruck vom Sensor runterrechnen ähnlich wie beim MP3 Format. Auch dabei gibts jede Menge Fehler in der Routine. Nimmst du ein RAW Bild auf und macht mittels Software (Lightroom z.B.) die "Berechnung" selbst kommt auch ein ganz anderes Bild bei raus.

Und dabei rede ich nur von einem System bei dem alle Sensoren richtig funktionieren. Wie willst du den einer KI in einem Flugzeug beibringen auf ggf falsche Signale zu reagieren? Bremsassistent bei BMW z.B. Da gibts einen billigen der mit einer optischen Kamera funktioniert. Bei ungünstig stehender Sonne denkt die Optik eben "oh Mist, ich seh nix mehr, also steht vor mir einer" und haut dir einfach so bei 200 auf der Bahn mal eben den Stachel rein bis zum Stillstand. Tolles System.

Oder wir hier im MAschinenbau haben auch selbst optimierende Systeme. Das System lernt sich selbst an und lernt mit jedem Schritt immer mehr. Das fängt bei mehr oder weniger komplizierten PID Reglern an und hört bei einfachen "Aufzugstür Steuerungen" auf. Fakt ist aber das es (noch?) nichts auf dem Markt gibt das einen Menschen und DESSEN Lernfähigkeit ersetzen könnte. Den das beste System ist nur so gut wie derjenige der es anlernt. Noch ein kurzes OT Beispiel: Wen euer Auto mal nicht will gehts in die Werkstatt. Hier gibts ein im Prinzio klasse System (zuminderst bei VAG), das sich "geführte Fehlerdiagnose" nennt. Du steckst den Computer ein liest den Fehlerspeicher aus und sagst "So Computer...helf mir mal eben". Der Computer sagt dir "kontrollier das". Du bestätigst das du es gemacht hast, der Computer misst nochmals und sagt dir den nächsten Schritt: "Mess mit Werkzeug xy (2. Schublade von unten, das rote Teil) an Klemme sowiso" usw...eigendlich eine echt clevere Sache mit der du auch sicherlich 50% der Fehler finden kannst. Die restlichen 50% sind dann die Fehler die eine Werkstatt nicht finden kann weil halt NIEMAND daran denkt das ggf nur ein Kontaktproblem besteht oder anderes. Und genau um das "um die Ecke denken" ist eben meiner Meinung nach ein Problem bei einer KI.