KI zu debuggen ist eine der schwierigsten Aufgaben die es gibt. Besonders schwierig ist hierbei dass lernende Systeme volatil sind, der selbe Zustand muss nicht zwingend in dem selben Ergebnis enden wenn das Experiment ein 2. mal durchläuft.Cpt. Bucky Saia hat geschrieben:Damit Menschen diese nachvollziehen können, sollen KI-Systeme künftig ihre Beweggründe offenlegen.
Besonders interessant finde ich die Forschung in Richtung von Vorhersage von chaotischen Systemen, also zb das allseitsbeliebte Doppelpendel (Physiker hassen diesen Trick). Lernende Systeme bekommen eine deutlich genauere Vorhersage hin als alles bisher dagewesen. Wie soll nun ein Mensch sowas sinnvoll erklären?
Achja übrigens: auch Compiler werden mit KIs weiterentwickelt um Optimierungen vorzunehmen die kein Mensch hinbekommen würde.
Tatsächlich müsste man lernenden Systemen erst beibringen wie sie Informationen einem Menschen verständlich machen sollen.
Auch: sind euch die neuen ReCaptchas aufgefallen? "Klicke alle Brücken an", nur dass jetzt die Bilder noch verrauscht sind, eine der letzten Hürden der Bilderkennung.
Je mehr man sich damit beschäftigt, desto mehr rufen die mongolischen Steppen nach mir. Pferdezüchten, das wäre doch was?