Gedankenexperiment: Besuch bei Tante Maria
Stellen wir uns vor, wir werden plötzlich krank. Wir stellen uns womöglich die Frage, was wir anders hätten tun sollen. Nachdem wir mehrere Male krank geworden sind, stellen wir fest, dass Krankheiten immer nach einem Besuch bei Tante Maria auftreten. Die Antwort eines Black-Box-ML-Modells würde uns zu dem Schluss führen, dass wir Tante Maria nicht mehr besuchen sollten. Das ML-Modell ignoriert die anderen Male, an denen wir ebenfalls krank wurden, weil sie nicht häufig vorkamen. Es berücksichtigt nur die Tatsache, dass wir in den meisten Fällen, in denen wir krank waren, das Haus der Tante aufgesucht haben. Wenn wir also einen Besuch bei Tante Maria ankündigen, wird uns das ML-Modell sagen: »Du wirst krank werden«, weil das Training des Modells von den Daten abhängt, die es sieht. Der menschliche Verstand, der voller Neugierde ist und ständig lernt, wird erkennen, dass Tante Maria immer ihren speziellen Himbeerkuchen zubereitet und dass wir das letzte Mal, als wir diesen Kuchen in einem Restaurant gegessen haben, ebenfalls krank wurden. Unser Menschenverstand wird uns sagen: »Was mich krank macht, ist der Kuchen, denn ich leide wahrscheinlich an einer Allergie gegen Himbeeren. Nichtsdestotrotz kann ich weiterhin meine Tante besuchen«. Unser Leben und ML sind voll von solchen Beispielen.
Bereits einfache ML-Verfahren können einen Hinweis darauf geben, warum eine Vorhersage so ausgefallen ist, wie sie ausgefallen ist. Dies wird im Folgenden anhand eines Beispiels veranschaulicht. Stellen wir uns vor, dass wir ein Modell entwickeln wollen, das uns vorhersagt, ob wir krank sind oder nicht. Dazu nutzen wir Informationen zum Gewicht und zum Alter.