Digital / Machine und Deep Learning Seminar / 04. Mai 2023, 14:00 – 15:00 Uhr
Robuste Modelle sind weniger zuverlässig
Referent: Julia Grabinski (Fraunhofer ITWM, Bereich »High Performance Computing«)
Abstract – Robuste Modelle sind weniger zuverlässiger
Trotz des Erfolges von Convolutional Neural Networks (CNN) in vielen akademischen Benchmarks für Computer-Vision-Aufgaben steht ihre Anwendung in der realen Welt noch vor grundlegenden Herausforderungen. Eines dieser offenen Probleme ist der inhärente Mangel an Robustheit, der durch die beeindruckende Effektivität gegnerischer Angriffe deutlich wird. Adversarial Training (AT) wiederum zielt darauf ab, Robustheit gegen solche Angriffe und idealerweise eine bessere Modellgeneralisierung zu erreichen, indem adversariale Beispiele in das Trainingsset aufgenommen werden. In diesem Vortrag zeigen wir, dass durch adversariales Training nicht nur höhere robuste Genauigkeiten erreicht werden, sondern dass es auch einen interessanten Nebeneffekt hat: Es führt zu Modellen, die selbst auf sauberen Daten deutlich weniger zuversichtlich mit ihren Entscheidungen sind als nicht robuste Modelle. Außerdem analysieren wir den Einfluss verschiedener Bausteine (wie Aktivierungsfunktionen und Pooling) und deren Einfluss auf die Vorhersagetreue der Modelle.