Decoding robust generalization in object recognition models


Gavrikov, Paul


[img] PDF
PhD_Thesis_Paul_Gavrikov.pdf - Veröffentlichte Version

Download (26MB)

URN: urn:nbn:de:bsz:180-madoc-705530
Dokumenttyp: Dissertation
Erscheinungsjahr Online: 2025
Ort der Veröffentlichung: Mannheim
Hochschule: Universität Mannheim
Gutachter: Keuper, Janis
Datum der mündl. Prüfung: 2025
Sprache der Veröffentlichung: Englisch
Einrichtung: Fakultät für Wirtschaftsinformatik und Wirtschaftsmathematik > Machine Learning (Keuper 2024-)
Lizenz: CC BY 4.0 Creative Commons Namensnennung 4.0 International (CC BY 4.0)
Fachgebiet: 004 Informatik
Freie Schlagwörter (Englisch): computer vision , robustness , generalization , weight space , biases
Abstract: A key challenge in machine learning, particularly for image classifiers, is the robust generalization to new data - while models often perform well on data drawn from similar distributions as their training set, they struggle with samples exhibiting even slight deviations. Although increasing training data volume is a straightforward solution, it is often expensive, resource-intensive, and sometimes simply impossible. We propose a more structured approach: rather than indiscriminately training on massive datasets, we focus on understanding and leveraging knowledge embedded within existing models. Our goal is to investigate model populations with varying degrees of generalization ability to uncover the underlying mechanisms that contribute to robust performance. We pursue this goal through two complementary lines of investigation. The first part of this thesis focuses on representations in learned weights: We analyze the representations encoded in the learned weights of Convolutional Neural Networks (CNNs), specifically focusing on convolutional filters. Through several studies, we identify points of representational divergence across different CNN models and explore the factors influencing these differences, with a particular emphasis on the impact of adversarial training - a state-of-the-art regularization technique to achieve robustness to adversarial perturbations. Based on these findings, we propose a novel, simple, and computationally efficient regularization technique for convolution filters in standard training that enhances model robustness against adversarial attacks and other forms of covariate shift. The second part of this thesis focuses on visual perception biases. We investigate the visual biases exhibited by models, specifically comparing them to human perception by measuring alignment. We demonstrate how adversarial regularization affects these biases and correlate several well-known biases with generalization performance. Our results challenge previous claims that simply aligning individual visual biases holistically improves model generalization. Instead, we find that bias alignment often only improves predictions under specific types of covariate shift. Finally, we examine the propagation of visual information within large vision-language models (VLMs), revealing that simple natural language prompts can effectively steer inherent visual perception biases. Taken together, this thesis offers valuable insights into the learned representations of object recognition models. By enhancing our understanding of generalization mechanisms, we establish promising techniques such as filter regularization for discriminative models and test-time bias steering in VLMs. Furthermore, we delineate the limitations of existing approaches and identify less promising directions, such as simply regularizing biases during the training of discriminative models.
Übersetzung des Abstracts: Eine zentrale Herausforderung im maschinellen Lernen - insbesondere bei Bildklassifikatoren - besteht in der robusten Generalisierung auf neue Daten. Während diese Modelle häufig gute Leistungen auf Daten erbringen, die aus Verteilungen stammen, die ihrem Trainingsdatensatz ähneln, haben sie Schwierigkeiten mit Beispielen, die auch nur geringfügig abweichen. Obwohl eine Vergrößerung des Trainingsdatensatzes eine naheliegende Lösung darstellt, ist dieser Ansatz oft zu teuer, ressourcenintensiv und manchmal schlichtweg unmöglich. Wir schlagen einen strukturierteren Ansatz vor: Anstatt scheinbar wahllos auf massiven Datensätzen zu trainieren, konzentrieren wir uns darauf, das in bestehenden Modellen eingebettete Wissen zu verstehen und zu nutzen. Unser Ziel ist es, Modellpopulationen mit unterschiedlichen Ausprägungen der Generalisierungsfähigkeit zu untersuchen, um die zugrunde liegenden Mechanismen aufzudecken, die zu einer robusten Leistung beitragen. Dieses Ziel verfolgen wir durch zwei komplementäre Forschungsansätze. Der erste Teil dieser Arbeit konzentriert sich auf Repräsentationen in den gelernten Gewichten: Wir analysieren die in den Gewichten von Convolutional Neural Networks (CNNs) kodierten Repräsentationen, wobei unser besonderer Fokus auf den Faltungsfiltern liegt. Durch mehrere Studien identifizieren wir Punkte repräsentativer Divergenz zwischen verschiedenen CNN-Modellen und untersuchen die Faktoren, die diese Unterschiede beeinflussen - mit besonderem Augenmerk auf den Einfluss des "Adversarial Trainings", einer effektiven Regularisierungstechnik, die Robustheit gegenüber "feindlichen Angriffen" (Adversarial Attacks) erreicht. Basierend auf diesen Erkenntnissen schlagen wir eine neuartige, einfache und recheneffiziente Regularisierungstechnik für Faltungsfilter im Standardtraining vor, die die Robustheit von Modellen gegenüber feindlichen Angriffen und anderen Formen der Kovariaten-Verschiebung (Covariate Shift) erhöht. Der zweite Teil dieser Arbeit widmet sich visuellen Wahrnehmungsverzerrungen. Wir untersuchen die von den Modellen gezeigten visuellen Verzerrungen, indem wir diese gezielt mit der menschlichen Wahrnehmung vergleichen und deren Übereinstimmung messen. Dabei zeigen wir, wie die Regularisierung durch "Adversarial Training" diese Verzerrungen beeinflusst, und stellen Korrelationen zwischen mehreren bekannten Verzerrungen und der Generalisierungsleistung her. Unsere Ergebnisse stellen frühere Behauptungen in Frage, wonach allein die Korrektur von einzelnen visuellen Verzerrungen die Generalisierung von Modellen verbessern soll. Stattdessen stellen wir fest, dass eine Angleichung der Verzerrungen häufig nur unter bestimmten Formen der Kovariaten-Verschiebung zu verbesserten Vorhersagen führt. Abschließend untersuchen wir die Verarbeitung von visueller Informationen innerhalb großer Bild-Sprach-Modelle (VLMs) und zeigen, dass einfache Prompts in natürlicher Sprache die inhärenten visuellen Wahrnehmungsverzerrungen effektiv steuern können. Zusammenfassend bietet diese Arbeit wertvolle Einblicke in die gelernten Repräsentationen von Objekterkennungsmodellen. Durch ein vertieftes Verständnis der Generalisierungsmechanismen etablieren wir vielversprechende Techniken wie die Filterregularisierung für diskriminative Modelle und die Wahrnehmungsverzerrungs-Steuerung in VLMs zur Testzeit. Darüber hinaus skizzieren wir die Grenzen bestehender Ansätze und identifizieren weniger vielversprechende Richtungen, etwa das bloße Regularisieren von Verzerrungen während des Trainings diskriminativer Modelle. (Deutsch)




Dieser Eintrag ist Teil der Universitätsbibliographie.

Das Dokument wird vom Publikationsserver der Universitätsbibliothek Mannheim bereitgestellt.

Diese Publikation ist bisher nur Online erschienen. Diese Publikation nun als "Jetzt in Print erschienen" melden.




Metadaten-Export


Zitation


+ Suche Autoren in

BASE: Gavrikov, Paul

Google Scholar: Gavrikov, Paul

ORCID: Gavrikov, Paul ORCID: 0000-0003-2667-9333

+ Download-Statistik

Downloads im letzten Jahr

Detaillierte Angaben



Sie haben einen Fehler gefunden? Teilen Sie uns Ihren Korrekturwunsch bitte hier mit: E-Mail


Actions (login required)

Eintrag anzeigen Eintrag anzeigen