Topology Learning for Prediction, Generation, and Robustness in Neural Architecture Search


Lukasik, Jovita


[img] PDF
dissertation_Lukasik.pdf - Published

Download (17MB)

URN: urn:nbn:de:bsz:180-madoc-649151
Document Type: Doctoral dissertation
Year of publication: 2023
Place of publication: Mannheim
University: Universität Mannheim
Evaluator: Keuper, Margret
Date of oral examination: 13 July 2023
Publication language: English
Institution: School of Business Informatics and Mathematics > Bildverarbeitung (Juniorprofessur) (Keuper 2017-2021)
Subject: 004 Computer science, internet
Keywords (English): neural architecture search , robustness , generative models , performance prediction
Abstract: In recent years, deep learning with Convolutional Neural Networks has become the key for success in computer vision tasks. However, designing new architectures is compute-intensive and a tedious trial-and-error process, which depends on human expert knowledge. Neural Architecture Search (NAS) builds on this problem by automating the architecture design process to find high-performing architectures. Yet, initial approaches in NAS rely on training and evaluating thousands of networks, resulting in compute-intensive search times. In this thesis, we introduce efficient search methods which overcome the heavy search time. First, we focus on presenting a surrogate model to predict the performance of architectures. Significantly, this surrogate model is able to predict the performance of architectures with a topology, which was not seen during training, i.e., our proposed model can extrapolate into unseen regions. In the second part, we introduce two generative architecture search approaches. The first one is based on a variational autoencoder, which enables to search for architectures directly in the generated latent space, with the ability to generate the found architectures back to its discrete architecture topology. The second approach improves on the former and facilitates a simple generation model, which is furthermore coupled with a surrogate model to search for architectures directly. In addition, we optimize the latent space itself for a direct generation of high-performing architectures. The third part of this thesis analyzes the widely used differentiable one-shot method DARTS, with the questions, is this method indeed an efficient search method, and how sensitive is this method to domain shifts, hyperparameters, and initializations? Lastly, we pave the way for robustness in NAS research. We introduce a dataset for architecture design and robustness, which evaluates one complete NAS search space against adversarial attacks and corruptions and thus allows for an in-depth analysis of the architectural design to improve its robustness only by its topology.
Translation of the abstract: In den letzten Jahren hat sich das Deep Learning mit gefalteten neuronalen Netzwerken zum Schlüssel für den Erfolg bei Computer-Vision-Aufgaben entwickelt. Der Entwurf neuer Architekturen ist jedoch rechenintensiv und ein langwieriger Versuch und Irrtum Prozess, der von menschlichem Expertenwissen abhängt. Neuronale Netzwerk Suche (NAS) geht dieses Problem an, indem es den Architekturentwurfsprozess automatisiert, um hochperformante Architekturen zu finden. Die ersten NAS-Ansätze basieren jedoch auf dem Training und der Evaluierung tausender Netzwerke, was zu rechenintensiven Suchzeiten führt. In dieser Arbeit stellen wir effiziente Suchmethoden vor, die den hohen Suchaufwand über-winden. Zunächst konzentrieren wir uns darauf, ein Surrogatmodell vorzustellen um die Performanz von Architekturen vorherzusagen. Bezeichnenderweise ist dieses Ersatzmodell in der Lage, die Leistung von Architekturen mit einer Topologie vorherzusagen, die beim Training nicht gesehen wurde, d.h. unser vorgeschlagenes Modell kann in ungesehene Regionen extrapolieren. Im zweiten Teil stellen wir zwei generative Ansätze zur Architektursuche vor. Der erste basiert auf einem Variations-Autoencoder, der es ermöglicht, direkt im generierten latenten Raum nach Architekturen zu suchen und die gefundenen Architekturen in ihre diskrete Architekturtopologie zurück zu generieren. Der zweite Ansatz verbessert den ersten und ist ein einfaches Generierungsmodell, das darüber hinaus mit einem Surrogatmodell gekoppelt ist, um direkt nach Architekturen zu suchen. Darüber hinaus optimieren wir den latenten Raum selbst für eine direkte Generierung von hochperformanten Architekturen. Der dritte Teil dieser Arbeit analysiert die weit verbreitete differenzierbare One-Shot-Methode DARTS mit den Fragen, ob diese Methode tatsächlich eine effiziente Suchmethode ist und wie empfindlich diese Methode auf Domänenverschiebungen, Hyperparameter und Initialisierungen reagiert. Schließlich ebnen wir den Weg für die Richtung Robustheit in NAS. Wir führen einen Datensatz für Architekturdesign und Robustheit ein, der einen kompletten NAS-Suchraum gegen gegnerische Angriffe und Verfälschungen evaluiert und somit eine eingehende Analyse des Architekturdesigns ermöglicht, um die Robustheit allein durch die Topologie zu verbessern. (German)




Dieser Eintrag ist Teil der Universitätsbibliographie.

Das Dokument wird vom Publikationsserver der Universitätsbibliothek Mannheim bereitgestellt.




Metadata export


Citation


+ Search Authors in

+ Download Statistics

Downloads per month over past year

View more statistics



You have found an error? Please let us know about your desired correction here: E-Mail


Actions (login required)

Show item Show item