Loading…
Thumbnail Image

On the learnability of physically unclonable functions

Ganji, Fatemeh

Along with the expansion of the application of integrated circuits (ICs), the risk of security vulnerabilities of them has been rising dramatically. Diverse type of successful attacks against ICs have been launched by adversaries taking advantage of those vulnerabilities to expose confidential information, e.g., intellectual property (IP), and customer data. As a remedy for the shortcomings of traditional security measures taken to protect ICs, PUFs appear to be promising candidates that are intended to offer instance-specific functionality. While cryptographic mechanisms enjoying this privilege have been emerging, the vulnerability of PUFs to different types of attacks have been demonstrated. Among these attacks, a great deal of attention has been paid to machine learning (ML) attacks, aiming at modeling the challenge- response behavior of PUFs. So far the success of ML attacks has relied on trial and error, and consequently, ad hoc attacks and their corresponding countermeasures have been developed. This thesis aims to address this issue by providing the mathematical proofs of the vulnerability of various PUF families, including Arbiter, XOR Arbiter, ring-oscillator, and bistable ring PUFs, to ML attacks. To achieve this goal, for the assessment of these PUFs a generic framework is developed that include two main approaches. First, with regard to the inherent physical characteristics of the PUFs mentioned above, fit-for-purpose mathematical representations of them are established, which adequately reflect the physical behavior of those primitives. To this end, notions and formalizations, being already familiar to the ML theory world, are reintroduced in order to give a better understanding of why, how, and to what extent ML attacks against PUFs can be feasible in practice. Second, polynomial time ML algorithms are explored, which can learn the PUFs under the appropriate representation. More importantly, in contrast to previous ML approaches, not only the accuracy of the model mimicking the behavior of the PUF but also the delivery of such a model is ensured by our framework. Besides off-the-shelf ML algorithms, we apply a set of algorithms originated in property testing field of study that can support the evaluation of the security of PUFs. They serve as a “toolbox”, from which PUF designers and manufacturers can choose the indicators being relevant to their requirements. Last but not least, on the basis of learning theory concepts, this thesis explicitly states that the PUF families studied here cannot be considered as an ultimate solution to the problem of insecure ICs. Furthermore, we believe that this thesis can provide an insight into not only the academic research but also the design and manufacturing of PUFs.
Die Verbreitung von Integrated Circuits (ICs) steigt immer weiter. Damit erhöht sich allerdings auch das Risiko, dass Sicherheitslücken in diesen ausgenutzt werden. Angreifer haben bereits demonstriert, dass ein großes Spektrum an Angriffen mittels der genannten Sicherheitslücken möglich ist, um vertrauliche Informationen (z.B. geistiges Eigentum) oder Kundendaten aus den Geräten zu extrahieren. Es hat sich gezeigt, dass traditionelle Schutzmaßnahmen in ICs keinen adäquaten Schutz bieten. Daher sind vor allem PUFs, die per Chip Funktionalität bieten, interessante und vielversprechende Kandidaten, um diese Lücke zu schließen. Folglich nutzen immer mehr kryptographische Mechanismen die Eigenschaften eines PUFs, zur gleichen Zeit haben Forscher aber auch gezeigt, dass PUFs anfällig gegen verschiedene Angriffe sind. Vor allem Angriffe auf Basis von maschinellem Lernen (ML) haben Anwendung gefunden. Diese versuchen das Eingabe/Antwort- Verhalten der PUFs zu modellieren. Allerdings basieren aktuelle ML Angriffe meist auf reinem Durchprobieren dieses Verhaltens. Das Resultat war folglich eine Vielzahl an Ad-Hoc Angriffen und zugehörigen Gegenmaßnahmen. In dieser Thesis wird anhand einer Auswahl von PUF Familien (Arbiter, XOR Arbiter, Ring-Oszillator und Bistabile Ring PUF) der mathematische Beweis geliefert, dass PUFs anfällig für ML Angriffe sind. Zu diesem Zweck wurde im Zuge dieser Thesis ein allgemeines Framework entwickelt, das zwei Ziele verfolgt. Erstens wurde auf Basis der inhärent physikalischen Eigenschaften eines spezifischen PUFs eine mathematische Repräsentation modelliert, die dessen Eigenschaften widerspiegelt. Notationen und Formalisierungen, die bereits in der ML Theorie verbreitet sind, wurden auf PUFs übertragen, um ein besseres Verständnis zu gewinnen, warum und in welchem Umfang PUFs in der Praxis anfällig gegen ML Angriffe sind. Zweitens wurden ML Algorithmen mit einer polynomiellen Laufzeit untersucht, die es erlauben, PUFs zu lernen. Wichtiger noch, im Vergleich zu existierenden ML Ansätzen stellt das entwickelte Framework nicht nur sicher, dass ein Modell zu Verfügung steht, es stellt auch sicher, dass das Modell eines spezifischen PUFs dessen Verhalten akkurat abbildet. Neben Off-the-Shelf ML Algorithmen nutzen wir auch Algorithmen aus dem Forschungsfeld des “Property Testings”, um die Sicherheit von PUFs zu evaluieren. Diese dienen als “Toolbox”, aus denen PUF Entwickler und Hersteller die Eigenschaften und Indikatoren wählen können, die für sie wichtig sind. Zu guter Letzt zeigen wir in dieser Thesis, auf Basis von Konzepten aus der Lerntheorie, dass die studierten PUF Familien nicht als finale Lösung angesehen werden können, um die Sicherheit von ICs zu verbessern. Darüber hinaus gibt diese Thesis wichtige Einblicke nicht nur in das akademische Forschungsfeld der PUFs, sondern verbessert auch das Verständnis in Bezug auf das Design und die Entwicklung von PUFs.