“Réflexions sur l’automatisation des analyses par canaux auxiliaires” by BOUSSAM Sana (INRIA/LIX, Institut Polytechnique de Paris et le CESTI Thales)
Date : 22 march 2024
Place : Room Petri/Turing
Les systèmes embarqués sont omniprésents de nos jours : on en trouve aussi bien dans des systèmes critiques (satellites, radios…) que dans l’IoT (objets connectés). Ces systèmes contiennent donc de plus en plus d’informations sensibles (données biométriques, bancaires…). Afin de les sécuriser, ces données sont chiffrées par des algorithmes cryptographiques mathématiquement sûrs. Cependant, l’implémentation de ces algorithmes au sein de ces systèmes rendent ces derniers vulnérables à un type d’attaques : les attaques par canaux auxiliaires (ou side-channel attacks). En effet, les attaques par canaux auxiliaires ne remettent pas en cause les preuves de sécurité des algorithmes cryptographiques. Elles visent plutôt à exploiter des faiblesses d’implémentations au sein des systèmes physiques. Pour ce faire, ces attaques vont cibler tous types de fuites physiques (consommation de courant, temps d’exécution, rayonnement électromagnétique…) générées par un algorithme cryptographique lors de son exécution afin d’extraire de l’information secrète. Récemment, l’application de techniques de deep learning a été investiguée dans le communauté side-channel afin de réduire les limitations relatives aux méthodes existantes. Parmis ces limitations, on retrouve par exemple la sélection de points de fuite ou encore la désynchronisation etc. Coûteuse et difficile à interpréter, la pertinence de ces techniques de deep learning peut néanmoins être remise en cause. À travers cette discussion, nous souhaitons mettre en évidence qu’une utilisation systématique du deep learning pour la réalisation d’attaque par canaux auxiliaires n’est pas requise. En effet, par une analyse poussée des systèmes ciblés, un adversaire peut identifier des techniques moins coûteuses et plus performantes en fonction du contexte d’application. La question de la substitution de ces approches par des méthodes justifiables et plus appropriées peut alors se poser. Pour illustrer ce propos, une analyse critique du papier [PCBP20] sera proposée afin de démontrer qu’une utilisation raisonnée, justifiée et interprétable des outils de deep learning permet d’accroître les performances d’une attaque utilisant initialement des méthodes complexes, coûteuse et difficilement interprétables. Cette analyse critique reprendra les travaux que nous avons menés dans [BERZ23, BCA23].
[BCA23] Sana Boussam and Ninon Calleja Albillos. Keep it unsupervised : Horizontal attacks meet simple classifiers. In Smart Card Research and Advanced Applications. Springer International Publishing, November 2023.
[BERZ23] Sana Boussam, Julien Eynard, Guénaël Renault, and Gabriel Zaid. Étude critique d’une méthode de machine learning appliquée à l’analyse par canaux auxiliaires. In Symposium sur la sécurité des technologies de l’information et des communications (SSTIC), pages 253–262, Rennes, France, May 2023.
[PCBP20] Guilherme Perin, Łukasz Chmielewski, Lejla Batina, and Stjepan Picek. Keep it Unsupervised: Horizontal Attacks Meet Deep Learning. IACR Transactions on Cryptographic Hardware and Embedded Systems, pages 343–372, December 2020.
|