IQC alum reaches impressive NIST milestone with standardized code

Monday, August 15, 2022

En français


Researchers at IQC have made significant contributions to a Post-Quantum Cryptography standardization process run by the National Institute for Standards and Technology (NIST). As the process enters its fourth round, researchers are one step closer to identifying codes that will be widely accepted as reliable and safe against attacks enabled by emerging quantum computers.  

With the number of cyberattacks increasing year over year, cybersecurity has become a growing concern as individuals and companies desperately try to protect their private information. As part of dealing with  cybersecurity threats, research on quantum computers and cryptography is critical for protecting digital environments, many of which still rely on outdated methods that were commonplace in the early days of the internet.  

“In today’s society, the stakes against future attacks are astronomically higher as the internet has become a huge part of our digital economy and everyday lives,” said Michele Mosca, IQC faculty member and professor in the Department of Combinatorics and Optimization at the University of Waterloo.  

Digital infrastructures, like the internet, depend on cryptography, the study of secure communications techniques, to make the digital environment safe and resilient by deploying a series of codes which are algorithms used for encryption and decryption, as well as authentication. Post-quantum cryptography is the study of codes designed to be secure against both quantum and classical computational attacks, and requires a new set of secure, standardized codes.  

“This is a really important milestone to securing our digital economy,” Mosca said. “There’s a long road ahead, but this is a critical piece as a lot of other things can’t happen until a set of standardized codes have been agreed upon and implemented by top people who are trusted in this field.” 

One such person is University of Waterloo alum and former IQC member John Schanck who was described by Mosca as a “central figure” in the standardization process. Schanck participated in teams that submitted two algorithmic codes to NIST’s open call; both submissions made it to the third round of the selection process. His submission titled CRYSTALS-Kyber has been selected for standardization, while his submission titled NTRU remains a backup should an intellectual property dispute prevent the widespread adoption of CRYSTALS-Kyber. Schanck’s contributions will help to increase the safety of digital communications. 

“Our communications infrastructure needs to adapt to the threat of quantum computers quickly. But it takes decades to gain confidence in a new cryptographic system. Whatever NIST standardizes will be deployed in parallel with existing systems, so there will be no possibility of a reduction in  security.” Schanck said. The process for a code to reach standardization begins with an open call from NIST for organizations and people to submit their proposed algorithms. Once these are submitted, they go through rounds of testing by people in the quantum research community to prove that the algorithm can be implemented and performs at the necessary benchmarks. Some areas analyzed throughout this testing period include the security of the algorithm, the size, bandwidth, and cost. Following this, feedback is sent to NIST regarding the various submissions. NIST then reviews the feedback to identify the codes that have been widely studied and tested amongst members in the community to move on to the following rounds until the most trusted codes are identified and standardized.  

“Standardizing these new codes will drastically increase security against known quantum threats, but the process will also make us more resilient against unknown advances in the future,” Mosca said.  

Other notable individuals who contributed to this process include IQC affiliate and co-founder of openquantumsafe.org Douglas Stebila, who supported the development of software implementations for testing and benchmarking post-quantum cryptography algorithms.  

Researchers will continue to search for new standardized codes given that mathematical codes can be weakened and changed over time due to new discoveries. The need for secure codes that are not susceptible to quantum attacks continues to grow as progress toward cryptographically relevant quantum computers continues. For that reason, the work done by IQC researchers and NIST to select standardized cryptographic codes is crucial for seeing the societal benefits of quantum computers while not unleashing devastating cyber-attacks. 

quantum computing rendering

A quantum computing rendering.

Représentation d’un calcul quantique

Représentation d’un calcul quantique

Un ancien de l’IQC propose un code normalisé qui obtient un succès impressionnant au NIST

Des chercheurs de l’IQC ont contribué de manière importante à un processus de normalisation de cryptographie postquantique mené par l’Institut national des normes et de la technologie des États-Unis (NIST pour National Institute for Standards and Technology). Alors que le processus en est au début de sa 4e étape, les chercheurs se rapprochent du point où ils pourront choisir des codes qui seront largement reconnus comme fiables et sûrs contre des attaques rendues possibles par les nouveaux ordinateurs quantiques.

Alors que le nombre de cyberattaques augmente d’année en année, la cybersécurité est devenue une préoccupation croissante des personnes et des entreprises qui tentent désespérément de protéger leurs renseignements confidentiels. Dans le cadre de la lutte contre les menaces à la cybersécurité, les recherches sur les ordinateurs et la cryptographie quantiques sont cruciales pour la protection des environnements numériques, dont plusieurs dépendent encore de méthodes désuètes qui étaient monnaie courante dans les premiers temps d’Internet.

« Dans la société actuelle, les enjeux de la lutte contre les attaques à venir sont infiniment plus importants, car Internet joue un rôle essentiel dans notre économie numérique et dans la vie de tous les jours » [traduction], a déclaré Michele Mosca, professeur à l’IQC ainsi qu’au Département de combinatoire et d’optimisation de l’Université de Waterloo.

Les infrastructures numériques telles qu’Internet dépendent de la cryptographie — l’étude des techniques de sécurité des communications — pour rendre l’environnement numérique sûr et résilient en déployant des algorithmes de cryptage, de décryptage et d’authentification. La cryptographie postquantique est l’étude des algorithmes conçus pour résister à des attaques informatiques quantiques et classiques, et elle exige un ensemble de codes sûrs et normalisés.

« Cela constitue une étape vraiment importante pour sécuriser notre économie numérique, dit M. Mosca. Il y a encore beaucoup à faire, mais cette étape est cruciale car bien d’autres choses ne peuvent être réalisées avant qu’un ensemble de codes normalisés n’ait été approuvé et mis en œuvre par des experts du domaine qui sont dignes de confiance. » [traduction]

L'une de ces personnes est John Schanck, un ancien de l’Université de Waterloo et ancien membre de l’IQC que M. Mosca a décrit comme une « figure centrale » du processus de normalisation. M. Schanck a participé à la conception de 2 algorithmes en réponse à l’appel de propositions du NIST; ces 2 propositions se sont rendues jusqu’à la 3e étape du processus de sélection. La proposition intitulée CRYSTALS-Kyber a été sélectionnée en vue de la normalisation, alors que celle intitulée NTRU reste en réserve au cas où un conflit concernant la propriété intellectuelle empêcherait l’adoption à grande échelle de CRYSTALS-Kyber. Les contributions de John Schanck aideront à accroître la sécurité des communications numériques.

« Notre infrastructure de communications doit s’adapter rapidement à la menace des ordinateurs quantiques, a déclaré M. Schanck. Mais il faut des décennies pour avoir confiance en un nouveau système cryptographique. Peu importe ce qui est normalisé par le NIST, ce sera déployé en parallèle avec les systèmes existants, de sorte qu’une diminution de la sécurité sera impossible. » [traduction] Le processus d’approbation et de normalisation d’un code commence par un appel de propositions lancé par le NIST et auquel des organismes ou des individus peuvent répondre en soumettant des algorithmes. Ces algorithmes passent des étapes de tests effectués par des chercheurs dans le domaine quantique, afin de prouver que les algorithmes peuvent être mis en œuvre et satisfont aux critères imposés. Les tests portent notamment sur la sécurité des algorithmes, leur taille, la bande passante nécessaire et le coût. Des rapports de test sont envoyés au NIST à propos des divers algorithmes proposés. Le NIST analyse ces rapports pour déterminer quels codes parmi ceux qui ont été largement étudiés et testés peuvent passer aux étapes suivantes, jusqu’à ce que ceux qui sont les plus dignes de confiance soient identifiés et normalisés.

« La normalisation de ces nouveaux codes accroîtra de manière spectaculaire la sécurité contre les menaces quantiques connues, dit M. Mosca, mais le processus nous rendra aussi plus résilients contre des avancées encore inconnues qui pourraient survenir. » [traduction]

Parmi les autres personnes qui ont contribué de manière importante à ce processus, mentionnons Douglas Stebila, affilié à l’IQC et cofondateur de openquantumsafe.org, qui a appuyé la réalisation de logiciels de test d’algorithmes de cryptographie postquantique.

Les scientifiques vont continuer de chercher de nouveaux codes normalisés, car des codes mathématiques peuvent s’affaiblir avec le temps et devoir être remplacés en raison de nouvelles découvertes. Le besoin de codes de sécurité à l’épreuve des attaques quantiques continue de croître avec les progrès constants réalisés en matière d’ordinateurs quantiques utilisés en cryptographie. C’est pour cela que les travaux effectués par les chercheurs de l’IQC et le NIST en vue de sélectionner des codes normalisés de cryptographie sont cruciaux afin que la société puisse bénéficier des ordinateurs quantiques sans risquer de subir des cyberattaques dévastatrices.