[Index Physique] Pour parler de physique quantique
-
- Modérateur
- Messages : 22562
- Enregistré le : lundi 24 octobre 2005 à 22:39
- Localisation : Finistère
Re: Ordre ou n'importe quoi .
Vous voulez la suite ?
père autiste d'une fille autiste "Asperger" de 41 ans
-
- Intarissable
- Messages : 8889
- Enregistré le : lundi 28 septembre 2009 à 13:55
- Localisation : オルセー
Re: Ordre ou n'importe quoi .
Si c'est gratuit je vais pas dire non. (je ne suis pas abonné).
Identifié Aspie (広島, 08/10/31) Diagnostiqué (CRA MP 2009/12/18)
話したい誰かがいるってしあわせだ
Être Aspie, c'est soit une mauvaise herbe à éradiquer, soit une plante médicinale à qui il faut permettre de fleurir et essaimer.
話したい誰かがいるってしあわせだ
Être Aspie, c'est soit une mauvaise herbe à éradiquer, soit une plante médicinale à qui il faut permettre de fleurir et essaimer.
-
- Modérateur
- Messages : 22562
- Enregistré le : lundi 24 octobre 2005 à 22:39
- Localisation : Finistère
Re: Ordre ou n'importe quoi .
Si tu adhères à Asperansa, tu auras même une déduction fiscale.
NUMÉRIQUE
Révolution quantique (2/5): l’ordinateur surpuissant est en vue
1 AOÛT 2016 | PAR JÉRÔME HOURDEAUX
Les principes de la physique quantique ont ouvert, en matière d’informatique, de nouvelles perspectives qui devraient bouleverser le monde du numérique : l’ordinateur quantique permettra, à terme, de révolutionner de nombreux domaines comme l’intelligence artificielle ou le chiffrement.
Imaginez un ordinateur si puissant qu’il serait capable de simuler l’ensemble de l’univers, l’intégralité de ses processus physiques depuis le big-bang. De la science-fiction ? Pas totalement. Dans son livre publié en 2006, Programmer l’univers, Seth Lloyd, chercheur au MIT (Massachusetts Institute of Technology) et spécialiste de la physique quantique, avance même une thèse bien plus audacieuse : l’univers lui-même ne serait qu’un immense ordinateur quantique au sein duquel nous vivrions.
Et cette affirmation n’est pas faite sans base scientifique. Avant Seth Lloyd, le physicien britannique David Deutsch, pionnier de la physique quantique, avait repris une thèse formulée dans les années 1930 pour l’informatique classique par les mathématiciens Alonzo Church et Alan Turing. Formulée en 1985, cette nouvelle thèse baptisée « principe Church-Turing-Deutsch », ou « principe CTD », fait le pari qu’un ordinateur quantique sera capable de simuler tout processus physique.
Mais qu’est-ce qu’un ordinateur quantique ? Le sujet est particulièrement à la mode et une explication concise a été donnée par le premier ministre canadien Justin Trudeau lors d’une intervention très médiatisée à l’institut Périmètre de Waterloo, un centre de recherche étudiant les théories de la physique.
En résumé, et sans revenir sur les principes de la physique quantique expliqués précédemment, il s’agit d’un ordinateur n’utilisant plus de « bits » gravés sur des puces informatiques mais des « qubits », des informations dont les supports sont désormais des particules, atomes, électrons ou encore photons. En informatique classique, un bit est une unité ne pouvant prendre que deux valeurs, le 0 ou le 1, servant à encoder les informations.
L’informatique quantique, elle, prend comme supports des particules et utilise les propriétés de la physique quantique, à commencer par la superposition d’états. Dans le monde quantique, il faut réussir à accepter que rien n'est déterminé. Un objet est en effet décrit comme ayant tous les états possibles, en termes de position, de vitesse, etc. Ce n'est que lorsqu'on le mesure qu'il prend des valeurs fixes. En 1935, le physicien autrichien Erwin Schrödinger avait imaginé une expérience de pensée afin de mieux appréhender ce monde qui défie notre logique, restée célèbre sous le nom de l’expérience du « chat de Schrödinger ». Imaginez un chat enfermé dans une boîte avec une capsule de poison reliée à un corps radioactif. Dès qu'un de ses atomes se fissure, la capsule de poison est brisée et le chat meurt. Pour déterminer l'état du chat enfermé dans la boîte, la logique voudrait calculer les probabilités pour que l'atome se fissure. Mais la physique quantique, elle, raisonne autrement : le chat est à la fois mort ET vivant. Il ne sera l'un ou l'autre que lorsqu'on ouvrira la boîte.
Une fois acceptée la logique quantique, il suffit de l'appliquer à des atomes ou des photons pour graver des informations. Les qubits ne sont ainsi pas limités par le choix entre 0 et 1 et possèdent plusieurs valeurs en même temps. La puissance des ordinateurs quantiques est donc, en théorie, démultipliée par rapport aux ordinateurs classiques. Reposant sur des principes de calcul totalement différents de l’informatique classique, ils permettront en outre de faire tourner des algorithmes quantiques réalisant des opérations jusqu’à présent inaccessibles.
La représentation d'un qubit © Wikipedia
Mais les principes de la physique quantique, dont l’un affirme que ses règles disparaissent à l’échelle macroscopique, imposent ainsi des contraintes matérielles très fortes. Le support du qubit doit non seulement être une particule, atome ou photon, mais en plus être conservé dans des conditions d’isolation extrêmes. Ces contraintes physiques limitent actuellement fortement le développement des ordinateurs quantiques.
En réalité, lorsque l’on parle aujourd'hui d’ordinateur quantique, il faut distinguer deux systèmes. Le premier est l’ordinateur « réellement » quantique, appelé ordinateur quantique universel, fonctionnant entièrement de manière quantique. Celui-ci n’en est encore qu’à ses balbutiements et il n’en existe à ce jour aucune version pleinement fonctionnelle. En revanche, plusieurs laboratoires ont développé des ordinateurs partiellement quantiques, appelés ordinateurs « adiabatiques », déjà en activité. Ces machines utilisent un dispositif quantique, mais de manière limitée.
« Les ordinateurs quantiques adiabatiques sont plus faciles à fabriquer, ils comportent plus de qubits mais ils ne permettent pas de traiter les algorithmes quantiques et ne peuvent résoudre que des fonctions d’optimisation bien précises, explique Renaud Lifchitz, expert en sécurité chez Digital Security. Ces ordinateurs sont typiquement utilisés par des industriels ou de grandes entreprises pour calculer le frottement d’une carlingue avec l’air, ou pour optimiser en Bourse un portefeuille d’actions en fonction des variations du marché. L’ordinateur quantique adiabatique le plus connu est celui de la société canadienne D-Wave, qui a maintenant déjà connu plusieurs générations. Équipé de 2 048 qubits, il est pour l’instant réservé à quelques grands groupes comme Google, Lockheed-Martin ou encore la Nasa. Ces machines sont très chères et elles nécessitent, pour fonctionner, des équipes de physiciens et d’informaticiens ainsi que des infrastructures très lourdes. Concernant leur efficacité, il y a toujours des débats techniques sur le régime quantique ou non des opérations effectuées. Mais on peut estimer que D-Wave les effectue plusieurs milliers de fois plus rapidement qu’un ordinateur classique. Une autre application des ordinateurs adiabatiques est le deep learning [apprentissage profond en français : désigne les méthodes informatiques d'apprentissage automatique ; le programme AlphaGo, connu pour avoir battu le champion du monde de jeu de go en mars dernier, reposait sur le deep learning – ndlr]. C’est déjà utilisé par Google, notamment dans le cadre de plusieurs projets comme leur projet de voiture intelligente. »
Les ordinateurs quantiques universels, eux, sont encore loin d'être utilisables en pratique, même si plusieurs projets sont bien avancés. L’université de Bristol par exemple a réussi en 2010 à faire tourner un algorithme quantique sur une de ses machines. « L’ordinateur de l’université de Bristol est universel, mais il serait plus juste de parler d’une puce, assez limitée même si elle est très complexe, explique Renaud Lifchitz. Elle est limitée à 2 qubits. Il n’en reste pas moins qu’il s’agit d’un système industriel qui fonctionne. C’est une véritable prouesse. IBM de son côté propose une puce universelle de 5 qubits, mais également avec des limitations. En laboratoire, des chercheurs ont réussi à aller jusqu’à 12 qubits avec pas mal d’efforts. Grâce à ceux-ci, on a réussi à montrer que des algorithmes quantiques conçus il y a des années, comme l’algorithme de Shor, tournaient très bien. »
Les algorithmes quantiques
Car c’est l’un des grands enjeux de l’informatique quantique : la possibilité de réaliser des opérations jusqu’à présent impossibles à calculer. Les machines quantiques universelles permettront notamment de s’attaquer à la cryptographie d’une manière inédite. Plus précisément, deux algorithmes quantiques déjà existants suscitent des inquiétudes. L’un vise le chiffrement dit symétrique, c’est-à-dire reposant sur une seule clef de chiffrement, utilisé par exemple dans la sécurisation de visites de sites internet. L’autre vise le chiffrement dit asymétrique, c’est-à-dire reposant sur un échange de clefs de chiffrement entre deux personnes, utilisé pour sécuriser les communications.
« Concernant la cryptographie symétrique, c’est l’algorithme de Grover qui s’applique. Celui-ci permet, en résumé, de diviser par deux la taille de toutes les clefs utilisées, détaille Renaud Lifchitz. Par exemple, une clef AES de 128 bits face à l’algorithme n’aura la résistance que d’une clef AES de 64 bits. Les clefs seront simplement deux fois plus faciles à casser. Or, on sait déjà que l’algorithme de Grover est optimal. Pour la cryptographie symétrique, nous avons donc une solution simple : il suffira de doubler la taille de toutes les clefs pour rester hors de portée d'attaques quantiques. »
« Concernant la cryptographie asymétrique, c’est un peu plus compliqué, poursuit Renaud Lifchitz. Là, c’est l’algorithme de Shor, qui permet notamment de casser les échanges de clefs, qui s’applique. Le problème est que l’algorithme de Shor est polynomial. Doubler la taille des clefs ne sera donc pas suffisant : l’attaquant n’aura besoin que d'un peu plus de temps pour réussir. Ici, la seule solution est de réfléchir à une autre cryptographie car, si on ne peut plus avoir confiance dans le cryptage, on ne peut plus avoir confiance en rien. Depuis plusieurs années, la conférence PQCrypto (pour Post Quantum Crypto) tente d’imaginer la crypto de demain. » De son côté, le géant américain Google vient d’annoncer qu’il avait implémenté dans ses serveurs un algorithme « post-quantique » censé protéger les utilisateurs de son navigateur Chrome des futures attaques quantiques.
Mais l’informatique quantique a aussi des applications en matière de sécurité, comme la distribution de clefs quantiques, une technologie développée notamment en Suisse dès 2008 avec le projet SwissQuantum de l'université de Genève. « Cela nécessite deux canaux, un pour envoyer le message chiffré, et un autre, constitué de fibre optique, pour échanger la clef qui permettra de déchiffrer le message, explique Renaud Lifchitz. Il existe une loi, dans la théorie de l’information de Shannon, qui stipule que si la clef est aussi longue que le message, celui-ci est incassable. Le but, ici, est donc de protéger la clef qui est envoyée par fibre optique. Or, en physique quantique, lorsque l’on observe une particule, on la modifie. Donc, si un attaquant essaye d’intercepter la clef, il la modifie et la détruit. L’autre avantage de ce système est que l’on sait, à la réception, si quelqu’un a essayé d’intercepter les clefs car le seul fait de l’observer la modifie. Et en plus, l’attaquant sait tout cela. C’est donc en quelque sorte le système parfait en termes de sécurité. Par contre, il ne peut fonctionner que de pair à pair, entre deux points. De plus, pour conserver les propriétés quantiques, le canal de fibre optique ne peut dépasser une centaine de kilomètres. Mais il est déjà utilisé pour les transactions financières en Suisse où les établissements bancaires sont assez proches les uns des autres. Et des sociétés commercialisent des routeurs quantiques. »
Quand ces machines quantiques seront-elles disponibles pour le grand public et que changeront-elles dans notre vie quotidienne ? « Avant tout, il faudra que ces ordinateurs fonctionnent avec un très grand nombre de qubits et une isolation extrême. Ensuite, il faudra qu’ils aient une taille suffisante pour trouver une application civile intéressante », résume Renaud Lifchitz.
Un ordinateur quantique de la société D-Wave © Reuters
« Il est très difficile de faire des prédictions, mais jusqu’à présent, il semblerait que les ordinateurs quantiques suivent eux aussi la loi de Moore [qui stipule que la capacité des ordinateurs double tous les 18 mois – ndlr]. Si les progrès continuent à ce rythme, je pense qu’on peut espérer un ordinateur quantique universel mature d’ici à 20-25 ans. Après, il n’y a pas vraiment de limite. Les changements ne seront pas forcément visibles, mais les principaux protocoles de l’Internet devront être changés. Les principales avancées se feront probablement sentir dans le domaine des interfaces homme-machine, dans l’intelligence artificielle, ou encore l’analyse de texte. Par exemple, aujourd’hui, pour un moteur de recherche, nous avons beaucoup de mal à traiter une requête du type “je veux partir en voyage dans un endroit où il fait chaud, en Europe, pas trop loin de la mer, et où il fait entre 25 et 30 degrés aux mois d’août et septembre”. Ce type de demande peut être traité par la recherche sémantique. Tout ce qui a trait au machine learning [l'auto-apprentissage des machines et des intelligences artificielles – ndlr] va également connaître un bond. »
Il ne faudra cependant pas espérer disposer de son propre ordinateur quantique à domicile. « Je ne pense pas que l’individu lambda aura son propre ordinateur quantique universel personnel à court ou moyen terme, estime Renaud Lifchitz. Tout d’abord parce que c’est très cher. Il faut assurer une isolation totale de l’ordinateur, qu’il n’y ait aucun échange de gaz ou de lumière ainsi qu’un refroidissement extrême. Des conditions qui ne sont pas envisageables pour des particuliers. Ensuite parce que ces ordinateurs seront certainement utilisés uniquement pour faire tourner des algorithmes quantiques. En effet, il n’y a aucun intérêt à faire tourner des algorithmes classiques sur un ordinateur quantique qui n’est pas fait pour ça et qui est plus lent qu’un ordinateur classique dans ce cas. Selon moi, les ordinateurs quantiques seront principalement accessibles via le Cloud, où l’on louera du temps de calcul. »
Au mois de juin dernier, le cofondateur du système d’exploitation Android, racheté depuis par Google, Andy Rubin avait également donné sa version de notre futur quantique lors d’une conférence organisée à San Francisco. À cette occasion, cet ingénieur et programmeur, reconverti en business angel, a révélé avoir investi dans une entreprise qui s’est donné pour but de commercialiser des appareils quantiques. Comme Renaud Lifchitz, Andy Rubin estime que l’avenir de l’informatique quantique n’est pas tant dans les machines que dans la relation homme-machine, et plus particulièrement dans l’intelligence artificielle (IA). Les algorithmes quantiques permettront en effet de développer de formidables IA, tellement puissantes qu’une seule suffirait à gérer tous vos appareils électroniques. « Si vous avez une informatique aussi puissante que ce qu’elle pourrait être, vous pourriez n’en avoir besoin que d’une, a notamment déclaré Andy Rubin. Ça ne serait pas quelque chose que vous transporteriez avec vous ; elle n’aurait qu’à être consciente. » Cette intelligence artificielle « consciente » aurait bien entendu besoin d’une énorme quantité de données. « C’est là que la robotique entre en jeu », poursuit Andy Rubin qui imagine un monde où nous serions tous équipés d’une multitude de capteurs alimentant notre IA quantique.
Quant à simuler l’univers, Renaud Lifchitz est tout aussi sceptique. « On ne sait déjà pas simuler le cerveau humain. Un premier pas serait déjà de simuler de petits systèmes, explique-t-il. Mais surtout, se posent des questions fondamentales et presque philosophiques : notre cerveau a-t-il un fonctionnement quantique ? Tout est-il régi par les lois de la physique quantique ? Si je prends un médicament par exemple, a-t-il un effet quantique ? Si la réponse est oui, se pose alors un autre problème. L’un des principes de la physique quantique est celui de non-clonage [qui interdit le clonage d'un état quantique – ndlr]. On ne peut pas cloner une particule. Donc, si le cerveau a un fonctionnement quantique, on ne pourra ni le cloner ni le simuler. »
« Les problématiques sont les mêmes au niveau de l’univers, poursuit Renaud Lifchitz. On ne sait pas s’il a un fonctionnement quantique et, si c’est le cas, il est impossible de cloner l’état quantique d’un système. En résumé, si l’on veut simuler, il ne faut pas que ce soit quantique. Le principe Church-Turing-Deutsch fonctionne, mais dans le cadre de la physique classique. On sait qu’il y a environ 10 puissance 90 particules dans l’univers. Et techniquement, pour représenter tout ça, il suffit de 300 qubits, ce qui devrait arriver d’ici à une vingtaine d’années. À cette date, nous ne serons peut-être pas capables de le simuler, mais nous pourrons énumérer tous les atomes de l’univers un par un. Ça serait déjà pas mal ! »
NUMÉRIQUE
Révolution quantique (2/5): l’ordinateur surpuissant est en vue
1 AOÛT 2016 | PAR JÉRÔME HOURDEAUX
Les principes de la physique quantique ont ouvert, en matière d’informatique, de nouvelles perspectives qui devraient bouleverser le monde du numérique : l’ordinateur quantique permettra, à terme, de révolutionner de nombreux domaines comme l’intelligence artificielle ou le chiffrement.
Imaginez un ordinateur si puissant qu’il serait capable de simuler l’ensemble de l’univers, l’intégralité de ses processus physiques depuis le big-bang. De la science-fiction ? Pas totalement. Dans son livre publié en 2006, Programmer l’univers, Seth Lloyd, chercheur au MIT (Massachusetts Institute of Technology) et spécialiste de la physique quantique, avance même une thèse bien plus audacieuse : l’univers lui-même ne serait qu’un immense ordinateur quantique au sein duquel nous vivrions.
Et cette affirmation n’est pas faite sans base scientifique. Avant Seth Lloyd, le physicien britannique David Deutsch, pionnier de la physique quantique, avait repris une thèse formulée dans les années 1930 pour l’informatique classique par les mathématiciens Alonzo Church et Alan Turing. Formulée en 1985, cette nouvelle thèse baptisée « principe Church-Turing-Deutsch », ou « principe CTD », fait le pari qu’un ordinateur quantique sera capable de simuler tout processus physique.
Mais qu’est-ce qu’un ordinateur quantique ? Le sujet est particulièrement à la mode et une explication concise a été donnée par le premier ministre canadien Justin Trudeau lors d’une intervention très médiatisée à l’institut Périmètre de Waterloo, un centre de recherche étudiant les théories de la physique.
En résumé, et sans revenir sur les principes de la physique quantique expliqués précédemment, il s’agit d’un ordinateur n’utilisant plus de « bits » gravés sur des puces informatiques mais des « qubits », des informations dont les supports sont désormais des particules, atomes, électrons ou encore photons. En informatique classique, un bit est une unité ne pouvant prendre que deux valeurs, le 0 ou le 1, servant à encoder les informations.
L’informatique quantique, elle, prend comme supports des particules et utilise les propriétés de la physique quantique, à commencer par la superposition d’états. Dans le monde quantique, il faut réussir à accepter que rien n'est déterminé. Un objet est en effet décrit comme ayant tous les états possibles, en termes de position, de vitesse, etc. Ce n'est que lorsqu'on le mesure qu'il prend des valeurs fixes. En 1935, le physicien autrichien Erwin Schrödinger avait imaginé une expérience de pensée afin de mieux appréhender ce monde qui défie notre logique, restée célèbre sous le nom de l’expérience du « chat de Schrödinger ». Imaginez un chat enfermé dans une boîte avec une capsule de poison reliée à un corps radioactif. Dès qu'un de ses atomes se fissure, la capsule de poison est brisée et le chat meurt. Pour déterminer l'état du chat enfermé dans la boîte, la logique voudrait calculer les probabilités pour que l'atome se fissure. Mais la physique quantique, elle, raisonne autrement : le chat est à la fois mort ET vivant. Il ne sera l'un ou l'autre que lorsqu'on ouvrira la boîte.
Une fois acceptée la logique quantique, il suffit de l'appliquer à des atomes ou des photons pour graver des informations. Les qubits ne sont ainsi pas limités par le choix entre 0 et 1 et possèdent plusieurs valeurs en même temps. La puissance des ordinateurs quantiques est donc, en théorie, démultipliée par rapport aux ordinateurs classiques. Reposant sur des principes de calcul totalement différents de l’informatique classique, ils permettront en outre de faire tourner des algorithmes quantiques réalisant des opérations jusqu’à présent inaccessibles.
La représentation d'un qubit © Wikipedia
Mais les principes de la physique quantique, dont l’un affirme que ses règles disparaissent à l’échelle macroscopique, imposent ainsi des contraintes matérielles très fortes. Le support du qubit doit non seulement être une particule, atome ou photon, mais en plus être conservé dans des conditions d’isolation extrêmes. Ces contraintes physiques limitent actuellement fortement le développement des ordinateurs quantiques.
En réalité, lorsque l’on parle aujourd'hui d’ordinateur quantique, il faut distinguer deux systèmes. Le premier est l’ordinateur « réellement » quantique, appelé ordinateur quantique universel, fonctionnant entièrement de manière quantique. Celui-ci n’en est encore qu’à ses balbutiements et il n’en existe à ce jour aucune version pleinement fonctionnelle. En revanche, plusieurs laboratoires ont développé des ordinateurs partiellement quantiques, appelés ordinateurs « adiabatiques », déjà en activité. Ces machines utilisent un dispositif quantique, mais de manière limitée.
« Les ordinateurs quantiques adiabatiques sont plus faciles à fabriquer, ils comportent plus de qubits mais ils ne permettent pas de traiter les algorithmes quantiques et ne peuvent résoudre que des fonctions d’optimisation bien précises, explique Renaud Lifchitz, expert en sécurité chez Digital Security. Ces ordinateurs sont typiquement utilisés par des industriels ou de grandes entreprises pour calculer le frottement d’une carlingue avec l’air, ou pour optimiser en Bourse un portefeuille d’actions en fonction des variations du marché. L’ordinateur quantique adiabatique le plus connu est celui de la société canadienne D-Wave, qui a maintenant déjà connu plusieurs générations. Équipé de 2 048 qubits, il est pour l’instant réservé à quelques grands groupes comme Google, Lockheed-Martin ou encore la Nasa. Ces machines sont très chères et elles nécessitent, pour fonctionner, des équipes de physiciens et d’informaticiens ainsi que des infrastructures très lourdes. Concernant leur efficacité, il y a toujours des débats techniques sur le régime quantique ou non des opérations effectuées. Mais on peut estimer que D-Wave les effectue plusieurs milliers de fois plus rapidement qu’un ordinateur classique. Une autre application des ordinateurs adiabatiques est le deep learning [apprentissage profond en français : désigne les méthodes informatiques d'apprentissage automatique ; le programme AlphaGo, connu pour avoir battu le champion du monde de jeu de go en mars dernier, reposait sur le deep learning – ndlr]. C’est déjà utilisé par Google, notamment dans le cadre de plusieurs projets comme leur projet de voiture intelligente. »
Les ordinateurs quantiques universels, eux, sont encore loin d'être utilisables en pratique, même si plusieurs projets sont bien avancés. L’université de Bristol par exemple a réussi en 2010 à faire tourner un algorithme quantique sur une de ses machines. « L’ordinateur de l’université de Bristol est universel, mais il serait plus juste de parler d’une puce, assez limitée même si elle est très complexe, explique Renaud Lifchitz. Elle est limitée à 2 qubits. Il n’en reste pas moins qu’il s’agit d’un système industriel qui fonctionne. C’est une véritable prouesse. IBM de son côté propose une puce universelle de 5 qubits, mais également avec des limitations. En laboratoire, des chercheurs ont réussi à aller jusqu’à 12 qubits avec pas mal d’efforts. Grâce à ceux-ci, on a réussi à montrer que des algorithmes quantiques conçus il y a des années, comme l’algorithme de Shor, tournaient très bien. »
Les algorithmes quantiques
Car c’est l’un des grands enjeux de l’informatique quantique : la possibilité de réaliser des opérations jusqu’à présent impossibles à calculer. Les machines quantiques universelles permettront notamment de s’attaquer à la cryptographie d’une manière inédite. Plus précisément, deux algorithmes quantiques déjà existants suscitent des inquiétudes. L’un vise le chiffrement dit symétrique, c’est-à-dire reposant sur une seule clef de chiffrement, utilisé par exemple dans la sécurisation de visites de sites internet. L’autre vise le chiffrement dit asymétrique, c’est-à-dire reposant sur un échange de clefs de chiffrement entre deux personnes, utilisé pour sécuriser les communications.
« Concernant la cryptographie symétrique, c’est l’algorithme de Grover qui s’applique. Celui-ci permet, en résumé, de diviser par deux la taille de toutes les clefs utilisées, détaille Renaud Lifchitz. Par exemple, une clef AES de 128 bits face à l’algorithme n’aura la résistance que d’une clef AES de 64 bits. Les clefs seront simplement deux fois plus faciles à casser. Or, on sait déjà que l’algorithme de Grover est optimal. Pour la cryptographie symétrique, nous avons donc une solution simple : il suffira de doubler la taille de toutes les clefs pour rester hors de portée d'attaques quantiques. »
« Concernant la cryptographie asymétrique, c’est un peu plus compliqué, poursuit Renaud Lifchitz. Là, c’est l’algorithme de Shor, qui permet notamment de casser les échanges de clefs, qui s’applique. Le problème est que l’algorithme de Shor est polynomial. Doubler la taille des clefs ne sera donc pas suffisant : l’attaquant n’aura besoin que d'un peu plus de temps pour réussir. Ici, la seule solution est de réfléchir à une autre cryptographie car, si on ne peut plus avoir confiance dans le cryptage, on ne peut plus avoir confiance en rien. Depuis plusieurs années, la conférence PQCrypto (pour Post Quantum Crypto) tente d’imaginer la crypto de demain. » De son côté, le géant américain Google vient d’annoncer qu’il avait implémenté dans ses serveurs un algorithme « post-quantique » censé protéger les utilisateurs de son navigateur Chrome des futures attaques quantiques.
Mais l’informatique quantique a aussi des applications en matière de sécurité, comme la distribution de clefs quantiques, une technologie développée notamment en Suisse dès 2008 avec le projet SwissQuantum de l'université de Genève. « Cela nécessite deux canaux, un pour envoyer le message chiffré, et un autre, constitué de fibre optique, pour échanger la clef qui permettra de déchiffrer le message, explique Renaud Lifchitz. Il existe une loi, dans la théorie de l’information de Shannon, qui stipule que si la clef est aussi longue que le message, celui-ci est incassable. Le but, ici, est donc de protéger la clef qui est envoyée par fibre optique. Or, en physique quantique, lorsque l’on observe une particule, on la modifie. Donc, si un attaquant essaye d’intercepter la clef, il la modifie et la détruit. L’autre avantage de ce système est que l’on sait, à la réception, si quelqu’un a essayé d’intercepter les clefs car le seul fait de l’observer la modifie. Et en plus, l’attaquant sait tout cela. C’est donc en quelque sorte le système parfait en termes de sécurité. Par contre, il ne peut fonctionner que de pair à pair, entre deux points. De plus, pour conserver les propriétés quantiques, le canal de fibre optique ne peut dépasser une centaine de kilomètres. Mais il est déjà utilisé pour les transactions financières en Suisse où les établissements bancaires sont assez proches les uns des autres. Et des sociétés commercialisent des routeurs quantiques. »
Quand ces machines quantiques seront-elles disponibles pour le grand public et que changeront-elles dans notre vie quotidienne ? « Avant tout, il faudra que ces ordinateurs fonctionnent avec un très grand nombre de qubits et une isolation extrême. Ensuite, il faudra qu’ils aient une taille suffisante pour trouver une application civile intéressante », résume Renaud Lifchitz.
Un ordinateur quantique de la société D-Wave © Reuters
« Il est très difficile de faire des prédictions, mais jusqu’à présent, il semblerait que les ordinateurs quantiques suivent eux aussi la loi de Moore [qui stipule que la capacité des ordinateurs double tous les 18 mois – ndlr]. Si les progrès continuent à ce rythme, je pense qu’on peut espérer un ordinateur quantique universel mature d’ici à 20-25 ans. Après, il n’y a pas vraiment de limite. Les changements ne seront pas forcément visibles, mais les principaux protocoles de l’Internet devront être changés. Les principales avancées se feront probablement sentir dans le domaine des interfaces homme-machine, dans l’intelligence artificielle, ou encore l’analyse de texte. Par exemple, aujourd’hui, pour un moteur de recherche, nous avons beaucoup de mal à traiter une requête du type “je veux partir en voyage dans un endroit où il fait chaud, en Europe, pas trop loin de la mer, et où il fait entre 25 et 30 degrés aux mois d’août et septembre”. Ce type de demande peut être traité par la recherche sémantique. Tout ce qui a trait au machine learning [l'auto-apprentissage des machines et des intelligences artificielles – ndlr] va également connaître un bond. »
Il ne faudra cependant pas espérer disposer de son propre ordinateur quantique à domicile. « Je ne pense pas que l’individu lambda aura son propre ordinateur quantique universel personnel à court ou moyen terme, estime Renaud Lifchitz. Tout d’abord parce que c’est très cher. Il faut assurer une isolation totale de l’ordinateur, qu’il n’y ait aucun échange de gaz ou de lumière ainsi qu’un refroidissement extrême. Des conditions qui ne sont pas envisageables pour des particuliers. Ensuite parce que ces ordinateurs seront certainement utilisés uniquement pour faire tourner des algorithmes quantiques. En effet, il n’y a aucun intérêt à faire tourner des algorithmes classiques sur un ordinateur quantique qui n’est pas fait pour ça et qui est plus lent qu’un ordinateur classique dans ce cas. Selon moi, les ordinateurs quantiques seront principalement accessibles via le Cloud, où l’on louera du temps de calcul. »
Au mois de juin dernier, le cofondateur du système d’exploitation Android, racheté depuis par Google, Andy Rubin avait également donné sa version de notre futur quantique lors d’une conférence organisée à San Francisco. À cette occasion, cet ingénieur et programmeur, reconverti en business angel, a révélé avoir investi dans une entreprise qui s’est donné pour but de commercialiser des appareils quantiques. Comme Renaud Lifchitz, Andy Rubin estime que l’avenir de l’informatique quantique n’est pas tant dans les machines que dans la relation homme-machine, et plus particulièrement dans l’intelligence artificielle (IA). Les algorithmes quantiques permettront en effet de développer de formidables IA, tellement puissantes qu’une seule suffirait à gérer tous vos appareils électroniques. « Si vous avez une informatique aussi puissante que ce qu’elle pourrait être, vous pourriez n’en avoir besoin que d’une, a notamment déclaré Andy Rubin. Ça ne serait pas quelque chose que vous transporteriez avec vous ; elle n’aurait qu’à être consciente. » Cette intelligence artificielle « consciente » aurait bien entendu besoin d’une énorme quantité de données. « C’est là que la robotique entre en jeu », poursuit Andy Rubin qui imagine un monde où nous serions tous équipés d’une multitude de capteurs alimentant notre IA quantique.
Quant à simuler l’univers, Renaud Lifchitz est tout aussi sceptique. « On ne sait déjà pas simuler le cerveau humain. Un premier pas serait déjà de simuler de petits systèmes, explique-t-il. Mais surtout, se posent des questions fondamentales et presque philosophiques : notre cerveau a-t-il un fonctionnement quantique ? Tout est-il régi par les lois de la physique quantique ? Si je prends un médicament par exemple, a-t-il un effet quantique ? Si la réponse est oui, se pose alors un autre problème. L’un des principes de la physique quantique est celui de non-clonage [qui interdit le clonage d'un état quantique – ndlr]. On ne peut pas cloner une particule. Donc, si le cerveau a un fonctionnement quantique, on ne pourra ni le cloner ni le simuler. »
« Les problématiques sont les mêmes au niveau de l’univers, poursuit Renaud Lifchitz. On ne sait pas s’il a un fonctionnement quantique et, si c’est le cas, il est impossible de cloner l’état quantique d’un système. En résumé, si l’on veut simuler, il ne faut pas que ce soit quantique. Le principe Church-Turing-Deutsch fonctionne, mais dans le cadre de la physique classique. On sait qu’il y a environ 10 puissance 90 particules dans l’univers. Et techniquement, pour représenter tout ça, il suffit de 300 qubits, ce qui devrait arriver d’ici à une vingtaine d’années. À cette date, nous ne serons peut-être pas capables de le simuler, mais nous pourrons énumérer tous les atomes de l’univers un par un. Ça serait déjà pas mal ! »
père autiste d'une fille autiste "Asperger" de 41 ans
-
- Modérateur
- Messages : 22562
- Enregistré le : lundi 24 octobre 2005 à 22:39
- Localisation : Finistère
Re: Ordre ou n'importe quoi .
SCIENCES
Révolution quantique (3/5): l’arme fatale de l’informatique future
3 AOÛT 2016 | PAR MICHEL DE PRACONTAL
Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite, et IBM, Google et Microsoft sont lancées dans une « course aux armements » de l’intelligence artificielle. Mais le projet de l’ordinateur quantique n’est pas seulement technologique, il engage une mutation culturelle.
Construire des ordinateurs qui puissent voir, écouter, dialoguer. Développer des moteurs de recherche intelligents, qui comprennent la demande de l’utilisateur et ne l’encombrent pas de réponses hors sujet. Élaborer des systèmes experts capables de traduire des langues, d’analyser des séquences génétiques, d’aider au diagnostic des maladies. Concevoir des programmes de robotique qui pilotent des voitures autonomes, sans conducteur et sans danger.
Telles sont quelques-unes des promesses de l’intelligence artificielle quantique, le nouvel horizon technologique de Google, Microsoft ou IBM. Leur projet : combiner la puissance des machines quantiques avec l’astuce des programmes intelligents, comme Alphago, le joueur de go artificiel de Google, qui a récemment flanqué une rouste inattendue au Coréen Lee Sedol, l’un des plus grands champions actuels, en faisant preuve de qualités de jeu remarquables (lire nos articles ici et là).
Pour les géants de la high-tech, l’intelligence artificielle quantique est la nouvelle arme fatale. Elle est à l’intelligence artificielle classique ce que la bombe H est à la bombe A. Le Washington Post parle même de « course aux armements de l’intelligence artificielle ». Elle a été lancée par Google et IBM en mai dernier. Google a créé, en association avec la Nasa, le Quantum Artificial Intelligence Laboratory (Quail), laboratoire d’intelligence artificielle qui exploite un ordinateur quantique construit par la société canadienne D-Wave (voir l’épisode précédent).
IBM, qui mène des recherches sur le domaine depuis trente-cinq ans, a inauguré une plateforme ouverte au public, accessible à tout ordinateur et permettant à des utilisateurs non professionnels d’exécuter des algorithmes et de pratiquer des expériences sur un processeur quantique. La plateforme, appelée IBM Quantum Experience, se veut une base d’exploration des applications potentielles des futurs ordinateurs quantiques intelligents.
Plus discret, Microsoft est, sur le plan scientifique, la plus ambitieuse des trois sociétés. La firme de Redmond a créé dès 2005, en Californie, un laboratoire voué au calcul quantique, Station Q, dirigé par un mathématicien de premier plan, Michael Freedman, médaille Fields en 1986. Puis Microsoft a formé en 2011 un groupe de recherche sur le calcul et l’architecture quantiques (QuArC), qui travaille avec des universités européennes : celle de Delft, aux Pays-Bas, celle de Copenhague, au Danemark, et l’École polytechnique fédérale de Zurich.
L’intelligence artificielle (IA) a fait irruption sur la scène médiatique il y a presque vingt ans, en mai 1997, lorsque le programme Deeper Blue d’IBM a battu le champion russe Garry Kasparov aux échecs. Près de vingt ans plus tard, un autre programme d’IA, AlphaGo, a remporté une nouvelle victoire symbolique sur l’intelligence humaine dans un jeu de stratégie, le go, que beaucoup considéraient comme un bastion imprenable de la suprématie humaine sur la machine.
Paradoxalement, la victoire d’AlphaGo, bien que plus significative que celle de Deeper Blue, n’a pas été perçue comme une défaite tragique de l’homme face à la machine. À la crainte que l’IA ne surpasse le cerveau biologique succède peu à peu le sentiment que les machines s’introduisent inéluctablement dans notre environnement immédiat et que leur puissance n’est que le prolongement de nos propres facultés.
Cette situation a transformé la discussion sur l’IA. Le terme d’intelligence artificielle a été introduit en 1955 par l’Américain John McCarthy, l’un des fondateurs de la discipline, qui la définit comme la science de « faire qu’une machine se comporte d’une manière qui serait qualifiée d’intelligente si le même comportement était celui d’un humain ». Selon un autre fondateur de l’IA, Marvin Minsky, l’intelligence artificielle consiste à faire accomplir par des machines des tâches « qui supposent de l’intelligence lorsqu’elles sont faites par des humains » (voir le site Internet Encyclopedia of Philosophy).
À l’époque de Minsky et McCarthy, l’enjeu crucial est de savoir si les capacités des machines peuvent être mises sur le même plan que les facultés humaines. Pour les fondateurs de l’IA, si un programme démontre un théorème de mathématiques ou bat un champion d’échecs, on doit admettre qu’il est capable de penser – même s’il ne pense pas comme un cerveau biologique.
Ce débat métaphysique est dépassé. Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite. McCarthy et Minsky ne se souciaient guère de savoir combien de temps il faudrait à l’ordinateur pour calculer le meilleur coup à jouer dans une position donnée aux échecs. Jusqu’à une période récente, la supériorité de la machine, du point de vue de la puissance de calcul, semblait si évidente que l’on se préoccupait peu de ses limites techniques. D’autant que les progrès des circuits intégrés, qui suivaient la croissance exponentielle décrite par la loi de Moore, garantissaient que les ordinateurs seraient toujours plus performants.
Avec l’essor du Big Data et de la simulation numérique, sont apparus des problèmes qui poussent les machines actuelles les plus puissantes aux limites de leurs possibilités. Certains de ces problèmes sont assez ésotériques, comme le calcul de l’état fondamental d’une molécule, c’est-à-dire de son état d’énergie minimale. Ou la modélisation exacte d’une réaction chimique. D’autres problèmes paraissent plus concrets comme celui, pour la Nasa, consistant à optimiser les trajectoires de vol des missions interstellaires ; ou, pour une société de transport, à organiser au mieux sa flotte de camions et d’avions de livraison ; ou, pour une compagnie pharmaceutique, à perfectionner la recherche d’un nouveau médicament.
De tels problèmes ont en commun le fait que leur traitement par les ordinateurs classiques, même les plus performants, peut demander un temps excessif : « La durée de vie de l’univers, ou plus », explique la directrice du groupe QuArC, Krysta Svore, sur le blog de Microsoft. Elle ajoute : « Nous pensons qu’un ordinateur quantique pourrait être exponentiellement plus rapide et traiter ce type de problèmes en un intervalle de temps plus raisonnable, de quelques années à quelques jours ou quelques secondes. »
« Simulation classique d’une machine quantique »
Cette accélération quantique tient aux propriétés très spéciales des objets du monde microscopique tels que les électrons, les photons ou les ions, supports de l’information dans un ordinateur quantique. Comme on l’a vu dans la première partie de cette série, un bit d’information quantique, ou qubit, peut prendre simultanément les valeurs 0 et 1, alors que dans un ordinateur digital classique, un bit d’information n’a qu’une seule valeur à la fois.
Conférence de Krysta Svore, de Microsoft, sur le calcul quantique, au Caltech le 26 janvier 2016 © IQIM Caltech
L’existence d’états « superposés » offre à l’ordinateur quantique une vitesse de traitement, toutes choses égales par ailleurs, exponentiellement supérieure à celle d’une machine classique. Un ordinateur comme celui avec lequel vous lisez cet article fonctionne avec des processeurs qui, si rapides soient-ils, fonctionnent étape par étape ; chaque circuit de base ne peut traiter qu’une opération à la fois. Dans un ordinateur quantique, un processeur peut, grâce à la superposition d’états, mener plusieurs calculs simultanément.
Pour illustrer la situation, comparons la résolution d’un problème à l’exploration d’un labyrinthe. Supposons que le problème soit traité par un programme installé sur un ordinateur classique. La stratégie de ce programme va ressembler à celle du traditionnel rat de laboratoire. Il s’engage dans le labyrinthe, avance jusqu’à rencontrer une bifurcation, et tourne alors dans l’une des directions possibles ; s’il arrive à une impasse, il revient sur ses pas, prend une autre direction, repart jusqu’à la prochaine bifurcation, et ainsi de suite.
Le programme classique, réduit au statut de rat de laboratoire, poursuit son exploration, par essai et erreur, jusqu’à ce qu’il finisse par trouver la sortie. Si le labyrinthe n’est pas trop vaste, cela se produit dans un temps raisonnable. L’ennui, c’est que le labyrinthe peut être si gigantesque que le programme n’aura aucune chance de découvrir l’issue avant la fin du monde.
Comment procède un système quantique ? Au lieu d’explorer le labyrinthe branche par branche comme le rat de laboratoire, il lâche d’un seul coup une armée de créatures virtuelles, comparables aux Tribbles de Star Trek, ces boules de poils qui se reproduisent à un taux exponentiel. Les bestioles se répandent dans le labyrinthe, explorent toutes les branches en même temps, et trouvent le meilleur itinéraire pour sortir en moins de temps qu’il n’en faut pour l’écrire.
Simple, non ? Dans le monde rêvé de la théorie quantique, oui. Mais tout se complique dès que l’on cherche à construire un dispositif qui fonctionne réellement. Les effets spéciaux qui confèrent aux qubits leur efficacité redoutable, comme la superposition d’états ou l’intrication (influence à distance entre particules), se révèlent en pratique capricieux et peu contrôlables. Et les prétendues machines quantiques ne le sont pas autant qu’elles le devraient. Du moins jusqu’ici.
Fin 2014, Zhaokai Li et ses collègues de l’Université de science et technologie de Chine, à Hefei, publient « le premier algorithme d’intelligence artificielle installé sur un processeur quantique à 4 qubits, c’est-à-dire une machine quantique capable d’apprendre ».
Cette machine apprend à effectuer une tâche élémentaire : reconnaître si un chiffre manuscrit est un 6 ou un 9. Lorsqu’on lui présente un nombre, la machine le divise selon les axes horizontal et vertical. Puis elle compte le nombre de pixels de part et d’autre de chaque axe, et utilise cette information pour classer le chiffre présenté dans la catégorie « 6 » ou « 9 » (par exemple, pour l’axe horizontal, un 9 aura plus de pixels en haut qu’en bas, tandis que ce sera l’inverse pour un 6).
Les résultats présentés en 2014 par Li et ses collègues sont très convaincants. Ils montrent que leur machine a reconnu correctement toute une série de 6 et de 9 écrits à la main. Le hic, c’est que cette machine fonctionne sans mettre en jeu l’intrication quantique entre particules. Un groupe de chercheurs de l’université de Bristol explique dans un article que le travail de l’équipe de Li est plus probablement une « simulation classique d’une machine quantique ».
Une discussion du même ordre a eu lieu en 2014-2015 à propos de l’ordinateur quantique fabriqué par la société canadienne D-Wave Systems et testé par Google. Cette machine traite des problèmes d’optimisation que l’on peut comparer à la recherche du point le plus bas dans un paysage constitué d’un grand nombre de collines et de vallées. La méthode classique pour résoudre le problème revient à faire rouler une bille au hasard jusqu’à ce qu’elle tombe dans une vallée, puis à vérifier qu’il n’y a pas une autre vallée plus profonde un peu plus loin, et ainsi de suite jusqu’à parvenir à la vallée la plus profonde de toutes.
Ce processus est lent car, le plus souvent, la bille va tomber dans un « minimum local », un point qui est le plus bas dans la petite région qui l’environne, mais non dans l’ensemble du paysage.
Dans un système quantique, la bille dispose d’un atout supplémentaire : si elle se trouve dans une vallée, et qu’il y a une autre vallée plus basse dans les environs, la bille peut rapidement passer de l’une à l’autre en traversant les collines par « effet tunnel » ; elle peut ainsi explorer le paysage beaucoup plus rapidement et découvrir la vallée la plus basse en un temps beaucoup plus court que la bille « classique ».
Google a réalisé une série de tests, publiés en juin 2014 dans la revue Science, destinés à vérifier si l’ordinateur D-Wave produisait une accélération quantique. Mais en fait, l’équipe de Google a constaté que le temps de calcul augmentait aussi vite pour la machine supposée quantique que pour un ordinateur classique.
Lors d’un deuxième test, en décembre 2015, les chercheurs de Google ont présenté des résultats suggérant que l’ordinateur D-Wave était, pour certains problèmes, 100 millions de fois plus rapide qu’une machine classique. Mais une analyse critique des résultats, effectuée par Matthias Troyer, de l’École polytechnique fédérale de Zurich, montre que cette affirmation est très exagérée. En fait, les chercheurs de Google admettent qu’une machine non quantique mais construite spécialement dans ce dessein pourrait égaler les performances actuelles de l’ordinateur D-Wave, comme l’explique le magazine britannique New Scientist.
La mécanique quantique est le langage fondamental de l’univers
Mais Google ne se décourage pas facilement. La firme vient d’annoncer un nouveau résultat prometteur, la première simulation d’une molécule par une méthode quantique (lire la publication). Une équipe de Google, associée à plusieurs universités américaines et au University College de Londres, a réussi à calculer l’énergie de surface d’une molécule d’hydrogène (H2) en utilisant un assemblage de qubits supraconducteurs (ce dispositif est différent de l’ordinateur D-Wave).
Certes, le même calcul pourrait être fait par un ordinateur classique. Le résultat ne démontre pas encore la supériorité de la machine quantique. Mais la même méthode pourrait être appliquée à des molécules plus complexes, y compris des molécules dont l’énergie ne peut pas être calculée par des ordinateurs classiques, selon Ryan Babbush, l’un des chercheurs de Google. Babbush explique sur son blog que la perspective, à terme, est de simuler précisément les réactions chimiques.
« Avec seulement une centaine de qubits fiables, on pourrait modéliser le processus par lequel les bactéries produisent de l’engrais à la température ambiante, écrit Ryan Babbush. Élucider ce mécanisme est un problème ouvert célèbre en chimie parce que la méthode utilisée par les humains pour produire de l’engrais artificiel est extrêmement peu efficace et consomme 1 à 2 % de l’énergie mondiale chaque année. »
Mais la simulation de molécules ou de réactions chimiques suffit-elle à justifier le branle-bas de combat autour de l’IA quantique ? Si intéressantes que soient de telles applications, « il est difficile de soutenir qu’[elles transformeraient] la civilisation d’une manière qui approche même de loin les bouleversements causés par l’informatique classique au cours du siècle dernier », observe Scott Aaronson, chercheur au MIT, dans Nature Physics.
Comment l’intelligence artificielle quantique pourrait-elle sortir des sentiers peu fréquentés où elle s’est cantonnée jusqu’ici ? Pour Nathan Wiebe, Ashish Kapoor et Krysta Svore, chercheurs chez Microsoft, la réponse tient en trois mots : « Quantum deep learning », « apprentissage quantique profond ». L’idée est de transposer à la technologie quantique les progrès accomplis par l’intelligence artificielle sur les ordinateurs classiques, et qui se sont manifestés, notamment, par la victoire d’AlphaGo sur Lee Sedol.
La partie de go mettant face à face le Coréen Lee Sedol et le programme AlphaGo © Reuters
Désormais, l’apprentissage constitue le trait dominant de l’IA. L’expression « machine learning », ou « apprentissage automatique », est devenue synonyme d’intelligence artificielle. Cet apprentissage se fait grâce à des réseaux de neurones artificiels, des assemblages de circuits qui imitent dans une certaine mesure le fonctionnement des neurones biologiques.
Le principe général d’un réseau de neurones artificiels consiste en ce que les connexions entre ces neurones se renforcent quand le réseau produit une bonne réponse et s’affaiblissent quand la réponse est mauvaise. Le réseau apprend en modifiant progressivement ses connexions jusqu’à produire la réponse la plus adaptée.
Les réseaux de neurones ont été inventés il y a des décennies, mais ils sont longtemps restés une curiosité scientifique, parce que l’on ne disposait pas d’une puissance de calcul suffisante pour les faire fonctionner de manière intéressante. L’essor du Big Data et les développements récents de la technologie informatique ont donné une nouvelle jeunesse aux réseaux de neurones. Ils sont aujourd’hui l’outil de base de l’IA. De plus, ils ont acquis de la profondeur. Les « réseaux neuronaux profonds » (« deep neural networks ») sont agencés selon une architecture complexe, en couches superposées, qui permet un « apprentissage profond » (« deep machine learning »).
« [Le deep learning] part du principe que pour accomplir des tâches complexes d’IA, comme la reconnaissance de la parole ou des images, il peut être nécessaire de permettre à la machine d’apprendre un modèle qui répartit les données brutes en plusieurs niveaux d’abstraction, expliquent Wiebe, Kapoor et Svore dans un article intitulé Quantum Deep Learning. Par exemple, pour détecter une voiture, le modèle peut comporter une première couche qui reçoit une image brute, en pixels. Dans une deuxième couche, il organise les données en formes simples. Dans la couche suivante, ces formes élémentaires peuvent être agencées pour constituer des formes [plus élaborées] comme les pare-chocs ou les roues. À des niveaux plus élevés, les formes peuvent être étiquetées par des mots comme “pneu” ou “capote”. »
En somme, un réseau profond construit une représentation hiérarchisée des données, un peu à la manière dont opère le cerveau biologique. Ces dernières années, les techniques de deep learning ont révolutionné le champ de l’IA et de l’apprentissage des machines. Elles sont utilisées dans de nombreuses applications grand public. Elles servent pour les moteurs de recherche, le classement d’images, la reconnaissance de sons, de visages, les problèmes d’optimisation, etc. Elles ont permis de réduire très fortement le taux d’erreurs dans les tâches de reconnaissance visuelle ou sonore, et d’approcher les performances humaines dans certains cas comme la comparaison de deux visages.
Malgré leur efficacité remarquable, les réseaux neuronaux profonds restent tributaires des limites des ordinateurs classiques. Pourraient-ils bénéficier de l’accélération quantique ? Krysta Svore et ses collègues de Microsoft y travaillent. Ils s’intéressent à une classe particulière de réseaux profonds, les « machines de Boltzmann ». Ils ont mis au point une méthode quantique qui, en théorie, permettrait à une machine de Boltzmann de dépasser les ordinateurs actuels. Il reste à le prouver expérimentalement. Et nul ne sait encore si cela aboutira.
« Ce qu’il y a d’étonnant avec la mécanique quantique, c’est que c’est […] la manière dont l’univers se parle à lui-même, et nous ne pensons pas de cette façon, dit Michael Freedman, le directeur de Station Q. Nous sommes plus proches des ordinateurs classiques. » Le projet de l’ordinateur quantique n’est pas seulement technologique, il engage une mutation culturelle. Nous allons abandonner les machines classiques et leur « manière primitive de traiter l’information » pour des machines qui penseront « dans le langage fondamental de l’univers ».
Révolution quantique (3/5): l’arme fatale de l’informatique future
3 AOÛT 2016 | PAR MICHEL DE PRACONTAL
Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite, et IBM, Google et Microsoft sont lancées dans une « course aux armements » de l’intelligence artificielle. Mais le projet de l’ordinateur quantique n’est pas seulement technologique, il engage une mutation culturelle.
Construire des ordinateurs qui puissent voir, écouter, dialoguer. Développer des moteurs de recherche intelligents, qui comprennent la demande de l’utilisateur et ne l’encombrent pas de réponses hors sujet. Élaborer des systèmes experts capables de traduire des langues, d’analyser des séquences génétiques, d’aider au diagnostic des maladies. Concevoir des programmes de robotique qui pilotent des voitures autonomes, sans conducteur et sans danger.
Telles sont quelques-unes des promesses de l’intelligence artificielle quantique, le nouvel horizon technologique de Google, Microsoft ou IBM. Leur projet : combiner la puissance des machines quantiques avec l’astuce des programmes intelligents, comme Alphago, le joueur de go artificiel de Google, qui a récemment flanqué une rouste inattendue au Coréen Lee Sedol, l’un des plus grands champions actuels, en faisant preuve de qualités de jeu remarquables (lire nos articles ici et là).
Pour les géants de la high-tech, l’intelligence artificielle quantique est la nouvelle arme fatale. Elle est à l’intelligence artificielle classique ce que la bombe H est à la bombe A. Le Washington Post parle même de « course aux armements de l’intelligence artificielle ». Elle a été lancée par Google et IBM en mai dernier. Google a créé, en association avec la Nasa, le Quantum Artificial Intelligence Laboratory (Quail), laboratoire d’intelligence artificielle qui exploite un ordinateur quantique construit par la société canadienne D-Wave (voir l’épisode précédent).
IBM, qui mène des recherches sur le domaine depuis trente-cinq ans, a inauguré une plateforme ouverte au public, accessible à tout ordinateur et permettant à des utilisateurs non professionnels d’exécuter des algorithmes et de pratiquer des expériences sur un processeur quantique. La plateforme, appelée IBM Quantum Experience, se veut une base d’exploration des applications potentielles des futurs ordinateurs quantiques intelligents.
Plus discret, Microsoft est, sur le plan scientifique, la plus ambitieuse des trois sociétés. La firme de Redmond a créé dès 2005, en Californie, un laboratoire voué au calcul quantique, Station Q, dirigé par un mathématicien de premier plan, Michael Freedman, médaille Fields en 1986. Puis Microsoft a formé en 2011 un groupe de recherche sur le calcul et l’architecture quantiques (QuArC), qui travaille avec des universités européennes : celle de Delft, aux Pays-Bas, celle de Copenhague, au Danemark, et l’École polytechnique fédérale de Zurich.
L’intelligence artificielle (IA) a fait irruption sur la scène médiatique il y a presque vingt ans, en mai 1997, lorsque le programme Deeper Blue d’IBM a battu le champion russe Garry Kasparov aux échecs. Près de vingt ans plus tard, un autre programme d’IA, AlphaGo, a remporté une nouvelle victoire symbolique sur l’intelligence humaine dans un jeu de stratégie, le go, que beaucoup considéraient comme un bastion imprenable de la suprématie humaine sur la machine.
Paradoxalement, la victoire d’AlphaGo, bien que plus significative que celle de Deeper Blue, n’a pas été perçue comme une défaite tragique de l’homme face à la machine. À la crainte que l’IA ne surpasse le cerveau biologique succède peu à peu le sentiment que les machines s’introduisent inéluctablement dans notre environnement immédiat et que leur puissance n’est que le prolongement de nos propres facultés.
Cette situation a transformé la discussion sur l’IA. Le terme d’intelligence artificielle a été introduit en 1955 par l’Américain John McCarthy, l’un des fondateurs de la discipline, qui la définit comme la science de « faire qu’une machine se comporte d’une manière qui serait qualifiée d’intelligente si le même comportement était celui d’un humain ». Selon un autre fondateur de l’IA, Marvin Minsky, l’intelligence artificielle consiste à faire accomplir par des machines des tâches « qui supposent de l’intelligence lorsqu’elles sont faites par des humains » (voir le site Internet Encyclopedia of Philosophy).
À l’époque de Minsky et McCarthy, l’enjeu crucial est de savoir si les capacités des machines peuvent être mises sur le même plan que les facultés humaines. Pour les fondateurs de l’IA, si un programme démontre un théorème de mathématiques ou bat un champion d’échecs, on doit admettre qu’il est capable de penser – même s’il ne pense pas comme un cerveau biologique.
Ce débat métaphysique est dépassé. Aujourd’hui, les chercheurs ne se demandent pas si la machine pense, mais si elle pense assez vite. McCarthy et Minsky ne se souciaient guère de savoir combien de temps il faudrait à l’ordinateur pour calculer le meilleur coup à jouer dans une position donnée aux échecs. Jusqu’à une période récente, la supériorité de la machine, du point de vue de la puissance de calcul, semblait si évidente que l’on se préoccupait peu de ses limites techniques. D’autant que les progrès des circuits intégrés, qui suivaient la croissance exponentielle décrite par la loi de Moore, garantissaient que les ordinateurs seraient toujours plus performants.
Avec l’essor du Big Data et de la simulation numérique, sont apparus des problèmes qui poussent les machines actuelles les plus puissantes aux limites de leurs possibilités. Certains de ces problèmes sont assez ésotériques, comme le calcul de l’état fondamental d’une molécule, c’est-à-dire de son état d’énergie minimale. Ou la modélisation exacte d’une réaction chimique. D’autres problèmes paraissent plus concrets comme celui, pour la Nasa, consistant à optimiser les trajectoires de vol des missions interstellaires ; ou, pour une société de transport, à organiser au mieux sa flotte de camions et d’avions de livraison ; ou, pour une compagnie pharmaceutique, à perfectionner la recherche d’un nouveau médicament.
De tels problèmes ont en commun le fait que leur traitement par les ordinateurs classiques, même les plus performants, peut demander un temps excessif : « La durée de vie de l’univers, ou plus », explique la directrice du groupe QuArC, Krysta Svore, sur le blog de Microsoft. Elle ajoute : « Nous pensons qu’un ordinateur quantique pourrait être exponentiellement plus rapide et traiter ce type de problèmes en un intervalle de temps plus raisonnable, de quelques années à quelques jours ou quelques secondes. »
« Simulation classique d’une machine quantique »
Cette accélération quantique tient aux propriétés très spéciales des objets du monde microscopique tels que les électrons, les photons ou les ions, supports de l’information dans un ordinateur quantique. Comme on l’a vu dans la première partie de cette série, un bit d’information quantique, ou qubit, peut prendre simultanément les valeurs 0 et 1, alors que dans un ordinateur digital classique, un bit d’information n’a qu’une seule valeur à la fois.
Conférence de Krysta Svore, de Microsoft, sur le calcul quantique, au Caltech le 26 janvier 2016 © IQIM Caltech
L’existence d’états « superposés » offre à l’ordinateur quantique une vitesse de traitement, toutes choses égales par ailleurs, exponentiellement supérieure à celle d’une machine classique. Un ordinateur comme celui avec lequel vous lisez cet article fonctionne avec des processeurs qui, si rapides soient-ils, fonctionnent étape par étape ; chaque circuit de base ne peut traiter qu’une opération à la fois. Dans un ordinateur quantique, un processeur peut, grâce à la superposition d’états, mener plusieurs calculs simultanément.
Pour illustrer la situation, comparons la résolution d’un problème à l’exploration d’un labyrinthe. Supposons que le problème soit traité par un programme installé sur un ordinateur classique. La stratégie de ce programme va ressembler à celle du traditionnel rat de laboratoire. Il s’engage dans le labyrinthe, avance jusqu’à rencontrer une bifurcation, et tourne alors dans l’une des directions possibles ; s’il arrive à une impasse, il revient sur ses pas, prend une autre direction, repart jusqu’à la prochaine bifurcation, et ainsi de suite.
Le programme classique, réduit au statut de rat de laboratoire, poursuit son exploration, par essai et erreur, jusqu’à ce qu’il finisse par trouver la sortie. Si le labyrinthe n’est pas trop vaste, cela se produit dans un temps raisonnable. L’ennui, c’est que le labyrinthe peut être si gigantesque que le programme n’aura aucune chance de découvrir l’issue avant la fin du monde.
Comment procède un système quantique ? Au lieu d’explorer le labyrinthe branche par branche comme le rat de laboratoire, il lâche d’un seul coup une armée de créatures virtuelles, comparables aux Tribbles de Star Trek, ces boules de poils qui se reproduisent à un taux exponentiel. Les bestioles se répandent dans le labyrinthe, explorent toutes les branches en même temps, et trouvent le meilleur itinéraire pour sortir en moins de temps qu’il n’en faut pour l’écrire.
Simple, non ? Dans le monde rêvé de la théorie quantique, oui. Mais tout se complique dès que l’on cherche à construire un dispositif qui fonctionne réellement. Les effets spéciaux qui confèrent aux qubits leur efficacité redoutable, comme la superposition d’états ou l’intrication (influence à distance entre particules), se révèlent en pratique capricieux et peu contrôlables. Et les prétendues machines quantiques ne le sont pas autant qu’elles le devraient. Du moins jusqu’ici.
Fin 2014, Zhaokai Li et ses collègues de l’Université de science et technologie de Chine, à Hefei, publient « le premier algorithme d’intelligence artificielle installé sur un processeur quantique à 4 qubits, c’est-à-dire une machine quantique capable d’apprendre ».
Cette machine apprend à effectuer une tâche élémentaire : reconnaître si un chiffre manuscrit est un 6 ou un 9. Lorsqu’on lui présente un nombre, la machine le divise selon les axes horizontal et vertical. Puis elle compte le nombre de pixels de part et d’autre de chaque axe, et utilise cette information pour classer le chiffre présenté dans la catégorie « 6 » ou « 9 » (par exemple, pour l’axe horizontal, un 9 aura plus de pixels en haut qu’en bas, tandis que ce sera l’inverse pour un 6).
Les résultats présentés en 2014 par Li et ses collègues sont très convaincants. Ils montrent que leur machine a reconnu correctement toute une série de 6 et de 9 écrits à la main. Le hic, c’est que cette machine fonctionne sans mettre en jeu l’intrication quantique entre particules. Un groupe de chercheurs de l’université de Bristol explique dans un article que le travail de l’équipe de Li est plus probablement une « simulation classique d’une machine quantique ».
Une discussion du même ordre a eu lieu en 2014-2015 à propos de l’ordinateur quantique fabriqué par la société canadienne D-Wave Systems et testé par Google. Cette machine traite des problèmes d’optimisation que l’on peut comparer à la recherche du point le plus bas dans un paysage constitué d’un grand nombre de collines et de vallées. La méthode classique pour résoudre le problème revient à faire rouler une bille au hasard jusqu’à ce qu’elle tombe dans une vallée, puis à vérifier qu’il n’y a pas une autre vallée plus profonde un peu plus loin, et ainsi de suite jusqu’à parvenir à la vallée la plus profonde de toutes.
Ce processus est lent car, le plus souvent, la bille va tomber dans un « minimum local », un point qui est le plus bas dans la petite région qui l’environne, mais non dans l’ensemble du paysage.
Dans un système quantique, la bille dispose d’un atout supplémentaire : si elle se trouve dans une vallée, et qu’il y a une autre vallée plus basse dans les environs, la bille peut rapidement passer de l’une à l’autre en traversant les collines par « effet tunnel » ; elle peut ainsi explorer le paysage beaucoup plus rapidement et découvrir la vallée la plus basse en un temps beaucoup plus court que la bille « classique ».
Google a réalisé une série de tests, publiés en juin 2014 dans la revue Science, destinés à vérifier si l’ordinateur D-Wave produisait une accélération quantique. Mais en fait, l’équipe de Google a constaté que le temps de calcul augmentait aussi vite pour la machine supposée quantique que pour un ordinateur classique.
Lors d’un deuxième test, en décembre 2015, les chercheurs de Google ont présenté des résultats suggérant que l’ordinateur D-Wave était, pour certains problèmes, 100 millions de fois plus rapide qu’une machine classique. Mais une analyse critique des résultats, effectuée par Matthias Troyer, de l’École polytechnique fédérale de Zurich, montre que cette affirmation est très exagérée. En fait, les chercheurs de Google admettent qu’une machine non quantique mais construite spécialement dans ce dessein pourrait égaler les performances actuelles de l’ordinateur D-Wave, comme l’explique le magazine britannique New Scientist.
La mécanique quantique est le langage fondamental de l’univers
Mais Google ne se décourage pas facilement. La firme vient d’annoncer un nouveau résultat prometteur, la première simulation d’une molécule par une méthode quantique (lire la publication). Une équipe de Google, associée à plusieurs universités américaines et au University College de Londres, a réussi à calculer l’énergie de surface d’une molécule d’hydrogène (H2) en utilisant un assemblage de qubits supraconducteurs (ce dispositif est différent de l’ordinateur D-Wave).
Certes, le même calcul pourrait être fait par un ordinateur classique. Le résultat ne démontre pas encore la supériorité de la machine quantique. Mais la même méthode pourrait être appliquée à des molécules plus complexes, y compris des molécules dont l’énergie ne peut pas être calculée par des ordinateurs classiques, selon Ryan Babbush, l’un des chercheurs de Google. Babbush explique sur son blog que la perspective, à terme, est de simuler précisément les réactions chimiques.
« Avec seulement une centaine de qubits fiables, on pourrait modéliser le processus par lequel les bactéries produisent de l’engrais à la température ambiante, écrit Ryan Babbush. Élucider ce mécanisme est un problème ouvert célèbre en chimie parce que la méthode utilisée par les humains pour produire de l’engrais artificiel est extrêmement peu efficace et consomme 1 à 2 % de l’énergie mondiale chaque année. »
Mais la simulation de molécules ou de réactions chimiques suffit-elle à justifier le branle-bas de combat autour de l’IA quantique ? Si intéressantes que soient de telles applications, « il est difficile de soutenir qu’[elles transformeraient] la civilisation d’une manière qui approche même de loin les bouleversements causés par l’informatique classique au cours du siècle dernier », observe Scott Aaronson, chercheur au MIT, dans Nature Physics.
Comment l’intelligence artificielle quantique pourrait-elle sortir des sentiers peu fréquentés où elle s’est cantonnée jusqu’ici ? Pour Nathan Wiebe, Ashish Kapoor et Krysta Svore, chercheurs chez Microsoft, la réponse tient en trois mots : « Quantum deep learning », « apprentissage quantique profond ». L’idée est de transposer à la technologie quantique les progrès accomplis par l’intelligence artificielle sur les ordinateurs classiques, et qui se sont manifestés, notamment, par la victoire d’AlphaGo sur Lee Sedol.
La partie de go mettant face à face le Coréen Lee Sedol et le programme AlphaGo © Reuters
Désormais, l’apprentissage constitue le trait dominant de l’IA. L’expression « machine learning », ou « apprentissage automatique », est devenue synonyme d’intelligence artificielle. Cet apprentissage se fait grâce à des réseaux de neurones artificiels, des assemblages de circuits qui imitent dans une certaine mesure le fonctionnement des neurones biologiques.
Le principe général d’un réseau de neurones artificiels consiste en ce que les connexions entre ces neurones se renforcent quand le réseau produit une bonne réponse et s’affaiblissent quand la réponse est mauvaise. Le réseau apprend en modifiant progressivement ses connexions jusqu’à produire la réponse la plus adaptée.
Les réseaux de neurones ont été inventés il y a des décennies, mais ils sont longtemps restés une curiosité scientifique, parce que l’on ne disposait pas d’une puissance de calcul suffisante pour les faire fonctionner de manière intéressante. L’essor du Big Data et les développements récents de la technologie informatique ont donné une nouvelle jeunesse aux réseaux de neurones. Ils sont aujourd’hui l’outil de base de l’IA. De plus, ils ont acquis de la profondeur. Les « réseaux neuronaux profonds » (« deep neural networks ») sont agencés selon une architecture complexe, en couches superposées, qui permet un « apprentissage profond » (« deep machine learning »).
« [Le deep learning] part du principe que pour accomplir des tâches complexes d’IA, comme la reconnaissance de la parole ou des images, il peut être nécessaire de permettre à la machine d’apprendre un modèle qui répartit les données brutes en plusieurs niveaux d’abstraction, expliquent Wiebe, Kapoor et Svore dans un article intitulé Quantum Deep Learning. Par exemple, pour détecter une voiture, le modèle peut comporter une première couche qui reçoit une image brute, en pixels. Dans une deuxième couche, il organise les données en formes simples. Dans la couche suivante, ces formes élémentaires peuvent être agencées pour constituer des formes [plus élaborées] comme les pare-chocs ou les roues. À des niveaux plus élevés, les formes peuvent être étiquetées par des mots comme “pneu” ou “capote”. »
En somme, un réseau profond construit une représentation hiérarchisée des données, un peu à la manière dont opère le cerveau biologique. Ces dernières années, les techniques de deep learning ont révolutionné le champ de l’IA et de l’apprentissage des machines. Elles sont utilisées dans de nombreuses applications grand public. Elles servent pour les moteurs de recherche, le classement d’images, la reconnaissance de sons, de visages, les problèmes d’optimisation, etc. Elles ont permis de réduire très fortement le taux d’erreurs dans les tâches de reconnaissance visuelle ou sonore, et d’approcher les performances humaines dans certains cas comme la comparaison de deux visages.
Malgré leur efficacité remarquable, les réseaux neuronaux profonds restent tributaires des limites des ordinateurs classiques. Pourraient-ils bénéficier de l’accélération quantique ? Krysta Svore et ses collègues de Microsoft y travaillent. Ils s’intéressent à une classe particulière de réseaux profonds, les « machines de Boltzmann ». Ils ont mis au point une méthode quantique qui, en théorie, permettrait à une machine de Boltzmann de dépasser les ordinateurs actuels. Il reste à le prouver expérimentalement. Et nul ne sait encore si cela aboutira.
« Ce qu’il y a d’étonnant avec la mécanique quantique, c’est que c’est […] la manière dont l’univers se parle à lui-même, et nous ne pensons pas de cette façon, dit Michael Freedman, le directeur de Station Q. Nous sommes plus proches des ordinateurs classiques. » Le projet de l’ordinateur quantique n’est pas seulement technologique, il engage une mutation culturelle. Nous allons abandonner les machines classiques et leur « manière primitive de traiter l’information » pour des machines qui penseront « dans le langage fondamental de l’univers ».
père autiste d'une fille autiste "Asperger" de 41 ans
-
- Intarissable
- Messages : 8889
- Enregistré le : lundi 28 septembre 2009 à 13:55
- Localisation : オルセー
Re: Ordre ou n'importe quoi .
Merci ,
Ca ne te deranges pas si je coche sympathisant dans le formulaire d'adhesion ?
Ca ne te deranges pas si je coche sympathisant dans le formulaire d'adhesion ?
Identifié Aspie (広島, 08/10/31) Diagnostiqué (CRA MP 2009/12/18)
話したい誰かがいるってしあわせだ
Être Aspie, c'est soit une mauvaise herbe à éradiquer, soit une plante médicinale à qui il faut permettre de fleurir et essaimer.
話したい誰かがいるってしあわせだ
Être Aspie, c'est soit une mauvaise herbe à éradiquer, soit une plante médicinale à qui il faut permettre de fleurir et essaimer.
-
- Modérateur
- Messages : 22562
- Enregistré le : lundi 24 octobre 2005 à 22:39
- Localisation : Finistère
Re: Ordre ou n'importe quoi .
Aucun problème
Mais c'était une blague
Mais c'était une blague
père autiste d'une fille autiste "Asperger" de 41 ans
-
- Modérateur
- Messages : 22562
- Enregistré le : lundi 24 octobre 2005 à 22:39
- Localisation : Finistère
Re: Ordre ou n'importe quoi .
Révolution quantique (4/5): de la Terre à la Lune sur Internet
7 août 2016 | Par Michel de Pracontal - Médiapart
L'Internet quantique offre la promesse d'un paradis du traitement de l'information : puissance de calcul inégalée et sécurité parfaite. Mais il n'existe encore que sous forme de prototypes. Si les États-Unis et l'Europe s'y intéressent, la Chine mène la course en tête.
« Un pas de géant pour l’Internet quantique » : c’est ainsi que la revue scientifique Nature qualifie le satellite chinois Quess, qui doit être lancé au cours de ce mois d’août 2016 de la base de Jiuquan, en Mongolie-Intérieure. Cet engin de 600 kilos produit des paires de photons « jumeaux », des particules de lumière « intriquées », qui se comportent comme si elles s’influençaient mutuellement, même très éloignées l’une de l’autre. Le satellite émettra des paires de photons dirigés respectivement vers Pékin et Vienne, afin de tester les interactions quantiques sur de grandes distances.
L'Internet quantique © DR
La mission Quess (Quantum Experiments at Space Scale, soit Expériences quantiques à l'échelle spatiale), collaboration sino-autrichienne dont le coût est d’environ 90 millions d’euros, vise à préparer un futur Internet quantique. Ce dernier n’existe, à ce jour, que sur le papier. De quoi s’agit-il ? En substance, l’idée est de créer un réseau planétaire d’ordinateurs surpuissants fonctionnant selon les principes de la théorie des quanta, et connectés par des lignes de télécommunication spéciales permettant de transporter à distance les états quantiques. Potentiellement, un tel système serait beaucoup plus rapide que l’Internet classique et mettrait à disposition des utilisateurs une puissance de calcul très supérieure. Il aurait aussi l’immense avantage de garantir le secret des communications avec un niveau de protection inégalable par les moyens actuels. Dans un système quantique, la sécurité des échanges est une caractéristique intrinsèque au traitement de l’information, car toute tentative de piratage est forcément détectée.
Bref, l’Internet quantique ressemble à un paradis de l’information. Mais il reste de nombreuses étapes à franchir avant de pouvoir atteindre cet éden numérique. Les ordinateurs quantiques n’en sont qu’à leurs balbutiements, comme on l’a vu dans les trois premiers épisodes de cette série. Même lorsqu’ils commenceront à fonctionner vraiment, ce qui devrait être le cas d’ici cinq à dix ans, assurer la liaison entre deux ou plusieurs machines quantiques constituera un défi complexe.
En effet, toute la magie des futures machines quantiques tient à leur capacité d'exploiter les propriétés « spéciales » des particules microscopiques telles que les électrons ou les photons. Ce qui donne aux bits quantiques, ou « qubits », leur efficacité, c’est le fait qu’ils peuvent se comporter d’une manière très différente des objets du monde classique, en utilisant des propriétés étranges comme la superposition d’états ou l’intrication (influence à distance entre particules).
Or, les propriétés des états quantiques sont fragiles, difficiles à contrôler, et ne peuvent pas être transportées par des lignes de télécommunication classiques. Pour transférer un état d’un ordinateur quantique à un autre, il faut se servir de la « téléportation », qui repose sur le mécanisme de l’intrication.
Soulignons que la téléportation quantique n’est pas celle qui se manifeste dans la série Star Trek et que symbolise la fameuse formule « Téléportation, Scotty ! ». Lorsqu’il entend cette injonction, l’ingénieur Montgomery Scott, alias « Scotty », actionne le bouton du « téléporteur » qui transporte instantanément le capitaine Kirk sur une planète inconnue. Au passage, si la téléportation est devenue l’un des éléments cultes de la série, c’était au départ une astuce de scénario pour éviter la mise en scène coûteuse du décollage et de l’atterrissage du vaisseau spatial.
Dans la téléportation « quantique », ce qui est transporté instantanément à distance n’est pas une personne, mais l’état d’une particule quantique, par exemple un photon. L’ingrédient essentiel de cette téléportation est l’intrication, la propriété de deux particules jumelles de se comporter comme si elles ne formaient qu'un seul objet. Si deux photons ont été « jumelés », ils continuent de former une paire indissociable, un ensemble unique, aussi loin soient-ils l’un de l’autre. Et lorsqu’on agit sur l’un d’entre eux, tout se passe comme si l’on agissait en fait sur l’ensemble. Une action sur l’un des jumeaux entraîne donc aussitôt un effet sur l’autre jumeau. Autrement dit, les photons jumeaux se comportent comme s’ils n’étaient pas « séparables », quelle que soit la distance entre eux.
Cette propriété étrange des particules jumelles a d’abord été décrite théoriquement par les fondateurs de la physique quantique, au grand dédain d’Albert Einstein qui moquait l’« action surnaturelle à distance » entre les particules intriquées (voir le premier épisode). Mais il a été prouvé expérimentalement dans les années 1980 que la « non-séparabilité » des particules intriquées était une réalité physique, ce qui a ouvert la voie à l’utilisation de la téléportation quantique comme moyen de communication.
De premiers tests ont été réalisés sur de courtes distances. Puis, en 2012, une équipe de physiciens dirigée par l’Autrichien Anton Zeilinger, à l’université de Vienne, a spectaculairement battu le record de distance franchie par la téléportation quantique : ces physiciens ont transféré les paramètres d’un photon à un autre, les deux particules se trouvant dans deux observatoires distants de 143 kilomètres, situés sur deux des îles Canaries, l’un à La Palma et l’autre à Ténérife.
Les télécommunications quantiques ne peuvent pas être piratées
Les physiciens décrivent habituellement ces interactions bizarres en mettant en scène deux personnages fictifs, Alice et Bob. Résumons l’expérience de Zeilinger avec l’aide d’Alice et Bob. Alice est à La Palma, au « Jacobus Kapteyn Telescope » qui dépend du « Groupe Isaac Newton », un observatoire géré par le Royaume-Uni, les Pays-Bas et l’Espagne. Bob est à Ténérife, à la « Station optique au sol » de l’Agence spatiale européenne.
Zeilinger et ses collègues produisent une paire de photons intriqués, A et B. Le photon A est envoyé chez Alice, le photon B chez Bob. Puis Alice fait interagir son photon A avec un photon source S. Cela change l’état du photon A, dont Alice mesure alors les caractéristiques. À 143 kilomètres, chez Bob, le photon B prend instantanément l’état quantique de celui d’Alice. Si par exemple, la polarisation du photon A a été changée par l’interaction avec le photon S, la polarisation du photon B va prendre une valeur déterminée par celle de A.
Autrement dit, les physiciens ont transporté instantanément l’état du photon A se trouvant à La Palma sur le photon B se trouvant à Ténérife. Et cela, alors que A et B n’ont aucune interaction entre eux, et qu’il n’y a aucune communication entre Alice et Bob.
Émetteur quantique à La Palma © IQOQI
Problème : est-ce que cela n’implique pas qu’il y a eu un transfert d’information instantané à distance ? Un tel transfert serait contraire aux lois physiques et en particulier à la théorie de la relativité, selon lesquelles une information ne peut pas voyager plus vite que la lumière.
En fait, les lois de la relativité sont respectées. Alice ne peut pas contrôler l’état téléporté, celui du photon A après interaction avec S. Cet état est régi par une loi probabiliste et n’est pas prévisible. Pour contrôler l’état de B et vérifier la relation entre les deux photons, Bob doit connaître le résultat de la mesure d’Alice. Et il ne peut le connaître que si Alice lui téléphone pour le lui indiquer, ou qu’elle utilise un autre moyen de communication, qui dans tous les cas ne transmettra aucune information à une vitesse supérieure à celle de la lumière.
Mais il y a plus : le transfert de l’état quantique du photon A sur le photon B ne peut pas être « piraté ». L'idée de base est que le fait de mesurer un objet quantique, par exemple un photon, modifie obligatoirement son état. Par conséquent, toute tentative d'intercepter un message quantique laisse inévitablement des traces détectables. Si Alice et Bob échangent une clé de cryptage codée sur des photons et qu'un hacker cherche à la lire, il sera forcément repéré. La communication quantique est donc intrinsèquement protégée contre les tentatives de surveillance ou d’intrusion.
De plus, l’intrication que nous avons décrite pour des paires de photons jumeaux peut s’étendre à un plus grand nombre de particules – théoriquement autant qu’on veut. En principe, l’Internet quantique pourrait permettre un bond exponentiel dans les possibilités de transport d’information et de calcul distribué, en toute sécurité. Cette perspective excitante se heurte cependant, une fois de plus, à la dure réalité : en pratique, les systèmes quantiques sont délicats à manipuler et un rien peut les empêcher de fonctionner.
Récepteur quantique à Ténérife © IQOQI
Dans presque toutes les expériences de téléportation quantique réalisées jusqu’ici, on a utilisé des photons comme support d’information. Pour faire communiquer les futures machines quantiques entre elles, on pourrait se servir de photons circulant à l’air libre ou dans des fibres optiques. Le record de 143 kilomètres de Zeilinger établi en 2012 l’a été à l’air libre ; peu de temps avant, une équipe chinoise avait réussi une expérience similaire au-dessus du lac Qinghai, sur une distance de 97 kilomètres.
Il n’est pas du tout certain que l’on puisse aller beaucoup plus loin : les photons à l’air libre subissent les turbulences de l’atmosphère, de sorte qu’il est très difficile d’amplifier un signal tout en préservant leur fragile état quantique. Une solution de rechange est de faire circuler les photons dans des fibres optiques. L’année dernière, des chercheurs du National Institute of Standards and Technology (NIST), à Boulder, Colorado, ont réussi à téléporter des états quantiques sur 100 kilomètres au moyen de fibres optiques.
Mais le système n’est guère efficace : « Seulement 1 % des photons réussit à parcourir les 100 kilomètres de fibres », dit l’un des participants à l’expérience, Marty Stevens, qui explique que le signal obtenu était si faible qu’il n’aurait pas été décelé sans le secours de nouveaux détecteurs ultrasensibles.
« Nous avons besoin d’explorer l’inconnu »
Les complications de la circulation des photons sur terre ont conduit les chercheurs chinois de l’université de science et de technologie de Heifei à s’intéresser à l’espace. D’où le satellite Quess, dont le principal instrument est un cristal qui produit des paires de photons intriqués. Au cours de cette mission qui doit durer deux ans, l’équipe chinoise, dirigée par Jian Wei Pan, un ancien étudiant de Zeilinger, en association avec le groupe de Vienne, va mener plusieurs expériences.
Le satellite de télécommunication quantique Quess © Académie chinoise des sciences Le satellite de télécommunication quantique Quess © Académie chinoise des sciences
La première consistera à établir des liaisons avec les stations au sol à Pékin et à Vienne, et à générer des clés de chiffrement quantiques permettant des communications totalement sûres. Les messages protégés par de telles clés ne peuvent être piratés, car si un tiers cherche à intercepter la clé quantique, il est obligé d’effectuer l’équivalent d’une mesure, ce qui modifie l’état quantique correspondant à la clé interceptée. Autrement dit, toute tentative de piratage sera inévitablement détectée par les parties qui cherchent à communiquer (voir le deuxième épisode).
Dans une autre expérience, la mission Quess tentera de vérifier expérimentalement l’intrication des particules à une distance de 1 200 kilomètres, et à téléporter des états quantiques sur des distances plus grandes que celles qui ont été atteintes sur terre. Si ces premières expériences réussissent, la Chine envisage d’envoyer jusqu’à une vingtaine de satellites, permettant des communications à travers la planète entière.
D’autres expériences sont en cours. Une équipe canadienne veut produire des photons intriqués au sol et les envoyer ensuite dans l’espace vers un microsatellite de 30 kilos. Une équipe italienne, à l’université de Padoue, projette d’équiper des satellites ordinaires de réflecteurs, et de faire rebondir des photons dessus. Des chercheurs projettent par ailleurs de mener une expérience quantique à bord de la station spatiale internationale.
La téléportation d’états quantiques à grande échelle se heurte à une difficulté physique : à mesure que la distance augmente, une proportion de plus en plus importante des photons intriqués disparaît, de sorte qu’à partir d’un trajet d’une certaine longueur le signal devient indétectable.
Pour y remédier, il faut utiliser des « répéteurs quantiques », l’équivalent des relais utilisés dans les télécommunications classiques. Ces derniers amplifient le signal affaibli et le retransmettent ainsi renforcé, sans modifier l’information qu’il véhicule. Les répéteurs quantiques sont étudiés depuis une vingtaine d’années. Ils font appel à différents procédés visant à corriger les pertes de photons le long des fibres optiques ainsi que les erreurs. Une analyse récente de ce sujet très technique a été publiée début 2016 dans les Scientific reports de la revue Nature (lire ici).
Décrire les différents types de répéteurs quantiques sortirait du cadre de cet article. Mais on peut illustrer le principe général par l’exemple d’un dispositif testé en 2012 par l’équipe de Nicolas Gisin, à l’université de Genève. Les chercheurs genevois ont réussi à “stocker” durant une microseconde le premier membre d’une paire de photons intriqués dans un cristal et à le récupérer ensuite, sans que son intrication avec le deuxième ait été rompue. En termes informatiques, l’opération équivaut au stockage momentané d’un bit quantique – un qubit – dans une mémoire solide. Ce dispositif pourrait jouer le rôle de répéteur dans un réseau quantique (voir le schéma ci-dessous). Dispositif prototype de répéteur quantique développé à l'université de Genève © DR
Dans le futur Internet quantique, les répéteurs ne devront pas être placés au hasard, mais installés d’une manière qui permette des communications efficaces. Michael Epping, de l’université de Düsseldorf, a montré récemment que l’on pouvait optimiser l’architecture des réseaux quantiques en utilisant la théorie mathématique des graphes. Un graphe est un objet mathématique abstrait qui permet de représenter un réseau en détaillant ses caractéristiques. Grâce aux graphes, il sera possible de comparer différents réseaux quantiques produisant le même état et de déterminer lequel transmettra l’information quantique sur la plus grande distance.
Avant d’en arriver là, il faudrait déjà disposer d’un réseau existant physiquement, et pas seulement sur le papier. Les États-Unis s’intéressent vivement, mais discrètement, à l’Internet quantique. Il y a trois ans, en mai 2013, l’équipe de Richard Hughes, du Laboratoire national de Los Alamos, au Nouveau-Mexique, a révélé qu’elle avait testé en secret, durant deux ans et demi, un réseau quantique à petite échelle. Ce réseau est construit autour d’un foyer central, et pour envoyer un message d’un point à un autre du réseau, il faut toujours passer par le centre. Selon Hughes et ses collègues, leur réseau permet de communiquer des messages quantiques en sécurité. Cependant, il semble difficile de construire un réseau à l’échelle planétaire selon ce procédé, qui n’est donc probablement pas un modèle pour le futur web quantique.
L’Europe s’intéresse aussi à l’Internet quantique, mais ne le voit pas pour tout de suite. Le « Quantum manifesto », feuille de route pour le développement des technologies quantiques lancée par l’Union européenne en mai dernier, présente comme un objectif à long terme (d’ici à 2030 ou plus tard) de « créer un Internet quantique sûr et rapide reliant les plus grandes villes d’Europe ».
Aujourd’hui, ce sont les Chinois qui mènent la course en tête, à la fois dans l’espace et au sol. Depuis plusieurs années, ils ont entrepris de construire un réseau de télécommunications quantiques entre plusieurs villes de Chine, dont une ligne de 1 000 kilomètres, qui reliera Pékin à Shanghai. Du côté spatial, Jian Wei Pan et ses collègues de l’université de Heifei ont un nouveau projet : ils veulent lancer un satellite destiné à faire circuler des particules intriquées entre la Terre et la Lune. « Nous avons besoin d’explorer l’inconnu », explique Pan dans la revue Nature.
7 août 2016 | Par Michel de Pracontal - Médiapart
L'Internet quantique offre la promesse d'un paradis du traitement de l'information : puissance de calcul inégalée et sécurité parfaite. Mais il n'existe encore que sous forme de prototypes. Si les États-Unis et l'Europe s'y intéressent, la Chine mène la course en tête.
« Un pas de géant pour l’Internet quantique » : c’est ainsi que la revue scientifique Nature qualifie le satellite chinois Quess, qui doit être lancé au cours de ce mois d’août 2016 de la base de Jiuquan, en Mongolie-Intérieure. Cet engin de 600 kilos produit des paires de photons « jumeaux », des particules de lumière « intriquées », qui se comportent comme si elles s’influençaient mutuellement, même très éloignées l’une de l’autre. Le satellite émettra des paires de photons dirigés respectivement vers Pékin et Vienne, afin de tester les interactions quantiques sur de grandes distances.
L'Internet quantique © DR
La mission Quess (Quantum Experiments at Space Scale, soit Expériences quantiques à l'échelle spatiale), collaboration sino-autrichienne dont le coût est d’environ 90 millions d’euros, vise à préparer un futur Internet quantique. Ce dernier n’existe, à ce jour, que sur le papier. De quoi s’agit-il ? En substance, l’idée est de créer un réseau planétaire d’ordinateurs surpuissants fonctionnant selon les principes de la théorie des quanta, et connectés par des lignes de télécommunication spéciales permettant de transporter à distance les états quantiques. Potentiellement, un tel système serait beaucoup plus rapide que l’Internet classique et mettrait à disposition des utilisateurs une puissance de calcul très supérieure. Il aurait aussi l’immense avantage de garantir le secret des communications avec un niveau de protection inégalable par les moyens actuels. Dans un système quantique, la sécurité des échanges est une caractéristique intrinsèque au traitement de l’information, car toute tentative de piratage est forcément détectée.
Bref, l’Internet quantique ressemble à un paradis de l’information. Mais il reste de nombreuses étapes à franchir avant de pouvoir atteindre cet éden numérique. Les ordinateurs quantiques n’en sont qu’à leurs balbutiements, comme on l’a vu dans les trois premiers épisodes de cette série. Même lorsqu’ils commenceront à fonctionner vraiment, ce qui devrait être le cas d’ici cinq à dix ans, assurer la liaison entre deux ou plusieurs machines quantiques constituera un défi complexe.
En effet, toute la magie des futures machines quantiques tient à leur capacité d'exploiter les propriétés « spéciales » des particules microscopiques telles que les électrons ou les photons. Ce qui donne aux bits quantiques, ou « qubits », leur efficacité, c’est le fait qu’ils peuvent se comporter d’une manière très différente des objets du monde classique, en utilisant des propriétés étranges comme la superposition d’états ou l’intrication (influence à distance entre particules).
Or, les propriétés des états quantiques sont fragiles, difficiles à contrôler, et ne peuvent pas être transportées par des lignes de télécommunication classiques. Pour transférer un état d’un ordinateur quantique à un autre, il faut se servir de la « téléportation », qui repose sur le mécanisme de l’intrication.
Soulignons que la téléportation quantique n’est pas celle qui se manifeste dans la série Star Trek et que symbolise la fameuse formule « Téléportation, Scotty ! ». Lorsqu’il entend cette injonction, l’ingénieur Montgomery Scott, alias « Scotty », actionne le bouton du « téléporteur » qui transporte instantanément le capitaine Kirk sur une planète inconnue. Au passage, si la téléportation est devenue l’un des éléments cultes de la série, c’était au départ une astuce de scénario pour éviter la mise en scène coûteuse du décollage et de l’atterrissage du vaisseau spatial.
Dans la téléportation « quantique », ce qui est transporté instantanément à distance n’est pas une personne, mais l’état d’une particule quantique, par exemple un photon. L’ingrédient essentiel de cette téléportation est l’intrication, la propriété de deux particules jumelles de se comporter comme si elles ne formaient qu'un seul objet. Si deux photons ont été « jumelés », ils continuent de former une paire indissociable, un ensemble unique, aussi loin soient-ils l’un de l’autre. Et lorsqu’on agit sur l’un d’entre eux, tout se passe comme si l’on agissait en fait sur l’ensemble. Une action sur l’un des jumeaux entraîne donc aussitôt un effet sur l’autre jumeau. Autrement dit, les photons jumeaux se comportent comme s’ils n’étaient pas « séparables », quelle que soit la distance entre eux.
Cette propriété étrange des particules jumelles a d’abord été décrite théoriquement par les fondateurs de la physique quantique, au grand dédain d’Albert Einstein qui moquait l’« action surnaturelle à distance » entre les particules intriquées (voir le premier épisode). Mais il a été prouvé expérimentalement dans les années 1980 que la « non-séparabilité » des particules intriquées était une réalité physique, ce qui a ouvert la voie à l’utilisation de la téléportation quantique comme moyen de communication.
De premiers tests ont été réalisés sur de courtes distances. Puis, en 2012, une équipe de physiciens dirigée par l’Autrichien Anton Zeilinger, à l’université de Vienne, a spectaculairement battu le record de distance franchie par la téléportation quantique : ces physiciens ont transféré les paramètres d’un photon à un autre, les deux particules se trouvant dans deux observatoires distants de 143 kilomètres, situés sur deux des îles Canaries, l’un à La Palma et l’autre à Ténérife.
Les télécommunications quantiques ne peuvent pas être piratées
Les physiciens décrivent habituellement ces interactions bizarres en mettant en scène deux personnages fictifs, Alice et Bob. Résumons l’expérience de Zeilinger avec l’aide d’Alice et Bob. Alice est à La Palma, au « Jacobus Kapteyn Telescope » qui dépend du « Groupe Isaac Newton », un observatoire géré par le Royaume-Uni, les Pays-Bas et l’Espagne. Bob est à Ténérife, à la « Station optique au sol » de l’Agence spatiale européenne.
Zeilinger et ses collègues produisent une paire de photons intriqués, A et B. Le photon A est envoyé chez Alice, le photon B chez Bob. Puis Alice fait interagir son photon A avec un photon source S. Cela change l’état du photon A, dont Alice mesure alors les caractéristiques. À 143 kilomètres, chez Bob, le photon B prend instantanément l’état quantique de celui d’Alice. Si par exemple, la polarisation du photon A a été changée par l’interaction avec le photon S, la polarisation du photon B va prendre une valeur déterminée par celle de A.
Autrement dit, les physiciens ont transporté instantanément l’état du photon A se trouvant à La Palma sur le photon B se trouvant à Ténérife. Et cela, alors que A et B n’ont aucune interaction entre eux, et qu’il n’y a aucune communication entre Alice et Bob.
Émetteur quantique à La Palma © IQOQI
Problème : est-ce que cela n’implique pas qu’il y a eu un transfert d’information instantané à distance ? Un tel transfert serait contraire aux lois physiques et en particulier à la théorie de la relativité, selon lesquelles une information ne peut pas voyager plus vite que la lumière.
En fait, les lois de la relativité sont respectées. Alice ne peut pas contrôler l’état téléporté, celui du photon A après interaction avec S. Cet état est régi par une loi probabiliste et n’est pas prévisible. Pour contrôler l’état de B et vérifier la relation entre les deux photons, Bob doit connaître le résultat de la mesure d’Alice. Et il ne peut le connaître que si Alice lui téléphone pour le lui indiquer, ou qu’elle utilise un autre moyen de communication, qui dans tous les cas ne transmettra aucune information à une vitesse supérieure à celle de la lumière.
Mais il y a plus : le transfert de l’état quantique du photon A sur le photon B ne peut pas être « piraté ». L'idée de base est que le fait de mesurer un objet quantique, par exemple un photon, modifie obligatoirement son état. Par conséquent, toute tentative d'intercepter un message quantique laisse inévitablement des traces détectables. Si Alice et Bob échangent une clé de cryptage codée sur des photons et qu'un hacker cherche à la lire, il sera forcément repéré. La communication quantique est donc intrinsèquement protégée contre les tentatives de surveillance ou d’intrusion.
De plus, l’intrication que nous avons décrite pour des paires de photons jumeaux peut s’étendre à un plus grand nombre de particules – théoriquement autant qu’on veut. En principe, l’Internet quantique pourrait permettre un bond exponentiel dans les possibilités de transport d’information et de calcul distribué, en toute sécurité. Cette perspective excitante se heurte cependant, une fois de plus, à la dure réalité : en pratique, les systèmes quantiques sont délicats à manipuler et un rien peut les empêcher de fonctionner.
Récepteur quantique à Ténérife © IQOQI
Dans presque toutes les expériences de téléportation quantique réalisées jusqu’ici, on a utilisé des photons comme support d’information. Pour faire communiquer les futures machines quantiques entre elles, on pourrait se servir de photons circulant à l’air libre ou dans des fibres optiques. Le record de 143 kilomètres de Zeilinger établi en 2012 l’a été à l’air libre ; peu de temps avant, une équipe chinoise avait réussi une expérience similaire au-dessus du lac Qinghai, sur une distance de 97 kilomètres.
Il n’est pas du tout certain que l’on puisse aller beaucoup plus loin : les photons à l’air libre subissent les turbulences de l’atmosphère, de sorte qu’il est très difficile d’amplifier un signal tout en préservant leur fragile état quantique. Une solution de rechange est de faire circuler les photons dans des fibres optiques. L’année dernière, des chercheurs du National Institute of Standards and Technology (NIST), à Boulder, Colorado, ont réussi à téléporter des états quantiques sur 100 kilomètres au moyen de fibres optiques.
Mais le système n’est guère efficace : « Seulement 1 % des photons réussit à parcourir les 100 kilomètres de fibres », dit l’un des participants à l’expérience, Marty Stevens, qui explique que le signal obtenu était si faible qu’il n’aurait pas été décelé sans le secours de nouveaux détecteurs ultrasensibles.
« Nous avons besoin d’explorer l’inconnu »
Les complications de la circulation des photons sur terre ont conduit les chercheurs chinois de l’université de science et de technologie de Heifei à s’intéresser à l’espace. D’où le satellite Quess, dont le principal instrument est un cristal qui produit des paires de photons intriqués. Au cours de cette mission qui doit durer deux ans, l’équipe chinoise, dirigée par Jian Wei Pan, un ancien étudiant de Zeilinger, en association avec le groupe de Vienne, va mener plusieurs expériences.
Le satellite de télécommunication quantique Quess © Académie chinoise des sciences Le satellite de télécommunication quantique Quess © Académie chinoise des sciences
La première consistera à établir des liaisons avec les stations au sol à Pékin et à Vienne, et à générer des clés de chiffrement quantiques permettant des communications totalement sûres. Les messages protégés par de telles clés ne peuvent être piratés, car si un tiers cherche à intercepter la clé quantique, il est obligé d’effectuer l’équivalent d’une mesure, ce qui modifie l’état quantique correspondant à la clé interceptée. Autrement dit, toute tentative de piratage sera inévitablement détectée par les parties qui cherchent à communiquer (voir le deuxième épisode).
Dans une autre expérience, la mission Quess tentera de vérifier expérimentalement l’intrication des particules à une distance de 1 200 kilomètres, et à téléporter des états quantiques sur des distances plus grandes que celles qui ont été atteintes sur terre. Si ces premières expériences réussissent, la Chine envisage d’envoyer jusqu’à une vingtaine de satellites, permettant des communications à travers la planète entière.
D’autres expériences sont en cours. Une équipe canadienne veut produire des photons intriqués au sol et les envoyer ensuite dans l’espace vers un microsatellite de 30 kilos. Une équipe italienne, à l’université de Padoue, projette d’équiper des satellites ordinaires de réflecteurs, et de faire rebondir des photons dessus. Des chercheurs projettent par ailleurs de mener une expérience quantique à bord de la station spatiale internationale.
La téléportation d’états quantiques à grande échelle se heurte à une difficulté physique : à mesure que la distance augmente, une proportion de plus en plus importante des photons intriqués disparaît, de sorte qu’à partir d’un trajet d’une certaine longueur le signal devient indétectable.
Pour y remédier, il faut utiliser des « répéteurs quantiques », l’équivalent des relais utilisés dans les télécommunications classiques. Ces derniers amplifient le signal affaibli et le retransmettent ainsi renforcé, sans modifier l’information qu’il véhicule. Les répéteurs quantiques sont étudiés depuis une vingtaine d’années. Ils font appel à différents procédés visant à corriger les pertes de photons le long des fibres optiques ainsi que les erreurs. Une analyse récente de ce sujet très technique a été publiée début 2016 dans les Scientific reports de la revue Nature (lire ici).
Décrire les différents types de répéteurs quantiques sortirait du cadre de cet article. Mais on peut illustrer le principe général par l’exemple d’un dispositif testé en 2012 par l’équipe de Nicolas Gisin, à l’université de Genève. Les chercheurs genevois ont réussi à “stocker” durant une microseconde le premier membre d’une paire de photons intriqués dans un cristal et à le récupérer ensuite, sans que son intrication avec le deuxième ait été rompue. En termes informatiques, l’opération équivaut au stockage momentané d’un bit quantique – un qubit – dans une mémoire solide. Ce dispositif pourrait jouer le rôle de répéteur dans un réseau quantique (voir le schéma ci-dessous). Dispositif prototype de répéteur quantique développé à l'université de Genève © DR
Dans le futur Internet quantique, les répéteurs ne devront pas être placés au hasard, mais installés d’une manière qui permette des communications efficaces. Michael Epping, de l’université de Düsseldorf, a montré récemment que l’on pouvait optimiser l’architecture des réseaux quantiques en utilisant la théorie mathématique des graphes. Un graphe est un objet mathématique abstrait qui permet de représenter un réseau en détaillant ses caractéristiques. Grâce aux graphes, il sera possible de comparer différents réseaux quantiques produisant le même état et de déterminer lequel transmettra l’information quantique sur la plus grande distance.
Avant d’en arriver là, il faudrait déjà disposer d’un réseau existant physiquement, et pas seulement sur le papier. Les États-Unis s’intéressent vivement, mais discrètement, à l’Internet quantique. Il y a trois ans, en mai 2013, l’équipe de Richard Hughes, du Laboratoire national de Los Alamos, au Nouveau-Mexique, a révélé qu’elle avait testé en secret, durant deux ans et demi, un réseau quantique à petite échelle. Ce réseau est construit autour d’un foyer central, et pour envoyer un message d’un point à un autre du réseau, il faut toujours passer par le centre. Selon Hughes et ses collègues, leur réseau permet de communiquer des messages quantiques en sécurité. Cependant, il semble difficile de construire un réseau à l’échelle planétaire selon ce procédé, qui n’est donc probablement pas un modèle pour le futur web quantique.
L’Europe s’intéresse aussi à l’Internet quantique, mais ne le voit pas pour tout de suite. Le « Quantum manifesto », feuille de route pour le développement des technologies quantiques lancée par l’Union européenne en mai dernier, présente comme un objectif à long terme (d’ici à 2030 ou plus tard) de « créer un Internet quantique sûr et rapide reliant les plus grandes villes d’Europe ».
Aujourd’hui, ce sont les Chinois qui mènent la course en tête, à la fois dans l’espace et au sol. Depuis plusieurs années, ils ont entrepris de construire un réseau de télécommunications quantiques entre plusieurs villes de Chine, dont une ligne de 1 000 kilomètres, qui reliera Pékin à Shanghai. Du côté spatial, Jian Wei Pan et ses collègues de l’université de Heifei ont un nouveau projet : ils veulent lancer un satellite destiné à faire circuler des particules intriquées entre la Terre et la Lune. « Nous avons besoin d’explorer l’inconnu », explique Pan dans la revue Nature.
Vous n’avez pas les permissions nécessaires pour voir les fichiers joints à ce message.
père autiste d'une fille autiste "Asperger" de 41 ans
-
- Modérateur
- Messages : 22562
- Enregistré le : lundi 24 octobre 2005 à 22:39
- Localisation : Finistère
Re: Ordre ou n'importe quoi .
Révolution quantique (5/5): comment les géants de la high-tech vont avaler l’Europe
10 août 2016 | Par Michel de Pracontal - Médiapart
Aujourd’hui, Google, IBM ou Microsoft financent les meilleurs laboratoires universitaires européens dans le domaine de l’ordinateur quantique. Demain, ils récolteront les fruits de cette stratégie d’OPA amicale mais non désintéressée.
« La course à l’ordinateur quantique a-t-elle commencé ? J’espère que ce n’est pas une course, parce que si nous commençons à nous concurrencer, nous allons échouer. Pour construire une machine, il faut de la science de haut niveau. Nous avons besoin d’une coopération européenne, pas de chercher chacun à être le vainqueur. J’ai besoin de mes collègues scientifiques et universitaires à Copenhague, à Delft, à Zurich, à Londres… On ne cherche pas à s’éliminer les uns les autres. Quand Henri Ford a conçu le modèle T, son but n’était pas de devenir le seul constructeur d’automobiles. Il voulait qu’on développe le réseau routier pour que le marché de la voiture grandisse. Google, IBM, Intel ou Microsoft ne veulent pas tuer leurs concurrents, ils veulent créer un environnement dans lequel la technologie quantique pourra prospérer. Si on n’arrive pas à inventer une puce quantique qui marche, il n’y aura rien pour personne. Le jeu est ouvert. »
Charles Marcus, professeur à l'Institut Niels Bohr de Copenhague © Ola Jakup Joensen
Ainsi parle le physicien américain Charles Marcus, spécialiste mondialement reconnu d’électronique quantique, lors d’un entretien accordé à Mediapart à l’occasion de la conférence internationale Quantum Europe. Cet événement s’est tenu les 17 et 18 mai dernier à Amsterdam pour lancer un programme de recherche de l’Union européenne sur la technologie quantique doté d’un milliard d’euros de financement. Marcus est le prototype du chercheur « mondialisé » : né à Pittsburgh, il a fait ses études à l’université Stanford, en Californie avant de devenir professeur à Harvard, Massachusetts, puis d’être recruté par le prestigieux Institut Niels Bohr de Copenhague, fondé en 1921 par le grand physicien du même nom, co-fondateur de la théorie quantique (voir le premier épisode de cette série).
Marcus est également associé aux recherches de Microsoft sur l’ordinateur quantique du futur. La firme fondée par Bill Gates mène depuis 2005 une recherche ambitieuse pour explorer certaines propriétés fondamentales de la matière, afin de mettre au point un dispositif fiable permettant de manipuler l’information quantique. Le principal défi dans ce domaine est de réussir à « domestiquer » les propriétés spéciales des objets du monde quantique : la possibilité pour des particules d’être dans deux endroits à la fois, ou de s’influencer à distance, ouvre en théorie la voie à des ordinateurs capables de traiter des problèmes inaccessibles aux calculateurs actuels.
Mais en pratique, ces propriétés spéciales sont très difficiles à exploiter, parce que les systèmes quantiques sont fragiles et peu contrôlables. C’est pourquoi Microsoft a opté pour une stratégie de recherche très en amont visant à inventer une puce quantique d’un nouveau type. Et à cette fin, la firme de Redmond s’est attaché les services d’une pléiade de chercheurs de très haut niveau, dans des universités renommées des États-Unis, d’Europe ou d'Australie. Avant Charles Marcus, Microsoft a recruté un mathématicien de premier plan, Michael Freedman, médaille Fields, pour diriger son laboratoire de calcul quantique, Station Q, créé en Californie en 2005. La firme s’est liée à Leo Kouwenhoven, physicien au QuTech, l’institut de recherche quantique de l’université de Delft, aux Pays-Bas, ainsi qu’à David Reilly, à l’université de Sidney.
Microsoft n’est pas la seule grande firme à approcher les chercheurs universitaires de haut niveau. En 2014, Google a embauché John Martinis, spécialiste du calcul quantique à l’université de Californie à Santa Barbara ; et plus récemment, Google s’est associé à Matthias Troyer, physicien à l’École polytechnique fédérale de Zurich.
L’hybridation féconde entre recherche industrielle et chercheurs universitaires, qui fonctionne particulièrement bien dans le système des États-Unis, conduit Charles Marcus à tenir son discours selon lequel la recherche sur l’ordinateur quantique est encore un jeu ouvert plutôt qu’une compétition très concurrentielle. Ce que confirme sa collègue Krysta Svore, directrice du groupe de recherche de Microsoft sur le calcul et l’architecture quantiques (QuArC) ? « Il y a de nombreux défis techniques, on a besoin de collaboration, affirme Svore. L’ouverture est encore à l’ordre du jour. La course n’est pas encore lancée. »
En réalité, cette vision paraît quelque peu édulcorée. Certes, du fait du rôle important des chercheurs universitaires et parce que ce domaine relève encore en grande partie de la science fondamentale, l’atmosphère générale des travaux sur l’ordinateur quantique n’est pas celle d’une recherche industrielle fermée, où les différentes sociétés conduisent leurs travaux chacune de son côté en les protégeant par le secret industriel. Et les différentes firmes ont l’intelligence d’encourager les différentes voies technologiques, puisqu’on ne sait pas aujourd’hui ce qui marchera.
Pour autant, la course est bel et bien lancée, et les trois sociétés les plus avancées la mènent selon des stratégies opposées. Microsoft a entrepris une recherche très fondamentale, sur un temps relativement long, avec le projet de créer une « puce quantique » originale. Google ou IBM tentent d’aboutir plus rapidement à un ordinateur quantique fonctionnel – même s’il est limité – en se servant de composants déjà connus, à savoir des circuits supraconducteurs. C’est, en somme, la course entre les lièvres IBM-Google et la tortue Microsoft.
Elle n’est pas disputée dans la discrétion. Les géants de la high-tech rivalisent d’annonces spectaculaires. En mai dernier, au moment où l’Union européenne dévoilait son manifeste quantique, feuille de route de la nouvelle révolution technologique, Google lançait avec la Nasa le Quantum Artificial Intelligence Laboratory (Quail), laboratoire d’intelligence artificielle qui exploite un ordinateur quantique. Au même moment, IBM inaugurait sa plate-forme ouverte au public, sorte de laboratoire quantique participatif, appelée IBM Quantum Experience. Si Microsoft ne s’affiche pas autant, l’ordinateur quantique n’en est pas moins son principal thème de recherche actuel.
« Le jeu ouvert ne durera pas jusqu’à la fin »
D’autres sociétés investissent aussi dans l’ordinateur quantique, même si elles sont moins avancées que les trois autres. En septembre 2015, Intel, connu comme le leader mondial des microprocesseurs, a annoncé un accord avec le QuTech, l’institut de recherche quantique de l’université de Delft, aux Pays-Bas. Intel veut investir 50 millions de dollars (45 millions d’euros) en dix ans pour accélérer les recherches sur le calcul quantique. Lockheed, Toshiba, Thalès misent aussi sur le génie quantique.
Le QuTech, à l'Université de technologie de Delft, Pays-Bas © DR
Les grandes manœuvres des multinationales de la high-tech s’amplifient alors que l’Europe a saisi – avec un certain retard – l’importance de l’enjeu quantique. Le Quantum manifesto, ou Manifeste quantique, dévoilé en mai dernier, détaille tous les aspects de la technologie quantique, avec des objectifs temporels ; en particulier, le développement d’un véritable ordinateur quantique, capable de traiter tous types de problèmes avec une puissance de calcul supérieure à celle des ordinateurs classiques, est annoncé pour après 2035.
L’Europe peut-elle encore jouer un rôle de premier plan, alors que les multinationales américaines ont manifestement un temps d’avance ? Elle possède indiscutablement des laboratoires universitaires de très haut niveau dans le domaine, mais comme on l’a vu, les plus avancés sont déjà en affaire avec Google, Microsoft, IBM ou Intel. Et il est peu probable que le premier ordinateur quantique commercialisable soit entièrement développé par un laboratoire universitaire. Toute l’intelligence des grandes multinationales consiste à financer à fond les meilleurs labos européens, avec l’intention d’en tirer les fruits lorsqu’ils seront mûrs.
« On est encore à un stade où il y a beaucoup de découvertes à faire, explique Charles Marcus. Mais à mesure que le temps passe, on va davantage basculer dans le domaine de l’application. Aujourd’hui, on est encore dans la recherche fondamentale. »
Microsoft donne l’illustration la plus claire de cette situation. La firme s’est associée, comme Intel, au QuTech, mais elle ne s’est pas contentée de donner de l’argent. Elle a lancé un programme de recherche original depuis 2010. En fait, la collaboration entre Microsoft et le QuTech est reliée à une histoire beaucoup plus ancienne, qui remonte aux débuts de la physique quantique, et plus précisément à 1937.
Cette année-là, un jeune physicien italien, Ettore Majorana, a prédit l’existence d’un objet très bizarre, sur la base de spéculations théoriques que l’on n’avait, à l’époque, aucun moyen de vérifier expérimentalement. Il s’agissait d’une particule possédant la propriété remarquable d’être sa propre anti-particule, c’est-à-dire qu’elle pouvait s’annuler elle-même. Majorana a lui-même disparu mystérieusement l’année suivante, à peine âgé de 32 ans, au cours d’un voyage en Sicile – c’est du moins ce que l’on suppose –, sans que l’on sache s’il s’était suicidé à la suite d’une dépression, s’il avait été enlevé en Russie ou s’il s’était annulé lui-même (voir le premier épisode de cette série).
On avait un peu oublié la particule de Majorana, qui restait un objet purement théorique jusqu’à la fin du siècle dernier. D’ailleurs, il ne s’agissait même pas d’une particule à proprement parler mais de ce que les physiciens appellent une « quasi-particule », un objet qui se rattache à un phénomène collectif, un peu comme une ola dans un stade de football. Or, voilà qu’en 2000, Alexei Kitaev, physicien russo-américain installé en Californie, alors chercheur chez Microsoft, a lancé l’idée que cette licorne du bestiaire quantique pourrait servir de support à des qubits, des bits d’information quantique. Kitaev a même démontré que des quasi-particules de Majorana localisées aux extrémités d’un câble pourraient créer un qubit « topologiquement protégé », autrement dit un bit d’information quantique assez stable. En somme, le Graal de l’ordinateur quantique.
Quelques années plus tard, d’autres chercheurs de Station Q, le laboratoire de Microsoft, ont publié des travaux confirmant l’intérêt de la quasi-particule de Majorana. Seul problème : à l’époque, on ne savait toujours pas si cette fameuse quasi-particule existait réellement, ou si ce n’était qu’une élucubration théorique.
C’est là qu’entrent en scène le QuTech et l’un de ses chercheurs, Leo Kouwenhoven, qui dirige une petite équipe d’expérimentateurs chevronnés. Avec Charles Marcus, ils ont élaboré un test expérimental pour détecter la « signature » d’une quasi-particule de Majorana. En 2012, Kouwenhoven et son équipe ont publié dans Science les résultats d’une expérience avec des « nano-câbles » (des fils conducteurs extrêmement fins) connectés à une électrode supraconductrice, expérience qui démontrait l’existence de quasi-particules de Majorana. Marcus et ses collègues sont en train d’étudier ces quasi-particules pour voir comment elles pourraient permettre de réaliser des mémoires quantiques fiables.
Cette recherche est encore conduite de manière ouverte, avec des publications internationales et des colloques au cours desquels les chercheurs exposent l’avancement des travaux en toute liberté. « Mais le jeu ouvert ne durera pas jusqu’à la fin, reconnaît Charles Marcus. Il faudra une société privée pour mener le projet de l’ordinateur quantique à son terme. Google et les autres ne font pas ça pour la gloire, ils le font pour en tirer des bénéfices. Je pense que d’ici 5-10 ans on verra les premiers prototypes d’ordinateurs quantiques dignes de ce nom. Alors, les sociétés feront des évaluations séparées et sélectionneront des voies différentes pour aboutir à un produit commercialisable. »
Une société européenne pourrait-elle émerger dans ce concert dominé par les géants américains ? « Aucune grande société européenne n’est aussi avancée que les firmes américaines, poursuit Marcus. Il faudrait que l’Europe se réveille ». Pour la technologie quantique comme en de nombreux autres domaines, le Vieux Continent peine à s’engager dans les mouvements de l’histoire.
10 août 2016 | Par Michel de Pracontal - Médiapart
Aujourd’hui, Google, IBM ou Microsoft financent les meilleurs laboratoires universitaires européens dans le domaine de l’ordinateur quantique. Demain, ils récolteront les fruits de cette stratégie d’OPA amicale mais non désintéressée.
« La course à l’ordinateur quantique a-t-elle commencé ? J’espère que ce n’est pas une course, parce que si nous commençons à nous concurrencer, nous allons échouer. Pour construire une machine, il faut de la science de haut niveau. Nous avons besoin d’une coopération européenne, pas de chercher chacun à être le vainqueur. J’ai besoin de mes collègues scientifiques et universitaires à Copenhague, à Delft, à Zurich, à Londres… On ne cherche pas à s’éliminer les uns les autres. Quand Henri Ford a conçu le modèle T, son but n’était pas de devenir le seul constructeur d’automobiles. Il voulait qu’on développe le réseau routier pour que le marché de la voiture grandisse. Google, IBM, Intel ou Microsoft ne veulent pas tuer leurs concurrents, ils veulent créer un environnement dans lequel la technologie quantique pourra prospérer. Si on n’arrive pas à inventer une puce quantique qui marche, il n’y aura rien pour personne. Le jeu est ouvert. »
Charles Marcus, professeur à l'Institut Niels Bohr de Copenhague © Ola Jakup Joensen
Ainsi parle le physicien américain Charles Marcus, spécialiste mondialement reconnu d’électronique quantique, lors d’un entretien accordé à Mediapart à l’occasion de la conférence internationale Quantum Europe. Cet événement s’est tenu les 17 et 18 mai dernier à Amsterdam pour lancer un programme de recherche de l’Union européenne sur la technologie quantique doté d’un milliard d’euros de financement. Marcus est le prototype du chercheur « mondialisé » : né à Pittsburgh, il a fait ses études à l’université Stanford, en Californie avant de devenir professeur à Harvard, Massachusetts, puis d’être recruté par le prestigieux Institut Niels Bohr de Copenhague, fondé en 1921 par le grand physicien du même nom, co-fondateur de la théorie quantique (voir le premier épisode de cette série).
Marcus est également associé aux recherches de Microsoft sur l’ordinateur quantique du futur. La firme fondée par Bill Gates mène depuis 2005 une recherche ambitieuse pour explorer certaines propriétés fondamentales de la matière, afin de mettre au point un dispositif fiable permettant de manipuler l’information quantique. Le principal défi dans ce domaine est de réussir à « domestiquer » les propriétés spéciales des objets du monde quantique : la possibilité pour des particules d’être dans deux endroits à la fois, ou de s’influencer à distance, ouvre en théorie la voie à des ordinateurs capables de traiter des problèmes inaccessibles aux calculateurs actuels.
Mais en pratique, ces propriétés spéciales sont très difficiles à exploiter, parce que les systèmes quantiques sont fragiles et peu contrôlables. C’est pourquoi Microsoft a opté pour une stratégie de recherche très en amont visant à inventer une puce quantique d’un nouveau type. Et à cette fin, la firme de Redmond s’est attaché les services d’une pléiade de chercheurs de très haut niveau, dans des universités renommées des États-Unis, d’Europe ou d'Australie. Avant Charles Marcus, Microsoft a recruté un mathématicien de premier plan, Michael Freedman, médaille Fields, pour diriger son laboratoire de calcul quantique, Station Q, créé en Californie en 2005. La firme s’est liée à Leo Kouwenhoven, physicien au QuTech, l’institut de recherche quantique de l’université de Delft, aux Pays-Bas, ainsi qu’à David Reilly, à l’université de Sidney.
Microsoft n’est pas la seule grande firme à approcher les chercheurs universitaires de haut niveau. En 2014, Google a embauché John Martinis, spécialiste du calcul quantique à l’université de Californie à Santa Barbara ; et plus récemment, Google s’est associé à Matthias Troyer, physicien à l’École polytechnique fédérale de Zurich.
L’hybridation féconde entre recherche industrielle et chercheurs universitaires, qui fonctionne particulièrement bien dans le système des États-Unis, conduit Charles Marcus à tenir son discours selon lequel la recherche sur l’ordinateur quantique est encore un jeu ouvert plutôt qu’une compétition très concurrentielle. Ce que confirme sa collègue Krysta Svore, directrice du groupe de recherche de Microsoft sur le calcul et l’architecture quantiques (QuArC) ? « Il y a de nombreux défis techniques, on a besoin de collaboration, affirme Svore. L’ouverture est encore à l’ordre du jour. La course n’est pas encore lancée. »
En réalité, cette vision paraît quelque peu édulcorée. Certes, du fait du rôle important des chercheurs universitaires et parce que ce domaine relève encore en grande partie de la science fondamentale, l’atmosphère générale des travaux sur l’ordinateur quantique n’est pas celle d’une recherche industrielle fermée, où les différentes sociétés conduisent leurs travaux chacune de son côté en les protégeant par le secret industriel. Et les différentes firmes ont l’intelligence d’encourager les différentes voies technologiques, puisqu’on ne sait pas aujourd’hui ce qui marchera.
Pour autant, la course est bel et bien lancée, et les trois sociétés les plus avancées la mènent selon des stratégies opposées. Microsoft a entrepris une recherche très fondamentale, sur un temps relativement long, avec le projet de créer une « puce quantique » originale. Google ou IBM tentent d’aboutir plus rapidement à un ordinateur quantique fonctionnel – même s’il est limité – en se servant de composants déjà connus, à savoir des circuits supraconducteurs. C’est, en somme, la course entre les lièvres IBM-Google et la tortue Microsoft.
Elle n’est pas disputée dans la discrétion. Les géants de la high-tech rivalisent d’annonces spectaculaires. En mai dernier, au moment où l’Union européenne dévoilait son manifeste quantique, feuille de route de la nouvelle révolution technologique, Google lançait avec la Nasa le Quantum Artificial Intelligence Laboratory (Quail), laboratoire d’intelligence artificielle qui exploite un ordinateur quantique. Au même moment, IBM inaugurait sa plate-forme ouverte au public, sorte de laboratoire quantique participatif, appelée IBM Quantum Experience. Si Microsoft ne s’affiche pas autant, l’ordinateur quantique n’en est pas moins son principal thème de recherche actuel.
« Le jeu ouvert ne durera pas jusqu’à la fin »
D’autres sociétés investissent aussi dans l’ordinateur quantique, même si elles sont moins avancées que les trois autres. En septembre 2015, Intel, connu comme le leader mondial des microprocesseurs, a annoncé un accord avec le QuTech, l’institut de recherche quantique de l’université de Delft, aux Pays-Bas. Intel veut investir 50 millions de dollars (45 millions d’euros) en dix ans pour accélérer les recherches sur le calcul quantique. Lockheed, Toshiba, Thalès misent aussi sur le génie quantique.
Le QuTech, à l'Université de technologie de Delft, Pays-Bas © DR
Les grandes manœuvres des multinationales de la high-tech s’amplifient alors que l’Europe a saisi – avec un certain retard – l’importance de l’enjeu quantique. Le Quantum manifesto, ou Manifeste quantique, dévoilé en mai dernier, détaille tous les aspects de la technologie quantique, avec des objectifs temporels ; en particulier, le développement d’un véritable ordinateur quantique, capable de traiter tous types de problèmes avec une puissance de calcul supérieure à celle des ordinateurs classiques, est annoncé pour après 2035.
L’Europe peut-elle encore jouer un rôle de premier plan, alors que les multinationales américaines ont manifestement un temps d’avance ? Elle possède indiscutablement des laboratoires universitaires de très haut niveau dans le domaine, mais comme on l’a vu, les plus avancés sont déjà en affaire avec Google, Microsoft, IBM ou Intel. Et il est peu probable que le premier ordinateur quantique commercialisable soit entièrement développé par un laboratoire universitaire. Toute l’intelligence des grandes multinationales consiste à financer à fond les meilleurs labos européens, avec l’intention d’en tirer les fruits lorsqu’ils seront mûrs.
« On est encore à un stade où il y a beaucoup de découvertes à faire, explique Charles Marcus. Mais à mesure que le temps passe, on va davantage basculer dans le domaine de l’application. Aujourd’hui, on est encore dans la recherche fondamentale. »
Microsoft donne l’illustration la plus claire de cette situation. La firme s’est associée, comme Intel, au QuTech, mais elle ne s’est pas contentée de donner de l’argent. Elle a lancé un programme de recherche original depuis 2010. En fait, la collaboration entre Microsoft et le QuTech est reliée à une histoire beaucoup plus ancienne, qui remonte aux débuts de la physique quantique, et plus précisément à 1937.
Cette année-là, un jeune physicien italien, Ettore Majorana, a prédit l’existence d’un objet très bizarre, sur la base de spéculations théoriques que l’on n’avait, à l’époque, aucun moyen de vérifier expérimentalement. Il s’agissait d’une particule possédant la propriété remarquable d’être sa propre anti-particule, c’est-à-dire qu’elle pouvait s’annuler elle-même. Majorana a lui-même disparu mystérieusement l’année suivante, à peine âgé de 32 ans, au cours d’un voyage en Sicile – c’est du moins ce que l’on suppose –, sans que l’on sache s’il s’était suicidé à la suite d’une dépression, s’il avait été enlevé en Russie ou s’il s’était annulé lui-même (voir le premier épisode de cette série).
On avait un peu oublié la particule de Majorana, qui restait un objet purement théorique jusqu’à la fin du siècle dernier. D’ailleurs, il ne s’agissait même pas d’une particule à proprement parler mais de ce que les physiciens appellent une « quasi-particule », un objet qui se rattache à un phénomène collectif, un peu comme une ola dans un stade de football. Or, voilà qu’en 2000, Alexei Kitaev, physicien russo-américain installé en Californie, alors chercheur chez Microsoft, a lancé l’idée que cette licorne du bestiaire quantique pourrait servir de support à des qubits, des bits d’information quantique. Kitaev a même démontré que des quasi-particules de Majorana localisées aux extrémités d’un câble pourraient créer un qubit « topologiquement protégé », autrement dit un bit d’information quantique assez stable. En somme, le Graal de l’ordinateur quantique.
Quelques années plus tard, d’autres chercheurs de Station Q, le laboratoire de Microsoft, ont publié des travaux confirmant l’intérêt de la quasi-particule de Majorana. Seul problème : à l’époque, on ne savait toujours pas si cette fameuse quasi-particule existait réellement, ou si ce n’était qu’une élucubration théorique.
C’est là qu’entrent en scène le QuTech et l’un de ses chercheurs, Leo Kouwenhoven, qui dirige une petite équipe d’expérimentateurs chevronnés. Avec Charles Marcus, ils ont élaboré un test expérimental pour détecter la « signature » d’une quasi-particule de Majorana. En 2012, Kouwenhoven et son équipe ont publié dans Science les résultats d’une expérience avec des « nano-câbles » (des fils conducteurs extrêmement fins) connectés à une électrode supraconductrice, expérience qui démontrait l’existence de quasi-particules de Majorana. Marcus et ses collègues sont en train d’étudier ces quasi-particules pour voir comment elles pourraient permettre de réaliser des mémoires quantiques fiables.
Cette recherche est encore conduite de manière ouverte, avec des publications internationales et des colloques au cours desquels les chercheurs exposent l’avancement des travaux en toute liberté. « Mais le jeu ouvert ne durera pas jusqu’à la fin, reconnaît Charles Marcus. Il faudra une société privée pour mener le projet de l’ordinateur quantique à son terme. Google et les autres ne font pas ça pour la gloire, ils le font pour en tirer des bénéfices. Je pense que d’ici 5-10 ans on verra les premiers prototypes d’ordinateurs quantiques dignes de ce nom. Alors, les sociétés feront des évaluations séparées et sélectionneront des voies différentes pour aboutir à un produit commercialisable. »
Une société européenne pourrait-elle émerger dans ce concert dominé par les géants américains ? « Aucune grande société européenne n’est aussi avancée que les firmes américaines, poursuit Marcus. Il faudrait que l’Europe se réveille ». Pour la technologie quantique comme en de nombreux autres domaines, le Vieux Continent peine à s’engager dans les mouvements de l’histoire.
père autiste d'une fille autiste "Asperger" de 41 ans
-
- Modérateur
- Messages : 22562
- Enregistré le : lundi 24 octobre 2005 à 22:39
- Localisation : Finistère
Re: Ordre ou n'importe quoi .
Vous n’avez pas les permissions nécessaires pour voir les fichiers joints à ce message.
père autiste d'une fille autiste "Asperger" de 41 ans
-
- Prolifique
- Messages : 4408
- Enregistré le : samedi 12 décembre 2015 à 16:38
Re: Ordre ou n'importe quoi .
@jean
Modération (Tugdual) : Fusion de sujets (fin).
Spoiler : tant que tu ne découvres pas ce spoiler ma réaction est en superposition. Rires ou chansons ? :
Modération (Tugdual) : Fusion de sujets (fin).
Vieux geek non diagnostiqué
CIM10 F84
Insight Aspie (?) +Aphantasie, prosopagnosie, écholalie, mutisme électif....
Fan de super héros, Daredevil le pygmalion de mon fonctionnement social
Mes doigts sur un clavier communiquent plus de mots que ma bouche...
CIM10 F84
Insight Aspie (?) +Aphantasie, prosopagnosie, écholalie, mutisme électif....
Fan de super héros, Daredevil le pygmalion de mon fonctionnement social
Mes doigts sur un clavier communiquent plus de mots que ma bouche...
-
- Modérateur
- Messages : 4861
- Enregistré le : samedi 17 décembre 2016 à 19:19
Re: La physique quantique
Je m'intéresse un peu à la physique quantique (bah oui, d'où le pseudo! ).
J'ai trouvé une petite vidéo super bien faite sur l'intrication quantique :
J'ai trouvé une petite vidéo super bien faite sur l'intrication quantique :
Diagnostiqué. CRA, 2016.
-
- Prolifique
- Messages : 1863
- Enregistré le : mercredi 14 septembre 2016 à 9:14
- Localisation : Gironde
Re: La physique quantique
J'adore la physique quantique. J'arrête pas de lire dessus, et ça me fascine, ça me permet de m'évader. Je trouve que ça développe l'humilité, évite les certitudes et c'est pour moi la Caverne de Platon.
C'est une discipline entre physique et philosophie. Pour les croyants ... : Dieu se cache là ! Ne cherchez plus
C'est une discipline entre physique et philosophie. Pour les croyants ... : Dieu se cache là ! Ne cherchez plus
Diagnostiqué asperger avec anxiété sociale marquée par le CRA.
-
- Modérateur
- Messages : 4861
- Enregistré le : samedi 17 décembre 2016 à 19:19
Re: La physique quantique
Oui, Dieu existe! Enfin non, il n'existe pas... Quelle est la fonction d'onde de Dieu? Où est-il? Il est là! Ah non, il est là-bas... Il est partout... Enfin non, il est nulle part... En fait il est partout et nulle part... Est-ce qu'il est là? non... Ça veut dire qu'il est là bas? Peut-être. Ou pas...
Oh, ça y est, je me suis pété un neurone!
Oh, ça y est, je me suis pété un neurone!
Diagnostiqué. CRA, 2016.
-
- Prolifique
- Messages : 1863
- Enregistré le : mercredi 14 septembre 2016 à 9:14
- Localisation : Gironde
Re: La physique quantique
Et il a le don d'ubiquité
Diagnostiqué asperger avec anxiété sociale marquée par le CRA.
-
- Intarissable
- Messages : 14261
- Enregistré le : dimanche 3 février 2013 à 18:48
Re: La physique quantique
Il y a vraiment un domaine particulier en physique qui m'a fasciné ces derniers temps :
L'antimatière
L'antimatière
Aspi.
Je pars d'ici
Je pars d'ici