J'ai trouvé ça : https://en.wikipedia.org/wiki/Supercond ... _computing
Mais c'est trop compliqué, ça me dépasse...

Leur forme ? Ces ordinateurs expérimentaux utilisent plusieurs supports. (comme des gaz ! entre autres)lepton a écrit :J'arrive à percevoir (plus ou moins) le principe de base du qbit, mais je n'arrive pas à voir à quoi ressemble physiquement un ordinateur quantique.
J'ai trouvé ça : https://en.wikipedia.org/wiki/Supercond ... _computing
Mais c'est trop compliqué, ça me dépasse...
C'est drôle, je lisais là-dessus justement. Le passage ci-dessous me fait penser au problème de contrôles (ou sujets tests) fréquemment évoqué dans les études génétiques...
systeme.developpez.com a écrit : Comme l’a écrit John Preskill, le physicien de CalTech à l’origine du terme « suprématie quantique », dans un article paru dans le magazine Quanta, Google a spécifiquement choisi pour son expérience une opération particulière qui avantage les ordinateurs quantiques, mais handicape les ordinateurs classiques. « Ce calcul quantique a très peu de structure, ce qui rend plus difficile pour l’ordinateur classique de suivre, mais cela signifie aussi que la réponse n’est pas très informative », a-t-il écrit. Or de par son fonctionnement, un système de calcul quantique, qui peut traiter plusieurs opérations en même temps, sera en général plus rapide qu’un système de calcul traditionnel basé sur les bits.
L’autre problème avec les allégations de Google vis-à-vis de la suprématie quantique viendrait du fait que, lorsqu’on compare les performances d’un système quantique à celles d’un système classique, de telles simulations ne sont pas seulement une question de portage du code d’un ordinateur quantique à un ordinateur classique. Même si ces simulations deviennent exponentiellement plus complexes à mesure que le nombre de qubits manipulés augmente, certaines optimisations au niveau matériel (espace de stockage, quantité de mémoire vive…) et / ou logiciel (techniques permettant d’optimiser le code afin d’arriver à un équivalent suffisamment bon) peuvent faire pencher la balance d’un côté comme de l’autre, ce que met en exergue l’équipe d’IBM.
Simuler un calcul quantique dans un ordinateur classique nécessite le stockage de grandes quantités de données dans la mémoire au cours du processus. Moins il y a de mémoire disponible, plus il faut découper la tâche sur plusieurs étapes et selon IBM, la méthode de Google reposait principalement sur le stockage des données dans la RAM. IBM, de son côté, a procédé à une optimisation matérielle du supercalculateur classique qu’il a employé, notamment en augmentant la quantité de mémoire de stockage et de mémoire vive. L’entreprise a également proposé d’autres techniques d’optimisation, à la fois matériel et logiciel, permettant d’accélérer le calcul. Il faut cependant préciser que la solution avancée par les ingénieurs d’IBM reste dans le cadre de la théorie, il est donc difficile de savoir si cela pourrait fonctionner comme proposé.
Avec moi, c'est pour demain.
Je comprend tout et je suis d’accord sur la puissance de calcul dans des cas particulier (GPU), mais j'ai de la peine a considérer que les ordinateurs deviendront polymorphe. Soit ils le sont déjà depuis des décennies, soient ils ne le seront jamais. Mais rajouter des composants pour élargir les fonctions, ça se fait depuis très longtemps et avant l'introduction des GPU.Bubu a écrit : ↑mardi 25 février 2020 à 16:42 Je pense aussi que l'ordinateur ne sera jamais que quantique.
A l'instar du GPU, il y aura à mon avis une carte quantique destinée à résoudre les problèmes combinatoires.
Ça existe déjà, il y a des cartes pour générer des nombres (pas pseudo-) aléatoires basées sur la physique quantique.
Un GPU pourtant d'une puissance de calcul astronomique, serait bien incompétent par rapport au CPU pour exécuter des tâches séquentielles.
Les GPU sont furieusement efficaces pour les tâches parallèles, mais nuls pour les tâches séquentielles.
Et je pense que ce sera la même avec les processeurs quantiques. Phénoménaux pour certains algorithmes, inutilisables pour les autres.
On va vers des ordinateurs polymorphes. ( Et on y est déjà avec les GPU)