[Index] Intelligence artificielle
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
Avec une IA :
TCS = trouble de la communication sociale (24/09/2014).
-
- Modératrice
- Messages : 5652
- Enregistré le : mardi 3 septembre 2019 à 9:43
- Localisation : Vosges
Re: [Index] Intelligence artificielle
C'est assez voire très convaincant dans certains cas (Rembrandt, Shakespeare, Henri VIII...), beaucoup moins dans d'autres (Mona Lisa est beaucoup plus « photogénique » en peinture par exemple ), mais cela doit être dû aux portraits d'origine... (on voit la différence entre les deux portraits de Marie-Antoinette)
Merci de la découverte en tout cas !
Diagnostiquée TSA en janvier 2021. Conjoint diagnostiqué TSA en octobre 2020.
Site : Tout Sur l'Autisme (ressources et documents)
Site : Tout Sur l'Autisme (ressources et documents)
-
- Intarissable
- Messages : 7750
- Enregistré le : dimanche 19 mai 2013 à 12:03
- Localisation : En haut à gauche
Re: [Index] Intelligence artificielle
Oui, c'est fascinant, surtout tous les résultats obtenus grâce à l'apprentissage profond.
D'un point de vue historique, je vais parler de l'insolvabilité du XOR. Le Ou exclusif :
Les deux entrées -> La sortie
0 0 -> 0
0 1 -> 1
1 0 -> 1
1 1 -> 0
(L'un ou l'autre, mais pas les deux). C'est une fonction logique.
Pour que ce soit vrai, il faut que les deux entrées soient différentes.
0=faux, 1=vrai.
Les premiers réseaux Adaline et le Perceptron, étaient incapables de la calculer, car constitués d'une seule couche de combinaison linéaire. Car le XOR ne peut pas être représenté par une fonction linéaire. (Théorème de Minksy et Papert de 69, qui démontrait que les fonctions booléennes ou logiques non représentables par des combinaisons linéaires étaient incalculables par ces réseaux d'une seule couche).
Cela a jeté le glas sur le domaine des réseaux neuronaux dans les années 80s, et cela a conduit à l'abandon des recherches. Heureusement pas très longtemps.
Ces réseaux utilisaient une fonction d'activation non dérivable. Un test logique qui en fonction du produit scalaire des poids et des entrées, disait 0 ou 1.
L'idée a été d'utiliser une fonction d'activation dérivable, comme la sigmoïde ou tanh, ce qui revient au même, pour calculer un gradient. (Vecteur de dérivées partielles).
Et de manière sous-jacente et géniale il faut le dire, de créer des réseaux de plusieurs couches. L'algorithme de descente de gradient, bien connue des physiciens, a servi pour déterminer comment adapter les poids des unités qui sont supérieures et non directement dans la sortie. Pour que cela soit possible, il fallait des fonctions dérivables (pour pouvoir calculer un gradient), et non linéaires (pour la raison que je donne plus bas). Tanh et la sigmoïde sont les parfaites candidates.
Pourquoi la sigmoïde ou apparentée ? Car ce n'est pas une fonction linéaire. Pourquoi s'embêter avec une telle fonction ? Car elle n'est pas linéaire et dérivable. Et c'est vital que la fonction d'activation d'un réseau de plusieurs couches ne soit pas linéaire. Du fait que la composition d'applications linéaires en est elle même une. Si on prend une fonction linéaire à chaque couche, le réseau ne sera pas plus qu'un Perceptron ou un réseau Adaline.
Là, on peut élaborer. Quand on utilise le gradient, on suppose que si l'on utilise la dérivée, on se rapproche de la valeur voulue. Par exemple, s'il faut se rapprocher d'une position, il faut suivre la vitesse (dérivée) dans le même sens. C'est simple et intuitif. Sauf que parfois il y a des bosses, des minima et maxima locaux, dans lesquels la solution stagne et n'arrive pas à en sortir. La solution, vient du recuit simulé, un algorithme bien connu pour sortir des minima locaux. Sauf que cela ne marche pas à tous les coups. Donc dans les implémentations élaborées de ces réseaux, on ajoute la notion d'inertie (momentum), sur l'évolution des poids. Ce qui peut permettre de sortir d'un minimum local. Mais encore une fois c'est empirique, et ne garantit pas que la solution sorte d' un minimum local.
Cet algorithme était utilisé sur plusieurs couches. Donc on calculait l'erreur et son gradient sur la couche de sortie, et ensuite on propageait le gradient sur les couches plus haut.
De là est née la notion de rétropropagation du gradient de l'erreur, et la naissance des MLPs, réseaux de plusieurs couches qui sont des calculateurs universels.
Ils peuvent apprendre n'importe quelle fonction mathématique, ou des fonctions statistiques.
Même pour l'apprentissage profond, la rétropropagation est utilisée.
Le XOR est maintenant résolu avec des MLPs avec une couche cachée sans problème et ce depuis 30 ans au moins. (Multi-Layer-Perceptrons, Perceptrons Multi Couches).
(2 entrées, une seule couche cachée de deux neurones suffit, et une unique sortie)
Les réseaux de plusieurs couches peuvent apprendre les fonctions non linéaires, n'importe quelle fonction en somme. En fonction d'un bon paramétrage, nombre de couche suffisant, unités dans chaque couche en nombre suffisant.
D'un point de vue historique, je vais parler de l'insolvabilité du XOR. Le Ou exclusif :
Les deux entrées -> La sortie
0 0 -> 0
0 1 -> 1
1 0 -> 1
1 1 -> 0
(L'un ou l'autre, mais pas les deux). C'est une fonction logique.
Pour que ce soit vrai, il faut que les deux entrées soient différentes.
0=faux, 1=vrai.
Les premiers réseaux Adaline et le Perceptron, étaient incapables de la calculer, car constitués d'une seule couche de combinaison linéaire. Car le XOR ne peut pas être représenté par une fonction linéaire. (Théorème de Minksy et Papert de 69, qui démontrait que les fonctions booléennes ou logiques non représentables par des combinaisons linéaires étaient incalculables par ces réseaux d'une seule couche).
Cela a jeté le glas sur le domaine des réseaux neuronaux dans les années 80s, et cela a conduit à l'abandon des recherches. Heureusement pas très longtemps.
Ces réseaux utilisaient une fonction d'activation non dérivable. Un test logique qui en fonction du produit scalaire des poids et des entrées, disait 0 ou 1.
L'idée a été d'utiliser une fonction d'activation dérivable, comme la sigmoïde ou tanh, ce qui revient au même, pour calculer un gradient. (Vecteur de dérivées partielles).
Et de manière sous-jacente et géniale il faut le dire, de créer des réseaux de plusieurs couches. L'algorithme de descente de gradient, bien connue des physiciens, a servi pour déterminer comment adapter les poids des unités qui sont supérieures et non directement dans la sortie. Pour que cela soit possible, il fallait des fonctions dérivables (pour pouvoir calculer un gradient), et non linéaires (pour la raison que je donne plus bas). Tanh et la sigmoïde sont les parfaites candidates.
Pourquoi la sigmoïde ou apparentée ? Car ce n'est pas une fonction linéaire. Pourquoi s'embêter avec une telle fonction ? Car elle n'est pas linéaire et dérivable. Et c'est vital que la fonction d'activation d'un réseau de plusieurs couches ne soit pas linéaire. Du fait que la composition d'applications linéaires en est elle même une. Si on prend une fonction linéaire à chaque couche, le réseau ne sera pas plus qu'un Perceptron ou un réseau Adaline.
Là, on peut élaborer. Quand on utilise le gradient, on suppose que si l'on utilise la dérivée, on se rapproche de la valeur voulue. Par exemple, s'il faut se rapprocher d'une position, il faut suivre la vitesse (dérivée) dans le même sens. C'est simple et intuitif. Sauf que parfois il y a des bosses, des minima et maxima locaux, dans lesquels la solution stagne et n'arrive pas à en sortir. La solution, vient du recuit simulé, un algorithme bien connu pour sortir des minima locaux. Sauf que cela ne marche pas à tous les coups. Donc dans les implémentations élaborées de ces réseaux, on ajoute la notion d'inertie (momentum), sur l'évolution des poids. Ce qui peut permettre de sortir d'un minimum local. Mais encore une fois c'est empirique, et ne garantit pas que la solution sorte d' un minimum local.
Cet algorithme était utilisé sur plusieurs couches. Donc on calculait l'erreur et son gradient sur la couche de sortie, et ensuite on propageait le gradient sur les couches plus haut.
De là est née la notion de rétropropagation du gradient de l'erreur, et la naissance des MLPs, réseaux de plusieurs couches qui sont des calculateurs universels.
Ils peuvent apprendre n'importe quelle fonction mathématique, ou des fonctions statistiques.
Même pour l'apprentissage profond, la rétropropagation est utilisée.
Le XOR est maintenant résolu avec des MLPs avec une couche cachée sans problème et ce depuis 30 ans au moins. (Multi-Layer-Perceptrons, Perceptrons Multi Couches).
(2 entrées, une seule couche cachée de deux neurones suffit, et une unique sortie)
Les réseaux de plusieurs couches peuvent apprendre les fonctions non linéaires, n'importe quelle fonction en somme. En fonction d'un bon paramétrage, nombre de couche suffisant, unités dans chaque couche en nombre suffisant.
TSA, diagnostic établi à mes 33 ans par le CRA de ma région.
"Ce syndrome est caractérisé chez ce patient par l’absence de détérioration intellectuelle, un syndrome dysexécutif, un déficit d'attention"
"Ce syndrome est caractérisé chez ce patient par l’absence de détérioration intellectuelle, un syndrome dysexécutif, un déficit d'attention"
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Réseaux sociaux, GAFAM...
TCS = trouble de la communication sociale (24/09/2014).
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
La conférence de l'IA sur l'éthique de la recherche :
TCS = trouble de la communication sociale (24/09/2014).
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
Facebook entraîne un nouvel algorithme d'IA surpuissant :
TCS = trouble de la communication sociale (24/09/2014).
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
Un chercheur en IA, furieux :
TCS = trouble de la communication sociale (24/09/2014).
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
Tendances 2021 : L'intelligence artificielle et les Graphs
https://www.zdnet.fr/actualites/tendanc ... 917671.htm
https://www.zdnet.fr/actualites/tendanc ... 917671.htm
TCS = trouble de la communication sociale (24/09/2014).
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
Un rapport de l’ONU confirme :
Extrait :
Extrait :
Selon un rapport [.pdf] rendu en juillet 2020 par les députés Claude de Ganay [LR] et Fabien Gouttefarde [LREM], les forces russes auraient testés le char robotisé Marker, pouvant être doté de drones de reconnaissance et d’attaque.
Il s’agit d’un « petit char qui accompagne le soldat, le suit et réplique l’usage » que ce dernier « fait du feu : le soldat tire, le robot tire vers la même cible. Ce système existe déjà, a été éprouvé et devrait être intégré aux unités russes dès 2021. Selon les informations recueillies par les rapporteurs, il aurait été testé en Syrie dans des opérations de lutte contre des poches islamistes », ont en effet écrit les deux députés.
[...]
Quoi qu’il en soit, il est probable que le conflit libyen ait été le premier du genre à avoir recours à des SALA. C’est en effet ce que suggère le dernier rapport du groupe d’experts des Nations unies sur la Libye.
[...]
« Les convois de logistique et les unités des forces affiliées à Haftar qui battaient en retraite ont été pourchassés et pris à partie à distance par des drones de combat ou des systèmes d’armes létaux autonomes tels que le Kargu-2 de STM et d’autres munitions rôdeuses », est-il affirmé dans le rapport.
Et ses auteurs précisent : « Les systèmes d’armes létaux autonomes avaient été programmés pour attaquer des cibles, sans qu’il soit besoin d’établir une connexion des données entre l’opérateur et la munition, et étaient donc réellement en mode d’autoguidage automatique. » Dans le même temps, les drones de l’ANL ainsi que ses moyens de reconnaissance ont été « neutralisés par le brouillage électromagnétique provenant du système de guerre électronique Koral. »
TCS = trouble de la communication sociale (24/09/2014).
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
Le système de génération de texte GPT-3 d'OpenAI :
TCS = trouble de la communication sociale (24/09/2014).
-
- Intarissable
- Messages : 7750
- Enregistré le : dimanche 19 mai 2013 à 12:03
- Localisation : En haut à gauche
Re: [Index] Intelligence artificielle
Google a crée une intelligence artificielle capable de composer des morceaux inspirés de ceux de musiciens pop les plus connus (Le club des 27, Sinatra, etc)
Certaines "compositions" utilisent des voix sosies, d'autres génèrent carrément la voix.
Cette machine s'appelle Magenta.
https://www.cnetfrance.fr/news/google-m ... 837744.htm
Certaines "compositions" utilisent des voix sosies, d'autres génèrent carrément la voix.
Cette machine s'appelle Magenta.
https://www.cnetfrance.fr/news/google-m ... 837744.htm
TSA, diagnostic établi à mes 33 ans par le CRA de ma région.
"Ce syndrome est caractérisé chez ce patient par l’absence de détérioration intellectuelle, un syndrome dysexécutif, un déficit d'attention"
"Ce syndrome est caractérisé chez ce patient par l’absence de détérioration intellectuelle, un syndrome dysexécutif, un déficit d'attention"
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
Voir aussi :
TCS = trouble de la communication sociale (24/09/2014).
-
- Intarissable
- Messages : 7750
- Enregistré le : dimanche 19 mai 2013 à 12:03
- Localisation : En haut à gauche
Re: [Index] Intelligence artificielle
C'est de cette AI dont je parle.
Le club des 27 n'est pas un groupe, mais l'ensemble des musiciens géniaux morts à 27 ans.
Cela regroupe Kurt Cobain (Nirvana), Amy Winehouse, Jimmy Hendricks et tant d'autres.
Après ces nouvelles "créations" font débat. Car ces productions musicales ne sont pas des œuvres de ces défunts artistes. Mais d'une machine.
Bravo pour la prouesse technologique, mais peut-on parler pour autant d'œuvres ?
TSA, diagnostic établi à mes 33 ans par le CRA de ma région.
"Ce syndrome est caractérisé chez ce patient par l’absence de détérioration intellectuelle, un syndrome dysexécutif, un déficit d'attention"
"Ce syndrome est caractérisé chez ce patient par l’absence de détérioration intellectuelle, un syndrome dysexécutif, un déficit d'attention"
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
Question pour l'instant sans réponse.
Peut-être verra-t-on bientôt le style de musique ou le style d'écriture déposé sous droit d'auteur...
TCS = trouble de la communication sociale (24/09/2014).
-
- Modérateur
- Messages : 41271
- Enregistré le : jeudi 15 novembre 2012 à 0:13
- Localisation : Nord-44
Re: [Index] Intelligence artificielle
L'Europe veut fixer les règles de l'IA :
L'organisation européenne des consommateurs estime :
L'organisation européenne des consommateurs estime :
TCS = trouble de la communication sociale (24/09/2014).