Derrière le terme d'ia, il n'y a qu'un logiciel des plus classique. Le terme d'ia est à la mode et est utilisé pour tout et son contraire mais derrière il n'y a pas vraiment d'intelligence mais seulement des algorithmes, autrement dit si (if en anglais) condition est vrai alors faire etc.
Par exemple, si (quelqu'un dit bonjour) alors { dire("bonjour" )} ;
Plutôt, techniquement non. Car il n'y a pas d'IA dans ce type d'appareil tant qu'elle n'y a pas encore été programmée.
Et c'est d'ailleurs pareil avec les dispositifs modernes qui contiennent des circuits neuronaux dont on n'aurait pas fourni de logiciel applicatif (programme et tables de coefficients) pour les faire fonctionner.
Par définition, une IA est une simulation de l'intelligence humaine. Il en existe de plusieurs types, basées sur des techniques différentes et variées.
Il te serait possible de programmer une petit IA sur ta Casio (s'il s'agit d'un modèle programmable disposant d'assez de mémoire), mais à la base il n'y a pas d'IA intégrée dans ce type de dispositif.
En revanche, on trouve aujourd'hui des smartphones dont les IA intégrées (qui utilisent des circuits neuronaux spécialisés pour des questions de performances) permettent par exemple de retoucher automatiquement les photos prises avec la caméra de l'appareil.
L'IA ... programme informatique reflétant "l'esprit" Humain. Dans le sens où c'est un humain qui la conçoit. Après si c'est un type comme le Hitler de la programmation, il y a moyen que ça parte en couilles. Et bon, contre un robot, il faut minimum une machine pour contrer.
Je ne serai plus vivant je pense pour voir Terminator en vrai, mais je suis persuadé que ça va arriver.
@Flaneur : La presse emploie le terme Intelligence Artificielle à tort et à travers. Pour l'instant il n'existe aucune IA, juste des bases de données d'une taille impressionnante avec une interface homme-machine évoluée capable de comprendre et d'imiter le langage naturel.
Le plus important dans le terme « intelligence artificielle », c'est l'adjectif « artificielle », car il modifie radicalement le sens du mot « intelligence ». Tout autant que l'adjectif « faux » dans « faux-nez » ou le verbe « tire » dans « tire-fesse », par exemple.
L'intelligence artificielle est définie comme étant l'ensemble des techniques utilisées pour *simuler* l'intelligence humaine. Par extension, une intelligence artificielle désigne un dispositif dont le fonctionnement est basé sur une ou plusieurs de ces techniques.
L'intelligence artificielle existe donc, et les intelligences artificielles également.
Si le terme est souvent employé à tort et à travers (notamment en confondant l'intelligence artificielle et l'intelligence réelle, celle des êtres doués de raison), c'est surtout son imprécision (due à son caractère générique) qui aboutit à des énoncés erronés (par exemple en attribuant à une IA les capacités d'une autre, ou plus généralement des capacités qu'elle n'a pas).
Par ailleurs, il est vrai qu'on utilise actuellement des bases de données gigantesques. Toutefois, ces bases ne servent qu'à entraîner/programmer des intelligences artificielles, notamment génératives. Elles ne doivent pas être confondues avec les données utilisées au final dans ces IA pour les faire fonctionner, lesquelles représentent des volumes sont beaucoup plus petits.
Enfin, du fait du principe de la chambre chinoise justement, il ne me semble pas pertinent d'utiliser, sans plus de précaution oratoire, le terme « comprendre » quand on évoque ces systèmes. En pratique, cette compréhension n'est que simulée. Les concepts répertoriés et les rapports établit entre eux par la machine restent trop insuffisants pour pouvoir l'assimiler à une compréhension intelligente.
Les algorithmes, qui utilisent des règles et suivent une logique qu'on peut interpréter.
(Ce qui a l'air d'être impliqué par ton image.)
Les réseaux de neurones qui fonctionnent plus comme une boite noire qu'on a entrainé sur beaucoup de répétition pour avoir un comportement voulu. La "logique" de celles-ci n'a pas vraiment de sens pour un humain; l'information rentre, le réseau neuronal fait "quelque chose" et renvoie une réponse. Le "quelque chose" en question est comparable à un de ces boites ou tu fais tomber des billes et ou elles vont à droite ou gauche de taquet en taquet et en fonction de la case ou elle tombe on donne une réponse différente. Seulement chaque élément de la boite a été modifié semi aléatoirement jusqu'à ce que les résultat aient "du sens".
Beaucoup d'IA modernes utilisent ces fameux réseaux de neurones. C'est souvent assez peu fiable mais quand tu as les moyens de Google pour entrainer la bête ça donne quelque chose d'assez convainquant et à peu près fiable.
Quand tu regardes comment est fait un "neurone" d'un réseau de neurones artificiels, tu finiras toujours par tomber sur une pondération, et une comparaison... et l'information sera toujours une somme de booléens à la fin... cette image est donc l'exacte représentation de ce qu'on appelle réseau de neurones, ce qui se cache (d'autant que je sache) derrière les IA modernes.
Quelle que soit la technique de l'IA considérée (du moins en ce qui concerne les IA qui existent actuellement), son fonctionnement peut être vu comme une catégorisation (sélective ou statistique) des informations traitées.
Notamment :
• dans les algorithmes « faits main » destinés à simuler l'intelligence humaine, cette catégorisation est réalisée par des tests sur des données logiques ou numérique, avec des instructions « if » codées dans le programme ;
• dans les systèmes experts, des tests similaires sont réalisés par le moteur d'inférence qui parcourt les bases de règles et faits ;
• dans les systèmes basés sur des réseaux de neurones formels, cette catégorisation est effectuée au travers du calcul d'expressions matricielles non linéaires.
L'image du fichier me semble assez bien représenter ce principe général (... même si j'ignore si c'était vraiment l'intention de son auteur).
On commettrait une erreur en n'interprétant cette image que comme la représentation du type d'IA que j'ai cité ci-dessus au premier point.
Ce n'est pas parce que la programmation et le fonctionnement des réseaux de neurones formels sont différents de ceux d'un processeur séquentiel classique que la logique qu'ils renferment n'a pas de sens ni qu'elle ne peut être interprété.
Il est un fait qu'en règle générale il est difficile d'exprimer en bon français la signification d'un coefficient ou d'un état de sortie d'un neurone formel en particulier... mais pas moins que d'expliquer la signification du vingt-troisième bit du registre à virgule flottante utilisé par un programme dans le calcul d'un taux d'hygrométrie. Le point de vue adopté dans la description d'un système doit être adapté à la façon dont il est organisé. Ce qui, dans tous les cas, suppose de ne pas le considérer a priori comme une boîte noire.
C'est d'ailleurs en dépassant ce mythe de la boîte noire qu'on parvient aujourd'hui à fabriquer des IA fonctionnelles et optimisées.
Ce que fait ce type de réseau, c'est une catégorisation des données d'entrée (stimuli) au moyen d'une succession de calculs matriciels non linéaires. L'image de la boîte avec les billes qui tombent à droite ou à gauche à chaque étape est correcte, à ceci près que dans un réseau neuronal le choix entre la droite et la gauche n'a rien d'aléatoire.
Bien au contraire, si l'on veut obtenir les résultats escomptés, il est nécessaire de disposer des coefficients adéquats dans le réseau.
Le type de programmation qu'on appelle « apprentissage », qui consiste à faire évoluer progressivement ces coefficients vers des valeurs convenables, est un bon moyen d'arriver à ses fins quand on possède un jeu suffisamment volumineux et représentatif de données d'entrée et de données de sorties correspondantes.
Néanmoins, ce n'est pas la seule méthode pour produire un fonctionnement déterminé (en particulier, tout ou partie du réseau peut être programmé directement sur la base de résolutions mathématiques de sous-problèmes identifiés).
Quoi qu'il en soit, cet apprentissage n'est qu'un élément dans la création du système final, laquelle nécessite d'avoir déterminé l'architecture du réseau, de l'avoir correctement dimensionné, d'avoir trié les données d'apprentissage, etc. . L'apprentissage en lui-même est également un processus qui doit être organisé et réglé assez précisément, tant pour parvenir effectivement au fonctionnement souhaité que pour l'atteindre dans les meilleurs délais.
Je suis entièrement d'accord, mon explication visait juste à simplifier le fonctionnement des types d'IA.
J'ai d'ailleurs moi même créé et paramétré des réseaux de neurones (avec des degrés variables de succès). Je sais très bien qu'il y a beaucoup de réflexion et de logique dans l'apprentissage des ces réseaux.
Ce que je cherchais surtout à pointer du doigt c'est la différence entre les algos "classiques" type traitement du langage naturels (qui cherchent à comprendre la signification de chaque mot en relation à la phrase) et les réseaux de neurones qui au travers de leur apprentissage créent un ensemble complexe de neurones qui sont quasi impossibles à interpréter.
Si tu lis un programme de TLN tu peux comprendre en grande partie comment il va traiter la phrase, si tu lis un arbre de décision d'un réseau de neurone, bonne chance pour conclure quoi que ce soit du résultat.
C'est pour ça que j'ai tendance à comparer ça à une boite noire, si tu l'ouvre et que tu ne comprend rien c'est une boite noire; même si je suis bien conscient que la construction de la dite boite ne se fait pas sans réflexion ni logique; bien au contraire.
Encore que l'allégorie que j'aime le plus concernant les IA de génération de langage c'est celle de la chambre chinoise. https://fr.wiki...hambre_chinoise
Ptoncule
Iajada Vermisseau
PanicPurple Vermisseau
Par exemple, si (quelqu'un dit bonjour) alors { dire("bonjour" )} ;
Flaneur En réponse à PanicPurple Ver TikToké
PanicPurple En réponse à Flaneur Vermisseau
_pepe_ En réponse à PanicPurple
Et c'est d'ailleurs pareil avec les dispositifs modernes qui contiennent des circuits neuronaux dont on n'aurait pas fourni de logiciel applicatif (programme et tables de coefficients) pour les faire fonctionner.
_pepe_ En réponse à Flaneur
Il te serait possible de programmer une petit IA sur ta Casio (s'il s'agit d'un modèle programmable disposant d'assez de mémoire), mais à la base il n'y a pas d'IA intégrée dans ce type de dispositif.
En revanche, on trouve aujourd'hui des smartphones dont les IA intégrées (qui utilisent des circuits neuronaux spécialisés pour des questions de performances) permettent par exemple de retoucher automatiquement les photos prises avec la caméra de l'appareil.
KukuLele Vermisseau
Glloq Lombric Shaolin
Je ne serai plus vivant je pense pour voir Terminator en vrai, mais je suis persuadé que ça va arriver.
Orme Dresseuse de lombriks
Réfères-toi au principe de la chambre chinoise :
https://fr.wiki...hambre_chinoise
_pepe_ En réponse à Orme
Le plus important dans le terme « intelligence artificielle », c'est l'adjectif « artificielle », car il modifie radicalement le sens du mot « intelligence ». Tout autant que l'adjectif « faux » dans « faux-nez » ou le verbe « tire » dans « tire-fesse », par exemple.
L'intelligence artificielle est définie comme étant l'ensemble des techniques utilisées pour *simuler* l'intelligence humaine. Par extension, une intelligence artificielle désigne un dispositif dont le fonctionnement est basé sur une ou plusieurs de ces techniques.
L'intelligence artificielle existe donc, et les intelligences artificielles également.
Si le terme est souvent employé à tort et à travers (notamment en confondant l'intelligence artificielle et l'intelligence réelle, celle des êtres doués de raison), c'est surtout son imprécision (due à son caractère générique) qui aboutit à des énoncés erronés (par exemple en attribuant à une IA les capacités d'une autre, ou plus généralement des capacités qu'elle n'a pas).
Par ailleurs, il est vrai qu'on utilise actuellement des bases de données gigantesques. Toutefois, ces bases ne servent qu'à entraîner/programmer des intelligences artificielles, notamment génératives. Elles ne doivent pas être confondues avec les données utilisées au final dans ces IA pour les faire fonctionner, lesquelles représentent des volumes sont beaucoup plus petits.
Enfin, du fait du principe de la chambre chinoise justement, il ne me semble pas pertinent d'utiliser, sans plus de précaution oratoire, le terme « comprendre » quand on évoque ces systèmes. En pratique, cette compréhension n'est que simulée. Les concepts répertoriés et les rapports établit entre eux par la machine restent trop insuffisants pour pouvoir l'assimiler à une compréhension intelligente.
gwen Vermisseau
https://fr.akinator.com/
Morph En réponse à gwen Vermisseau
Xonort Lombric Shaolin
Les algorithmes, qui utilisent des règles et suivent une logique qu'on peut interpréter.
(Ce qui a l'air d'être impliqué par ton image.)
Les réseaux de neurones qui fonctionnent plus comme une boite noire qu'on a entrainé sur beaucoup de répétition pour avoir un comportement voulu. La "logique" de celles-ci n'a pas vraiment de sens pour un humain; l'information rentre, le réseau neuronal fait "quelque chose" et renvoie une réponse. Le "quelque chose" en question est comparable à un de ces boites ou tu fais tomber des billes et ou elles vont à droite ou gauche de taquet en taquet et en fonction de la case ou elle tombe on donne une réponse différente. Seulement chaque élément de la boite a été modifié semi aléatoirement jusqu'à ce que les résultat aient "du sens".
Beaucoup d'IA modernes utilisent ces fameux réseaux de neurones. C'est souvent assez peu fiable mais quand tu as les moyens de Google pour entrainer la bête ça donne quelque chose d'assez convainquant et à peu près fiable.
GruikMan En réponse à Xonort Vermisseau
Picie En réponse à Xonort Vermisseau
_pepe_ En réponse à Picie
Quelle que soit la technique de l'IA considérée (du moins en ce qui concerne les IA qui existent actuellement), son fonctionnement peut être vu comme une catégorisation (sélective ou statistique) des informations traitées.
Notamment :
• dans les algorithmes « faits main » destinés à simuler l'intelligence humaine, cette catégorisation est réalisée par des tests sur des données logiques ou numérique, avec des instructions « if » codées dans le programme ;
• dans les systèmes experts, des tests similaires sont réalisés par le moteur d'inférence qui parcourt les bases de règles et faits ;
• dans les systèmes basés sur des réseaux de neurones formels, cette catégorisation est effectuée au travers du calcul d'expressions matricielles non linéaires.
L'image du fichier me semble assez bien représenter ce principe général (... même si j'ignore si c'était vraiment l'intention de son auteur).
On commettrait une erreur en n'interprétant cette image que comme la représentation du type d'IA que j'ai cité ci-dessus au premier point.
Xonort En réponse à Picie Lombric Shaolin
_pepe_ En réponse à Xonort
Il est un fait qu'en règle générale il est difficile d'exprimer en bon français la signification d'un coefficient ou d'un état de sortie d'un neurone formel en particulier... mais pas moins que d'expliquer la signification du vingt-troisième bit du registre à virgule flottante utilisé par un programme dans le calcul d'un taux d'hygrométrie. Le point de vue adopté dans la description d'un système doit être adapté à la façon dont il est organisé. Ce qui, dans tous les cas, suppose de ne pas le considérer a priori comme une boîte noire.
C'est d'ailleurs en dépassant ce mythe de la boîte noire qu'on parvient aujourd'hui à fabriquer des IA fonctionnelles et optimisées.
Ce que fait ce type de réseau, c'est une catégorisation des données d'entrée (stimuli) au moyen d'une succession de calculs matriciels non linéaires. L'image de la boîte avec les billes qui tombent à droite ou à gauche à chaque étape est correcte, à ceci près que dans un réseau neuronal le choix entre la droite et la gauche n'a rien d'aléatoire.
Bien au contraire, si l'on veut obtenir les résultats escomptés, il est nécessaire de disposer des coefficients adéquats dans le réseau.
Le type de programmation qu'on appelle « apprentissage », qui consiste à faire évoluer progressivement ces coefficients vers des valeurs convenables, est un bon moyen d'arriver à ses fins quand on possède un jeu suffisamment volumineux et représentatif de données d'entrée et de données de sorties correspondantes.
Néanmoins, ce n'est pas la seule méthode pour produire un fonctionnement déterminé (en particulier, tout ou partie du réseau peut être programmé directement sur la base de résolutions mathématiques de sous-problèmes identifiés).
Quoi qu'il en soit, cet apprentissage n'est qu'un élément dans la création du système final, laquelle nécessite d'avoir déterminé l'architecture du réseau, de l'avoir correctement dimensionné, d'avoir trié les données d'apprentissage, etc. . L'apprentissage en lui-même est également un processus qui doit être organisé et réglé assez précisément, tant pour parvenir effectivement au fonctionnement souhaité que pour l'atteindre dans les meilleurs délais.
Xonort En réponse à _pepe_ Lombric Shaolin
J'ai d'ailleurs moi même créé et paramétré des réseaux de neurones (avec des degrés variables de succès). Je sais très bien qu'il y a beaucoup de réflexion et de logique dans l'apprentissage des ces réseaux.
Ce que je cherchais surtout à pointer du doigt c'est la différence entre les algos "classiques" type traitement du langage naturels (qui cherchent à comprendre la signification de chaque mot en relation à la phrase) et les réseaux de neurones qui au travers de leur apprentissage créent un ensemble complexe de neurones qui sont quasi impossibles à interpréter.
Si tu lis un programme de TLN tu peux comprendre en grande partie comment il va traiter la phrase, si tu lis un arbre de décision d'un réseau de neurone, bonne chance pour conclure quoi que ce soit du résultat.
C'est pour ça que j'ai tendance à comparer ça à une boite noire, si tu l'ouvre et que tu ne comprend rien c'est une boite noire; même si je suis bien conscient que la construction de la dite boite ne se fait pas sans réflexion ni logique; bien au contraire.
Encore que l'allégorie que j'aime le plus concernant les IA de génération de langage c'est celle de la chambre chinoise. https://fr.wiki...hambre_chinoise
john5