Déjà, pas « forcément ». Certains systèmes d'apprentissage peuvent tourner indéfiniment sans trouver une solution qui existe.
Ensuite, selon la manière d'explorer les possibilités offertes, le nombre moyen d'essais avant de trouver une stratégie gagnante pourrait être très grand. Un million d'essais ne me paraît pas excessif, et suggère même une bonne efficacité des algorithmes... ou éventuellement un « coup de bol » de tomber assez rapidement sur une solution.
Il n'est pas surprenant que l'IA trouve des solutions aussi inattendues qu'indésirables.
Réaliser sans erreur la programmation procédurale de systèmes complexes s’avère déjà relativement difficile. En effet, les situations rencontrées au cours du fonctionnement survenant forcément après la programmation, les développeurs doivent les avoir anticipées et avoir prévu des réactions adéquates dès la conception.
L’IA (sous certaines de ses formes) a la capacité de trouver, toute seule et durant le fonctionnement, les comportements à adopter en fonction des situations qui se présentent. Cela rend possible la réalisation de systèmes sans avoir à développer l’ensemble des procédures nécessaires à l’appréhension des situations, au choix des réactions et à leur déroulement. Toutefois, lorsque le système réalise ces opérations de façon autonome, il devient difficile pour les concepteurs de garantir que les réactions correspondront toujours à leurs souhaits, notamment dans le cas de situations imprévues ou au terme d’un auto-apprentissage incontrôlé.
Dans son principe, ce problème a été détecté très tôt. Stanley Kubrick et Arthur C. Clarke en ont d’ailleurs donné un exemple il y a plus d’un demi-siècle dans leur film « 2001, l'Odyssée de l'espace », quand l'ordinateur de bord HAL 9000 prend la décision de tuer l'équipage du vaisseau spatial parce qu'il lui apparaît que c'est la solution qui lui permettra de mener à bien sa mission.
Durant de longues décennies, c'est bien moins l'absence de moyens technologiques permettant d'atteindre de grandes performances qui a empêché la mise en œuvre d'IA autonomes, que les risques inhérents à ce problème de sûreté. Aujourd'hui, ces derniers ne sont pas moins présents, mais les profits semblent avoir pris le dessus sur les conséquences potentielles.
GruikMan Vermisseau
Oblivionis Taret
Pendant le laps de temps ou ils sont censé se caché, il construisait une clôture autour des rouges pour les enfermer.
Acide En réponse à Oblivionis Doublombrik
https://lelombrik.net/116955
Actarus Vermisseau
_pepe_ En réponse à Actarus
Ensuite, selon la manière d'explorer les possibilités offertes, le nombre moyen d'essais avant de trouver une stratégie gagnante pourrait être très grand. Un million d'essais ne me paraît pas excessif, et suggère même une bonne efficacité des algorithmes... ou éventuellement un « coup de bol » de tomber assez rapidement sur une solution.
Potiche Super vilain
_pepe_
Réaliser sans erreur la programmation procédurale de systèmes complexes s’avère déjà relativement difficile. En effet, les situations rencontrées au cours du fonctionnement survenant forcément après la programmation, les développeurs doivent les avoir anticipées et avoir prévu des réactions adéquates dès la conception.
L’IA (sous certaines de ses formes) a la capacité de trouver, toute seule et durant le fonctionnement, les comportements à adopter en fonction des situations qui se présentent. Cela rend possible la réalisation de systèmes sans avoir à développer l’ensemble des procédures nécessaires à l’appréhension des situations, au choix des réactions et à leur déroulement. Toutefois, lorsque le système réalise ces opérations de façon autonome, il devient difficile pour les concepteurs de garantir que les réactions correspondront toujours à leurs souhaits, notamment dans le cas de situations imprévues ou au terme d’un auto-apprentissage incontrôlé.
Dans son principe, ce problème a été détecté très tôt. Stanley Kubrick et Arthur C. Clarke en ont d’ailleurs donné un exemple il y a plus d’un demi-siècle dans leur film « 2001, l'Odyssée de l'espace », quand l'ordinateur de bord HAL 9000 prend la décision de tuer l'équipage du vaisseau spatial parce qu'il lui apparaît que c'est la solution qui lui permettra de mener à bien sa mission.
Durant de longues décennies, c'est bien moins l'absence de moyens technologiques permettant d'atteindre de grandes performances qui a empêché la mise en œuvre d'IA autonomes, que les risques inhérents à ce problème de sûreté. Aujourd'hui, ces derniers ne sont pas moins présents, mais les profits semblent avoir pris le dessus sur les conséquences potentielles.