L'IA apprend à jouer à cache-cache...

Et elle triche à fond !

Envoyé par Snark le 19 octobre 2020 à 17h50

+ 8 -

GruikMan Vermisseau

elle triche pas, elle exploite les bugs !!
+ 2 -

Oblivionis Taret

J'avais vu une même vidéo de cette IA, qui a trouver une astuce pour que les bleu ( qui se cachent ) gagnent toujours.

Pendant le laps de temps ou ils sont censé se caché, il construisait une clôture autour des rouges pour les enfermer.
+ 2 -

Acide En réponse à Oblivionis Doublombrik

tu as vu ça sur LeLombrik.net?
https://lelombrik.net/116955
+ 1 -

Actarus Vermisseau

1 million d'essais pour trouver une stratégie. Forcement à un moment ça tombe juste.
+ 2 -

_pepe_ En réponse à Actarus

Déjà, pas « forcément ». Certains systèmes d'apprentissage peuvent tourner indéfiniment sans trouver une solution qui existe.

Ensuite, selon la manière d'explorer les possibilités offertes, le nombre moyen d'essais avant de trouver une stratégie gagnante pourrait être très grand. Un million d'essais ne me paraît pas excessif, et suggère même une bonne efficacité des algorithmes... ou éventuellement un « coup de bol » de tomber assez rapidement sur une solution.
+ 3 -

Potiche Super vilain

Ah bah bravo, ce programme est clairement la base qu'utiliseront les terminators pour traquer les humains dans le futur !
+ 0 -

_pepe_

Il n'est pas surprenant que l'IA trouve des solutions aussi inattendues qu'indésirables.

Réaliser sans erreur la programmation procédurale de systèmes complexes s’avère déjà relativement difficile. En effet, les situations rencontrées au cours du fonctionnement survenant forcément après la programmation, les développeurs doivent les avoir anticipées et avoir prévu des réactions adéquates dès la conception.

L’IA (sous certaines de ses formes) a la capacité de trouver, toute seule et durant le fonctionnement, les comportements à adopter en fonction des situations qui se présentent. Cela rend possible la réalisation de systèmes sans avoir à développer l’ensemble des procédures nécessaires à l’appréhension des situations, au choix des réactions et à leur déroulement. Toutefois, lorsque le système réalise ces opérations de façon autonome, il devient difficile pour les concepteurs de garantir que les réactions correspondront toujours à leurs souhaits, notamment dans le cas de situations imprévues ou au terme d’un auto-apprentissage incontrôlé.

Dans son principe, ce problème a été détecté très tôt. Stanley Kubrick et Arthur C. Clarke en ont d’ailleurs donné un exemple il y a plus d’un demi-siècle dans leur film « 2001, l'Odyssée de l'espace », quand l'ordinateur de bord HAL 9000 prend la décision de tuer l'équipage du vaisseau spatial parce qu'il lui apparaît que c'est la solution qui lui permettra de mener à bien sa mission.

Durant de longues décennies, c'est bien moins l'absence de moyens technologiques permettant d'atteindre de grandes performances qui a empêché la mise en œuvre d'IA autonomes, que les risques inhérents à ce problème de sûreté. Aujourd'hui, ces derniers ne sont pas moins présents, mais les profits semblent avoir pris le dessus sur les conséquences potentielles.
Inscrivez-vous ou Connectez-vous pour envoyer un commentaire
50