Nommée une machine par « intelligente » n’est pas évident. Cette nomination n’est attribuée qu’après des preuves et justifications.

 

Depuis 1950, Alain Turing dans son papier «Computing Machinery and Intelligence» a mis en évidence le fameux « test de Turing ».

 

Le concept derrière considère qu’un agent artificiel caché doit convaincre l’être humain qu’il est en train de parler à un homme et non une machine.  La démonstration de l'intelligence a été proposée sur la base de « la créativité ».

 

 Ce jeu d’imitation considère qu’un programme informatique doit être doté de la créativité nécessaire pour gagner. Turing démontrait que si les juges humains sont convaincu dans 30% du temps qu’ils s’entretenaient avec un autre être humain alors la machine a réussi son test. Il imaginait que cet exploit aurait été atteint à la fin du XXe siècle.

 

 Bien qu'il y ait eu plusieurs revendications de la réussite du test de Turing. Les raisons de ce succès sont suspectes, comme l'a révélé le programme informatique de « Vladimir Veselov » et « Eugene Demchenko », qui dupait 33 % des juges lors d'un événement en Juin 2014 commémorant le 60ème anniversaire de la mort de Turing. En plus des stratagèmes habituels de prendre les mots de la question pour former la réponse et l’emploi évasif des «chatbots» ou «les agents conversationnels», ils ont eu l'idée géniale de donner l’agent crée « Eugene Goostman », la personnalité d'un jeune garçon ukrainien de 13 ans pour tenir compte de son manque de connaissances et sa personnalité maladroite.

 

 

Eugene Goostman chatbot

 

 

 

En Août 2014, un nouveau concours annuel nommé « Winograd Schema Challenge » a été conçu pour juger si un programme informatique à une intelligence de niveau humain. Proposée par Hector Levesque, c’est un test de la capacité de comprendre la signification plus profonde et plus subtile des phrases ambiguës.

 

Maintenant, nous avons une autre approche reposant sur la créativité comme proxy pour le renseignement et visant à tester « si les ordinateurs peuvent provenir des concepts », la question fondamentale de Turing. Cette approche répond explicitement à une lacune perçue du test de Turing - à savoir son " recours à la tromperie ".

 

Le test « Lovelace 2.0 » crée par Mark Riedl , professeur agrégé à l'École d' Informatique Interactive à l'Institut de technologie de Géorgie, s’appuie sur des travaux antérieurs, en 2001, de Selmer Bringsjord , Paul Bello et David Ferrucci qui définissaient un test déterminant qu'un agent artificiel possède de l'intelligence quand il peut "nous prendre par surprise» .

 

Les auteurs l’ont nommé en l'honneur de « Ada Lovelace » qui a fait la revendication :

 

"Le Moteur Analytique n'a aucune prétention de provenir rien. Il peut faire tout ce que nous savons comment lui a été ordonné de l’effectuer "

 

En d'autres termes, elle pensait qu’uniquement lorsque les ordinateurs proviennent des choses devraient-ils être soupçonnés d'avoir esprits.

 

Le test Lovelace origine, tel que décrit par Riedl, à la problématique d'être imbattable. Ainsi elle peut être décrite par : «un agent artificiel (A) programmé par un humain (H) devrait avoir une sortie (O) que son programmeur (H) ne pouvait pas expliquer ». La critique est que : " toute entité (H) avec des ressources, peut en premier lieu construire (A) et avec suffisamment de temps a également la capacité d'expliquer (O)".

 

Le test mis à jour cherche toujours à prouver l'originalité et la capacité à surprendre et cherche ce que Riedl définit comme « la créativité de calcul ».

 

L'exemple utilisé dans l’article de Riedl utilise la génération de l'histoire automatisé défini comme «la fabrication de récits de fiction par un agent artificiel" qui nécessite un certain nombre de capacités  cognitives de niveau humain, y compris la connaissance de bon sens, la planification, la théorie de l'esprit, le raisonnement affective, la planification du discours, et le traitement du langage naturel.

 

Ainsi, pour passer le test « Lovelace 2.0» un agent artificielle doit créer un artefact (O) de type (T) où:

 


•    (O) conforme à un ensemble de contraintes CCi ∈ C est un critère exprimable en langage naturel
•    Un évaluateur humain (H), ayant choisi T et C, est convaincu que O est une instance valide de T et répond à C
•    Et, un arbitre humain (R) qui détermine la possibilité de la combinaison de T et C.

 

Comme le test de Turing, passer le test implique le jugement d'un évaluateur humain qui a une part active dans le défi. Dans le test de Turing, l’homme initie et répond à un fil de conversation. Dans le test «Lovelace 2.0», l'évaluateur humain spécifie les contraintes qui feront de l’artefact nouvel et surprenant.

 

Tout comme dans le test de Turing « un chatbot » peut utiliser une question ou tout extrait de conversation humaine généré comme entrée aux déclarations qu'il produit, dans « Lovelace 2.0 », l'agent peut élaborer sur les contraintes pour produire une histoire. Plus il y en a de contraintes, plus il y aura de matériau fourni.

« Lovelace 2.0 » est proposé comme une jauge de l’intelligence artificielle. Si une machine peut reproduire la pensée humaine, il est probablement plus réaliste que les programmes informatiques derrière peuvent produire une sortie innovante et convaincante. Certes, Ce n’est pas destiné à dénigrer les efforts des programmeurs, mais de réaffirmer son pouvoir d’imiter la créativité et les autres attributs humains que la machine ne peut pas faire.

                                                                                                                                                            

     Par Noura BACCAR
                                                                                                                                                                    Département R&D