Supposons qu'une "intelligence" artificielle soit active et en pleine possession de ses moyens aujourd'hui.
Que choisirait-elle entre les OGM et l'agriculture écologique ?
L'aéroport de NDDL ou l'extension de celui de Nantes ?
L'ultralibéralisme ou le socialisme ?
L'"Intelligence" artificielle devra elle aussi savoir ce qu'elle veut, et choisir entre des actions différentes, liées à des objectifs, et donc des idées (des idéologies) différentes. "Où veux-je aller ?"
Le choix entre des actions différentes dépend des idées que l'on se fait du monde que l'on veut créer, et donc des objectifs.
L'action est intimement liée à l'idéologie.
L'inaction également.
Quelle sera l'idéologie de la machine ? Protéger "l'humanité" ? Protéger l'individu qu'elle côtoie ? (possibilité de contradictions très difficilement solubles sans décision ±consciemment partiale et imparfaite)
Comment la coder ? Est-il seulement possible de la coder ? Va-t-elle simplement émerger des interactions logiques/données comme cela se fait chez l'humain ?
Après s'être déchargé du travail sur la machine, escompte-t-on se "libérer" aussi de la difficulté de choisir et de décider ?
On le dirait bien, mais ce n'est absolument pas gagné.
Et que resterait-il de l'humain après une telle perte ? Nos décisions ne sont pas toujours bonnes mais au moins sont-elles les nôtres (dans la mesure des contextes de chacun.e) !
(Note : Un système "intelligent" (qui perçoit son environnement ET sa propre existence) fera comme n'importe quel autre "système vivant", à savoir protéger son existence. Survivre.)