Un algorithme est une "recette" pour "résoudre" un problème.
La question qui suit est : résoudre comment, et dans l'intérêt de qui ?
Non seulement l'algo est orienté en fonction de l'objectif de ses créateurs, mais en plus il y a le postulat implicite que le problème peut être résolu... c'est à dire qu'on connaît déjà les données (le problème), qu'on l'a déjà résolu, et qu'on va répéter la solution.
Mais la réalité est changements.
Il y a les données, et les relations entre les données.
L'algorithme ne peut gérer une situation imprévue (nouvelles données, données différentes, relations entre données différentes) qu'en prenant des risques, qu'en faisant des choix arbitraires, non basés sur des faits suffisants puisqu'ils sont (partiellement) inconnus au moment de la conception de l'algo
Nous demandera-t-il notre avis (dans une IA, si on arrive à en programmer qui fonctionnent au-delà de la résolution de problèmes simples) avant de faire des choix qui nous concernent ou suivra-t-il juste les intérêts de ses concepteurs ?
Le problème est le même avec toute "intelligence".
On n'est pas "intelligent" "dans le vide".
Il faut savoir reconnaitre les données. Il faut avoir un objectif à atteindre, or cet objectif conditionne à la fois la sélection des données et les traitements qu'on va effectuer. L'intelligence est un système circulaire.