Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

processus

  • Le mot (inventé) du jour: causeffet.

    Pin it!

    Lorsqu'il n'y a pas de mot pour exprimer une idée, n'hésitons pas à créer des mots.

    Aujourd'hui : causeffet.

    Ka ????

    Oui. Tout événement qui se passe dans la réalité est causeffet.

    Il est cause des événement qui lui succèdent.

    Il est un effet des événement qui le précèdent.

    Ce mot de causeffet est un moyen de pointer, de rendre consciente la notion de processus.

    Aucun événement n'est "jamais" seul dans la Réalité. Il est intégré dans la matière de Ce Qui Se Passe. Il est "toujours" causeffet.

    A partir de là, on peut envisager LES causes qui ont conduit à ce qu'il arrive ET les effets qu'il provoquera.

    Cce qui est cause d'un côté est effet de l'autre, et inversement.)

    La "pensée complexe" (!?) a besoin de mots adaptés pour représenter des "mécanismes complexes".

     

    Synonymes: Causéquence, Consécause (Avec "Conséquence' à la place du mot 'Effet'.)

  • Il n'y a pas d'algorithme neutre

    Pin it!

    Un algorithme est une "recette" pour "résoudre" un problème.

    La question qui suit est : résoudre comment, et dans l'intérêt de qui ?

    Non seulement l'algo est orienté en fonction de l'objectif de ses créateurs, mais en plus il y a le postulat implicite que le problème peut être résolu... c'est à dire qu'on connaît déjà les données (le problème), qu'on l'a déjà résolu, et qu'on va répéter la solution.

    Mais la réalité est changements.

    Il y a les données, et les relations entre les données.

    L'algorithme ne peut gérer une situation imprévue (nouvelles données, données différentes, relations entre données différentes) qu'en prenant des risques, qu'en faisant des choix arbitraires, non basés sur des faits suffisants puisqu'ils sont (partiellement) inconnus au moment de la conception de l'algo

    Nous demandera-t-il notre avis (dans une IA, si on arrive à en programmer qui fonctionnent au-delà de la résolution de problèmes simples) avant de faire des choix qui nous concernent ou suivra-t-il juste les intérêts de ses concepteurs ?

    Le problème est le même avec toute "intelligence".

    On n'est pas "intelligent" "dans le vide".

    Il faut savoir reconnaitre les données. Il faut avoir un objectif à atteindre, or cet objectif conditionne à la fois la sélection des données et les traitements qu'on va effectuer. L'intelligence est un système circulaire.