Intelligence Artificielle en Action
-
Satya Nadella a mentionné le paradoxe de Jevons. Ça vaut la peine d’apprendre.
-
Yin Wang : Il n’y a pas d’“intelligence” dans l’intelligence artificielle, pas de “neuronal” dans les réseaux neuronaux, pas d’“apprentissage” dans l’apprentissage automatique, et pas de “profondeur” dans l’apprentissage profond. Ce qui fonctionne vraiment dans ce domaine s’appelle “calcul”. C’est pourquoi je préfère appeler ce domaine “calcul différentiel”, et le processus de construction des modèles s’appelle “programmation différentielle”.
-
Yin Wang : L’apprentissage automatique est vraiment utile, on pourrait même dire qu’il s’agit d’une théorie belle, car il s’agit simplement de calculs après une refonte ! C’est la vieille et grande théorie de Newton, Leibniz, sous une forme plus simple, élégante et puissante. L’apprentissage automatique consiste essentiellement à utiliser le calcul pour dériver et ajuster certaines fonctions, et l’apprentissage profond consiste à ajuster des fonctions plus complexes.
-
Actuellement, les grands modèles de langage ne peuvent pas filtrer par langage de fichier comme YAML ou Python. Cependant, une grande partie de l’information dans le monde réel est organisée de cette manière. Cela signifie que nous pourrions former des grands modèles de langage en utilisant des fichiers.
-
Pour former des grands modèles de langage, nous pourrions développer un système qui trouve des correspondances exactes. Peut-être pouvons-nous combiner l’algorithme de recherche KMP (Knuth-Morris-Pratt) avec l’architecture des transformateurs pour améliorer les capacités de recherche.