• Sphks@lemmy.dbzer0.com
    link
    fedilink
    arrow-up
    5
    ·
    1 year ago

    on a entrainé une IA pour reconnaitre des chats. Il a fallu l’entrainer sur 100000 images de chat, après quoi l’IA reconnaissait les chats à 98%. Un enfant de 2 ans serait capable de reconnaitre un chat après avoir vu seulement quelques images de chat, et à 100%

    C’est intéressant cet exemple.

    Déjà, un problème des enfants de 2 ans, c’est qu’il faut recommencer pour chaque enfant de 2 ans. On est actuellement dans un processus d’amalgame de modèles. Quelqu’un s’est chargé un jour d’apprendre à un réseau de neurones ce qu’est un chat, et il n’y a pas la nécessité d’y revenir. Il y a des processus pour amalgamer différents modèles en un seul. Il y a aussi des couplages de modèles, par exemple Siri et compagnie. Quand on a un échange avec Siri, il y a un modèle pour convertir le son en question textuelle, un modèle pour traiter la question textuelle en réponse textuelle, un modèle pour générer le texte en son. C’est trois modèles indépendants très complexes, mais on a l’impression que c’est une seule entité.

    Par rapport à l’image de chat, un autre truc intéressant le passage d’une image statique à une vidéo. En ce moment, le traitement d’images par des IA, que ce soit en reconnaissance ou en génération, se fait image par image, pour des raisons de puissance de calcul. Après quelques images, un enfant de 2 ans ne reconnait pas une image de chat lorsqu’il en voit un ; il reconnait une infinité d’images successives, comme une vidéo. En terme d’IA, en ce moment, on commence à voir des IA qui exploitent les images successives d’une vidéo. Que ce soit pour l’analyse (reconnaissance) ou pour la génération. Il est possible que ce soit la grande révolution du moment.