Claude AI peut désormais contrôler votre ordinateur

<p class="ed__a-p ed__bdy__l"></p>
Claude AI peut contrôler votre ordinateur
Grosse journée pour Anthropic, qui dévoile aujourd’hui Claude 3.5 Haïkuune réponse directe à ChatGPT-4o Mini ou à Gemini 1.5 Flash, offrant selon un benchmark des performances supérieures à ces deux modèles, même si pour le moment, il ne supporte pas l’image et s’impose avant tout comme un modèle textuel . Par ailleurs, Anthropic a lancé une mise à jour majeure pour Claude 3.5 Sonnet, permettant un benchmark impressionnant qui classe Claude en tant que meilleur modèle disponible sur le marché à l’heure actuelle.
Publicité, votre contenu continue ci-dessous
Le monde du futur, dès aujourd’hui
En plus de ces ajouts, Claude a dévoilé une nouvelle API disponible en bêta publique nommée « Computer Use ». Par cette dernière, l’utilisateur de Claude AI peut permettre à l’intelligence artificielle de prendre directement le contrôle de son ordinateur, et ainsi d’effectuer diverses actions à sa place. Claude peut ainsi regarder votre écran, déplacer le curseur, cliquer et écrire du texte. L’idée est de sortir cette API aujourd’hui en bêta afin de récolter un maximum d’informations et ainsi améliorer le service au fil du temps.
<
p class= »ed__a-p ed__bdy__l »>
Claude AI peut contrôler votre ordinateur
© Anthropique
Pour présenter cette nouvelle fonction, Anthropic écrit ceci : « avec Computer Use, nous essayons quelque chose de fondamentalement nouveau. Au lieu de créer des outils spécifiques pour aider Claude à accomplir des tâches individuelles, nous lui enseignons des compétences informatiques générales, lui permettant d ‘utiliser une large gamme d’outils et de logiciels standards conçus originalement pour les gens ». Notez que cette API peut être employée par des professionnels également : « les développeurs peuvent intégrer cette API pour permettre à Claude de traduire des instructions (par exemple, « utiliser des données de mon ordinateur et accessibles en ligne pour remplir ce formulaire ») en commandes informatiques (par exemple, « vérifier une feuille de calcul » ; « déplacer le curseur pour ouvrir un navigateur Web » ; « accéder aux pages Web pertinentes » ; « remplir un formulaire avec les données de ces pages ») ».
Quid de la sécurité ?
Forcément, une telle fonctionnalité pose des questions quant à la confidentialité et la sécurité d’une telle fonction, qui offrea à terme une liberté inédite aux modèles IA, puisqu’ils pourront contrôler directement l’ordinateur d’un utilisateur. La plus grande vulnérabilité d’une telle fonction réside donc dans le « prompt injection », une cyberattaque dont le mais est de fournir des requêtes malveillantes à une IA. Avec une telle méthode, il serait possible de contrôler l’ordinateur d’un utilisateur à distance, et ainsi récupérer tout une tas d’informations compromettantes. Anthropic en est conscient, et dit travailler sur diverses méthodes pour contrer de potentielles attaques de ce genre. Pour l’heure cependant, la fonction Computer Use est trop rudimentaire dans ses fonctions pour être considérée comme un risque véritable.
Publicité, votre contenu continue ci-dessous
Source link