Société

« Foundation » : Un modèle d’intelligence artificielle d’Apple plus sûr


Une fuite a révélé un modèle d’intelligence artificielle propre à Apple, marquant ses avancées dans ce domaine.

Le modèle « Foundation » du géant technologique américain est considéré comme le plus sécurisé dans sa conception et très compétitif face aux programmes de « Meta » et « GPT-4 ».

De nombreux titres de presse avaient précédemment affirmé qu’Apple perdait la course à l’intelligence artificielle car elle n’avait pas de programme propre.

L’entreprise a elle-même suscité le débat en intégrant « Siri » avec « ChatGPT » lors de sa dernière conférence annuelle. 

Cela a mené à la conclusion qu’OpenAI alimentait entièrement « Apple Intelligence », mais ce n’est pas le cas.

« Apple Intelligence » est un terme de marketing large qui englobe un ensemble de nouvelles fonctionnalités d’IA, telles que la rédaction, la génération et la synthèse de texte, ainsi que la création d’images, entre autres.

Toutes ces fonctionnalités sont alimentées par « Foundation », selon un document de recherche académique rédigé par plus de 150 employés d’Apple qui ont évalué le modèle.

Plus intelligent que vous ne le pensez

Lors d’un test d’évaluation humaine, 1393 requêtes ont été soumises au modèle « Apple Foundation » et à d’autres modèles concurrents.

Les résultats ont montré qu’Apple était légèrement en retard par rapport à « GPT-4 », mais qu’il surpassait « Mistral » et « GPT-3.5 » dans plus de 50 % des cas.

Les benchmarks indiquent que « Apple Intelligence » est tout aussi efficace pour résumer des textes, que ce soit sur l’appareil ou dans le cloud.

Plus responsable et plus sécurisé

En ce qui concerne la création de contenu non discriminatoire, haineux, excluant, nuisible, sexuel, illégal ou violent, le modèle « Apple Foundation » est de loin le plus sécurisé par rapport aux concurrents.

Dans neuf tests sur dix, le contenu généré par le modèle « Apple Foundation » a été jugé plus sûr de plus de 50 % par rapport à d’autres.

Apple a éliminé le contenu nuisible de manière précise en filtrant les propos inappropriés grâce à des outils d’inférence pour nettoyer les données.

Afficher plus

Articles similaires

Bouton retour en haut de la page