banner
Centre d'Information
Connaissances étendues dans le domaine de la vente et de la production

Apple évite le battage médiatique sur «l'IA» lors du discours d'ouverture de la WWDC en intégrant le ML dans les produits

Jun 13, 2023

Voir la version non AMP sur arstechnica.com

Au milieu de nouveaux produits impressionnants comme l'Apple Silicon Mac Pro et l'Apple Vision Pro révélés lors de l'événement d'ouverture de la WWDC 2023 de lundi, les présentateurs d'Apple n'ont jamais mentionné une seule fois le terme "IA", une omission notable étant donné que ses concurrents comme Microsoft et Google se sont fortement concentrés sur IA générative pour le moment. Pourtant, l'IA faisait partie de la présentation d'Apple, juste sous d'autres noms.

Alors que "IA" est un terme très ambigu de nos jours, entouré à la fois d'avancées étonnantes et d'un battage médiatique extrême, Apple a choisi d'éviter cette association et s'est plutôt concentré sur des termes tels que "apprentissage automatique" et "ML". Par exemple, lors de la démo iOS 17, le vice-président directeur du génie logiciel Craig Federighi a parlé des améliorations apportées à la correction automatique et à la dictée :

La correction automatique est alimentée par l'apprentissage automatique sur l'appareil et, au fil des ans, nous avons continué à faire progresser ces modèles. Le clavier exploite désormais un modèle de langage de transformateur, qui est à la pointe de la technologie pour la prédiction de mots, ce qui rend la correction automatique plus précise que jamais. Et grâce à la puissance d'Apple Silicon, l'iPhone peut exécuter ce modèle chaque fois que vous appuyez sur une touche.

Notamment, Apple a mentionné le terme IA "transformateur" dans un discours d'ouverture d'Apple. La société a spécifiquement parlé d'un "modèle de langage de transformateur", ce qui signifie que son modèle d'IA utilise l'architecture de transformateur qui a alimenté de nombreuses innovations récentes en matière d'IA générative, telles que le générateur d'images DALL-E et le chatbot ChatGPT.

Un modèle de transformateur (un concept introduit pour la première fois en 2017) est un type d'architecture de réseau neuronal utilisé dans le traitement du langage naturel (TAL) qui utilise un mécanisme d'auto-attention, lui permettant de hiérarchiser différents mots ou éléments dans une séquence. Sa capacité à traiter les entrées en parallèle a conduit à des améliorations significatives de l'efficacité et à des percées dans les tâches NLP telles que la traduction, la synthèse et la réponse aux questions.

Apparemment, le nouveau modèle de transformateur d'Apple dans iOS 17 permet des corrections automatiques au niveau de la phrase qui peuvent terminer un mot ou une phrase entière lorsque vous appuyez sur la barre d'espace. Il apprend également de votre style d'écriture, qui guide ses suggestions.

Tout ce traitement de l'IA sur l'appareil est assez facile pour Apple en raison d'une partie spéciale des puces Apple Silicon (et des puces Apple antérieures, à commencer par l'A11 en 2017) appelée Neural Engine, qui est conçue pour accélérer les applications d'apprentissage automatique. Apple a également déclaré que la dictée "obtient un nouveau modèle de reconnaissance vocale basé sur un transformateur qui exploite le moteur neuronal pour rendre la dictée encore plus précise".

Au cours de la keynote, Apple a également mentionné "l'apprentissage automatique" à plusieurs autres reprises : lors de la description d'une nouvelle fonctionnalité d'écran de verrouillage de l'iPad ("Lorsque vous sélectionnez une photo en direct, nous utilisons un modèle d'apprentissage automatique avancé pour synthétiser des images supplémentaires"); Fonctionnalités iPadOS PDF ("Grâce aux nouveaux modèles d'apprentissage automatique, iPadOS peut identifier les champs d'un PDF afin que vous puissiez utiliser la saisie automatique pour les remplir rapidement avec des informations telles que les noms, les adresses et les e-mails de vos contacts."); une fonctionnalité AirPods Adaptive Audio ("Avec le volume personnalisé, nous utilisons l'apprentissage automatique pour comprendre vos préférences d'écoute au fil du temps"); et une fonctionnalité de widget Apple Watch appelée Smart Stack ("Smart Stack utilise l'apprentissage automatique pour vous montrer des informations pertinentes au moment où vous en avez besoin").

Apple a également lancé une nouvelle application appelée Journal qui permet la journalisation personnelle de textes et d'images (un peu comme un journal interactif), verrouillée et cryptée sur votre iPhone. Apple a déclaré que l'IA jouait un rôle, mais n'a pas utilisé le terme "IA".

"Grâce à l'apprentissage automatique sur l'appareil, votre iPhone peut créer des suggestions personnalisées de moments pour inspirer votre écriture", a déclaré Apple. "Les suggestions seront intelligemment organisées à partir d'informations sur votre iPhone, telles que vos photos, votre emplacement, votre musique, vos séances d'entraînement, etc. Et vous contrôlez ce qu'il faut inclure lorsque vous activez les suggestions et celles à enregistrer dans votre journal."

Enfin, lors de la démo de la nouvelle Apple Vision Pro, la société a révélé que l'image en mouvement des yeux d'un utilisateur sur le devant des lunettes provient d'un avatar 3D spécial créé en scannant votre visage - et vous l'avez deviné, l'apprentissage automatique.

"En utilisant nos techniques d'apprentissage automatique les plus avancées, nous avons créé une nouvelle solution", a déclaré Apple. "Après un processus d'inscription rapide à l'aide des capteurs frontaux de Vision Pro, le système utilise un réseau neuronal d'encodeur-décodeur avancé pour créer votre Persona numérique."

Un réseau de neurones encodeur-décodeur est un type de réseau de neurones qui comprime d'abord une entrée sous une forme numérique compressée appelée "représentation de l'espace latent" (l'encodeur), puis reconstruit les données à partir de la représentation (le décodeur). Nous spéculons, mais la partie encodeur pourrait analyser et compresser les données faciales capturées pendant le processus de numérisation en une représentation latente plus gérable et de moindre dimension. Ensuite, la partie décodeur peut utiliser ces informations condensées pour générer son modèle 3D du visage.

Lors du discours d'ouverture de la WWDC, Apple a dévoilé sa puce Apple Silicon la plus puissante à ce jour, la M2 Ultra, qui comprend jusqu'à 24 cœurs de processeur, 76 cœurs de GPU et un moteur neuronal à 32 cœurs qui fournirait 31,6 billions d'opérations par seconde, selon Apple. représente des performances 40% plus rapides que le M1 Ultra.

Fait intéressant, Apple a directement déclaré que ce pouvoir pourrait être utile pour la formation de "grands modèles de transformateurs", ce qui, à notre connaissance, est la mention la plus importante de l'IA dans un discours d'ouverture d'Apple (bien qu'en passant):

Et M2 Ultra peut prendre en charge une énorme mémoire unifiée de 192 Go, soit 50 % de plus que M1 Ultra, ce qui lui permet de faire des choses que les autres puces ne peuvent tout simplement pas faire. Par exemple, dans un seul système, il peut former des charges de travail ML massives, comme de grands modèles de transformateurs que le GPU discret le plus puissant ne peut même pas traiter car il manque de mémoire.

Ce développement a enthousiasmé certains experts en IA. Sur Twitter, Perry E. Metzger, spécialiste de l'IA, a écrit : " Que ce soit par accident ou intentionnellement, l'architecture de mémoire unifiée d'Apple Silicon signifie que les Mac haut de gamme sont désormais des machines vraiment incroyables pour exécuter de grands modèles d'IA et faire de la recherche sur l'IA. Il n'y en a vraiment pas beaucoup. d'autres systèmes à ce prix qui offrent 192 Go de RAM accessible par GPU."

Ici, une RAM plus grande signifie que des modèles d'IA plus gros et apparemment plus performants peuvent tenir en mémoire. Les systèmes sont le nouveau Mac Studio (à partir de 1 999 $) et le nouveau Mac Pro (à partir de 6 999 $), qui pourraient potentiellement mettre la formation à l'IA à la portée de nombreuses nouvelles personnes et sous la forme de machines de bureau et de tour.

Seules des évaluations rigoureuses diront comment les performances de ces nouvelles machines alimentées par M2 Ultra se compareront aux GPU Nvidia optimisés pour l'IA comme le H100. Pour l'instant, il semble qu'Apple ait ouvertement jeté son chapeau dans l'anneau matériel de formation à l'IA générative.

Voir les commentaires d'articles