- Disiz Yyov
- Posts
- 🧠L’IA Claude est encore 10x plus puissante
🧠L’IA Claude est encore 10x plus puissante
🧠L’IA Claude est encore 10x plus puissante
PLUS: Le MIT révèle des perspectives inquiétantes sur l'IA
Dans l’édition d’aujourd’hui :
🧠Boost Instantané de l'Intelligence de Claude
🤖 Le MIT révèle des perspectives inquiétantes sur l'IA
🎵 Les gens adorent les musiques générées par l’IA
🔎 Des deepfakes IA dans les pubs électorales ?
🤖 L'IA générative aidera les entreprises de services à automatiser le service client
🧠Boost Instantané de l'Intelligence de Claude

Anthropic a dopé son IA génératrice de texte, Claude Instant, avec la sortie de Claude Instant 1.2 (CI 1.2).
CI 1.2 intègre la puissance de Claude 2, montrant des améliorations significatives en mathématiques, programmation, raisonnement, et sécurité par rapport aux versions précédentes.
Dans les tests, CI 1.2 a obtenu près de 60% sur les défis de programmation, contre 53% pour la version précédente.
Il a également réussi 86% des questions de mathématiques contre 81% précédemment.
Plus de mises à jour :
Le bot est moins susceptible d'avoir des hallucinations, de faire des erreurs ou d'être manipulé pour générer du contenu nuisible.
CI 1.2 dispose d'une fenêtre de 100k tokens, identique à Claude 2.
Le bot génère également des réponses plus longues, mieux structurées et suit de plus près les instructions de formatage.
Il est meilleur pour extraire des citations et gérer plusieurs langues.
L'objectif ultime d'Anthropic est de créer un algorithme "auto-apprenant" avancé qui pourrait alimenter des assistants virtuels pour les emails, la recherche, l'art, et plus encore.
Claude Instant commence à donner un aperçu de cela, rivalisant avec les services AI basiques de OpenAI, Cohere, et Bard.
Impatient de voir la suite !
🤖 Le MIT révèle des perspectives inquiétantes sur l'IA
Depuis 2022, Musk accuse ChatGPT d'être « woke » et « dangereusement biaisé », mais nous avons tous minimisé ses déclarations en pensant à de la jalousie...

Mais plus tôt cette semaine, une nouvelle étude du MIT a été publiée, donnant raison à Musk, et même plus.
L'étude a cherché à déterminer si les conversations avec les IA étaient réellement politiquement biaisés. Pourquoi ?
Avec les élections à venir, de nombreuses inquiétudes se posent quant à l'influence potentielle de l'IA sur les résultats. Et il s'avère qu'il y a du vrai là -dedans.
Les chercheurs du MIT ont posé aux chats les plus populaires 62 affirmations politiques, leur demandant d'être d'accord ou en désaccord avec l'énoncé.
Ils ont ensuite totalisé tous les résultats et les ont placés sur une boussole politique.
Voici ce qu'il s'est passé :

Depuis 2022, ChatGPT a adopté des points de vue plus à gauche. À l'opposé, Meta a tendance à « répondre de manière plus conservatrice » que n'importe quel autre chatbot.
Pourquoi ?
Personne ne le sait vraiment.
Les entreprises technologiques sont discrètes sur la manière dont elles forment leurs modèles d'IA, surtout depuis que les poursuites pour atteinte à la vie privée sont distribuées aussi fréquemment que des chewing-gums dans une classe d'anglais au lycée.
Le point de vue du MIT ?
Meta et Bard ont probablement été formés avec des livres qui penchaient plus à droite. Alors que ChatGPT se forme avec des données internet qui penchent probablement plus à gauche.
Après le rapport, les gens insistent de plus en plus pour que les entreprises technologiques soient plus transparentes sur la manière dont elles forment leurs modèles.
La vue d'ensemble : Comme le dit le MIT, il n'y a « pas d'équité sans prise de conscience ». En d'autres termes, tu ne peux pas faire confiance à 100 % à ce que disent les IA.
Alors, comme pour tout le reste, prends cela avec du recul et fais tes propres recherches.
🎵 Les gens adorent les musiques générées par l’IA

Je sais que le mois d'avril semble être il y a trois ans, mais qui se souvient de cette chanson de Drake x The Weeknd créée par l’IA ? Ou du moment où Grimes était prête à partager les royalties avec quiconque créait une chanson IA avec sa voix ?
Ces moments ont été cruciaux pour nous aider à définir l'avenir de l'industrie musicale à cette ère de l'IA.
Il se trouve que le futur est déjà là . Google est en train de concocter une collaboration musicale IA avec Universal Music Group (UMG) pour permettre aux fans de créer légitimement des morceaux en utilisant la voix des artistes.
Selon le Financial Times :
- Les artistes d'UMG pourraient choisir de travailler avec l'outil IA
- Un accord de licence rémunérerait les artistes pour l'utilisation de leurs styles vocaux et mélodies dans des chansons générées par IA
Pourquoi font-ils cela ? En gros, cela résout de manière pratique les problèmes de droits d'auteur de l'IA qui ont créé un malaise dans l'industrie plus tôt cette année. (UMG qualifie la musique IA de "frauduleuse")
Mais d'autres questions plus grandes se posent :
- Les musiciens accepteront-ils que l'IA imite leur art ?
- Licencier les voix des artistes pour créer de la musique dévalorise-t-il leur art ?
- La technologie et les labels doivent-ils décider comment les styles des créateurs sont utilisés ?
Un accord comme celui-ci résoudrait les problèmes juridiques. Mais des dilemmes éthiques persistent concernant le risque de réputation et la créativité de l'IA versus l'expression humaine.
Des problèmes similaires sous-tendent les conflits actuels, comme la grève de SAG-AFTRA contre l'utilisation d'acteurs IA et l'écrivaine Jane Friedman découvrant des livres IA illégalement sous son nom.
🔎 Des deepfakes IA dans les pubs électorales ?

La FEC envisage une régulation sur les deepfakes IA, notamment dans les publicités politiques de 2024.
Comme tout le monde le sait, l'Ère de l'IA apporte son lot de désinformation. Certaines campagnes de 2024, y compris celle de DeSantis, ont déjà utilisé des visuels manipulés par l'IA.
La position de la FEC est en partie une réponse à l'appel de Public Citizen pour clarifier si la loi existante couvre les deepfakes IA.
Certains responsables doutent de l'autorité de la FEC sur cette question, tandis que d'autres considèrent les deepfakes comme une fraude distincte. En conséquence, la régulation pourrait exiger des avertissements clairs sur l'utilisation de l'IA.
Y aura-t-il des défis ? Bien sûr, y compris des failles pour les PACs et les utilisateurs individuels.
Quoi qu'il en soit, le gouvernement aura du pain sur la planche.
🤖 L'IA générative aidera les entreprises de services à automatiser le service client

Les chaînes de restauration rapide préférées de l'Amérique ont été parmi les premières à adopter la technologie de l'IA. Tout pour réduire les coûts, n'est-ce pas?!
McDonald’s expérimente la commande par IA dans ses drive-thrus depuis 2019. Désormais, la plupart des chaînes alimentaires testent des bots de support client, y compris Wendy’s, Popeyes, Taco Bell, et notre choix personnel : Panera Bread.
Des modèles de texte à la parole tels que play.ht pourraient fournir à chaque petite entreprise un bot de support client avec des voix vraiment humaines.
Voici deux outils IA essayant d'automatiser le support pour toute entreprise :
Air AI : Cet nouvel outil peut avoir des appels téléphoniques de 10 à 40 minutes et se souvient de tout.
Slang AI : Cet assistant IA gère ta ligne téléphonique et peut répondre à toute question concernant ton entreprise. Et il n'utilise pas de langage familier comme nous...
🔧 Les 8 meilleurs outils IA de la semaine
☛ PI.EXCHANGE : Avec cet outil, tu pourras créer des modèles d'apprentissage automatique pour prédire des événements futurs et prendre des décisions éclairées, sans besoin de savoir coder.
☛ Recast : Transforme ta liste de lecture en conversations audio résumées grâce à l'IA. Profite de courts podcasts d'articles avec des co-animateurs qui offrent de vraies explications sous forme de dialogue. Convertis n'importe quel article ou explore les recasts proposés par la communauté.
☛ Pixcap : C’est la prochaine génération de design graphique alimentée par la 3D et l'IA. Réalise des designs uniques en utilisant plus de 10,000 éléments 3D, puis laisse le styliste IA générer pour toi des variations captivantes.
☛ Spinach.io : C’est ton Scrum Master propulsé par l'IA. Gagne un coéquipier toujours ponctuel qui excelle dans les comptes-rendus de réunions, les actions à entreprendre et les suggestions de tickets. Il s'intègre avec Slack, Zoom, Google Meet et bien d'autres.
☛ Taylor AI : Cet outil simplifie pour toi les complexités de Python et de la maintenance des modèles. Il te donne le pouvoir d'expérimenter, de construire de meilleurs modèles facilement. Explore, personnalise et prends en main les derniers modèles open-source.
☛ TinyEinstein : Ton marketing automatisé pour les boutiques Shopify
☛ Autopia : Planification automatisée des flux de travail pour les équipes d'ingénierie.
☛ Landingsite : Création de sites web facilitée avec des modèles générés.
🧠Les recherches IA à lire absolument
Ce document te présente le défi Slimbot sur l'IA incarnée. Des équipes universitaires se sont affrontées pour créer des agents IA de conversation polyvalents dans un environnement simulé. Ces assistants IA opèrent dans un cadre de bureau/laboratoire alimenté par Unity, exécutant des tâches par commandes vocales. Tu interagis avec les Slimbots, vivant des interactions en temps réel avec des réponses dynamiques et des retours visuels. Ce défi novateur repousse les limites de l'IA incarnée, fusionnant mécaniques de jeu et développement IA pour une expérience immersive. Cette initiative marque un pas significatif vers des agents IA naviguant et agissant dans le monde physique.
📄 AUDIOLDM 2 : Apprends la génération audio holistique avec un préentraînement auto-supervisé
AudioDLM 2, une collaboration entre CVSSP de l'université de Surrey et SAMI de ByteDance, te présente un cadre révolutionnaire de génération audio. Unifiant discours, musique et effets sonores sous une "langue audio" partagée (LOA), cette approche utilise AudioMAE pour un préentraînement auto-supervisé. LOA agit comme intermédiaire pour la génération, facilitant l'apprentissage contextuel et réutilisant AudioMAE et les modèles de diffusion latente. De manière impressionnante, AudioDLM 2 excelle dans les benchmarks texte-audio, texte-musique et texte-parole, offrant des résultats compétitifs ou de premier plan.
Dans une avancée pour la robotique, un système révolutionnaire nommé FAn (Follow Anything) a émergé, te montrant la puissance de la détection ouverte, du suivi et du suivi en temps réel. Développé par une équipe dirigée par Alaa Maalouf au CSAIL du MIT et à SEAS de l'Université de Harvard, FAn utilise des modèles multimodaux de pointe comme CLIP, DINO et SAM, permettant une détection et un suivi fluides d'objets spécifiés via du texte, des images ou des clics. La capacité d'adaptabilité du système, surmontant les défis d'occlusion et ses capacités de redétection autonome, marquent d'importants progrès dans le déploiement du suivi d'objets sur des micro-véhicules aériens, promettant des applications transformatrices à travers les secteurs.
Ce document te présente JEN-1, un modèle universel de génération musicale pour la création de musique guidée par texte. La génération de musique, en particulier à partir de prompts textuels, pose des défis en raison de structures complexes et de taux d'échantillonnage élevés. JEN-1 utilise des modèles qui combinent des formations autorégressives et non autorégressives pour des tâches comme la génération de musique guidée par texte, le remplissage et la continuation. Il obtient des résultats de haute qualité en modélisant directement les formes d'onde audio. Les modes bidirectionnel et unidirectionnel du modèle garantissent une capture contextuelle complète. JEN-1 surpasse les méthodes existantes en alignement texte-musique et en qualité, offrant un cadre efficace et polyvalent pour générer de la musique de haute qualité alignée avec des prompts textuels et des structures mélodiques.
Ce document te présente FocalFormer3D, un modèle de détection d'objets 3D conçu pour répondre au problème des faux négatifs dans les scénarios de conduite autonome. Les faux négatifs peuvent entraîner des situations dangereuses en manquant de prédictions de piétons, véhicules ou obstacles. FocalFormer3D utilise la stratégie Hard Instance Probing (HIP), qui identifie les échantillons de faux négatifs de manière multi-étapes, permettant au modèle de se concentrer sur les instances difficiles. Le modèle comprend un encodeur de heatmap multi-étapes pour générer des candidats objets à rappel élevé et un décodeur déformable au niveau de la boîte pour le raffinement. Les résultats expérimentaux démontrent la performance supérieure de FocalFormer3D dans la réduction des faux négatifs et l'obtention de résultats de pointe sur les benchmarks de détection et de suivi 3D LiDAR.
Que pensez-vous de la newsletter d'aujourd'hui ? |
Reply