La nouvelle a été rapportée pour la première fois par The Information, qui a cité un message interne comme source. Selon le rapport, la plupart des membres de l'équipe RAI (branche en charge du contrôle éthique et responsable de l'IA) passeront à l'équipe produit d'IA générative, tandis que d'autres travailleront sur son infrastructure.
Cette décision soulève des questions sur l'engagement de l'entreprise, car elle avait déjà souligné son engagement en faveur d'une IA responsable à travers ses piliers, qui comprennent, entre autres, la transparence, la sécurité et la confidentialité. Jon Carvill, un représentant de Meta, a déclaré que la société continuera à donner la priorité et à investir dans un développement sûr et responsable de cette technologie. Il a également mentionné que même si l'équipe RAI est dissoute, ses membres continueront à soutenir les efforts inter-méta liés au développement. Cette restructuration fait suite à une précédente plus tôt dans l'année, qui aurait entraîné des licenciements et laissé l'équipe considérablement réduite. Business Insider avait précédemment signalé que cette dernière, créée en 2019, disposait d'une autonomie limitée et que ses initiatives nécessitaient de longues négociations avec les parties prenantes pour leur mise en œuvre.
L'équipe RAI a été créée à l'origine pour identifier les problèmes liés aux méthodes de formation de la société, en veillant à ce que ses modèles soient entraînés avec des informations diverses afin d'éviter les erreurs de modération sur ses plateformes de médias sociaux. Les systèmes automatisés ont été confrontés à divers défis, notamment un problème de traduction sur Facebook qui a conduit à une fausse arrestation, la génération d'images biaisées par les autocollants WhatsApp en réponse à certains prompts et les algorithmes d'Instagram facilitant par inadvertance la découverte de publications d'abus sexuels sur des mineurs.
La décision de dissoudre cette équipe et d'allouer davantage de ressources à l'IA générative reflète les tendances et les préoccupations plus larges du secteur. De nombreux gouvernements dans le monde s’efforcent d’établir des cadres réglementaires pour le développement de cette technologie. Elle met également en évidence la tension persistante entre le développement et l’utilisation éthique et responsable de cette dernière. À mesure que l’IA s’intègre de plus en plus dans notre vie quotidienne, les préoccupations concernant des questions telles que les préjugés, la confidentialité et la sécurité sont passées au premier plan. Reste à savoir si Meta y accorde encore de l'importance. Le développement responsable de l’IA n’est pas seulement une question de considérations éthiques, mais comporte également des risques juridiques et de réputation. Les entreprises du secteur risquent des poursuites judiciaires, des amendes réglementaires et des atteintes à leur image de marque si leurs systèmes s’avèrent biaisés, discriminatoires ou nuisent aux utilisateurs.