« « L’une des choses qui ne sont pas évidentes est qu’une grande partie de la valeur de ces systèmes est fortement liée au fait qu’ils hallucinent. Si vous souhaitez rechercher quelque chose dans une base de données, nous disposons déjà de bonnes informations pour cela. »
Le visage public de l’IA générative a déclaré mardi au directeur de Salesforce Inc. que les cas signalés de modèles d’intelligence artificielle « hallucinants » étaient en réalité plus une caractéristique de la technologie qu’un bug.
Plus tôt dans la journée, Salesforce CRM,
Le président et directeur général Marc Benioff a donné le coup d’envoi de la conférence annuelle Dreamforce en déployant de nouvelles itérations de ses produits Einstein AI destinés à s’intégrer à des plateformes comme GOOG d’Alphabet Inc.,
GOOGLE,
Espace de travail Google.
Pour plus: Salesforce lance Dreamforce avec des produits permettant de tirer parti de l’IA tout en protégeant les données des clients
Altman est devenu célèbre au cours de l’année écoulée grâce à sa société, OpenAI, soutenue par des milliards de dollars d’investissement de Microsoft Corp. MSFT,
a publié son IA ChatGPT générative en novembre dernier et a lancé une frénésie d’IA sur la communauté des affaires. Depuis, OpenAI a publié une version mise à jour, GPT4.
Altman s’est entretenu avec Benioff avant sa comparution devant le Sénat mercredi, aux côtés de TSLA de Tesla Inc.,
Elon Musk et META de Meta Platforms Inc.,
Mark Zuckerberg,
Le PDG de Salesforce a demandé à Altman son avis sur le problème des « hallucinations » de l’IA, ou lorsqu’un grand modèle de langage renvoie en toute confiance des réponses fictives à un utilisateur sous forme de « faits ». Plus tôt dans la journée, lorsque Benioff prononçait son discours, il a qualifié le terme « hallucination » d’euphémisme pour « mensonges ».
Étant donné qu’un grand modèle de langage n’est aussi efficace que les données avec lesquelles il doit fonctionner, le modèle renverra occasionnellement une réponse qui est manifestement fausse comme la vérité, ce que beaucoup ont considéré comme un défaut sérieux des modèles d’IA, surtout s’ils sont utilisés pour automatiser les tâches.
Altman a rétorqué que les hallucinations ressemblent plus à une fonctionnalité qu’à un bug en matière d’IA générative.
« Une des choses non évidentes est qu’une grande partie de la valeur de ces systèmes est fortement liée au fait qu’ils hallucinent », a déclaré Altman. « Si vous souhaitez rechercher quelque chose dans une base de données, nous disposons déjà de bonnes informations pour cela. »
Altman a noté que c’est probablement la raison pour laquelle les modèles d’IA ont d’abord perturbé les efforts créatifs, alors que l’on pensait auparavant que les tâches physiques et répétitives seraient d’abord transformées avant de passer aux efforts créatifs. D’une certaine manière, c’est là le point, a déclaré Altman, car le modèle prend les données existantes et les présente d’une manière différente et nouvelle en fonction de la demande de l’utilisateur et en créant une perspective différente.
Les actions Salesforce ont baissé de 1,6 % pour clôturer à 221,56 $, contre une perte de moins de 0,1 % pour le Dow Jones Industrial Average DJIA.,
une baisse de 0,6% pour l’indice S&P 500 SPX,
et une baisse de 1% pour le Nasdaq Composite COMP, à forte composante technologique..