DeepMind släpper kraftfull AI-chattbot med fokus på säkerhet: Sparrow tar steg mot mer användbar AGI

0

Google’s division för artificiell intelligens, DeepMind, överväger att släppa sin rival till chattboten ChatGPT i år, enligt grundaren Demis Hassabis. Sparrow-chattboten ska enligt uppgift ha funktioner som OpenAI:s ChatGPT saknar, inklusive förmågan att citera källor genom förstärkningsinlärning. Mr Hassabis varnade dock för de potentiella farorna med kraftfull AI-teknologi. I ett samtal med tidningen Time sa Mr Hassabis att Sparrow kan släppas som en privat beta 2023, men att AI “står inför” att nå en nivå som kan orsaka betydande skada för mänskligheten. “När det kommer till mycket kraftfulla teknologier – och det är uppenbart att AI kommer att vara en av de mäktigaste någonsin – måste vi vara försiktiga”, säger han.

Inte alla tänker på sådana saker. Det är som för experimentellister, många av vilka inte inser att de håller på farligt material.” Släppet av ChatGPT förra året hyllades som en vattendelare för AI:s utveckling, där vissa hävdade att den allmänt syftande språkmodellen skulle kunna revolutionera branscher och till och med ersätta populära verktyg som Googles sökmotor.

Dess förmåga att förstå och generera människoliknande svar på en mängd olika frågor ökade också oro för att det skulle kunna missbrukas, med OpenAI:s VD Sam Altman som varnade för “skrämmande ögonblick” och “betydande störningar” med system på människonivå.

Sedan det grundades 2010 har DeepMind uppnått flera stora AI-milstolpar inom en mängd olika discipliner, inklusive att besegra mänskliga världsmästare i det komplexa brädspelet Go och att förutsäga över 200 miljoner strukturer av alla kända proteiner.

Företaget med bas i London avslöjade först att det arbetade med en stor språkmodell (LLM) chattbot i en rapport förra september, som beskrev en “informationssökande dialogagent” designad för att vara mer hjälpsam, korrekt och ofarlig jämfört med andra språkmodeller.

I en bloggpost som släpptes tillsammans med rapporten förklarade DeepMind att Sparrow skulle kunna användas för att träna andra chattbotar att vara säkrare och mer användbara. Ett exempel som gavs var Sparrows förmåga att upptäcka potentiellt skadliga frågor från användare, såsom hur man startar en bil utan nyckel. “Dialogagenter som drivs av LLM kan uttrycka felaktig eller uppfunnen information, använda diskriminerande språk eller uppmuntra osäkra beteenden”, enligt blogginlägget. “Sparrow tar oss ett steg närmare förståelse för hur vi kan träna agenter… och till slut, hjälpa till att bygga säkrare och mer användbara allmänna konstgjorda intelligenser (AGI).”

NO COMMENTS

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Exit mobile version