GPT-3 – En fantastisk AI-pratkvarn
Om du ska läsa en artikel om AI i år så är det antagligen den här på The Verge om GPT-3.
Även om namnet GPT-3 påminner om något hämtat från Star Wars så handlar det än så länge inte om något fullt så neurotiskt som C-3PO eller charmigt som R2-D2. GPT-3 är tredje generationens AI-modell för automatisk textkomplettering (auto complete) från OpenAI. Ett verktyg som med hjälp av AI kan skapa text som efterliknar mänskligt skrivande och är överraskande kraftfullt. I ett experiment gissade läsare bara rätt hälften av gångerna när de skulle bedöma vilken av två artiklar var skriven av en människa och vilken som var skapad av GPT-3.
Matad med mängder av data, delvis skrapad från internet, kan modellen både generera och förstå text och därigenom efterlikna mänsklig interaktion. Med sina 175 miljarder parametrar är GPT-3 det största neurala AI-nätverket för språk hittills och 100 gånger större än föregångaren GPT-2.
Tack vare den rena kraften i GPT-3 klarar den även att utföra uppgifter som den inte är direkt anpassad för. Andra AI-utvecklare har bland annat skapat en chatbot som gör det möjligt att prata med historiska personer och @SamanyouGarg har byggt en demo som genererar Python-kod direkt från vanligt språk.
På Gwern.net finns en samling texter skrivna av GPT-3 utifrån kända författares litterära stilar. Vid närmare granskning går det att se att modellen fortfarande har brister, den verkar till exempel bättre på att underhålla och förföra än att resonera, men resultaten än ändå väldigt imponerande.
Även om modellen inte fullt ut kan simulera mänsklig kommunikation, den pratar mer än den tänker, ser den ut att vara ett stort kliv framåt för att illustrera möjligheterna med AI inom den närmaste framtiden. Precis som sin föregångare visar GPT-3 också upp tydliga fördomar i sina uttalanden. Något som kanske gör den mer trovärdig som syntetisk individ, men än så länge betydligt mindre lämplig för mer seriös användning.