Kan ChatGPT verkligen tänka som en människa? En Q&A med A.I. Forskaren Dave Ferrucci

David Ferrucci

David Ferrucci, VD och chefsforskare för Elemental Cognition.Med tillstånd av David Ferrucci

Artificiell intelligens blir snabbt smart. Teknikens senaste genombrott, som manifesteras i de imponerande funktionerna hos applikationer som ChatGPT, har väckt rädsla för att A.I. kan snart ta över mänskligheten — och inte på ett bra sätt. Förra året gjorde en Google-ingenjör anspråk på företagets A.I. chatbot LaMDA var så intelligent att den hade blivit kännande. I år, oroade över den potentiella faran med A.I., krävde en grupp på mer än 1 000 tekniska entreprenörer och akademiker, inklusive Elon Musk, i mars en sex månader lång paus med utbildningen av A.I. system mer avancerade än OpenAI:s GPT-4, den senaste språkmodellen som driver ChatGPT.

Även om tillämpningar för stora språkmodeller (LLM), som ChatGPT och Googles Bard, har visat potentialen att överträffa människor i många uppgifter och ersätta jobb, är de inte på något sätt samma som den mänskliga hjärnan eftersom de underliggande inlärningsmekanismerna är olika, David Ferrucci, en datavetare och tidig pionjär inom kommersiell A.I. applikation, berättade för Startracker.

Ferrucci är mest känd som skaparen av IBM Watson. Utvecklad i slutet av 2000-talet för att svara på frågor om tv-frågesporten Fara! , slog datorsystemet så småningom mänskliga tävlande i spelet 2011.

24 augusti astrologi

När Fara! utmaningen föreslogs i början av 2007, jag var den enda inom IBM Research, även i det akademiska samhället, som trodde att det kunde göras och i princip anmälde mig för att fortsätta det, sa Ferrucci till Startracker i en intervju.

I grunden är IBM Watson ett maskininlärningsbaserat system som lärt sig att svara Fara! frågor genom att smälta stora mängder data från tidigare shower. Den kom ut vid en tidpunkt då djupinlärning, en delmängd av artificiell intelligens, började få fäste. Innan dess förlitade sig datorsystem mycket på mänsklig programmering och övervakning.

2012, kort efter Watsons storframgång, lämnade Ferrucci IBM efter 18 år för att leda A.I. forskning för Bridgewater Associates, världens största hedgefond. Under större delen av det senaste decenniet har Ferruccis arbete fokuserat på att utveckla hybrid A.I., som försöker kombinera datadriven maskininlärning med logiska resonemang – med andra ord att träna algoritmer att tänka mer som människor.

vilket stjärntecken är 21 augusti

Under 2015 finansierade Bridgewater ett internt projekt ledd av Ferrucci som så småningom spreds ut som ett oberoende företag som heter Elemental Cognition. Elemental Cognitions hybrid A.I. applikationer kan användas i investeringsförvaltning, logistikplanering och läkemedelsupptäckt, enligt dess webbplats. I februari skrev startup på Bridgewater som kund.

I en intervju med Startracker tidigare denna månad diskuterade Ferruci de olika inlärningsprocesserna för ChatGPT och den mänskliga hjärnan, nödvändigheten av hybrid A.I., och varför han tror att förslaget om sex månaders A.I. paus är mer symboliskt än praktiskt.

Följande utskrift har redigerats för tydlighetens skull.

Vad exakt är hybrid A.I.?

Hybrid AI kombinerar en datadriven, induktiv process med en logikdriven process. Maskininlärning är en datadriven process. Det blir bara bättre med mer och mer träningsdata tillgängligt. Men för att kommunicera med människor behöver du också logik och resonemang.

Mänsklig kognition fungerar ungefär på samma sätt, som förklaras i Daniel Kahnemans bok Tänkande, snabbt och långsamt. Den mänskliga hjärnan fungerar genom att tänka snabbt och långsamt på samma gång. För att uppnå exakt, tillförlitligt beslutsfattande behöver du det bästa av två världar.

Hur skiljer sig snabbt tänkande från långsamt tänkande? Varför behöver vi båda?

Snabbt tänkande är när vi extrapolerar från vår erfarenhet, eller data, och sedan generaliserar. Generalisering kan dock vara fel, eftersom det är baserat på ytliga egenskaper som kan korrelera i data, men som inte är riktigt orsakande - detta är grunden för fördomstänkande.

Långsamt tänkande är att formulera en modell för hur jag tror att saker fungerar: Vilka är mina värderingar? Vilka är mina antaganden? Vilka är mina slutledningsregler? Och vad är min logik för att dra en slutsats?

19 september

När vi pratar om A.I. Idag tenderar vi att automatiskt tänka på maskininlärning, som, som du sa, är en datadriven process. Finns det några verkliga exempel på rent logikdriven A.I.?

Ja, logikdriven A.I. har assimilerats i många verkliga tillämpningar. Formella representationer av problemlösningslogik, som regelbaserade system eller system för begränsningslösning och optimering, används för resurshantering, schemaläggning, planering, kontroll och exekveringstillämpningar.

Men vi ser dem inte som A.I. längre, till stor del för att A.I. blev starkt förknippad med maskininlärningssystem.

Var står LLMs som GPT och LaMDA på det snabba/långsamma tänkandet? Är de verkligen nära mänsklig intelligens, som en Google-ingenjör hävdade förra året?

LLM:er producerar stora datastrukturer som fångar de statistiska sannolikheterna för vissa sekvenser av ord efter andra sekvenser av ord. Vad ChatGPT gör är statistiska förutsägelser baserade på språkets ytliga egenskaper. Med tillräckligt med träningsdata och riktigt kraftfulla maskininlärningstekniker kan dessa modeller efterlikna ett språk som låter flytande.

3 juli horoskop

Det är inte logiskt resonemang. Det är svårt att argumentera för att en stor tabell för sannolikheter är sentient. Jag skulle säga inte. En intressant sak med mänsklig kognition är dock att vi blandar samman sammanhängande klingande text med fakta. Vi är liksom, det låter riktigt bra, det måste vara sant. Men sanningen kräver djupare förståelse och analys bortom språkets ytliga drag.

Är du nervös för A.I. så småningom överlista människor?

A.I. kan utföra vissa uppgifter bättre än människor. Det har varit sant i åratal. Idag, när data och träningstekniker förbättras, är det lättare och lättare att träna A.I. system för att göra fler mänskliga uppgifter. Jag tycker att det är väldigt betydelsefullt. Men jag tror inte att A.I. kommer att ta över. Det finns ingen oberoende enhet som vill erövra dig. Men A.I. lätt kan missbrukas. Jag tror att det är ett verkligt bekymmer.

Elemental Cognition tecknade nyligen Bridgewater som kund, som också är en tidig investerare i ditt företag. Hur kan hybrid A.I. hjälpa investeringsförvaltare att bättre förstå ekonomin och marknaderna?

Att förstå ekonomin kommer i två former: identifiera mönster i data och tolka dessa mönster för att förstå vad som händer.

Inom investeringsförvaltning är det slutliga målet att göra korrekta förutsägelser genom att titta på ekonomiska indikatorer, såsom räntor och aktiekurser. Data har mycket att berätta. Om du kunde se mönster i data är det verkligen kraftfullt. Och om du kan tolka mönstren och förstå vad som händer i ekonomin, så har du ett annat perspektiv. Det är nästan som att du kan göra kontroller och balanser: här är korrelationerna som visas i data, och här är min förståelse för hur saker fungerar. Håller de med eller inte?

Vad tycker du om förslaget att pausa A.I. träna i sex månader?

Jag tror inte att det är praktiskt att börja med, eftersom stora språkmodeller inte är en hemlighet. Det kommer alltid att finnas företag som arbetar med dem. Vi kommer att fortsätta att se många experiment. Jag tycker inte att det är vettigt att stoppa experimentet.

Men jag tycker att det är vettigt att ta ett steg tillbaka och tänka ordentligt på det här. Politiker måste börja fundera på hur de ska reglera A.I. eftersom det kan missbrukas på flera sätt. Vi kommer sannolikt att se reglering utvecklas och tillämpas.