Stor språkmodell er ikke AI "End"?Meta Chief Scientist: Kan fremdeles ikke nå menneskelig visdom

Finance News Agency, 23. mai (redaktør Zhou Ziyi)Metas Chief Artificial Intelligence (AI) -forsker, Yann Lecun, mener at eksisterende store -skala språkmodeller (LLM) aldri kan oppnå den samme resonnementet og planlagte evnen som mennesker.

Yang Likun sa at den store språkmodellen «har en veldig begrenset forståelse av logikk,Den forstår ikke den materielle verden, har ikke langvarige minner, kan ikke rimelig defineres av noen rimelige vilkår og kan ikke planlegges.«» «.

I et siste intervju mener han at han ikke kan stole på eksisterende avanserte språkets store språk for å lage universell kunstig intelligens (AGI) som kan sammenlignes med menneskelig visdom, fordi disse modellene bare kan svare nøyaktig på spørsmålene når de har fått riktig treningsdata. Derfor «vesentlig usikker.»

Spesifikt mener Yang Likun at selv om den nåværende store språkmodellen har utmerket ytelse innen naturlig språkbehandling, dialogforståelse, dialoginteraksjon og tekstoppretting, ITFortsatt bare en «statistisk modellering» -teknologiFor å fullføre de aktuelle oppgavene gjennom de statistiske lovene i læringsdata,I hovedsak er det ikke sann forståelse og resonnementEssens

Yang Likun selv prøver å utvikle en ny generasjon av kunstig intelligenssystem.Han påpekte imidlertid at denne visjonen kan ta 10 år å oppnå.

«Verdensmodellering» -metode

Yang Likun administrerer et team på rundt 500 mennesker i Metas grunnleggende kunstige intelligensforskning (FAIR) laboratorium.De er opptatt av å skape en kunstig intelligens som kan danne «sunn fornuft», observere og oppleve verdens vei på en lignende måte som mennesker, og til slutt realisere generell kunstig intelligens (AGI).Denne metoden kalles «verdensmodellering»Essens

I 2022 publiserte Yang Likun en artikkel om visjonen om «verdensmodellering» for første gang.

Yang Likuns siste påpekte at Fair Lab tester forskjellige ideer, i håp om å få kunstig intelligens til slutt å nå etterretningsnivået til mennesker. til slutt bli valgt.

I tillegg tror han også bestemt, «Vi er i spissen for neste generasjon av kunstige intelligenssystemerEssens»»

Intern motsetning

Imidlertid er den eksperimentelle visjonen til denne forskeren en kostnadseffektiv pengespill for Meta, fordi investorer for tiden ønsker å se den raske avkastningen av kunstig intelligensinvestering.

På grunn av dette vises Meta også inneDet er forskjeller mellom konsepter mellom «kortsiktig inntekt» og «langvarig verdi»EssensDenne forskjellen kan sees fra etableringen av Genai -teamet i fjor.

Meta etablerte Fair Lab i 2013 for å utvikle feltet kunstig intelligens og ansette toppforskere i feltet.I 2023 ledet Meta imidlertid et nytt Genai -team, ledet av sjefsprodukter Chris Cox. og bildegenereringsverktøy.

Noen innsidere mener at etableringen av Genai -teamet kan ha noen motsetninger i konseptet fordi Yang Likun og administrerende direktør i Meta, Zuckerberg.Under presset og gevinstpresset fra investorer har Zuckerberg fremmet mer kommersielle anvendelser av kunstig intelligens; men college -kulturen i Fair Laboratory har gjort Meta til en litt «svakhet» «».

I anledning Yang Likuns syn, fremmer Meta og konkurrentene mer storstilt språkmodeller av forbedrede versjoner, inkludert Openais raskere GPT-4O-modeller som ble utgitt i forrige uke; måned.

Yang Likun er foraktelig for disse siste språkets store språk.Denne utviklingen av en stor språkmodell er overfladisk og begrensetFørst når menneskelige ingeniører griper inn og trener dem basert på denne informasjonen, vil modellen lære, i stedet for naturlig å avslutte konklusjoner som mennesker.»Dette tilsvarer også å spille ansiktet til sin egen Llama -modell.