Teknisk Marknadsföring, Tjäna pengar på dina Bloggar och Prylar

Sentient AI: Är vi där än?

Idén om sentience i en AI, eller en maskin som utvecklar känslor eller medvetande, har funnits nästan lika länge som idén om en maskin att få intelligens i första hand. Men medan tidigare diskussioner kring idén enbart existerade inom fiktion, har uppgången efter 1900-talet som datavetenskap och teknik såg i allmänhet gjort hela konceptet till en ganska rimlig sak, som kanske till och med redan har hänt.

Idéer som kretsar kring artificiell intelligens har funnits mycket längre än du kan gissa. AI som begrepp i sig hade börjat dyka upp i olika matematiker, teologer, filosofer, professorer och författares verk sedan 380 f.Kr.

Några andra revolutionära och populära AI från början av 1900-talet inkluderar följande.

År AI
1929 Gakutensoku Gakutensoku var den första japanska roboten. Dess AI-sinne kunde lära sig av människor och naturen omkring sig i den utsträckning som gjorde att det kunde ändra ansiktsuttryck och röra på huvudet.
1952 Arthur Samuels pjässpelsprogram Detta var det första programmet som lärde sig att spela ett spel självständigt.
1961 Symbolic Automatic Integrator (SAINT) James Slagles SAINT var ett problemlösningsprogram fokuserat på symbolisk integration i kalkyl.
1964 STUDERANDE Daniel Bobrows STUDENT var ett tidigt AI-program som kunde lösa algebraordsproblem.
1965 ELIZA Joseph Weizenbaum utvecklade ELIZA, ett helt interaktivt program som funktionellt kunde prata med en person på engelska.
1966 Shakey Byggd av Charles Rosen och 11 andra var Shakey den första mobila roboten för allmänna ändamål som kunde navigera i utrymmen på egen hand.
1968 SHRDLU Terry Winograd skapade SHRDLU, ett tidigt naturligt språkprogram.
1988 JabberWacky och CleverBot De två chatbotarna som byggdes av Rollo Carpenter var ett av de första exemplen på AI-chatbotar som pratade fritt med människor.
1995 Artificiell språklig internetdatorenhet (ALICE) Richard Wallace utvecklade ALICE inspirerad av ELIZA. ALICE arbetade med exempeldata från naturligt språk

Den senaste i en lång rad AI: er som hävdas kännande är Googles LaMDA. Avslöjandet gjordes av Simon Lemoine, en mjukvaruingenjör i Googles ansvariga AI-team. Lemoine var intervjuar LaMDA för att avgöra om programmet använder diskriminerande språk eller hatretorik. Istället insåg han att frågan kan vara djupare än vad han undersökte.

Läsa:  Vilken är den bästa röstassistenten? Alexa vs Siri vs Google...

Google har sedan dess stängt av Lemoine, och företaget har upphävt alla påståenden om att dess AI är sentient, med olika experter som stöder dess påstående som säger att LaMDA inte är sentient (men kan vara sexistisk och rasistisk).

Rädslan för att AI ska bli kännande är inte ny.

Sedan Alan Turing publicerade sitt berömda Turing-test för att avgöra om maskiner kan tänka som människor eller inte, har forskare kommit med olika program för att bevisa att de kan. Från något så gammalt som IBMs Deep Blue till så nytt som Googles LaMDA, vi har ställt samma fråga upprepade gånger.

Läs också: Moto Razr 3 och Whatsapp-uppdateringar, Ransomware-attacker i det vilda med mera

Androids Google Assistant eller iPhones Siri kan ibland låta som att den verkligen bryr sig. Men som vi alla har lärt oss är dessa digitala virtuella assistenter de mest rudimentära formerna av AI som finns för tillfället, tillgängliga för allmänheten som körs på telefoner vars datorkraft är ingenting jämfört med de serverfarmar som kör desto mer sofistikerade AI-stackar som IBMs Watson eller Googles LaMDA.

AI-känsla kan delas in i två kategorier – medvetenhet och känslor.

En maskins medvetenhet om sig själv och andra omkring den på ett människoliknande sätt kan mätas tack vare Turing-testet. Detta är det område som AI-forskare har fokuserat på hittills för att få AI-system att interagera bättre med människor och så småningom anpassas till fler samhällsskikt.

Ett av de bästa exemplen på detta skulle vara Svart sjöstjärnaen fyrbensrobot designad av Cornell Universitys Computational Synthesis Laboratory 2006. Denna fyrbenta robot kunde automatiskt syntetisera en prediktiv modell av sin egen kropp och sedan använda denna modell för att välja ett annat beteende före och efter lokskada.

Läsa:  Xfinity röstfjärrkontroll fungerar inte: Quick Fix

Den andra kategorin, känslor, härrör från intelligensbiten inom artificiell intelligens. Ta Hanson Robotics Sophia, till exempel. Det är en robot som kan ha regelbundna interaktioner med människor, har medborgarskap och, sist vi kollade, ville ha en robot baby av sig själv.

Kan en artificiell intelligens betraktas som en person enligt lagen?

Lägger detta sida vid sida med Lemoine’s intervju med LaMDA, där chatboten hävdar att den är medveten om sin existens och känner sig glad och ledsen ibland, och det faktum att den har klarade Turing-testetkommer du att börja se varför Lemoine hävdade att LaMDA hade blivit kännande.

Facebooks AI Research Lab (FAIR) hade en nära borste med detta 2017 när dess AI-motor skapade sitt unika språk som människor inte kunde förstå. Forskare på FAIR upptäckt att chatbotarna avvek från manuset och skapade ett eget språk för att kommunicera utan mänsklig input.

Facebook stängde av AI-motorn efter det här evenemanget, men det hela väcker en stor fråga, om vi kan bygga AI som kan komma med sitt eget språk, är vi nära att bygga en som är kännande?

Artificiell intelligensteoretiker anser ofta att det mänskliga sinnet i sig bara är en stor algoritm. Det betyder att om vi kan ta reda på algoritmen kan vi programmera in den i maskiner, vilket ger dem förmågan att “tänka” och uppfatta saker som människor.

Men termen sentient är inte särskilt väldefinierad när det kommer till AI, och många gånger utökar dess innebörd medvetenhet och känslor till att omfatta medvetande. Så även om LaMDA kan vara flytande i konversation, är det inte exakt kopplat till omvärlden och existerar i en bubbla.

Medvetenhet inuti den bubblan är svårt att få, speciellt om systemet bara utsätts för språk.

Överraskande nog är LaMDA inte den första AI som klarar Turing-testet. Eugene Goostmanett program som simulerar en 13-årig ukrainsk pojke, klarade också Turing-testet vid ett evenemang som anordnades av University of Reading 2014, och tävlade mot andra program som Cleverbot, Elbot och Ultra Hal.

Läsa:  Hur kopplar jag bort Apple Pencil?

Det är dock här det blir intressant. Det har förekommit dispyter och meningsskiljaktigheter mellan forskare om datorer som trots allt klarade detta test, och därför kvarstår det allmänna antagandet att testet har slagits.

En annan sak som är emot AI-system här är det faktum att de inte riktigt har ett minne. Visst kan din Google Assistant förstå sammanhang när du redan har sagt två meningar, men kommer den ihåg dem som en människa gör? Inte riktigt.

Alla AI-system är i huvudsak stora, vältränade neurala nätverk för tillfället. De tar input från användaren och formulerar sedan ett lämpligt svar baserat på deras tränings- och maskininlärningsalgoritmer. För att en AI verkligen ska vara kännande måste den ha en känsla av själv och medvetande, inte en färdplan med svar på varje fråga.

Om någon kan bygga en avancerad AI för att bli kännande utan att möta tillräckligt med bakslag för att sätta ner den, är det ganska troligt att Ray Kurzweils Singularity-varning inträffar.

Singularitet definieras som ett hypotetiskt ögonblick i tiden då AI och andra relaterade teknologier blir så avancerade att mänskligheten genomgår en drastisk och oåterkallelig förändring. Det mest välbekanta exemplet är Skynet från filmserien Terminator.

Det kanske inte händer riktigt på Skynet-sättet; När tekniken förbättras kommer AI och dess robotversioner sannolikt att bli mycket vanligare, och mänskligheten kommer sakta att börja acceptera dem som normala tekniska framsteg, ungefär som vi accepterade självkörande bilar eller industrirobotar.

Popkulturen har gett oss en ganska rimlig inblick i detta scenario med filmen Henne, där människor interagerar med mycket intelligenta och kännande AI: er ungefär som Alexa, Siri och Google Assistant dagligen, så mycket att de utvecklar en känslomässig anknytning till dem.

Läsa:  Vad är en koaxial högtalarkabel? Allt du behöver veta

Det kanske inte kommer att hända under nästa år, eller ens de nästa 10, för allt som betyder något. Ett betydande framsteg inom AI kommer säkerligen att ske, vilket gör det mycket mer tillgängligt och applicerbart för flera olika användningsfall. Vad som kommer efter är någons gissning.

YouTube-video

I nyheterna: Julian Assanges utlämning till USA godkänd av Storbritanniens regering