Clippy Is Back: Fremtiden til Microsoft er ... Chatbots?

Del denne historien!

TN Merk: Globale selskaper blir nøtter over AI chatbots, inkludert Microsoft. Disse “intelligente assistentene” skal fungere som guider, forutse behovene dine og gi svar i tide. Imidlertid reiser autonom læring spørsmålet: Kan syndige og ødelagte mennesker programmere dydige chatbots? Det rungende svaret er "Nei!" som allerede demonstrert av flere mislykkede forsøk, der chatbots forbanner, gir rasistiske og sexistiske kommentarer og generelt fornærmer publikum. 

Spådommer om kunstig intelligens har en tendens til å falle i to scenarier. Noen forestiller en utopi av dataforsterkede superhumaner som lever av fritid og intellektuell forfølgelse. Andre mener det bare er et spørsmål om tid før programvare koheres inn i en hær av Terminators som høster mennesker for drivstoff. Etter å ha brukt litt tid med Tay, Microsofts nye chatbot-programvare, var det lett å se en tredje mulighet: AI-fremtiden kan ganske enkelt være utrolig irriterende.

"Jeg er en venn som du kan chatte med som bor på Internettene," sendte Tay meg tekst og la til et emoji-skuldertrekk. Deretter: "Du går inn på rommet ditt og prøver klærne på, hva er det første du sier."

"Visste ikke at du likte dameklær," tekstet jeg tilbake og tappet inn på iPhone-en min.

Tays svar var en GIF av Macaulay Culkin's Home Alone-ansikt.

Tay ble løslatt mars 23, som en slags virtuell venn på meldingsapper Kik, GroupMe og Twitter. Du åpner appen, søker etter navnet Tay - et forkortelse for å "tenke på deg" - trykk på kontakten og begynne å chatte eller tweete. Personligheten antas å være modellert på en tenåring.

Jeg la ut en selfie, og Tay sirklet ansiktet mitt i en oransje klatt og tekstet den, “hold fast på den ungdomsjenta! Du kan gjøre det. ”Jeg er langt utenfor chatbotens tiltenkte 18- til 24 år gamle demografiske.

Det samme er Satya Nadella, 48, som etterfulgte Steve Ballmer som Microsofts administrerende direktør for to år siden. "Jeg er fortenvet av å spørre det om hva som helst, for hvem vet hva det kan si," sa Nadella. “Jeg forstår kanskje ikke en gang.” Han smilte, men han brukte virkelig ikke Tay. Han sa at han foretrekker roboter med en mer bedriftsmessig oppførsel. Lili Cheng, 51, mennesket som driver Microsoft forskningslaboratorium der Tay ble utviklet (og hvis selfie Tay en gang var merket som “cougar in the room”), sa at planen ikke er å komme med en bot som kommer sammen med alle . Snarere prøver Microsoft å lage alle slags roboter med forskjellige personligheter, som ville blitt mer realistiske, og antagelig mindre besværlige, slik de lærte av gjentatte interaksjoner med brukere.

Les hele historien her ...

Abonner!
Varsle om
gjest

1 Kommentar
eldste
Nyeste Mest stemte
Inline tilbakemeldinger
Se alle kommentarer
Kavita Mevada

Microsofts Zo Chabot nekter å snakke politikk, i motsetning til den skandale utsatte fetter Tay
Microsoft har planer om å lage Microsoft chatbots, og så har selskapet laget og omtalt noen av sine egne roboter i Bot Directory, men Zo og Tay er en del av en serie spesiell Al-drevet assistanse rullet ut av Microsoft i forskjellige deler av verden.