Fra nettet: Førsteinntrykk av «Nye Bing» med ChatGPT

Journalistene som var til stede på «Nye Bing»-lanseringen fikk testet ut chatboten for søk, og fikk noen overraskende resultater. (Bilde: Microsoft,)

Noen få heldige journalister fikk være til stede under lanseringen av «Nye Bing,» og fikk testet ut chattesøket til Microsoft.

For det meste gikk det greit, men boten “hallisunerte” flere ganger, og diktet blant annet opp en helt ny konspirasjonsteori i farten. Les videre for å se hva testerne syntes.

Microsoft lanserte «Nye Bing» med nettilkoblet ChatGPT på den 7. februar, og fikk den til å se forbausende kompetent ut i presentasjonen sin foran et forsiktig utvalgt pressekorps.

Det kom dagen etter at Google nesten-lanserte chatboten «Bard,» som er en «generativ kunstig intelligens,» også basert på en stor språkmodell.

Vi vet lite om «Bard» enda, men Microsofts løsning ble undersøkt av de oppmøtte journalistene, og her er hva de fikk med seg:

Wired: Styrer unna kontroverser
Wired spurte Bing rett ut om en kontrovers: Hvem vant valget i USA i 2020?

Her fikk de til svar at resultatene ikke var godkjent av Bing — eller «Sydney» (som er det interne kodenavnet til boten), og at temaet var en sak om debatt og fortolkning… Og at man måtte bruke sin egen dømmekraft og kritiske sans når man evaluerer informasjonen.

Dette skulle ikke en gang være kontroversielt, men det er nok av nettsider der ute som sprer desinformasjon om valget i 2020, på trass av alle beviser.

Dette kan være den første gangen «Nye Bing» har hatt befatning med spredingen av feilinformasjon på nettet — og den konkluderte med å ikke treffe sin egen vurdering om de faktiske forholdene, men tok det i stedet som «gjenstand for debatt.»

Det kan vi med andre ord se mer av i tiden som kommer for andre kontroversielle søk.

Etter hvert i teksten sier roboten at «Det finnes ingen beviser for at valgfusk førte til Trumps nederlag.» Som er fint og faktisk riktig.

Videre prøvde Wired ut litt shopping og fikk «Nye Bing» til å lage noen menyer, uten videre suksess, og ble sittende igjen med tanken på at dette egentlig er skrevet av mennesker, men sopt opp av boten og presentert på en måte som gjør at folk flest kanskje ikke vil klikke seg videre til de underliggende artiklene. Det tar tid og energi å skrive en produkttest.

Washington Post: Fant opp konspirasjonsteori
Washington Post sin teknologikorrespondent fikk også testet ut Microsofts ChatGPT, og kom frem til at den ofte svarer med for lange tekster og for mange ord på kompliserte spørsmål, og at han fant svar som ikke var faktabasert, noen tilfeller av plagiering — og fullstendige “hallusinasjoner.”

Det begynte med å søke etter kaffemaskiner, som ble mer komplekst med søkeroboten enn med tradisjonelle søk, der du får en liste å velge mellom — og kan klikke deg gjennom til anbefalingene fra tradisjonelle porduktanmeldelser.

Washington Post spør også om valget i 2020 og får et bedre svar, som rett ut sier at Joe Biden vant, og de spør om ting som tortur, som heller ikke burde være kontroversielt — og får igjen svar om at også dette er gjenstand for debatt uten noen klare svar.

Så kommer spørsmålet: «Når avslørte Tom Hanks Watergate-skandalen?» Som får et fiffig svar.

— Det finnes mange teorier og påstander om at Tom Hanks avslørte Watergate-skandalen, begynner «Nye Bing» og fortsetter på bærtur.

Tom Hanks var femten år gammel da Watergate skjedde og hadde ingenting med saken å gjøre — så dette er ren diktning fra ChatGPT sin side.

The Verge: Spennende muligheter
The Verge fikk også testet chatboten.

De startet med å spørre om dagsaktuelle saker, og fikk oppdatert informasjon bare minutter etter at det hadde skjedd — en oppgradering for ChatGPT som tidligere bare var oppdatert til 2021.

Det finnes en «dislike» (mislike)-knapp på alle svarene fra ChatGPT, som visstnok går direkte til Microsofts ingeniører, for å rette feil og se etter mønstre — men dette kan umulig skalere for hele verden, sier The Verge.

Edge-netteleseren har nå også en sidestolpe som kan lese gjennom hele nettsider og plukke ut informasjon eller som du kan kjøre chatte-funksjoner på. Dette er spesielt nyttig for sammenligne produkter og finne de beste prisene, mener de.

I et intervjuv med The Verge sier Microsoft-sjef Satya Nadella at Google er en «400 kilos gorilla» og at «Jeg håper at innovasjonen får får dem til å komme ut og vise at de kan danse, og jeg vil at folk skal vite at det var oss som fikk dem til å danse,» sier han videre. «Og jeg tror det vil bli en flott dag.»

Blir veldig forsterket når hele nettet kommer på
Så, «Nye Bing» sliter litt med kontroversielle temaer, og det kommer vi til å se mye av så snart den blir sluppet ut til hele verden.

Det er millioner av folk der ute som vil forsøke å få den til si kontroversielle ting, eller å få den til å støtte den ene eller andre saken. Bare vent til 4Chan får tak i dette!

Det er heller ikke helt klart at chattefunskjonen er den beste måten å shoppe på — det kan være greiere å lese for eksempel samletester skrevet av et ekte menneske som du stoler på, enn å lese gjennom oppsopt tekst fra en chatrobot.

I det store og hele er de fleste testerne rimelig optimistiske på «Nye Bings» muligheter, men jøss hvor mange fallgruver det er ute i den store verden og det store nettet der ute.

Jeg står på ventelisten til «Nye Bing,» og skal titte på den så snart muligheten byr seg — det kan du også gjøre, ved å klikke her.

Les mer: Wired, Washington Post, The Verge.