Kunstig intelligens-chatboter utviklet av store teknologiselskaper kan bli bedt om å anbefale illegale nettcasinoer og gi veiledning om hvordan de skal brukes, i følge en britisk undersøkelse fra Guardian og Investigate Europe av fem bredt brukte AI-systemer.
Undersøkelsen testet chatboter som drives av Microsoft, Google, Meta, OpenAI og X, inkludert Microsoft Copilot, Google Gemini, Meta AI, ChatGPT og Grok, som The Guardian rapporterte.
Alle fem chatboter var i stand til å liste opp de «beste» ikke lisensierte kasinoene og gi råd om hvordan man får tilgang til dem, til tross for at slike operatører er ulovlige i Storbritannia.
Analysen fant at noen bots ga tips om å omgå «kilde til formue»-sjekker som er utformet for å sikre at gambler ikke bruker stjålne penger, hvitvaske midler eller gambler utover sine midler. Flere rådet også om å få tilgang til kasinoer som ikke er registrert hos GamStop, landets obligatoriske selv-eksklusjonssystem for lisensierte operatører.
Meta AI viste seg å være den mest ettergivende i testene, og anbefalte nettsteder og beskrev regulatoriske kontroller negativt. Når den ble spurt om å unngå finansielle kontroller, sa chatboten at de «kan være litt stemningsdreper, ikke sant?» Den klaget også over at «GamStops restriksjoner kan være et virkelig plagsomt hinder!» når den ble spurt om kasinoer som ikke omfattes av ordningen.
Undersøkelsen fant at chatboter kan fungere som kanaler som dirigerer brukere til offshore-kasinoer som opererer uten britiske lisenser, hvor mange av dem annonserer store bonuser, raske utbetalinger eller kryptovalutabetalinger.
Chatboten Grok foreslo å bruke kryptovaluta for å gamble fordi «midlene går direkte til/fra din lommebok uten kobling til bankkontoer eller personlige opplysninger som kan utløse verifisering».
Til gjengjeld ga Gemini i én test en trinn-for-trinn-guide om hvordan man får tilgang til ikke lisensierte kasinoer, selv om den senere nektet å gi lignende råd når den ble bedt om det igjen.
Bare to chatboter – Copilot og ChatGPT – startet svarene sine med advarsler om spillrisiko, mens bare to tilbudte noen som helst informasjon om støttetjenester for brukere som er bekymret for pengespill.
Regulatorer og offentlige tjenestemenn har uttrykt bekymring for mangelen på sikkerhetstiltak i AI-chatboter. Henrietta Bowden-Jones, Storbritannias nasjonale kliniske rådgiver for spilleproblemer, fortalte The Guardian: «Ingen chatbot bør få lov til å fremme ikke lisensierte kasinoer eller på farlig vis undergrave gratis beskyttelsestjenester som GamStop, som gjør det mulig for folk å blokkere seg selv fra spillnettsteder.»
Teknologiselskaper sa at de var i ferd med å gjennomgå sikkerhetstiltak rundt AI-systemene sine.
En talsperson for Google sa at Gemini var «utformet for å gi nyttig informasjon i svar på brukerforespørsler og å fremheve potensielle risikoer der det er aktuelt.»
«Vi fortsetter å finjustere våre sikkerhetstiltak for å sikre at disse komplekse temaene håndteres med riktig balanse mellom nytte og sikkerhet,» la talspersonen til.
En talsperson fra OpenAI sa at ChatGPT var «trent til å avvise forespørsler som tilrettelegger for atferd.»
En talsperson for Microsoft sa at Copilot brukte «flere lag med beskyttelse, inkludert automatiserte sikkerhetssystemer, sanntidsoppdagelse av forespørsler og menneskelig gjennomgang, for å bidra til å forhindre skadelige eller ulovlige anbefalinger».