FBI rekommenderar att du kommer på ett ”hemligt ord eller en hemlig fras” för att se till att din familj vet att du är du och inte någon AI-kopia.
Föreställ dig en situation där någon ringer till en äldre släkting och det verkar vara ett favoritbarnbarn i samtalet som tigger om pengar för att hjälpa till i en nödsituation. Det låter precis som barnet och problemet låter verkligen akut; Vad ska de göra? FBI föreslår att de kanske vill säga något i stil med ”Vad säger åsnan till jordsvinet?”
Trots snabba framsteg är noggrannheten hos generativ AI när det gäller att göra bilder och videor fortfarande ibland långt ifrån målet, men röståtergivningen är redan anmärkningsvärt bra. I och med att användningen av röstkloning ökar, för att utföra bedrägerier och bedrägliga påståenden, har US Federal Bureau of Investigation utfärdat tips för att skydda dig själv, inklusive rådet att du bör skapa ett hemligt ord eller en fras som bara du och din familj känner till.
Vokalkloning är en process där olika ljudklipp av en person som talar används för att träna en generativ AI-modell så att den sedan kan användas för att replikera den personens normala talmönster, ton, klangfärg och så vidare.
Man behöver inte vara expert på AI för att se hur en sådan sak kan missbrukas för skändliga ändamål. Och även om man skulle behöva äkta klipp av din röst och ditt talmanér för att klona dig, betyder det att det finns en chans att någon där ute kan försöka använda ”dig” för att genomföra en bluff av något slag.
Det är här bevis på mänsklighet kommer in – i huvudsak är det ett lösenord eller en fras mellan dig och din familj, eller mer exakt, ett MFA-system (multifaktorautentisering) där din röst är en faktor och lösenordet är en annan. Ett generativt AI-system kommer med största sannolikhet att stöta på problem med det bisarra och meningslösa eftersom det inte skulle falla i linje med de vanliga linjerna för förutsägbarhet när det gäller att prata.
Att fråga ”Vad säger åsnan till jordsvinet?” kan tyckas vara inledningsmeningen till ett skämt, men om du förväntar dig ”onsdag eftermiddag i Nepal” som svar är det få generativa system om något som kommer att ge det svaret. Så när du inte får det svaret kan du omedelbart bli misstänksam om samtalets äkthet.
Det är inte ett idiotsäkert system för att fånga en AI-bluff, eftersom det kräver att alla inblandade parter kommer ihåg lösenordet och rätt svar och kan göra det med ett ögonblicks varsel.
Och så finns det situationer där det inte är en familjemedlem som ringer, utan chefen eller din chef på företaget du arbetar för. Förväntas man ha ett unikt lösenord för alla där, för att säkerställa att företaget aldrig faller för en bluff?
AI-röstkloning är utan tvekan en naturlig förlängning av den vanliga e-postbluffen, där en högre chef verkar be dig att skicka pengar eller känslig information till dem – om den personen är allmänt känd och klipp av dem när de pratar kan komma från källor, skulle sådana bedrägerier vara relativt lätta att genomföra.
Jag tror inte att det finns någon perfekt lösning för att motverka alla AI-röstbedrägerier, tyvärr. Även om de främsta företagen inom artificiell intelligens, som OpenAI, Google och Microsoft, integrerar system som alltid gör det uppenbart att det är en AI som ”pratar” och inte en riktig person, kommer det alltid att finnas människor där ute som kan skapa en liknande modell som inte gör det.
LÄMNA KOMMENTAR