- AI-assistent som Alexa och Siri kan vara sårbar för subsoniska kommandon.
- Studien säger att de inte kan höras av människor, Siri och Alexa.
- I teorin kan cyberkriminella använda dessa kommandon för att köpa produkter, starta webbplatser och mer.
Vi har redan sett att röstbaserade AI-tjänster som Google Assistant kan av misstag stängas av genom att lyssna på en TV-reklam. Google Assistant, tillsammans med sina rivaler som Apples Siri och Amazonas Alexa, kunde inte höras av människor.
Enligt The New York Times ledde forskningen av lag på Berkeley och Princeton University i USA, tillsammans med Kinas Zhejiang University. Google Assistant, Siri och Alexa, och ersätta dem med ljudfiler som inte kan höras av det mänskliga örat. De använder emellertid maskinprogrammet för lärande som används för att driva digitala assistenter.
Så vad betyder det? I teorin hävdar forskarna att cyberkriminella kan använda dessa subsoniska kommandon för att orsaka all slags förödelse. De kan lägga den i en YouTube-video eller -webbplats som kan få Google Assistant att beställa online utan ditt samtycke, starta skadliga webbplatser och mer. Om det finns ett ljud så här kan du behöva stänga dörren för att låsa upp den.
Den goda nyheten är att det inte finns några bevis för att de är i första hand. När du blir ombedd att kommentera att assistenten redan har sätt att besegra sådana kommandon. Apple och Amazon har kommenterat och hävdat att de har vidtagit åtgärder för att hantera dessa problem. Förhoppningsvis fortsätter dessa företag att utveckla säkerhetsåtgärder för att besegra sådana hot.