Använder hackare AI för skadliga avsikter?

Författare: Roger Morrison
Skapelsedatum: 1 September 2021
Uppdatera Datum: 21 Juni 2024
Anonim
Använder hackare AI för skadliga avsikter? - Teknologi
Använder hackare AI för skadliga avsikter? - Teknologi

Innehåll


Källa: Sdecoret / Dreamstime.com

Hämtmat:

AI har potential att skydda data som aldrig förr, men har också potential att stjäla data som aldrig tidigare. Säkerhetsförmåner och hackare försöker dra nytta av denna teknik.

Cybersecurity-proffs tittar på artificiell intelligens (AI) med både entusiasm och skräck. Å ena sidan har det potentialen att lägga till helt nya lager av försvar för kritisk data och infrastruktur, men å andra sidan kan det också användas som ett kraftfullt vapen för att motverka dessa försvar utan att lämna ett spår.

Liksom alla tekniker har AI både styrkor som kan utnyttjas och svagheter som kan utnyttjas. Utmaningen för dagens säkerhetsexperter är att hålla ett steg före de onda killarna, som börjar med en klar förståelse av exakt hur AI kan användas som ett stötande datavapen.


Hacka AI

För en sak, säger Wired's Nicole Kobie, bör vi inse att AI själv, som alla datamiljöer, kan hackas. Kärnan i varje intelligent process finns en algoritm och algoritmer svarar på de data de får. Forskare visar redan hur neurala nätverk kan luras att tänka att en bild av en sköldpadda faktiskt är en bild av ett gevär och hur ett enkelt klistermärke på en stoppskylt kan få en autonom bil att köra rakt in i en korsning. Den här typen av manipulation är inte bara möjlig efter att AI har distribuerats, utan även när den tränas, vilket kan ge hackare förmågan att göra all slags förödelse utan att behöva beröra klientföretagets infrastruktur.

Det finns verkligen ingen brist på malcontents vars enda mål är att skada människor och orsaka terror, men det verkliga priset i hackspelet är lösenordsdetektering och alla stöld / utpressningsmöjligheter som följer med det. Förra året skapade Stevens Institute of Technology ett program för att demonstrera kraften som AI ger till denna process. Forskare infunderade ett antal kända program med lösenordskrackning med intelligenta algoritmer som utbildades för att gissa troliga kombinationer av bokstavsspecifika teckenkombinationer, och inom några minuter hade de skaffat mer än 10 miljoner LinkedIn-lösenord. När fler lösenord upptäcks kan de naturligtvis användas för att träna dessa inlärningsalgoritmer, så att de blir mer effektiva med tiden även om vanliga försvarsåtgärder, som rutinmässigt byter lösenord, används. (För mer om lösenord, se helt enkelt säkert: ändra lösenordskrav lättare för användare.)


Är det möjligt att dessa verktyg redan används av den kriminella underjordiska? Med molnbaserade AI-tjänster lättillgängliga och den mörka webben fungerar som ett clearinghus för all slags kryptoprogramvara, skulle det vara förvånande om detta inte var fallet. Hotanalysföretaget Darktrace säger att det ser tidiga tecken på populära skadliga program som TrickBot uppvisar konisk medvetenhet i deras uppdrag att stjäla data och låsa in system. De verkar veta vad de ska leta efter och hur man hittar den genom att studera målinfrastruktur och bestämmer sedan själva det bästa sättet att undvika upptäckt. Detta innebär att programmet inte längre behöver upprätthålla kontakten med hackaren genom kommandot och kontrollserver eller på annat sätt, vilket vanligtvis är ett av de mest effektiva sätten att spåra gärningsmannen.

Samtidigt börjar traditionella phishing-bedrägerier se mer och mer äkta ut, till stor del eftersom AI-verktyg kan göra att det initiala verkar komma från en pålitlig källa. Exempelvis är naturligt språkbearbetning utformad för att efterlikna mänskligt tal. I kombination med lättillgängliga data som verkställande namn och adresser kan det producera en missiv som är så realistisk att den kan lura även närstående. Den genomsnittliga konsumenten är lika mottaglig, med tanke på AI: s förmåga att bryta alla typer av data för att infusera en bedrägeri med personlig information.

Slå tillbaka

Som nämnts ovan är AI emellertid en tvåvägsgata. Även om det kan tillåta hackare att driva cirklar runt traditionella säkerhetssystem, gör det också nuvarande säkerhetssystem mycket effektivare. Enligt försäkringsjournalen kunde Microsoft fylla ett försök till hack av Azure-molnet nyligen när dess AI-infunderade säkerhetsregime upptäckte en falsk intrång från en avlägsen webbplats. Försöket skulle ha gått obemärkt under tidigare reglerbaserade protokoll, men AI: s förmåga att lära sig och anpassa sig till nya hot borde dramatiskt förbättra företagets förmåga att skydda sig även när data och infrastruktur skjuter förbi den traditionella brandväggen i molnet och internet saker. Samtliga toppmolnskyddsleverantörer implementerar aggressivt AI på sina säkerhetsfotar, eftersom ju tidigare det genomförs, desto mer kommer det att ha lärt sig när det möter AI-bemyndigade hack. (För mer information, se hur AI-framsteg påverkar säkerhet, cybersäkerhet och hackning.)

På detta sätt är AI bara den senaste upptrappningen i säkerhetskriget som har pågått i årtionden. När nya hot dyker upp, uppstår nya försvar för att möta dem, med samma underliggande teknologier som driver båda sidor.

Inga buggar, ingen stress - din steg-för-steg-guide för att skapa livsförändrad programvara utan att förstöra ditt liv

Du kan inte förbättra dina programmeringsfärdigheter när ingen bryr sig om mjukvarukvalitet.

Om något kommer AI troligen att påskynda denna process och samtidigt ta bort många av de praktiska aktiviteterna från mänskliga operatörer. Kommer detta att vara bra eller dåligt för dagens cyberkrigare? Förmodligen en blandning av både som de vita hattarna och de svarta hattarna ger upp muttrar och bultar för att koda sina attacker och försvar och koncentrera sig på de mer strategiska aspekterna av dagens cyberkrig.