Cybercriminelen gebruiken kunstmatige intelligentie om meer uitgebreide schema's uit te voeren. Ze richten zich op alles van pensioenbesparingen tot bedrijfsgeheimen metCybercriminelen gebruiken kunstmatige intelligentie om meer uitgebreide schema's uit te voeren. Ze richten zich op alles van pensioenbesparingen tot bedrijfsgeheimen met

AI geeft cybercriminaliteit een enorme impuls nu oplichting sneller, goedkoper en moeilijker te herkennen groeit

Cybercriminelen gebruiken kunstmatige intelligentie om meer uitgebreide oplichting te plegen. Ze richten zich op alles, van pensioenspaargeld tot bedrijfsgeheimen, met methoden die steeds moeilijker te herkennen zijn.

Dezelfde technologie die advertenties op maat maakt voor online shoppers wordt nu door kwaadwillenden gebruikt om persoonlijke gegevens te verzamelen en snel aangepaste oplichting te lanceren. Heel snel zelfs.

Grote AI-bedrijven zoals Anthropic, OpenAI en Google melden dat criminelen hun platforms gebruiken om complexe phishing-operaties te orkestreren, schadelijke software te ontwikkelen en verschillende digitale aanvallen uit te voeren. Beveiligingsspecialisten waarschuwen dat criminelen ook valse audio- en videofragmenten van bedrijfsleiders produceren om werknemers te misleiden en gevoelige informatie te ontfutselen.

Bedrijven en overheidsinstanties kunnen binnenkort worden geconfronteerd met zwermen AI-aangedreven systemen die zwakke plekken in computernetwerken kunnen ontdekken en vervolgens aanvallen kunnen plannen en uitvoeren met bijna geen menselijke hulp.

De technologie verandert hoe criminelen online opereren. Alice Marwick leidt onderzoek bij Data & Society, een onafhankelijke technologieonderzoeksorganisatie. Ze vertelde de Wall Street Journal dat de grootste verschuiving te maken heeft met omvang en bereik. "De echte verandering is reikwijdte en schaal. Oplichting is groter, gerichter, overtuigender."

Brian Singer is een doctorandus aan Carnegie Mellon University. Hij bestudeert hoe grote taalmodellen worden gebruikt bij cyberaanvallen en verdediging. Zijn schatting? De helft tot driekwart van de wereldwijde spam- en phishingberichten komt nu van AI-systemen.

De aanvallen zelf zijn geloofwaardiger geworden. AI-systemen die zijn getraind op bedrijfscommunicatie kunnen duizenden berichten produceren die natuurlijk klinken en overeenkomen met de stijl van een bedrijf. Ze kopiëren hoe leidinggevenden schrijven. Ze vermelden recent nieuws dat in openbare registers is gevonden.

De technologie helpt buitenlandse oplichters ook taalfouten te verbergen die hun pogingen vroeger duidelijk maakten. Criminelen kunnen slachtoffers nabootsen via valse video's en gekopieerde stemmen. Ze gebruiken dezelfde valse identiteit om meerdere mensen tegelijk te targeten.

John Hultquist is hoofdanalist bij Google Threat Intelligence Group. Hij omschrijft de belangrijkste verschuiving als "geloofwaardigheid op schaal."

Kwaadwillenden worden ook beter in het kiezen van doelwitten. Ze gebruiken AI om sociale media te doorzoeken en mensen te vinden die met grote levensmoeilijkheden te maken hebben. Echtscheiding, sterfgevallen in de familie, het verliezen van een baan en situaties die iemand kwetsbaarder kunnen maken voor romantische trucs, beleggingsfraude of valse vacatures.

Dark web markten verlagen toegangsdrempel

De toegangsdrempel voor cybercriminaliteit is gedaald. Ondergrondse markten verkopen of verhuren nu AI-tools voor crimineel werk voor slechts $90 per maand. Nicolas Christin leidt Carnegie Mellon's afdeling software en maatschappelijke systemen.

Hij zei dat deze platforms komen met verschillende prijsniveaus en klantenondersteuning. "Ontwikkelaars verkopen abonnementen op aanvalsplatforms met gelaagde prijzen en klantenondersteuning."

Deze diensten gaan onder namen als WormGPT, FraudGPT en DarkGPT. Ze kunnen schadelijke software en phishingcampagnes creëren. Sommige bevatten zelfs lesmateriaal over hacktechnieken.

Margaret Cunningham is vice-president van beveiliging en AI-strategie bij Darktrace, een beveiligingsbedrijf. Ze zegt dat het simpel is. "Je hoeft niet te weten hoe je moet coderen, alleen waar je de tool kunt vinden."

Er is een recente ontwikkeling genaamd vibe-coding of vibe-hacking. Het zou aspirant-criminelen in staat kunnen stellen AI te gebruiken om hun eigen kwaadaardige programma's te maken in plaats van ze van ondergrondse bronnen te kopen. Anthropic onthulde eerder dit jaar dat het verschillende pogingen had gestopt om zijn Claude AI te gebruiken voor het creëren van ransomware door "criminelen met weinig technische vaardigheden."

Criminele operaties zelf veranderen. Cybercriminaliteit werkt al jaren als een zakelijke marktplaats, volgens experts. Een typische ransomware-operatie omvatte verschillende groepen. Toegangsmakelaars die inbraken in bedrijfsnetwerken en toegang verkochten. Inbraakteams die door systemen bewogen en gegevens stalen. En ransomware-as-a-service providers die de malware vrijgaven, onderhandelingen voerden en het geld verdeelden.

Snelheid en automatisering hervormen criminele netwerken

AI heeft de snelheid, omvang en beschikbaarheid van dit systeem vergroot. Werk dat voorheen door mensen met technische kennis werd gedaan, kan nu automatisch draaien. Dit stelt deze groepen in staat te opereren met minder mensen, minder risico en hogere winsten. "Zie het als de volgende laag van industrialisatie. AI verhoogt de doorvoer zonder meer geschoolde arbeid te vereisen," legt Christin uit.

Kan AI volledig zelfstandig aanvallen lanceren? Nog niet helemaal. Experts vergelijken de situatie met de push voor volledig zelfrijdende voertuigen. De eerste 95% is bereikt. Maar het laatste deel dat een auto overal, altijd zelf zou laten rijden, blijft buiten bereik.

Onderzoekers testen de hackmogelijkheden van AI in laboratoriumomgevingen. Een team bij Carnegie Mellon, ondersteund door Anthropic, heeft eerder dit jaar de beroemde Equifax-datalek nagebootst met AI. Singer leidde het werk bij Carnegie Mellon's CyLab Security and Privacy Institute. Hij noemt het "een grote sprong."

Criminelen misbruiken AI voor schadelijke doeleinden. Maar AI-bedrijven zeggen dat dezelfde tools organisaties kunnen helpen hun digitale verdediging te versterken.

Anthropic en OpenAI bouwen AI-systemen die continu softwarecode kunnen onderzoeken om zwakke plekken te vinden die criminelen zouden kunnen misbruiken. Mensen moeten eventuele oplossingen nog steeds goedkeuren. Een recent AI-programma ontwikkeld door Stanford-onderzoekers presteerde beter dan sommige menselijke testers bij het zoeken naar beveiligingsproblemen in een netwerk.

Zelfs AI zal niet alle inbreuken stoppen. Daarom moeten organisaties zich richten op het creëren van robuuste netwerken die tijdens aanvallen blijven werken, zegt Hultquist.

Als je dit leest, ben je al voorop. Blijf daar met onze nieuwsbrief.

Marktkans
Sleepless AI logo
Sleepless AI koers(AI)
$0.03821
$0.03821$0.03821
+1.29%
USD
Sleepless AI (AI) live prijsgrafiek
Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met service@support.mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.