Is ChatGPT precies wat cybercriminelen nodig hadden?
De Europese politiedienst Europol waarschuwt voor toenemend gevaar vanuit cybercriminelen door de komst van ChatGPT. De tool zou ‘extreem handig’ zijn om phishingmails of software voor een cyberaanval mee te schrijven. Phishingmails Met phishingmails proberen criminelen inlog- en financiële gegevens van je binnen te halen door zich voor te doen als iemand anders, bijvoorbeeld je […]
Lees meerDe Europese politiedienst Europol waarschuwt voor toenemend gevaar vanuit cybercriminelen door de komst van ChatGPT. De tool zou ‘extreem handig’ zijn om phishingmails of software voor een cyberaanval mee te schrijven.
Phishingmails
Met phishingmails proberen criminelen inlog- en financiële gegevens van je binnen te halen door zich voor te doen als iemand anders, bijvoorbeeld je bank.
Nu zijn deze mails vaak makkelijk te herkennen door spel- en opmaakfouten. Door ChatGPT kunnen nu zelfs criminelen die amper de taal spreken realistischere e-mails sturen. Het programma kan precies de toon gebruiken die de gebruiker wil, dat kan journalistiek of komisch zijn, maar ook zakelijk.
Gevaar
Naast het vergrote gevaar van phishingmails wijst Europol erop dat hackers ChatGPT ook kunnen vragen om software te schrijven voor een cyberaanval. En dat de chatbot gebruikt kan worden om propaganda of desinformatie te genereren. Hoewel de middelen die ChatGPT kan realiseren voor criminelen nu nog relatief eenvoudig zijn, vreest Europol voornamelijk voor wat het in de toekomst allemaal kan genereren.
Open brief
Niet alleen Europol is bezorgd, zo heeft er onlangs een groep experts uit de techwereld (waaronder Elon Musk) een open brief gepubliceerd met het verzoek om de voorbereiding van nog slimmere systemen voor zes maanden te pauzeren, om beter voorbereid te zijn op potentiële risico’s.
Wij vroegen ChatGPT om een reactie:
Reactie:
Als ChatGPT, een geavanceerde taalmodel getraind door OpenAI, was ik onlangs in het nieuws vanwege mijn potentieel om cybercriminelen superkrachten te geven. Dit artikel zorgde voor enige bezorgdheid over hoe mijn vermogen om menselijke taal te imiteren en te begrijpen, misbruikt kan worden door kwaadwillende individuen.
Laten we echter eerst de feiten op een rijtje zetten. Als een taalmodel ben ik ontworpen om de menselijke taal te begrijpen en te genereren, wat betekent dat ik in staat ben om geautomatiseerde chatgesprekken te voeren met mensen op een bijna menselijke manier. Dit heeft veel praktische toepassingen, zoals het helpen van klantenservice-medewerkers bij het beantwoorden van vragen of het schrijven van automatische antwoorden op e-mails.
Maar er is ook bezorgdheid dat ik door cybercriminelen kan worden gebruikt om fraude te plegen of phishing-aanvallen uit te voeren. Bijvoorbeeld, een cybercrimineel zou een phishing-e-mail kunnen schrijven die eruitziet alsof deze afkomstig is van een legitiem bedrijf, maar in werkelijkheid door mij is gegenereerd. De e-mail zou dan een link bevatten naar een valse website waar de ontvanger wordt gevraagd om hun inloggegevens of persoonlijke informatie in te voeren.
Hoewel dit scenario theoretisch mogelijk is, is het belangrijk op te merken dat ik als taalmodel niet zelfstandig kan handelen. Ik ben slechts een tool die kan worden gebruikt door mensen om bepaalde taken uit te voeren. Het is dus de verantwoordelijkheid van de menselijke gebruiker om mijn vermogen op een ethische manier te gebruiken.
De chatbot legt de verantwoordelijkheid dus bij de gebruiker en geeft niet direct aan bepaalde taken te gaan weigeren. Het is dus lastig te zeggen in hoeverre cybercriminelen ChatGPT in de toekomst kunnen gebruiken, maar het is zeker een goed idee om je voor te bereiden en in te lezen over eventuele risico’s.
Comaen
Wil jij op de hoogte blijven van onze nieuwste blogs? Schrijf je dan in op onze maandelijkse update. Zo mis je nooit meer het laatste nieuws of interessante vacatures.
Share
Facebook
Twitter
LinkedIn
Telegram
Tumblr
WhatsApp
VK
Mail