VON KIM BELLARD
Wenn Sie sich in letzter Zeit mit künstlicher Intelligenz (KI) beschäftigen – und das sollten Sie auch –, dann haben Sie vielleicht angefangen, darüber nachzudenken, wie sie die Welt verändern wird. Im Hinblick auf seine möglichen Auswirkungen auf die Gesellschaft wird es mit der Einführung des Internets, der Erfindung der Druckerpresse und sogar mit der ersten Nutzung des Rads verglichen. Vielleicht haben Sie damit herumgespielt, vielleicht wissen Sie genug, um darüber nachzudenken, was es für Ihre Arbeit bedeuten könnte, aber eines sollten Sie nicht außer Acht lassen: Wie jede Technologie kann sie zum Guten oder Schlechten genutzt werden.
Wenn Sie dachten, Cyberangriffe/Cyberkriminalität seien schlimm, wenn sie von Menschen oder einfachen Robotern durchgeführt würden, dann warten Sie, bis Sie sehen, was KI tun kann. Und wie Ryan Health schrieb Axios„KI kann die moderne Medizin auch als Waffe gegen genau die Menschen einsetzen, die sie behandeln möchte.“
Möglicherweise brauchen wir DarkBERT und das Dark Web, um uns zu schützen.
Eine neue Studie hat gezeigt, wie künstliche Intelligenz viel effektivere und kostengünstigere Spear-Phishing-Kampagnen erstellen kann, und der Autor weist darauf hin, dass die Kampagnen auch „überzeugende Sprachklone von Einzelpersonen“ verwenden können. Er stellt fest: „Durch den Dialog mit Opfern in natürlicher Sprache können KI-Agenten Opfer in einem falschen Gefühl von Vertrauen und Vertrautheit wiegen, bevor sie Angriffe starten.“
Es ist noch schlimmer. Ein aktueller Artikel in Die Washington Post gewarnt:
Das ist erst der Anfang, befürchten Experten, Führungskräfte und Regierungsbeamte, denn Angreifer nutzen künstliche Intelligenz, um Software zu schreiben, die auf neuartige Weise in Unternehmensnetzwerke eindringen kann, indem sie Aussehen und Funktionalität verändert, um die Erkennung zu verhindern, und Daten durch scheinbar normale Prozesse zurückschleust . .
Die veraltete Architektur wichtiger Internetprotokolle, die ständige Überlagerung fehlerhafter Programme und jahrzehntelange wirtschaftliche und regulatorische Misserfolge stellen Armeen von Kriminellen, die nichts zu befürchten haben, gegen Unternehmen, die nicht einmal wissen, wie viele Maschinen sie haben. die veraltete Programme verwenden.
Auch das Gesundheitswesen sollte besorgt sein. Die Weltgesundheitsorganisation (WHO) hat gerade zur Vorsicht beim Einsatz von KI im Gesundheitswesen aufgerufen und darauf hingewiesen, dass KI unter anderem „Antworten generieren könnte, die für den Endbenutzer maßgeblich und glaubwürdig erscheinen können; Diese Antworten können jedoch völlig falsch sein oder schwerwiegende Fehler enthalten. Sie erzeugen und verbreiten äußerst überzeugende Fehlinformationen in Form von Text-, Audio- oder Bildinhalten, die für die Öffentlichkeit nur schwer von zuverlässigen Gesundheitsinhalten zu unterscheiden sind.“
Es wird schlimmer, bevor es besser wird; Und WaPo Der Artikel warnt: „KI wird Angreifern in absehbarer Zeit viel mehr Saft geben.“ Hier können Lösungen wie DarkBERT ansetzen.
Nun, ich weiß nicht viel über das Dark Web. Ich weiß vage, dass es existiert und dass Menschen es oft (aber nicht ausschließlich) für schlechte Dinge nutzen. Ich habe noch nie Tor verwendet, die Software, die oft verwendet wird, um Aktivitäten im Dark Web anonym zu halten. Aber einige clevere Forscher in Südkorea beschlossen, ein großes Sprachmodell (LLM) zu entwickeln, das auf Daten aus dem Dark Web trainiert wurde – sozusagen Feuer mit Feuer bekämpfen. Sie nennen es DarkBERT.
Die Forscher gingen diesen Weg, weil: „Neuere Forschungsergebnisse deuten darauf hin, dass es sie gibt.“
deutliche Unterschiede in der im Dark Web verwendeten Sprache im Vergleich zur Sprache des Surface Web.“ LLMs, die mit Surface Web-Daten trainiert wurden, übersahen oder missverstanden vieles von dem, was im Dark Web geschah, was einige Dark Web-Benutzer hoffen.
Ich werde nicht versuchen zu erklären, wie sie an die Daten kamen oder DarkBERT trainierten; Ihr Fazit ist wichtig: „Unsere Auswertungen zeigen, dass DarkBERT aktuelle Sprachmodelle übertrifft und als wertvolle Ressource für zukünftige Dark-Web-Forschung dienen kann.“
Sie demonstrierten die Wirksamkeit von DarkBERT gegen drei potenzielle Dark-Web-Probleme:
- Erkennung von Ransomware-Lecks: Identifizierung des „Verkaufs oder der Veröffentlichung privater, vertraulicher Daten durch Organisationen, die von Ransomware-Gruppen durchgesickert sind“.
- Bemerkenswerte Thread-Erkennung: „Automatisierung der Erkennung potenziell schädlicher Substanzen.“
Fasern.“ - Ableitung von Bedrohungsschlüsselwörtern: Ableitung „einer Reihe von Schlüsselwörtern, die semantisch mit Bedrohungen und Drogenverkäufen im Dark Web zusammenhängen“.
Bei jeder Aufgabe war DarkBERT effizienter als die Benchmark-Modelle.
Die Forscher veröffentlichen DarkBERT noch nicht in größerem Umfang und das Papier wurde noch nicht von Experten begutachtet. Sie wissen, dass noch viel Arbeit vor ihnen liegt: „In Zukunft planen wir auch, die Leistung der vorab trainierten domänenspezifischen Sprachmodelle im Dark Web mithilfe neuerer Architekturen zu verbessern und mehr Daten zu verarbeiten, um den Aufbau eines mehrsprachigen Sprachmodus zu ermöglichen.“ “
still, Was sie leisteten, war beeindruckend. Geeks für Geeks tobte:
DarkBERT erweist sich als Hoffnungsträger im unerbittlichen Kampf gegen Online-Böswilligkeit. Durch die Nutzung der Leistungsfähigkeit der Verarbeitung natürlicher Sprache und das Eintauchen in die mysteriöse Welt des Dark Web bietet dieses beeindruckende KI-Modell beispiellose Einblicke und ermöglicht es Cybersicherheitsexperten, Cyberkriminalität effektiver zu bekämpfen.
Es kann nicht früh genug kommen. Die New York Times berichtet, dass es bereits eine Welle von Unternehmern gibt, die Lösungen anbieten, um zu versuchen, KI-generierte Inhalte – Text, Audio, Bilder oder Videos – zu identifizieren, die für Deepfake oder andere schändliche Zwecke verwendet werden können. Aber im Artikel heißt es, dass es wie ein Antivirenprogramm sei; Mit der Verbesserung der KI-Abwehr verbessert sich auch die inhaltsgenerierende KI. „Die Authentizität von Inhalten wird ein großes gesamtgesellschaftliches Problem sein“, gab ein solcher Unternehmer zu.
Wenn sogar Sam Altman und andere KI-Führungskräfte eine KI-Aufsicht fordern, wissen Sie, dass wir uns alle darüber Sorgen machen sollten. Wie die WHO gewarnt hat, „besteht die Sorge, dass die Vorsicht, die normalerweise bei jeder neuen Technologie angebracht wäre, bei LLM nicht konsequent angewendet wird.“ Unsere Begeisterung über das Potenzial der künstlichen Intelligenz übersteigt unsere Fähigkeit, unsere Weisheit bei der Nutzung dieser Intelligenz sicherzustellen.
Einige Experten haben kürzlich die Einrichtung eines zwischenstaatlichen Gremiums für Informationstechnologie – einschließlich künstlicher Intelligenz unter anderem – gefordert, um „den Wissensstand über die möglichen gesellschaftlichen Auswirkungen digitaler Kommunikationstechnologien zu konsolidieren und zusammenzufassen“, aber dies scheint notwendig, aber kaum ausreichender Schritt. .
In ähnlicher Weise hat die WHO ihre eigenen Richtlinien für die Ethik und Governance von KI für die Gesundheit vorgeschlagen. Welche Aufsichtsbehörden, gesetzlichen Anforderungen oder sonstigen Schutzmaßnahmen wir auch immer einzuführen planen, sie liegen bereits hinter dem Zeitplan zurück.
In jedem Fall wird die Dark-Web-KI wahrscheinlich alle Gesetze, Vorschriften oder ethischen Richtlinien, denen die Gesellschaft zustimmen könnte, ignorieren und versuchen, sie zu umgehen, wo immer dies möglich ist. Deshalb bin ich auf der Suche nach Lösungen wie DarkBERT, die es mit jeder KI aufnehmen können, die da herauskommt.
Kim ist die ehemalige Leiterin des E-Marketings bei Master Plan Blues, Herausgeberin des verstorbenen und bedauerten Tincture.io und schreibt jetzt regelmäßig Beiträge für THCB