Sie sind hier: Home » Markt » Hinweise & Tipps

Generative KI-Tools mit großen Sicherheitsrisiken


Diese ChatGPT-Aktionen sollte man sich am Arbeitsplatz besser verkneifen
Unternehmen und Mitarbeiter sollten sich zweimal überlegen, welche Aufgaben sie ChatGPT und Co. übertragen



ChatGPT und Co. sind tolle Helferlein am Arbeitsplatz – und ein potenzielles Sicherheitsrisiko. Unternehmen und Mitarbeiter sollten sich deshalb zweimal überlegen, welche Aufgaben sie ChatGPT und Co. übertragen. Forcepoint erläutert, wofür sie generative KI-Tools bei der Arbeit besser nicht nutzen sollten.

Fragen beantworten, Texte schreiben und sogar Quellcode erstellen: Generative KI-Tools wie ChatGPT, Bard und Copilot haben erstaunliche Fähigkeiten und erfreuen sich auch am Arbeitsplatz großer Beliebtheit. Kein Wunder, denn sie erleichtern die Arbeit und können für einen pünktlichen Feierabend sorgen.

Was vielen nicht bewusst ist: Diese Tools stellen ein potenzielles Sicherheitsrisiko dar. Ihre Anbieter verwenden nämlich nicht nur Informationen, die im Internet frei verfügbar sind, um ihre KI-Modelle zu trainieren und den Output der Tools zu erzeugen, sondern auch die Eingaben der Nutzer. Daten, die man selbst eingibt, könnten so den Weg in die Antworten anderer Nutzer finden.

Antworten auf Kundenanfragen oder Support-Tickets schreiben: Solche Texte enthalten fast immer persönliche Informationen über Kunden und geistiges Eigentum des eigenen Unternehmens. Es droht die Gefahr, der Konkurrenz einen Vorteil zu verschaffen und Ärger mit den Datenschutzbehörden zu bekommen.

Inhalte für eine Produkteinführung oder andere wichtige Unternehmensankündigungen erstellen: Die neueste Akquisition ist noch supergeheim und muss unter Verschluss gehalten werden bis alle Unterschriften da sind? Durch den Prompt eines Dritten könnte sie in dessen Antwort auftauchen und so den Weg in die Öffentlichkeit finden.

Preise, die finanzielle Performance oder Budgets des eigenen Unternehmens analysieren: Wenn ein Mitbewerber nach Informationen über die finanzielle Situation des Unternehmens sucht, könnte er so fündig werden. Deshalb besser ein lokal gespeichertes Tool oder einen Taschenrechner benutzen.

>> Code debuggen oder neuen Code schreiben: Erstellt generative KI einen Code, kann er Schadsoftware oder eine Hintertür enthalten. Verwendet man sie zum Debugging, wandert der eigene Code unter Umständen in die Hände anderer Programmierer.

>> Personenbezogene Inhalte wie Lebensläufe oder unternehmensinterne Präsentationen und Dokumente zusammenfassen. Solche Inhalte haben bei ChatGPT und Co. nichts verloren. Zumal die Betreiber dieser Tools selbst das Opfer einer Datenpanne werden könnten und sensible Daten dann unter Umständen auch auf diesem Weg abfließen.

"Generative KI-Tools bergen große Sicherheitsrisiken. Deshalb einfach im Büro den Zugriff zu sperren, schießt aber über das Ziel hinaus und ist oft zwecklos. Solche Tools machen die Mitarbeiter zweifellos produktiver und diese greifen ohnehin häufig von außerhalb des Unternehmensnetzwerks darauf zu", erläutert Fabian Glöser, Team Lead Sales Engineering bei Forcepoint in Deutschland. "Besser ist es, die Mitarbeiter für die Risiken zu sensibilisieren und sie mit Data-Security-Lösungen vor folgenschweren Unachtsamkeiten im hektischen Arbeitsalltag zu schützen." (Forcepoint: ra)

eingetragen: 28.10.23
Newsletterlauf: 02.02.24

ForeScout: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>


Meldungen: Markt / Hinweise & Tipps

  • Ethik für KI-Technologien ein Muss

    Das Europäische Parlament hat kürzlich mit dem "AI-Act" die weltweit erste staatliche Regulierung von KI verabschiedet. Die Verordnung soll die Entwicklung und den Einsatz von KI-Technologien maßgeblich regeln, indem sie Transparenz, Rechenschaftspflichten und Sicherheitsstandards vorschreibt.

  • Prüfungsangst kommt nicht von ungefähr

    Stehen die Prüfer des Fiskus vor der Tür, steigt in fast jedem Unternehmen das Nervositätslevel. Die Besucher kündigen sich zwar rechtzeitig an, stellen ihren Gastgebern aber ausführliche Detailfragen und schauen sich interne Unterlagen genau an, was nicht nur Zeit und Nerven kostet, sondern manchmal auch sehr viel Geld. "Mit einer gründlichen Vorbereitung können Firmen, Freiberufler und Selbstständige der Kontrolle ihrer Buchführung durch das Finanzamt aber in aller Regel gelassen entgegenblicken", betont Prof. Dr. Christoph Juhn, Professor für Steuerrecht an der FOM Hochschule und geschäftsführender Partner der Kanzlei Juhn Partner.

  • Bausteine für ein erfolgreiches ESG-Reporting

    Das Europäische Parlament hat bereits zum Jahresende 2022 die EU-Richtlinie zur Nachhaltigkeitsberichterstattung (Corporate Sustainability Reporting Directive, kurz CSRD) angenommen. Zahlreiche Unternehmen - kapitalmarktorientierte, aber auch viele aus dem Mittelstand - sind spätestens Anfang 2025 rechtlich dazu verpflichtet, Informationen über die gesellschaftlichen und ökologischen Auswirkungen ihres Handelns zu veröffentlichen und nach einem klar vorgegebenen Kriterienkatalog Rechenschaft abzulegen.

  • Chaos bei der Umsetzung von NIS-2 droht

    Ein Blick zurück kann manchmal sehr lehrreich sein: Am 26. Mai 2018 trat die Datenschutz-Grundverordnung, kurz DSGVO, in Kraft - genauer gesagt endete die 24-monatige Übergangsfrist. Zwei Jahre hatten deutsche Unternehmen also Zeit, ihre Prozesse an die neue Richtlinie anzupassen.

  • Die Uhr für DORA-Compliance tickt

    Ab dem 17. Januar 2025, gilt der Digital Operational Resilience Act (DORA) EU-weit für Finanzunternehmen und ihre IT-Partner. Da es sich um eine Verordnung der europäischen Union handelt, findet die Umsetzung in nationales Recht nicht statt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen