Die Tech-Community war im Jahr 2023 in heller Aufregung, als eine Reihe von technologischen Meilensteinen und neuen KI-Tools für Schlagzeilen sorgten. In den letzten zwölf Monaten hat die Künstliche Intelligenz branchenübergreifend für Gesprächsstoff gesorgt und eine neue Ära eingeleitet.
Es ist fast zu offensichtlich, dass das Jahr 2023 als das Jahr in die Geschichte eingehen wird, in dem die generative KI aufkam, d. h. Tools, die auf riesigen Datensätzen trainiert werden und auf der Grundlage verschiedener Aufforderungen Ergebnisse erzeugen. Die jährliche Umfrage von McKinsey ergab, dass 79 % der Befragten mit generativer KI in Berührung gekommen sind, wobei 22 % der Befragten bestätigten, regelmäßig KI-Tools zu nutzen. Einige Highlights machten dieses Jahr zu einem sehr transformativen Jahr:
OpenAIs Einführung eines abonnementbasierten Modells von ChatGPT, das es Entwicklern von Drittanbietern ermöglicht, ChatGPT und Whisper (Voice-to-Text-Modell) über eine Pay-per-Use-API nahtlos in Anwendungen wie Home Assistants zu integrieren. Die Einführung von GPT4, einem robusteren und fortschrittlicheren großen Sprachmodell (LLM), das die Entwicklung der KI unterstreicht und die Fähigkeiten von ChatGPT durch die Einbeziehung von Bildverarbeitung erweitert.
KI könnte helfen, neue Heilmittel in der Medizin zu finden. NVIDIA hat sein Produktportfolio mit der Einführung von BioNeMo erweitert, einer hochentwickelten KI-gesteuerten Plattform zur Vorhersage der Strukturen von Proteinen - ein entscheidender Schritt zur Beschleunigung der Entwicklung neuer potenzieller Medikamente. Darüber hinaus hat NVIDIA seine Zusammenarbeit mit Microsoft ausgeweitet, um den Zugang zu seinen Produkten für Nutzer der Azure-Plattform zu vereinfachen.
In der Zwischenzeit hat AWS eine ehrgeizige Initiative namens "AI Ready" ins Leben gerufen, ein kostenloses Online-Schulungsprogramm, das sowohl Tech-Nerds als auch Nicht-Tech-Fachleuten grundlegende Fähigkeiten vermitteln soll, die für eine Karriere im Bereich der generativen KI unerlässlich sind. Diese Initiative geht nicht nur auf den dringenden Mangel an qualifizierten KI-Fachkräften ein, sondern setzt sich auch das Ziel, bis 2025 bis zu 2 Millionen Personen zu schulen und so den Weg für den aktuellen und zukünftigen Arbeitskräftebedarf zu ebnen. Darüber hinaus führt AWS Stipendienprogramme ein, um die KI-Ausbildung an High Schools und Universitäten weltweit zu fördern.
Google veröffentlichte Bard, seinen Chatbot, der als Gegenstück zu ChatGPT konzipiert ist, während Microsoft Pläne ankündigte, ChatGPT in seine Produktpalette zu integrieren. Google ließ sich nicht lumpen und stellte PaLM2 vor, ein fortschrittliches LLM, das als direkter Konkurrent zu OpenAIs GPT4 gedacht ist, so dass es zu einem hitzigen Rennen der generativen KI kam.
Unterdessen wurde HeyGen in Social-Media-Kreisen gefeiert, weil es generative KI einsetzt, um die Erstellung von Videoinhalten zu unterstützen. Dieser bahnbrechende Dienst ermöglicht es Urhebern, Avatare zu erstellen, die ihnen selbst ähneln, und Videoinhalte und deren Übersetzungen in zahlreichen Sprachen zu generieren, und zwar mit der Stimme des Urhebers. Beeindruckenderweise passt HeyGen automatisch Gesichtsausdrücke und Lippenbewegungen an, um sie mit dem übersetzten Inhalt zu synchronisieren, was die Lokalisierung von Inhalten revolutioniert.
Doch einige der diesjährigen Fortschritte sind eine Antwort auf bestimmte Bedenken. MIT-Forscher haben PhotoGuard entwickelt, ein bahnbrechendes Tool, das Fotos mit eindeutigen Tags kodieren kann, um unberechtigte Fälschungen zu verhindern. Indem es KI-Modelle dazu bringt, falsche Informationen für die Bilderzeugung zu verwenden, bietet PhotoGuard einen Schutz gegen den Missbrauch von visuellen Inhalten. Die University of Chicago präsentierte Glaze, ein Tool zur Erkennung und Codierung des unverwechselbaren Stils eines Künstlers in Fotos. Diese kodierten Bilder verhindern die Nachahmung des Stils des Originalkünstlers und sind ein wichtiger Schritt in der Entwicklung zum Schutz der künstlerischen Integrität in der digitalen Welt.
Mit Blick auf die Zukunft wird das Jahr 2024 die Entwicklung nicht aufhalten, und wir werden weiterhin zahlreiche KI-Tools entwickeln, auch wenn ihr Entwicklungstempo und ihre Akzeptanz aufgrund von Hardware-Knappheit und rechtlichen Bedenken in Bezug auf die Nutzung von KI und ihre Ergebnisse auf einige Hindernisse stoßen könnten. Die bevorstehende Durchsetzung des EU-KI-Gesetzes im Jahr 2024 setzt für Unternehmen, die mit KI-Systemen oder -Komponenten arbeiten, eine tickende Uhr, die sie möglicherweise dazu zwingt, sich eher früher als später an die Vorschriften anzupassen.
Wenn man unter der KI-Oberfläche kratzt, wird klar, dass der Hype bald verpuffen wird. LLMs sind in der Regel recht schwierig zu verwenden, da sie nicht in der Lage sind, den Kontext zu verstehen oder zuverlässige Ergebnisse zu liefern, was den breiteren Einsatz einschränkt. In diesem Jahr könnten die Unternehmen daher ihren Einsatz von LLMs zurückfahren.
Während die aktuellen Tools funktionaler und benutzerfreundlicher werden, wird die nächste Generation von generativen KI-Tools (Gen AI) weit über die Chatbots und Bildgeneratoren hinausgehen, die uns im Jahr 2023 erstaunt und manchmal auch erschreckt haben. Diese nächste Welle wird vielfältige Fähigkeiten aufweisen, die über textuelle Interaktion hinausgehen. Multimodale KI-Tools sind in der Lage, Informationen aus verschiedenen Datentypen wie Bildern, Videos, Audiodaten usw. zu verstehen und zu verarbeiten. Solche Fortschritte ermöglichen es Ingenieuren, KI-Agenten zu entwickeln, die auf ein breites Aufgabenspektrum zugeschnitten sind, während LLM-gestützte Agenten vor allem einen unterbrechungsfreien Back-Office-Betrieb ermöglichen.
Die Sprachfunktion von ChatGPT zum Beispiel rationalisiert Aufgaben, indem sie das manuelle Eintippen überflüssig macht. Die Nutzer können Befehle artikulieren, während das LLM Zusammenfassungen abruft, Diagramme erstellt, Steuerpläne entwickelt und vieles mehr. Wenn Gen AI uns die täglichen Aufgaben abnimmt, können wir als Menschen unseren Fokus auf strategische und innovative Projekte richten.
Googles Gemini, eine vielseitige KI, die im Dezember '23 auf den Markt gebracht wurde, soll nahtlos zwischen Text, Bildern, Video, Audio und Code unterscheiden. Dieses Produkt soll die Lücke zwischen Google und OpenAI schließen. Während Gemini mit soliden Benchmarks und einer fesselnden Videodemonstration an den Start ging, offenbarte es bei näherer Betrachtung Schwächen und ließ die Kritiker mit mehr Fragen als Antworten zurück.
Da die Komplexität von KI-Anwendungen höchstwahrscheinlich zunehmen wird, wird die Überwachung dieser KI-Tools immer wichtiger. Menschen mit Kenntnissen zur Analyse und Fehlerbehebung werden für den Umgang mit Risiken wie Fehlern und KI-Voreingenommenheit bei Planung, Aufgabenausführung und Reflexionsprozessen unerlässlich sein. Die menschliche Aufsicht wird ein wesentlicher Bestandteil der Lösung dieser Probleme bleiben. Gleichzeitig ist die Etablierung verantwortungsbewusster Gen-KI-Prinzipien in der gesamten Entwicklung ein notwendiges und entscheidendes Erfordernis.
Bei den bevorstehenden US-Wahlen werden wir höchstwahrscheinlich eine Zunahme manipulierter Videos erleben, in denen Politiker oder andere Personen Dinge sagen, die sie nie getan haben, was für Verbraucher und Wähler gleichermaßen ein großes Problem darstellt. Gesetzgeberische Maßnahmen sind in Sicht, vor allem in der EU, wo das endgültige EU-KI-Gesetz ab 2024 seine ersten Auswirkungen zeigen wird. Wir wissen jedoch noch nicht, wie sich dies auf große amerikanische Technologieunternehmen und ihre KI-Modelle auswirken wird. Es könnte sein, dass einige Bundesstaaten Gesetze einführen, aber im Großen und Ganzen wird es in den USA keine nennenswerte Regulierung geben.
Für das Jahr 2024 erwarten wir eine Zunahme von Start-ups und Unternehmen wie OpenAI, die größere KI-Modelle mit einer breiten Palette neuer Funktionen vorstellen. Nichtsdestotrotz wird die Debatte um KI und ihre Definition nicht abgeschlossen sein und von Sorgen über aktuelle Herausforderungen wie Desinformation und die Verbreitung von Deepfakes überschattet werden. Während die Befürchtungen, dass KI die Welt beherrscht, eher Hollywood-Material und Verschwörungshypes sind, sollten wir uns in nächster Zeit darauf konzentrieren, die gegenwärtigen Schäden zu bekämpfen, die durch Desinformation und manipulierte Medien verursacht werden.
Wir sind an Hochgeschwindigkeits-Internetverbindungen und reibungslos funktionierende Anwendungen gewöhnt, so dass wir kaum über die dafür benötigte Hardware nachdenken. GPU-Prozessoren sind für den KI-Betrieb unverzichtbar, und da immer mehr Unternehmen KI-Fähigkeiten anstreben, wird eine noch nie dagewesene Nachfrage nach GPUs entstehen, die in erster Linie von Unternehmen wie NVIDIA hergestellt werden, wodurch die Verfügbarkeit möglicherweise eingeschränkt wird. Die Verknappung der GPUs wird sich nicht nur auf die Wettbewerbsfähigkeit von Unternehmen auswirken, sondern auch auf Organisationen, die KI-Innovationen entwickeln.
Infolgedessen wird der Druck auf die GPU-Produktion und auf die Entwicklung kostengünstigerer und benutzerfreundlicherer Hardware-Alternativen zunehmen. Laufende Forschungsarbeiten in der Elektrotechnik in Stanford und anderen Einrichtungen erforschen bereits stromsparende Ersatzlösungen für bestehende Grafikprozessoren.
Es könnte eine Weile dauern, bis eine solche Lösung von der Forschungsphase zu einer breiten Verfügbarkeit gelangt, aber die Konzentration auf die Beschleunigung solcher Entwicklungen ist entscheidend, um den demokratischen Zugang zu KI-Technologien zu erhalten.
Im Jahr 2019 prognostizierte Gartner einen Anstieg der Low-Code/No-Code-Tools, die bis 2024 65 % der App-Entwicklung dominieren werden. Diese Vorhersage deckt sich mit dem Aufstieg von generativen KI-Tools wie ChatGPT, die die Erstellung und das Testen von Apps innerhalb von Minuten ermöglichen. Zwar werden die Berufe des Programmierers und Softwareingenieurs nicht verschwinden, da jemand diese KI-Tools entwickeln muss, aber das Jahr 2024 wird eine große Chance für Kreative bieten, die gerne Probleme lösen, aber nicht über die notwendigen technischen Fähigkeiten verfügen.
KI hat unbestreitbar das Leben von Schülern verändert, indem sie das Schreiben von Aufsätzen vereinfacht und bei den Hausaufgaben hilft, aber leider hat sie auch Cyberkriminelle befähigt. Die zunehmende Anzahl von KI-generiertem Code für Hacker im Jahr 2023 ist ein besorgniserregender Trend, der sich in den kommenden Monaten wahrscheinlich noch verstärken wird.
Eine besorgniserregende Neuerung, die in Online-Foren einige Aufmerksamkeit erregt hat, ist WormGPT, ein LLM, das versucht, ChatGPT zu kopieren, jedoch ohne ethische Sicherheitsvorkehrungen und mit böswilligen Absichten. Das Tool wurde Berichten zufolge zur Erleichterung von Hacking-Kampagnen eingesetzt und stellt einen bedeutenden Sprung im Arsenal der Cyberkriminellen dar.
Ist ein LLM erst einmal so aufgebaut, dass es jede beliebige bösartige Eingabeaufforderung ausführen kann, liegt das Problem in der Geschwindigkeit und dem Umfang des Betrugs, den ein solches KI-Sprachmodell produziert, insbesondere wenn es von professionellen Hackern als Waffe eingesetzt wird. Wir alle haben gesehen, wie schnell diese Modelle Text erzeugen und wie leicht sie bestimmte Rezepte nachahmen. Stellen Sie sich nun vor, dass es sich bei dieser Ausgabe um Cyberangriffe wie Phishing-E-Mails oder bösartigen Code handelt, den sogar kriminelle Anfänger erstellen können.
Aber ChatGPT stellt auch innerhalb von Organisationen ein Sicherheitsrisiko dar. Der überstürzte Einsatz von LLMs, in welcher Form auch immer, ist nicht ohne Risiken. Es wurde berichtet, dass es diesen gehypten KI-Tools an Datenschutzstandards mangelt und Hacker sogar in der Lage sein könnten, einfach an die internen Daten Ihres Unternehmens heranzukommen, falls ein Mitarbeiter sie an das LLM weitergegeben hat. Ein Datenleck ohne jegliches Eindringen in das Netzwerk.
Aber es gibt Hoffnung in Form eines Trends, der in beide Richtungen geht. KI ist seit Jahren ein fester Bestandteil der Cybersicherheit, und für das Jahr 2024 wird erwartet, dass sich KI weiterentwickelt und mit unseren Herausforderungen wächst. Unternehmen passen sich bereits an, indem sie Tools für maschinelles Lernen in ihre SOC-Plattformen und -Einrichtungen integrieren.
Es scheint ein uraltes Cyber-Märchen zu sein, aber die Lösung liegt in proaktiven Maßnahmen. IT-Sicherheitsexperten müssen sich darauf konzentrieren, durch KI-generierten Code verursachte Sicherheitsverletzungen zu reduzieren, indem sie ihre Netzwerke rigoros auf Anomalien überwachen. Darüber hinaus müssen Unternehmen klare Richtlinien für zugelassene KI-Tools und deren ordnungsgemäße Verwendung aufstellen, um die Einhaltung bestehender Datenschutz- und Cybersicherheitsstandards zu gewährleisten.
Mit Blick auf die Zukunft ist Wachsamkeit der Schlüssel. Prognosen zufolge werden Cyberkriminelle verstärkt KI und veraltete Sicherheitsmaßnahmen ausnutzen. Auch Managed-File-Transfer-Systeme und Dateiserver sind bedroht, was sie zu lukrativen Zielen macht. Die Stärkung der Abwehrmaßnahmen ist unerlässlich, insbesondere gegen potenzielle künftige Angriffe wie Torrents, die die Freigabe sensibler Informationen erleichtern.
Eine Verteidigungsstrategie, die sich als wirksam erwiesen hat, besteht darin, die Netzwerkaktivitäten und das Benutzerverhalten in Ihrem Unternehmen zu verstehen. Durch genaue Überwachung des erwarteten Nutzerverhaltens können geringfügige Anomalien auf eine Sicherheitsverletzung hindeuten. So könnte beispielsweise eine plötzliche und ungewöhnliche Menge an hochgeladenen Daten auf eine potenzielle Bedrohung hindeuten.
Etwas, das KI bereits heute erkennen kann, und wir erwarten, dass sie in Zukunft noch nuancierter sein wird, um die heimlichsten Hacker zu identifizieren.
Ethische, rechtliche und gesellschaftspolitische Fragen im Zusammenhang mit KI werden noch komplexer und schwieriger werden. Als Ergebnis politischer Diskussionen und Beschlüsse im Jahr 2023 wird das KI-Gesetz der EU in der ersten Hälfte des Jahres 2024 in Kraft treten und einen gewaltigen Schritt zur Regulierung des gesamten Spektrums der KI-Entwicklung, -Verbreitung und -Einführung in der EU darstellen. Diese neue Gesetzgebung verfolgt einen risikobasierten Ansatz und kategorisiert KI-Praktiken in inakzeptable, risikoreiche, risikoarme und risikofreie Stufen, die jeweils unterschiedlich stark reguliert werden. Bei Nichteinhaltung der Vorschriften drohen Bußgelder in Höhe von bis zu 30 Mio. EUR bzw. 6 % des weltweiten Umsatzes, was sowohl für große KI-Anbieter als auch für Neulinge auf dem Markt eine große Herausforderung darstellt.
Das neue Jahr wird auch die Notwendigkeit einer internationalen Zusammenarbeit bei der KI-Sicherheit deutlich machen. Während die EU bei der KI-Gesetzgebung eine Vorreiterrolle spielt, haben Länder wie die USA und das Vereinigte Königreich dieses Thema auf andere Weise angegangen. Die Executive Order der Biden-Administration vom Oktober 2023 skizzierte einen ganzheitlichen Ansatz, um vertrauenswürdige KI zu schaffen, und fiel mit dem von Großbritannien veranstalteten internationalen KI-Sicherheitsgipfel zusammen, der in die Erklärung von Bletchley Park mündete und den Beginn einiger gemeinsamer Bemühungen in dieser Angelegenheit signalisierte. Das Vereinigte Königreich und andere Länder kündigten während und im Umfeld des Gipfels Maßnahmen zur KI-Regulierung an und schufen damit die Voraussetzungen für weitere Diskussionen und potenzielle Gipfeltreffen, die sich mit der Regulierung und Sicherheit von KI befassen. Wenn man das übliche Tempo des politischen Apparats kennt, könnte die Entwicklung neuer Technologien bereits die Ziellinie erreicht haben, bevor die Politiker wissen, welche Strecke sie noch zurücklegen müssen. Um Schritt zu halten, sind für Mitte und Ende dieses Jahres bereits zwei KI-Sicherheitsgipfel geplant, auf denen 28 Länder, darunter die Vereinigten Staaten, China und die Europäische Union, die jüngsten Entwicklungen verfolgen werden.
Es besteht kein Zweifel daran, dass generative KI die Cybersicherheitslandschaft in erheblichem Maße verändern wird. Im Jahr 2024 sind unsere Aussichten für KI und ihre Auswirkungen auf den Rest der Welt jedoch weiterhin optimistisch. 2023 war ein einziger großer Hype, aber wir werden etwas weniger wahnhaft sein und uns mehr auf die Zukunft konzentrieren. Das kommende Jahr wird die Geburtsstunde mehrerer neuer KI-Modelle mit einer Vielzahl von Fähigkeiten sein, die sowohl neue Risiken als auch große Chancen bieten. Kostenerwägungen, die begrenzte Produktion von Hardware und behördliche Vorschriften werden einen wesentlichen Einfluss auf die Einführung von KI-Tools in Unternehmen haben und den Kurs der allgemeinen Integration und Auswirkung von KI in Organisationen steuern. Der Umgang mit diesen Entwicklungen wird im Laufe des Jahres zweifellos die Rolle der KI bei der Förderung von Innovation und Effizienz in allen Branchen und insbesondere im Bereich der Cybersicherheit beeinflussen.
Wir sind ein dynamisches Team von kreativen Strategen und digitalen Experten, die sich dafür einsetzen, das Wort über Cybersicherheit zu verbreiten. Wir tun mehr als nur ein Netzwerkerkennungs- und Reaktionssystem zu verkaufen; wir halten unsere Finger am Puls der Cybertrends und teilen das Wissen, das wir bei Muninn haben.
Abonnieren Sie unseren Newsletter, um neue Beiträge direkt in Ihrem Posteingang zu erhalten