En begejstret summen spredte sig i teknologisamfundet i løbet af 2023, da en række teknologiske milepæle og nye AI-værktøjer skabte overskrifter. I løbet af de sidste tolv måneder har kunstig intelligens sat gang i samtaler på tværs af brancher og har sat en ny æra i gang.
Det er næsten for indlysende, at 2023 vil blive husket som året, hvor generativ AI dukkede op, værktøjer, der er trænet på store datasæt, og som skaber output baseret på forskellige opfordringer. McKinseys årlige undersøgelse viste en svimlende 79% eksponering for generativ AI blandt respondenterne, og 22% af dem bekræftede regelmæssig brug af AI-værktøjer. Nogle højdepunkter gjorde dette til et meget transformativt år:
OpenAI's lancering af en abonnementsbaseret model af ChatGPT, der giver tredjepartsudviklere mulighed for problemfrit at integrere ChatGPT og Whisper (stemme-til-tekst-model) i applikationer som f.eks. hjemmeassistenter gennem en API med betaling pr. brug. Deres introduktion af GPT4, en mere robust og avanceret stor sprogmodel (LLM), der styrker udviklingen af AI og udvider ChatGPT's muligheder ved at inkorporere billedbehandling.
AI kan hjælpe med at finde nye kure inden for medicin. NVIDIA har udvidet sin produktportefølje med introduktionen af BioNeMo, en sofistikeret AI-drevet platform, der er beregnet til at forudsige proteiners strukturer, et afgørende skridt i at fremskynde udviklingen af nye potentielle lægemidler. Derudover har NVIDIA udvidet sit samarbejde med Microsoft med det formål at strømline adgangen til sine produkter for brugere på Azure-platformen.
I mellemtiden har AWS lanceret et ambitiøst initiativ ved navn "AI Ready", et gratis online-træningsprogram, der har til formål at hjælpe både tech-nørder og ikke-tech-fagfolk med grundlæggende færdigheder, der er afgørende for en karriere inden for generativ AI. Dette initiativ adresserer ikke kun den presserende mangel på kvalificerede AI-fagfolk, men sætter også et mål om at uddanne op til 2 millioner personer inden 2025, hvilket baner vejen for nuværende og fremtidige behov for arbejdsstyrke. Derudover udruller AWS stipendieprogrammer for at fremme AI-uddannelse på gymnasier og universiteter i hele verden.
Googles udgivelse af Bard, dens chatbot designet som en modpart til ChatGPT, mens Microsoft annoncerede planer om at integrere ChatGPT i sit produktsortiment. For ikke at blive overgået introducerede Google PaLM2, en avanceret LLM, der er tænkt som en direkte konkurrent til OpenAI's GPT4, hvilket gør det til et ophedet generativt AI-kapløb.
I mellemtiden blev HeyGen hyldet i de sociale mediekredse, fordi den bruger generativ AI til at styrke skabere af videoindhold. Denne banebrydende tjeneste giver skabere mulighed for at skabe avatarer, der ligner dem selv, og generere videoindhold og oversættelser af det på adskillige sprog, alt sammen med skaberens egen stemme. På imponerende vis justerer HeyGen automatisk ansigtsudtryk og læbebevægelser, så de synkroniseres med det oversatte indhold, hvilket revolutionerer lokalisering af indhold.
Men nogle af dette års fremskridt kommer som svar på visse bekymringer. MIT-forskere udviklede PhotoGuard, et banebrydende værktøj, der er i stand til at kode fotos med unikke tags for at forhindre deepfakes uden samtykke. Ved at narre AI-modeller til at bruge forkerte oplysninger til billedgenerering tilbyder PhotoGuard et værn mod misbrug af visuelt indhold. University of Chicago præsenterede Glaze, et værktøj, der er designet til at opdage og kode en kunstners karakteristiske stil i fotos. Disse kodede billeder afskrækker eller forhindrer efterligning af den oprindelige kunstners stil, hvilket er et vigtigt skridt i udviklingen for at beskytte kunstnerisk integritet i den digitale verden.
Når vi ser fremad, vil 2024 ikke sætte en stopper for udviklingen, og vi vil fortsat se en lang række AI-værktøjer blive skabt, selvom deres udviklings- og adoptionstempo kan møde nogle forhindringer på grund af hardwaremangel og juridiske bekymringer omkring brugen af AI og dens resultater. Den forestående håndhævelse af EU's AI-lov i 2024 sætter et tikkende ur for virksomheder, der er involveret i AI-systemer eller -komponenter, og tvinger dem potentielt til at tilpasse sig reglerne snarere før end senere.
Når man kradser i AI-overfladen, står det klart, at hypen snart vil fordampe. LLM'er er typisk ret vanskelige at bruge, fordi de ikke er i stand til at forstå konteksten eller levere pålidelige resultater, hvilket begrænser den bredere anvendelse. I år vil vi derfor måske se virksomheder, der neddrosler deres brug af LLM'er.
Mens de nuværende værktøjer bliver mere funktionelle og brugervenlige, vil den næste generation af generative AI-værktøjer (Gen AI) gå langt videre end de chatbots og billedgeneratorer, der har forbløffet og nogle gange skræmt os i 2023. Denne næste bølge vil vise mangefacetterede evner ud over tekstuel interaktion. Multimodale AI-værktøjer er dygtige til at forstå og behandle information fra forskellige datatyper som billeder, videoer, lyd og meget mere. Sådanne fremskridt gør det muligt for ingeniører at bygge AI-agenter, der er skræddersyet til et spektrum af opgaver, mens LLM-drevne agenter for det meste letter uafbrudt backoffice-drift.
For eksempel strømliner ChatGPT's stemmefunktion opgaver ved at eliminere manuel indtastning. Brugerne kan formulere kommandoer, mens LLM henter oversigter, genererer diagrammer, udtænker finansplaner og meget mere. Når Gen AI letter de daglige opgaver, kan vi som mennesker rette vores fokus mod strategiske og innovative projekter.
Googles Gemini, en multifacetteret AI, der blev lanceret i december '23, har til formål at ræsonnere problemfrit på tværs af tekst, billeder, video, lyd og kode. Dette produkt skal bygge bro over kløften mellem Google og OpenAI. Gemini blev lanceret med solide benchmarks og en fængslende videodemonstration, men et nærmere kig afslørede fejl og efterlod kritikerne med flere spørgsmål end svar.
Da AI-applikationer højst sandsynligt vil vokse i kompleksitet, bliver det stadig vigtigere at sikre tilsyn med disse AI-værktøjer. At have folk med viden til at analysere og fejlfinde vil være afgørende for at håndtere risici som fejl og AI's skævheder i planlægning, opgaveudførelse og refleksionsprocesser. Menneskelig supervision vil fortsat være en integreret del af løsningen på disse problemer. Samtidig er det nødvendigt og afgørende at etablere ansvarlige Gen AI-principper i hele udviklingen.
Med det kommende amerikanske valg vil vi højst sandsynligt se en stigning i manipulerede videoer, hvor politikere eller andre siger ting, de aldrig har gjort, hvilket udgør en betydelig bekymring for både forbrugere og vælgere. Der er lovgivningsmæssige tiltag på vej, især i EU, hvor EU's endelige AI-lov vil få sin første virkning i 2024. Vi ved dog stadig ikke, hvordan det vil påvirke store amerikanske teknologivirksomheder og deres AI-modeller. Vi vil måske se nogle stater implementere love, men generelt vil vi måske ikke se nogen væsentlig regulering i USA.
Vores forventninger til 2024 omfatter en stigning i antallet af startups og virksomheder som OpenAI, der præsenterer større AI-modeller med en lang række nye funktioner. Ikke desto mindre vil debatten om AI og dens definition ikke være afsluttet, men overskygges af bekymringer om aktuelle udfordringer som desinformation og spredning af deepfakes. Mens frygten for, at AI skal dominere verden, mere er Hollywood-materiale og konspirationshype, bør vores umiddelbare fokus fortsat være på at håndtere de nuværende skader, der påføres af desinformation og manipulerede medier.
Vi er vant til hurtige internetforbindelser og applikationer, der kører problemfrit, og vi tænker næsten ikke på den hardware, der er nødvendig for det. GPU-processorer er afgørende for AI-operationer, og efterhånden som flere virksomheder søger AI-kapaciteter, vil der opstå en hidtil uset efterspørgsel efter GPU'er, primært produceret af virksomheder som NVIDIA, hvilket potentielt begrænser tilgængeligheden. Manglen på GPU'er vil ikke kun påvirke virksomhedernes konkurrenceevne, men vil også påvirke organisationer, der udvikler AI-innovationer.
Derfor vil vi se et større pres på øget GPU-produktion og på innovation af mere omkostningseffektive og brugervenlige hardwarealternativer. Igangværende forskning i elektroteknik på Stanford og andre institutioner undersøger allerede strømbesparende erstatninger for eksisterende GPU'er.
Det kan tage et stykke tid at komme fra en forskningsfase til en udbredt tilgængelighed af en sådan løsning, men fokus på at fremskynde en sådan udvikling er afgørende for at bevare den demokratiske adgang til AI-teknologier.
I 2019 forudså Gartner en stigning i low-code/no-code-værktøjer, som ville dominere 65 % af appudviklingen i 2024. Denne forudsigelse stemmer overens med fremkomsten af generative AI-værktøjer som ChatGPT, der gør det muligt at oprette og teste apps på få minutter. Mens kodning og software engineering-roller ikke vil forsvinde, fordi nogen skal udvikle disse AI-værktøjer, vil 2024 give en stor mulighed for kreative, der kan lide at løse problemer, men mangler de nødvendige tekniske færdigheder.
AI har unægtelig forandret livet for gymnasieelever ved at gøre det lettere at skrive essays og hjælpe med lektier, men desværre har det også styrket cyberkriminelle. Det stigende antal AI-genererede koder til hacking i 2023 markerede en bekymrende tendens og vil sandsynligvis blive intensiveret i de kommende måneder.
En bekymrende nyskabelse, der har fået en del opmærksomhed i onlinefora, er WormGPT, en LLM, der forsøger at kopiere ChatGPT, men uden nogen etiske sikkerhedsforanstaltninger og med ondsindede hensigter. Værktøjet er efter sigende blevet brugt til at lette hackingkampagner og er et betydeligt spring i de cyberkriminelles arsenal.
Når en LLM er bygget til at udføre en hvilken som helst ondsindet prompt, ligger problemet i hastigheden og mængden af svindel, som en sådan AI-sprogmodel producerer, især når den bruges som et våben af professionelle hackere. Vi har alle set, hvor hurtigt disse modeller genererer tekst, og hvordan de nemt kopierer bestemte opskrifter. Forestil dig nu, at dette output er cyberangreb som phishing-mails eller ondsindet kode, som selv kriminelle nybegyndere er i stand til at skabe.
Men ChatGPT udgør også en sikkerhedsrisiko internt i organisationer. Det er ikke uden risiko at bruge LLM'er i blinde, uanset hvilken integration eller form de har på arbejdet. Det er blevet rapporteret, at disse hypede AI-værktøjer mangler standarder for databeskyttelse, og at hackere måske endda er i stand til at få fat i din virksomheds interne data, hvis en medarbejder har sendt dem til LLM'en. Et datalæk uden nogen form for netværksinfiltration.
Men der er håb i form af en tendens, der går begge veje. AI har været en etableret del af cybersikkerheden i årevis, og når vi bevæger os ind i 2024, er der en forventning om, at AI vil udvikle sig og vokse med vores udfordringer. Organisationer tilpasser sig allerede ved at integrere maskinlæringsværktøjer i deres SOC-platforme og -opsætning.
Det virker som en cybertale, der er lige så gammel som tiden, men løsningen ligger i proaktive foranstaltninger. IT-sikkerhedsfolk skal fokusere på at reducere brud forårsaget af AI-genereret kode ved nøje at overvåge deres netværk for eventuelle abnormiteter. Desuden skal organisationer fastlægge klare politikker for godkendte AI-værktøjer og korrekt brug af dem for at sikre overholdelse af eksisterende databeskyttelses- og cybersikkerhedsstandarder.
Når vi ser fremad, er årvågenhed nøglen. Forudsigelser tyder på en stigning i cyberkriminelle, der udnytter AI og forældede sikkerhedsforanstaltninger. Der er også en truende trussel mod Managed File Transfer-systemer og filservere, hvilket gør dem til lukrative mål. Det er vigtigt at styrke forsvaret, især mod potentielle fremtidige angreb som torrents, der gør det lettere at frigive følsomme oplysninger.
En forsvarsstrategi, der har vist sig at være effektiv, er at forstå netværksaktiviteten og brugeradfærden i din organisation. Ved nøje at overvåge forventet brugeradfærd kan små afvigelser indikere et sikkerhedsbrud. For eksempel kan en pludselig og usædvanlig mængde data, der uploades, rejse røde flag og signalere en potentiel trussel.
Noget, som AI allerede kan opdage i dag, og vi forventer, at den bliver endnu mere nuanceret i fremtiden for at identificere de mest snigende hackere.
Etiske, juridiske og sociopolitiske spørgsmål om kunstig intelligens vil kun blive mere komplekse og vanskelige. Som et resultat af politiske diskussioner og beslutninger i 2023 vil EU's AI Act træde i kraft i første halvdel af 2024, hvilket er et monumentalt skridt i retning af at regulere hele spektret af AI-udvikling, -distribution og -anvendelse inden for EU. Denne nye lovgivning anvender en risikobaseret tilgang og kategoriserer AI-praksis i uacceptable, højrisiko-, begrænset risiko- og minimale eller ingen risikoniveauer, der hver især er underlagt forskellige grader af regulering. Med bøder for manglende overholdelse på op til 30 millioner euro eller 6 % af den globale omsætning vil virksomheder stå over for betydelige udfordringer, både store AI-aktører og nybegyndere på markedet.
Det nye år vil også manifestere behovet for internationalt samarbejde om AI-sikkerhed. Mens EU står i spidsen for AI-lovgivningen, har lande som USA og Storbritannien taget fat på problemet på en anden måde. Biden-administrationens bekendtgørelse fra oktober 2023 skitserede en holistisk tilgang til at opbygge pålidelig AI, hvilket faldt sammen med det internationale AI-sikkerhedstopmøde i Storbritannien, som resulterede i Bletchley Park-erklæringen, der signalerede begyndelsen på en samarbejdsindsats på området. Især annoncerede Storbritannien og andre lande foranstaltninger omkring AI-regulering under og omkring topmødet, hvilket satte scenen for yderligere diskussioner og potentielle topmøder dedikeret til AI-regulering og -sikkerhed. Når man kender det sædvanlige tempo i det politiske apparat, kan udviklingen af ny teknologi allerede nå frem til målstregen, før politikerne ved, hvilken distance de skal løbe. I et forsøg på at følge med er der allerede planlagt to topmøder om AI-sikkerhed i midten og slutningen af året, hvor 28 lande, herunder USA, Kina og EU, vil følge op på den seneste udvikling.
Der er ingen tvivl om, at generativ AI vil ændre cybersikkerhedslandskabet på væsentlige måder. Men når vi træder ind i 2024, er vores syn på AI, og hvordan det vil påvirke resten af verden, fortsat optimistisk. 2023 var én stor hype, men vi vil være lidt mindre vildfarne og mere fokuserede fremover. Det kommende år vil byde på flere nye AI-modeller med mange forskellige funktioner, som både indebærer nye risici og store muligheder. Omkostningsovervejelser, begrænset produktion af hardware og reguleringspolitikker vil have en betydelig indflydelse på virksomhedernes anvendelse af AI-værktøjer og styre den generelle integration og indvirkning af AI i organisationer. Som året skrider frem, vil det at navigere i disse udviklinger utvivlsomt forme effekten af AI's rolle som drivkraft for innovation og effektivitet på tværs af brancher og især inden for cybersikkerhed.
Vi er et dynamisk team af kreative strateger og digitale eksperter, der er engageret i at sprede budskabet om alt, hvad der har med cybersikkerhed at gøre. Vi gør mere end bare at sælge et netværksdetekterings- og responssystem; vi holder fingeren på pulsen af cybertrends og deler den viden, vi har i Muninn.
Tilmeld dig vores nyhedsbrev for at modtage nye indlæg direkte i din indbakke.