Frokostseminar: Gjør dine ansatte til bedriftens beste forsvar mot phishing
Styrk din menneskelige brannmur med KnowBe4 Vi står overfor en stadig mer kompleks digital verden, og den menneskelige faktoren forblir en av de...
3 min read
Helge Legernes 9.8.2024
Visste du at EU gjennom AI Act forbyr virksomheter å bruke ChatGPT i mange AI-løsninger? I denne artikkelen får du en kortfattet forklaring på regelverket rundt generative AI-løsninger og praktiske konsekvenser.
Chat GPT og andre generative AI-verktøy er i ferd med å løfte den personlige produktiviteten i mange avdelinger. Neste steg for virksomheter er å utnytte generativ AI sammen med virksomhetsdata, for å levere bedre og mer effektive tjenester. Eksempler kan være kundeservice, intern IT-service eller HR-tjenester. Denne artikkelen vil introdusere to begreper, som ikke er så kjent ennå, men som trolig kommer til å bli det: RAG og AI Act.
La oss begynne med hva jeg mener med en virksomhetsspesifikk AI-løsning. Dette er en AI-løsning, som er:
Dette betyr at jeg ikke ser på M365 Copilot som en virksomhetsspesifikk AI løsning. Den er ment å passe så mange virksomheter som mulig. (Men man kan, gjennom bruk av Copilot studio eller Azure AI studio, bygge virksomhetsspesifikke AI-løsninger).
RAG (Retrieval-Augmented Generation) er prosessen med å hente relevant kontekstuell virksomhetsinformasjon fra en datakilde og sende denne informasjonen til en stor språkmodell sammen med brukerens spørsmål. Denne informasjonen brukes til å forbedre modellens output (generert tekst eller bilder) ved å utvide modellens grunnleggende kunnskap.
Illustrasjon: RAG-prosessen
RAG er verdifullt for alle use cases der språkmodellen trenger virksomhetsspesifikk kunnskap som ikke er inkludert i informasjonen som modellen har fra tidligere. Dette kan for eksempel være et saksbehandlingssystem, produktdatabase, supportsystem eller en FAQ-database.
La oss si at du bygger en GPT for å hjelpe support-teamet ditt med å svare på kundehenvendelser. GPT-4 kan resonnere om mulige kundeproblemer ved hjelp av sin grunnleggende kunnskap, men den kan ikke kjenne de siste fakta om ditt spesifikke produkt eller tjeneste. Du kan oppnå mye bedre resultater ved å gi en GPT tilgang til ditt supportsystem, inklusive FAQ-databasen, slik at den kan hente tidligere supportsaker som omhandler lignende problemer og bruke denne konteksten til å generere mer relevante svar.
De vanligste språkmodellene (LLM), som ChatGPT, Llama, Gemini og PaLM er “lukkede”, det vil si at du kan ikke få nøyaktig dokumentasjon på hva de er trent med eller hvordan de er trent. Dette kan gi utfordringer til å møte kravene fra EUs AI act, men dette er avhengig av hva du har tenkt å bruke modellen til.
Dersom du har planlagt å utvikle en AI-løsning som klassifiseres som høy risiko, så kan du ikke bruke en “lukket” modell som ChatGPT
EUs AI act er inndelt i 4 risikonivåer (minimal risiko, begrenset risiko, høy risiko og uakseptabel risiko) som hver har sine forskjellige use cases og derved krav på hva man må dokumentere. I for eksempel "høy risiko" må man blant annet dokumentere hva modellen er trent på og hvordan. Dette betyr at dersom du har planlagt å utvikle en AI-løsning, som faller inn under høy risiko-nivået, så kan du ikke bruke en “lukket” modell, selv om du også har trent den med egne data.
Heldigvis finnes det en rekke “åpne” modeller, som du kan benytte deg av. Her kommer to eksempler på “åpne” språkmodeller:
La meg avslutte med et forsøk på to use cases og matche dem mot EUs AI act, samt hvilken språkmodell du kan benytte deg av.
Du ønsker å ta frem en intern AI-løsning som gjør det enklere å ta frem markedsmateriell, produktbeskrivelser og interne rapporter. Denne løsningen er relativt “ufarlig”, og så fremt du respekterer eventuelle copyright-rettigheter (markedsmateriale), så kan du etter mitt skjønn benytte deg av en “lukket” modell, som ChatGPT.
Dere er en offentlig virksomhet, med et stort saksbehandlingssystem med mye data fra gamle saker, og dere ønsker å ta frem et AI-drevet ekspertsystem som kan hjelpe saksbehandlere å fatte vedtak. Dersom disse vedtakene får konsekvenser for en person, så klassifiseres denne løsningen som “høy” risiko, og dere må benytte dere av en “åpen” modell.
Noter at jeg er ingen jurist. Om dere er i tvil om hvordan deres AI-løsning klassifiseres av AI act, så bør dere konsultere med et advokatbyrå som kjenner lovgivningen.
Styrk din menneskelige brannmur med KnowBe4 Vi står overfor en stadig mer kompleks digital verden, og den menneskelige faktoren forblir en av de...
Cybertruslene er større enn noen gang. Et mer profesjonalisert trusselbilde, sammen med en rask utvikling av nye teknologier innen blant annet...
Det er en glede å introdusere Daniel Bancel, som har vært en del av vårt nettverksteam siden nyttår. Siden oppstart har han fått bryne seg på flere...
De fleste er nå klar over at ChatGPT er bygget på en LLM (Large Language Model), men nå introduseres SLMer og MMMer. Hva er egentlig forskjellen...
Microsoft er offensive innen AI og slipper konsepter på løpende bånd, men hva er hva og er det brukbart? La oss se på hva Microsoft tilbyr per i dag....
Er DU klar for AI-revolusjonen? Nesten 300 meldte seg på vårt AI-webinar med samme navn den 9. januar. Nå er alle sesjonene gjort tilgjengelig for...
Franske Mistral demonstrerer at de kan konkurrere med giganter som GPT-4 og Gemini, og at det er mulig å lage langt mer effektive språkmodeller som...