Detta blogginlägg är skrivet i samarbete med HR-experterna på Töölön Vire.
Artificiell intelligens (vi kallar det AI) har blivit en stor del av de flesta människors digitala liv, och det har många fördelar. Det finns också en del faror, och det har EU insett. Därför har de sedan början av 2025 gradvis infört en lag kring den teknik som har tagit världen med storm. Huvudregeln träder i kraft den 2 augusti, och då finns det vissa saker som du måste ha koll på.
Att förbereda sig för regelefterlevnad är inte bara en juridisk övning. Det är också ett strategiskt ledarskapsansvar. I många organisationer spelar HR en nyckelroll när det gäller att säkerställa att användningen av AI vid rekrytering, prestationshantering och behandling av anställdas personuppgifter är både förenlig med reglerna och etisk.
Vem gäller detta för?
-
De som bor/arbetar i ett EU- eller EES-land.
-
De som använder AI som kategoriseras som högrisk.
-
De som använder det för rekrytering, kritisk infrastruktur (bank och försäkring) och utbildning.
-
Utvecklareav AI och deras distributörer.
Vad innebär den nya huvudregeln?
Även om huvudregeln inte träder i kraft förrän den 2 augusti är det viktigt att komma igång redan nu.
Den nya regeln handlar främst om AI-system med hög risk. I praktiken innebär detta:
-
Riskhantering: Upprätta system för riskhantering.
-
Datakvalitet: Om du använder data för att träna AI, se till att det är data av hög kvalitet.
-
Dokumentation:Ditt företag måste ha teknisk dokumentation som visar att ni följer lagen.
-
Öppenhet: Användarna ska informeras om hur systemet fungerar.
-
Mänsklig tillsyn: AI-system bör övervakas av människor.
I praktiken kräver verklig mänsklig kontroll mer än ett namn på ett dokument. Organisationer behöver tydliga styrmodeller, klart definierade ansvarsområden och utbildade chefer som förstår både tekniken och de risker som är förknippade med den. Det är här strukturerad kompetensuppbyggnad inom AI blir avgörande.
Fyra nivåer av risk
AI-lagen opererar med fyra risknivåer. Vanliga AI-modeller som ChatGPT och Copilot påverkas också av lagen. Det finns olika krav för var och en av risknivåerna:
-
Oacceptabel risk: Totalförbud mot AI-modeller som utgör en oacceptabel risk.
-
Hög risk: AI-lagen ställerstrikta krav på system med hög risk, bland annat för att säkerställa att systemet inte diskriminerar.
-
Begränsad risk: Om systemet utgör en begränsad risk måste du informera om det.
-
Minimal eller ingen risk: System med ingen eller minimal risk regleras i princip inte av AI-lagen, men det rekommenderas ändå att man upprättar etiska riktlinjer för användningen av dem.
Snabbt sammanfattat
Vi sa det i början av det här blogginlägget, men vi säger det igen: AI är fantastiskt för många saker, men du måste vara medveten om riskerna, och de är många. Om du arbetar utifrån de fyra risknivåerna och utvärderar de system du använder kommer du att vara på säker mark. Och kom ihåg att den mänskliga faktorn fortfarande kommer att vara viktig och värdefull!
Organisationer som behandlar AI-lagen som en checklista för efterlevnad riskerar att gå miste om den stora möjligheten. De som integrerar AI-styrning i sin HR- och ledarskapsstrategi kan samtidigt stärka förtroendet, transparensen och den långsiktiga konkurrenskraften.
Om Töölön VirePå Töölön Vire bygger man HR-tjänster för små och medelstora företag - på det sätt som företagen faktiskt vill ha dem. Ofta på ett sätt som de knappt vågat tro var möjligt. |
