
Syftet med förordningen är bland annat att säkerställa att AI-applikationer som utvecklas och används inom EU är rättssäkra, går att kontrollera och främjar innovationer. Den trädde i kraft redan 2024 men reglerna börjar gälla successivt under de kommande åren fram till 2030.
AI-förordningen är ett riskbaserat regelverk. Ju högre risk, desto högre krav. Som förtroendevald i Forena är det viktigt att känna till att AI-system som används vid anställning, arbetsledning, övervakning och utvärdering av anställdas prestationer betraktas som så kallade högrisksystem. I försäkringsbranschen betraktas också system som används för prissättning och riskbedömningar inom sjuk- och livförsäkring som högrisksystem.
Tillhandahållaren av ett system, det här fallet arbetsgivaren, har också en explicit skyldighet att informera de lokala arbetstagarrepresentanterna och anställda innan ett AI-system med hög risk tas i bruk eller används på en arbetsplats, om att de kommer att vara föremål för användning av AI-systemet med hög risk. Information och procedurer ska ske i enlighet med nationella regler kring medbestämmande och arbetsmiljölagstiftning.
Forenas utgångspunkt är alltid att säkerställa facklig medverkan vid förändringar som innefattar AI på arbetsplatserna. Förtroendevalda har en viktig uppgift att bidra med perspektiv vid implementering och konsekvensbedömningar.
Vad är Forenas roll när arbetsgivaren överväger att införa ett AI-system
- Begära information och förhandling enligt medbestämmandelagen (och/eller medbestämmandeavtal).
- Säkerställa riskbedömningar enligt arbetsmiljö- och dataskyddslagstiftningen.
- Särskilt bevaka och säkerställa att vi blir informerade och konsultade vid högrisk-AI i enlighet med förordningen och ha en pågående dialog med arbetsgivaren om vilka system som faller inom ramen för högrisk.
- Vara en part i implementering och utvärdering.
- Säkerställa att krav på transparens, dokumentation och mänsklig övervakning även innefattar facklig insyn och inflytande.