Den europeiske union vurderer ideen om å introdusere en "klistremerke" for å identifisere innhold generert av kunstig intelligens (AI). Dette trekket blir sett på som et viktig skritt for å motvirke feilinformasjon. Forslaget ble fremmet under et møte mellom EU-kommisjonen og representanter for over førti organisasjoner som har sluttet seg til EUs etiske retningslinjer mot desinformasjon.
Et skritt fremover i kampen mot desinformasjon: EU-planen for å identifisere innhold generert av kunstig intelligens
I samsvar med rapportert da Budkommunikasjon visepresidenten for EU-kommisjonen for verdier og åpenhet, Vera Jourova, og kommissæren for det indre marked, Thierry breton, ba de kodeunderskriverne om å lage et dedikert og separat spor for adressere AI-generert desinformasjon. Dette etternavnet vil være kjent for leserne siden vi allerede har hørt det da vi snakket om EU-motstand mot nettverksskatt for Big Tech. Dette bør bidra til å identifisere spesifikke feilinformasjonsrisikoer presentert av generativ AI og iverksette passende tiltak for å håndtere dem.
Høyteknologiselskapene som er involvert i dette initiativet inkluderer giganter som Microsoft, Google, Meta, TikTok og Twitch. Twitter valgte imidlertid ikke å delta, og forlater koden. Jourova kritiserte Twitters avgjørelse og hevdet at selskapet valgte konfrontasjonsveien i stedet for å jobbe sammen for å bekjempe feilinformasjon. Videre harDen europeiske union og USA undertegnet nylig en felles erklæring der den er forpliktet til å redusere risikoen knyttet til utviklingen av kunstig intelligens. Denne forpliktelsen bekrefter behovet for en risikobasert tilnærming til AI for å fremme pålitelige og ansvarlige AI-teknologier.
Til slutt, noen bransjeeksperter og teknologiledere, inkludert Sam Altman, administrerende direktør i OpenAI, de understreket i et åpent brev at AI kan føre til menneskelig utryddelse. Derfor bør det være en global prioritet å redusere risikoen forbundet med denne teknologien. Det er klart, for øyeblikket ikke bekymre deg: vi vil ikke bli utryddet.