Er du interessert i dem TILBUD? Spar med våre kuponger på WHATSAPP o telegram!

OpenAI oppretter team for AI 'katastrofale' risikoer. Det er derfor det angår oss

OpenAI, et selskap nå i forkant av feltet kunstig intelligens, nylig annonsert opprettelsen av et nytt team med den spesifikke oppgaven evaluere og redusere potensielt katastrofale risikoer forbundet med å fremme AI-relaterte teknologier. Dette trekket fremhever den økende betydningen av proaktivt å ta tak i utfordringene og farene som generative modeller kan medføre. Åpenbart, der de ikke er ordentlig overvåket.

Risikoidentifikasjon av OpenAI

Ettersom kunstig intelligens utvikler seg raskt, dukker det opp nye risikoer som kan ha alvorlige konsekvenser på global skala. For dette vil det nye OpenAI-forberedelsesteamet dedikere seg til å spore, å evaluere, forutse e å beskytte mot disse potensielle problemene. Blant risikoene som er identifisert er: trusler kjernefysisk, et tema som fremhever det haster med ansvarlig handling innen AI.

I tillegg til atomtrusler vil teamet også fokusere på rusrelaterte farer kjemisk, biologisk og radiologisk, samt på ffenomenet selvreplikasjon av kunstig intelligens, eller evnen til et kunstig intelligenssystem til å replikere seg selv autonomt. Andre fokusområder inkluderer AIs evne til å lure mennesker og trusler alle Cybersecurity.

Fordeler og utfordringer med avansert AI

OpenAI erkjenner at frontier AI-modeller, de som overgår egenskapene til de mest avanserte eksisterende modellene, har potensialet til å gagne hele menneskeheten. Og nei, i motsetning til hva du trorKunstig intelligens er ikke her for å stjele jobbene våre men heller å skape det.

Men med stor makt følger også stort ansvar. Det er derfor viktig å utvikle seg politikk informert om risikoene, som lar deg evaluere og overvåke AI-modeller, for å sikre at fordelene oppveier de tilknyttede risikoene.

openai tilbyr belønninger til de som finner feil i chatgpt

Les også: DeepMind har løsningen for å forhindre AI-risiko

Ledelsen av dette nye teamet har blitt betrodd Alexander Madry, en ledende skikkelse innen maskinlæring. Har for tiden permisjon fra hans rollen som direktør for MITs senter for utplasserbar maskinlæring, Klok vil koordinere arbeidet med å utvikle og opprettholde en risikoinformert utviklingspolitikk.

Mot en global prioritet

Administrerende direktør i OpenAI, Sam Altman, det er ikke nytt til bekymringer om de potensielt katastrofale risikoene ved AI. Han foreslo at behandlingen av AI-teknologier burde være ptatt like alvorlig som atomvåpen, og fremhever behovet for en kollektiv innsats for å redusere utryddelsesrisikoen forbundet med AI. Dette nye teamet representerer et konkret skritt mot å realisere denne visjonen, og fremhever OpenAIs forpliktelse til å bidra til en ansvarlig forvaltning av kunstig intelligens.

Gianluca Cobucci
Gianluca Cobucci

Lidenskapelig opptatt av kode, språk og språk, menneske-maskin-grensesnitt. Alt som involverer teknologisk utvikling er av interesse for meg. Jeg prøver å spre lidenskapen min med den største klarhet, og stoler på pålitelige kilder og ikke "bare den første som kommer".

Abonner
Gi meg beskjed
gjest

0 kommentarer
Inline tilbakemeldinger
Se alle kommentarer
XiaomiToday.it
logo