Canada og USA signerer internasjonale retningslinjer for sikker utvikling av AI

Atten land, inkludert Canada, USA og Storbritannia, ble i dag enige om anbefalte retningslinjer for utviklere i deres land for design, utvikling, distribusjon og sikker drift av kunstig intelligens-systemer.

Det er den siste i en rekke frivillige sikkerhetstiltak som land oppfordrer sin offentlige og private sektor til å følge for å overvåke AI i fravær av lovgivning. Tidligere i år kunngjorde Ottawa og Washington lignende retningslinjer for hvert av deres land.

Utgivelsen av retningslinjer kommer etter hvert som selskaper lanserer og tar i bruk AI-systemer som har potensial til å påvirke folks liv, uten nasjonal lovgivning.

Det siste dokumentet, Retningslinjer for utvikling av sikre AI-systemerer først og fremst rettet mot AI-systemleverandører som bruker modeller som er vert for en organisasjon eller som bruker eksterne applikasjonsprogrammeringsgrensesnitt (API).

«Vi oppfordrer alle interessenter (inkludert datavitere, utviklere, ledere, beslutningstakere og risikoeiere) til å lese disse retningslinjene for å hjelpe dem med å ta informerte beslutninger angående design, utvikling, distribusjon og drift av deres AI-systemer,» heter det i dokumentet. introduksjon.

Retningslinjene følger en «sikker som standard»-tilnærming og er tett på linje med praksisen fastsatt i UK National Cyber ​​​​Security Centres retningslinjer for sikker utvikling og distribusjon, US National Institutes standarder og teknologi for sikker programvareutvikling, og publisert sikkerhet av design prinsipper. av U.S. Cybersecurity and Infrastructure Security Agency og andre internasjonale cybersikkerhetsbyråer.

De prioriterer
— ta eierskap til sikkerhetsresultater for kunder;
— omfavne radikal åpenhet og ansvarlighet;
– og å bygge en så sikker organisasjonsstruktur og ledelse ved design er en topp forretningsprioritet.

Kort

— for sikker utforming av AI-prosjekter, sier retningslinjen at IT-ledere og bedriftsledere bør forstå risiko- og trusselmodellering, så vel som de spesifikke emnene og avveiningene som må vurderes under design av systemer og modeller;

— For sikker utvikling anbefales organisasjoner å forstå kunstig intelligens i sammenheng med forsyningskjedesikkerhet, dokumentasjon og forvaltning av eiendeler og teknisk gjeld;

– for sikker distribusjon er det anbefalinger som dekker beskyttelse av infrastruktur og modeller mot kompromisser, trusler eller tap, utvikling av hendelseshåndteringsprosesser og ansvarlig publisering;

— for sikker drift og vedlikehold av AI-systemer er det anbefalinger for handlinger som logging og overvåking, oppdateringsadministrasjon og informasjonsdeling.

Andre land som støtter disse retningslinjene er Australia, Chile, Tsjekkia, Estland, Frankrike, Tyskland, Israel, Italia, Japan, New Zealand, Nigeria, Norge, Polen, Sør-Korea og Singapore.

I mellomtiden, i Canada, vil Underhusets industrikomité gjenoppta høringen på tirsdag om Bill C-27, som ikke bare inkluderer en overhaling av eksisterende føderal personvernlovgivning, men også et nytt lovforslag om AI. Så langt har de fleste vitner fokusert på den foreslåtte loven om forbrukerbeskyttelse (CPPA). Men flere vitner sier at lovforslaget om kunstig intelligens og data (AIDA) tar opp så mange komplekse problemer at det bør skilles fra C-27. Andre hevder at regningen er tilstrekkelig for nå.

Regjeringen har fortsatt ikke presentert den fullstendige teksten til endringene den er forberedt på å gjøre for AIDA og PCPA for å gjøre regningene klarere.

AIDA vil regulere det regjeringen kaller «high-impact systems», for eksempel AI-systemer som tar beslutninger om lånesøknader eller en persons ansettelse. Regjeringen sier at AIDA vil gjøre det klart at de som utvikler en maskinlæringsmodell beregnet for bruk med høy effekt, må sørge for at passende databeskyttelsestiltak blir tatt før den slippes ut på markedet.

I tillegg vil lovforslaget klargjøre at utviklere av generelle AI-systemer som ChatGPT bør etablere tiltak for å vurdere og redusere risikoen for partisk produksjon før systemet tas i bruk. Ledere av generelle systemer bør overvåke all bruk av systemet som kan resultere i en risiko for skade eller et partisk utfall.

I mellomtiden er EU nær ved å fullføre ordlyden av sin AI-lov, som ville være den første i verden. Ifølge en rapportideelt sett ville dette være avgjort innen februar 2024. Det er imidlertid uenighet om hvordan stiftelsesmodeller som ChatGPT skal reguleres.

Edric Wiltone

"Tilsatt for anfall av apati. Ølevangelist. Uhelbredelig kaffenarkoman. Internettekspert."

Legg att eit svar

Epostadressa di blir ikkje synleg. Påkravde felt er merka *