iStock
Naglasak je na procjeni rizika – od dezinformacija i pristranosti do potencijalne zloupotrebe
povezane vijesti
Google, Microsoft i xAI podijelit će neobjavljene verzije svojih AI modela s vladama kako bi suzbili prijetnje kibernetičkoj sigurnosti, objavio je Nacionalni institut za standarde i tehnologiju, prenosi CNN.
Partnerstvo dolazi nakon što je Anthropicov moćni novi Mythos AI model prošlog mjeseca izazvao zabrinutost oko utjecaja umjetne inteligencije na kibernetičku sigurnost, što je potaknulo Bijelu kuću da razmotri formalni proces revizije umjetne inteligencije.
Novi sporazumi omogućuju Centru za standarde i inovacije umjetne inteligencije, unutar američkog Ministarstva trgovine, da procijeni nove modele umjetne inteligencije i njihov potencijalni utjecaj na nacionalnu sigurnost i javnu sigurnost prije lansiranja. Centar će također provoditi istraživanja i testiranja nakon što se modeli umjetne inteligencije implementiraju i već je dovršio više od 40 evaluacija modela umjetne inteligencije.
Sve veći utjecaj umjetne inteligencije potaknuo je vlade da aktivnije sudjeluju u njezinu razvoju i nadzoru. Testiranja se provode u suradnji s državnim institucijama kako bi se utvrdilo koliko su modeli sigurni, kako reagiraju u osjetljivim situacijama i mogu li generirati štetne ili netočne informacije.
Što se točno testira
Naglasak je na procjeni rizika – od dezinformacija i pristranosti do potencijalne zloupotrebe u kibernetičkim napadima. Vlade žele razumjeti kako se modeli ponašaju u realnim scenarijima, uključujući donošenje odluka koje mogu imati društvene posljedice.
Posebna pažnja posvećuje se transparentnosti i mogućnosti kontrole, odnosno pitanju koliko se sustavi mogu nadzirati i ograničiti kada je to potrebno.
Zašto je ovo važno
Umjetna inteligencija sve se više koristi u ključnim sektorima – od zdravstva i obrazovanja do sigurnosti i uprave. Zbog toga raste potreba za jasnim pravilima i standardima, a ova testiranja predstavljaju pokušaj da se izbjegnu scenariji u kojima tehnologija napreduje brže od regulative.