
Sztuczna inteligencja na dowód osobisty? OpenAI wprowadza weryfikację dostępu do zaawansowanych modeli AI. Proces dotyczy firm. Głównym celem jest zapewnienie szeroko rozumianego bezpieczeństwa i przeciwdziałanie nadużyciom.
OpenAI ogłosiło na swojej stronie wsparcia, że wkrótce może wymagać od firm przejścia przez proces weryfikacji tożsamości, aby mogły one uzyskać dostęp do niektórych modeli AI – informuje TechCrunch. Mowa o procesie “Verified Organization”, który stanowi "nowy sposób dla deweloperów na odblokowanie dostępu do najbardziej zaawansowanych modeli i funkcji na platformie OpenAI".
Weryfikacja tożsamości w OpenAI
Aby przejść weryfikację, organizacje będą musiały przedstawić dokument tożsamości wydany przez rząd jednego z krajów obsługiwanych przez API OpenAI. Jedno ID może zweryfikować tylko jedną organizację co 90 dni, a nie wszystkie organizacje będą kwalifikować się do tego procesu.
“W OpenAI poważnie traktujemy naszą odpowiedzialność, aby zapewnić, że AI jest szeroko dostępna i bezpiecznie używana.” – czytamy na stronie firmy. “Niestety, niewielka mniejszość programistów celowo używa interfejsów API OpenAI z naruszeniem naszych zasad użytkowania. Dodajemy proces weryfikacji, aby ograniczyć niebezpieczne korzystanie z AI, jednocześnie udostępniając zaawansowane modele szerszej społeczności programistów”.
Bezpieczeństwo to podstawa
Nowy proces weryfikacji ma na celu zwiększenie bezpieczeństwa produktów OpenAI w miarę ich rozwoju. Firma opublikowała kilka raportów dotyczących wykrywania i ograniczania niepożądanego wykorzystania swoich modeli, w tym przez grupy rzekomo działające w Korei Północnej.
Taka zapowiedź ma drugie, dość ironiczne dno. Niedawno opisywaliśmy przypadek jednego z narzędzi OpenAI, które z powodzeniem generuje wiernie wyglądającą replikę paszportu.
Źródło: TechCrunch
Komentarze
3