Naukowcy z OpenAI domagają się większej ochrony dla sygnalistów w branży AI

Sztuczna inteligencja, llm
źródło: Freepik

W nowo opublikowanym otwartym liście grupa naukowców związanych z branżą sztucznej inteligencji, w tym byli pracownicy znanej firmy OpenAI, zwraca uwagę na niewystarczającą ochronę osób, które decydują się zgłaszać potencjalne zagrożenia związane z technologiami AI. Zjawisko to dotyka szczególnie pracowników firm technologicznych, którzy napotykają na prawne i etyczne bariery w swobodnym dzieleniu się swoimi obawami.

Jak wynika z listu, obecne przepisy chroniące sygnalistów są niewystarczające, szczególnie w kontekście dynamicznie rozwijających się technologii. Naukowcy podkreślają, że zdarzały się przypadki odwetów, w tym zwolnienia, jak w przypadku Leopolda Aschenbrennera, byłego badacza OpenAI. Aschenbrenner stwierdził w “Dwarkesh Podcast“, że został zwolniony po wyrażeniu obaw związanych z bezpieczeństwem AI w zarządzie firmy.

W odpowiedzi na te obawy, autorzy listu zaproponowali cztery główne zasady, które powinny być stosowane przez firmy rozwijające technologie AI. Wśród nich znajduje się m.in. mechanizm umożliwiający pracownikom anonimowe zgłaszanie problemów zarządom firm oraz odpowiednim organom regulacyjnym. Wzywają również do eliminacji klauzul zakazujących pracownikom wygłaszania negatywnych opinii o pracodawcach, co ma zapewnić większą transparentność i bezpieczeństwo publiczne.

Sprawa dotyczy nie tylko pracowników OpenAI, ale i innych firm technologicznych, jak Google DeepMind. OpenAI, uznawane za jednego z pionierów w dziedzinie AI, znalazło się pod szczególnym nadzorem po niedawnych kontrowersjach związanych z wewnętrznymi procedurami i bezpieczeństwem technologicznym.

Sam Altman, szef OpenAI, po kontrowersjach związanych z zarzutami dotyczącymi klauzul w umowach pracowniczych, przeprosił za nieświadome zastosowanie takiej klauzuli i zadeklarował jej usunięcie, twierdząc jednocześnie, że nigdy nie była ona stosowana.

Ostatnio firma znalazła się w ogniu krytyki również z powodu kontrowersji związanej z głosem używanym przez ChatGPT, który przypominał głos znanej aktorki Scarlett Johansson, co wywołało pytania o etykę wykorzystywania danych biometrycznych bez zgody.

W kontekście rosnących obaw dotyczących AI, rządy na całym świecie rozpoczynają prace nad zasadami regulującymi rozwój i implementację tych technologii, starając się nadążyć za szybkim postępem i jego potencjalnymi zagrożeniami dla społeczeństwa.

Read more

cyberbezpieczeństwo

AI demokratyzuje cyberprzestępczość. Windows na celowniku hakerów

Sztuczna inteligencja, powszechnie uznawana za motor napędowy innowacji w biznesie, stała się równie potężnym narzędziem w rękach przestępców. Najnowszy Elastic 2025 Global Threat Report, oparty na analizie ponad miliarda punktów danych, rzuca światło na niepokojący trend: bariera wejścia do świata cyberprzestępczości drastycznie maleje, a zautomatyzowane ataki stają się nowym standardem

By Natalia Zębacka