자세히 보기

이지현
Senior Editor

“이사회에 기술 거부권 제공”··· 오픈AI, 기술 안전성 높이는 프로세스 강화

뉴스
2023.12.192분

오픈AI가 '안전 자문 그룹'이라는 조직을 새로 만들고 AI 안정성 점검하는 과정을 강화하겠다고 밝혔다. 이를 위해 ‘대비 프레임워크(Preparedness Framework)’이라는 새로운 프로세스를 18일 공개했다.

오픈AI가 새로 공개한 대비 프레임워크는 AI 위험성을 감지하고 안전한 개발 방식을 논의하기 위한 과정을 명시하고 있다. 대표적으로 기술의 위험 수준 추적하고, 여러 추적 위험 범주에 따라 평가 및 기타 모니터링하고, 위험 완화 전후를 비교하는 체계를 제시하고 있다.

새로운 프레임워크 하에 오픈AI는 내부적으로 기술 검토 후 위험 완화 후 점수가 ‘중간’ 이하인 모델만 배포할 수 있으며, 완화 후 점수가 ‘높음’ 이하인 모델만 추가 개발할 수 있다. 또한 모델 유출을 방지하기 위해 위험 수준이 ‘높음’ 또는 ‘심각’ 인 모든 모델에 보안성을 높일 것을 권장하고 있다. 

오픈AI에 따르면, 치명적인 위험 수준이란 수천억 달러의 경제적 피해를 초래하거나 다수의 인명 피해 또는 사망을 초래할 수 있는 모든 위험을 의미한다. 그 외에 각 모델이나 상황에 대한 안전에 대한 정의와 위험 수준 한계가 무엇인지 대비 프레임워크 문서에서 명시하고 있다. 

오픈AI는 기술 평가 프로세스뿐만 아니라 의사 결정 구조에 변화를 주었다. 여러 전문가로 구상된 안전자문그룹(Safety Advisory Group, SAG)라는 자체 감사 기관을 만들어 오픈 AI의 경영진과 이사회가 함께 AI 안전성을 점검하겠다는 것이다. 오픈AI는 SAG를 소개하면서 “기본적으로 경영진이 의사 결정권자이지만, 이사회도 경영진의 결정을 번복할 수 있는 권한을 갖고 있다”라고 밝혔다.

오픈AI는 대비 프레임워크는 현재 베타버전인 상태로 외부 조언을 수렴해 체계를 개선하겠다고 밝혔다. 
jihyun_lee@idg.co.kr

이지현

2022년부터 CIO 코리아 책임 기자로 일하며 AI, 디지털 전환, 클라우드 등 주요 기술 이슈에 대한 최신 트렌드와 인사이트를 전달하고 있습니다. 국내외 IT 리더들을 대상으로 한 심층 인터뷰와 리더십 취재를 꾸준히 이어가고 있으며, 다양한 현장을 찾아 업계 흐름을 생생하게 전하고자 합니다. 아울러, 한국IDG가 주관하는 콘퍼런스와 조찬 세미나에도 참여하며, 국내 IT 리더들이 자연스럽게 교류하고 의견을 나눌 수 있는 자리를 만드는 데 힘쓰고 있습니다.

CIO 코리아 합류 전에는 2013년부터 기술 전문 매체 블로터에서 IT 기자로 활동했으며, 그보다 앞서 한국에서 컴퓨터공학을 전공하고 미국 뉴욕에서 1년간 프로그래머 인턴으로 근무한 경험이 있습니다. 현재도 취미로 프로그래밍을 이어가며, IT 업계에 종사하는 분들을 늘 응원하는 마음으로 취재 활동을 이어가고 있습니다.

이 저자의 추가 콘텐츠