이 챗GPT 개발사는 초지능 AI의 ‘불량화’를 막기 위해 향후 4년 동안 회사 컴퓨팅 처리 능력의 20%를 투자할 계획이다.
오픈AI가 초지능 AI가 심각한 해악을 끼치는 상황을 막기 위한 훈련 기법을 개발하기 위해 새로운 연구 부서를 개설한다.
“현재로서는 잠재적으로 초지능적인 AI를 조종하거나 제어할 수 있는 솔루션이 없으며, AI가 악의적으로 변질되는 것을 방지할 수 있는 솔루션도 없다”라고 오픈AI의 얀 라이크와 일리아 수츠케버는 회사 블로그를 통해 밝혔다. 이들은 초지능이 아직은 멀게 느껴지지만 일부 전문가들은 10년 안에 실현될 수 있을 것으로 보고 있다고 덧붙였다.
현재 AI를 정렬하는(aligning AI) 기술에는 인간의 피드백을 통한 강화 학습이 있다. 그러나 라이크와 수츠케버는 AI 시스템이 인간보다 똑똑해지면 더 이상 인간이 기술을 감독할 수 없게 될 수 있다고 전했다. “현재의 정렬 기술이 초지능으로 확장되지 않을 것이다. 새로운 과학적, 기술적 돌파구가 필요하다”라고 그들은 밝혔다.
수츠케버는 오픈AI의 공동 창립자이자 수석 과학자이며, 라이크는 머신러닝 부문을 담당하고 있다. 두 사람이 오픈AI의 새로운 슈퍼얼라인먼트 팀을 함께 이끌게 된다. 이 부서는 향후 4년간 회사 처리 용량의 20%를 활용하여 초지능을 감독할 수 있도록 확장할 수 있는 ‘인간 수준의 자동화된 정렬 연구원’을 구축한다.
라이크와 수츠케버는 자동화된 연구원을 인간 윤리에 맞게 조정하기 위해서는 확장 가능한 훈련 방법 개발, 결과 모델 검증, 전체 조정 파이프라인에 대한 스트레스 테스트 등 3단계 접근 방식을 취해야 한다고 전했다. 그들은 “향후 문제를 파악함에 따라 연구 우선순위가 크게 달라질 것이며 완전히 새로운 연구 분야를 추가할 수도 있을 것으로 예상한다”라며 향후 부서의 로드맵을 더 많이 공유할 계획이라고 덧붙였다.
AI로 인한 잠재적 피해에 대한 예방책의 필요성을 인정
오픈AI가 AI로 인한 위험을 완화할 필요성을 공개적으로 인정한 것은 이번이 처음이 아니다. 지난 5월, 이 회사의 CEO인 샘 알트먼은 AI의 발전이 멸종 사태로 이어질 수 있으므로 기술을 통제하는 것이 글로벌 최우선 과제가 되어야 한다는 내용의 공개 서한에 서명했다.
오픈AI는 또 웹사이트에 전용 섹션을 마련해 일반 대중이 ‘안전하고 책임감 있는 AI 개발’과 관련된 자료를 열람할 수 있도록 하고 있으며, 사명을 수행하기 위해 준수하는 원칙을 요약한 헌장도 공개하고 있다. 그러나 해당 원칙은 주로 업무 영역에서 인간을 능가하는 고도로 자율적인 시스템인 인공 일반지능(AGI)을 다루고 있다.
오픈AI가 2018년에 발표된 해당 헌장에는 ” 안전하고 유익한 AGI를 구축하려고 노력할 것이며, 우리의 작업이 다른 사람들이 이러한 결과를 달성하는 데 도움이 된다면 우리의 사명을 완수한 것으로 간주할 것이다”라고 명시되어 있다. dl-ciokorea@foundryco.com