생성형 AI 기술과 이에 따른 기회 및 위험에 대한 정부의 관심이 증가함에 따라 챗GPT 등의 생성형 AI 애플리케이션이 공공 영역에서도 화두에

생성형 AI 애플리케이션은 광범위한 정부의 공공 서비스에서 가치를 창출하는 데 사용될 수 있다. 그러나 이를 실현하기 위해서는 지역 사회와 정부 인력 모두의 신뢰가 필요하다. 나아가 강력한 거버넌스, 리스크 관리, 기술의 내재적 한계에 대한 포괄적인 이해, 관리가 필요하다. 잘 훈련된 생성형 AI 시스템은 다른 자동화 도구와 함께 정부의 공공 서비스 제공 및 운영을 크게 향상할 수 있는 잠재력을 갖고 있다.
생성형 AI는 텍스트 생성 기능을 통해 청년, 소외계층, 외국인 등 다양한 대상을 위한 여러 유형의 커뮤니케이션을 지원하기 떄문에 공공 서비스의 개인화를 이끌 수 있다. 또한, 텍스트 요약 기능은 길거나 복잡한 관련 사례를 요약해 관리자의 의사결정을 개선하며, 일반 대중 또는 정책 입안자를 대상으로는 복잡하거나 난해한 문서를 요약함으로써 생산성 향상에 도움을 준다.
생성형 AI가 지원하는 또 다른 기능은 텍스트 분류다. 대규모 언어 모델(LLM)은 대량의 비정형 텍스트를 분류하고 대조해 의사결정 인텔리전스와 정책 개발 지원에 사용되는 데이터의 품질을 개선한다. 또한, 텍스트 분류는 시민 참여와 소통에서의 감정을 분석하는 감정 추출에도 사용될 수 있다.
생성형 AI가 공공 서비스에 가져다줄 수 있는 효율성과 편리함은 크지만 많은 공공 정책은 생성형 AI 사용과 관련한 투명성을 요구받고 있다. 정부 기관의 CIO는 이를 명심해야 한다.
LLM의 답변은 지시어인 프롬프트(Prompt)에 민감하게 반응한다. 이 때문에 정확한 정보처럼 보이도록 답변을 생성하는 ‘환각(Hallucination)’ 현상도 일어나므로 심각한 오류를 놓칠 수 있다. 결국 CIO는 정확성 보장을 위해 LLM이 인지적 모델이 아닌 통계적 모델임을 인지해야 한다. 일부 LLM은 인터넷이나 조직 데이터에 액세스함으로써 최신 결과를 제공할 수 있지만, 새로운 업데이트로 인해 생성 결과가 예기치 않게 바뀌면서 시간에 따라 답변의 일관성이 떨어지게 될 수 있다. 답변 자체에는 오류가 없을지라도, LLM 학습에 사용된 데이터가 불완전, 저품질, 편향적인 경우 결과물의 정확성은 크게 떨어진다.
답변 내용에서 외적인 문제가 생길 수 있다는 점도 주목해야 한다. 가장 먼저 저작권 위반의 가능성을 눈여겨봐야 한다. LLM 학습에 사용된 데이터와 결과 활용에 대한 저작권법은 아직 불확실한 영역이기 때문이다.
저작권뿐만 아니라, 개인정보 노출 문제도 생길 수 있다. 대중이 직접 사용할 수 있는 생성형 AI 시스템은 추가 학습을 위해 사용자의 입력 내용을 활용할 수 있다. 이는 충분한 수준의 안전성을 보장하기 어렵고, 일부 생성형 AI 시스템은 개인정보 보호법상의 의무나 대중의 기대치를 충족하지 못한다. 정부 기관의 CIO는 민감정보나 개인정보가 노출되지 않도록 강력한 조치를 취해야 한다.
또한, 생성형 AI 시스템에 제출된 정보와 응답을 둘러싼 메타데이터가 민감정보를 손상시킬 수 있는데, 공공 부문에서의 민감정보는 국방 및 주요 국가 기반 시설에 심각한 피해를 입힐 수도 있다. 따라서 민감 정보와 기밀에 관련해서는 별도의 정책적 관심이 필요하다.
생성형 AI는 상당량의 데이터를 활용함으로써 본질적으로 프롬프트에 대해 유용하거나 효과적인 응답을 제공하는 통계 기반 모델을 생성한다. 정부 기관이 이를 도입한다면 광범위한 정부 데이터 투입이 불가피하며, 그중 상당수는 민감 정보일 수 있다. 그렇기 때문에 민감 정보에 대한 모든 액세스를 통제하는 것이 중요하며, 이를 유지하기 위해서는 제약된 모델과 아키텍처가 필요하다.
CIO는 민감 정보가 노출될 위험을 최소화하는 정책을 채택해야 한다. 이는 개방형 환경에서의 생성형 AI 사용을 제한하고 기술적 기능을 신중하게 탐색하면서, 위험보다 더 큰 가치를 제공하는 사용 사례를 식별할 수 있는 정책을 말한다. 정부 기관의 CIO는 엔터프라이즈 보안 및 규정 준수 제어 기능이 있는 서비스를 그렇지 않은 서비스보다 우선순위에 두어 데이터가 고객 인프라 내에만 저장되도록 해야 한다.
마지막으로, 시스템이 일관되게 정확한 결과를 산출할 수 있을 만큼의 성숙도에 도달할 때까지는 사람이 결과를 검토해, 부정확하거나 잘못된 정보, 편향된 결과를 감지하는 사용 지침을 마련하는 것이 중요하다. 또한, 정부는 관리 시스템 과부하나 딥페이크 공격과 같이 LLM 및 생성형 기능을 악용한 악의적 활동으로 인한 위험을 완화할 수 있는 방법을 모색하여 문서화하고 계획해야 한다.
정부 기관의 공공 서비스 품질은 행정력이 효율적으로 활용되는지를 알려주는 척도다. 생성형 AI는 경직되기 쉬운 행정 시스템을 혁신적으로 개선할 수 있는 강력한 도구지만 큰 혼란도 초래할 수 있는 만큼, 도입과 운영에 신중을 기해야 한다. ‘디지털플랫폼정부’의 성공적인 구축은 이 생성형 AI를 얼마나 효과적으로 도입하고 안전하게 운영하느냐에 달려있다.
-> 인터뷰 | “디지털 혁신, 핵심은 속도다” 가트너 박동배 어드바이저가 말하는 ‘Ways of Working’
* 박동배 가트너 시니어 어드바이저는 한국 최초의 CIO 어드바이저이자 APAC CIO 리서치 및 자문그룹 멤버다. dl-ciokorea@foundryco.com