정부, 제품·서비스 개발·검증·인증단계 따라 신뢰확보 기준 제시·지원

정부가 4차 산업혁명을 견인하는 범용기술인 인공지능(AI)의 부정적 영향에 대응하기 위한 ‘신뢰할 수 있는 인공지능 실현전략’을 마련했다.

과학기술정보통신부는 13일 열린 대통령 직속 4차산업혁명위원회 제22차 전체회의에서 ‘사람이 중심이 되는 인공지능을 위한 신뢰할 수 있는 인공지능 실현전략’을 발표했다.



과기부에 따르면 인공지능(AI)이 전 산업·사회에 빠르게 도입·확산되며 혁신을 창출하고 있으나 확산에 따른 예상하지 못한 사회적 이슈와 우려도 함께 대두되고 있는 상황이다.

이에 미국, 영국, 프랑스 등 주요국은 인공지능에 대한 사회적 신뢰 확보를 인공지능의 사회적·산업적 수용의 전제요소로 인식하고 인공지능의 신뢰성을 강조하며 그 실현을 위한 적극적인 정책을 추진하고 있다.

이러한 흐름 속에서 사람이 중심이 되는 ‘인공지능 강국’으로 도약하기 위해 신뢰할 수 있는 인공지능 실현을 위한 지원 정책이 조속히 필요하다는 판단에 따라 이번 전략을 마련하게 됐다고 과기부는 설명했다.

이 전략은 지난해 12월 발표한 ‘인공지능 윤리기준’의 실천방안을 구체화한 것이다. 민간 자율적으로 신뢰성을 확보할 수 있도록 지원체계를 구축하며 재정·기술력이 부족한 스타트업 등에 대한 지원책을 담은 것이 특징이다.

앞서 인공지능 윤리기준은 ‘인간성을 위한 AI’를 위해 사회구성원이 지켜야 할 3대 원칙(인간 존엄성, 사회 공공선, 기술의 합목적성)과 10대 요건(책임성, 안전성, 투명성)을 제시했다.

이번 전략은 ‘누구나 신뢰할 수 있는 인공지능, 모두가 누릴 수 있는 인공지능 구현’을 비전으로 기술·제도·윤리 측면의 3대 전략과 10대 실행과제를 통해 2025년까지 단계적으로 추진된다.

우선 신뢰할 수 있는 인공지능 구현 환경을 조성하기 위해 민간에서 인공지능 제품·서비스를 구현하는 개발, 검증, 인증 단계에 따라 신뢰확보 기준을 제시하고 지원한다.

또 기술·재정적 상황이 열악한 스타트업 등도 체계적으로 신뢰성을 확보해 나갈 수 있도록 인공지능 구현을 위한 ‘데이터 확보→알고리즘 학습→검증’을 통합 지원하는 플랫폼을 운영한다.

안전한 인공지능 활용을 위해서는 민관이 인공지능 학습용 데이터 제작공정에서 공통으로 준수해야 할 표준 기준을 마련하기로 했다.

또 국민의 안전이나 기본권에 잠재적 위험을 미칠 수 있는 고위험 인공지능의 범주를 설정하고 서비스 제공 전에 해당 인공지능의 활용 여부를 이용자에게 고지하도록 할 계획이다.


인공지능이 국민생활 전반에 미치는 영향을 종합·체계적으로 분석하고 대응하기 위해 사회적 영향평가를 도입하고 인공지능 신뢰 강화를 위한 제도를 개선할 계획이다.

신뢰성 요소(안전성, 투명성 등)를 토대로 인공지능의 영향력을 종합 분석, 향후 인공지능 관련 정책이나 기술·관리적 조치방안 수립 시 활용할 계획이다.

또 정부는 사회 전반에 건전한 인공지능 의식이 확산할 수 있도록 인공지능 윤리교육 총론을 마련하고 개발자·시민에게 맞춤형 교육도 진행할 예정이다.

아울러 인공지능 윤리기준에 대한 구체적인 행위지침으로 연구·개발자, 이용자 등이 업무·일상생활 등의 속에서 윤리 준수 여부를 자율점검을 할 수 있는 체크리스트 개발·보급하기로 했다.

학계·기업·시민단체·공공 등 다양한 사회 구성원이 참여해 인공지능 윤리에 대해 의견 수렴 및 발전방향을 논의하는 공론의 장도 운영할 방침이다. 

최기영 과기정통부 장관은 “최근 발생했던 챗봇 사건은 우리 사회가 인공지능의 신뢰성에 대해 어떻게 대처해야 하는지 많은 숙제를 안기는 계기가 됐다”며 “기술적·재정적으로 부족한 중소기업 등이 신뢰성 기준을 준수하는 데 어려움이 없도록 지원 방안을 마련하는 등 사람이 중심이 되는 인공지능 강국 실현을 위해 동 전략을 차질없이 추진해나갈 계획”이라고 밝혔다.

[출처] 대한민국 정책브리핑(www.korea.kr)

<저작권자 ⓒ NEW연합국민뉴스, 무단 전재 및 재배포 금지>

조한열 기자 다른기사보기