과기정통부, AI 법제정비단 공개세미나…인공지능 위험성 판단·규율 방안 논의

조택영 기자
입력일 2022-01-25 12:01 수정일 2022-01-25 13:02 발행일 2022-01-25 99면
인쇄아이콘
KakaoTalk_20211116_135209440

과학기술정보통신부(과기정통부)는 ‘인공지능(AI)의 위험성 판단과 법적 과제’를 주제로, AI 법·인문사회·기술 분야 전문가들이 참여하는 ‘제4차 인공지능 법·제도 공개세미나’를 연다고 25일 밝혔다.

과기정통부 주관으로 구성한 인공지능 법제정비단은 AI 법·제도·규제 관련 주요 이슈를 연구하는 전문가 협의체다. 지난 3월부터 제2기 활동을 출범해 현재까지 총 4차례에 걸친 공개세미나를 개최하며 학계와 업계 국민의 의견을 수렴하고 있다.

지난 9월, 10월, 12월에는 ‘인공지능 법적지위 어디까지?’, ‘공정한 알고리즘과 자율적 관리방안’, ‘인공지능 사고와 범죄, 누가 어떻게 책임질까?’ 등의 주제로 공개세미나를 개최한 바 있다.

이번 세미나에서는 지난해 4월 유럽연합(EU)에서 제안한 ‘인공지능 법안’과 같은 세계적인 AI 규율 동향을 살피고, 인공지능 위험성을 분류해 다양한 사례를 바탕으로 논의하는 자리를 갖는다.

우선 EU에서 위험수준별 인공지능을 어떻게 분류하고 있는지, 금지되는 인공지능과 제품·서비스 출시에 일정한 요건이 요구되는 고위험 인공지능을 중심으로 국내 산업 환경에 비춰 위험기반 접근방식의 적절성을 살펴본다.

더불어 잠재적 위험성에 대해 관리가 필요한 ‘고위험 인공지능’에는 무엇이 있고, 어떤 의무사항을 통해 규율하는 것이 적절한지를 기술·산업의 발전과 신뢰성 확보 측면에서 검토한다.

박윤규 과기정통부 정보통신정책실장은 “인공지능이 사람의 생명과 신체, 기본권에 위해가 될 가능성이 있는 경우, 적절한 규율 방안을 마련할 필요가 있다”며 “다만 AI 기술 자체는 중립적인 것으로 우리 삶에 다양한 혜택을 제공하는 등 무궁무진한 발전가능성을 제시하고 있어, 관련 기술과 산업 발전을 저해하지 않도록 구체적인 활용 사례를 중심으로 한 위험성 판단과 규제가 필요할 것”이라고 밝혔다.

그러면서 “최근 인공지능 기술의 빠른 발전속도를 고려하면, 국민의 안전과 신뢰의 기반을 이루는 법과 제도가 현실을 유연하게 반영할 수 있도록 인공지능 법제정비단의 역할이 계속될 필요가 있다”고 강조했다.

세종=조택영 기자 cty@viva100.com