한국의 AI 규제 프레임워크 분석

    저자: 고환경, 이일신, Matt Younghoon Mok, 서울대무법인 우주
    0
    66
    LinkedIn
    Facebook
    Twitter
    Whatsapp
    Telegram
    Copy link

    디지털 혁신이 ‘세상의 모양을 바꾸는’ 시대에 인공지능(AI)은 산업과 사회 구조를 혁신하는 ‘중추적인 힘’으로 부상하고 있다. 최근 몇 년 동안, 전세계적으로 AI 규제 접근방식을 보다 구체화하려는 움직임이 있었다. 한국도 이러한 흐름에 적극적으로 참여하면서 AI 정책 및 규제 프레임워크 개발에 중대한 이정표를 세우고 있다.

    2019년 12월 인공지능 국가전략 발표를 시작으로, 2020년 12월 인공지능법, 제도 및 규제 개선 로드맵 발표 및 2023년 5월 디지털 권리장전 발표 등 AI 규제 환경 조성을 위해 적극적으로 나서고 있다.

    AI 규제는 1차적으로 법안을 통해 시행되고, 분야별 규제 기관들의 가이드라인으로 보완된다. 이번 기사에서는 한국의 AI 관련 입법 현황을 살펴보고 개인정보와 지식재산권 보호에 초점을 맞춰 AI의 핵심 쟁점에 대해 살펴보고자 한다. 이를 통해 복잡하면서도 역동적인AI 규제 관리에 필요한 한국의 전략적 접근방식에 대한 이해가 높아질 것이다.

    AI 법안

    Hwan Kyoung Ko, Lee & Ko
    고환경
    파트너
    서울 소재 법무법인 광장
    전화: +82 2 2191 3057 이메일: khk@leeko.com

    현재 AI에 대해 구체적으로 기본이 되는 법은 없지만, 2022년부터 AI와 관련한 여러 법안들이 국회에 발의되고 있다. 현재 검토 중인 주목할 만한 법안으로는 기존에 발의된 단편적인 법안들을 통합하고 조정한 ‘인공지능산업 육성 및 신뢰 기반 조성 등에 관한 법률안(AI법)’이 있다.

    아직 세부 내용은 확정되지 않았지만, 이 법안은 EU의 AI법과 달리 “선(先) 기술도입, 후(後) 규제” 원칙에 따라 AI 기술 발전과 산업 활성화 지원을 목표로 하는 것으로 알려져 있다. 또한 사용자에 대한 사전 고지 의무화, 신뢰성 및 안전성 확보 등 고위험 AI 분야에 대한 구체적인 의무 사항도 제시하고 있다.

    그러나 여러 논의를 거쳐 생성형 AI와 딥페이크에 대한 규제를 포함하자는 제안이 제기되었고, 규제 접근방식에 대한 시민 단체의 반대도 있었기 때문에 법안 확정 여부는 더 지켜봐야 할 것으로 보인다.

    게다가, 한국의 여러 법에는 AI 관련 사안을 규제하는 조항들이 이미 포함되어 있다. 예를 들어, ‘신용정보의 이용 및 보호에 관한 법률’은 신용정보 주체가 자동화된 평가 및 결정에 대한 설명을 요구할 수 있는 권리, 유리한 정보를 제출할 권리, 기본 정보의 정정 또는 삭제를 요청할 권리 등을 규정하고 있다.

    개인정보보호법 또한 정보 주체에게 자신의 권리 또는 의무에 중대한 영향을 미치는 자동화된 결정을 거부하고 해당 결정에 대한 설명을 요청할 수 있는 권리를 부여하고 있다. 자동화된

    결정에 대한 설명 요청권은 자동화된 결정이 정보 주체의 권리 또는 의무에 중대한 영향을 미치지 않는 경우에도 행사할 수 있다는 점에 주목할 필요가 있다.

    뿐만 아니라, 정보 주체가 이러한 자동화된 결정을 거부하거나 설명을 요청하는 경우, 불가피한 사유가 없는 한 정보 관리자는 자동화된 결정 사항을 적용하지 않아야 하고, 사람의 개입을 통해 다시 처리하고 이에 대해 설명하는 등 필요한 조치를 취해야 한다.

    ‘데이터 산업진흥 및 이용촉진 관한 기본법’은 AI 전용 법은 아니지만, 상당한 인적 또는 물적 투자를 통해 생성되는 “데이터 자산”의 보호를 강조하면서 AI 학습에 데이터를 활용할 때 적용 가능한 조항을 포함하고 있다.

    주요 정책, 규제 개발

    Il Shin Lee, Lee & Ko
    이일신
    파트너
    서울 소재 법무법인 광장
    전화: +82 2 772 5982 이메일: ilshin.lee@leeko.com

    (1) 개인정보 보호. AI 기술이 발전하면서 개인정보 분야에서는 이에 대한 보호 문제가 새롭게 떠올랐다. 이렇게 진화하는 개인정보 보호 위험 문제를 해결하기 위해 한국의 개인정보 보호와 관련한 주요 집행 기관인 개인정보보호위원회(PIPC)는 2023년 8월 “인공지능 시대 안전한 개인정보 활용”이라는 제목의 정책 방향을 발표했다. 이 정책은 원칙에 기반한 규제 접근방식을 강조하면서 개인정보 침해 위험 최소화 및 AI 산업 활성화를 목표로 하고 있다.

    PIPC의 정책은 계획 수립, 데이터 수집, 학습, 제공 등 AI 모델/서비스 라이프 사이클의 모든 단계에 걸쳐 포괄적인 데이터 처리 표준과 보호 조치를 수립한다. PIPC는 AI 품질 강화를 위해 원본 동영상 데이터의 사용을 장려하고, AI 기술의 안전한 개발과 테스트 활성화를 위해 “개인정보 보호구역”이라는 시스템을 도입하고 있다.

    또한, 이 정책은 AI에 대한 규제 ‘샌드박스(sandbox)’와 사전 적정성 평가 시스템을 도입한다. 이러한 사전 적정성 평가 시스템은 규제 기관과 사업 주체가 협력하여 새로운 서비스 및 기술 발전에 대한 PIPA 준수 전략을 수립하는 협력 프레임워크를 형성한다. 이러한 규정 준수 계획을 준수하는 사업자는 운영 환경이 변경되지 않는 한 행정 조치를 통해 보호를 받는다.

    AI 혁신을 더욱 활성화하기 위해, 2024년 2월 PIPC는 AI 개발 지원에 필요한 비정형(非定型) 데이터의 익명화를 위한 가이드라인을 발표했다. PIPC는 AI 관련 규제 프레임워크를 ‘연중무휴로’ 강화할 수 있도록 공공 개인정보 이용 가이드라인과 같은 몇 가지 중요한 가이드라인을 발표할 계획이다.

    이러한 프로그램들은 진화하는 AI 환경에 걸맞게 개인정보 보호 규정을 채택하여 ‘혁신’과 ‘정보 주체의 권리 보호’ 사이의 균형을 맞추기 위한 한국의 노력을 보여준다.

    (2) 지식재산. AI와 관련한 지식재산(IP) 문제는 (1) AI 모델 학습에서의 IP 보호, (2) AI 결과물에 의한 IP 침해, (3) AI 결과물의 IP 보호 등 크게 세 가지 항목으로 분류할 수 있다.

    AI 학습의 경우에는 데이터 수집에서, 특히 온라인 콘텐츠를 수집하는 웹 스크래핑(web scraping)과 같은 방식에서 종종 문제가 발생한다. 이러한 방식은 이미지, 텍스트 또는 프로그램과 같은 원본 저작물의 저작권을 침해할 가능성이 있다.

    저작권법이 AI 학습에 필요한 저작물 사용을 명시적으로 허용하고 있지 않은 상황에서, 저작자의 정당한 이익을 부당하게 해치지 않고 저작물의 “공정한” 사용을 허용하는 공정 사용(fair use) 조항의 적용 여부가 주요 논쟁의 대상이 되는 경우가 많다.

    Matt Younghoon Mok, Lee & Ko
    Matt Younghoon Mok
    외국변호사(파트너)
    서울 소재 법무법인 광장
    전화: +82 2 6386 1901 이메일: younghoon.mok@leeko.com

    그러나 학계에서는 이에 대한 논의가 계속되고 있고, AI 학습에 사용되는 데이터에 공정 사용 조항을 적용해야 하는지에 대해서는 여러 의견들이 분분하다. 이 분야의 법은 여전히 발전 중이지만, 직접적인 법적 판례는 아직 확립되어 있지 않다.

    이와 동시에, 텍스트 및 데이터 마이닝(TDM) 규정을 도입하는 저작권법 개정안도 검토되고 있다. 이 개정안은 저작권자의 명시적인 허락이 없더라도 특정 조건 하에서 AI 학습을 위한 저작물 이용을 허용하는 것을 목표로 한다. 이 법안은 현재 국회에서 검토 중인데, 진화하는 AI 기술 환경에 맞게 저작권법을 개정하려는 노력을 실감할 수 있다.

    AI가 생성한 저작물의 잠재적인 지식재산권 문제와 관련하여, AI 창작물이 의도치 않게 상표권 또는 공적(公的) 인물의 초상권 등 기존의 지식재산권을 침해할 수 있을 것으로 예상된다. 그러나, 현재로서는 이러한 우려를 해결할 수 있는 명확한 규정이나 법적 판례가 부족하다.

    AI가 생성한 저작물을 지식재산으로 보호하는 것과 관련하여, 한국의 법률적 해석은 ‘오로지’ AI에 의한 결과물에는 저작권이 있다고 인정하지 않는다. 그럼에도 불구하고, 2023년 12월 문화체육관광부는 한국저작권위원회와 함께 ‘생성형 AI 저작권 안내서’를 발간하면서 AI가 생성한 저작물을 수정하거나, 보완하거나 또는 배열하는 과정에서 인간의 창의성이 개입된 경우에는 저작권 보호 대상이 될 수 있다는 입장을 취했다.

    이러한 입장은 AI 기능의 미묘한 차이를 전통적인 지식재산권법의 틀에 맞춰 조율하려는 지속적인 노력을 보여준다.

    (3) AI 신뢰성 확보를 위한 산업 단체표준 제정. 2023년 12월, 과학기술정보통신부는 한국정보통신기술협회와 공동으로 ‘AI 시스템 신뢰성 강화 요건’을 산업 단체표준으로 제정했다.

    산업 단체표준은 산업표준화법에 따라 정부와 ‘정부가 지정한 단체’가 특정 전문 분야에 적용되는 기호, 용어, 성능, 절차, 방법, 기술 등에 대한 표준을 정하여 국민의 안전을 확보하고 소비자를 보호하며 구성원의 편의를 도모하기 위해 제정한 표준이다.

    산업 단체표준에는 위험 관리 계획 및 실행부터 서비스 범위 및 상호작용 대상에 대한 설명 제공에 이르기까지 AI 시스템의 전체 수명 주기 동안 이해관계자들이 충족해야 하는 15가지 요건이 포함되어 있다. 이러한 요건은 종합적인 관리와 투명한 운영 보장을 통해 AI 시스템에 대한 신뢰도를 높일 수 있도록 설계되었다.

    결론

    한국은 AI 부문의 글로벌 경쟁력 강화와 새로운 위험에 대한 관리를 위해 입법 및 규제 환경을 선제적으로 발전시키고 있다. 곧 시행될 AI법은 광범위하게 영향을 줄 수 있는 규제 프레임워크에 혁신적인 변화를 가져올 것이다.

    2024년 3월부터 효력을 발생하는 개정된 개인정보보호법의 자동화된 의사 결정 관련 조항은 AI를 활용하는 산업에 적지 않은 영향을 줄 것이다. 2024년 AI법 도입과 추가적인 산업별 가이드라인을 준비하고 있는 상황에서, 이러한 발전에 대한 면밀한 모니터링과 분석이 어느때보다 중요하다.

    Lee & Ko

    법무법인 광장

    대한민국 04352 서울특별시 중구

    남대문로 63, 한진빌딩
    이메일: mail@leeko.com
    www.leeko.com

    LinkedIn
    Facebook
    Twitter
    Whatsapp
    Telegram
    Copy link