LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link

제너레이티브 AI의 등장, 충격의 쓰나미를 가져오다.

AI 기술의 얼리 어댑터는 놀라운 속도로, 고품질의 향상된 기술, 이미지, 음악, 비디오를 만들어내고 있다. 사람이 제작한 것과 구분이 안되는 경우도 많다. 필연적인 이면은 시장에서 대체될 두려움에 쌓인 제작자들의 실망감이다. 상처에 불을 붙이자면, AI는 이러한 제작자들이 생성한 창조적인 작업물을 기반으로 트레이닝되고 있다.

규제와 산업 관행 측면에서 해결해야 할 중대한 문제는 분명히 있다. 저작권, 저작권 침해, 생계 위협, 학생과 훈련생의 엄격한 작업 윤리 쇠퇴 등 기존 평가 및 검토 방식이 빠르게 무용지물이 되어가고 있다.

하지만 모든 신기술은 항상 새로운 기회와 과제를 가져왔다. 항상 사회는 신기술을 수용하고, 이에 적응하고 진화해 왔다. 신기술을 포용하고 적절한 성과를 낼 수 있도록 활용해 온 것이다.

Ban Jiun Ean
Ban Jiun Ean
최고 경영자
Maxwell Chambers
싱가포르
info@maxwellchambers.com

산업혁명이 일어났을 때 자동화된 직조기의 발명은 대격동을 가져왔다. 직물 작업자들은 직업이 사라질 위협에 직면해야 했다. 전화 교환원은 전화 교환이 점점 더 정교화되면서 사라져 갔다. 워드 프로세서의 발명으로 타이핑 인력도 사라졌다. 사실이다. 하지만 이러한 사건들은 상당히 오랜 시간 동안 발생했다. 사람들에게는 기존 직업이 사라지더라도 기술을 개발하고 업그레이드할 기회가 있었다.

하지만 AI 혁신의 속도는 정부가 규제하기에도 너무 빠르다. 개개인이 이전 직업에서 벗어나 새로운 기술을 학습할 때까지 기다려주지 않을 것이다. 그러므로 신기술에 대한 불안감은 당연한 것이다.

하지만 이러한 문제는 AI가 가져올 가장 큰 문제와 비교될 수 없다. 바로 신뢰의 문제다.

기기가 더 빠르고 효과적으로 일하는 것은 문제의 빙산의 일각에 지나지 않는다. 기기는 더 많은 일을 하고, 사람에게 너무 위험한 곳에서 작업할 수 있다. 기기는 100명의 일을 해낼 수도 있다. 이러한 모든 경우에서 기기는 단순히 의사결정을 하는 사람이 들이는 노력의 몇 배의 일을 할 뿐이다.

기기가 우리에게 무엇을 해야 할지 지시한다면 이는 커다란 문제다. AI가 가져올 위협은 사람을 의사 결정의 루프에서 완전히 제외시킬 수 있다는 것이다.

어떤 면에서 우리는 이미 그러한 현실에 있다. AI 알고리즘은 이미 독자적으로 결정한다. 어느 승객이 어떤 드라이버를 만날 것인지 결정한다. 사람의 개입 없이 안면 인식 확인을 수행하여 개인의 신원에 대한 결정을 내린다. AI 알고리즘은 브라우징 또는 쇼핑 습관을 연구하여, 수천 수백만개의 옵션 중 관심 있을 만한 페이지나 상품에 대한 추천을 한다. AI 알고리즘은 소셜 미디어에 표시하거나 표시하지 않을 트윗 또는 스레드를 결정한다.

우리가 좋아하든 그렇지 않든, 우리의 삶은 이미 어느 정도 AI의 결정 하에 있다.

음식, 쇼핑, 영화 또는 교통수단 등 더욱 일상적인 문제와 관련해 우리는 가장 저가에 효과적이고 효율적이기만 하다면 누가 우리를 대신해 결정을 내리는지 거의 신경쓰지 않는다. 우리는 누가 어떻게 우리의 결정을 내리는 가에 대해 신경 써야만 하는 영역에 AI가 이미 스며들어 있는 상황에서도 이에 무감각하다.

챗GPT가 던지는 레시피를 신뢰할 수 있는가? 그 레시피로 만든 음식을 먹을 것인가? 소스와 컨텍스트가 제공되지 않더라도 AI가 컴파일링한 소위 ‘사실’을 신뢰할 수 있는가? AI 지원 앱에서 가져온 ‘의료 조언’에 따라 행동할 수 있는가? 그렇다면 시각적 요소와 청각적 요소가 디지털화되었다면 우리는 우리가 보고 듣는 것을 믿을 수 있는가?

딥페이크는 이미 제너레이티브 AI의 등장 이전부터 문제가 되어 왔다. 이제 한층 더 고도화된 딥페이크가 연예인과 평범한 사람 모두에게 악몽 같은 삶을 선사할 수 있다.

신뢰는 점점 더 새로운 통화가 되어 간다. 신뢰는 구글을 최고의 검색 엔진으로 만들어 주었다. 사람들은 다른 엔진 대비 구글의 검색 결과를 신뢰한다. 하지만 기술의 작동 방식을 알지 못한다면 그 기술을 신뢰할 수 있겠는가? 정보의 출처도 기술의 설계도 알지 못한다면 어떠한가? AI를 중요한 의사 결정에 사용하는 데에는 근본적인 문제가 있다.

극단적이지만 계속 사용되어오는 예는 자율살상무기다. 전 세계 군대가 AI 개발에 박차를 가하고 있다는 건 비밀이 아니다. AI 경쟁에서 승리하는 국가가 승자가 될 것이라는 것은 꽤 일반적인 믿음이다. 각국 정부는 AI가 구동하고 제어하는 무기를 만드는 데 방대한 노력을 기울이고 있다. 또한 사이버 전쟁 영역에서 AI 도구를 사용하기 위한 전략을 세우고 있다.

이론가들과 비판가들이 옹호하는 레드 라인이 있다. 즉, 살상 결정이 절대 AI에 넘어가서는 안 된다는 것이다. 이 결정은 항상 사람이 내려야만 한다. 이러한 사고의 기저가 되는 논리는 사람이 여전히 윤리, 도덕성,의무, 공경, 충성, 동료애, 심지어 순전한 사리사욕의 측면에서 어느 정도 그러한 가치의 영향을 받는다는 것이다. 무서운 사실은 무기화된 AI에는 그러한 방호책이나 고려가 없다는 것이며 AI는 숫자와 확률에 기반해 살상 명령을 내릴 수 있다는 것이다.

그러므로 사람들은 최종 살상 결정은 항상 사람의 손에 있어야 한다고 말한다.

누구나 AI가 사람들의 삶과 죽음을 결정하지 않아야 한다는 데 동의한다. 하지만 우리는 AI가 전쟁과 관련된 사항을 얼만큼 보조할 수 있는지에 대해서는 동의하지 않는다. 우리가 가장 중요한 의사 결정을 포기하고 AI에게 맡길 수 있는 일의 기준선은 대체 어디인가?

현재 많은 군대는 AI를 사용해 전장에서 빗발치는 정보를 처리하고 분석한다. 여기에는 잠재적 위협과 적을 식별하기 위해 다양한 센서에서 수집된 정보와 다른 방대한 양의 데이터가 결합되어 있다. AI가 작업을 완료하면 이론적으로 결정을 내리는 대상은 사람이다. 하지만 AI가 전장 정보에 대한 분석을 기반으로 조언을 제공할 때, 만약 AI가 대상의 위협이 “99%” 확실하다고 보고한다면, 어떤 결정자가 ‘사살’을 거부하겠는가? 아니면 높은 신뢰도로 다시 대상을 ‘위협 없음’으로 판단한다면 누가 ‘사살’의 확신을 갖을 수 있겠는가?

즉, 사살 결정 여부는 이미 AI와 알고리즘에 위임되어 있다. 중요하지 않은 결정을 제외하고 사람은 기본적으로 확인 도장을 찍는 역할만을 하는 것이다.

이 모든 것이 법과 어떤 관련이 있는가? 법률과 사법 집행 영역에서는 이미 AI 사용과 관련된 이러한 문제들이 제기되어 왔다.

영국에서 오아시스(Oasys)라는 시스템은 약 20년 동안 존속하며 재소자 출소 후 재범 위험을 평가하는 데 사용되어 왔다. 가석방에 대한 의사 결정에 활용된 것이다. 미국에서는 콤파스(Correctional Offender Management Profiling for Alternative Sanctions, 교정 위반자 관리 프로파일링)가 비슷한 기능을 수행해 왔다.

많은 데이터 요소를 기반으로 이러한 시스템은 재범 가능성을 예측한다. 또한 가석방을 허가 또는 거부할 것인지에 대한 의사 결정을 한다. 이러한 시스템에 대한 옹호자와 비판자가 있다. 일부는 효율성과 속도를 높이 평가하고 일부는 시스템 데이터 트레이닝에 기인한 편견과 차별적 결과의 위험성을 지적한다. 이러한 데이터는 민감성 때문에 대중이 액세스할 수 없다.

아직 삶과 죽음에 대한 문제까진 아니지만 이러한 시스템은 여전히 자유냐 구속이냐 하는 개개인의 운명을 결정한다. 하지만 결정이 어떻게 왜 이뤄지는지는 불분명하다. 알고리즘을 이해하는 것은 너무 복잡하기 때문이다. 특히 머신 러닝이 등장해 역사적으로 전례 없는 속도로 스스로가 데이터를 트레이닝하는 현실에서 그러하다. 알고리즘과 트레이닝 데이터에 외부자가 액세스 불가능한 채로 남아있는 한 소수자와 특정 사회경제배경의 사람들이 불공평하게 프로파일링 된다는 비난은 쉽게 해결되거나 무시할 수 없다.

복합중재센터인 맥스웰 챔버스(Maxwell Chambers)는 기술 도입을 고려할 때 이러한 우려를 심각하게 검토한다. 중재 해결을 위해 온라인 회의와 혼합 현실을 사용하는 데 긍정적인 입장이지만 당 기관에 적절한 AI 제품을 연구하는 데 신중한 입장이다. 원치 않는 결과를 가져오지 않는 확신을 줄 수 있는 충분한 안전망이 있는지 확인하고 있다.

거의 확실히, AI 도구는 더욱 정교해지고 사용자 편의성도 높아질 것이다. 곧 도입이 광범위하게 퍼져 비즈니스의 근간이 될 날이 올 것이다. 그 때까지 당 기관은 조금씩 앞으로 나아가되 주의 깊게 AI를 살펴볼 것이다.

마찬가지로 싱가포르는 AI에 집중 투자하여 소비자를 보호하는 동시에 혁신과 성장의 기회를 제공할 수 있는 균형점을 찾고 있다.

AI의 힘은 법률 리서치와 초안 작성 속도를 높여주는 것에 그치지 않는다. 이제 AI의 영향력과 위험은 분명해졌다. 어쩌면 지금은 알고리즘에 무엇을 내어줄지 그리고 무엇을 내어주지 않을지를 검토할 적기일 수 있다.

Maxwell Chambers

MAXWELL CHAMBERS
32 Maxwell Road #03-01
Singapore 069115
電話: +65 6595 9010
이메일: info@maxwellchambers.com
www.maxwellchambers.com

LinkedIn
Facebook
Twitter
Whatsapp
Telegram
Copy link