4차 산업혁명이 도래함으로써 인공지능은 인간과 어떤 식으로든 공존하게 될 수 밖에 없다. 인공지능 관련 기술이 다양한 산업에 활용되면서, 인공지능에 의한 무분별한 개인정보의 수집 및 활용 위험에 대한 우려가 제기되고 있다.
인공지능 기술을 이용한 서비스가 개발되고 있으나, 개인정보의 수집기준 및 활용범위 등 관련 법체계가 아직 정립되어 있지 않은 상황에서 개인정보의 수집과 활용으로 인한 개인정보 침해로 이어질 수 있는 위험성이 증가하고 있다.
우선, 본 논문에서는 인공지능의 의미, 인공지능의 기술의 특성과 유형을 검토하고, 인공지능 기술의 활용에 따른 개인정보와의 관계를 검토하기 위해 개인정보와 가명정보, 가명처리 및 개인정보처리자의 개념을 살펴보고, 개인정보의 유출위험 증가에 따른 보호 필요성과 단계별 보호조치 방안을 연구하였다.
또한 판례연구를 통하여 아이디, 이메일 주소, 휴대전화번호 등에 사례를 중심으로 개인정보법의 적용 여부를 검토하고, 우리나라 판례가 개인정보의 개념과 적용범위를 넓게 인정하고 있음을 확인하였다.
그리고 인공지능 기술의 활용과 개인정보와의 관계에 따른 처리기준 및 개인정보 처리시 기술연구 기획단계 활용, 이용단계별 고려사항과 보호관리 방안을 연구하였다. 인공지능의 개인정보 처리기준과 단계별 허용범위와 관련하여 인공지능의 개인정보 학습단계, 활용단계, 결과물 생성단계 순으로 구분하여 설명하였다. 특히 학습단계 과정에서 AI 학습데이터와 프로파일링의 주요 내용으로 학습데이터와 가명처리, 프로파일링과 신용정보법에서 규정하고 있는 자동화평가와의 관계 등에 관하여 고찰하였다.
한편, 주요국의 개인정보 보호를 위한 인공지능 로봇에 대한 가이드라인 등 규제 동향을 비교·연구하고, 그 효과 등 의미를 고찰하였다. 최근 개인정보 보호를 위해 문제점으로 대두되고 있는 인공지능 챗GPT에 대한 세계 각국의 규제 배경, 챗GPT와 개인정보 보호와의 딜레마, 개인정보 보호관리, 글로벌 기업의 규제지침 수립과 주요 각국의 규제 동향 및 챗GPT에 의한 개인정보 침해 대처방안 등을 비교·연구하였다.
현재까지는 인공지능의 기술 수준이 弱인공지능의 단계에 머무르고 있지만, 앞으로 强인공지능이 나타날 가능성에 주목하면서 인공지능에 대한 책임귀속의 문제가 제기되었을 경우, 우리의 입법 정책적인 방향을 제시하고자 주요 각국의 인공지능에 대한 책임법제를 비교하고 고찰하였다.
다음으로 인공지능의 법적 지위와 관련된 주요 법리적 쟁점을 연구하였다. 이와 관련하여 새로운 유형의 '전자인'(electronic person)이라는 개념을 비롯하여, 인공지능 로봇의 법인격 지위와 관련한 긍정 및 부정론 등 논점을 고찰하면서, 아울러 레비나스의 책임개념 이론의 확장·적용 가능성 여부도 연구하였다. 아울러 인공지능 기술의 발전에 따른 법인격 부여 가능성 등 법적 지위 긍정론을 중심으로 논리를 전개하고, 향후 우리의 입법 정책적인 방향과 함께 이론적 근거를 제시하고자 하였다.
다음으로 인공지능 기술을 활용한 개인정보 보호 이슈와 사례를 중심으로 검토하였다. 예를 들면, 인공지능 챗봇(chat bot) '이루다'(Iruda) 사건, 구글과 메타의 맞춤형 온라인 광고 플랫폼 사용의 경우 사실관계 등을 검토하고, 이에 따른 개인정보 침해 사례 분석을 통해 효율적인 개인정보 보호 강화방안으로 관리적·물리적·기술적 보안 대책을 제시하였다.
특히 AI 등 신기술을 기반으로 제기되는 단계별 개인정보 처리과정에서의 위협요소 등 원인과 보호이슈 및 갈등 문제를 중점 연구하면서 이를 조화롭게 균형점을 찾아내고 해결하는데 필요한 세부 기준, 가이드라인, 개인정보 영향평가 제도 적용 가능성 등을 검토하였다.
그리고 본 논문에서는 인공지능 활용에 따른 개인정보 이슈와 사례 분석을 통해 적용될 책임문제를 해결하기 위해 인공지능이 가져올 법적 책임귀속에 대한 근본적인 질문에 대하여 어떻게 대응할 것인지에 대한 해답을 찾아보았다. 그런데 인공지능은 본문에서 설명한 바와 같이 학습과 추론기술을 기반으로 스스로 사고하고 판단하며 자율성과 합리성을 토대로 인간의 생활 속에 빠르게 스며들고 있다.
이러한 인공지능 정보기술 등의 신기술 개발은 기존의 책임법 체계에서 예정하고 있던 것이 아니어서, 이에 대한 현행 제도의 패러다임 변화가 필요함을 강조하였다.
인공지능 기술이 주요하게 활용되는 건강정보, 운행정보 등 분야별 사례를 중심으로 책임귀속 여부를 검토하면서 개인정보 보호 관리를 위한 주요 법적 책임귀속여부 등 논점들을 다루었다. 즉, 자율주행차량이 사고를 낸 경우 누가 책임을 져야하는지, 인공지능 기술 하자로 인하여 발생한 사고의 경우 누가 책임을 져야 하는지 등의 기존의 책임법 원리로는 적절하게 대응할 수 없는 상황이 발생할 수 있기 때문이다.
인공지능을 악용하는 인간이 사회에 害를 끼칠 위험은 다른 모든 기술과 마찬가지로 현시점에서도 충분히 주의를 기울일 필요가 있다. 이러한 문제에 대하여 성급하게 안전과 안심을 보장하는 것이 아니라, 현상을 정리하고 법적 논점들을 고찰하였다. 그리고 무슨 문제가 있는지 무엇을 앞으로 검토해 나갈 것인가를 여러 관점의 상호 관계성을 바탕으로 책임 귀속의 원리를 비교·연구하였다.
이와 관련하여 인공지능 활용에 따른 개인정보 보호책임과 관련하여 개인정보처리자 및 인공지능을 설계, 제작, 운영하는 배후자의 책임 여부를 중심으로 고찰하였다. 여기서 인공지능에게 적용 가능한 책임귀속과 관련하여 그 조건과 유형을 살펴보았다.
현재의 인공지능 기술발전 단계를 감안할 때, 인공지능에게 적용 가능한 책임의 형태로는 킬 스위치 제도를 통하여 인공지능에게 탑재되어 있는 프로그램의 사용중지, 폐기청구 등의 조치를 할 수 있을 것이다.
또한 인공지능에게 등록·등기제도의 도입 및 책임보험제도의 적용 등을 입법 정책적인 방향으로 적극 고려함으로써 향후 인공지능과 인간이 상호 공존할 수 있는 방안을 제시하였고, 인공지능을 활용하는데 있어서 책임법리의 토대를 마련하는 데 기여할 수 있을 것임을 강조하였다.