본문 바로가기 주메뉴 바로가기
국회도서관 홈으로 정보검색 소장정보 검색

목차보기

인간과 로봇의 공존을 위한 나침반  

01 로봇과 로봇 경찰  
02 경찰과 AI: 범죄 예방 AI 기술  
03 로봇의 법적 지위와 법 집행  
04 AI 기술 위험성: 미 사법부 컴퍼스 사례  
05 AI 알고리즘이 뭐지? 왜 이토록 나의 관심사를 잘 알지?  
06 AI 편향과 블랙박스, 디지털 레드라이닝  
07 로봇이 가진 편향과 사례  
08 책임 있는 AI와 포용성  
09 로봇 경찰의 윤리적 프레임워크  
10 AI와 미래 치안

이용현황보기

AI와 로봇 경찰 이용현황 표 - 등록번호, 청구기호, 권별정보, 자료실, 이용여부로 구성 되어있습니다.
등록번호 청구기호 권별정보 자료실 이용여부
0003188785 353.36 -25-10 서울관 사회과학자료실(208호) 이용가능
0003188786 353.36 -25-10 서울관 사회과학자료실(208호) 이용가능
B000129381 353.36 -25-10 부산관 주제자료실(2층) 이용가능
B000129382 353.36 -25-10 부산관 주제자료실(2층) 이용가능

출판사 책소개

알라딘제공
인간과 로봇의 공존
기술 발전, 특히 인공지능(AI)과 로봇 기술의 발전이 인간 사회와 사고에 미치는 영향을 살펴본다. 마셜 매클루언의 “우리가 도구를 만들고, 다시 도구는 우리를 만든다”는 말을 인용하며, 기술이 인간의 사고와 신체적 능력을 확장하며 새로운 사회적 구조를 형성한다는 점을 강조한다. 특히 AI와 로봇 경찰의 등장에 대해, 그들이 단순히 도구에 그치지 않고 사회적, 법적 역할을 맡게 되는 변화에 대한 우려와 가능성을 다룬다.
중요한 문제는 AI 알고리즘의 편향성과 불투명성이다. AI가 인간의 결정권을 침식할 수 있고, 공정성이나 윤리적인 문제를 야기할 수 있다는 지적은 매우 중요한 논의다. 특히 2016년 미국의 컴퍼스 사례를 통해 AI 알고리즘이 편향을 드러내며 인간의 자유를 침해할 수 있음을 경고한다. 또 AI와 로봇 경찰이 공공의 안전을 위해 도입되더라도, 그 설계와 운영에 윤리적 고려와 공정성을 담보할 수 있는 법적, 제도적 장치가 필요하다.
이 책은 AI와 로봇 경찰이 실제 사회에서 어떻게 사용되고 있는지, 그리고 그것이 가져오는 윤리적, 법적 문제를 다루며, 책임 있는 AI 설계와 인간과 로봇의 공존을 위한 방향성을 제시하려고 한다. 또 AI와 로봇의 도입이 단순한 기술적 혁신에 그치지 않고, 인간성과 사회적 가치의 본질을 고민하는 과정임을 강조한다.
결국 이 글은 로봇과 AI가 인간 사회에서 중요한 역할을 맡게 되는 현 시대에서, 기술과 윤리, 그리고 공공의 신뢰를 어떻게 구축할 것인가에 대한 깊은 성찰을 제시한다.

책속에서

알라딘제공
기술은 본질적으로 선도 악도 아니지만, 사용하는 방식에 따라 그 성격이 결정된다.

로봇이 인간 사회에 깊숙이 들어온 오늘날, 로봇의 역할과 한계를 재정의할 필요가 있다. 로봇 경찰과 같은 기술적 구현은 치안과 정의의 미래를 어떻게 바꿀 것인지 질문을 던진다. 로봇 경찰은 효율과 공정을 겸비한 이상적 존재일까, 아니면 통제의 수단이 될 위험을 품고 있을까? 로봇 경찰의 개념과 사례를 통해 기술이 정의, 윤리, 인간성을 어디로 이끌어 갈지 탐구한다. AI와 로봇공학이 빚어낼 새로운 질서 속에서, 우리는 어떤 선택을 해야 할까?

-01_“로봇과 로봇 경찰” 중에서
유엔은 그동안 자율 규제로만 거대 플랫폼 기업 및 로봇 산업에 적용되던 것을 직접적으로 포괄할 수 있는 인공지능 법(AI Act, AIA)을 만들었다. AI 법은 AI 시스템의 위험(risk)을 평가하는 프레임워크를 제공하고 AI 시스템이 해당되는 위험 범주에 따라 의무를 정의한다. 일반적으로 그동안은 자율규제와 심의에 의존했다면, AIA는 연구 육성과 혁신을 허용하는 소위 샌드박스를 제공하거나, AI 기술이 책임감 있고 투명하게 사용되도록 보장하면서 사회적 악영향을 해결하는 것의 중요성을 강조하며, 윤리적 AI 연구에 대한 구조화된 환경 제공이 절실히 필요한 시점임을 입증한다. 위험 평가 및 관련 의무에 대한 규정이나 정의가 쉽지는 않겠지만, 혁신을 방해하지 않고 윤리적 고려 사항을 AI 시스템에 통합하는 문제와 씨름하면서 복잡한 규정 준수 환경을 탐색해야 한다. 반면 엄격한 규정이 잠재적으로 AI 개발 및 배포 속도를 방해할 수 있다는 점에서 이 법은 양날의 칼이다. AIA는 디지털 시대에서 사용자의 권리와 안전을 보장하는 데 유익하고, AI가 생성한 허위 정보, 딥페이크 및 기타 형태의 디지털 조작과 관련된 위험으로부터 사용자를 보호할 것을 약속한다. 투명성, 책임 및 신뢰성에 대한 명확한 기준을 설정함으로써, 사용자가 AI 기술에 대한 신뢰를 촉진하고 기술을 보호하면서 AI 발전으로부터 이익을 얻을 수 있도록 하는 것을 목표로 한다.

-03_“로봇의 법적 지위와 법 집행” 중에서
도덕적으로 올바르고 사회적으로 책임감 있는 방식으로 개발되고 사용되는 AI를 책임 있는 AI(Responsible AI, RAI)라고 한다. 책임 있는 AI는 AI 시스템을 안전하고 신뢰할 수 있으며 윤리적인 방식으로 개발, 평가 및 배포하는 접근 방식이다. AI 시스템은 이러한 시스템을 개발하고 배포하는 사용자에 의한 다양한 의사 결정의 산물이다. 책임 있는 AI는 사전에 시스템 용도에서 사용자가 AI 시스템과 상호 작용하는 방법에 이르기까지 이러한 결정을 더 유익하고 공평한 결과로 안내하는 데 도움이 될 수 있다. 즉, 사람과 목표를 시스템 설계 결정의 중심에 두고 공정성, 신뢰성 및 투명성과 같은 지속적인 가치를 존중하는 것을 의미한다(learn.microsoft.com, 2024). 블랙박스 AI와 기계 편향으로 인해 발생할 수 있는 부정적인 재정적·평판적·윤리적 위험을 줄이기 위해, 책임 있는 AI의 지침 원칙과 모범 사례는 소비자와 생산자 모두에게 도움이 되도록 고안되었다.

-08_“책임 있는 AI와 포용성” 중에서