표제지
목차
논문개요 10
제1장 서론 13
제1절 연구 문제와 목적 13
제2장 이론적 배경 19
제1절 인공지능(Artificial Intelligence)의 정의 19
제2절 윤리적 딜레마 21
제1항 윤리적 딜레마(moral dilemma)의 정의 21
제2항 이중과정이론(dual process theory) 22
제3항 딜레마 판단의 인지적 과정 24
제3절 윤리적 판단 27
제4절 작위·부작위와 딜레마 판단 28
제5절 인공지능과 딜레마 판단 31
제1항 인간과 인공지능의 윤리적 선택에 대한 사람들의 태도 31
제2항 인간과 인공지능의 딜레마 판단과 윤리적 선호 32
제3장 연구목적 및 내용 37
제4장 연구 1 41
제1절 연구 방법 41
제1항 연구대상 및 자료 41
제2항 변수 측정 43
제3항 자료 분석 45
제2절 결과분석 47
제1항 윤리적 선택(공리주의 vs 의무론적) 47
제2항 갈등 수준 49
제3항 윤리적 선택에 따른 갈등 수준 51
제4항 주관식 답변에 대한 질적분석 52
제3절 결론 59
제5장 연구 2 63
제1절 연구 방법 63
제1항 연구대상 및 자료 63
제2항 변수 측정 64
제3항 자료 분석 66
제2절 결과 분석 67
제1항 행위자(인간/인공지능)와 발생 가능성에 따른 윤리적 선택(공리주의/의무론) 67
제2항 갈등 수준 68
제3절 결론 69
제6장 연구 3 70
제1절 연구 방법 71
제1항 연구대상 및 자료 71
제2항 변수 조작 및 측정 72
제3항 자료 분석 74
제2절 결과 분석 75
제1항 옳은 정도 75
제2항 수용 정도 80
제3절 결론 84
제7장 종합 논의 87
참고문헌 97
부록 106
부록 1. 실험 2 설문지 106
부록 2. 실험 3 설문지 108
Abstract 111
〈표 1〉 실험참가자 인구통계학적 정보(연구 1-1, 1-2) 42
〈표 2〉 갈등 수준 측정도구의 신뢰도 분석결과 45
〈표 3〉 주관식 답변 분류 46
〈표 4〉 맥니마 검정결과(실험 1-1, 1-2) 47
〈표 5〉 대응표본 t검정 결과(실험 1-1, 1-2) 50
〈표 6〉 윤리적 선택에 따른 주관식 답변 유형별 실험참가자 수와 비율 58
〈표 7〉 조건 별 실험참가자 인구통계학적 정보(실험 2) 64
〈표 8〉 갈등 수준 측정도구의 신뢰도 분석결과(실험 2) 66
〈표 9〉 조건 별 실험참가자 인구통계학적 정보와 옳은 정도와 수용정도 평균값(실험 3) 72
〈표 10〉 일반화 선형모형 분석 결과, 옳은 정도(실험 3) 75
〈표 11〉 일반화 선형모형 분석 결과, 수용 정도(실험 3) 80
〈그림 1〉 혼합형 모델(hybrid model): 사람들은 딜레마 상황에서 먼저 빠른 사고에서 공리주의적 직관과 의무론적 직관을 함께 고려하여 갈등하지만, 느린 사고로 넘... 24
〈그림 2〉 행위자(인간/인공지능)의 공리주의 선택 비율(실험 1-1과 1-2) 48
〈그림 3〉 행위자(인간/인공지능)의 공리주의 선택 비율(실험 2) 67
〈그림 4〉 인공지능, 의무론, 작위 조건 시나리오 73
〈그림 5〉 행위자(인공지능/인간)와 의무론/공리주의, 작위/부작위의 옳은 정도의 평균(실험 3) 76
〈그림 6〉 행위자와 의무론/공리주의, 작위/부작위의 수용정도의 평균(실험 3) 82