도덕 규범은 사회적 상황에서 타인과의 갈등을 조절하는데 도움을 준다. 우리가 로봇과 상호작용을 한다면, 어떻게 도덕 규범을 로봇에게 적용할 것인가? 또한 로봇이 윤리적 갈등상황에서 의사결정을 한다면, 우리는 로봇의 결정을 얼마나 합당하다고 판단할 것인가? 본 논문에서는 2개의 연구를 토대로 연구참가자가 윤리적 갈등상황에서 로봇과 같이 협력하고, 로봇의 의사결정을 합당하게 받아들이는 정도를 검증하였다. 또한 인간-로봇의 상호작용이 로봇에 대한 마음지각과 관계가 있는 정도를 분석하였다. 그 결과, 연구 1에서는 연구참가자가 죄수 딜레마 상황에서 로봇의 주도성에 대한 마음지각이 높을수록 로봇과 협력하는 경향이 증가하였다. 연구 2에서는 윤리적 갈등상황에서 인간이 내린 공리주의적 결정보다는 로봇이 내린 공리주의 결정에 대해 도덕적으로 합당하다고 판단하는 정도가 더 높게 나타났다. 또한 로봇의 주도성에 대한 마음지각이 높을수록 로봇의 의무론적 결정을 더 합당한 것으로 인식하는 경향이 나타났다. 이 결과는 로봇의 주도성에 대한 마음지각이 상호성의 도덕 규범 및 윤리적 의사결정에 대한 합당성의 평정과 관계가 있음을 보여준다. 논의에서는 향후 사회적 로봇의 보편화와 함께 발생하는 문제점을 토론하고, 연구의 한계 및 후속연구의 방향을 다루었다.