챗GPT의 등장 이후 인공지능에 대한 사회적 관심이 다시 급격히 고조되고 있다. 많은 논자들이 챗GPT가 가져올 수 있는 다양한 위험을 우려하고 있지만, 공정성 이슈에 대한 주목도는 오히려 이전에 비해 낮아진 것으로 보인다. 이에 대해 일각에서는 인공지능 공정성 연구와 이를 기술적으로 구현한 도구들이 양적, 질적으로 성장하면서 이러한 성취를 거두었다고 긍정적으로 바라보고 있다. 이에 대한 올바른 규범적 평가를 위해서는 인공지능 공정성 분야에 대한 치밀한 이해가 선행될 필요가 있다.
이러한 문제의식에서 본고는 인공지능 공정성 담론을 이론적, 실제적 관점에서 탐구하는 작업을 진행하였다. 먼저 이론적 관점에서 인공지능 공정성 분야가 신뢰할 수 있는 인공지능 거버넌스라는 국내외 논의 지형도에서 어떤 역할을 담당하고 있는지를 살펴보았다. 이후 이러한 논의를 포괄하는 용어로 경쟁적 개념인 평등, 정의 대신 공정성이 활용되고 있는 이유에 대한 탐구를 진행하였다. 이어서 인공지능 공정성 개념을 배분적 공정성과 표상적 공정성의 하위범주로 세분화하고, 유사 개념인 편향성과 불공정성이 인공지능 맥락에서 어떤 관계에 있는지를 논의하였다.
이어서 본고는 인공지능 공정성의 이론적 내용을 실무적으로 구현하기 위한 기술적 방법론에 대해 탐구하였다. 여기에는 크게 입력 중심 접근과 출력 중심 접근이 있는데, 오늘날 실무에서 전자보다는 후자에 방점을 두는 이유가 무엇인지를 살펴보았다. 이후 두 가지 접근의 구체적 내용을 탐구하면서, 특히 출력 중심 접근의 공학적 구현물인 인공지능 공정성 지표에 대한 이해를 본격적으로 심화하였다. 여러 가지 인공지능 공정성 지표가 있을 수 있고, 이들 사이의 상충관계가 있을 수 있다는 것은 기술규제가 만능이 아니고, 이것이 인간 사회의 공정성 논의와 많은 부분 닮아 있다는 것을 보여주는 대목으로 해석될 수 있다.