이 글은 인공지능 기반의 알고리즘을 활용하여 생산한 이미지가 기존의 사진술과 어떤 차별성을 갖는지를 다룬다. ‘생성적 적대 신경망(Generative Adversarial Networks)’은 생성자와 판별자의 균형 있는 학습을 통해 가짜 데이터를 산출하는 알고리즘으로, 원본 사진을 학습 데이터로 활용할 경우 시각적으로 사진과 거의 구분되지 않는 이미지를 만들어 낸다. 이 이미지가 제기하는 논점은 두 가지다. 첫째, 알고리즘 이미지는 지표이론의 관점에서 볼 때 사진이라 할 수 없으나 원본 사진의 픽셀 값을 바꾸어 새로운 이미지를 만들어 낸다는 점에서 기존의 디지털 사진과 다를 바 없다. 둘째, 알고리즘 이미지는 플루서가 기술 이미지의 핵심으로 규정한 프로그램의 자동성과 인간배제가 고도화된 형태다. 인간은 GAN 알고리즘 이미지의 생산과정으로부터 배제돼 있다. 그런 점에서 GAN의 생성자는 블랙박스다. 프로그램의 자동성이 강화될수록 인간은 이미지 생산을 통제하지 못하고 단순 소비자로 전락하고 만다. 따라서 이제 인간은 프로그램이라는 블랙박스를 어떻게 ‘투명한 상자’로 만들 수 있을지 고민할 시점이 됐다.
This article deals with how images produced using artificial intelligence-based algorithms differ from existing photography. A generative adversarial network (GAN) is an algorithm that calculates fake data through balanced learning of generators and discriminators. When using original photos as learning data, it creates images that are visually indistinguishable from photos. There are two issues raised by this. First, the algorithmic image cannot be called a photograph from the point of view of index theory, but it is no different from the existing digital photograph in that it creates a new image by changing the pixel value of the original photograph. Second, the algorithmic image is an advanced form of program automatism and human exclusion, which Vilem Flusser defined as the core of the technical image. Humans are excluded from the production process of the GAN algorithm image. In that sense, the generator of the GAN is a black box. As the automaticity of the program increases, humans do not control image production and become simple consumers. Therefore, it is time for humans to think about how to turn a black box called a program into a “transparent box.”