인공지능(AI)과 로봇의 발전이 무섭습니다. 이미 산업현장에서는 실용화가 되고 있고 좀 더 인간을 닮은 로봇인 휴머노이드(Humanoid)도 점점 인간을 따라하고 있습니다. 우리가 휴머노이드형 로봇과 인간이 서로 차이를 발견할 수 있는 것은 인간에게는 로봇에게 없는 감정과 그 감정을 즉각적으로 표현하는 능력이 있기 때문입니다. 하지만, 감정표현 영역도 곧 인간과 로봇의 경계가 없어질 듯 합니다.
딥러닝과 같은 인공지능의 발전으로 로봇도 거의 인간처럼 말하는 시대이지만 인간처럼 표정짓기는 어려웠습니다. 인간의 표정을 흉내내는 로봇을 만드는 것이 많은 로봇 공학자들의 꿈이기도 했습니다. 하지만 최근 Columbia Engineering의 Creative Machines Lab에서 인간의 표정과 일치하는 부드럽고 표현력이 풍부한 얼굴을 가진 새로운 인공지능 로봇인 EVA를 5년간 개발해 왔습니다.
EVA는 케이블 및 모터를 이용하여 인공 근육 특정 지점을 끌어 당기는 방법을 사용하여 분노, 혐오, 공포, 기쁨, 슬픔 및 놀라움의 여섯 가지 기본 감정뿐만 아니라 보다 미묘한 감정을 표현할 수 있습니다.
EVA의 표정을 만드는 학습은 얼굴의 피부와 뼈의 다양한 지점에 부착 된 42개가 넘는 작은 근육의 움직임을 모방하게 하여 만든 것입니다. 딥러닝 기술을 사용하여 사람 얼굴의 표정을 미러링(Mirroring)하게 하였습니다. 여러가지 딥 러닝 신경망을 사용하여 EVA의 뇌를 만들었는데 EVA가 스스로 비디오를 보면서 학습하게 하였습니다.
EVA의 뇌는 두 가지 기능을 익히게 됩니다. 복잡한 기계 근육 시스템을 사용하여 특정 표정을 생성하는 방법을 배우는 것과 인간의 얼굴을 읽어 어떤 얼굴 표정을 만들지 아는 것입니다. 수많은 학습을 통해 EVA는 카메라를 통해 사람의 얼굴 표정을 읽고 그 사람의 표정을 미러링하여 반응할 수있는 능력을 갖게 되었습니다.
어쩌면 우리는 아주 빠른 시간내에 인간과 로봇을 구분하지 못할 정도로 고도화된 휴머노이드 로봇을 만나게 될 지 모르겠습니다. 로봇이 인간처럼 스스로 표정으로 감정표현 할 수 있다면, 인간은 과연 어떤 점이 로봇보다 낫다는 것을 증명해야 할지 고민을 해볼 필요가 있을 것 같습니다.