출처 : 클립아트코리아
음성인식을 넘어 표정인식 기술이 개발되었다. 코넬대학교 연구소(Cornell researchers)는 최근 얼굴 표정을 추적하고, 이를 해석하는 기기를 만드는 데 성공했다. '시페이스(C-Face)'로 불리는 이 기기를 사용하면 상대가 어떤 생각을 하는지, 무엇을 원하는지 파악할 수 있다. 표정만으로 의사를 전달하고 명령까지 내릴 수 있게 된 것이다.
'C-Face'의 작동 원리는 간단하다. 이어폰 모양으로 생긴 기기에는 지각 카메라(RGB cameras)가 부착돼 있다. 이 카메라는 얼굴 윤곽, 그중에서도 볼의 움직임을 집중해서 추적한다. 감정의 변화에 따라 수시로 변하는 부위이기 때문이다. 볼이 인간 감정의 거울인 셈이다. 기기는 볼의 이미지를 42개 포인트로 나누고 여기에 입과 눈, 눈썹 모양 이미지를 더해 유저가 어떤 상태인지를 유추한다.
감정 상태는 기쁨, 슬픔, 화남, 자연스러움, 키스하는 얼굴 등 8가지 얼굴 그림으로 표시된다. 카카오톡 이모티콘을 떠올리면 이해하기 쉽겠다. 기기는 표정을 간단한 명령어로도 변환할 수 있다. '작동해', '소리 키워', '다음 노래' 같은 것들이다. 어떤 표정을 지어야 1과 0만 이해하는 컴퓨터에게 '작동해'란 명령을 내릴 수 있을지 상상이 안 되지만, 코넬대는 실제 테스트 결과 준수한 적중률을 기록했다고 한다. 참가자 9명이 컴퓨터에 '표정 명령'을 내린 결과, 85%가 본심과 일치하는 결과를 얻은 것으로 나타났다. 이모티콘의 적중률은 그보다 높은 88%로 집계됐다.
물론 아무리 적중률이 높다 해도 인간의 복잡 미묘한 감정을 8가지로 표현할 수는 없다. 명도에 따라 수십, 수백 개의 검은색이 존재하듯 인간의 감정도 그러하다. 웃긴데 슬픈 ‘웃픈’ 감정도 있지 않은가. 이 기술의 목표는 그런 세세한 감정의 교류가 아닌 굵직한 감정 선을 빠르게 전달하는 데 있다. 사실 8개면 적은 것도 아니다. 중국 스타트업인 브레인코가 개발한 전자 머리띠는 사람의 상태를 딱 2종류로 나타낸다. LED에 빨간불이 켜지면 집중하고 있다는 의미고 파란색이면 산만하다는 뜻이다.
코넬대는 C-Face가 교육에 접목될 수 있을 것으로 보고 있다. 교사가 원격 수업을 진행한다고 쳐보자. 본인이 설명한 바를 학생들이 이해하고 있는지 확인하기 어렵다. 시간 제약상 일일이 물어볼 수도 없기 때문이다. 그런데 반 학생들이 'C-Face'를 착용하고 있다면, 상태를 즉시 파악할 수 있게 된다. 진도를 따라오지 못하는 학생들은 '짜증'이나 '화남', '졸림' 같은 이모티콘으로 뜰 테니 말이다. 연구를 주도한 Cheng Zhang 코넬대 교수는 "교사는 학생이 온라인 레슨에 제대로 참여 중인지 알 수 있다"고 설명했다.
C-Face는 이어폰 형태라 다른 기기와 함께 이용할 수도 있다. 특히 가상현실(VR) 고글과 궁합이 잘 맞는다. 이전까지 표정 인식 장치는 얼굴에 직접 부착하는 방식이라 눈 위에 쓰는 VR 고글과 함께 착용할 수 없었다. VR에 표정 인식 기술이 가미되면 아바타로 감정을 표현하는 것이 가능해진다. 실제 감정에 따라 울고 웃는 아바타는 사이버 공간에서의 소통을 더 원활하게 해줄 것이다. 아바타 학생이 가상의 교실에 등교해 선생님 아바타와 함께 공부하는 영화 같은 일이 일어날지도 모른다.
윤석진 기자 | drumboy2001@mtn.co.kr
머니투데이방송 교육산업 담당. 기술 혁신이 만드는 교육 현장의 변화를 관찰합니다. 쉬운 언어로 에듀테크 사업 동향을 가감 없이 전달합니다.