[한국기술뉴스] DGIST 장재은, 최지웅, 문제일 교수 연구팀이 접촉한 물체의 표면정보를 읽어낼 수 있는 다기능 촉각센서를 구현했다. 이를 기계학습 기반 신호처리와 융합해 독특한 촉감 감성을 모사하는 아바타 기술을 구현할 수 있다.
통증이나 촉감을 느낄 수 있는 의수나 로봇팔 연구가 활발한 가운데 다기능 촉각센서와 머신러닝 방식으로 사람마다 다른 인지적 촉각을 구현하는 아바타 기술이 소개됐다.
연구팀은 손마디 크기에 수십 개의 센서를 배열해 물체의 거칠기, 온도와 단단함, 형태 등을 감지하도록 했다. 촉각센서가 옷감을 누르고 문질러서 옷감 표면의 물리적 특성을 파악하고 이를 기반으로 인공감성을 구현해 개인별로 다를 수 있는 촉감에 따른 감성을 90% 이상의 일치율로 구현했다. 더 나아가 피부에 가해지는 압력이나 진동을 모방해 자연스럽게 물체를 잡거나 움직이는 물리적인 모방에서 나아가 우리 뇌가 촉각 자극으로 인한 전기화학적 신호를 감성적 신호로 변환하는 인지구조를 모방하고자 했다. 40여 개의 다양한 옷감에서 개인마다 다른 ‘거칠다/부드럽다’라는 감성의 정도 차이를 학습한 아바타 시스템은 새로운 옷감에 대해서도 특정한 학습대상의 감성과 거의 일치하는 결과를 얻을 수 있었다.
기계학습에서 기존에 학습된 사항에 대한 판단의 정확도는 매우 높아지고 있으나, 학습되지 않은 내용을 판단하는 정확도를 높이는 것은 큰 도전이다. 연구팀은 이번 연구에서 학습되지 않은 물체에 대해서도 촉감 아바타가 사용자와 거의 유사한 감성 판단을 내리는 의미 있는 결과를 얻었다고 설명했다.
연구 결과는 ‘어드밴스드 사이언스(Advanced Science)’에 2월 8일 게재됐다.