KR101002619B1 - 표정 구현이 가능한 얼굴 로봇 - Google Patents

표정 구현이 가능한 얼굴 로봇 Download PDF

Info

Publication number
KR101002619B1
KR101002619B1 KR1020070088539A KR20070088539A KR101002619B1 KR 101002619 B1 KR101002619 B1 KR 101002619B1 KR 1020070088539 A KR1020070088539 A KR 1020070088539A KR 20070088539 A KR20070088539 A KR 20070088539A KR 101002619 B1 KR101002619 B1 KR 101002619B1
Authority
KR
South Korea
Prior art keywords
facial
panning
tilting
actuator
skeleton
Prior art date
Application number
KR1020070088539A
Other languages
English (en)
Other versions
KR20090022875A (ko
Inventor
박민용
사공성대
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020070088539A priority Critical patent/KR101002619B1/ko
Publication of KR20090022875A publication Critical patent/KR20090022875A/ko
Application granted granted Critical
Publication of KR101002619B1 publication Critical patent/KR101002619B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0006Exoskeletons, i.e. resembling a human figure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 표정 구현이 가능한 얼굴 로봇에 관한 것으로, 보다 구체적으로는, 안구 및 얼굴골격 자체의 패닝 및 틸팅 운동을 동반하면서 구성요소를 최소화시키고 보다 유연하고 다양한 표정 연출이 가능한 얼굴 로봇에 관한 것이다.
얼굴 형상을 띄고 있는 얼굴 골격, 상기 얼굴 골격 상에 도포되는 인공 피부, 상기 인공 피부에 부착되는 복수의 접촉모듈, 및 상기 복수의 접촉모듈과 각각 연결되어 상기 접촉모듈을 밀거나 당겨 상·하운동 시키는 복수의 액추에이터를 포함하는 것을 특징으로 하는 표정 구현이 가능한 얼굴 로봇이 제공된다.
얼굴 로봇, 표정, 인공 피부, 랜드류, 접촉 모듈, 안구

Description

표정 구현이 가능한 얼굴 로봇 {FACE ROBOT FOR GIVING EXPRESSION}
본 발명은 표정 구현이 가능한 얼굴 로봇에 관한 것으로, 보다 구체적으로는, 안구 및 얼굴골격 자체의 패닝 및 틸팅 운동을 동반하면서 구성요소를 최소화시키고 보다 유연하고 다양한 표정 연출이 가능한 얼굴 로봇에 관한 것이다.
종래 산업용 로봇과는 달리 최근 로봇의 사용 범위는 매우 넓어져, 인간이 생활하는 환경으로 확대되고 있는 추세이다. 이러한 추세로 인해 인간과의 상호작용이 무엇보다 중요하게 요구되고 있으며, 그 상호작용에 있어서 거부감이 없는 로봇들에 대한 연구가 활발하게 진행되고 있다.
최근에는, 인간과 로봇 간의 원활한 상호작용을 위해 실제 인간과 외관이 유사한 인간형 로봇들이 개발되고 있는 추세이며, 이러한 추세에 따라 감정표현이 가능한 로봇들에 대한 연구가 진행되고 있다.
이러한 연구에 따라 다양한 로봇들이 개발되고 있으며, 현재까지 개발된 로봇들은 그 심리상태나 감정을 표현함에 있어서 사람의 얼굴을 본 따서 만든 기계적인 얼굴로 표현한다. 이러한 로봇의 대표적인 예로서, 기계적으로 얼굴의 근육을 묘사한 미국 MIT의 kismet와, 실리콘을 사용하여 사람의 피부와 비슷하게 만든 일 본도쿄기술대학의 Roterta와 Saya 등이 있다.
그러나, 지금까지 개발된 로봇의 기계적 얼굴은 사람과 비슷한 자연스러운 표정을 생성할 수 없으며, 생성된 표정이 사람들에게 거부감을 주기도 하는 등의 문제점이 있다. 또한, 인간의 얼굴이 아닌 가공의 생명체에 대한 얼굴 형태여서, 인간의 심리상태와 비슷한 유형의 감정을 표정으로서 표현할 수 없는 문제가 있다. 게다가 이러한 기술들을 가정용 퍼스널 로봇에 적용하기에는 안정성과 신뢰성이 떨어지고, 가격도 고가인 문제점이 있다.
따라서, 심리상태나 감정을 인간과 최대한 유사하게 표현할 수 있는 로봇에 대한 개발이 필요하다.
본 발명은 상술한 문제를 해결하기 위해 안출한 것으로, 인공피부를 유연한 소재로 형성시킴으로써 자연스러운 감정 표현을 가능하게 하고, 접촉 모듈을 사용함으로써 상기 인공피부와 액추에이터간 연결을 용이하게 하여 인간과 최대한 유사한 표정 구현을 가능하게 하는, 표정 구현이 가능한 얼굴 로봇을 제공하는 데에 그 목적이 있다.
본 발명의 다른 목적은, 액추에이터의 수를 최소화시키면서도 자연스러운 표정 구현이 가능한 얼굴 로봇을 제공하는 것이다.
본 발명의 또 다른 목적은, 안구 패닝부, 안구 틸팅부를 적어도 구비하여 안구의 패닝 및 틸팅 운동을 동반한 표정 구현이 가능한 얼굴 로봇을 제공하는 데에 그 목적이 있다.
본 발명의 또 다른 목적은, 골격패닝부, 골격틸팅부를 적어도 구비하여 얼굴의 패닝 및 틸팅 운동을 동반한 표정 구현이 가능한 얼굴 로봇을 제공하는 데에 그 목적이 있다.
상술한 목적을 달성하기 위한 본 발명의 일 실시형태에 따르면, 표정 구현이 가능한 얼굴 로봇에 있어서, 상기 얼굴 로봇의 각 눈썹의 양끝과 중앙에 위치되는 눈썹 접촉모듈; 상기 얼굴 로봇의 입술의 양끝과 중앙에 위치되는 입술 접촉모듈; 상기 눈썹 접촉모듈과 와이어로 연결되어 상기 눈썹 접촉모듈을 구동시키는 눈썹 액추에이터; 상기 입술 접촉모듈과 와이어로 연결되어 상기 입술 접촉모듈을 구동시키는 입술 액추에이터; 상기 눈썹 액추에이터 및 상기 입술 액추에이터를 제어하는 마이크로프로세서;를 적어도 구비하여 이루어진 것을 특징으로 한다.
상술한 목적을 달성하기 위한 본 발명의 다른 일 실시형태에 따르면, 얼굴 형상을 띄고 있는 얼굴 골격, 상기 얼굴 골격 상에 도포되는 인공 피부, 상기 인공 피부에 부착되는 복수의 접촉모듈, 및 상기 복수의 접촉모듈과 각각 연결되어 상기 접촉모듈을 밀거나 당겨 상·하운동 시키는 복수의 액추에이터를 포함하는 것을 특징으로 하는, 표정 구현이 가능한 얼굴 로봇이 제공된다.
상기 표정 구현이 가능한 얼굴 로봇은 상기 얼굴 골격의 안구 부분에 형성되는 안구운동부로서, 상기 안구운동부에 장착되는 안구를 패닝(panning) 운동시키는 안구패닝부, 상기 안구를 틸팅(tilting) 운동시키는 안구틸팅부, 및 상기 안구패닝부 및 안구틸팅부와 각각 연결되어 상기 안구패닝부 및 안구틸팅부를 동작시키는 2개의 액추에이터를 포함하는 안구운동부를 더 포함할 수 있다.
상기 표정 구현이 가능한 얼굴 로봇은, 상기 얼굴 골격의 배면에 형성되는 골격운동부로서, 상기 얼굴 골격을 패닝 운동시키는 골격패닝부, 상기 얼굴 골격을 틸팅 운동시키는 안구틸팅부, 및 상기 골격패닝부 및 골격틸팅부와 각각 연결되어 상기 골격패닝부 및 골격틸팅부를 동작시키는 2개의 액추에이터를 포함하는 골격운동부를 더 포함할 수 있다.
상기 표정 구현이 가능한 얼굴 로봇은, 상기 액추에이터들의 동작을 제어하는 마이크로프로세서를 더 포함할 수 있다.
상기 인공피부의 재질은 실리콘의 일종인 랜드류인 것이 바람직하다.
상기 복수의 접촉모듈은 상기 인공 피부의 양 눈썹 부분에 3개씩 부착되고, 양 볼에 하나씩 부착되며, 턱 부분에 하나가 부착되는 것이 바람직하다.
상기 복수의 접촉모듈과 복수의 액추에이터는 각각 와이어를 통해 연결되는 것이 바람직하다.
상술한 목적을 달성하기 위한 본 발명의 또 다른 일 실시형태에 따르면, 안구를 상하, 좌우로 움직이게 하는 안구 운동부와 얼굴골격 자체를 상하, 좌우로 움직이게 하는 얼굴 운동부를 구비한 얼굴 로봇에 있어서, 상기 얼굴운동부는 상하로 회전하도록 롤러로 이루어진 골격 틸팅부; 그 중심축과 상기 롤러의 외측을 벨트(553)로 물려져 있는, 상기 골격 틸팅부를 상하로 구동시키기 위한 골격틸팅 액추에이터; 원형 판을 구비하여 상기 원형 판이 좌우로 회전하도록 이루어진 골격패닝부; 기어부(551)를 통해 상기 골격패닝부과 연결되어 상기 골격패닝부를 좌우로 구동시키기 위한 골격패닝 액추에이터;를 구비하여 이루어진 것을 특징으로 한다.
상기 안구운동부는, 상기 안구운동부에 장착된 안구를 패닝(panning) 운동시키는 안구패닝부; 상기 안구를 틸팅(tilting) 운동시키는 안구틸팅부; 상기 안구패닝부 및 안구틸팅부와 각각 연결되어 상기 안구패닝부 및 안구틸팅부를 동작시키는 안구패닝 액추에이터 및 안구 틸팅 액추에이터;를 구비하여 이루어진다.
상기 안구운동부에 장착된 안구는 카메라로 이루어진 것을 특징으로 한다.
본 발명의 표정 구현이 가능한 얼굴 로봇에 따르면, 인공피부를 유연한 소재로 형성시킴으로써 자연스러운 감정 표현이 가능하고, 접촉 모듈을 사용함으로써 상기 인공피부와 액추에이터간 연결을 용이하게 하여 인간과 최대한 유사한 표정 구현이 가능하다.
또한, 액추에이터의 수를 최소화시키면서도 자연스러운 표정 구현이 가능하다.
본 발명의 얼굴 로봇은 안구 패닝부, 안구 패닝부를 적어도 구비하여 안구의 패닝 및 틸팅 운동을 동반한 표정 구현이 가능하다.
또한 본 발명의 얼굴 로봇은 골격패닝부, 골격틸팅부를 적어도 구비하여 얼굴의 패닝 및 틸팅 운동을 동반한 표정 구현이 가능하다.
이하, 첨부되는 도면을 참조하여 본 발명의 다양한 실시형태들을 상세히 설명한다.
도 1은 본 발명의 일 실시형태에 따른, 표정 구현이 가능한 얼굴 로봇의 정면도이고, 도 2a 및 2b는 상기 얼굴 로봇의 측단면도이다.
본 발명의 얼굴 로봇은 크게 세 부분, 즉, 표정 발생부, 안구 운동부, 및 얼굴 운동부를 포함한다.
표정 발생부는 얼굴 골격(310) 위에 형성되는 인공 피부(110), 인공 피부(110)의 각 부분에 형성되는 9개의 접촉모듈인 제1 접촉모듈 내지 제9 접촉모 듈(131 내지 139), 제1 접촉모듈 내지 제9 접촉모듈(131 내지 139)에 각각 연결되는 9개의 액추에이터(Actuator)인 제1 액추에이터 내지 제9 액추에이터(151 내지 159), 9개의 접촉 모듈인 제1 접촉모듈 내지 제9 접촉모듈(131 내지 139)과 9개의 액추에이터인 제1 액추에이터 내지 제9 액추에이터(151 내지 159)를 각각 연결하는 9개의 와이어인 제1 와이어 내지 제9 와이어(171 내지 179)를 포함한다. 또한 제1 액추에이터 내지 제9 액추에이터(151 내지 159)는 마이크로프로세서(400)에 의해 제어된다.
인공 피부(110)는 외관적으로 사람의 피부와 유사한 효과를 낼 수 있으면서도 표정의 표현을 용이하게 하기 위해 유연한 재질로 하는 것이 바람직하다. 이를 위해 실리콘 재질의 일종인 랜드류와 같은 물질을 인공 피부(110)의 재질로 선택할 수 있다.
인공 피부(110)의 각 부분에 형성되는 9개의 접촉모듈인 제1 접촉모듈 내지 제9 접촉모듈(131 내지 139)중 제1 접촉모듈 내지 제6 접촉모듈(131 내지 136)은 눈썹 접촉모듈이며, 제7 접촉모듈 내지 제9 접촉모듈(137 내지 139)은 입술 접촉모듈으로, 다음과 같다.
제1 접촉모듈(131)은 일측의 눈썹에서 정중부에서 먼쪽 끝(예를들어 우측 눈썹의 제일 우측) 부분에 위치되며, 제1 와이어(171)로 제1 액추에이터(151)와 연결된다.
제2 접촉모듈(132)은 일측의 눈썹의 중앙부(예를들어 우측 눈썹의 중앙부) 에 위치되며, 제2 와이어(172)로 제2 액추에이터(152)와 연결된다.
제3 접촉모듈(133)은 일측의 눈썹에서 정중부에 제일 가까운 끝(예를들어 우측 눈썹의 제일 좌측) 부분에 위치되며, 제3 와이어(173)로 제3 액추에이터(153)와 연결된다.
제4 접촉모듈(134)은 다른 일측의 눈썹에서 정중부에서 먼쪽 끝(예를들어 좌측 눈썹의 제일 좌측) 부분에 위치되며, 제4 와이어(174)로 제4 액추에이터(154)와 연결된다.
제5 접촉모듈(135)은 다른 일측의 눈썹의 중앙부(예를들어 좌측 눈썹의 중앙부) 에 위치되며, 제5 와이어(175)로 제5 액추에이터(155)와 연결된다.
제6 접촉모듈(136)은 다른 일측의 눈썹에서 정중부에 제일 가까운 끝(예를들어 좌측 눈썹의 제일 우측) 부분에 위치되며, 제6 와이어(176)로 제6 액추에이터(156)와 연결된다.
제7 접촉모듈(137)은 입술의 일측 끝(예를들어 입술의 제일 우측) 부분에 위치되며, 제7 와이어(177)로 제7 액추에이터(157)와 연결된다.
제8 접촉모듈(138)은 입술의 다른 일측 끝(예를들어 입술의 제일 좌측) 부분에 위치되며, 제8 와이어(178)로 제8 액추에이터(158)와 연결된다.
제9 접촉모듈(139)은 입술의 중앙부 아래에 위치되며, 제9 와이어(179)로 제9 액추에이터(159)와 연결된다.
제1 접촉모듈 내지 제9 접촉모듈(131 내지 139)에 각각 연결되는 9개의 액추에이터(Actuator)인 제1 액추에이터 내지 제9 액추에이터(151 내지 159)는
제1 액추에이터 내지 제6 액추에이터(151 내지 156)는 눈썹 액추에이터들이 며, 제7 액추에이터 내지 제9 액추에이터(157 내지 159)는 입술 액추에이터들로, 다음과 같다.
제1 액추에이터(151)는 제1 접촉모듈(131)의 뒤쪽에 위치되며, 제1 와이어(171)에 의해 제1 접촉모듈(131)과 연결되어 있다.
제2 액추에이터(152)는 제2 접촉모듈(132)의 뒤쪽에 위치되며, 제2 와이어(172)에 의해 제2 접촉모듈(132)과 연결되어 있다.
제3 액추에이터(153)는 제3 접촉모듈(133)의 뒤쪽에 위치되며, 제3 와이어(173)에 의해 제3 접촉모듈(133)과 연결되어 있다.
제4 액추에이터(154)는 제4 접촉모듈(134)의 뒤쪽에 위치되며, 제4 와이어(174)에 의해 제4 접촉모듈(134)과 연결되어 있다.
제5 액추에이터(155)는 제5 접촉모듈(135)의 뒤쪽에 위치되며, 제5 와이어(175)에 의해 제5 접촉모듈(135)과 연결되어 있다.
제6 액추에이터(156)는 제6 접촉모듈(136)의 뒤쪽에 위치되며, 제6 와이어(176)에 의해 제6 접촉모듈(136)과 연결되어 있다.
제7 액추에이터(157)는 제7 접촉모듈(131)의 뒤쪽에 위치되며, 제7 와이어(177)에 의해 제7 접촉모듈(137)과 연결되어 있다.
제8 액추에이터(158)는 제8 접촉모듈(138)의 뒤쪽에 위치되며, 제8 와이어(178)에 의해 제8 접촉모듈(138)과 연결되어 있다.
제9 액추에이터(158)는 제9 접촉모듈(139)의 뒤쪽에 위치되며, 제9 와이어(179)에 의해 제9 접촉모듈(139)과 연결되어 있다.
제1 액추에이터 내지 제9 액추에이터(151 내지 159)는 마이크로프로세서(400)로 부터의 각 액추에이터 제어신호에 따라 구동된다.
와이어(171 내지 179)는 액추에이터(151 내지 159)와 접촉 모듈(131 내지 139)를 연결하여, 액추에이터(151 내지 159)의 동작에 따라 인공 피부(110)에 붙어 있는 접촉 모듈(131 내지 139)을 당기거나 밀어 다양한 표정을 표현할 수 있게 한다. 이러한 와이어(171 내지 179)는 인공 피부(110)를 손상시키지 않는 범위 내에서 미세한 인장운동이 가능한 피아노 와이어 등으로 구현하는 것이 적당하다.
안구 운동부는 얼굴 골격(310)의 안구 부분에 장착되는 안구의 패닝(panning) 운동을 담당하는 안구패닝부(210), 안구의 틸팅(tilting) 운동을 담당하는 안구틸팅부(230), 상기 안구패닝부(210) 및 안구틸팅부(230)와 각각 연결되는 2 개의 액추에이터인 안구패닝 액추에이터(미도시) 및 안구틸팅 액추에이터(미도시)를 포함한다.
얼굴 운동부는 얼굴 골격(310) 자체의 패닝 운동을 담당하는 골격패닝부(미도시), 얼굴 골격(310) 자체의 틸팅 운동을 담당하는 골격틸팅부(미도시), 상기 골격패닝부 및 골격틸팅부와 각각 연결되는 2개의 액추에이터인 골격패닝 액추에이터(미도시) 및 골격틸팅 액추에이터(미도시)를 포함한다.
마이크로프로세서(400)는 제1 액추에이터(151) 내지 제9 액추에이터(159), 안구패닝 액추에이터(미도시) 및 안구틸팅 액추에이터(미도시), 골격패닝 액추에이터(미도시) 및 골격틸팅 액추에이터(미도시)는 모두 마이크로프로세서(400)와 연결되어, 이들 액추에이터, 즉 제1 액추에이터(151) 내지 제9 액추에이터(159), 안구 패닝 액추에이터(미도시) 및 안구틸팅 액추에이터(미도시), 골격패닝 액추에이터(미도시) 및 골격틸팅 액추에이터(미도시)를 제어하여 얼굴 로봇의 여러가지 표정 구현과 안구 또는 얼굴의 동작을 가능하게 한다. 마이크로프로세서(400)는 통상의 컴퓨터 등을 이용하여 구현할 수 있고, C 언어 등을 통해 작성된 프로그램을 이용하여 이하에서 설명하는 여러가지 표정 구현과 안구 또는 얼굴의 동작 등을 자유롭게 제어할 수 있다.
이하, 표정 발생부, 안구 운동부, 얼굴 운동부로 나누어 그 구성 및 동작에 대해 상세히 설명한다.
도 3a 및 3b는 본 발명의 얼굴 로봇에 있어서 표정 발생부에 의해 자연스러운 표정이 발생하게 되는 원리를 설명한다.
도 3a 및 3b에 도시되는 바와 같이, 얼굴 골격(310) 위에 도포되는 인공 피부(110)의 각 부위에는 제1 내지 제9 접촉모듈(131 내지 139)이 부착되어 있다. 제1 내지 제9 접촉모듈(131 내지 139)은 얼굴 근육의 미세한 변화에도 그 표정 변화가 잘 드러나는 곳에 부착됨으로써 더욱더 자연스러운 표정을 구현할 수 있다. 예를 들어, 도 3에 도시되는 바와 같이 표정을 잘 나타내도록 양 눈썹에 3개씩의 접촉 모듈, 즉 제1 내지 제6 접촉모듈(131 내지 136)을 장착할 수 있으며, 양 볼 또는 입술 양끝에 하나씩의 접촉 모듈, 즉 제7 내지 제8 접촉모듈(137, 138)을 장착할 수 있으며, 입술 중앙 밑의 턱 부분에 하나의 접촉 모듈, 즉 제9 접촉모듈(139)을 부착할 수 있다.
제1 내지 제9 접촉 모듈(131 내지 139) 각각은 와이어(171 내지 179)를 통해 액추에이터(151 내지 159)와 연결된다. 컴퓨터 키입력부(미도시) 등을 통한 사용자로부터의 입력에 의해 마이크로프로세서(400)의 제어가 시작되면, 제1 내지 제9 액추에이터(151 내지 159)는 각 접촉 모듈(131 내지 139)을 밀거나 당긴다.
예를 들어, 사용자가 기쁨을 표시하라고 명령을 내린 경우에는 마이크로프로세서(400)의 제어에 의해 2개의 액추에이터, 즉 제7 및 제8 액추에이터(157, 158)가 제7 및 제8 접촉 모듈(137, 138)을 당기는 동작을 주로 수행하여 얼굴 로봇이 기쁜 표정을 표현하도록 한다.
한편, 놀라움을 표시하고자 하는 경우에는 마이크로프로세서(400)의 제어에 의해 6개의 액추에이터인 제1 내지 제6 액추에이터(151 내지 156)가 제1 내지 제6 접촉모듈(131 내지 136)을 당기는 동작이 주로 수행된다.
이 밖의 다른 표정, 즉, 슬픔, 화남, 공포 등의 표정도 제1 내지 제9 액추에이터(151 내지 159)를 동작시켜 인공 피부(110)의 각 부분에 부착되어 있는 제1 내지 제9 접촉모듈(131 내지 139)을 상하운동시킴으로써 표현이 가능하다.
상기 예에서는 기쁨과 놀라움을 표현하고자 하는 경우 동작시켜야 하는 접촉 모듈을 특정하였으나 이에 제한되지 아니하고 다양한 방식으로 접촉 모듈을 동작시켜 더욱더 자연스러운 표정 연출이 가능함은 물론이다.
인공피부(110)의 재질이 실리콘의 일종인 랜드류와 같은 부드럽고 유연한 재질이므로, 특정 부분을 당기거나 밀어서 표정을 구현하기 위한 접촉 부분의 제작이 매우 어려우나, 상기와 같이 상하로 밀고 당길 수 있는 제1 내지 제9 접촉모듈(131 내지 139)을 사용함으로써 위의 문제가 해결될 수 있다.
도 4a는 본 발명의 얼굴 로봇에 있어서 안구 운동부의 정면도이고, 도 4b는 안구 운동부의 측면도이다.
도 4a 및 4b에 도시되는 바와 같이, 안구 운동부는 안구패닝부(210) 및 안구 틸팅부(230)를 포함한다.
안구패닝부(210)는 안구의 수평운동을 담당하는 부분이다. 즉, 안구 운동부에 장착되는 구형의 안구를 좌·우 방향으로 회전시킨다. 안구패닝부(210)는 마이크로프로세서(400)에 의해 제어되는 별도의 액추에이터인 안구패닝 액추에이터와 연결된다. 즉, 마이크로프로세서(400)의 제어에 의해 안구패닝 액추에이터가 구동함으로써 안구패닝부(210)가 좌·우 방향으로 회전되고, 이로 인해 안구의 수평적 회전이 이루어지게 된다.
안구틸팅부(230)는 안구의 수직운동을 담당하는 부분이다. 즉, 안구 운동부에 장착되는 구형의 안구를 상·하 방향으로 회전시킨다. 안구틸팅부(230)는 마이크로프로세서(400)에 의해 제어되는 별도의 액추에이터인 안구틸팅 액추에이터와 연결된다. 즉, 마이크로프로세서(400)의 제어에 의해 안구틸팅 액추에이터가 동작함으로써 안구틸팅부(230)가 상·하 방향으로 회전되고, 이로 인해 안구의 수직 회전이 이루어지게 된다.
한편, 안구 운동부에는 안구 대신 카메라(250)가 장착될 수도 있으며, 이러한 카메라(250)를 이용하여 전면의 물체를 촬영하거나, 움직이는 물체를 추적할 수도 있다.
경우에 따라서 안구패닝부(210) 및 안구 틸팅부(230)는 안구패닝 및 안구틸 팅을 위한 주로들을 형성하고 안구패닝 및 안구틸팅 액추에이터에 의해 안구가 상기 주로를 따라 동작되도록 구성할 수 있다.
도 5는 얼굴 골격(310)의 패닝운동과 틸팅운동을 가능하게 하는 기구의 사시도이다.
도 5에 도시되는 바와 같이, 얼굴 골격(310)의 패닝과 틸팅을 가능하게 하는 기구는, 골격패닝부(511), 골격틸팅부(513), 상기 골격패닝부(511) 및 골격틸팅부(513)와 각각 연결되는 2개의 액추에이터인 골격패닝 액추에이터(531) 및 골격틸팅 액추에이터(533), 골격패닝 액추에이터(531)에 의한 회전을 골격패닝부(511)에 전달하는 기어부(551), 골격틸팅 액추에이터(533)에 의한 회전을 골격틸팅부(513)에 전달하는 벨트(553)를 포함한다.
이러한 기구는 얼굴 골격(310)의 배면에 형성되고, 얼굴 골격(310)과 임의의 구성요소에 의해 연결되어 기구의 패닝/틸팅 동작에 의해 얼굴 골격(310)이 패닝/틸팅 운동이 이루어질 수 있도록 한다.
한편, 골격패닝 액추에이터(531) 및 골격틸팅 액추에이터(533)는 마이크로프로세서(400)에 연결되어 마이크로프로세서(400)에 의해 제어된다.
마이크로프로세서(400)의 제어에 의해 골격패닝 액추에이터(531)가 구동되면 골격패닝 액추에이터(531)의 회전이 기어부(551)를 통해 골격패닝부(511)에 전달되고 골격패닝부(511)의 회전에 의해, 이와 연결되는 얼굴 골격(310)이 패닝 운동, 즉, 좌·우로 회전하는 운동을 하게 된다. 즉, 골격패닝부(511)는 얼굴 골격의 하측에 장착되어 있으며 좌우로 회전하도록 이루어진 원형 판으로, 골격패닝 액추에 이터(531)의 회전이 기어부(551)를 통해 전달되어 골격패닝부(511)가 좌우로 구동되며, 결과적으로 얼굴골격이 좌우로 움직이도록 이루어져 있다.
골격틸팅 액추에이터(533)가 구동되면 골격틸팅 액추에이터(533)의 회전이 벨트(553)를 통해 골격틸팅부(513)에 전달되고 이를 통해 골격틸팅부(513)가 회전함에 의해, 이와 연결되는 얼굴 골격(310)이 틸팅 운동, 즉, 상·하로 회전하는 운동을 하게 된다. 골격틸팅부(513)는 중심축을 따라 회전하도록 이루어진 롤러로 구성할 수 있으며, 상기 롤러의 외측과 골격틸팅 액추에이터(533)의 중심축 사이에 벨트(553)가 물려져, 골격틸팅 액추에이터(533)에 따라 상기 롤러가 구동되도록 이루어질 수 있다.
기어부(551) 및 벨트(553)는 액추에이터(531, 533)의 회전을 각각 골격패닝부(511)와 골격틸팅부(513)에 전달하는 역할과 함께, 아무런 힘이 작용하지 않는 초기 상태에서 임의로 자유롭게 움직일 수 있는 골격패닝부(511)와 골격틸팅부(513)를 고정시키는 역할도 수행한다.
도 5에서 골격패닝부(511), 골격틸팅부(513), 골격패닝 액추에이터(531) 및 골격틸팅 액추에이터(533), 골격패닝 액추에이터(531), 기어부(551), 벨트(553) 등은 이해를 돕기 위해 일부 과장하여 설명한 것으로, 이들의 실제 형태 또는 크기는 다를 수 있다.
본 발명의 얼굴 로봇은 랜드류라는 유연한 소재로 인공피부를 구성함으로써 자연스러운 감정 표현이 가능하고, 상기 유연한 소재의 인공피부와 액추에이터간 연결의 어려움을 접촉 모듈을 통해 해결함으로써 더욱더 인간의 표정과 가까운 감 정 표현을 가능하게 한다.
또한, 9개의 액추에이터만으로도, 자연스러운 표정의 구현과 함께 안구와 얼굴의 수평, 수직 운동도 가능하게 한다.
이상 본 발명의 구체적 실시형태와 관련하여 본 발명을 설명하였으나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다. 당업자는 본 발명의 범위를 벗어나지 않고 설명된 실시형태를 변경 또는 변형할 수 있으며, 이러한 변경 또는 변형도 본 발명의 범위에 속한다. 또한, 본 명세서에서 설명한 각 구성요소는 당업자가 공지된 다양한 구성요소들로부터 용이하게 선택하여 대체할 수 있다. 또한 당업자는 본 명세서에서 설명된 구성요소 중 일부를 성능의 열화 없이 생략하거나 성능을 개선하기 위해 구성요소를 추가할 수 있다. 따라서 본 발명의 범위는 설명된 실시형태가 아니라 특허청구범위 및 그 균등물에 의해 결정되어야 한다.
도 1은 본 발명의 일 실시형태에 따른 얼굴 로봇의 정면도이다.
도 2a 및 2b는 본 발명의 일 실시형태에 따른 얼굴 로봇의 측단면도이다.
도 3a 및 3b는 본 발명의 일 실시형태에 따른 얼굴 로봇이 표정을 구현하는 원리를 설명한다.
도 4a 는 본 발명의 일 실시형태에 따른 얼굴 로봇에 있어서 안구 운동부의 정면도이다.
도 4b 는 본 발명의 일 실시형태에 따른 얼굴 로봇에 있어서 안구 운동부의 측면도이다.
도 5는 본 발명의 일 실시형태에 따른 얼굴 로봇에 있어서 얼굴 골격의 패닝운동과 틸팅운동을 가능하게 하는 기구의 사시도이다.
<도면의 주요부분에 대한 부호의 설명>
110: 인공 피부 131~139: 접촉 모듈
151~159, 531, 533: 액추에이터 171~179: 와이어
210: 안구패닝부 230: 안구틸팅부
310: 얼굴 골격 511: 골격패닝부
513: 골격틸팅부 551: 기어부
553: 벨트

Claims (17)

  1. 얼굴 로봇의 얼굴 형상을 이루도록 구성되는 얼굴 골격, 상기 얼굴 골격 위에 장착되는 인공 피부, 상기 인공 피부에 부착되는 복수의 접촉모듈, 상기 복수의 접촉모듈과 각각 연결되어 상기 접촉모듈을 밀거나 당기게 하는 복수의 액추에이터, 및 상기 얼굴 골격 자체를 상하, 좌우로 움직이게 하는 얼굴 운동부를 포함하는 표정 구현이 가능한 얼굴 로봇에 있어서,
    상기 복수의 접촉모듈에는, 상기 얼굴 로봇의 각 눈썹의 양끝과 중앙에 위치되는 눈썹 접촉모듈과, 상기 얼굴 로봇의 입술의 양끝과 중앙에 위치되는 입술 접촉모듈이 포함되며,
    상기 복수의 액추에이터에는, 상기 눈썹 접촉모듈과 와이어로 연결되어 상기 눈썹 접촉모듈을 구동시키는 눈썹 액추에이터와, 상기 입술 접촉모듈과 와이어로 연결되어 상기 입술 접촉모듈을 구동시키는 입술 액추에이터가 포함되며,
    상기 눈썹 액추에이터 및 상기 입술 액추에이터를 제어하는 마이크로프로세서를 더 구비하며,
    상기 얼굴 로봇으로 기쁜 표정을 나타낼 경우에는, 상기 입술 액추에이터(157, 158)와 연결된 상기 입술 접촉모듈(137, 138)를 당기도록 상기 입술 액추에이터(157, 158)를 구동시키고,
    상기 얼굴 로봇으로 놀라움을 나타내는 표정을 나타낼 경우에는, 상기 눈썹 액추에이터(151 내지 156)과 연결된 상기 눈썹 접촉모듈(131 내지 136)를 당기도록 상기 눈썹 액추에이터(151 내지 156)를 구동시키며,
    상기 얼굴 운동부는, 상기 얼굴 로봇의 얼굴 골격 자체의 패닝(panning) 운동을 담당하는 골격 패닝부, 상기 얼굴 로봇의 얼굴 골격 자체의 틸팅(tilting) 운동을 담당하는 골격 틸팅부, 상기 골격 패닝부에 연결되어 골격 패닝부를 구동하게 하는 골격패닝 액추에이터, 상기 골격 틸팅부에 연결되어 골격 틸팅부를 구동하게 하는 골격틸팅 액추에이터를 포함하여 이루어지며,
    상기 골격 틸팅부는 상하로 회전하도록 롤러로 이루어지며, 상기 골격틸팅 액추에이터는 그 중심축과 상기 롤러의 외측을 벨트(553)로 물려지게 하여 상기 골격 틸팅부를 상하로 구동시키며, 상기 골격패닝부는 원형 판을 구비하여 상기 원형 판이 좌우로 회전하도록 이루어지며, 상기 골격패닝 액추에이터는 기어부(551)를 통해 상기 골격패닝부와 연결되어 상기 골격패닝부를 좌우로 구동시키고, 상기 골격패닝 액추에이터 및 상기 골격틸팅 액추에이터는 상기 마이크로프로세서에 의해 제어되고,
    상기 얼굴 로봇은 안구 운동부를 더 구비하며,
    상기 안구 운동부는, 상기 얼굴 로봇의 안구의 패닝(panning) 운동을 담당하는 안구 패닝부; 상기 얼굴 로봇의 안구의 틸팅(tilting) 운동을 담당하는 안구 틸팅부; 상기 안구 패닝부에 연결되어 안구 패닝부를 구동하게 하는 안구패닝 액추에이터; 상기 안구 틸팅부에 연결되어 안구 틸팅부를 구동하게 하는 안구틸팅 액추에이터를 포함하고, 상기 안구패닝 액추에이터 및 상기 안구틸팅 액추에이터는 상기 마이크로프로세서에 의해 제어되며,
    상기 인공 피부의 재질은 실리콘의 일종인 랜드류인 것을 특징으로 하는 얼굴 로봇.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 제1항에 있어서,
    상기 안구운동부에 장착된 안구는 카메라로 이루어진 것을 특징으로 하는 얼굴 로봇.
KR1020070088539A 2007-08-31 2007-08-31 표정 구현이 가능한 얼굴 로봇 KR101002619B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070088539A KR101002619B1 (ko) 2007-08-31 2007-08-31 표정 구현이 가능한 얼굴 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070088539A KR101002619B1 (ko) 2007-08-31 2007-08-31 표정 구현이 가능한 얼굴 로봇

Publications (2)

Publication Number Publication Date
KR20090022875A KR20090022875A (ko) 2009-03-04
KR101002619B1 true KR101002619B1 (ko) 2010-12-20

Family

ID=40692678

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070088539A KR101002619B1 (ko) 2007-08-31 2007-08-31 표정 구현이 가능한 얼굴 로봇

Country Status (1)

Country Link
KR (1) KR101002619B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101247237B1 (ko) 2010-12-28 2013-03-25 한국생산기술연구원 유지보수가 용이한 착탈식 내외피 구조를 갖는 얼굴 로봇

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101026104B1 (ko) * 2008-09-26 2011-04-05 주식회사 로보스타 로봇의 안면부 감정표현 장치
KR101268400B1 (ko) * 2011-03-31 2013-05-28 한국생산기술연구원 로봇용 혀 모듈
CN103358310B (zh) * 2013-07-04 2015-05-27 上海大学 一种仿人机器人嘴部运动机构
KR101639386B1 (ko) * 2015-03-31 2016-07-13 한은주 안구 형상을 갖는 cctv용 카메라
CN105881557B (zh) * 2016-06-21 2018-11-30 深圳市景方盈科技有限公司 一种拟人脸型智能装置
CN106393127A (zh) * 2016-08-29 2017-02-15 昆山塔米机器人有限公司 一种仿人面部表情的机器人
CN106695843A (zh) * 2017-03-22 2017-05-24 海南职业技术学院 一种互动的仿人面部表情的机器人
CN109202915A (zh) * 2017-06-30 2019-01-15 深圳光启合众科技有限公司 仿生机器人的头部结构和仿生机器人
CN107813294B (zh) * 2017-10-31 2019-01-01 梅其珍 一种非金属柔性拟人机器人
CN107718014A (zh) * 2017-11-09 2018-02-23 深圳市小村机器人智能科技有限公司 高仿真机器人头部结构及其动作控制方法
CN108568807B (zh) * 2018-06-14 2024-02-13 深圳埃米电子科技有限公司 一种控制机器人面部表情的装置
CN108568806B (zh) * 2018-06-14 2024-02-13 深圳埃米电子科技有限公司 一种机器人的头部结构
CN109129501A (zh) * 2018-08-28 2019-01-04 西安交通大学 一种陪伴式智能家居中控机器人
CN110153997A (zh) * 2019-05-30 2019-08-23 大连木牛流马机器人科技有限公司 机械马头部运动仿生系统
CN115946150B (zh) * 2022-12-13 2023-11-14 深圳无芯科技有限公司 具有面部表情的头部结构及具有其的机器人

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004216513A (ja) 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International コミュニケーションロボット

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004216513A (ja) 2003-01-15 2004-08-05 Advanced Telecommunication Research Institute International コミュニケーションロボット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101247237B1 (ko) 2010-12-28 2013-03-25 한국생산기술연구원 유지보수가 용이한 착탈식 내외피 구조를 갖는 얼굴 로봇

Also Published As

Publication number Publication date
KR20090022875A (ko) 2009-03-04

Similar Documents

Publication Publication Date Title
KR101002619B1 (ko) 표정 구현이 가능한 얼굴 로봇
Goris et al. Mechanical design of the huggable robot Probo
Sosnowski et al. Design and evaluation of emotion-display EDDIE
JP5185473B1 (ja) 脚式ロボット
Tachi et al. Telesar vi: Telexistence surrogate anthropomorphic robot vi
Pan et al. Realistic and interactive robot gaze
KR100639068B1 (ko) 로봇의 감정표현장치 및 방법
Mollahosseini et al. Expressionbot: An emotive lifelike robotic face for face-to-face communication
Nakaoka et al. Creating facial motions of Cybernetic Human HRP-4C
CN115533932A (zh) 多运动控制点表情机器人的机械结构
Short et al. Sprite: Stewart platform robot for interactive tabletop engagement
Hackel et al. Humanoid robot platform suitable for studying embodied interaction
WO2013121469A1 (ja) 脚式ロボット
De Beir et al. Enhancing nao expression of emotions using pluggable eyebrows
Ricks et al. Design and evaluation of a clinical upper-body humanoid robot for autism therapy
JP2019187917A (ja) 表情可変ロボット
Lee et al. Semi-autonomous robot avatar as a medium for family communication and education
CN210606303U (zh) 一种机器人展示系统
JP7397425B2 (ja) 動作表現機構
Sosnowski et al. Eddie-an emotion-display with dynamic intuitive expressions
JP2005237522A (ja) ロボット
Niderla et al. Construction of a zoomorphical robot for rehabilitation of autistic children
Flores et al. A novel robotic neck for realizing an anatomically accurate android head targeting facial perception research
Adăscălitei et al. Controlling a social robot-performing nonverbal communication through facial expressions
Flores et al. A novel 4 DOF eye-camera positioning system for Androids

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131126

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151201

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee