KR100776849B1 - 레그식 로봇의 제어 장치 - Google Patents

레그식 로봇의 제어 장치 Download PDF

Info

Publication number
KR100776849B1
KR100776849B1 KR1020050120153A KR20050120153A KR100776849B1 KR 100776849 B1 KR100776849 B1 KR 100776849B1 KR 1020050120153 A KR1020050120153 A KR 1020050120153A KR 20050120153 A KR20050120153 A KR 20050120153A KR 100776849 B1 KR100776849 B1 KR 100776849B1
Authority
KR
South Korea
Prior art keywords
leg
robot
arm
external force
person
Prior art date
Application number
KR1020050120153A
Other languages
English (en)
Other versions
KR20060067831A (ko
Inventor
겐이치로 스기야마
다로 요코야마
고지 마키
나오히데 오가와
Original Assignee
혼다 기켄 고교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 혼다 기켄 고교 가부시키가이샤 filed Critical 혼다 기켄 고교 가부시키가이샤
Publication of KR20060067831A publication Critical patent/KR20060067831A/ko
Application granted granted Critical
Publication of KR100776849B1 publication Critical patent/KR100776849B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D57/00Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
    • B62D57/02Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
    • B62D57/032Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages

Abstract

사람과의 악수를 가능하게 하여 커뮤니케이션 기능을 향상시키는 동시에, 악수하였을 때의 자세를 안정하게 유지하도록 한 레그식 로봇의 제어 장치를 제공한다.
아암부를 구동하는 액추에이터의 동작을 제어하여 악수의 자세를 생성한다(S16). 또, 아암부에 작용하는 외력(악수함으로써 아암부에 작용하는 외력)을 6축력 센서로 검출하는 동시에, 검출한 외력에 기초하여, 레그부를 구동하는 액추에이터의 동작을 제어하는 자세 안정 제어를 행한다(S20).

Description

레그식 로봇의 제어 장치{CONTROL DEVICE FOR LEGGED ROBOT}
도 1은 본 발명의 제1 실시예에 따른 레그식 로봇의 제어 장치가 탑재되는 로봇의 정면도,
도 2는 도 1에 도시하는 로봇의 측면도,
도 3은 도 1에 도시하는 로봇을 스켈리톤(골격)으로 도시하는 설명도,
도 4는 도 1에 도시하는 로봇의 구성을 전자 제어 유닛(ECU)의 입출력 관계를 중심으로 나타내는 블록도,
도 5는 도 4에 도시하는 ECU에서 행해지는 악수 제어의 처리를 나타내는 블록도,
도 6은 도 4에 도시하는 ECU에서 행해지는 악수 제어의 처리를 나타내는 순서도(메인 루틴),
도 7은 도 6의 순서도의 처리를 설명하는 설명도,
도 8은 도 6의 순서도에 도시하는 자세 안정 제어의 처리를 나타내는 순서도(서브 루틴),
도 9는 도 8 순서도의 처리를 설명하는, 도 6과 동일한 설명도이다.
<도면의 주요부분에 대한 부호의 설명>
10 : 레그식 로봇
12L, 12R : 레그부
14 : 상체
20L, 20R : 아암부
26 : ECU(아암부 동작 제어 수단, 레그부 동작 제어 수단, 사람 위치 인식 수단)
80L, 80R : 6축력 센서(외력 검출 수단)
84L, 84R : CCD 카메라(사람 위치 인식 수단)
94 : RFID 태그(식별 정보 송출 수단)
100 : 레그부 액추에이터
104 : 아암부 액추에이터
130 : 사람
본 발명은 레그식 로봇의 제어 장치에 관한 것으로, 보다 상세하게는, 상체에 접속된 레그부와 아암부를 구비하고, 레그부를 구동하여 이동하는 동시에, 아암부에서 사람과 악수하도록 한 레그식 로봇의 제어 장치에 관한 것이다.
종래, 사람과의 커뮤니케이션 기능을 향상시키기 위해서, 사람과 악수할 수 있도록 한 로봇이 제안되어 있다(예를 들면 특허문헌 1 참조). 특허문헌 1에 기재되는 로봇에 있어서는, 핸드에 압력 센서 시트를 매설하여 악수하였을 때의 사람의 파지력(把持力)을 검출하여, 검출한 파지력에 따라서 발화(發話) 내용을 변경(구체적으로는, 파지력이 적당할 때에는「잘 부탁해」라고 발성하고, 파지력이 강할 때는「아파」라고 발성한다)하는 동시에, 아암부를 동작(구체적으로는, 파지력이 강할 때는 아암부를 끌어당기도록 동작시킨다)시킴으로써, 커뮤니케이션 기능을 향상시키도록 하고 있다. 또한, 특허문헌 1에 기재되는 로봇은, 차륜을 구동하여 이동하는 로봇이다.
(특허문헌 1) 일본국 특개 2004-283975호 공보(단락 0062에서 0066, 도 8 및 도 9)
로봇이 사람과 악수할 때, 아암부에는 적지 않게 외력이 작용한다. 상기한 특허문헌 1에 기재되는 로봇에 있어서는, 차륜으로 이동하도록 구성하고 있기 때문에, 악수하였을 때에 아암부에 작용하는 외력은 자세를 안정하게 유지하는 데에 있어서 특별히 문제가 되지 않지만, 레그부를 구동하여 이동하는 레그식 로봇, 특히 2족의 레그식 로봇에 있어서는, 그 자세를 흐트러뜨리는 데에 충분한 외란이 될 수 있다. 즉, 종래의 레그식 로봇에 있어서는, 사람과 악수함으로써, 자세의 불안정화를 초래할 우려가 있었다.
따라서 본 발명의 목적은 상기한 과제를 해결하여, 사람과의 악수를 가능하게 하여 커뮤니케이션 기능을 향상시키는 동시에, 악수하였을 때의 자세를 안정하게 유지하도록 한 레그식 로봇의 제어 장치를 제공하는 데에 있다.
상기한 과제를 해결하기 위해서, 청구항 1에 있어서는, 상체에 접속된 레그부와 아암부와, 상기 레그부를 구동하는 레그부 액추에이터와, 상기 아암부를 구동하는 아암부 액추에이터를 구비한 레그식 로봇의 제어 장치에 있어서, 상기 아암부에 작용하는 외력을 검출하는 외력 검출 수단과, 상기 아암부 액추에이터의 동작을 제어하여 상기 아암부에 악수의 자세를 생성하는 아암부 동작 제어 수단, 및 상기 검출된 외력에 기초하여 상기 로봇이 전후좌우로 이동할 수 있도록 상기 레그부 액추에이터의 동작을 제어하는 레그부 동작 제어 수단을 구비하도록 구성하였다.
또, 청구항 2에 있어서는, 상체에 접속된 레그부와 아암부와, 상기 레그부를 구동하는 레그부 액추에이터와, 상기 아암부를 구동하는 아암부 액추에이터를 구비한 레그식 로봇의 제어 장치에 있어서, 상기 아암부에 작용하는 외력을 검출하는 외력 검출 수단과, 상기 아암부 액추에이터의 동작을 제어하여 상기 아암부에 악수의 자세를 생성하는 아암부 동작 제어 수단, 및 상기 검출된 외력에 기초하여 상기 레그부 액추에이터의 동작을 제어하는 레그부 동작 제어 수단을 구비하는 동시에, 상기 레그부 동작 제어 수단은, 상기 검출된 외력이 소정치를 넘었을 때, 상기 로봇이 상기 외력의 방향과 같은 방향으로 이동하도록 상기 레그부 액추에이터의 동작을 제어하도록 구성하였다.
또, 청구항 3에 있어서는, 악수하는 사람의 위치를 인식하는 사람 위치 인식 수단을 더 구비하는 동시에, 상기 아암부 동작 제어 수단은, 상기 인식된 사람의 위치에 기초하여 상기 악수의 자세를 변경하도록 구성하였다.
또, 청구항 4에 있어서는, 상기 사람을 식별하는 식별 정보를 기억하여 상기 로봇에 송출하는 식별 정보 송출 수단을 더 구비하는 동시에, 상기 아암부 동작 제어 수단은, 상기 송출된 식별 정보에 기초하여 상기 악수의 자세를 변경하도록 구성하였다.
이하, 첨부 도면에 근거하여 본 발명에 따른 레그식 로봇의 제어 장치를 실시하기 위한 최선의 형태에 대해서 설명한다.
(실시예 1)
도 1은, 제1 실시예에 따른 레그식 로봇의 제어 장치가 탑재되는 로봇의 정면도이고, 도 2는 도 1에 도시하는 로봇의 측면도이다. 또한, 본 실시예에 있어서는, 레그식 로봇으로서, 2개의 레그부와 2개의 아암부를 구비한, 2족 보행하여 이동하는 휴머노이드형의 로봇을 예로 든다.
도 1에 도시하는 바와 같이, 레그식 로봇(이하 간단히「로봇」이라고 부른다)(10)은, 좌우의 레그부(12L, 12R)(좌측을 L, 우측을 R로 한다. 이하 동일)를 구비한다. 레그부(12L, 12R)는, 상체(14)의 하부에 연결된다. 상체(14)는, 그 상부에 헤드부(16)가 연결되는 동시에, 측부에 좌우의 아암부(20L, 20R)가 연결된다. 좌우의 아암부(20L, 20R)의 선단에는, 각각 핸드(엔드 이펙터)(22L, 22R)가 연결된다.
또, 도 2에 도시하는 바와 같이, 상체(14)의 배부(背部)에는 격납부(24)가 설치되고, 그 내부에는 전자 제어 유닛(이하「ECU」라고 부른다)(26)이나 배터리(도시하지 않음) 등이 수용된다.
도 3은, 도 1에 도시하는 로봇(10)을 스켈리톤으로 나타내는 설명도이다. 이하, 도 3을 참조하여, 로봇(10)의 내부 구조에 대해서 관절을 중심으로 설명한다.
좌우의 레그부(12L, 12R)는, 각각 대퇴 링크(30L, 30R)와 하퇴 링크(32L, 32R)와 족부(足部)(34L, 34R)를 구비한다. 대퇴 링크(30L, 30R)는, 고관절을 통해 상체(14)에 연결된다. 또한, 도 3에서는, 상체(14)를 상체 링크(36)로서 간략적으로 도시한다. 또, 대퇴 링크(30L, 30R)와 하퇴 링크(32L, 32R)는, 무릎 관절을 통 해서 연결되는 동시에, 하퇴 링크(32L, 32R)와 족부(34L, 34R)는 발 관절을 통해서 연결된다.
고관절은, Z축(요축. 구체적으로는, 로봇(10)의 높이 방향) 둘레의 회전축(40L, 40R)과, Y축(피치축. 구체적으로는, 로봇(10)의 좌우 방향) 둘레의 회전축(42L, 42R)과, X축(롤축. 구체적으로는, 로봇(10)의 전후 방향) 둘레의 회전축(44L, 44R)으로 구성된다. 즉, 고관절은, 3자유도를 구비한다.
또한, 이 실시예에서는, 연직축 위쪽을 Z축의 +방향으로 하고, 아래쪽을 -방향으로 한다. 또, 로봇(10)의 앞쪽을 X축의 +방향으로 하고, 뒤쪽을 -방향으로 한다. 또한, 로봇(10)의 좌측(앞쪽을 향해서 좌측)을 Y축의 +방향으로 하고, 우측을 -방향으로 한다.
무릎 관절은, Y축 둘레의 회전축(46L, 46R)으로 구성되고, 1자유도를 구비한다. 또, 발 관절은, Y축 둘레의 회전축(48L, 48R)과 X축 둘레의 회전축(50L, 50R)으로 구성되고, 2자유도를 구비한다. 이와 같이, 좌우의 레그부(12L, 12R)의 각각에는, 3개의 관절을 구성하는 6개의 회전축(자유도)이 부여되고, 레그부 전체로서는, 합계 12개의 회전축이 부여된다.
레그부(12L, 12R)는, 액추에이터(도시하지 않음)에 의해서 구동된다. 이하, 레그부(12L, 12R)를 구동하는 액추에이터를「레그부 액추에이터」라고 부른다. 레그부 액추에이터는, 구체적으로는 상체(14)나 레그부(12L, 12R)의 적절한 위치에 배치된 12개의 전동 모터로 이루어지고, 상기한 12개의 회전축을 개별로 구동한다. 따라서, 레그부 액추에이터의 동작을 제어하여 각 회전축을 적절한 각도로 구동함 으로써, 레그부(12L, 12R)에 원하는 움직임을 부여할 수 있다.
또, 좌우의 아암부(20L, 20R)는, 각각 상부 아암 링크(52L, 52R)와 하부 아암 링크(54L, 54R)와 핸드(22L, 22R)를 구비한다. 상부 아암 링크(52L, 52R)는, 어깨 관절을 통해서 상체(14)에 연결된다. 또, 상부 아암 링크(52L, 52R)와 하부 아암 링크(54L, 54R)는, 팔꿈치 관절을 통해서 연결되는 동시에, 하부 아암 링크(54L, 54R)와 핸드(22L, 22R)는 손 관절을 통해서 연결된다.
어깨 관절은, Y축 둘레의 회전축(56L, 56R)과, X축 둘레의 회전축(58L, 58R)과, Z축 둘레의 회전축(60L, 60R)으로 구성되고, 3자유도를 구비한다. 한편, 팔꿈치 관절은, Y축 둘레의 회전축(62L, 62R)으로 구성되고, 1자유도를 구비한다. 또, 손 관절은, Z축 둘레의 회전축(64L, 64R)과, Y축 둘레의 회전축(66L, 66R)과, X축 둘레의 회전축(68L, 68R)으로 구성되고, 3자유도를 구비한다. 이와 같이, 좌우의 아암부(20L, 20R)의 각각에는, 3개의 관절을 구성하는 7개의 회전축(자유도)이 부여되고, 아암부 전체로서 합계 14개의 회전축이 부여된다.
아암부(20L, 20R)도, 레그부(12L, 12R)와 동일하게 도시하지 않은 액추에이터에 의해서 구동된다. 이하, 아암부(20L, 20R)를 구동하는 액추에이터를「아암부 액추에이터」라고 부른다. 아암부 액추에이터는, 구체적으로는 상체(14)나 아암부(20L, 20R)의 적절한 위치에 배치된 14개의 전동 모터로 이루어지고, 상기한 14개의 회전축을 개별로 구동한다. 따라서, 아암부 액추에이터의 동작을 제어하여 각 회전축을 적절한 각도로 구동함으로써, 아암부(20L, 20R)에 원하는 움직임을 부여할 수 있다.
또, 핸드(22L, 22R)에는, 5개의 핑거부(70L, 70R)가 설치된다. 핑거부(70L, 70R)는, 도시하지 않은 구동 장치(액추에이터를 포함한다)에 의해서 동작이 자유롭게 되어, 아암부(20L, 20R)의 움직임에 연동하여 물건을 파지하는 등의 동작이 실행 가능하게 된다.
또, 헤드부(16)는, 상체(14)에 목 관절을 통해서 연결된다. 목 관절은, Z축 둘레의 회전축(72)과, Y축 둘레의 회전축(74)으로 구성되고, 2자유도를 구비한다. 회전축(72, 74)도, 도시하지 않은 액추에이터(이하「헤드부 액추에이터」라고 부른다)에 의해서 개별로 구동된다. 따라서, 헤드부 액추에이터의 동작을 제어하여 회전축(72, 74)을 적절한 각도로 구동함으로써, 헤드부(16)를 원하는 방향으로 향하게 할 수 있다.
또, 좌우의 레그부(12L, 12R)(구체적으로는, 족부(34L, 34R)와 발 관절의 사이)에는, 각각 6축력 센서(76L, 76R)가 장착된다. 이하, 좌측 레그부(12L)에 장착된 6축력 센서(76L)를「좌측 레그 6축력 센서」라고 부르고, 우측 레그부(12R)에 장착된 6축력 센서(76R)를「우측 레그 6축력 센서」라고 부른다. 좌측 레그 6축력 센서(76L)는, 바닥면으로부터 좌측 레그부(12L)에 작용하는 상반력(床反力)(보다 상세하게는, 좌측 레그부(12L)를 통해서 로봇(10)에 작용하는 상반력)의 3방향 성분(FxLF, FyLF, FzLF)과 모멘트의 3방향 성분(MxLF, MyLF, MzLF)을 나타내는 신호를 출력한다. 또, 우측 레그 6축력 센서(76R)는, 바닥면으로부터 우측 레그부(12R)에 작용하는 상반력(보다 상세하게는, 우측 레그부(12R)를 통해서 로봇(10)에 작용하는 상반력)의 3방향 성분(FxRF, FyRF, FzRF)과 모멘트의 3방향 성분(MxRF, MyRF, MzRF)을 나타내는 신호를 출력한다.
좌우의 아암부(20L, 20R)(구체적으로는, 핸드(22L, 22R)와 손 관절의 사이)에도, 동일 종류의 6축력 센서(80L, 80R)가 장착된다. 이하, 좌측 아암부(20L)에 장착된 6축력 센서(80L)를「좌측 아암 6축력 센서」라고 부르고, 우측 아암부(20R)에 장착된 6축력 센서(80R)를「우측 아암 6축력 센서」라고 부른다. 좌측 아암 6축력 센서(80L)는, 좌측 아암부(20L)에 작용하는(보다 상세하게는, 좌측 아암부(20L)를 통해서 로봇(10)에 작용하는 외력) 외력의 3방향 성분(FxLH, FyLH, FzLH)과 모멘트의 3방향 성분(MxLH, MyLH, MzLH)을 나타내는 신호를 출력한다. 또, 우측 아암 6축력 센서(80R)는, 우측 아암부(20R)에 작용하는 외력(보다 상세하게는, 우측 아암부(20R)를 통해서 로봇(10)에 작용하는 외력)의 3방향 성분(FxRH, FyRH, FzRH)과 모멘트의 3방향 성분(MxRH, MyRH, MzRH)을 나타내는 신호를 출력한다.
또한, 상기한 6축력 센서(76L, 76R, 80L, 80R)는, X, Y, Z의 각 축의 +방향의 힘 성분을 양의 값으로서 출력하는 동시에, -방향의 힘 성분을 음의 값으로서 출력한다.
상체(14)에는 경사 센서(82)가 설치되어, 연직축에 대한 상체(14)의 경사(경사 각도)와 그 각속도 중 적어도 어느 하나가, 즉, 상체(14)의 경사(자세) 등의 상태량을 나타내는 신호를 출력한다. 또, 헤드부(16)에는, 좌우의 CCD 카메라(84L, 84R)가 설치된다. CCD 카메라(84L, 84R)는, 같은 시각에 로봇(10)의 주위 환경을 촬영함으로써 얻은 화상을 출력한다.
상기한 센서나 카메라의 출력은, 도 2에서 도시한 ECU(26)에 입력된다. 또 한, ECU(26)는 마이크로 컴퓨터로 이루어지고, 도시하지 않은 CPU나 입출력 회로, ROM, RAM 등을 구비한다.
도 4는, 로봇(10)의 구성을 ECU(26)의 입출력 관계를 중심으로 나타내는 블록도이다.
도시와 같이, 로봇(10)은, 상기한 센서나 카메라에 추가하여, 회전각 센서(86)와, 자이로 센서(88)와, GPS 수신기(90)와, 리더(92)를 구비한다. 회전각 센서(86)는, 구체적으로는 복수 개의 로터리 인코더로 이루어지고, 상기한 각 회전축의 회전 각도에 따른 신호를 출력한다. 또, 자이로 센서(88)는, 로봇(10)의 이동 방향과 거리에 따른 신호를 출력한다. 회전각 센서(86)와 자이로 센서(88)의 출력은, ECU(26)에 입력된다.
GPS 수신기(90)는, 위성에서 발신된 전파를 수신하여, 로봇(10)의 위치 정보(위도와 경도)를 취득하여 ECU(26)에 출력한다. 또, 리더(92)는, RFID(Radio Frequency ID) 태그(94)에 기억되어 있는 식별 정보(구체적으로는, 태그의 휴대자(사람)를 식별하는 식별 정보)를 무선으로 읽어 들여, ECU(26)에 출력한다.
ECU(26)는, 레그 6축력 센서(76L, 76R), 경사 센서(82) 및 회전각 센서(86)의 출력에 기초하여, 보행 제어를 행한다. 구체적으로는, 상기한 레그부 액추에이터(부호 100으로 나타낸다)의 동작을 제어하여 레그부(12L, 12R)를 구동함으로써, 로봇(10)을 이동(보행)시킨다. 또, ECU(26)는, 보행 제어 등에 부수하여 상기한 헤드부 액추에이터(부호 102로 나타낸다)의 동작을 제어하여, 헤드부(16)의 방향을 조정한다. 또한, 로봇(10)의 보행 제어로서는, 예를 들면 본 출원인이 먼저 제안 한 일본국 특개평 10-277969호 공보 등에 기재되는 기술이 이용되지만, 본원의 요지와는 직접적인 관계를 갖지 않기 때문에 여기에서의 설명은 생략한다.
ECU(26)는, 또한, 아암 6축력 센서(80L, 80R), CCD 카메라(84L, 84R), 자이로 센서(88), GPS 수신기(90) 및 리더(92)의 출력에 기초하여, 악수 제어를 행한다. 구체적으로는, 상기한 아암부 액추에이터(부호 104로 나타낸다)의 동작을 제어하여 악수의 자세를 생성하는 동시에, 악수하였을 때의 자세를 안정하게 유지하기 위해서 레그부 액추에이터(100)의 동작을 제어하여 로봇(10)을 이동시킨다.
도 5는, ECU(26)에서 행해지는 악수 제어의 처리를 나타내는 블록도이다. 또한, 이하의 설명에서는, 우측 아암부(20R)에서 악수하는 것으로 한다.
도 5에 도시하는 바와 같이, ECU(26)는, 화상 처리부(110), 자기 위치 추정부(112), 사람 특정부(114), 사람 정보 데이터베이스(116), 지도 데이터베이스(118), 행동 결정부(120), 및 동작 제어부(122)를 구비한다.
화상 처리부(110)는, 사람 위치 인식부(110a)를 구비한다. 사람 위치 인식부(110a)는, CCD 카메라(84L, 84R)에서 같은 시각에 촬영된 화상을 입력하여, 그것들의 시차(視差)로부터 거리 화상을 생성한다. 또, 한 쪽의 CCD 카메라에서 촬영 시각이 다른 화상을 입력하여, 그것들의 차분에 기초하여 움직임이 있는 영역을 추출한 차분 화상을 생성한다. 그리고, 생성한 거리 화상과 차분 화상에 기초하여, 사람의 위치와 거기까지의 거리를 인식한다. 또한, 화상에 기초하여 사람을 인식하는 수법은, 예를 들면 본 출원인이 먼저 제안한 일본국 특개 2004-302905호 공보 등에 상세하게 나타나 있기 때문에, 상세한 설명은 생략한다.
자기 위치 추정부(112)는, GPS 수신기(90)로부터 입력된 위치 정보에 기초하여, 로봇(10)의 현재 위치를 추정한다. 또한, 위성에서 발신된 전파를 GPS 수신기(90)로 수신할 수 없을 때에는, 자이로 센서(88)에 의해서 검출된 이동 방향과 거리에 기초하여, 현재 위치를 추정한다.
사람 특정부(114)는, 리더(92)를 통해서 입력된 RFID 태그(94)의 식별 정보에 기초하여, 사람, 구체적으로는, 사람 위치 인식부(110a)에서 인식된 사람을 식별한다. RFID 태그(94)는, 식별 정보를 기억한 IC(94a)와, 식별 정보를 리더(92)에 무선으로 송출하는 안테나(94b)로 이루어지고, 복수의 사람에게 휴대된다. 또한, 각 사람에게 휴대되는 RFID(94)에는, 각각 다른 식별 정보가 기억되어 있는 것은 말할 필요도 없다.
사람 정보 데이터베이스(116)에는, RFID 태그(94)를 휴대하는 사람의 고유 정보가 격납된다. 고유 정보에는, 적어도 신장이나 성별 등이 포함된다. 또, 지도 데이터베이스(118)에는, 로봇(10)이 이동하는 주위 환경의 지도 정보가 격납된다.
행동 결정부(120)는, 이동 경로 결정부(120a)와, 악수 자세 결정부(120b)와, 이동 방향 결정부(120c)를 구비한다.
이동 경로 결정부(120a)는, 사람 위치 인식부(110a)에서 인식된 사람의 위치와 지도 데이터베이스(118)에 격납된 지도 정보에 기초하여, 로봇(10)의 이동 경로, 구체적으로는, 사람에게 접근하기 위한 이동 경로를 결정한다.
악수 자세 결정부(120b)는, 사람 위치 인식부(110a)에서 인식된 사람의 위치 와, 식별 정보에 따라서 사람 정보 데이터베이스(116)로부터 취득한 사람의 고유 정보(구체적으로는 신장)에 기초하여, 악수의 자세(구체적으로는 우측 아암부(20R)의 자세)를 결정(변경)한다. 또, 이동 방향 결정부(120c)는, 악수하고 있을 때의 우측 아암 6축력 센서(80R)의 출력에 기초하여, 로봇(10)의 이동 방향을 결정한다.
행동 결정부(120)에서 결정된 행동은, 동작 제어부(122)에 이송된다. 동작 제어부(122)는, 결정된 행동에 따라서, 레그부 액추에이터(100)와 아암부 액추에이터(104)의 동작을 제어한다.
다음에, 도 6의 순서도를 참조하여, ECU(26)에서 행해지는 악수 제어에 대해서, 행동 결정부(120)에서 실행되는 처리에 초점을 두고 상세히 설명한다.
이하 설명하면, S10에서, 사람 위치 인식부(110a)에서 인식한 사람에게 접근하도록 이동 경로를 결정하는 동시에, 결정한 이동 경로에 따라서 로봇(10)이 이동하도록 레그부 액추에이터(100)의 동작을 제어한다.
다음에 S12로 진행하여, 로봇(10)이 사람에 대해서 소정 거리 이내에 접근하였는지의 여부를 판단한다. S12에서 부정될 때는 S10으로 되돌아가서, 이동을 계속한다. 한편, S12에서 긍정될 때 S14로 진행하여 이동을 정지하는 동시에, S16로 진행하여, 악수의 자세가 생성되도록(사람(130)에게 우측 아암부(20R)를 내밀도록) 아암부 액추에이터(104)의 동작을 제어한다. 도 7에, 사람(부호 130으로 나타낸다)에 대해서 소정 거리(부호 D로 나타낸다) 이내에 접근하여 악수의 자세를 생성한 로봇(10)을 도시한다.
S16에서는, 사람 위치 인식부(110a)에서 인식된 사람의 위치와, 사람 정보 데이터베이스(116)에서 취득한 사람의 고유 정보(신장)에 기초하여, 우측 아암부(20R)의 자세를 결정(변경)한다. 구체적으로는, 로봇(10)과 사람의 이간 거리가 소정 거리 이내에서 비교적 먼 경우에는, 가까운 경우에 비해서 핸드(22R)가 앞쪽(X축의 +방향)에 위치하도록 우측 아암부(20R)의 자세를 결정한다. 또, 악수하는 사람의 신장이 비교적 높은 경우에는, 낮은 경우에 비해서 핸드(22R)가 높은 장소(Z축의 +방향)에 위치하도록 우측 아암부(20R)의 자세를 결정한다.
다음에 S18로 진행하여, 우측 아암 6축력 센서(80R)에 의해서 검출된 외력의 3방향 성분(FxRH, FyRH, FzRH) 중 적어도 어느 하나의 절대치가, 소정치(#F)를 넘었는지의 여부를 판단한다. 로봇(10)이 사람(부호 130으로 나타낸다)과 악수하면, 우측 아암부(20R)에는 적지 않게 외력이 작용한다. 따라서, S18의 판단은, 악수가 행해지고 있는지의 여부를 판단하는 것에 상당한다. 또한, 소정치(#F)는, 핸드(22R)에 사람의 손이 접촉하는 것을 검지할 수 있을 정도의, 비교적 작은 값(양의 값)으로 설정된다.
S18에서 부정될 때에는, S16으로 되돌아가서, 사람의 위치(거리)에 따라서 악수의 자세를 수정하면서, 악수가 개시되는 것을 기다린다. 다른 한편, S18에서 긍정될 때에는 S20으로 진행하여, 자세 안정 제어를 실행한다. 자세 안정 제어는, 우측 아암부(20R)에 작용한 외력에 의해서 로봇(10)의 자세가 불안정화하는 것을 방지하기 위해서 행하는 제어이고, 그 특징은, 검출한 외력에 기초하여 레그부 액추에이터(100)의 동작을 제어하는, 보다 상세하게는, 외력이 소정치를 넘었을 때, 로봇(10)을 외력의 방향과 같은 방향으로(즉, 우측 아암부(20R)에 작용하는 외력을 완화하는 방향으로) 이동시켜 균형을 잡는 것에 있다.
도 8은, 자세 안정 제어의 처리를 나타내는 순서도이다.
도 8의 순서도를 참조하여 자세 안정 제어에 대해서 상세히 설명하면, 우선 S100에서, 우측 아암 6축력 센서(80R)에 의해서 검출된 외력의 X방향 성분(FxRH)이 소정치(#Fx) 이상인지의 여루를 판단한다. 바꿔 말하면, 도 9에 도시하는 바와 같이, 로봇(10)의 우측 아암부(20R)가 소정치(#F) 이상의 힘으로 앞쪽(X축의 +방향)으로 잡아 당겨졌는지의 여부를 판단한다. 또한, 소정치(#Fx)는, 상기한 소정치(#F)보다도 큰 값(양의 값)으로 설정된다.
S100에서 긍정될 때에는 S102로 진행하여, 우측 아암 6축력 센서(80R)에 의해서 검출된 외력의 Y방향 성분(FyRH)의 절대치가 소정치(#Fy) 이상인지의 여부, 바꿔 말하면, 우측 아암부(20R)가 소정치(#Fy) 이상의 힘으로 좌측(Y축의 +방향) 혹은 우측(Y축의 -방향)으로 밀어졌는지의 여부를 판단한다. 소정치(#Fy)도, 소정치(#F)보다도 큰 값(양의 값)으로 설정된다.
S102에서 부정될 때는 S104로 진행하여, 로봇(10)을 +X방향, 즉, 우측 아암부(20R)에 작용하는 외력의 방향과 같은 방향으로 이동시킨다. 구체적으로는, 도 9에 상상선으로 나타내는 바와 같이, 좌측 레그부(12L) 혹은 우측 레그부(12R)가 앞쪽으로 발이 내디뎌지도록, 레그부 액추에이터(100)의 동작을 제어한다. 또한, 발을 내딛는 보폭(도 9에 부호 w로 나타낸다)은, FxRH의 크기에 따라서 변경된다(구체적으로는, FxRH가 커짐에 따라서 보폭(w)도 커진다).
다른 한편, S102에서 긍정될 때에는 S106으로 진행하여, Y방향 성분(FyRH)이 양의 값인지의 여부, 즉, 우측 아암부(20R)가 밀어진 방향이 좌측과 우측 중 어느 쪽인지 판단한다. S106에서 긍정될 때는 S108로 진행하여, 로봇(10)을 +X 및 +Y방향으로 이동시킨다. 구체적으로는, 좌측 레그부(12L)가 좌측 앞쪽으로 발이 내디뎌지도록, 레그부 액추에이터(100)의 동작을 제어한다. 이것에 대해서, S106에서 부정될 때에는 S110으로 진행하여, 로봇(10)을 +X방향 및 -Y방향으로 이동시킨다. 구체적으로는, 우측 레그부(12R)가 우측 앞쪽으로 발이 내디뎌지도록, 레그부 액추에이터(100)의 동작을 제어한다.
또, S100에서 부정될 때는 S112로 진행하여, X방향 성분(FxRH)이 소정치(-#Fx) 이상인지의 여부를 판단한다. 바꿔 말하면, 로봇(10)의 우측 아암부(20R)가 소정치(#Fx) 이상의 힘으로 뒤쪽(X축의 -방향)으로 밀어졌는지의 여부를 판단한다.
S112에서 긍정될 때는 S114로 진행하여, 전술한 S102와 동일하게 Y방향 성분(FyRH)의 절대치가 소정치(#Fy) 이상인지의 여부를 판단한다. S114에서 부정될 때에는 S116으로 진행하여 로봇(10)을 -X방향으로 이동시킨다(좌측 레그부(12L) 혹은 우측 레그부(12R)를 뒤쪽으로 발을 내딛게 한다).
다른 한편, S114에서 긍정될 때는 S118로 진행하여, Y방향 성분(FyRH)이 양의 값인지의 여부를 판단한다. S118에서 긍정될 때는 S120에서 로봇(10)을 -X 및 +Y방향으로 이동시키는(좌측 레그부(12L)를 좌측 뒤쪽으로 발을 내딛게 한다) 한편, S118에서 부정될 때는 S122에서 로봇(10)을 -X 및 -Y방향으로 이동시킨다(우측 레그부(12R)를 우측 뒤쪽으로 발을 내딛게 한다).
또, S112에서 부정될 때는 S124로 진행하여, Y방향 성분(FyRH)의 절대치가 소정치(#Fy) 이상인지의 여부를 판단하고, 거기에서 부정될 때에는 이후의 처리를 스킵한다(즉, 로봇(10)의 이동은 행하지 않는다). 다른 한편, S124에서 긍정될 때에는 S126으로 진행하여 Y방향 성분(FyRH)이 양의 값인지의 여부를 판단하고, 거기에서 긍정될 때에는 S128에서 로봇(10)을 +Y방향으로 이동하는(좌측 레그부(12L)를 좌측으로 발을 내딛게 한다) 동시에, 부정될 때는 S130에서 로봇(10)을 -Y방향으로 이동시킨다(우측 레그부(12R)를 우측으로 발을 내딛게 한다).
도 6의 순서도의 설명으로 되돌아가면, 다음에 S22로 진행하여, 외력의 3방향 성분(FxRH, FyRH, FzRH)의 모든 절대치가 소정치(#F)를 하회하였는지의 여부, 바꿔 말하면, 악수가 종료하였는지의 여부를 판단한다. S22에서 부정될 때에는 S20으로 되돌아가서 자세 안정 동작을 계속하는 한편, S22에서 긍정될 때에는 S24로 진행하여, 악수의 자세를 종료한다.
이와 같이, 본 발명의 제1 실시예에 있어서는, 우측 아암부(20R)를 구동하는 액추에이터(104)의 동작을 제어하여 악수의 자세를 생성하는 동시에, 우측 아암부(20R)에 작용하는 외력(사람과 악수하였을 때에 우측 아암부(20R)에 작용하는 외력)을 검출하여, 검출한 외력에 기초하여 레그부(12L, 12R)를 구동하는 액추에이터(100)의 동작을 제어하도록 구성하였기 때문에, 사람과의 악수를 가능하게 하여 커뮤니케이션 기능을 향상시킬 수 있는 동시에, 악수하였을 때에 아암부에 작용하는 외력에 따라서 균형을 잡아 자세를 안정하게 유지할 수 있다.
특히, 검출한 외력의 X방향 성분(FxRH) 및 Y방향 성분(FyRH) 중 적어도 어느 하나가 소정치(#Fx, #Fy)를 넘었을 때, 로봇(10)이 외력의 방향과 같은 방향으로 이동하도록 레그부 액추에이터(100)의 동작을 제어하도록 구성하였기 때문에, 악수하였을 때의 자세를 한층 안정하게 유지할 수 있다. 또, 사람이 의도적으로 외력을 가한 경우에는, 그것에 호응하여 로봇(10)이 이동하기 때문에, 커뮤니케이션 기능의 향상을 한층 더 도모할 수 있다.
또, CCD 카메라(84L, 84R)에서 촬상한 화상에 기초하여 악수해야 할 사람의 위치를 인식하여, 인식한 사람의 위치에 따라서 악수의 자세를 변경하도록 구성하였기 때문에, 사람이 악수하기 쉬운 위치에 아암부(구체적으로는 핸드)를 내미는 것이 가능해져, 커뮤니케이션 기능을 보다 향상시킬 수 있다.
또한, RFID 태그(94)에 기억된 사람의 식별 정보에 기초하여 악수의 자세를 변경하는, 보다 상세하게는, 식별 정보에 따라서 악수하는 사람의 신장(고유 정보)을 사람 정보 데이터베이스(116)로부터 취득하여, 취득한 신장에 기초하여 악수의 자세를 변경하도록 구성하였기 때문에, 악수하는 사람에 따라서 최적의 위치(가장 악수하기 쉬운 위치)에 아암부를 내미는 것이 가능해져, 커뮤니케이션 기능을 보다 한층 향상시킬 수 있다.
이 실시예는 상기한 바와 같이, 상체(14)에 접속된 레그부(12L, 12R)와 아암부(20L, 20R)와, 상기 레그부를 구동하는 레그부 액추에이터(100)와, 상기 아암부를 구동하는 아암부 액추에이터(104)를 구비한 레그식 로봇의 제어 장치에 있어서, 상기 아암부에 작용하는 외력을 검출하는 외력 검출 수단(6축력 센서(80L, 80R))과, 상기 아암부 액추에이터의 동작을 제어하여 상기 아암부에 악수의 자세를 생성하는 아암부 동작 제어 수단(ECU(26), 도 6의 순서도의 S16), 및 상기 검출된 외력 에 기초하여 상기 레그부 액추에이터의 동작을 제어하는 레그부 동작 제어 수단(ECU(26), 도 6의 순서도의 S20)을 구비하도록 구성하였다.
또, 악수하는 사람(130)의 위치를 인식하는 사람 위치 인식 수단(CCD 카메라(84L, 84R), ECU(26))을 구비하는 동시에, 상기 아암부 동작 제어 수단은, 상기 인식된 사람의 위치에 기초하여 상기 악수의 자세를 변경(도 6의 순서도의 S16)하도록 구성하였다.
또, 상기 사람을 식별하는 식별 정보를 기억하여 상기 로봇에 송출하는 식별 정보 송출 수단(RFID 태그(94))을 구비하는 동시에, 상기 아암부 동작 제어 수단은, 상기 송출된 식별 정보에 기초하여 상기 악수의 자세를 변경(도 6의 순서도의 S16)하도록 구성하였다.
또, 상기 레그부 동작 제어 수단은, 상기 검출된 외력이 소정치를 넘었을 때, 상기 로봇이 상기 외력의 방향과 같은 방향으로 이동하도록 상기 레그부 액추에이터의 동작을 제어(도 7의 순서도의 S100에서 S130)하도록 구성하였다.
또한, 상기에 있어서, 악수하는 아암부를 우측 아암부(20R)로 하였지만, 좌측 아암부(20L)에 악수의 자세가 생성되도록 아암부 액추에이터(104)의 동작을 제어하여, 좌측 아암부(20L)에서 악수하도록 해도 된다. 이 경우, 좌측 아암 6축 센서(80L)의 출력을 행동 결정부(120)에 입력하면 되는 것은 말할 필요도 없다. 또, 우측 아암부(20R)와 좌측 아암부(20L)의 양쪽에 악수의 자세가 생성되도록 아암부 액추에이터(104)의 동작을 제어하여, 양팔로 악수하도록 해도 된다. 이 경우, 우측 아암부 6축력 센서(80R)의 출력과 좌측 아암부 6축력 센서(80L)의 출력을 행동 결정부(120)에 입력하여, 그것들의 합력에 기초하여 자세 안정 제어를 행하면 된다.
또, 우측 아암부(20R)에 작용하는 외력의 X방향 성분(FxRH)과 Y방향 성분(FyRH)이 소정치 이상이 되었을 때에 로봇(10)을 이동시키도록 하였지만, 그것에 추가하여, Z방향 성분(FxRH)이 소정치 이상일 때에 소정의 동작(예를 들면 무릎의 굽혔다 폄)을 행하도록 해도 된다.
또, 레그식 로봇으로서 2족 보행 로봇을 예시하였지만, 그것에 한정되는 것이 아니라, 3족 이상의 로봇이어도 된다.
청구항 1에 따른 레그식 로봇의 제어 장치에 있어서는, 아암부를 구동하는 아암부 액추에이터의 동작을 제어하여 악수의 자세를 생성하는 동시에, 아암부에 작용하는 외력(즉, 사람과 악수하였을 때에 아암부에 작용하는 외력)을 검출하여, 검출한 외력에 기초하여 레그부를 구동하는 레그부 액추에이터의 동작을 제어하도록 구성하였기 때문에, 사람과의 악수를 가능하게 하여 커뮤니케이션 기능을 향상시킬 수 있는 동시에, 악수하였을 때에 아암부에 작용하는 외력에 따라서 균형을 잡아 자세를 안정하게 유지할 수 있다.
청구항 2에 따른 레그식 로봇의 제어 장치에 있어서는, 검출한 외력이 소정치를 넘었을 때, 로봇이 외력의 방향과 같은 방향으로(즉, 아암부에 작용하는 외력을 완화하는 방향으로) 이동하도록 레그부 액추에이터의 동작을 제어하도록 구성하였기 때문에, 악수하였을 때의 자세를 한층 안정하게 유지할 수 있다. 또, 사람이 의도적으로 외력을 가한 경우에는, 그것에 호응하여 로봇이 이동하기 때문에, 커뮤니케이션 기능의 향상을 한층 더 도모할 수 있다.
청구항 3에 따른 레그식 로봇의 제어 장치에 있어서는, 악수하는 사람의 위치를 인식하여, 인식한 사람의 위치에 기초하여 악수의 자세를 변경하도록 구성하였기 때문에, 사람이 악수하기 쉬운 위치에 아암부를 내미는 것이 가능해져, 커뮤니케이션 기능을 보다 향상시킬 수 있다.
청구항 4에 따른 레그식 로봇의 제어 장치에 있어서는, 사람의 식별 정보에 기초하여 악수의 자세를 변경하는, 보다 상세하게는, 식별 정보에 기초하여 악수하는 사람의 고유 정보(신장 등)를 취득하여, 취득한 고유 정보에 기초하여 악수의 자세를 변경하도록 구성하였기 때문에, 악수하는 사람에 따라서 최적의 위치(가장 악수하기 쉬운 위치)에 아암부를 내미는 것이 가능해져, 커뮤니케이션 기능을 보다 한층 향상시킬 수 있다.

Claims (4)

  1. 삭제
  2. 상체에 접속된 레그부와 아암부와, 상기 레그부를 구동하는 레그부 액추에이터와, 상기 아암부를 구동하는 아암부 액추에이터를 구비한 레그식 로봇의 제어 장치에 있어서,
    a. 상기 아암부에 작용하는 외력을 검출하는 외력 검출 수단과,
    b. 상기 아암부 액추에이터의 동작을 제어하여 상기 아암부에 악수의 자세를 생성하는 아암부 동작 제어 수단, 및
    c. 상기 검출된 외력에 기초하여 상기 레그부 액추에이터의 동작을 제어하는 레그부 동작 제어 수단을 구비하는 동시에, 상기 레그부 동작 제어 수단은, 상기 검출된 외력이 소정치를 넘었을 때, 상기 로봇이 상기 외력의 방향과 같은 방향으로 이동하도록 상기 레그부 액추에이터의 동작을 제어하는 것을 특징으로 하는 레그식 로봇의 제어 장치.
  3. 제2항에 있어서,
    d. 악수하는 사람의 위치를 인식하는 사람 위치 인식 수단
    을 더 구비하는 동시에, 상기 아암부 동작 제어 수단은, 상기 인식된 사람의 위치에 기초하여 상기 악수의 자세를 변경하는 것을 특징으로 하는 레그식 로봇의 제어 장치.
  4. 제2항에 있어서,
    e. 상기 사람을 식별하는 식별 정보를 기억하여 상기 로봇에 송출하는 식별 정보 송출 수단
    을 더 구비하는 동시에, 상기 아암부 동작 제어 수단은, 상기 송출된 식별 정보에 기초하여 상기 악수의 자세를 변경하는 것을 특징으로 하는 레그식 로봇의 제어 장치.
KR1020050120153A 2004-12-14 2005-12-08 레그식 로봇의 제어 장치 KR100776849B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004361711A JP4384021B2 (ja) 2004-12-14 2004-12-14 脚式ロボットの制御装置
JPJP-P-2004-00361711 2004-12-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020070069462A Division KR100807449B1 (ko) 2004-12-14 2007-07-11 레그식 로봇의 제어 장치

Publications (2)

Publication Number Publication Date
KR20060067831A KR20060067831A (ko) 2006-06-20
KR100776849B1 true KR100776849B1 (ko) 2007-11-16

Family

ID=35892391

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020050120153A KR100776849B1 (ko) 2004-12-14 2005-12-08 레그식 로봇의 제어 장치
KR1020070069462A KR100807449B1 (ko) 2004-12-14 2007-07-11 레그식 로봇의 제어 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020070069462A KR100807449B1 (ko) 2004-12-14 2007-07-11 레그식 로봇의 제어 장치

Country Status (6)

Country Link
US (1) US7877165B2 (ko)
EP (1) EP1671874B1 (ko)
JP (1) JP4384021B2 (ko)
KR (2) KR100776849B1 (ko)
CN (1) CN100421887C (ko)
HK (1) HK1089998A1 (ko)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100534732C (zh) * 2005-12-12 2009-09-02 本田技研工业株式会社 脚式移动机器人的控制装置
JP4456560B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法
US8260463B2 (en) * 2006-02-02 2012-09-04 Kabushiki Kaisha Yaskawa Denki Robot system
KR100862190B1 (ko) 2006-11-30 2008-10-09 한국전자통신연구원 로봇의 자세 검출 장치 및 그 방법
TWI338588B (en) * 2007-07-31 2011-03-11 Ind Tech Res Inst Method and apparatus for robot behavior series control based on rfid technology
JP5104355B2 (ja) * 2008-02-01 2012-12-19 富士通株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラム
JP4998506B2 (ja) * 2009-04-22 2012-08-15 トヨタ自動車株式会社 ロボット制御装置、ロボット制御方法、及び脚式ロボット
US8918212B2 (en) 2009-06-24 2014-12-23 Intuitive Surgical Operations, Inc. Arm with a combined shape and force sensor
KR100989441B1 (ko) * 2010-02-23 2010-10-26 김영일 적응형 퍼지모델을 이용한 태양광 발전 제어 시스템 및 이를 이용한 최대전력 추정방법
JP5633166B2 (ja) * 2010-03-23 2014-12-03 トヨタ自動車株式会社 ロボット、及びその制御方法
US9031697B2 (en) * 2011-04-15 2015-05-12 Irobot Corporation Auto-reach method for a remote vehicle
CN102582714B (zh) * 2012-01-31 2013-08-07 山东大学 具有负重能力的液压驱动双足机器人下肢机构
US9044863B2 (en) 2013-02-06 2015-06-02 Steelcase Inc. Polarized enhanced confidentiality in mobile camera applications
JP6140114B2 (ja) * 2014-07-31 2017-05-31 ファナック株式会社 移動式人協調型ロボット
JP2016052697A (ja) * 2014-09-03 2016-04-14 インターマン株式会社 人型ロボット
CN104369192A (zh) * 2014-11-05 2015-02-25 深圳市普乐方文化科技有限公司 娱乐仿真机器人
CN104890756B (zh) * 2015-06-09 2017-04-05 江苏科技大学 一种三维仿人双足步行机器人的机械结构及行走方法
US9669543B1 (en) 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
JP6514156B2 (ja) * 2016-08-17 2019-05-15 ファナック株式会社 ロボット制御装置
US11221497B2 (en) 2017-06-05 2022-01-11 Steelcase Inc. Multiple-polarization cloaking
JP6936081B2 (ja) * 2017-08-30 2021-09-15 パナソニック株式会社 ロボット
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
US11106124B2 (en) 2018-02-27 2021-08-31 Steelcase Inc. Multiple-polarization cloaking for projected and writing surface view screens
US11931898B2 (en) * 2020-12-22 2024-03-19 Boston Dynamics, Inc. Arm and body coordination

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117858A (ja) * 1999-09-20 2003-04-23 Sony Corp ロボットの歩行制御装置及び歩行制御方法
JP2004283975A (ja) * 2003-03-24 2004-10-14 Advanced Telecommunication Research Institute International コミュニケーションロボット

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3035051B2 (ja) * 1991-12-20 2000-04-17 本田技研工業株式会社 脚式移動ロボットの歩行制御装置
JP3269852B2 (ja) * 1992-05-29 2002-04-02 本田技研工業株式会社 脚式移動ロボットの姿勢安定化制御装置
CN2199853Y (zh) * 1994-06-18 1995-06-07 四川乾坤高新技术研究院 礼仪机器人
EP0965416B1 (en) * 1996-12-19 2005-12-07 Honda Giken Kogyo Kabushiki Kaisha Attitude controller of legged moving robot
JP3672426B2 (ja) 1996-12-19 2005-07-20 本田技研工業株式会社 脚式移動ロボットの姿勢制御装置
JP3629133B2 (ja) 1997-01-31 2005-03-16 本田技研工業株式会社 脚式移動ロボットの制御装置
US6421453B1 (en) * 1998-05-15 2002-07-16 International Business Machines Corporation Apparatus and methods for user recognition employing behavioral passwords
JP3854926B2 (ja) * 2000-11-17 2006-12-06 本田技研工業株式会社 脚式歩行ロボット
JP2002154076A (ja) * 2000-11-17 2002-05-28 Honda Motor Co Ltd ロボットの腕
JP2003191188A (ja) 2001-12-21 2003-07-08 Yamaha Motor Co Ltd ロボットにおける腕による表現方法および肘関節機構
JP4149213B2 (ja) * 2002-07-12 2008-09-10 本田技研工業株式会社 指示位置検出装置及び自律ロボット
JP3985623B2 (ja) * 2002-07-26 2007-10-03 松下電器産業株式会社 ロボット
JP4359423B2 (ja) * 2002-11-22 2009-11-04 ソニー株式会社 脚式移動ロボット及び脚式移動ロボットの足部機構
JP4231320B2 (ja) 2003-03-31 2009-02-25 本田技研工業株式会社 移動体の検出装置
CN100534732C (zh) * 2005-12-12 2009-09-02 本田技研工业株式会社 脚式移动机器人的控制装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117858A (ja) * 1999-09-20 2003-04-23 Sony Corp ロボットの歩行制御装置及び歩行制御方法
JP2004283975A (ja) * 2003-03-24 2004-10-14 Advanced Telecommunication Research Institute International コミュニケーションロボット

Also Published As

Publication number Publication date
JP4384021B2 (ja) 2009-12-16
EP1671874A3 (en) 2011-01-26
US7877165B2 (en) 2011-01-25
KR20060067831A (ko) 2006-06-20
HK1089998A1 (en) 2006-12-15
EP1671874B1 (en) 2012-02-15
US20060129278A1 (en) 2006-06-15
EP1671874A2 (en) 2006-06-21
CN100421887C (zh) 2008-10-01
KR100807449B1 (ko) 2008-02-25
KR20070078102A (ko) 2007-07-30
JP2006167841A (ja) 2006-06-29
CN1788947A (zh) 2006-06-21

Similar Documents

Publication Publication Date Title
KR100776849B1 (ko) 레그식 로봇의 제어 장치
US7330775B2 (en) Legged mobile robot controller, legged mobile robot and legged mobile robot control method
JP4456561B2 (ja) 自律移動ロボット
EP1908561B1 (en) Controller of mobile robot
KR100840427B1 (ko) 각식 이동 로봇의 제어장치
KR100912688B1 (ko) 이동 로봇의 제어장치
KR100843802B1 (ko) 각식 이동 로봇의 제어장치
US20100268382A1 (en) Controller of mobile robot
JP4914703B2 (ja) 脚式移動ロボットの制御装置
TWI555524B (zh) 機器人的行動輔助系統
Bazeille et al. Active camera stabilization to enhance the vision of agile legged robots
JP6218641B2 (ja) ロボットの保持システム
KR100567184B1 (ko) 이족보행로봇의 실시간 자세제어 장치 및 방법
JP2008173708A (ja) 脚式移動型ロボットおよび脚式移動型ロボットの歩行制御方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
A107 Divisional application of patent
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20120928

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20131001

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140930

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20151016

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20161019

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20181023

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20191017

Year of fee payment: 13