KR20010025103A - 로봇 장치 및 그 제어 방법 - Google Patents

로봇 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20010025103A
KR20010025103A KR1020007013200A KR20007013200A KR20010025103A KR 20010025103 A KR20010025103 A KR 20010025103A KR 1020007013200 A KR1020007013200 A KR 1020007013200A KR 20007013200 A KR20007013200 A KR 20007013200A KR 20010025103 A KR20010025103 A KR 20010025103A
Authority
KR
South Korea
Prior art keywords
state
time series
recognized
robot apparatus
lifted
Prior art date
Application number
KR1020007013200A
Other languages
English (en)
Other versions
KR100610235B1 (ko
Inventor
다카무라세이이치
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR20010025103A publication Critical patent/KR20010025103A/ko
Application granted granted Critical
Publication of KR100610235B1 publication Critical patent/KR100610235B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

가속도 센서나 회전각 센서에 의해 가속도 정보나 회전각 정보나 회전각 속도 정보를 검출하고, 검출된 신호를 시계열적(時系列的)으로 기억부에 기억시킨다. 기억된 시계열 신호로부터 분산 등의 특정 정보를 산출하고, 이 특정 정보로부터 로봇 장치의 상태를 판정한다. 또 이 상태로서 들어 올려진 것을 인식했을 때에는, 외부에 작용하는 소정 가동부(可動部)의 움직임을 정지시킨다.

Description

로봇 장치 및 그 제어 방법 {ROBOT DEVICE AND CONTROL METHOD THEREOF}
종래부터, 로봇 장치에 자연스러운 동작을 행하게 하기 위한 여러가지의 제안이 이루어지고 있다.
예를 들면, 일본국 실개평 5(1993)-72630호 공보에서, 운동체에 장착된 가속도 센서로부터 계측되는 신호에 고역(高域) 필터 처리를 실시하여 얻어지는 전압이 소정의 임계값보다도 큰가를 판정함으로써 운동체가 주행 중인가 정지 중인가를 판정하는 운동체의 운동 정지 센서가 있다.
그런데, 이러한 운동체의 운동 정지 센서에서는, 가속도 센서가 운동체의 진행 방향의 1개소에만 장착되어 있기 때문에, 경사면의 이동이나 회전 운동에 대하여 판정할 수 없는 문제가 있었다.
또, 일본국 특개평 10(1998)-113343호 공보에서, 동작 및 행동의 인식 방법, 장치 및 시스템이 제안되어 있다. 이러한 시스템은 피검자에 장착된 측정기로부터 얻어지는 신호를 주파수 변환하여 특징량을 산출하고, 산출된 특징량과 데이터 베이스와의 상관(相關)을 취함으로써, 동작이나 행동을 인식하는 것이다.
그러나, 이와 같은 인식 방법, 장치 및 시스템에 의하면, 데이터 베이스가 불충분하거나 부적절한 경우에는 옳바른 인식을 할 수 없고, 또 이와 같은 것을 회피하기 위해 충분한 데이터 베이스를 만들려고 해도, 엄청난 시간, 전문 지식, 경험이 필요하게 되는 문제가 있었다.
본 발명은 로봇 장치 및 그 제어 방법에 관한 것이며, 예를 들면, 자연스러운 동작을 하는 로봇 장치 및 그 제어 방법에 적용하여 바람직한 것이다.
도 1은 본 발명을 적용한 로봇 장치의 구성을 나타낸 블록도이다.
도 2는 로봇 장치의 외관 사시도이다.
도 3은 로봇 장치가 보행하고 있을 때의 상태 설명에 제공되는 약선도이다.
도 4는 상태 인식 처리 순서를 나타낸 플로 차트이다.
도 5는 로봇 장치의 각종 상태에서의 분산값의 설명에 제공되는 특성 곡선도이다.
도 6은 노이즈에 의한 상태의 오인식(誤認識)의 설명에 제공되는 특성 곡선도이다.
도 7은 로봇 장치가 들어 올려졌을 때의 상태 설명에 제공되는 약선도이다.
도 8은 로봇 장치가 내려졌을 때의 상태 설명에 제공되는 약선도이다.
도 9는 로봇 장치가 보행을 재개했을 때의 상태 설명에 제공되는 약선도이다.
도 10은 동작 억제 처리 순서를 나타낸 플로 차트이다.
도 11 (A) 및 도 11 (B)는 수족의 관절 기구를 나타낸 약선도이다.
도 12는 행동 복귀 처리 순서를 나타낸 플로 차트이다.
도 13은 가속도 센서에 의한 상태의 검출 설명에 제공되는 특성 곡선도이다.
본 발명은 전술한 바와 같은 종래의 실정을 감안하여 이루어진 것이며, 용이하게 경사면의 이동이나 회전 운동 등의 스스로의 상황에 대하여 인식하고, 스스로 행동할 수 있는 로봇 장치 및 그 제어 방법을 제공하는 것이다.
즉, 로봇 장치는 가속도 센서 및/또는 자이로 센서에 의해 가속도 및/또는 회전각 속도를 검출하는 검출 수단과, 검출 수단으로 검출된 신호를 시계열적(時系列的)으로 시계열 신호로서 가억하는 기억 수단과, 기억 수단에 기억된 시계열 신호로부터 특정 정보를 산출하는 산출 수단과, 산출 수단으로 산출된 특정 정보로부터 자기의 상태를 인식하는 인식 수단과, 인식 수단에 인식된 자기의 상태에 따라 행동을 출력하는 출력 수단을 구비한다.
이에 따라, 로봇 장치에서는, 검출된 가속도나 회전각 속도를 사용하여 특정 정보를 산출하고, 산출된 특정 정보에 따라 자기의 상태를 자동적으로 인식하여 행동을 일으킨다.
또한, 로봇 장치는 인식 수단이 인식한 자기의 상태가 들어 올려진 상태인 경우에는, 외부에 작용하는 소정 가동부의 동작을 정지시키도록 한다.
이에 따라, 로봇 장치에서는, 외부에 작용하는 가동부가 동작하는 데 기인하는 사용자의 부상 발생을 미연에 방지할 수 있다.
또, 로봇 장치의 제어 방법은 가속도 센서 및/또는 자이로 센서에 의해 가속도 및/또는 회전각 속도를 검출하는 제1 스텝과, 검출에 의해 얻어진 신호를 시계열적으로 시계열 신호로서 기억하는 제2 스텝과, 기억된 시계열 신호로부터 특정 정보를 산출하는 제3 스텝과, 산출된 특정 정보로부터 자기의 상태를 인식하는 제4 스텝과, 인식된 자기의 상태에 따라 로봇 장치의 행동을 제어하는 제5 스텝을 가진다.
이에 따라, 로봇 장치의 제어 방법은 자기의 상태를 자동적으로 인식하여 로봇 장치의 행동을 제어함으로써, 자기의 상태 변화에 따라 로봇 장치의 행동을 제어한다.
또한, 로봇 장치의 제어 방법은 인식 수단이 인식한 자기의 상태가 들어 올려진 상태인 경우에는, 외부에 작용하는 소정 가동부의 동작을 정치시키도록 한다.
이에 따라, 로봇 장치의 제어 방법은 외부에 작용하는 가동부가 동작하는 데 기인하는 사용자의 부상 발생을 미연에 방지할 수 있다.
이하, 본 발명의 한 실시 형태를 도면을 이용하여 상술한다.
(1) 본 실시 형태에 의한 로봇 장치의 구성
도 1에 나타낸 바와 같이, 본 실시 형태인 로봇 장치(1)는 전체가 구성되어, 시스템 전체를 제어하는 중앙 처리 연산부(Central Processing Unit: 이하, 「CPU」라고 함)(11)와, 예를 들면, CCD(Charge Coupled Device) 이미지 센서를 가지는 비디오 카메라와, 비디오 카메라(12)로부터의 비디오 데이터 등을 기억하는 기억부(13)와, 시리얼 버스의 호스트 컨트롤러 등을 하나로 통합한 대규모 집적 회로(Large-Scale Integrated Circuit: 이하, 「LSI」라고 함)(14)를 구비한다.
LSI(14)는, 예를 들면, 직렬 통신, 병렬 통신, USB 통신 등의 인터페이스로 이루어지는 통신부(14A)를 가지며, 이 통신부(14A)를 통해 외부의 퍼스널 컴퓨터(100)와 접속된다. 이 때, 퍼스널 컴퓨터(100)는 LSI(14)를 통해, 예를 들면, CPU(11)를 동작시키는 프로그램을 변경하거나, 그 조작을 행할 수 있다.
LSI(14)는 PC 카드 인터페이스(15)를 가지면, PC 카드 규격 등의 여러가지의 디바이스, 예를 들면, ATA(Advanced Technology Attachment) 플래시 메모리 카드 등의 기억 장치(200)나 무선 통신 카드 등의 통신 장치(300)와 접속된다.
LSI(14)는 리얼 타임의 시간 정보를 얻기 위한 도시하지 않은 타임과, 배터리 잔량의 관리나 타이머와 연계하여 어느 시간에 파워 온으로 하는 등의 제어를 행하기 위한 도시하지 않은 배터리 매니저를 구비한다.
또, 로봇 장치(1)는 수족, 귀, 입 등을 구성하는 제1에서 제4의 CPU(Configurable Physical Component) 디바이스(20, 30, 40, 50)를 구비한다. 각 CPC 디바이스는 LSI(14) 내의 시리얼 버스 허브(SBH)(14B)에 접속되어 있다. 여기에서는, CPC 디바이스를 4개 나타내고 있지만, 그 수는 특히 한정되는 것이 아님은 물론이다.
제1 CPC 디바이스(20)는 LSI(14)로부터의 제어 명령에 따라 당해 디바이스 내의 각 회로를 제어하는 허브(21)와, 제어 신호나 검출 신호 등을 일시 기억해 두는 메모리(22)와, 가속도를 검출하는 가속도 센서(23)와, 퍼텐쇼미터(Potentiometer)(24)와, 관절 등의 역할을 완수하는 액추에이터(25)를 구비한다. 가속도 센서(23)는 수십미리초 단위로 3축(X축, Y축, Z축) 방향의 가속도를 각각 검출하고, 이 검출 결과를 허브(21), 시리얼 버스 허브(14B)를 통해 CPU(11)에 공급한다.
제2 CPC 디바이스(30)는 허브(31)와, 메모리(32)와, 회전각 속도를 검출하는 자이로 센서로 이루어지는 회전각 속도 센서(33)와, 퍼텐쇼미터(34)와, 액추에이터(35)를 구비한다. 회전각 속도 센서(33)는 수십미리초 단위로 3각(R각, P각, Y각) 방향의 회전각 속도를 검출하고, 이 검출 결과를 허브(31), 시리얼 버스 허브(14B)를 통해 LSI(14)에 공급한다.
제3 CPC 디바이스(40)는 허브(41)와, 메모리(42)와, 예를 들면, 발광함으로써 외부로부터 자극 받은 것을 나타내는 발광 다이오드(LED)(43)와, 외부를 접촉했는지 여부를 검출하는 터치 센서(44)를 구비한다.
제4 CPC 디바이스(50)는 허브(51)와, 메모리(52)와, 외부에 음성을 출력하는 「입」의 역할을 완수하는 스피커(53)와, 외부의 음성을 검출하는 「귀」의 역할을 완수하는 마이크(54)를 구비한다.
로봇 장치(1)의 외관은, 예를 들면, 도 2에 나타낸 바와 같이, 다족 보행 로봇으로 이루어진다. 즉, 로봇 장치(1)는 다족 방향의 다관절형 로봇이며, 4개의 다리(2)를 가지는 동물의 형상을 하고 있다.
그리고, 도 3에 나타낸 바와 같이, 이와 같은 로봇 장치(1)가 보행하고 있을 때에는, CPU(11)는, 구체적으로는, 도 4에 나타낸 상태 인식 처리 순서(RT1)에 따라 로봇 장치(1)의 상태를 감시한다.
즉, CPU(11)는 이 상태 인식 처리 순서(RT1)를 스텝 SP0에서 개시하면, 계속되는 스텝 SP1에서 가속도 센서(23)나 회전각 속도 센서(33)가 검출한 가속도 정보, 회전각 속도 정보를 수취하고, 그 후 스텝 SP2로 진행하여 이들 가속도 정보, 회전각 속도 정보를 시계열적으로 기억부(13)에 기억시킨다.
이어서, CPU(11)는 스텝 SP3으로 진행하여 기억부(13)에 기억시킨 시계열 신호로부터 특정 정보를 산출한다. 예를 들면, CPU(11)는 기억부(13)에 기억된 가속도 센서(23)의 시계열 신호로부터, 3축분(X축, Y축, Z축)의 총계를 취한 가속도 센서(23)에서의 대표 분산값을 산출한다. CPU(11)는 마찬가지로, 필요에 따라, 회전각 속도 센서(33)의 시계열 신호로부터도 3각분(R각, P각, Y각)의 총계를 취한 대표 분산값을 산출한다.
이어서, CPU(11)는 스텝 SP4로 진행하여, 이 산출한 분산값 등의 특정 정보를 판정한다.
여기에서, 가속도 센서(23)나 회전각 속도 센서(33)의 검출 출력 분산값의 일예를 도 5에 나타냈다. 분산값은 로봇 장치(1)가 지면 위를 행동하고 있을 때가 가장 크고, 그것이 들어 올려졌을 때, 들어 내려졌을 때의 순으로 작아지는 특성을 가진다. 따라서, 상태 변화의 임계값을 적절히 설정함으로써, 분산값에 따라 로봇 장치(1)가 걷고 있는가, 그것이 들어 올려졌는가, 그것이 들어 내려졌는가를 판단하는 것이 가능하게 된다. 도 5에 의하면, CPU(11)는 분산값이 δ2 이상인 때에는 지면을 행동 중, 분산값이 δ1 이상 δ2 미만인 때에는 들어 올림, 분산값이 δ1 미만인 때에는 들어 내림을 하고 있다고 판단할 수 있다. 그리고, 이와 같은 구체적인 판단에 대해서는, 후술하는 스텝 SP5 이후에서 행해진다.
또, CPU(11)는 노이즈에 의한 분산값의 급격한 변화에 의해 상태의 변화를 오인식해 버리는 일도 있다. CPU(11)는 이와 같은 오인식을 방지하기 위해, 도 6에 나타낸 바와 같이, 분산값과 임계값(δ3)과의 관계를 판정하고, 연속하여 소정 시간 이상, 분산값과 임계값(δ3)과의 관계가 일정한 경우에는, 실제로는 상태 변화가 발생했다고 간주하고 있다. 예를 들면, CPU(11)는 미리 소정 시간 T를 설정해 두고, 시간 T1(< T)의 동안만큼 분산값이 임계값(δ3)을 초과했을 때에는 노이즈에 의한 오인식으로 판단하고, 시간 T2(> T)의 동안에 분산값이 임계값(δ3)을 초과했을 때에는 상태가 변화되었다고 정확하게 인식할 수 있다. 이에 따라, 노이즈에 대하여 로버스트(robust) 오인식 기능을 실현할 수 있다. 그리고, 임계값(δ3)은 전술한 δ3이나 δ2에 상당한다.
또한, CPU(11)는 항상 가속도 센서(23)의 분산값을 산출하고 있지만, 필요에 따라 회전각 속도 센서(33)의 분산값도 아울러 산출하고 있다. 이에 따라, CPU(11)의 처리 부담을 그다지 증대시키지 않고, 인식의 로버스트성을 향상시킬 수 있다.
구체적으로는, 가속도 대표 분산값의 변화보다 자이로 대표 분산값의 변화 쪽이 현저한 자세 변화 또는 동작을 검출하는 경우에는, 가속도 센서(23)뿐만 아니라 회전각 속도 센서(33)의 검출 출력을 병용하는 것이 바람직하다. 즉, 정지/저속 운동 시나 병진(竝進) 운동 성분이 많은 경우에는 주로 가속도 센서(23)로부터의 정보가 중요하며, 반대로, 고속 운동 시나 회전 운동 성분이 많은 경우에는 회전각 속도 센서(33)로부터의 정보가 중요하게 된다. 따라서, 검출해야 할 행위가 고속 운동의 경우나 회전 운동 성분이 많은 경우에는, 회전각 속도 센서(33)로부터의 정보를 병용하는 시간을 많게 하면 된다.
계속해서, CPU(11)는 스텝 SP5로 진행하여, 특정 정보가 「지면 행동 중」의 특성인지 여부를 판정하고, 긍정 결과를 얻으면 스텝 SP6으로 진행하여, 당해 로봇 장치(1)는 지면을 행동 중이라고 인식하고, 그대로 보행 동작을 계속하도록 제1 CPC 디바이스(20) 등의 각 CPC 디바이스를 제어한 후, 스텝 SP1로 되돌아간다.
이에 대하여, CPU(11)는 스텝 SP5에서 부정 결과를 얻으면, 스텝 SP7로 진행하여 특정 정보가 「안아 올려졌을 때 들어 올려졌을 때」의 특성인지 여부를 판정하고, 판정 결과를 얻으면 스텝 SP8로 진행된다. 그리고, 이 때 로봇 장치(1)는 도 7에 나타낸 바와 같이, 사용자에게 끌어 안겨 있는 상태로 되어 있다.
그리고, CPU(11)는 이 스텝 SP8에서 당해 로봇 장치(1)가 안아 올려졌다고 인식하여, 보행 동작을 중지하고 얌전해지도록 제1 CPC 디바이스(20) 등의 각 CPC 디바이스를 제어한 후, 스텝 SP1로 되돌아간다.
이에 대하여, CPU(11)는 스텝 SP7에서 부정 결과를 얻으면, 스텝 SP9로 진행하여 특정 정보가 「들어 내려졌을 때」의 특성인지 여부를 판정하고, 긍정 결과를 얻으면 스텝 SP10으로 진행하고, 부정 결과를 얻으면 스텝 SP1로 되돌아간다.
그리고, CPU(11)는 이 스텝 SP10으로 진행된 경우, 당해 로봇 장치(1)가 들어 내려졌다고 인식하고, 그 후, 도 8에 나타낸 바와 같이, 터치 센서(44) 등의 검출 출력으로부터 지면에 놓여진 것도 인식하면, 도 9에 나타낸 바와 같이 보행 동작을 재개하도록 제1 CPC 디바이스(20) 등의 각 CPC 디바이스를 제어한 후, 스텝 SP1로 되돌아간다.
여기에서, 터치 센서(44)는, 예를 들면, 외부와의 접촉을 검출하는 접촉 센서 또는 압력을 감지하는 감압 센서이며, 지면(상면(床面))과의 접촉 상태를 검출하고 있다. 이와 같이, 지면과의 접촉 상태를 검출하는 검출 수단의 검출 결과도 참조하여, 전술한 가속도 센서에 의한 가속도나 자이로 센서로부터의 회전각 속도에 따라 안아 올려지는 등의 로봇 장치의 상태를 인식하는 수단으로 취해질 수 있으므로, 보다 신뢰성이 높은 인식 결과를 얻을 수 있다.
즉, 예를 들면, 안아 올려진 경우에는, 발끝이 지면으로부터 떨어지기 때문에 발끝의 접촉 스위치는 반드시 OFF로 되어 있으므로, 이 정보를 가속도나 회전 속도의 변화와 동일하게 감시함으로써, 안아 올려진 것의 검출이나 들어 내려진 것의 검출 능력을 향상시킬 수 있다.
(2) 안아 올림 인식 시 및 들어 내림 인식 시에 있어서의 CPU(11)의 구체적인 처리
여기에서, CPU(11)는 로봇 장치(1)가 안아 올려지면 도 10에 나타낸 동작 억제 처리 순서(RT2)에 따라, 로봇 장치(1)의 동작을 억제한다.
즉, CPU(11)는 상태 인식 처리 순서(RT1)의 스텝(SP8)에서 로봇 장치(1)가 안아 올려졌다고 인식하면, 이 동작 억제 처리 순서(RT2)를 스텝 SP20에서 개시하고, 계속되는 스텝 SP21에서 LSI(14) 내부의 대응하는 서보계 회로나 대응하는 CPC 디바이스를 제어함으로써, 로봇 장치(1)의 각 다리(2)의 움직임을 정지시키는(대응하는 관절 기구의 액추에이터(25)에 대한 제어 게인을 「0」으로 함) 동시에 각 다리(2)의 기계적인 구속을 개방시켜, 이들 다리(2)의 힘을 빼게 한다.
실제로, 이 로봇 장치(1)에서는, 도 11 (A)에 나타낸 바와 같이, 각 다리(2)의 각 관절 기구(60)가 각각 액추에이터(모터)(25)의 출력축에 고착된 기어를 압축 코일 스프링(62)의 탄성력에 의해 감속 기어 열(列)(63)에 맞물리게 함으로써 구성되어 있다. 이 경우, 액추에이터(25)는 전자 플런저(64)를 구동함으로써 도 11 (B)와 같이 화살표 a 방향으로 이동시킬 수 있고, 이에 따라 기어(61)와, 감속 기어 열(63)과의 맞물림을 개방할 수 있도록 되어 있다.
그래서, CPU(11)는 스텝 SP21에서, 각 다리(2)의 모든 관절 기구의 액추에이터(25)에 대하여, 구동 전압의 인가를 정지시키는 한편, 대응하는 전자 플런저(64)를 구동시킴으로써, 액추에이터(25)의 정지(靜止) 토크에 기인하는 각 다리(2)의 기계적인 구속을 개방하고, 이에 따라 로봇 장치(1)의 모든 다리(2)의 힘을 빼게 하여, 당해 로봇 장치(1)를 사용자가 끌어 안기 쉬운 상태로 변화시킨다.
계속해서, CPU(11)는 스텝 SP22로 진행하여 LSI(14) 내부의 대응하는 서보계 회로를 제어함으로써 머리(3)(도 2)나 꼬리(4)(도 2)의 움직임을 더디게 하고, 그 후 스텝 SP23으로 진행하여 LSI(14) 내부의 대응하는 회로를 제어함으로써, 「눈」의 역할을 완수하는 LED(5)(도 2)를 소등시키는 동시에 스피커(54)(도 1)로부터의 음성 출력(울음 소리)의 음량을 낮춘다.
이어서, CPU(11)는 스텝 SP24로 진행하여 그 때 유지하고 있는 상태나 학습에 관한 각종 파라미터 등의 데이터를 PC 카드 인터페이스(15)를 통해 기억 장치(200)에 기입한다.
또한, CPU(11)는 계속되는 스텝 SP25에서 그 이후의 기억 장치(200)에 대한 데이터의 독서를 금지하고, 그 후 스텝 SP26으로 진행하여 이 동작 억제 처리 순서(RT2)를 종료한 후, 상태 인식 처리 순서(RT1)의 스텝 SP1로 되돌아간다.
한편, CPU(11)는 이후 로봇 장치(1)가 들어 내려지면 도 12에 나타낸 행동 복귀 처리 순서(RT3)에 따라 로봇 장치(1)의 행동을 복귀시킨다.
즉, CPU(11)는 상태 인식 처리 순서(RT1)의 스텝 SP10에서 로봇 장치(1)가 들어 내려졌다고 인식하면, 이 행동 복귀 처리 순서(RT3)를 스텝 SP30에서 개시하고, 계속되는 스텝 SP31에서 기억 장치(200)에 대한 데이터의 독서 허가를 발행한다. 또, CPU(11)는 이와 함께 대응하는 CPC 디바이스를 제어함으로써, 각 다리(2)를 기계적으로 구속(도 11의 전자 플런저(64)의 구동을 정치)한다.
이어서, CPU(11)는 스텝 SP32로 진행하여, LSI(14) 내부의 대응하는 회로를 제어함으로써, 스피커(53)(도 1)로부터 소정 패턴의 음성을 출력하고, 「눈」에 상당하는 LED(5)를 점등하고 /또는 꼬리(4)를 동작시키도록 하여, 동작이 복귀된 것을 사용자에게 알린다.
그리고, CPU(11)는 계속되는 스텝 SP34에서 필요한 데이터를 기억 장치(200)로부터 판독하고, 당해 데이터에 따라 LSI(14) 내부의 대응하는 서보계 회로를 제어함으로써 각 다리(2)의 동작을 재개시키고, 그 후 스텝 SP35로 진행하여 이 행동 복귀 처리(RT3)를 종료한 후, 상태 인식 처리 순서(RT1)의 스텝 SP1로 되돌아간다.
(3) 본 실시 형태의 동작 및 효과
이상의 구성에서, 이 로봇 장치(1)에서는, 가속도 센서(23) 및/또는 회전각 속도 센서(33)에 의해 검출된 가속도 정보 및/또는 회전각 속도 정보를 시계열적으로 기억부(13)에 기억시키는 동시에, 이 가속도 정보 및/또는 회전각 속도 정보에 따라 분산값 등의 특정 정보를 산출하고, 검출 결과에 따라 자기의 상태를 인식하고, 인식 결과에 따라 행동한다.
따라서, 이 로봇 장치(1)에서는, 사용자가 당해 로봇 장치(1)를 안아 올리거나, 그것을 들어 내린 것을 당해 로봇 장치(1)에 명시적으로 정보로서 부여할 필요가 없다. 그리고, 이와 같이 로봇 장치(1) 스스로가 자동 인식할 수 있도록 함으로써, 보다 자연스러운 로봇과 인간의 연결을 실현할 수 있다.
또, 주위의 환경이나 제3자로부터 당해 로봇 장치(1)에 외력이 작용한 경우에는, 특정 정보의 변동을 인식할 수 있으므로, 외력에 따른 반응(행동, 음성, 음계 등의 출력)을 행할 수 있어, 지적 엔터테인먼트성이 높은 로봇 장치(1)를 구축할 수 있다.
또한, 목표의 자세나 행동을 실제로 수행할 수 있는 지 여부에 대하여 특정 정보를 관계함으로써 판단할 수 있으므로, 이것을 이용하여 당해 로봇 장치(1) 행동의 정부(正否)를 검출할 수도 있다.
또, 이 로봇 장치(1)에서는, 안아 올려졌을 때에는, 각 다리(2)의 움직임을 정지시키는 등 당해 로봇 장치(1)의 동작을 억제하는 한편, 이후 들어 내려졌을 때에는 각 다리(2)의 움직임을 재개시켜 행동을 복귀시킨다.
따라서, 이 로봇 장치(1)에서는, 사용자가 당해 로봇 장치(1)를 안아 올렸을 때에 당해 로봇 장치(1)의 다리(2) 관절이나 다리(2)와 몸통 사이 등에 손가락을 끼울 수 있거나, 또는 로봇 장치(1)의 동작에 놀라 로봇 장치(1)를 자기의 다리 위로 떨어뜨리거나 하는 데 따른 사용자의 부상 발생을 방지하면서, 당해 로봇 장치(1)를 안아 올린 사용자에 대하여 공순감(恭順感)이나 친화감의 인상을 주어 사용감을 쾌적하게 할 수 있다.
또한, 이 로봇 장치(1)에서는, 안아 올려졌을 때에는 기억 장치(200)에 대한 데이터의 독서를 금지하기 때문에, 예를 들면, 기억 장치(200)에 대한 데이터의 독서 처리 시에 사용자가 당해 로봇 장치(1)를 떨어뜨린 데 기인하는 기억 장치(200) 내의 데이터의 파괴나 기억 장치(200)에 대한 부정 데이터의 기입 등을 미연에 방지할 수 있다.
이상의 구성에 의하면, 가속도 센서(23) 및/또는 회전각 속도 센서(33)에 의해 검출된 가속도 정보 및/또는 회전각 속도 정보를 시계열적으로 기억부(13)에 기억시키는 동시에, 이 가속도 정보 및/또는 회전각 속도 정보에 따라 분산값 등의 특정 정보를 산출하고, 검출 결과에 따라 자기의 상태를 인식하고, 인식 결과에 따라 행동하도록 함으로써, 자기의 상태 변화에 따라 행동을 제어하도록 할 수 있고, 이렇게 하여 용이하게 경사면의 이동이나 회전 운동 등의 스스로의 상황에 대하여 인식하고, 스스로 행동할 수 있는 로봇 장치를 실현할 수 있다.
또, 안아 올려졌을 때에 로봇 장치(1)의 동작을 억제하도록 함으로써, 안아 올렸을 때의 로봇 장치(1)의 동작에 기인하는 사용자의 부상 발생을 미연에 방지할 수 있고, 이렇게 하여 안전성 및 어뮤즈먼트(amusement)성을 향상시킬 수 있는 로봇 장치를 실현할 수 있다.
(4) 다른 실시 형태
그리고, 본 발명의 전술한 실시 형태에 있어서는, 로봇 장치(1)의 각 센서의 검출 출력 분산값에 따라 로봇 장치(1) 자신의 보행, 들어 올림, 들어 내림의 3가지 상태를 인식하도록 한 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 예를 들면, 그 밖의 행동 패턴에 대응하는 분산값이나 디지털 필터의 주파수에 특성이 있는 경우에는, 당해 그 밖의 패턴도 동일하게 하여 인식하도록 해도 된다.
또, 전술한 실시 형태에서는, 특정 정보의 산출로서, 분산값이나 디지털 필터로부터 출력되는 주파수 특성을 사용하도록 한 경우에 대하여 설명했으나, 본 발명은 이에 한정되지 않고, 로봇 장치(1)의 행동 패턴에 대응하는 특성을 산출하는 수법이 따로 존재하면 당해 다른 수법의 특성을 이용해도 된다.
또한, 전술한 실시 형태에서는, 상태 인식 처리 순서(RT1)의 스텝 SP3에서 분산값을 사용하는 경우에 대하여 설명했으나, 본 발명은 이에 한정되지 않고, 예를 들면, 가속도 센서(23) 및 회전각 속도 센서(33)의 검출 출력에 대하여 디지털 필터를 사용하도록 해도 된다.
실제로, 디지털 필터는 시계열 신호의 특정 주파수 성분만을 꺼내는 것이 가능하며, 적절한 주파수를 설정함으로써, 로봇 장치(1)의 행동 중의 주파수 성분, 들어 올려졌을 때의 주파수 성분, 들어 내려졌을 때의 주파수 성분을 각각 분리할 수 있다. 주파수의 정성적(定性的)인 관계로서, 행동 중의 주파수가 가장 높고, 들어 올려졌을 때의 주파수, 들어 내려졌을 때의 주파수의 순으로 주파수가 낮아진다.
그래서, 디지털 필터를 사용했을 때의 이들의 성질을 이용하여, 분산값을 사용한 경우와 마찬가지로 적절한 임계값을 설정함으로써, 로봇 장치(1) 자신의 상태를 인식할 수 있다.
또한, 전술한 실시 형태에 있어서는, 안아 올려졌을 때에는 각 다리(2)의 움직임을 정지시키도록 한 경우에 대하여 설명했으나, 본 발명은 이에 한정되지 않고, 안아 올려졌을 때에는, 예를 들면, 엎드려 자세로 각 다리(2)를 구부리는 등, 그 자세를 사용자가 안기 쉬운 자세로 천이시키도록 해도 되며, 이와 같이 함으로써 쾌적감을 보다 향상시킬 수 있다.
또한, 전술한 실시 형태에서는, 안아 올려졌을 때에는 각 다리(2)의 움직임을 정지시키도록 한 경우에 대하여 설명했으나, 본 발명은 이에 한정되지 않고, 예를 들면, 본 발명을 사용자의 사용 상황에 따라 학습하면서 성격을 변화시키는 어뮤즈먼트 로봇에 적용하는 경우에는, 안아 올려졌을 때에 그 성격에 따라 행동 패턴을 변화시키도록 해도 되며, 이와 같이 함으로써 어뮤즈먼트성을 향상시킬 수 있다.
또한, 전술한 실시 형태에서는, 들어 올려졌을 때에 각 다리(2)의 움직임을 정지시키도록 한 경우에 대하여 설명했으나, 본 발명은 이에 한정되지 않고, 요는, 본 발명을 적용하는 로봇 장치의 형상 및 형태에 따라 사용자에 대하여 부상을 입힐 우려가 있는 외부에 작용하는 가동부의 움직임을 정지시키도록 하면 된다.
또한, 전술한 실시 형태에서는, 들어 올려졌을 때에 기억 장치(200)에 대한 데이터의 독서를 금지하도록 한 경우에 대하여 설명했지만, 본 발명은 이에 한정되지 않고, 예를 들면, 비디오 카메라(12)로부터의 비디오 데이터에 따라, 낙하 등의 기억 장치(200)에 데이터의 독서를 하고 있으면 기억 장치(200) 내의 데이터를 파괴할 우려가 있는 상황을 검출한 경우(예를 들면, 자기의 이동 방향에 낭떠러지로 생각되는 에지를 검출했을 때 등)에도 기억 장치(200)에 대한 데이터의 독서를 금지하도록 해도 된다.
또한, 가속도 센서(23)에 의한 로보트 장치 상태의 검출에 대해서는, 전술한 실시 형태에서 설명한 것에 한정되지 않는다. 예를 들면, 다음과 같이 가속도 센서(23)의 출력에 의해 로봇 장치의 상태를 검출할 수도 있다.
가속도 센서(23)로부터의 X축, Y축, Z축의 3 방향에 대한 시계열 신호를 각각 샘플링하여, 가속도 정보로서 기억한다.
일정 시간 분의 시계열 가속도 정보(이하, 시계열 정보라고 함)가 기억되면, 각 축의 시계열 정보마다 저역(低域) 필터를 달고, 저주파수 성분을 뽑아낸다. 그리고, 시각(t)에서의 각 축의 저주파수 성분(Gi(i=x, y, z))으로부터 전체의 노름(norm) (G(t))를 수학식 1에 의해 산출한다.
이 G(t)는 로봇 장치(1)를 안아 올렸을 때에, 도 13에 나타낸 바와 같은 특성을 나타낸다. 즉, 일단, G(t)가 통상 시 G0의 값보다 감소하고, 그후, 급격히 통상값 G0를 상회하고, 마지막에 G0로 낙착된다. 이와 같은 G(t)의 변화를 검출함으로써 로봇 장치(1)가 안아 올려진 것을 검출할 수 있다. 구체적으로는, 이하와 같이 하여 안아 올림을 검출한다.
수학식 2로 산출되는 값이 어느 임계값(제1 임계값) 이상으로 되는 시각 T0와, 그 시각 T0시의 G(t)(이하, G1라고 함)를 먼저 기억한다. 여기에서, G0는 통상값이며, 통상, 9.8(중력 가속도)이다.
그리고, 시각 T0로부터 소정의 시간 △T 내에, 수학식 3에 의해 값을 산출한다.
이 수학식 3으로 주어지는 △G2가 어느 임계값(제2 임계값) 이상으로 되었을 때, 안아 올려졌다고 하여 검출할 수 있다.
그리고, 이와 같이 하여 자기의 상태를 검출하는 경우에 있어서도, 지면과의 접촉 상태를 검출하는 검출 수단의 검출 결과를 참조할 수 있음은 물론이다.
본 발명에 의하면, 가속도 센서 및/또는 자이로 센서에 의해 가속도 및/또는 회전각 속도를 검출하고, 검출된 신호를 시계열적으로 시계열 신호로서 기억하고, 기억된 시계열 신호로부터 특정 정보를 산출하고, 산출된 특정 정보로부터 자기의 상태를 인식하고, 인식된 자기의 상태에 따라 로봇 장치의 행동을 제어함으로써, 용이하게 경사면의 이동이나 회전 운동의 스스로의 상황에 대하여 인식하고 스스로 행동할 수 있는 로봇 장치 및 그 제어 방법을 실현할 수 있다.
또, 이에 더하여, 인식된 자기의 상태가 들어 올려진 상태인 경우에는, 외부에 작용하는 소정 가동부의 동작을 정지하도록 함으로써, 외부에 작용하는 가동부가 동작하는 데 기인하는 사용자의 부상 발생을 미연에 방지할 수 있고, 이렇게 하여 안정성을 향상시킬 수 있는 로봇 장치 및 그 제어 방법을 실현할 수 있다.

Claims (14)

  1. 가속도 센서 및/또는 자이로 센서에 의해 가속도 및/또는 회전각 속도를 검출하는 검출 수단과,
    상기 검출 수단으로 검출된 신호를 시계열적(時系列的)으로 시계열 신호로서 기억하는 기억 수단과,
    상기 기억 수단에 기억된 시계열 신호로부터 특정 정보를 산출하는 산출 수단과,
    상기 산출 수단으로 산출된 특정 정보로부터 자기의 상태를 인식하는 인식 수단과,
    상기 인식 수단에 인식된 상기 자기의 상태에 따라 행동을 출력하는 출력 수단
    을 구비하는 것을 특징으로 하는 로봇 장치.
  2. 제1항에 있어서,
    상기 산출 수단은 상기 시계열 신호로부터 분산값을 산출하고,
    상기 인식 수단은 상기 산출 수단으로 산출된 분산값에 따라 자기의 상태를 인식하는 것을 특징으로 하는 로봇 장치.
  3. 제1항에 있어서,
    상기 산출 수단은 상기 시계열 신호에 디지털 필터를 걸어 특정의 주파수 성분을 산출하고,
    상기 인식 수단은 상기 산출 수단으로 산출된 주파수 성분에 따라 자기의 상태를 인식하는 것을 특징으로 하는 로봇 장치.
  4. 제1항에 있어서,
    상기 출력 수단은 상기 인식 수단이 인식한 상기 자기의 상태가 들어 올려진 상태인 경우에는, 외부에 작용하는 소정 가동부(可動部)의 동작을 정지시키는 것을 특징으로 하는 로봇 장치.
  5. 제1항에 있어서,
    상기 출력 수단은 상기 인식 수단이 인식한 상기 자기의 상태가 들어 올려진 상태인 경우에는, 외부 기억 수단에 대한 각종 정보의 독서를 정지하는 것을 특징으로 하는 로봇 장치.
  6. 제1항에 있어서,
    상기 출력 수단은 상기 인식 수단이 인식한 상기 자기의 상태가 들어 올려진 상태인 경우에는, 자세를 사용자가 껴안기 쉬운 소정의 자세로 천이(遷移)시키는 것을 특징으로 하는 로봇 장치.
  7. 제1항에 있어서,
    지면과의 접촉 상태를 검출하는 접촉 상태 검출 수단을 구비하고,
    상기 인식 수단은 상기 접촉 상태 검출 수단의 검출 결과에 따라 자기의 상태를 인식하는 것을 특징으로 하는 로봇 장치.
  8. 가속도 센서 및/또는 자이로 센서에 의해 가속도 및/또는 회전각 속도를 검출하는 제1 스텝과,
    상기 검출에 의해 얻어진 신호를 시계열적으로 시계열 신호로서 기억하는 제2 스텝과,
    상기 기억된 시계열 신호로부터 특정 정보를 산출하는 제3 스텝과,
    상기 산출된 특정 정보로부터 자기의 상태를 인식하는 제4 스텝과,
    상기 인식된 자기의 상태에 따라 로봇 장치의 행동을 제어하는 제5 스텝
    을 가지는 것을 특징으로 하는 로봇 장치의 제어 방법.
  9. 제8항에 있어서,
    상기 제3 스텝에서는, 상기 기억된 시계열 신호로부터 상기 특정 정보로서 분산값을 산출하고,
    상기 제4 스텝에서는, 상기 산출된 분산값에 따라 상기 자기의 상태를 인식하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  10. 제8항에 있어서,
    상기 제3 스텝에서는, 상기 기억된 시계열 신호에 디지털 필터를 걸음으로써 상기 특정 정보로서 특정의 주파수 성분을 산출하고,
    상기 제4 스텝에서는, 상기 산출된 주파수 성분에 따라 상기 자기의 상태를 인식하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  11. 제8항에 있어서,
    상기 제5 스텝에서는, 상기 인식된 자기의 상태가 들어 올려진 상태인 경우에는, 상기 로봇 장치의 외부에 작용하는 소정 가동부의 동작을 정지시키는 것을 특징으로 하는 로봇 장치의 제어 방법.
  12. 제8항에 있어서,
    상기 제5 스텝에서는, 상기 인식된 자기의 상태가 들어 올려진 상태인 경우에는, 외부 기억 수단에 대한 각종 정보의 독서를 정지하는 것을 특징으로 하는 로봇 장치의 제어 방법.
  13. 제8항에 있어서,
    상기 제5 스텝에서는, 상기 인식된 자기의 상태가 들어 올려진 상태인 경우에는, 상기 로봇 장치를 사용자가 껴안기 쉬운 소정의 자세로 천이시키는 것을 특징으로 하는 로봇 장치의 제어 방법.
  14. 제8항에 있어서,
    상기 제4 스텝에서는, 지면과의 접촉 상태를 검출하고, 그 검출 결과에 따라 자기의 상태를 인식하는 것을 특징으로 하는 로봇 장치의 제어 방법.
KR1020007013200A 1998-11-30 1999-11-25 로봇 장치 및 그 제어 방법 KR100610235B1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP34071598 1998-11-30
JP98-340715 1998-11-30
JP12927799 1999-05-10
JP99-129277 1999-05-10

Publications (2)

Publication Number Publication Date
KR20010025103A true KR20010025103A (ko) 2001-03-26
KR100610235B1 KR100610235B1 (ko) 2006-08-09

Family

ID=26464721

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007013200A KR100610235B1 (ko) 1998-11-30 1999-11-25 로봇 장치 및 그 제어 방법

Country Status (6)

Country Link
US (1) US6374157B1 (ko)
EP (1) EP1155787B1 (ko)
JP (1) JP4517509B2 (ko)
KR (1) KR100610235B1 (ko)
CN (1) CN1127402C (ko)
WO (1) WO2000032360A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100862190B1 (ko) * 2006-11-30 2008-10-09 한국전자통신연구원 로봇의 자세 검출 장치 및 그 방법
KR20170137778A (ko) * 2015-04-17 2017-12-13 악티에볼라겟 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치의 제어 방법
WO2024025244A1 (ko) * 2022-07-27 2024-02-01 삼성전자주식회사 로봇 장치의 위치에 대응되는 모드로 동작하는 로봇 장치 및 그 제어 방법

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6940248B2 (en) * 1996-07-05 2005-09-06 Bose Corporation Motion controlling
US8788092B2 (en) * 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
JP4524524B2 (ja) * 2000-10-11 2010-08-18 ソニー株式会社 ロボット装置及びその制御方法
JP2002166378A (ja) * 2000-11-30 2002-06-11 Sony Corp ロボット装置
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US6507773B2 (en) 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
EP2298506B1 (en) * 2002-03-18 2013-09-11 Sony Corporation Mobile device and method for controlling a mobile device
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
CN100344416C (zh) * 2003-03-23 2007-10-24 索尼株式会社 机器人装置和控制该装置的方法
US6995536B2 (en) * 2003-04-07 2006-02-07 The Boeing Company Low cost robot manipulator
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
US20060020369A1 (en) * 2004-03-11 2006-01-26 Taylor Charles E Robot vacuum cleaner
WO2006002373A1 (en) 2004-06-24 2006-01-05 Irobot Corporation Remote control scheduler and method for autonomous robotic device
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
EP2145573B1 (en) 2005-02-18 2011-09-07 iRobot Corporation Autonomous surface cleaning robot for wet and dry cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
KR100657530B1 (ko) * 2005-03-31 2006-12-14 엘지전자 주식회사 자동주행 로봇의 들림감지장치
JP2007044781A (ja) * 2005-08-08 2007-02-22 Sony Corp ロボット装置及び動作制御方法
US9144360B2 (en) 2005-12-02 2015-09-29 Irobot Corporation Autonomous coverage robot navigation system
EP2544065B1 (en) 2005-12-02 2017-02-08 iRobot Corporation Robot system
EP2816434A3 (en) 2005-12-02 2015-01-28 iRobot Corporation Autonomous coverage robot
EP1969438B1 (en) 2005-12-02 2009-09-09 iRobot Corporation Modular robot
KR101300493B1 (ko) 2005-12-02 2013-09-02 아이로보트 코퍼레이션 커버리지 로봇 이동성
JP2007233753A (ja) * 2006-03-01 2007-09-13 Fujitsu Ltd 加速度センサを備えた情報処理装置
JP5076057B2 (ja) * 2006-03-23 2012-11-21 新世代株式会社 機能計測装置
EP2548489B1 (en) 2006-05-19 2016-03-09 iRobot Corporation Removing debris from cleaning robots
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
KR101297388B1 (ko) * 2006-06-16 2013-08-19 삼성전자주식회사 위치 보정 기능을 제공하는 이동 장치 및 위치 보정 방법
JP2008129862A (ja) * 2006-11-21 2008-06-05 Omron Healthcare Co Ltd 体動検出装置
KR100843096B1 (ko) * 2006-12-21 2008-07-02 삼성전자주식회사 이동 로봇의 주행 상태 판별 장치 및 방법
US8239992B2 (en) 2007-05-09 2012-08-14 Irobot Corporation Compact autonomous coverage robot
CN101685308A (zh) * 2008-09-22 2010-03-31 鸿富锦精密工业(深圳)有限公司 机器人状态感知系统
JP4957753B2 (ja) * 2009-06-15 2012-06-20 セイコーエプソン株式会社 ロボット、搬送装置、及び慣性センサーを用いた制御方法
WO2011103198A1 (en) 2010-02-16 2011-08-25 Irobot Corporation Vacuum brush
JP5685842B2 (ja) * 2010-07-12 2015-03-18 セイコーエプソン株式会社 ロボット装置およびロボット装置の制御方法
CN101913147B (zh) * 2010-07-12 2011-08-17 中国科学院长春光学精密机械与物理研究所 高精度全自动大型转载系统
CN103534659B (zh) 2010-12-30 2017-04-05 美国iRobot公司 覆盖机器人导航
FR2972132B1 (fr) * 2011-03-02 2014-05-09 Gen Electric Dispositif d'assistance a la manipulation d'un instrument ou outil
DE102011005985B4 (de) * 2011-03-23 2019-01-24 Kuka Roboter Gmbh Roboter, Steuervorrictung für einen Roboter und Verfahren zum Betreiben eines Roboters
CN102508986B (zh) * 2011-08-31 2015-09-30 微迈森惯性技术开发(北京)有限公司 一种级联刚体运动追踪、步行过程追踪方法与系统
JP6305673B2 (ja) * 2011-11-07 2018-04-04 セイコーエプソン株式会社 ロボット制御システム、ロボットシステム及びロボット
CN102591347B (zh) * 2012-01-19 2014-07-30 河海大学常州校区 多足移动平台及其姿态与高度的控制方法
JP6111562B2 (ja) * 2012-08-31 2017-04-12 セイコーエプソン株式会社 ロボット
JP5815664B2 (ja) * 2013-12-26 2015-11-17 ファナック株式会社 無線加速度センサを有するロボットシステム
DE102014110083A1 (de) * 2014-07-17 2016-01-21 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines elektromotorisch angetriebenen Gerätes
US10081098B1 (en) 2014-08-25 2018-09-25 Boston Dynamics, Inc. Generalized coordinate surrogates for integrated estimation and control
US9618937B1 (en) 2014-08-25 2017-04-11 Google Inc. Slip detection using robotic limbs
US9387588B1 (en) 2014-08-25 2016-07-12 Google Inc. Handling gait disturbances with asynchronous timing
US9446518B1 (en) * 2014-11-11 2016-09-20 Google Inc. Leg collision avoidance in a robotic device
US10877484B2 (en) 2014-12-10 2020-12-29 Aktiebolaget Electrolux Using laser sensor for floor type detection
US9499218B1 (en) 2014-12-30 2016-11-22 Google Inc. Mechanically-timed footsteps for a robotic device
JP6623522B2 (ja) * 2015-01-26 2019-12-25 セイコーエプソン株式会社 ロボット、ロボットシステムおよびサーバー
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
US9586316B1 (en) 2015-09-15 2017-03-07 Google Inc. Determination of robotic step path
JP6724349B2 (ja) * 2015-11-30 2020-07-15 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP7035300B2 (ja) 2016-03-15 2022-03-15 アクチエボラゲット エレクトロルックス ロボット清掃デバイス、ロボット清掃デバイスにおける、断崖検出を遂行する方法、コンピュータプログラム、およびコンピュータプログラム製品
US9789919B1 (en) 2016-03-22 2017-10-17 Google Inc. Mitigating sensor noise in legged robots
JP6560823B2 (ja) * 2016-05-20 2019-08-14 シャープ株式会社 ロボットおよびその制御方法、ならびに制御プログラム
CN109414623B (zh) * 2016-07-11 2021-03-19 Groove X 株式会社 行为自主型机器人
JP6695061B2 (ja) * 2016-07-27 2020-05-20 パナソニックIpマネジメント株式会社 ロボット
JP2018163614A (ja) 2017-03-27 2018-10-18 カシオ計算機株式会社 自律移動装置、自律移動方法およびプログラム
JP7243967B2 (ja) 2017-06-02 2023-03-22 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法
CN109202891B (zh) * 2017-07-05 2020-12-15 广东宝乐机器人股份有限公司 移动机器人、工作表面识别方法及控制方法
CN111093447B (zh) 2017-09-26 2022-09-02 伊莱克斯公司 机器人清洁设备的移动控制
CN108638095A (zh) * 2018-04-02 2018-10-12 深圳小趴智能科技有限公司 一种机器人运动控制装置及其操作方法
TWI704471B (zh) * 2018-09-27 2020-09-11 仁寶電腦工業股份有限公司 互動式電子裝置及其互動方法
US20220118602A1 (en) 2019-01-31 2022-04-21 Sony Group Corporation Control apparatus for robot, control method for robot, and program
CN112603202B (zh) * 2020-12-07 2022-01-11 深圳市银星智能科技股份有限公司 离地检测方法、装置、移动机器人及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4119900A (en) * 1973-12-21 1978-10-10 Ito Patent-Ag Method and system for the automatic orientation and control of a robot
DE2364002C2 (de) * 1973-12-21 1983-02-24 Frey, Helmut, Dr.jur., 8000 München Orientierungsvorrichtung für ein Gerätesystem, das sich zur Bearbeitung einer Fläche auf dieser bewegt
DE3135117A1 (de) * 1980-09-05 1982-04-01 Mitsubishi Denki K.K., Tokyo Roboterfahrzeug
JPS5748110A (en) * 1980-09-05 1982-03-19 Mitsubishi Electric Corp Unattended running car
JPS5914711A (ja) * 1982-07-13 1984-01-25 株式会社クボタ 無人走行作業車
EP0142594B1 (en) * 1983-10-26 1989-06-28 Automax Kabushiki Kaisha Control system for mobile robot
JPH0650559B2 (ja) * 1985-04-03 1994-06-29 日産自動車株式会社 車両用経路誘導装置
US4817000A (en) * 1986-03-10 1989-03-28 Si Handling Systems, Inc. Automatic guided vehicle system
JPH01180010A (ja) * 1988-01-08 1989-07-18 Sanyo Electric Co Ltd 移動車
JPH042488A (ja) * 1990-04-18 1992-01-07 Kemikaraijingu Kenkyusho:Kk ロボットの異常空間動作検知方法
JPH05169378A (ja) * 1991-12-20 1993-07-09 Hitachi Ltd 多脚歩行機構の制御装置
JP3057123B2 (ja) 1992-05-19 2000-06-26 株式会社神戸製鋼所 可搬式産業用ロボット
JPH07311082A (ja) 1994-05-20 1995-11-28 Omron Corp 回転機器の異常診断装置
EP0816986B1 (en) * 1996-07-03 2006-09-06 Hitachi, Ltd. System for recognizing motions
JP3570163B2 (ja) 1996-07-03 2004-09-29 株式会社日立製作所 動作及び行動の認識方法及び装置及びシステム
JP3446933B2 (ja) 1996-07-08 2003-09-16 ソニー株式会社 ロボツト装置及びその制御方法
JPH10149445A (ja) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho 身体動作解析可視化装置
CN1146492C (zh) 1998-06-09 2004-04-21 索尼公司 机器人装置及其姿态控制方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100862190B1 (ko) * 2006-11-30 2008-10-09 한국전자통신연구원 로봇의 자세 검출 장치 및 그 방법
KR20170137778A (ko) * 2015-04-17 2017-12-13 악티에볼라겟 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치의 제어 방법
WO2024025244A1 (ko) * 2022-07-27 2024-02-01 삼성전자주식회사 로봇 장치의 위치에 대응되는 모드로 동작하는 로봇 장치 및 그 제어 방법

Also Published As

Publication number Publication date
EP1155787A1 (en) 2001-11-21
WO2000032360A1 (fr) 2000-06-08
JP4517509B2 (ja) 2010-08-04
EP1155787B1 (en) 2016-10-05
CN1309597A (zh) 2001-08-22
US6374157B1 (en) 2002-04-16
EP1155787A4 (en) 2010-01-13
KR100610235B1 (ko) 2006-08-09
CN1127402C (zh) 2003-11-12

Similar Documents

Publication Publication Date Title
KR100610235B1 (ko) 로봇 장치 및 그 제어 방법
AU2005210778B2 (en) Gesture control system
US20200046439A1 (en) Detection of unintentional movement of a user interface device
JP4934813B2 (ja) 入力情報処理装置、入力情報処理方法、入力情報処理プログラムおよびこれを記録したコンピュータ読み取り可能な記録媒体
KR20200019666A (ko) 손가락 움직임 감지 기능을 갖춘 전자 제어기
CN108027643B (zh) 用于可穿戴计算设备的基于微运动的输入姿势控制的方法、设备和装置
US20200269421A1 (en) Information processing device, information processing method, and program
Ruzaij et al. Multi-sensor robotic-wheelchair controller for handicap and quadriplegia patients using embedded technologies
WO2020222955A1 (en) System, method, and apparatus for virtual reality feedback
TW201118662A (en) Trace-generating systems and methods thereof
Matsumoto et al. The essential components of human-friendly robot systems
Oniga et al. Hand postures recognition system using artificial neural networks implemented in FPGA
JP2002323900A (ja) ロボット装置、プログラム及び記録媒体
JP2005231012A (ja) ロボット装置及びその制御方法
US11003247B1 (en) Deployable controller
US20190302894A1 (en) Method and system for electronic communication by persons with disabilities
US20240100699A1 (en) Apparatus, apparatus control method and recording medium
WO2022253258A1 (zh) 避免动晕症发生的虚拟实境控制方法
KR20200111074A (ko) 센서를 초기화하는 방법 및 장치
Santhiranayagagam et al. Inertial Measurement Units in Gait and Sport Motion Analysis
EP3791245A1 (en) Remote control apparatus for an electronic device
KR20220120116A (ko) 사용자의 동작에 따라, 네트워크로 연결된 로봇 장치의 동작을 제어하는 모션 캡처 컨트롤러 및 그 동작 방법
KR20190142676A (ko) 센서를 초기화하는 방법 및 장치
JP2003266361A (ja) 動力伝達装置及びロボット装置
KR20180086536A (ko) 센서 초기화 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110727

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20120723

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee