KR19990045689A - 로봇 장치 및 그 구동 제어 방법 - Google Patents

로봇 장치 및 그 구동 제어 방법 Download PDF

Info

Publication number
KR19990045689A
KR19990045689A KR1019980051672A KR19980051672A KR19990045689A KR 19990045689 A KR19990045689 A KR 19990045689A KR 1019980051672 A KR1019980051672 A KR 1019980051672A KR 19980051672 A KR19980051672 A KR 19980051672A KR 19990045689 A KR19990045689 A KR 19990045689A
Authority
KR
South Korea
Prior art keywords
robot
constituent units
connection state
role
category
Prior art date
Application number
KR1019980051672A
Other languages
English (en)
Other versions
KR100549971B1 (ko
Inventor
마사히로 후지타
가주후미 오야마
다카시 야마모토
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR19990045689A publication Critical patent/KR19990045689A/ko
Application granted granted Critical
Publication of KR100549971B1 publication Critical patent/KR100549971B1/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40302Dynamically reconfigurable robot, adapt structure to tasks, cellular robot, cebot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40304Modular structure

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Control By Computers (AREA)
  • Numerical Control (AREA)

Abstract

모듈러형 로봇 장치에 있어서, 각 구성 유닛에 역할에 관한 역할 정보를 기억하는 기억 수단을 설치함과 동세에, 각 구성 유닛의 역할 정보에 근거하여 각 구성 유닛의 역할을 인식하는 인식 수단을 설치하도록 하였다. 또한, 모듈러형 로봇 장치에 있어서, 각 구성 유닛의 연결 상태를 검출하는 연결 상태 검출 수단과, 구축되는 로봇 장치의 형태를 각 구성 유닛의 연결 상태에 따라서 복수의 카테고리로 분류한 각 카테고리마다의 각 구성 유닛의 연결 상태를 기억하는 기억 수단과, 연결 상태 검출 수단에 의해 검출된 각 구성 유닛의 연결 상태와, 기억 수단에 의해 기억된 각 카테고리마다의 각 구성 유닛의 연결 상태에 근거하여 구축된 로봇 장치의 카테고리를 판별하는 판별 수단을 설치하도록 하였다.

Description

로봇 장치 및 그 구동 제어 방법
본 발명은 로봇 장치에 관하며, 예를 들면 복수의 구성 유닛(부품)을 연결하 도록 하여 구축하는 이른바 모듈러형 로봇에 적용하여 호적이다.
(종래의 기술)
종래, 이런 종류의 로봇으로서 예를 들면 특개평 47-25858호 공보나, 특개소 59-205292호 공보, 「Robot Mode1s for Space Environment」(R.O.Ambrose and C.G. Ambrose, IEEE International conference on R&A, 1995 pp. 2113-2131),「The Concept and Construction of a modular robot system」(K.H Wurst Proc of 16 th ISIR, 1986, pp.37-44) 및「Conceptual Design of a Modular Robot」(R. Cohen et. al Journal of Mechanical Design, 1992 vol. 114 pp. 117-125) 등에 있어서 여러가지의 구성의 것이 제안되고 있다.
또한 예를 들면,「모듈러·머니퓰레이터의 구성·형상 인식과 작업 수행가/불가 판정 방법에 관한 검토」(松丸隆文외 일본 로봇학회지 Vol.15 No.3, PP. 408~ 416. 199?)에서는 관절 모듈러와 링크 모듈러를 자유자재로 연결하여 구축할 수 있는 모듈러·머니퓰레이터(manipulator)에 있어서, 그 구성을 자동적으로 인식하여 조립한 뒤, 바로 실제적으로 유익한 작업을 할 수 있도록 하는 방법이 개시되어 있다.
그런데, 이들은 모부 머니퓰레이터(기계의 팔)를 전제로 하고 있고, 이 때문에 구성 유닛을 2개 이상 분기하여 연결하는 타입의 로봇에는 이들 각 문헌에서 개시된 각종 고안를 적용하기 어려운 문제가 있었다.
실제상, 예를 들면 몸통부 유닛에 대하여 머리부, 팔부, 다리부 및 차륜 등의 각종 구성 유닛을 원하는 상태에 부착함으로써, 예를 들면 도 1A와 같은 4족 보행형이나 도 1B와 같은 2족 보행형, 도 1C와 같은 차형. 또는 도 1D와 같은 2륜 추진형 등의 각종 형태로 조립할 수 있도록 이루어진 로봇에서는 조립이 끝난 단계에서 전체의 구성을 자동적으로 인식할 수 있도록 구축하였다고 해도, 해당 로봇이 어떤 유닛을「팔」로서 사용하고, 어떤 유닛을「발」로서 사용하는가라는 것이나 2족 보행형 및 4족 보행형 중 어느 형태로 조립된 것인가라는 것을 판별할 수 없어, 조립한 단계에서 즉시 그 형태에 따른 행동을 시키기 어려운 문제가 있다.
따라서, 이러한 문제를 해결하지 않으면, 구축한 로봇 형태에 따른 프로그램을 입력하는 등의 작업을 하지 않고 해당 로봇에 조립 형태에 따른 행동을 취하게 할 수 없고, 모듈러형 로봇의 조립 작업을 용이화시킬 수 없다.
본 발명은 조립 작업을 용이화시킬 수 있는 로봇 장치를 제안하고자 한다.
본 발명에 있어서는, 모듈러형 로봇 장치에 있어서, 각 구성 유닛에 각각 그 구성 유닛의 역할에 관한 역할 정보를 기억하는 기억 수단을 설치함과 함께, 각 구성 유닛의 기억 수단으로부터 역할 정보를 각각 판독하고, 해당 판독한 각 역할 정보에 근거하여 각 구성 유닛의 역할을. 인식하는 인식 수단을 설치하도록 하였다.
따라서, 이 로봇 장치에서는 사용자가 각 구성 유닛의 역할 등을 주지 않고 로봇 장치 자신이 조립된 단계에서 각 구성 유닛의 역할을 인식할 수가 있어, 조립 작업을 용이화시킬 수 있는 로봇 장치가 실현된다.
또한, 본 발명에 있어서는, 모듈러형 로봇 장치에 있어서, 각 구성 유닛의 연결 상태를 검출하는 연결 상태 검출 수단과, 구축되는 로봇 장치의 형태를 각 구성 유닛의 연결 상태에 따라서 복수의 카테고리로 분류한 각 카테고리마다의 각 구성 유닛의 연결 상태를 기억하는 기억 수단과, 연결 상태 검출 수단에 의해 검출된 각 구성 유닛의 연결 상태와, 기억 수단에 의해 기억된 각 카테고리마다의 각 구성 유닛의 연결 상태에 근거하여 구축된 로봇 장치가 어떤 카테고리에 속하는가를 판별하는 판별 수단을 설치하도록 하였다.
따라서, 이 로봇 장치에는 사용자가 구축한 로봇 장치에 그 형태를 알리지 않고 로봇 장치에 자기자신의 형태를 자동적으로 인식시킬 수 있어, 조립 작업을 용이화시킬 수 있는 로봇 장치가 실현된다.
도 1a 내지 도 1d는 모듈러형 로봇의 각종 형태의 설명에 도움이 되는 약선적인 사시도.
도 2는 본 발명에 따른 로봇의 구성을 도시하는 개념도.
도 3은 제 1 실시예에 따른 로봇의 구성을 도시하는 블록도.
도 4는 제 2 실시예에 따른 로봇의 구성을 도시하는 블록도.
도 5a 내지 도 5c는 각종 3구조를 도시하는 개념도.
도 6은 제 2 실시예에 따른 소프트웨어의 이키텍처를 도시하는 개념도.
도 7은 4족 보행형 로봇의 모션 네트워크를 도시하는 개념도.
도 8은 2륜 추진형 로봇의 모션 네트워크를 도시하는 개념도.
도 9a, 도 9b는 4족 보행형 로봇 및 2륜 추진형 로봇에서의 각각의 변환 데이터 예를 도시하는 도표.
* 도면의 주요부분에 대한 부호의 설명 *
1 : 로봇 2 : 몸통부 유닛
3 내지 6:넓적다리부 유닛 7 내지 10: 정강이부 유닛
11 : 목부 유닛 12 : 머리부 유닛
18 : 램(RAM) 19,50 : 롬(ROM)
20,53 : CPU 21 : SBH
22, 24: HUB(분배기) 26 : 전자부품
(실시예)
이하, 도면에 관하여 본 발명의 1 실시예를 상술한다.
(1) 제 1 실시예
(1-1) 제 1 실시예에 따른 로봇의 구성
도 2에 있어서, 1은 전체로서 본 발명에 따른 모듈러형 로봇를 도시하며, 몸통부 유닛(2)의 전후 좌우의 각 모서리부에 각각 넓적다리부 유닛(3 내지 6) 및 정강이부 유닛(7 내지 10)이 순차 착탈 자유자재로 연결됨과 함께, 몸통부 유닛(2)의 앞단 중앙부에 목부 유닛(11) 및 머리부 유닛(12)이 순차 착탈 자유자재로 연결되어 있다. 또 이하의 설명에 있어서는 몸통부 유닛(2), 각 넓적다리부 유닛(3 내지 6), 각 정강이부 유닛(7 내지 10), 목부 유닛(11) 및 머리부 유닛(12)을 합쳐 구성 유닛(2 내지 12)으로 부른다.
이 경우, 몸통부 유닛(2)의 내부에는 도 3에 도시하는 바와 같이, 로봇(1) 전체의 동작 제어를 담당하는 CPU(Central Processing Unit)(20), 후술의 시리얼 버스를 관리하는 SBH(Serial Bus Host)(21), HUB(분배기)(22), 메모리(23), 램(RAM: Random Access Memory)(18) 및 구축된 로봇(1)에 각종 행동을 발생시키기 위한 프로그램이 격납된 롬(ROM: Read Only Memory)(19)가 격납되어 있다.
또한, 메모리(23)에는 몸통부 유닛(2)의 폭이나 길이 등의 형상에 관한 정보(이하, 이것을 형상 정보라고 부른다)와, 몸통부 유닛(2)의 질량, 회전 모멘트, 회전축의 중심 위치 및 해당 몸통부 유닛(2)의 중심 위치 등의 운동을 기술하는 데 필요한 정보(이하. 이것을 운동 정보라고 부른다)와, HUB(22)의 각 연결점 (Pl 내지 P5)의 위치 정보가 격납되어 있다.
한편, 몸통부 유닛(2)를 제외한 각 구성 유닛(3 내지 12)의 내부에는 각각 HUB(24)와, 메모리(25)와 액추에이터 및 센서 등이 필요한 전자 부품(26)이 수납되어 있고, 각 메모리(25)에는 각각 그 구성 유닛(3 내지 12)의 형상 정보 및 운동 정보와, 해당 구성 유닛(3 내지 12)에 수납된 전자 부품(26)의 기능 및 특성에 관한 정보(이하, 이것을 특성 정보라고 부른다)가 격납되어 있다.
또한, 각 구성 유닛(2 내지 12)에는 각각 다른 구성 유닛(2 내지 12)과의 연결 위치에 그 구성 유닛(2 내지 12)의 내부에 설치된 IEEE(1394) 또는 USB(Universal Serial Bus) 등의 시리얼 버스(27)를 거쳐 HUB(24)와 접속된 커넥터(도시하지 않음)가 설치되어 있고, 구성 유닛(2 내지 12)끼리를 물리적으로 연결함으로써 이들 구성 유닛(2 내지 12)내의 HUB(22, 24)끼리도 시리얼 버스(27)를 거쳐 전기적으로 접속할 수 있도록 이루어져 있다.
이것에 의해 이 로봇(1)에 있어서는 예를 들면 도 2 및 도 3과 같이 조립된 상태에 있어서, 몸통부 유닛(2)내의 CPU(20)가 해당 몸통부 유닛(2)내의 SBH(21) 및 HUB(22)와 각 구성 유닛(3 내지 12)내의 HUB(24)를 순차 거쳐, 이들 구성 유닛(2 내지 12)내의 메모리(23, 25)로부터 그 구성 유닛(2 내지 12)의 형상 정보나 운동 정보 및 특성 정보를 판독하고, 또는 각 구성 유닛(3 내지 12)내의 센서 출력을 수신하며, 또는 각 구성 유닛(3 내지 12)내의 액추에이터를 제어할 수 있도록 이루어져 있다.
이렇게 함으로 로봇(1)에서는 CPU(20)가 몸통부 유닛(2)의 메모리(23)에 격납된 HUB(22)의 각 연결점(P1 내지 P5)의 위치 정보와, 각 구성 유닛(2 내지 12)의 메모리(23, 25)에 각각 격납된 형상 정보에 근거하여, 몸통부 유닛(2)의 어떤 연결 위치에 어떠한 구성 유닛(3 내지 6)이 연결되고, 또한 그 구성 유닛(3 내지 6)에 어떠한 구성 유닛(7 내지 10)이 연결되어 있는가라는 로봇(1)의 형태를 인식할 수 있다.
또한, 이 로봇(1)에서는 CPU(20)가 몸통부 유닛(2)를 제외한 각 구성 유닛(3 내지 12)의 메모리(25)에 각각 격납된 운동 정보 및 전자 부품(26)의 특성 정보에 근거하여 각 구성 유닛(3 내지 12)의 액추에이터를 원하는 상태로 구동하고, 또한 그 때의 각 구성 유닛(3 내지 12)의 상태를 그 구성 유닛(3 내지 12)내의 센서 출력에 근거하여 모니터할 수 있도록 이루어져 있다.
이러한 구성에 가하여 이 로봇(1)의 경우, 각 구성 유닛(2 내지 12)의 메모리(23, 25)에는 예를 들면「오른쪽앞 넓적다리」나, 「왼쪽뒤 정강이」「목」,「머리」등이라는 그 구성 유닛(2 내지 12)의 로봇(1) 전체로부터 본 역할에 관한 정보(이하, 이것을 역할 정보라고 부른다)가 격납되어 있다.
이것에 의해 이 로봇(1)에서는 이 역할 정보에 근거하여 CPU(20)가 각 구성 유닛(2 내지 12)의 역할을 인식할 수 있고, 이렇게 하여 예를 들면 외부(또는 내부의 상위 프로그램)로부터 「오른쪽앞 정강이부를 올려라」하는 소정 역할의 구성 유닛(2 내지 12)을 소정 상태로 구동해야 할 동작 명령이 주어졌을 때에, 대응하는 구성 유닛(2 내지 12)의 액추에이터를 제어함으로써 지정된 구성 유닛(2 내지 12)을 지정된 상태로 동작시킬 수 있도록 이루어져 있다.
여기서 실제상 CPU(20)은 로봇(1)이 조립된 상태에 있어서 전원이 투입되면 ROM(19)에 격납된 각종 행동을 발생시키기 위한 프로그램을 판독하고, 이것을 RAM(18)에 다운로드한다.
이어서 CPU(20)는 몸통부 유닛(2)내의 SBH(21) 및 HUB(22)와, 각 구성 유닛(3 내지 12)내의 HUB(24)를 순차 거쳐 각 구성 유닛(2 내지 12)내의 메모리(23, 25)로부터 해당 메모리(23, 25)내에 격납된 그 구성 유닛(2 내지 12)에 관한 형상 정보나 운동 정보, 특성 정보 및 역할 정보를 판독하고, 이들을 RAM(19)에 격납하는 한편, 각 구성 유닛(2 내지 12)의 형상 정보에 근거하여 조립된 로봇(1)의 형태를 인식하고, 각 구성 유닛(2 내지 12)의 역할 정보에 근거하여 각 구성 유닛(2 내지 12)의 역할을 인식한다.
또한, CPU(20)는 이 후 예를 들면 외부에서「오른쪽앞 정강이부를 올려라」,「머리를 숙여라」라는 소정 역할의 구성 유닛(2 내지 12)을 소정 상태로 구동해야 할 동작 명령이 주어지면 RAM(18)에 다운로드한 프로그램과, RAM(18)에 격납된 대응하는 구성 유닛(3 내지 12)의 운동 정보 및 특성 정보에 근거하여 대응하는 제어 신호를 생성하고 해당 생성한 제어 신호를 그 구성 유닛(3 내지 12)내의 액추에이터에 준다.
이렇게 하여 CPU(20)는 이 제어 신호에 근거하여 지정된 구성 유닛(3 내지 12)의 액추에이터를 지정된 상태로 구동시키도록 이루어지고, 이렇게 하여 해당 구성 유닛(3 내지 12)을 지정된 상태로 구동시키도록 이루어져 있다.
(1-2) 제 1 실시예의 동작 및 효과
이상의 구성에 있어서, 이 로봇(1)에서는 CPU(20)가 각 구성 유닛(3 내지 12)의 메모리(25)에 격납된 역할 정보에 근거하여 각 구성 유닛(3 내지 12)의 역할을 인식하고, 인식 결과에 근거하여 구성 유닛(3 내지 12)의 액추에이터를 구동 제어함으로써, 외부에서 주어지는 동작 명령에 따른 동작을 실행한다.
따라서, 이 로봇(20)에서는 조립된 상태에 있어서 사용자가 몸통부 유닛(2)에 연결한 각 구성 유닛(3 내지 12)의 역할을 설정할(조립 후, 사용자가 각 구성 유닛(3 내지 12)의 역할에 관한 데이터를 CPU(20)에 준다) 필요가 없고, 그 만큼 조립 작업을 간이화시킬 수 있다.
이상의 구성에 의하면, 각 구성 유닛(3 내지 12)에 그 구성 유닛(3 내지 12)의 역할 정보를 기록한 메모리(24)를 설치함과 동시에, 해당 역할 정보에 근거하여 CPU(20)가 각 구성 유닛(3 내지 12)의 역할을 인식하도록 함으로써, 사용자가 각 구성 유닛(3 내지 12)의 역할을 설정하지 않고 CPU(20)에 각 구성 유닛(2 내지 12)의 역할을 인식시킬 수 있고, 이렇게 하여 조립 작업을 용이화시킬 수 있는 로봇을 실현할 수 있다.
(2) 제 2 실시예
(2 내지 1) 제 2 실시예에 따른 로봇의 구성
도 3과의 대응 부분에 동일 부호를 붙여 도시하는 도 4 및 도 2는 제 2 실시예에 따른 로봇(30)을 도시하며, 몸통부 유닛(31)의 ROM(50)에 격납된 프로그램이 ROM(19)(도 3)에 격납된 프로그램과 다른 점과, 몸통부 유닛(31) 내부에 중력 센서를 포함한 전자 부품(51)이 추가되어 있는 점과, 각 구성 유닛(31 내지 41)의 메모리(54, 52)에 그 구성 유닛(31 내지 41)의 역할 정보가 격납되어 있지 않고, 그 구성 유닛(31 내지 41)에 관한 형상 정보, 운동 정보 및 특성 정보만이 격납되어 있는 점을 제외하고 제 1 실시예의 로봇(1)(도 2 및 도 3)과 거의 같이 구성되어 있다.
이 경우 이 몸통부 유닛(31)의 ROM(50)에는 로봇(30)이 조립된 상태에 있어서 예를 들면 도 5A 내지 5C와 같이 CPU(53)에 대하여 액추에이터(Ac)나 차륜(Wh)이 어떠한 위치 관계에서 어떠한 순서로 접속되는가라는 CPU(53)와 액추에이터 (Ac) 및 차륜(Wh)과의 접속 관계를 나타내는 3구조의 데이터가 격납되어 있다.
실제상 로봇의 형태는 이러한 3구조에 따라서 복수의 카테고리로 나눌 수 있고, 예를 들면 도 1A 및 1B와 같은 형태의 로봇에서는 그 3구조가 도 5A와 같이 나타내는 데 대하여, 도 1C와 같은 형태의 로봇에서는 그 3구조가 도 5B와 같이 나타나며, 도 1D와 같은 형태의 로봇에서는 그 3구조가 도 5C와 같이 나타난다.
그리고, 몸통부 유닛(31)의 ROM(50)에는 미리 예상되는 구축되는 로봇(30)의 형태를 그 3구조에 따라서 복수의 카테고리로 분류한 경우의 각 카테고리마다 3구조의 데이터가 격납되어 있다. 또 이 경우, 예를 들면 도 1A 및 1B와 같이 같은 3구조의 형태에서도 전원 투입시에서의 로봇(30)의 자세에 따라 다른 카테고리로 분류되어 있다(몸통부 유닛(3) l이 연직 방향과 평행히 위치하고 있는 경우는 2족 보행형, 몸통부 유닛(31)이 연직 방향과 수직인 방향에 위치하고 있는 경우는 4족 보행형 등).
또한, ROM(50)에는 이들 각 카테고리의 3구조의 데이터와 함께 예를 들면 어떤 구성 유닛(32 내지 41)을「머리」,「발」,「손」등으로 인식하여 어떻게 행동하는가라는 행동을 발생시키기 위한 프로그램이 각 카테고리에 각각 대응시켜 복수 종류 격납되어 있다.
이것에 의해 이 로봇(30)에 있어서는 몸통부 유닛(31)의 CPU(53)가 각 구성 유닛(31 내지 41)의 메모리(54, 52)내에 격납된 형상 정보에 근거하여 조립된 로봇(30)의 형태를 인식하고, 해당 인식 결과와 ROM(50)에 격납된 각 카테고리의 3구조의 데이터에 근거하여 그 로봇(30)의 카테고리를 판별할 수 있고, 또한 이 판별 결과와, ROM(50)에 격납된 각 카테고리마다의 행동을 위한 각종 프로그램에 근거하여 필요시에 필요한 구성 유닛(32 내지 41)을 구동 제어함으로써, 조립 형태에 따른 행동을 취할 수 있도록 이루어져 있다.
여기서 실제상, 몸통부 유닛(31)의 CPU(53)는 로봇(30)이 조립된 상태에 있어서 전원이 투입되면, ROM(50)에 격납된 각종 프로그램을 판독하고 이것을 RAM(18)에 다운 로드한다.
이어서 CPU(53)는 SBH(21) 및 HAB(22)와, 각 구성 유닛(32 내지 41)의 HUB(24)를 순차 거쳐 각 구성 유닛(31 내지 41)의 메모리(54, 52)로부터 형상 정보를 판독함으로써 조립된 로봇(30)의 3구조를 검출한다. 또한 이 때 CPU(53)는 몸통부 유닛(31)의 전자 부품(51)을 구성하는 중력 센서의 출력에 근거하여, 전원 투입시에서의 로봇(30)의 자세를 검출한다.
다음으로 CPU(53)는 이렇게 하여 검출한 로봇(30)의 3구조 및 자세에 근거하여 그 로봇의 카테고리를 판별하며, 해당 판별 결과에 근거하여 대응하는 프로그램을 선택하고, 해당 프로그램에 근거하여 그 카테고리에서의 기본 자세를 각 상태마다 할당한다. 실제상 예를 들면 4족형 로봇이면 몸통부 유닛(31)을 수평으로 함과 함께, 각 다리를 늘린 상태가「standing」의 기본 자세로서 할당되고, 2륜 추진형이면 몸통부 유닛(31)을 수직으로 한 상태가 「standing」의 기본 자세로서 할당된다. 그리고 CPU(53)는 이 후 이 프로그램에 근거하여 필요시에 필요한 구성 유닛(32 내지 41)내의 액추에이터를 제어한다.
이렇게 하여 CPU(53)는 조립된 로봇(30)의 형태 및 전원 투입시에서의 자세에 근거하여 대응하는 프로그램에 따라서 각 구성 유닛(32 내지 41)을 구동 제어한다.
(2-2) 제 2 실시예에서의 소프트웨어의 아키텍처
여기서 도 6은 몸통부 유닛(31)의 ROM(50)에 격납되는 소프트웨어의 아키텍처를 도시하는 것이다.
이 도 6에 있어서 CPC(Configurational Physical Component) 드라이버(60)는 각 구성 유닛(32 내지 41)의 액추에이터 등의 CPC 디바이스를 초기화하거나, 몸통부 유닛(31)의 RAM(18)에 데이터를 읽어 기록하는 프로그램이고, CPU(53)에 의해 검출된 현재의 로봇(30)의 3구조의 데이터 및 전원 투입시에서의 로봇(30)의 자세에 관한 데이터(이하 이들 데이터를 합쳐 형태 데이터(D1)라고 부른다)를 유지한다. 그리고 이 형태 데이터(D1)가 카테고리 스톡(61)에 주어진다.
카테고리 스톡(61)은 미리 등록된 각 카테고리마다 3구조의 데이터 및 자세 데이터(이하, 이들 데이터를 합쳐 카테고리 분할 데이터(CD1 내지 CDn)라고 부른다)를 관리하는 프로그램이고, 이들 등록된 각 카테고리 분할 데이터(CD1 내지 CDn)과, CPC 드라이버(60)로부터 주어지는 형태 데이터(D1)을 비교함으로써, 조립된 로봇(30)이 어떤 카테고리에 속하는가를 판별하여 판별 결과를 카테고리 인포메이션 스톡(62)에 준다.
카테고리 인포메이션 스톡(62)은 미리 등록되어 있는 각 카테고리에서의 로봇(30)의 자세 천이와 움직임에 관한 프로그램(이하, 이것을 모션 네트워크라고 부른다) (MoNet1 내지 MoNetn)과, 각 카테고리에 있어서 상위의 프로그램으로부터 주어지는 행동 커맨드(COM)을 대응하는 명령으로 변환하기 위한 변환 데이터(CC1 내지 CCn)를 관리하는 프로그램이고, 카테고리 스톡(61)에 의한 판별 결과에 근거하여 대응하는 모션 네트워크(MoNet1 내지 MoNetn) 및 변환 데이터(CC1 내지 CCn)를 선택하고, 이것을 모션 제너레이터(63)에 준다.
모션 제너레이터(63)는 동작 데이터를 생성하는 프로그램이고, 카테고리 인포메이션 스톡(62)에서 주어지는 모션 네트워크(MoNet1 내지 MoNetn) 및 변환 데이터(CCl 내지 CCn)를 유지하는 한편, 해당 유지한 변환 데이터(CC1 낼지 CCn)에 근거하여 상위의 프로그램으로부터 주어지는 행동 커맨드(COM)를 그 카테고리에 따른 명령으로 변환하고, 얻어진 명령과 유지하고 있는 모션 네트워크(MoNet1 내지 MoNetn)에 근거하여 대응하는 동작 데이터(D2)를 생성하고, 이것을 CPC 드라이버(60)에 준다.
이렇게 하여 로봇(30)에 있어서는 이 CPC 드라이버(60)에 따라서 CPU(53)의 제어하에 각 구성 블록(32 내지 41)내의 대응하는 액추에이터가 제어되고, 이것에 의해 상위의 프로그램에서 주어지는 행동 커맨드(COM)에 따른 행동이 행하여진다.
또한 도 7에 4족 보행형 로봇의 모션 네트워크(MoNet x)의 그래프 구조를 도시하고, 도 8에 2륜 추진형 로봇의 모션 네트워크(MoNet y)의 그래프 구조를 도시한다.
도 7로부터도 분명하듯이, 4족 보행형 로봇의 모션 네트워크(MoNet x)는
「sleeping(수면)」,「sitting(앉기)」,「standing(서기)」,「forward walking(전방 걷기)」 및 「backward walking(후방 걷기)」의 5개의 Node(ST1 내지 ST5)를 갖고, 이들 중의 천이가능한 Node(ST1 내지 ST5) 사이가 에지(방향 화살)에 의해 이어지고 있다.
또한, 각 Node(ST1 내지 ST5)에는 그 Node(ST1 내지 ST5)에서의 동작을 발생시키기 위한 프로그램(E1 내지 E5)이 관련지어짐과 함께, 각 에지에도 그 상태 천이 때에 필요로 하는 동작을 발생시키기 위한 프로그램(E6 내지 E13)이 관련되어 있다. 이 상태 천이 때에 필요로 하는 동작을 발생시키기 위한 프로그램(E6 내지 E13)은 제어 알고리즘을 포함한 프로그램이고, 각 상태 천이 때에 필요한 제어는 여기에서 공급된다.
또한, 2륜 추진형 로봇의 모션 네트워크(MoNet y)(도 8)도 「sleeping」 및
「sitting」의 Node (ST1, ST2)가 없는 것을 제외하고 4족 보행형 로봇의 모션 네트워크(MoNet x)와 거의 같이 구성된다.
또한, 도 9는 4족 보행형 로봇 및 2륜 추진형 로봇의 각 변환 데이터(CCx, CCy)을 도시하는 것이다. 이 도 9에서도 분명하듯이, 4족 보행형 로봇에서는 상위 프로그램에서 주어지는 「Move forward(전방 이동)」,「Move backward(후방 이동)」,「stay(머물기)」, 「Rest(휴식)」및「sleep(수면)」이란 명령이 각각「forward walking(전방 걷기)」,「backward walking(후방 걷기)」,「sitting(앉기)」또는「sleeping(수면)」이라는 명령으로 변환된다.
또한, 2륜 추진형 로봇에서는「Move forward(전방 이동)」,「Move backward(후방 이동)」,「stay(머물기)」, 「Rest(휴식)」및「sleep(수면)」이라는 명령이 각각「forward(전방)」,「backward(후방)」,「stop(정지)」,「stop(정지)」또는「stop(정지)」이라는 명령으로 변환된다.
(2-3) 제 2 실시예의 동작 및 효과
이상의 구성에 있어서, 몸통부 유닛(31)의 CPU(53)는 각 구성 유닛(31 내지 41)의 메모리(54, 52)내에 격납된 형상 정보에 근거하여 조립된 로봇(30)의 형태를 인식하고, 해당 인식 결과와 ROM(50)에 격납된 각 카테고리의 3구조의 데이터에 근거하여 그 로봇(30)의 카테고리를 판별하고, 또한 이 판별 결과와 ROM(50)에 격납된 각 카테고리마다의 행동을 위한 각종 프로그램에 근거하여 각 구성 유닛(32 내지 41)의 액추에이터를 구동 제어함으로써, 로봇(30) 전체로서 조립 형태에 따른 행동을 실행시킨다.
따라서, 이 로봇(30)에서는 조립된 상태에 있어서 사용자가 그 로봇(30)의 조립 형태를 CPU(53)에 알리지 않고 로봇(30) 자신이 전원 투입시에 자신의 형태를 인식할 수 있어, 그 만큼 조립 작업을 간이화시킬 수 있다.
또한, 이 로봇(30)의 경우, 예를 들면 제 1 실시예와 같이 각 구성 유닛(31 내지 41)의 메모리에 역할 정보가 격납되어 있지 않은 만큼, 각 구성 유닛(31 내지 41)을 미리 설정한 역할 이외의 역할을 갖게하여 사용할 수 있기 때문에 (예를 들면「발」로서 사용하고 있던 구성 유닛(32 내지 39)을 예를 들면 손가락 1개로서 사용한다), 제 1 실시예에 비하여 각 구성 유닛(31 내지 41)의 범용성을 향상시킬 수 있다.
이상의 구성에 있어서, CPU(53)가 각 구성 유닛(31 내지 41)의 메모리(54, 52)내에 격납된 형상 정보에 근거하여 조립된 로봇(30)의 형태를 인식하여, 해당 인식 결과와 ROM(50)에 격납된 각 카테고리의 3구조의 데이터에 근거하여 그 로봇(30)의 카테고리를 판별하고, 또한 이 판별 결과와 ROM(50)에 격납된 각 카테고리마다의 행동을 위한 각종 프로그램에 근거하여 필요시에 필요한 구성 유닛(32 내지41)의 액추에이터를 구동 제어하도록 함으로써, 로봇(30)에 자기자신의 형태를 자동적으로 인식시켜, 이것에 따른 행동을 취할 수 있고, 이렇게 하여 조립 작업을 용이 화시킬 수 있는 로봇이 실현된다.
(3) 다른 실시예
또한 상술의 제 1 실시예에 있어서는, 각 구성 유닛(2 내지 12)에 각각 설치되고, 그 구성 유닛(2 내지 12)의 역할에 관한 역할 정보를 기억하는 기억 수단으로서 메모리(23, 25)를 적용하도록 한 경우에 관하여 기술하였지만, 본 발명은 이것에 한하지 않고, 디스크 형상 기록 매체나, 테이프 형상 기록 매체 등 이 밖에 여러가지의 기억 수단을 넓게 적용할 수가 있다.
또한, 상술의 제 1 실시예에 있어서는 각 구성 유닛(2 내지 12)의 메모리(23, 25)로부터 그 구성 유닛(2 내지 12)의 역할 정보를 각각 판독하고, 해당 판독한 각 역할 정보에 근거하여 각 구성 유닛(2 내지 12)의 역할을 인식하는 인식 수단으로서 로봇(1) 전체의 제어를 담당하는 CPU(20)를 적용하도록 한 경우에 관하여 기술하였지만, 본 발명은 이것에 한하지 않고, 각 구성 유닛(2 내지 12)의 역할을 인식하는 인식 수단과, 로봇(1) 전체의 제어를 담당하는 CPU(20)를 별체로 구성하도록 할 수도 있고, 인식 수단의 구성으로서는 이 밖에 여러가지의 구성을 넓게 적용할 수가 있다.
또한, 상술의 제 1 실시예에 있어서는 각종 행동을 발생시키기 위한 프로그램을 몸통부 유닛(2)의 ROM(19)에 격납해 두도록 한 경우에 관하여 기술하였지만, 본 발명은 이것에 한하지 않고, 예를 들면 외부에서 그 역할의 구성 유닛을 소정 상태로 움직여야할 동작 명령이 주어진 경우의 대응하는 동작을 발생시키기 위한 프로그램을 각 구성 유닛(2 내지 12)의 메모리(23, 25)에 격납해 두고, CPU(20)가 전원 투입시 또는 이 밖의 타이밍으로 이 프로그램을 판독하고, 해당 판독한 프로그램과 각 구성 유닛(2 내지 12)의 역할 인식 결과에 근거하여, 소정 역할 구성 유닛(2 내지 12)을 소정 상태로 구동해야 할 동작 명령이 주어졌을 때에 대응하는 구성 유닛(2 내지 12)을 구동 제어하기 위한 제어 신호를 생성하여, 해당 제어 신호에 근거하여 대응하는 구성 유닛(2 내지 12)내의 액추에이터를 구동 제어하도록 할 수 있다.
또한, 상술의 제 1 실시예에 있어서는 CPU(20)가 각 구성 유닛(2 내지 12)의 형상 정보에 근거하여 조립된 로봇(1)의 형태를 인식하도록 한 경우에 관하여 기술하였지만, 그 수법으로서 예를 들면 제 2 실시예와 같이 조립된 로봇(1)의 3구조에 따라 그 형태를 인식하도록 할 수 있다.
또한, 상술의 제 2 실시예에 있어서는 각 구성 유닛(31 내지 41)의 연결 상태(3구조)를 검출하는 연결 상태 검출 수단으로서, 로봇(30) 전체의 제어를 담당하는 CPU(53)를 적용하도록 한 경우에 관하여 기술하였지만, 본 발명은 이것에 한하지 않고, 연결 상태 검출 수단을 로봇(30) 전체의 제어를 담당하는 CPU(53)와 별체로 설치하도록 할 수 있다.
또한, 상술의 제 2 실시예에 있어서는 구축되는 로봇 장치의 형태를 각 구성 유닛(31 내지 41)의 연결 상태에 따라서 복수의 카테고리로 분류한 각 카테고리마다의 각 구성 유닛(31 내지 41)의 연결 상태를 기억하는 기억 수단으로서 ROM(50)을 적용하도록 한 경우 에 관하여 기술하였지만, 본 발명은 이것에 한하지 않고, 기억 수단으로서는 디스크 형상 기록 매체나 테이프 형상 기록 매체 등 이 밖에 여러가지의 기억 수단을 넓게 적용할 수가 있다.
또한, 상술의 제 2 실시예에 있어서는 검출한 각 구성 유닛(31 내지 41)의 연 상태와, 미리 ROM(50)에 격납되어 있는 각 카테고리마다의 각 구성 유닛(31 내지 41)의 연결 상태에 근거하여, 구축된 로봇(30)이 어떤 카테고리에 속하는가를 판별하는 판별 수단으로서, 로봇(30) 전체의 제어를 담당하는 CPU(53)를 적용하도록 한 경우 에 관해서 기술하였지만, 본 발명은 이것에 한하지 않고, 판별 수단을 로봇(30) 전체의 제어를 담당하는 CPU(53)와 별체로 설치하도록 할 수 있다.
또한, 상술의 제 2 실시예에 있어서는 구축되는 로봇(30)의 형태를 초기 상태와, 3구조에 따라서 카테고리 분할하도록 한 경우에 관하여 기술하였지만, 본 발명은 이것에 한하지 않고, 요컨대 구축되는 로봇(30)의 형태를 적어도 3구조에 의해 카테고리 분할하는 것이면, 이상의 자세한 카테고리 분할 방법으로서는 이 밖에 여러가지 방법을 넓게 적용할 수 있다.
또한, 상술의 제 2 실시예에 있어서는 몸통부 유닛(31) 내에 중력 센서를 설치하고, 해당 중력 센서의 출력에 근거하여 CPU(53)가 로봇(30) 형태의 카테고리를 판별하도록 한 경우에 관하여 기술하였지만, 본 발명은 이것에 한하지 않고, 예를 들면 구축된 로봇 형태의 종류(2족 보행형, 4족 보행형, 차륜형, 2륜 추진형 등)를 입력 설정할 수 있는 스위치 등의 설정 수단을 로봇(30)에 설치하고, 사용자에 의한 해당 설정 수단을 거친 입력 설정에 근거하여 CPU(53)가 로봇(30) 형태의 카테고리를 판별하도록 할 수 있다.
또한, 중력 센서를 대신하여 예를 들면 각 구성 유닛(31 내지 41)에 접지 센서를 설치하고, 해당 접지 센서의 출력에 근거하여 초기 상태에 있어서 어떤 구성 유닛(31 내지 41)의 어떤 부분이 접지하여 있느냐에 근거하여 구축된 로봇(31) 형태의 카테고리를 판별하도록 할 수 있고, 초기 상태를 판별할 수 있도록 하는 수법으로서는 이 밖에 여러가지의 수법을 넓게 적용할 수 있다.
또한, 상술의 제 2 실시예에 있어서는 CPU(53)가 전원 투입시에서의 로봇(30)의 자세에 근거하여 해당 로봇(30)의 카테고리를 판별하도록 한 경우에 관해서 기술하였지만, 본 발명은 이것에 한하지 않고, CPU(53)가 전원 투입때 이외의 다른 타이밍때에서의 로봇(30)의 자세에 근거하여 해당 로봇(30)의 카테고리를 판별하도록 할 수 있다.

Claims (15)

  1. 복수의 구성 유닛을 연결하도록 하여 구축되는 로봇 장치에 있어서,
    각 구성 유닛에 각각 설치되고, 그 구성 유닛의 역할을 나타내는 역할 정보를 기억하는 기억 수단과,
    상기 각 구성 유닛의 상기 기억 수단으로부터 상기 역할 정보를 각각 판독하고, 해당 판독한 상기 각 역할 정보에 근거하여 상기 각 구성 유닛의 상기 역할을 인식하는 인식 수단을 구비하는 것을 특징으로 하는 로봇 장치.
  2. 제 1 항에 있어서, 상기 인식 수단은 상기 각 구성 유닛의 상기 역할의 인식 결과에 근거하여 소정 역할의 상기 구성 유닛을 소정 상태로 구동 해야 할 동작 명령에 대하여, 대응하는 상기 구성 유닛을 상기 소정 상태로 구동하기 위한 제어 신호를 생성하는 것을 특징으로 하는 로봇 장치.
  3. 제 1 항에 있어서, 상기 로봇 장치 전체를 제어하는 제어 수단을 상기 각 구성 유닛의 상기 역할을 인식하는 인식 수단과는 별체로 설치하는 것을 특징으로 하는 로봇 장치,
  4. 제 1 항에 있어서, 상기 각 구성 유닛의 기억 수단은 각각 대응하는 구성 유닛을 각종 상태로 구동하기 위한 프로그램을 기억하고,
    상기 인식 수단은 상기 각 구성 유닛의 상기 기억 수단으로부터 상기 프로그램을 판독하고, 해당 판독한 프로그램과, 상기 각 구성 유닛의 상기 역할의 인식 결과에 근거하여, 소정의 상기 역할의 상기 구성 유닛을 소정 상태로 구동해야 할 동작 명령에 대하여, 대응하는 상기 구성 유닛을 상기 소정 상태로 구동 제어하기 위한 제어 신호를 생성하는 것을 특징으로 하는 로봇 장치.
  5. 제 4 항에 있어서, 상기 구성 유닛의 연결 상태가 변경한 경우, 자동적으로 상기 프로그램을 판독하는 것을 특징으로 하는 로봇 장치.
  6. 제 5 항에 있어서, 전원 투입시, 자동적으로 상기 프로그램을 판독하는 것을 특징으로 하는 로봇 장치.
  7. 제 5 항에 있어서, 소정 시간 경과마다 자동적으로 상기 프로그램을 판독하는 것을 특징으로 하는 로봇 장치.
  8. 복수의 구성 유닛을 연결하도록 하여 구축되는 로봇을 구동 제어하기 위한 구동 제어 방법에 있어서,
    각 구성 유닛에 각각의 역할을 나타내는 역할 정보를 기억시켜,
    상기 각 구성 유닛에 기억된 각각의 상기 역할 정보를 판독하고, 해당 판독한 상기 각 역할 정보에 근거하여 상기 각 구성 유닛의 상기 역할을 인식하고,
    해당 인식한 결과에 근거하여 상기 각 구성 유닛을 구동 제어하는 것을 특징으로 하는 로봇의 구동 제어 방법.
  9. 복수의 구성 유닛을 연결하도록 하여 구축되는 로봇 장치에 있어서,
    상기 각 구성 유닛의 연결 상태를 검출하는 연결 상태 검출 수단과,
    구축되는 상기 로봇 장치의 형태를 상기 각 구성 유닛의 상기 연결 상태에 따라서 복수의 카테고리로 분류하고. 상기 각 카테고리마다의 상기 각 구성 유닛의 상기 연결 상태를 기억하는 기억 수단과,
    상기 연결 상태 검출 수단에 의해 검출된 상기 각 구성 유닛의 상기 연결 상태와, 상기 기억 수단에 의해 기억된 상기 각 카테고리마다의 상기 각 구성 유닛의 상기 연결 상태에 근거하여 구축된 상기 로봇 장치가 어떤 카테고리에 속하는가를 판별하는 판별 수단을 구비하는 것을 특징으로 하는 로봇 장치.
  10. 제 9 항에 있어서, 상기 기억 수단은 상기 각 카테고리마다의 기본 동작을 각각 발생시키는 복수의 프로그램을 기억하고,
    상기 판별 수단은 구축된 상기 로봇 장치가 어떤 카테고리에 속하는가의 판별 결과와,
    상기 기억 수단에 기억된 대응하는 상기 프로그램에 근거하여,
    상기 각 구성 유닛을 구동 제어하기 위한 제어 신호를 생성하는 것을 특징으로 하는 로봇 장치.
  11. 제 9 항에 있어서, 상기 로봇 장치의 전체를 제어하는 제어 수단을 상기 판별 수단과는 별체로 설치하는 것을 특징으로 하는 로봇 장치.
  12. 제 9 항에 있어서, 구축되는 상기 로봇 장치의 형태를 적어도 3구조에 의해 카테고리 분류하는 것을 특징으로 하는 로봇 장치.
  13. 제 9 항에 있어서, 중력 방향을 검출하는 중력 센서를 구비하고,
    상기 구축되는 로봇 장치의 형태는 상기 각 구성 유닛의 상기 연결 상태 및 초기 설정시에서의 해당 로봇 장치의 자세에 따라서 복수의 카테고리로 분류되고,
    상기 판별 수단은 상기 중력 센서의 검출 결과와, 상기 기억 수단에 의해 기억된 상기 각 카테고리마다의 상기 각 구성 유닛의 상기 연결 상태에 근거하여 구축된 상기 로봇 장치가 어떤 카테고리에 속하는가를 판별하는 것을 특징으로 하는 로봇 장치.
  14. 제 13 항에 있어서, 구축된 상기 로봇 장치의 자세를 초기 설정하기 위한 설정 수단을 구비하는 것을 특징으로 하는 로봇 장치.
  15. 복수의 구성 유닛을 연결하도록 하여 구축되는 로봇을 구동 제어하기 위한 구동 제어 방법에 있어서,
    상기 각 구성 유닛의 연결 상태를 검출하여,
    구축되는 상기 로봇 장치의 형태를 검출한 상기 각 구성 유닛의 상기 연결 상태에 따라서 복수의 카테고리로 분류하여, 해당 각 카테고리마다의 상기 각 구성 유닛의 상기 연결 상태와, 상기 각 카테고리마다의 기본 동작을 각각 발생시키는 복수의 프로그램을 기억하고,
    검출된 상기 각 구성 유닛의 연결 상태와, 기억된 상기 각 카테고리마다의 각 구성 유닛의 연결 상태에 근거하여, 구축된 상기 로봇 장치가 어떤 카테고리에 속하는가를 판별하며,
    구축된 상기 로봇 장치가 어떤 카테고리에 속하는가의 판별 결과와, 상기 기억된 대응하는 상기 프로그램에 근거하여, 상기 각 구성 유닛을 구동 제어하는 것을 특징으로 하는 로봇 장치의 구동 방법.
KR1019980051672A 1997-11-30 1998-11-30 로봇장치및그구동제어방법 KR100549971B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP97-345841 1997-11-30
JP34584197A JP3919040B2 (ja) 1997-11-30 1997-11-30 ロボツト装置

Publications (2)

Publication Number Publication Date
KR19990045689A true KR19990045689A (ko) 1999-06-25
KR100549971B1 KR100549971B1 (ko) 2006-06-16

Family

ID=18379356

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980051672A KR100549971B1 (ko) 1997-11-30 1998-11-30 로봇장치및그구동제어방법

Country Status (13)

Country Link
US (1) US6411055B1 (ko)
EP (1) EP0923011B1 (ko)
JP (1) JP3919040B2 (ko)
KR (1) KR100549971B1 (ko)
CN (1) CN1096919C (ko)
AU (1) AU755446B2 (ko)
BR (1) BR9804751B1 (ko)
CA (1) CA2254502C (ko)
DE (1) DE69812558T2 (ko)
ES (1) ES2196504T3 (ko)
MY (1) MY120352A (ko)
SG (1) SG97125A1 (ko)
TW (1) TW378286B (ko)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001038663A (ja) * 1999-07-28 2001-02-13 Yamaha Motor Co Ltd マシンの制御システム
JP2001191284A (ja) * 1999-10-25 2001-07-17 Sony Corp ロボット装置及びロボット装置の学習方法
US7442107B1 (en) 1999-11-02 2008-10-28 Sega Toys Ltd. Electronic toy, control method thereof, and storage medium
AU2001259610A1 (en) 2000-05-09 2001-11-20 Hasbro, Inc. Self-stabilizing walking apparatus that is capable of being reprogrammed or puppeteered
JP2002113675A (ja) 2000-10-11 2002-04-16 Sony Corp ロボット制御システム並びにロボット制御用ソフトウェアの導入方法
US6705917B2 (en) 2000-12-15 2004-03-16 Andrew S. Filo Self-phase synchronized walking and turning quadruped apparatus
US6575802B2 (en) 2001-08-24 2003-06-10 Xerox Corporation Robotic toy modular system with distributed program
US6454624B1 (en) 2001-08-24 2002-09-24 Xerox Corporation Robotic toy with posable joints
US6889118B2 (en) 2001-11-28 2005-05-03 Evolution Robotics, Inc. Hardware abstraction layer for a robot
JP4404639B2 (ja) 2002-02-15 2010-01-27 ソニー株式会社 脚式移動ロボットの脚装置並びに脚式移動ロボットの制御方法
JP2003308221A (ja) 2002-04-12 2003-10-31 Nec Corp ロボット制御システムと方法並びにプログラム
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
CA2547646A1 (en) * 2003-12-01 2005-06-16 Newsouth Innovations Pty Limited A method for controlling a system formed from interdependent units
JP4588993B2 (ja) * 2003-12-01 2010-12-01 川田工業株式会社 歩行ロボットのモジュール化構造
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US7747352B2 (en) * 2004-04-20 2010-06-29 Massachusetts Institute Of Technology Physical modeling system for constructing and controlling articulated forms with motorized joints
JP4713846B2 (ja) * 2004-04-30 2011-06-29 独立行政法人科学技術振興機構 ロボット遠隔制御システム
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
JP2007038326A (ja) * 2005-08-01 2007-02-15 Toyota Motor Corp ロボット制御システム
JP2007061965A (ja) * 2005-08-31 2007-03-15 Victor Co Of Japan Ltd ロボット装置における起動モード設定方法
US7844396B2 (en) * 2005-09-13 2010-11-30 Deere & Company Method and system for modular data processing for a vehicle control system
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US20100168919A1 (en) * 2006-03-24 2010-07-01 Matsushita Electric Industrial Co, Ltd. Control method and control system for manipulator
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
JP2008006518A (ja) * 2006-06-27 2008-01-17 Toyota Motor Corp ロボット制御システム、ロボット制御方法及びロボット
US20080046121A1 (en) * 2006-08-17 2008-02-21 Innovati, Inc. Developing system of re-configurable modularized robot
US7845440B2 (en) * 2006-11-13 2010-12-07 Raytheon Sarcos, Llc Serpentine robotic crawler
EP2081814B1 (en) 2006-11-13 2011-04-06 Raytheon Company Conformable track assembly for a robotic crawler
EP2476604B1 (en) 2006-11-13 2013-08-21 Raytheon Company Tracked robotic crawler having a moveable arm
WO2008076192A2 (en) 2006-11-13 2008-06-26 Raytheon Sarcos Llc Versatile endless track for lightweight mobile robots
CN103433923A (zh) * 2007-01-12 2013-12-11 汉斯乔格·巴尔特斯 用于产生机器人的方法和系统
DE102007005330A1 (de) * 2007-01-29 2008-07-31 Schunk Gmbh & Co. Kg Spann- Und Greiftechnik Elektromotorsystem und Baukasten hierfür
EP2144659A1 (en) 2007-05-07 2010-01-20 Raytheon Sarcos, LLC Method for manufacturing a complex structure
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
JP5285701B2 (ja) 2007-07-10 2013-09-11 レイセオン カンパニー モジュール式ロボットクローラ
KR100903667B1 (ko) * 2007-08-02 2009-06-18 (주)로보티즈 네트워크에 기반한 로봇 콘텐츠 거래 시스템 및 방법
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8392036B2 (en) 2009-01-08 2013-03-05 Raytheon Company Point and go navigation system and method
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US8935014B2 (en) 2009-06-11 2015-01-13 Sarcos, Lc Method and system for deploying a surveillance network
US8317555B2 (en) 2009-06-11 2012-11-27 Raytheon Company Amphibious robotic crawler
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US8260460B2 (en) 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
US8369992B2 (en) 2009-09-22 2013-02-05 GM Global Technology Operations LLC Embedded diagnostic, prognostic, and health management system and method for a humanoid robot
DE102009054112A1 (de) * 2009-11-20 2011-05-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Planung und/oder Steuerung einer Roboterapplikation
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
CH703891A1 (de) * 2010-09-20 2012-03-30 Alstom Technology Ltd Roboterplattform zur ferngesteuerten und/oder selbständigen inspektion von technischen einrichtungen.
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
KR102068216B1 (ko) 2011-01-28 2020-01-20 인터치 테크놀로지스 인코퍼레이티드 이동형 원격현전 로봇과의 인터페이싱
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
JP2013202761A (ja) * 2012-03-29 2013-10-07 Hibot:Kk ロボットの構成要素制御用プログラム作成支援システム
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
WO2013176762A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US8393422B1 (en) 2012-05-25 2013-03-12 Raytheon Company Serpentine robotic crawler
US9031698B2 (en) 2012-10-31 2015-05-12 Sarcos Lc Serpentine robotic crawler
WO2014138439A1 (en) * 2013-03-06 2014-09-12 Massachusetts Institute Of Technology Discrete motion system
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
US9566711B2 (en) 2014-03-04 2017-02-14 Sarcos Lc Coordinated robotic control
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9592603B2 (en) 2014-12-01 2017-03-14 Spin Master Ltd. Reconfigurable robotic system
JP2016189236A (ja) * 2015-03-30 2016-11-04 ルネサスエレクトロニクス株式会社 電子部品およびロボット装置
CN106272398A (zh) * 2015-05-27 2017-01-04 鸿富锦精密工业(深圳)有限公司 机器人的驱动组件、机器人及机器人系统
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US10071303B2 (en) 2015-08-26 2018-09-11 Malibu Innovations, LLC Mobilized cooler device with fork hanger assembly
US20170129099A1 (en) * 2015-11-10 2017-05-11 M3N, Inc. Multipurpose Robotic System
US10293482B2 (en) 2015-11-12 2019-05-21 ITI Electromagnetic Products Inc. Self-assembling robotic construction system and associated methods
US10807659B2 (en) 2016-05-27 2020-10-20 Joseph L. Pikulski Motorized platforms
JP6910628B2 (ja) * 2016-07-26 2021-07-28 公立大学法人会津大学 ロボットを操作する装置、その装置において実行される方法およびプログラム。
US10987804B2 (en) * 2016-10-19 2021-04-27 Fuji Xerox Co., Ltd. Robot device and non-transitory computer readable medium
US10265844B2 (en) * 2017-03-24 2019-04-23 International Business Machines Corporation Creating assembly plans based on triggering events
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
DE102018206009A1 (de) * 2018-04-19 2019-10-24 Kuka Deutschland Gmbh Roboteranordnung
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
WO2020152838A1 (ja) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント ロボット
CN111515940A (zh) * 2020-05-21 2020-08-11 阜阳职业技术学院 一种可重构模块化机器人系统
US11813748B2 (en) 2020-10-13 2023-11-14 Google Llc Simulating multiple robots in virtual environments

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2497373B1 (fr) 1980-12-30 1986-09-05 Bull Sa Systeme d'alimentation microprogrammable pour systeme de traitement de donnees comportant un panneau de service destine aux operations de maintenance et procedes d'exploitation de ce panneau de service
US4495567A (en) * 1981-10-15 1985-01-22 Codex Corporation Multiprocessor/multimemory control system
US4467436A (en) * 1981-10-26 1984-08-21 United States Robots, Inc. Robot arm controller with common bus memory
US4578764A (en) 1983-03-07 1986-03-25 Zymark Corporation Self-configuring robotic system and method
US4586151A (en) 1983-09-02 1986-04-29 Zymark Corporation Self-configuring computerized robot control system
US4689755A (en) * 1983-09-02 1987-08-25 Zymark Corporation Self-configuring computerized robot control system with call-back feature
JPS6215058A (ja) 1985-07-15 1987-01-23 Hitachi Seiko Ltd 工具
US4937759A (en) * 1986-02-18 1990-06-26 Robotics Research Corporation Industrial robot with controller
US5238718A (en) * 1988-10-17 1993-08-24 Nippon Petrochemicals Company, Limited Multi-layered blow-molded bottle
US4990839A (en) * 1988-12-09 1991-02-05 Schonlau William J Modular robotic system
DE4030119A1 (de) 1990-09-24 1992-03-26 Uwe Kochanneck Multiblock-robot
JPH0527961A (ja) 1991-07-19 1993-02-05 Pfu Ltd コンピユータのウインドウシステム
JPH05111885A (ja) * 1991-08-30 1993-05-07 Toshiba Corp マニピユレータ装置
JP2697399B2 (ja) * 1991-09-13 1998-01-14 三菱電機株式会社 位置決め装置及びそのプログラム表示方法
JP3609435B2 (ja) * 1991-11-25 2005-01-12 株式会社東芝 マニピュレータ装置
US5428713A (en) 1991-11-25 1995-06-27 Kabushiki Kaisha Toshiba Compound module type manipulator apparatus
JPH05154778A (ja) * 1991-12-02 1993-06-22 Toshiba Corp マニピュレ−タ
US5657245A (en) * 1994-11-09 1997-08-12 Westinghouse Electric Corporation Component maintenance system
JP2699941B2 (ja) * 1995-07-20 1998-01-19 日本電気株式会社 ロボット関節
JPH09285990A (ja) * 1996-04-22 1997-11-04 Mitsubishi Electric Corp ロボット装置及びロボット作業装置

Also Published As

Publication number Publication date
CA2254502A1 (en) 1999-05-30
DE69812558D1 (de) 2003-04-30
EP0923011A2 (en) 1999-06-16
TW378286B (en) 2000-01-01
JP3919040B2 (ja) 2007-05-23
SG97125A1 (en) 2003-07-18
BR9804751A (pt) 1999-11-23
JPH11156765A (ja) 1999-06-15
EP0923011A3 (en) 2001-01-24
DE69812558T2 (de) 2004-03-04
MY120352A (en) 2005-10-31
EP0923011B1 (en) 2003-03-26
BR9804751B1 (pt) 2010-11-03
KR100549971B1 (ko) 2006-06-16
AU9420398A (en) 1999-06-17
US6411055B1 (en) 2002-06-25
CA2254502C (en) 2008-02-12
AU755446B2 (en) 2002-12-12
CN1224648A (zh) 1999-08-04
ES2196504T3 (es) 2003-12-16
CN1096919C (zh) 2002-12-25

Similar Documents

Publication Publication Date Title
KR100549971B1 (ko) 로봇장치및그구동제어방법
KR100495963B1 (ko) 로봇장치및그제어방법
US6470235B2 (en) Authoring system and method, and storage medium used therewith
US6556892B2 (en) Control device and control method for robot
KR100529287B1 (ko) 로봇 장치 및 그 자세 제어 방법
JP2004298977A (ja) 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
Fujita Digital creatures for future entertainment robotics
US20040015265A1 (en) Robot apparatus and method for controlling the operation thereof
WO2004018159A1 (ja) 環境同定装置及び環境同定方法、並びにロボット装置
KR20040050055A (ko) 로봇 장치 및 그 제어 방법
JP2002301674A (ja) 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
JP4635398B2 (ja) ロボット装置
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP2003071775A (ja) ロボット装置
JP4779226B2 (ja) ロボット装置、並びに、画像記憶方法及び画像記憶装置、並びに、制御プログラム及び記録媒体
JP3446933B2 (ja) ロボツト装置及びその制御方法
JP4649806B2 (ja) ロボット装置及びロボット装置の衝撃吸収方法
JP2002120183A (ja) ロボット装置及びロボット装置の入力情報検出方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP2003071757A (ja) ロボット装置
JP2004130426A (ja) ロボット装置及びその動作制御方法
JP2005007501A (ja) ロボット装置及びその動作制御方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130131

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140124

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150123

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170120

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180119

Year of fee payment: 13