KR20010043800A - 로봇 장치 - Google Patents

로봇 장치 Download PDF

Info

Publication number
KR20010043800A
KR20010043800A KR1020007013228A KR20007013228A KR20010043800A KR 20010043800 A KR20010043800 A KR 20010043800A KR 1020007013228 A KR1020007013228 A KR 1020007013228A KR 20007013228 A KR20007013228 A KR 20007013228A KR 20010043800 A KR20010043800 A KR 20010043800A
Authority
KR
South Korea
Prior art keywords
robot
robot device
information
entertainment
cpu
Prior art date
Application number
KR1020007013228A
Other languages
English (en)
Inventor
하세가와리카
이노에마코토
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR20010043800A publication Critical patent/KR20010043800A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39146Swarm, multiagent, distributed multitask fusion, cooperation multi robots
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39155Motion skill, relate sensor data to certain situation and motion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49764Method of mechanical manufacture with testing or indicating
    • Y10T29/49769Using optical instrument [excludes mere human eyeballing]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T408/00Cutting by use of rotating axially moving tool
    • Y10T408/16Cutting by use of rotating axially moving tool with control means energized in response to activator stimulated by condition sensor
    • Y10T408/175Cutting by use of rotating axially moving tool with control means energized in response to activator stimulated by condition sensor to control relative positioning of Tool and work
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T408/00Cutting by use of rotating axially moving tool
    • Y10T408/34Combined cutting means
    • Y10T408/356Combined cutting means including plunging [single stroke] cutter
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T408/00Cutting by use of rotating axially moving tool
    • Y10T408/36Machine including plural tools
    • Y10T408/37Turret of tools

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

다른 로봇 장치로부터 보내져 오는 송신 정보에 근거하여 동작을 결정하는 동작 결정 수단을 설치함으로써, 오퍼레이터의 지시에 의하지 않고 다른 로봇 장치에 협조하여 동작하는 로봇 장치를 실현할 수 있으며, 이렇게 하여 해당 로봇 장치를 사용하면 자율적으로 협조하여 동작하는 로봇 장치 군을 구축할 수 있다.

Description

로봇 장치{Robot}
종래, 복수의 로봇이 각각 다른 로봇의 동작 등에 따라서 자기의 동작을 변경하는 군 로봇 협조가 제안 및 개발되고 있다. 예를 들면 일본국 공개 특허 공보 제(평) 9-128025호에는, 공장 등에서 사용되는 복수의 로봇을 각각 협조하여 동작시키는 로봇 제어 장치가 개시되어 있다. 또, 일본국 공개 특허 공보 제(평) 10-49188호에는, 음성이 입력되었을 때의 감정에 따라서 인간과 같이 다른 반응을 하는 감정 변환 장치가 로봇에 응용될 수 있는 것이 개시되어 있다.
그런데, 상술한 바와 같은 공장에서 사용되는 복수의 로봇에서는, 오퍼레이터로부터 로봇 제어 장치를 통하여 주어지는 명령에 근거하여 각 로봇이 동작만 하는 한편, 감정 변환 장치를 갖는 로봇에서는, 오퍼레이터로부터 음성이 입력되었을 때에만 반응을 할 뿐으로, 이들 로봇은 오퍼레이터의 지시에 따라 동작하는 데 지나지 않았다.
본 발명은 로봇 장치에 관한 것이며, 예를 들면 다른 로봇 장치와 서로 협조하여 동작하도록 이루어진 로봇 장치에 적용하기 적합한 것이다.
도 1은 본 발명에 의한 엔터테인먼트 로봇의 한 실시예를 도시하는 개략선도.
도 2는 엔터테인먼트 로봇의 회로 구성을 도시하는 블록도.
도 3은 CPU에 의한 행동 결정 처리 설명에 이바지하는 블록도.
도 4는 CPU에 의한 행동 결정 처리 순서를 도시하는 플로 챠트.
도 5는 CPU에 의한 위치 정보 송신 처리 설명에 이바지하는 블록도.
도 6은 CPU에 의한 위치 정보 송신 처리 순서를 도시하는 플로 챠트.
도 7은 CPU에 의한 위치 정보 수신 처리 설명에 이바지하는 블록도.
도 8은 CPU에 의한 위치 정보 수신 처리 순서를 도시하는 플로 챠트.
도 9는 CPU에 의한 대수 정보 송신 처리 설명에 이바지하는 블록도.
도 10은 CPU에 의한 대수 정보 송신 처리 순서를 도시하는 플로 챠트.
도 11은 CPU에 의한 대수 정보 수신 처리 설명에 이바지하는 블록도.
도 12는 CPU에 의한 대수 정보 수신 처리 순서를 도시하는 플로 챠트.
도 13은 송신원이 리더인 경우에 있어서의 CPU에 의한 동작 결정 처리 설명에 이바지하는 블록도.
도 14는 송신원이 리더인 경우에 있어서의 CPU에 의한 동작 결정 처리 순서를 도시하는 플로 챠트.
도 15는 타이밍 신호에 동기한 동작 출력 처리 설명에 이바지하는 블록도.
도 16은 타이밍 신호에 동기한 동작 출력 처리 순서를 도시하는 플로 챠트.
도 17은 군 중에서의 역할에 따른 CPU에 의한 동작 결정 처리 설명에 이바지하는 블록도.
도 18은 동작 결정부의 구성을 도시하는 블록도.
도 19는 감정 상태 결정 기구부 설명에 이바지하는 블록도.
도 20은 행동 모델 설명에 이바지하는 개념도.
도 21은 군 중에서의 역할에 따른 CPU에 의한 동작 결정 처리 순서를 도시하는 플로 챠트.
본 발명은 이상의 점을 고려하여 이루어진 것으로, 자율적으로 협조 동작하는 로봇 장치군을 구축할 수 있는 로봇 장치를 제안하고자 하는 것이다.
이러한 과제를 해결하기 위해 본 발명에 있어서는, 다른 로봇 장치와 서로 협조하여 동작하도록 이루어진 로봇 장치에 있어서, 다른 로봇 장치로부터 보내져 오는 송신 정보를 수신하여 입력하는 입력 수단과, 송신 정보로부터 송신 대상의 로봇 장치를 특정하는 식별 정보 및 송신 대상인 로봇 장치에 전달하는 전달 정보를 추출하고, 식별 정보를 로봇 장치에 미리 할당되어 있는 식별 정보와 비교하여, 그 비교 결과 및 전달 정보에 근거하여 동작을 결정하는 동작 결정 수단과, 동작 결정 수단에 의해 결정된 동작에 따라서 구동하는 구동 수단을 설치하도록 했다.
이 결과 이 로봇 장치에 의하면, 다른 로봇 장치로부터 보내져 오는 송신 정보에 근거하여 동작을 결정함으로써, 오퍼레이터의 지시에 의하지 않고서 다른 로봇 장치에 협조하여 동작하는 로봇 장치를 실현할 수 있으며, 이렇게 하여 해당 로봇 장치를 사용하면 자율적으로 협조하여 동작하는 로봇 장치군을 구축할 수 있다.
이하 도면에 대해서, 본 발명의 한 실시예를 상술한다.
(1) 엔터테인먼트 로봇의 구성
도 1에 있어서, 1은 전체적으로 예를 들면 축구 게임 등의 엔터테인먼트 분야에서 사용되는 엔터테인먼트 로봇을 도시하며, 머리에 상당하는 머리부(2)와, 동체에 상당하는 본체부(3)와, 다리에 상당하는 다리부(4A 내지 4D)와, 꼬리에 상당하는 꼬리부(5)를 연결함으로써 구성되며, 본체부(3)에 대해 머리부(2), 다리부(4A 내지 4D) 및 꼬리부(5)를 움직임으로써 사족 동물과 같이 동작시키도록 이루어져 있다.
머리부(2)에는, 눈에 상당하여 화상을 촬상하는 텔레비젼 카메라(10)와, 귀에 상당하여 음성을 집음하는 마이크로폰(11)과, 입에 상당하여 음성을 발하는 스피커(12)가 각각 소정 위치에 설치되어 있다. 이와 함께 머리부(2)에는, 오퍼레이터의 손 등이 접촉된 것을 검출하는 터치 센서(14)와, 내부에서 생성된 정보를 다른 엔터테인먼트 로봇에 알리기 위한 LED(Light Emitting Diode)부(15)가 설치되어 있다.
본체부(3)에는, 그 내부에 엔터테인먼트 로봇(1) 전체 동작을 제어하는 전자 회로(도시하지 않는다) 등이 수납되어 있다. 다리부(4A 내지 4D)의 관절 부분, 다리부(4A 내지 4D)와 본체부(3)의 연결 부분, 본체부(3)와 머리부(2)의 연결 부분, 본체부(3)와 꼬리부(5)의 연결 부분 등은 각각 엑추에이터(23A 내지 23N)에 의해 연결되어 있으며, 본체부(3) 내부에 수납되는 전자 회로 제어에 근거하여 구동하도록 이루어져 있다.
이렇게 엔터테인먼트 로봇(1)은 각 엑추에이터(23A 내지 23N)를 구동시킴으로써, 머리부(2)를 상하 좌우로 흔들거나, 꼬리부(5)를 흔들거나, 다리부(4A 내지 4D)를 움직여 걷거나 달리게 하거나 하여, 진짜 사족 동물과 같은 동작을 행하게 한다.
(2) 엔터테인먼트 로봇의 회로 구성
여기서는 도 2를 사용하여 엔터테인먼트 로봇(1)의 회로 구성에 대해서 설명한다. 머리부(2)에는 텔레비젼 카메라(1O), 마이크로폰(11) 및 터치 센서(14)로 이루어지는 입력부(3O)와, 스피커(12) 및 LED부(15)로 이루어지는 출력부(31)를 갖고 있다. 또, 본체부(3)는 그 내부에 엔터테인먼트 로봇(1) 전체 동작을 제어하는 CPU(Central Processing Unit)(32)와, 각종 프로그램 등을 격납하고 있는 메모리(33)를 갖고 있다. 더욱이, 엔터테인먼트 로봇(1)의 소정 위치에는 엑추에이터(23A 내지 23N)가 각각 설치되어 있다.
텔레비젼 카메라(10)는 다른 엔터테인먼트 로봇의 동작이나 해당 엔터테인먼트 로봇(1) 자신의 주위 상황을 검출하기 위한 것으로, 다른 엔터테인먼트 로봇에 설치되어 있는 LED의 점멸이나 해당 엔터테인먼트 로봇(1) 자신의 주위 화상을 촬상하여, 그 결과 얻어지는 화상 신호(S1A)를 CPU(32)에 송출한다.
마이크로폰(11)은 다른 엔터테인먼트 로봇이나 오퍼레이터로부터 발생되는 음성을 검출하기 위한 것으로, 해당 음성을 집음하여 음성 신호(S1B)를 생성하여, 이것을 CPU(32)에 송출한다. 터치 센서(14)는 오퍼레이터로부터 엔터테인먼트 로봇(1)으로의 작동을 검출하기 위한 것으로, 오퍼레이터가 해당 터치 센서(14)를 접촉함으로써 원하는 작동을 행하면, 해당 작동에 따른 접촉 검출 신호(S1C)를 CPU(32)에 송출한다.
이러한 화상 신호(S1A), 음성 신호(S1B) 및 접촉 검출 신호(S1C)로 이루어지는 입력 신호(S1)는 해당 입력 신호(S1)의 송신원인 엔터테인먼트 로봇의 식별 정보(이하, 이것을 송신자 ID라 부른다)와, 해당 입력 신호(S1)의 송신처인 엔터테인먼트 로봇의 식별 정보(이하, 이것을 수신자 ID라 부른다)와, 송신자의 엔터테인먼트 로봇으로부터 송신처의 엔터테인먼트 로봇으로 전달하는 전달 정보로 이루어져 있다.
그런데 메모리(33)에는, 엔터테인먼트 로봇(1)과 해당 엔터테인먼트 로봇(1) 이외의 복수의 엔터테인먼트 로봇에 각각 할당되는 식별 정보가 미리 기억되어 있으며, CPU(32)는 이 메모리(33)에 격납되어 있는 식별 정보의 일람에 근거하여, 외부로부터 입력부(30)를 통하여 입력되는 입력 신호(S1)에 포함되는 송신자 ID 및 수신자 ID로부터 송신자의 엔터테인먼트 로봇과 송신처의 엔터테인먼트 로봇을 특정한다.
그 결과, CPU(32)는 특정된 수신자 ID가 자기라 판단한 경우에는, 입력 신호(S1)에 포함되는 전달 정보에 따른 구동 신호(S3A 내지 S3N)를 생성하고, 이들을 각 엑추에이터(23A 내지 23N)에 송출하여 각각 구동시킴으로써 해당 엔터테인먼트 로봇(1)을 동작시킨다.
또, 스피커(12)는 음성을 발함으로써 다른 엔터테인먼트 로봇에 원하는 정보를 전달하기 위한 것이다. LED부(15)는 적색을 발광하는 LED, 청색을 발광하는 LED, 녹색을 발광하는 LED 및 황색을 발광하는 LED로 이루어지며, 각 LED를 각각 점멸시킴으로써 다른 엔터테인먼트 로봇에 원하는 정보를 알리도록 이루어져 있다.
이로써 CPU(32)는 입력부(3O)를 통하여 입력되는 입력 신호(S1)를 기초로 음성 신호(S5A)나 점멸 신호(S5B)로 이루어지는 출력 신호(S5)를 필요에 따라서 생성하고, 이 중 음성 신호(S1A)를 스피커(31)를 통하여 외부에 출력하거나, 점멸 신호(S5B)를 LED부(15)에 송출하여 해당 LED부(15)를 구성하는 각 LED를 점멸시킴으로써, 수신자 ID에 의해 특정되는 다른 엔터테인먼트 로봇에 원하는 정보를 전달하도록 이루어져 있다.
(3) 복수의 엔터테인먼트 로봇을 축구 게임에 사용할 경우
여기서는 엔터테인먼트 로봇(1)을 필요한 대수분 준비하여 축구 게임을 행하게 할 경우에 있어서의 각 엔터테인먼트 로봇(1)의 CPU(32)가 행하는 데이터 처리에 대해서 설명한다.
(3-1) CPU에 의한 행동 결정 처리
우선 처음에 복수의 엔터테인먼트 로봇(1) 중 예를 들면 엔터테인먼트 로봇(1A)이 드리블을 하면서 엔터테인먼트 로봇(1B)에 패스를 보내려고 하고 있을 경우에 있어서의 엔터테인먼트 로봇(1B)의 CPU(32)가 행하는 행동 결정 처리에 대해서 도 3을 사용하여 설명한다.
이 때 송신원의 엔터테인먼트 로봇(1A)은 LED부(15)(도 2)를 구성하는 각 LED 중, 적색 LED를 점멸시킴으로써 해당 엔터테인먼트 로봇(1A)의 식별 정보를 송신자 ID로서 송신하고, 청색 LED를 점멸시킴으로써 엔터테인먼트 로봇(1B)의 식별 정보를 수신자 ID로서 송신하여, 녹색 LED를 점멸시킴으로써 패스를 보내는 것을 나타내는 전달 정보를 송신한다.
엔터테인먼트 로봇(1B)은 엔터테인먼트 로봇(1A)의 LED부(15)(도 2)를 구성하는 각 LED가 점멸하는 모양을 텔레비젼 카메라(10)(도 2)에 의해 촬상하고, 그 결과 얻은 화상 신호(S1A)를 CPU(32)의 신호 검출부(39)에 입력한다. 신호 검출부(39)는 텔레비젼 카메라(10)에 의해 얻어진 화상 신호(S1A) 중에서, 엔터테인먼트 로봇(1A)의 LED부(15)를 구성하는 각 LED가 점멸하는 모양으로 이루어지는 송신 정보(S9)를 검출하여, 이것을 신호 분리부(40)에 송출한다. 신호 분리부(40)는 송신 정보(S9)를 송신자 ID(S1OA), 수신자 ID(S1OB) 및 전달 정보(S10C)로 분리하여, 이들을 ID 비교부(41)에 송출한다.
ID 비교부(41)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보 일람에 근거하여, 수신자 ID(S10B)가 나타내는 엔터테인먼트 로봇(1B)을 특정한다. 그 결과, ID 비교부(41)는 수신자 ID(S1OB)가 엔터테인먼트 로봇(1B)을 나타낸다 판단하여, 이 판단 정보와 전달 정보(S10C)를 비교 결과 정보(S11)로서 동작 결정부(42)에 송출한다.
동작 결정부(42)는 수신자 ID에 자기가 포함되었던 것 및 엔터테인먼트 로봇(1A)으로부터 자기에게 버스가 보내지는 것을 나타내는 비교 결과 정보(S11)에 근거하여 다음에 행하는 동작을 결정하여, 그 결과 얻은 동작 결정 정보(S12)를 동작 출력부(43)에 송출한다.
동작 출력부(43)는 동작 결정 정보(S12)를 기초로 구동 신호(S3)를 생성하고, 해당 구동 신호(S3)를 엑추에이터(23)에 송출하여 해당 엑추에이터(23)를 구동함으로써, 엔터테인먼트 로봇(1B)을 동작시킨다. 또한, ID 비교부(41)에 의해 수신자 ID(S1OB)에 자기가 포함되어 있지 않다 판단된 경우에는, 동작 결정부(42)는 전달 정보(S10C)가 자기를 향한 것이 아닌 것에 근거하여 다음 동작을 결정하도록 이루어져 있다. 이렇게 엔터테인먼트 로봇(1)은 다른 엔터테인먼트 로봇으로부터 발생되는 정보에 근거하여 다음 동작을 결정하여 동작할 수 있도록 이루어져 있다.
이하, 이러한 CPU(32)에 의한 행동 결정 처리 순서에 대해서 도 4에 도시하는 플로 챠트를 사용하여 설명한다. 우선, 스텝(SP1)으로부터 들어간 스텝(SP2)에 있어서, CPU(32)는 텔레비젼 카메라(1O)(도 2)에 의해 촬상된 화상 신호(S1A) 중에서, 엔터테인먼트 로봇(1A)으로부터 보내져 온 송신 정보(S9)를 검출한 후, 스텝(SP3)으로 진행하여, 해당 송신 정보(S9)를 송신자 ID(S10A), 수신자 ID(S1OB) 및 전달 정보(S10C)로 분리한다.
그리고, 스텝(SP4)에 있어서, CPU(32)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보 일람에 근거하여 수신자 ID가 자기 것인지의 여부를 판별한다. 그 결과, CPU(32)는 수신자 ID가 자기 것이라 판단한 경우에는 스텝(SP5)으로 이행하는 한편, 수신자 ID가 자기 것이 아니라 판단한 경우에는 스텝(SP6)으로 이행한다.
스텝(SP5)에 있어서, CPU(32)는 전달 정보(S10C)를 해독하고, 스텝(SP7)으로 진행하여, 해독된 전달 정보(S1OC)가 나타내는 내용에 근거하여 다음 동작을 결정한다. 그리고, 스텝(SP8)에 있어서, CPU(32)는 결정한 동작에 따라서 엑추에이터(23)를 구동하여 해당 엔터테인먼트 로봇(1B)을 동작시킨 후, 스텝(SP9)으로 옮겨 처리를 종료한다.
한편, 스텝(SP4)에 있어서, CPU(32)는 수신자 ID가 자기 것이 아니라 판단한 경우에는, 스텝(SP6)으로 진행하고, 전달 정보(S10C)가 자기를 향한 것이 아닌 것에 근거하여 다음 동작을 결정한다. 그리고 스텝(SP8)에 있어서, CPU(32)는 결정된 동작에 따라서 엑추에이터(23)를 구동하여 해당 엔터테인먼트 로봇(1B)을 동작시킨 후, 스텝(SP9)으로 옮겨 처리를 종료한다.
(3-2) CPU에 의한 위치 정보 송신 처리
여기서는 예를 들면 엔터테인먼트 로봇(1A)이 자기의 현재 위치를 엔터테인먼트 로봇(1B)에 알릴 경우에 있어서의 엔터테인먼트 로봇(1A)의 CPU(32)가 행하는 위치 정보 송신 처리에 대해서 도 5를 사용하여 설명한다. 우선 엔터테인먼트 로봇(1A)의 CPU(32)는 텔레비젼 카메라(10)에 의해 촬상된 화상 신호(S1A)에 근거하는 화상 내에 포함되는, 그랜드 상의 소정 위치에 배치된 거리 검지 마크에 의해 자기 위치가 예를 들면 상대 골로부터 1미터, 또한 상대 골 왼쪽 끝으로부터 0.5미터인 것을 검출하여, 이 자기 위치를 나타내는 정보를 위치 정보(S15)로서 신호 변환부(51)에 송출한다.
신호 변환부(51)는 위치 검출부(50)로부터 위치 정보(S15)가 공급되면, 송신처의 엔터테인먼트 로봇(1B)을 나타내는 수신자 ID를 결정하고, 이 결정을 받아 송신자 ID 및 수신자 ID 및 위치 정보(S15)를 합성함으로써 송신 정보를 생성한다.
신호 변환부(51)는 이 송신 정보 중 예를 들면 송신자 ID를 적색 LED, 수신자 ID를 청색 LED, 코트의 세로 방향의 거리를 녹색 LED, 코트의 가로 방향 거리를 황색 LED에 할당하여, 해당 송신 정보를 각 LED에 대한 점멸 신호(S5B)로 변환한다. 그리고 신호 변환부(51)는 이 점멸 신호(S5B)를 LED부(15)(도 2)에 송출하여 해당 LED부(15)를 구성하는 각 LED를 점멸시킴으로써, 엔터테인먼트 로봇(1B)에 자기 위치를 알릴수 있어, 버스 등의 팀 플레이를 행할 수 있다.
이하, 이러한 CPU(32)에 의한 위치 정보 송신 처리 순서에 대해서 도 6에 도시하는 플로 챠트를 사용하여 설명한다. 스텝(SP15)으로부터 들어간 스텝(SP16)에 있어서, CPU(32)는 텔레비젼 카메라(10)에 의해 촬상된 화상 신호(S1A)의 화상을 기초로 자기 위치를 나타내는 위치 정보(S15)를 검출한다. 그리고, 스텝(SP17)에 있어서, CPU(32)는 송신처의 엔터테인먼트 로봇(1B)을 결정하고, 이 결정을 받아 스텝(SP18)으로 진행하며, 송신자 ID 및 수신자 ID 및 위치 정보(S15)를 합성하여 엔터테인먼트 로봇(1B)으로 보내는 송신 정보를 생성한다.
그리고, 스텝(SP19)에 있어서, CPU(32)는 이 송신 정보를 LED부(15)를 구성하는 각 LED를 통하여 보내기 위한 점멸 신호(S5B)로 변환하며, 스텝(SP2O)에 있어서, 이 점멸 신호(S5B)에 근거하여 각 LED를 점멸시킨 후, 스텝(SP21)으로 옮겨 처리를 종료한다.
(3-3) CPU에 의한 위치 정보 수신 처리
여기서는 예를 들면 볼을 갖고 있는 엔터테인먼트 로봇(1A)이 엔터테인먼트 로봇(1B 및 1C)으로부터 보내져 오는 위치 정보에 근거하여 패스를 내는 상대를 결정할 경우에 있어서의, 엔터테인먼트 로봇(1A)의 CPU(32)가 행하는 위치 정보 수신 처리에 대해서 도 7을 사용하여 설명한다.
엔터테인먼트 로봇(1A)은 엔터테인먼트 로봇(1B 및 1C)의 LED부(15)가 점멸하는 모양을 텔레비젼 카메라(10)(도 2)에 의해 촬상하고, 그 결과 얻은 화상 신호(S1A)를 CPU(32)의 신호 검출부(55)에 입력한다. 신호 검출부(55)는 텔레비젼 카메라(1O)에 의해 얻어진 화상 신호(S1A) 중에서, 엔터테인먼트 로봇(1B 및 1C)의 LED부(15)가 점멸하는 모양으로 이루어지는 송신 정보(S20)를 검출하여, 이것을 신호 분리부(56)에 송출한다. 신호 분리부(56)는 엔터테인먼트 로봇(1B 및 1C)의 각 송신 정보(S20)를 각각 송신자 ID(S21A), 수신자 ID(S21B) 및 위치 정보(S21C)로 분리하여, 이들을 ID 비교부(57)에 송출한다.
ID 비교부(57)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇의 식별 정보 일람에 근거하여, 엔터테인먼트 로봇(1B 및 1C) 각각으로부터 보내져 온 수신자 ID(S21B)가 나타내는 엔터테인먼트 로봇(1)을 특정하고, 그 결과, 수신자 ID(S21B)에 자기가 포함되고 있다고 판단한 경우에는 엔터테인먼트 로봇(1B 및 1C) 각각의 위치 정보(S21C)를 동작 결정부(58)에 송출한다.
동작 결정부(58)는 예를 들면 「현재 볼을 갖고 있어 패스를 내려고 하고 있다」는 것을 나타내는 엔터테인먼트 로봇(1A) 자신의 현재 동작 및 내부 상태나 자기의 현재 위치를 보존하고 있으며, 해당 현재 동작 및 내부 상태와 엔터테인먼트 로봇(1B 및 1C) 각각의 현재 위치 및 자기의 현재 위치에 근거하여, 엔터테인먼트 로봇(1B 및 1C) 중 어느 하나에 패스를 낼지를 결정하여, 그 결과 얻은 동작 결정 정보(S22)를 동작 출력부(59)에 송출한다.
동작 출력부(59)는 동작 결정 정보(S22)를 기초로 구동 신호(S3)를 생성하고, 해당 동작 신호(S3)를 엑추에이터(23)에 송출하여 해당 엑추에이터(23)를 구동함으로써, 원하는 엔터테인먼트 로봇(1)에 패스를 낸다. 이렇게 엔터테인먼트 로봇(1)은 다른 엔터테인먼트 로봇으로부터 발생되는 위치 정보에 근거하여 다음 동작을 결정하여 행동할 수 있도록 이루어져 있다.
이하, 이러한 CPU(32)에 의한 위치 정보 수신 처리 순서에 대해서 도 8에 도시하는 플로 챠트를 사용하여 설명한다. 스텝(SP25)으로부터 들어간 스텝(SP26)에 있어서, 엔터테인먼트 로봇(1A)의 CPU(32)는 텔레비젼 카메라(1O)에 의해 얻어진 화상 신호(S1A) 중에서, 엔터테인먼트 로봇(1B 및 1C)의 LED부(15)가 점멸하는 모양으로 이루어지는 송신 정보(S20)를 검출한다. 그리고 스텝(SP27)에 있어서, CPU(32)는 엔터테인먼트 로봇(1B 및 1C)의 각 송신 정보(S20)를 각각 송신자 ID(S21A), 수신자 ID(S21B) 및 위치 정보(S21C)로 분리한다.
스텝(SP28)에 있어서, CPU(32)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보 일람에 근거하여, 엔터테인먼트 로봇(1B 및 1C) 각각으로부터 보내져 온 수신자 ID(S21B)가 나타내는 엔터테인먼트 로봇을 특정하고, 그 결과, 수신자 ID(S21B)에 자기가 포함되어 있다 판단한 경우에는 스텝(SP29)으로 진행하여, 엔터테인먼트 로봇(1B 및 1C) 각각의 위치 정보(S21C)를 해독한다.
다음으로 스텝(SP30)에 있어서, CPU(32)는 엔터테인먼트 로봇(1A) 자신의 현재 동작 및 내부 상태와, 엔터테인먼트 로봇(1B 및 1C) 각각의 현재 위치 및 자기의 현재 위치에 근거하여, 엔터테인먼트 로봇(1B 및 1C) 중 어느 하나에 패스를 낼지를 결정하고, 스텝(SP31)으로 진행하여, 결정한 상대에 패스를 내도록 엑추에이터(23)를 구동한 후, 스텝(SP32)으로 옮겨 처리를 종료한다. 한편, 스텝(SP28)에 있어서, CPU(32)는 수신자 ID가 자기 것이 아니라 판단한 경우에는, 스텝(SP32)으로 옮겨 처리를 종료한다.
(3-4) CPU에 의한 대수 정보 송신 처리
여기서는 예를 들면 엔터테인먼트 로봇(1A)이 해당 엔터테인먼트 로봇(1A) 주위에 존재하는 엔터테인먼트 로봇(1)의 대수를 카운트하여 다른 엔터테인먼트 로봇(1)에 알릴 경우에 있어서의, 엔터테인먼트 로봇(1A)의 CPU(32)가 행하는 대수 정보 송신 처리에 대해서 도 9를 사용하여 설명한다.
엔터테인먼트 로봇(1A)은 자기의 검지 가능 범위 내에 존재하는 엔터테인먼트 로봇(1)의 LED가 점멸하는 모양을 텔레비젼 카메라(10)에 의해 촬상하고, 그 결과 얻은 화상 신호(S1A)를 CPU(32)의 로봇 검출부(65)에 입력한다. 로봇 검출부(65)는 엔터테인먼트 로봇(1)의 LED가 점멸하는 모양으로 이루어지는 송신 정보를 검출한 후, 해당 송신 정보로부터 송신자 ID를 추출한다.
그리고, 로봇 검출부(65)는 이 송신자 ID를 기초로 엔터테인먼트 로봇(1)의 고체를 인식함과 동시에, 해당 인식한 엔터테인먼트 로봇(1)이 자기 팀에 속하는 것인지 상대 팀에 속하는 것인지 식별하여, 그 식별 결과로 이루어지는 로봇 검출 신호(S25)를 엔터테인먼트 로봇(1)을 인실할 때마다 대수 카운트부(66)에 송출한다.
대수 카운트부(66)는 로봇 검출 신호(S25)가 공급될 때마다 자기 팀 및 상대 팀의 대수를 카운트하고, 그 결과 얻은 대수 정보(S26)를 신호 변환부(67)에 송출한다. 신호 변환부(67)는 송신처의 엔터테인먼트 로봇(1)을 나타내는 수신자 ID를 결정한 후, 송신자 ID 및 수신자 ID 및 대수 정보를 합성하여 송신 정보를 생성한다.
그리고, 신호 변환부(67)는 이 송신 정보에 따른 점멸 신호(S5B)를 생성하고, 이것을 LED부(15)에 송출하여 각 LED를 점멸시킴으로써, 다른 엔터테인먼트 로봇(1)에 자기 주위에 존재하는 엔터테인먼트 로봇(1)의 대수를 알린다. 예를 들면 엔터테인먼트 로봇(1A) 주위에 상대 팀의 엔터테인먼트 로봇(1)이 2대 존재할 경우에는, 대수 정보에 더불어 「가깝게 상대 팀의 엔터테인먼트 로봇(1)이 많이 있기 때문에 패스를 내지 않도록」과 같은 대수 정보에 따른 정보를 송신한다.
이하, 이러한 CPU(32)에 의한 대수 정보 송신 처리 순서에 대해서 도 10에 도시하는 플로 챠트를 사용하여 설명한다. 스텝(SP40)으로부터 들어간 스텝(SP41)에 있어서, CPU(32)는 텔레비젼 카메라(10)에 의해 촬상된 화상 신호(S1A)에 근거하여 자기 주위에 존재하는 자기 팀 및 상대 팀의 엔터테인먼트 로봇(1)의 대수를 카운트한다. 그리고 스텝(SP42)에 있어서, CPU(32)는 수신자 ID를 선정한 후, 스텝(SP43)으로 진행하여, 송신자 ID 및 수신자 ID 및 대수 정보를 합성하여 송신 정보를 생성한다.
스텝(SP44)에 있어서, CPU(32)는 이 송신 정보를 점멸 신호(S5B)로 변환하고, 스텝(SP45)으로 진행하여, 해당 점멸 신호(S5B)를 LED부(15)에 송출하여 각 LED를 점멸시킴으로써, 다른 엔터테인먼트 로봇(1)에 자기 주위에 존재하는 엔터테인먼트 로봇(1)의 대수를 알린 후, 스텝(SP46)으로 옮겨 처리를 종료한다.
(3-5) CPU에 의한 대수 정보 수신 처리
여기서는 예를 들면 엔터테인먼트 로봇(1A)이 볼을 갖고 있는 상태에서 엔터테인먼트 로봇(1B 및 1C)으로부터 보내져 오는 대수 정보에 근거하여 패스를 내는 상대를 결정할 경우에 있어서의, 엔터테인먼트 로봇(1A)의 CPU(32)가 행하는 대수 정보 수신 처리에 대해서 도 11을 사용하여 설명한다.
엔터테인먼트 로봇(1A)은 엔터테인먼트 로봇(1B 및 1C)의 LED부(15)가 점멸하는 모양을 텔레비젼 카메라(10)에 의해 촬상하고, 그 결과 얻은 화상 신호(S1A)를 CPU(32)의 신호 검출부(70)에 입력한다. CPU(32)는 신호 검출부(70), 신호 분리부(71) 및 ID 비교부(72)를 순차 통하여 얻어지는, 엔터테인먼트 로봇(1B 및 1C) 각각의 주위에 존재하는 상대 팀의 엔터테인먼트 로봇(1)의 대수를 나타내는 대수 정보(S3O)를 동작 결정부(73)에 입력한다.
동작 결정부(73)는 예를 들면 「현재 볼을 갖고 있어 버스를 내려고 하고 있다」는 것을 나타내는 현재 동작 및 내부 상태를 보존하고 있으며, 해당 현재 동작 및 내부 상태와 엔터테인먼트 로봇(1B 및 1C) 주위에 존재하는 상대 팀의 엔터테인먼트 로봇(1) 대수에 근거하여, 엔터테인먼트 로봇(1B 및 1C) 중 어느 하나에 패스를 낼지 결정함으로써 동작 결정 정보(S31)를 생성하여 이것을 동작 출력부(74)에 송출한다.
동작 출력부(74)는 동작 결정 정보(S31)를 기초로 구동 신호(S3)를 생성하고, 해당 구동 신호(S3)를 엑추에이터(23)에 송출하여 해당 엑추에이터(23)를 구동함으로써, 결정한 엔터테인먼트 로봇(1)에 패스를 낸다. 이렇게 엔터테인먼트 로봇(1)은 다른 엔터테인먼트 로봇(1)으로부터 송신되는 대수 정보에 근거하여 다음 동작을 결정할 수 있도록 이루어져 있다.
이하, 이러한 CPU(32)에 의한 대수 정보 수신 처리 순서에 대해서 도 12에 도시하는 플로 챠트를 사용하여 설명한다. 스텝(SP50)으로부터 들어간 스텝(SP51)에 있어서, 엔터테인먼트 로봇(1A)의 CPU(32)는 텔레비젼 카메라(1O)에 의해 얻어진 화상 신호(S1A) 중에서, 엔터테인먼트 로봇(1B 및 1C)의 LED부(15)가 점멸하는 모양으로 이루어지는 송신 정보를 검출한다. 그리고, 스텝(SP52)에 있어서, CPU(32)는 엔터테인먼트 로봇(1B 및 1C)의 각 송신 정보를 각각 송신자 ID, 수신자 ID 및 대수 정보로 분리한다.
스텝(SP53)에 있어서, CPU(32)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보 일람에 근거하여, 엔터테인먼트 로봇(1B 및 1C) 각각으로부터 보내져 온 수신자 ID가 나타내는 엔터테인먼트 로봇(1)을 특정하고, 그 결과, 수신자 ID에 자기가 포함되어 있다 판단한 경우에는 스텝(SP54)으로 진행하여, 엔터테인먼트 로봇(1B 및 1C) 각각의 대수 정보(S30)를 해독한다.
다음으로 스텝(SP55)에 있어서, CPU(32)는 엔터테인먼트 로봇(1A) 자신의 현재 동작 및 내부 상태와 엔터테인먼트 로봇(1B 및 1C) 각각의 대수 정보에 근거하여, 엔터테인먼트 로봇(1B 및 1C) 중 어느 하나에 패스를 낼지를 결정하고, 스텝(SP56)으로 진행하여, 결정한 상대에 패스를 내도록 엑추에이터(23)를 구동한 후, 스텝(SP57)으로 옮겨 처리를 종료한다. 한편, 스텝(SP53)에 있어서, CPU(32)는 수신자 ID가 자기의 것이 아니라 판단한 경우에는, 스텝(SP57)으로 옮겨 처리를 종료한다.
(3-6) 송신원이 리더인 경우에 있어서의 CPU에 의한 동작 결정 처리
여기서는 우선 예를 들면 자기 팀을 구성하는 엔터테인먼트 로봇(1) 중에서 리더가 되는 엔터테인먼트 로봇(1)을 1대 선정하고, 이 리더가 되는 엔터테인먼트 로봇(1)의 식별 정보를 리더 ID로서 다른 엔터테인먼트 로봇(1)의 메모리(33)에 미리 격납해 둔다. 이 리더가 되는 엔터테인먼트 로봇(1)은 항상 전체를 바라볼 수 있는 포지션에 위치하여 전체 감시를 행하도록 이루어져 있다. 또 통상, 엔터테인먼트 로봇(1)은 볼을 잡으면, 상대 골까지 운반하도록 설정되어 있다.
이 상태에 있어서, 상대 팀의 엔터테인먼트 로봇(1)에 볼을 잡힌 경우, 리더에게 선정된 엔터테인먼트 로봇(1)은 볼이 상대 팀에 잡힌 것을 텔레비젼 카메라(10)에 의해 검지하면 예를 들면 「전원 자기 골 부근에 모여라」라는 명령으로 이루어지는 전달 정보를 리더 ID 및 수신자 ID와 함께 LED부(15)를 통하여 자기 팀의 각 엔터테인먼트 로봇(1)에 송신한다.
엔터테인먼트 로봇(1)은 검지 가능 범위 내에 존재하는 엔터테인먼트 로봇(1)의 LED부(15)가 점멸하는 모양을 텔레비젼 카메라(10)에 의해 촬상하고, 그 결과 얻은 화상 신호(S1A)를 CPU(32)의 신호 검출부(80)에 송출한다. CPU(32)는 신호 검출부(80) 및 신호 분리부(81)를 순차 통하여 얻어지는, 화상 신호(S1A)에 포함되는 각 엔터테인먼트 로봇(1) 각각의 송신자 ID(S40A), 수신자 ID(S40B) 및 전달 정보(S40C)를 신호 판별부(82)에 입력한다.
신호 판별부(82)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보 일람에 근거하여, 송신자 ID에 리더의 식별 정보를 나타내는 것이 존재하고, 또한 해당 송신자 ID에 대응하는 수신자 ID에 자기가 포함되어 있다 판단한 경우에는, 이들 송신자 ID 및 수신자 ID에 대응하는 전달 정보(S40C)를 명령 정보(S41)로서 다른 송신자 ID의 전달 정보(S40C)에 우선시켜 동작 결정부(83)에 송출한다.
동작 결정부(83)는 엔터테인먼트 로봇(1) 자신의 현재 동작 및 내부 상태를 보존하고 있으며, 해당 현재 동작 및 내부 상태와 리더로부터의 명령 정보(S41)에 근거하여 다음 동작을 결정한 후, 동작 출력부(84)를 통하여 구동 신호(S3)를 엑추에이터(23)에 송출하여 해당 엑추에이터(23)를 구동함으로써, 예를 들면 「자기 골 부근으로 돌아오는」 행동을 행한다. 따라서, 송신자 ID에 리더의 식별 정보가 존재하지 않을 경우에는, 동작 결정부(83)는 다른 전달 정보(S4OC)에 근거하여 동작을 결정한다. 이렇게 하여 동일 팀에 속하는 각 엔터테인먼트 로봇(1)은 리더로부터의 명령에 따라서 팀 플레이를 행할 수 있도록 이루어져 있다.
이하, 이러한 송신원이 리더인 경우에 있어서의 CPU(32)에 의한 동작 결정 순서에 대해서 도 14에 도시하는 플로 챠트를 사용하여 설명한다. 스텝(SP60)으로부터 들어간 스텝(SP61)에 있어서, 엔터테인먼트 로봇(1)의 CPU(32)는 텔레비젼 카메라(10)에 의해 얻어진 화상 신호(S1A) 중에서, 검지 가능 범위 내에 존재하는 엔터테인먼트 로봇(1)의 LED부(15)가 점멸하는 모양으로 이루어지는 송신 정보를 검출한다.
스텝(SP62)에 있어서, CPU(32)는 각 엔터테인먼트 로봇(1)의 송신 정보를 각각 송신자 ID, 수신자 ID 및 전달 정보로 분리한다. 그리고 스텝(SP63)에 있어서, CPU(32)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보 일람에 근거하여, 각 엔터테인먼트 로봇(1)으로부터 각각 보내져 온 송신자 ID에 리더인 것이 존재하는지의 여부를 판별하고, 그 결과, 송신자 ID에 리더인 것이 있다고 판별한 경우에는 스텝(SP64)으로 진행한다.
이 스텝(SP64)에 있어서, CPU(32)는 리더에 상당하는 송신자 ID에 대응하는 수신자 ID에 자기가 포함되어 있는지의 여부를 판별하고, 그 결과, 리더에 상당하는 송신자 ID에 대응하는 수신자 ID에 자기가 포함되어 있다고 판단한 경우에는 스텝(SP65)으로 옮겨, 이들 송신자 ID 및 수신자 ID에 대응하는 명령 정보(S41)를 해독한다.
다음으로 스텝(SP66)에 있어서, CPU(32)는 엔터테인먼트 로봇(1) 자신의 현재 동작 및 내부 상태와 리더로부터의 명령 정보(S41)에 근거하여 다음 동작을 결정하고, 스텝(SP67)으로 진행하여, 결정한 동작에 따라 엑추에이터(23)를 구동시킨 후, 스텝(SP68)으로 옮겨 처리를 종료한다. 또한, CPU(32)는 스텝(SP63)에 있어서, 송신자 ID가 리더인 것이 아니라 판단한 경우에는 스텝(SP68)으로 옮겨 처리를 종료하고, 또한 스텝(SP64)에 있어서, 수신자 ID에 자기가 포함되어 있지 않다고 판단한 경우에도 스텝(SP68)으로 옮겨 처리를 종료한다.
(3-7) 타이밍 신호에 동기하여 동작시킬 경우에 있어서의 CPU에 의한 동작 출력 처리
여기서는 예를 들면 복수의 엔터테인먼트 로봇(1)을 소정 리듬에 맞추어 동시에 행진시킬 경우에 있어서의, 엔터테인먼트 로봇(1)의 CPU(32)가 행하는 동작 출력 처리에 대해서 도 15를 사용하여 설명한다. 이 때, 송신원의 엔터테인먼트 로봇(1) 또는 메트로놈 등으로부터, 소정의 타이밍 신호에 동기하여 예를 들면 행진 등의 동작을 행하게 하는 지시 내용을 나타내는 전달 정보에 송신자 ID 및 수신자 ID를 부가하여 이루어지는 송신 정보에 따른 음성이 발생되면, 제어 대상인 엔터테인먼트 로봇(1)은 이 음성을 마이크로폰(11)에 의해 집음하고, 그 결과 얻은 음성 신호(S1B)를 CPU(32)의 신호 검출부(9O)에 입력한다.
CPU(32)는 신호 검출부(90) 및 신호 분리부(91)를 순차 통하여 얻어지는, 송신자 ID(S50A), 수신자 ID(S50B) 및 전달 정보(S50C)를 신호 판별부(92)에 입력한다. 신호 판별부(92)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보에 근거하여, 수신자 ID에 자기가 포함되어 있는지의 여부를 판단하고, 그 결과, 수신자 ID에 자기가 포함되어 있다고 판단한 경우에는 전달 정보(S50C)를 동작 정보(S51)로서 동작 결정부(93)에 송출한다.
동작 결정부(93)는 엔터테인먼트 로봇(1) 자신의 현재 동작 및 내부 상태를 보존하고 있으며, 해당 현재 동작 및 내부 상태와 동작 정보(S51)에 근거하여 다음 동작을 결정함으로써, 예를 들면 「오른쪽 앞발과 왼쪽 뒷발을 동시에 앞으로 낸다」라는 동작 결정 정보(S52)를 생성하여, 이것을 동작 출력부(94)에 송출한다.
이 상태에 있어서, 동작 출력부(94)는 마이크로폰(11)으로부터 신호 검출부(90), 신호 분리부(91) 및 신호 판별부(92)를 순차 통하여 타이밍 신호(S53)가 입력되면 구동 신호(S3)를 생성하여, 해당 구동 신호(S3)를 엑추에이터(23)에 송출하여 해당 엑추에이터(23)를 구동함으로써, 타이밍 신호(S53)가 입력되는 것에 동기하여 행진 동작을 행하게 한다. 이렇게 복수의 엔터테인먼트 로봇(1)은 소정의 엔터테인먼트 로봇(1)으로부터 공급되는 타이밍 신호에 동기하여 동일 동작을 행할 수 있도록 이루어져 있다.
이하, 이러한 CPU(32)에 의한 타이밍 신호에 동기한 동작 출력 처리 순서에 대해서 도 16에 도시하는 플로 챠트를 사용하여 설명한다. 스텝(SP75)으로부터 들어간 스텝(SP76)에 있어서, 엔터테인먼트 로봇(1)의 CPU(32)는 마이크로폰(11)에 의해 송신원의 엔터테인먼트 로봇(1)의 스피커(12)로부터 발생되는 음성 신호(S1B)를 얻으면, 해당 음성 신호(S1B) 중에서 송신 정보를 검출한다.
스텝(SP77)에 있어서, CPU(32)는 검출한 송신 정보를 송신자 ID(S50A), 수신자 ID(S5OB) 및 전달 정보(S50C)로 분리한다. 다음으로, 스텝(SP78)에 있어서, CPU(32)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보 일람에 근거하여, 수신자 ID에 자기가 포함되어 있는지의 여부를 판단하고, 그 결과, 수신자 ID에 자기가 포함되어 있다고 판단한 경우에는 스텝(SP79)으로 진행하여, 전달 정보(S50C)로 이루어지는 동작 정보(S51)를 해독한다.
계속되는 스텝(SP80)에 있어서, CPU(32)는 현재 동작 및 내부 상태와 동작 정보(S51)에 근거하여 다음 동작을 결정한 후, 타이밍 신호가 입력될 때까지 대기한다. 그리고, 스텝(SP81)에 있어서, CPU(32)는 마이크로폰(11)을 통하여 송신 정보가 입력된 것을 검출하면, 스텝(SP82)으로 진행하여, 검출한 송신 정보를 송신자 ID(S50A), 수신자 ID(S5OB) 및 전달 정보(S5OC)로 분리한다.
스텝(SP83)에 있어서, CPU(32)는 전달 정보(S50C)에 타이밍 신호가 포함되어 있는지의 여부를 판별하고, 그 결과, 타이밍 신호(S53)가 포함되어 있던 경우에는 스텝(SP84)으로 진행하여, 해당 타이밍 신호(S53)가 입력되는 것에 동기하여 동작을 행하게 한다. 한편, 스텝(SP83)에 있어서, CPU(32)는 전달 정보(S50C)에 타이밍 신호가 포함되어 있지 않던 경우에는 타이밍 신호가 공급될 때까지 대기한다.
그리고, 스텝(SP85)에 있어서, CPU(32)는 타이밍 신호 종료를 나타내는 전달 정보(S5OC)를 검출했는지의 여부를 판단하고, 그 결과, 타이밍 신호 종료를 나타내는 전달 정보(S5OC)를 검출했다 판단한 경우에는 스텝(SP86)으로 옮겨 처리를 종료하고, 검출하고 있지 않다 판단한 경우에는 스텝(SP81)으로 옮겨 동작을 반복한다. 따라서, 스텝(SP78)에 있어서, CPU(32)는 수신자 ID에 자기의 것이 포함되어 있지 않다고 판단한 경우에는 스텝(SP86)으로 옮겨 처리를 종료한다.
(3-8) CPU(32)에 의한 군 중에서의 역할에 따른 동작 결정 처리
여기서는 예를 들면 복수의 엔터테인먼트 로봇(1)을 필요한 대수분 준비하여 가상적인 가족 관계를 구축한 경우에 있어서의, 각 엔터테인먼트 로봇(1)의 CPU(32)가 행하는 동작 결정 처리에 대해서 도 17을 사용하여 설명한다. 이 경우, 오퍼레이터는 각 엔터테인먼트 로봇(1)의 마이크로폰(11)를 통하여, 예를 들면 아버지 또는 어머니 등의 가정 내의 입장 등으로 이루어지는 군 중에서의 역할과, 예를 들면 화내기 쉽다, 온화하다 등의 성격을 나타내는 감정 및 행동 패턴을 지정하는 음성 신호(S1B)를 CPU(32)의 특징 설정부(100)에 각각 입력한다.
특징 설정부(10O)는 지정된 군 중에서의 역할과 감정 및 행동 패턴에 따른 행동을 엔터테인먼트 로봇(1)에 발현시키도록, 특징 설정 정보(S60)를 동작 결정부(101)에 송출하여 그 내부 설정을 변경한다.
또, CPU(32)는 텔레비젼 카메라(1O)에 의해 촬상된 화상 신호(S1A)를 신호 검출부(102), 신호 분리부(103) 및 ID 비교부(1O4)를 순차 개재함으로써 전달 정보(S61)를 얻어, 이것을 동작 결정부(101)에 입력한다.
동작 결정부(101)는 ID 비교부(104)로부터 주어지는 전달 정보(S61)에 근거하여, 특징 설정부(1OO)에 의해 변경된 내부 설정에 따라서 다음 동작을 결정하고, 그 결과 얻어지는 동작 결정 정보(S62)를 동작 출력부(105)에 송출한다.
동작 출력부(105)는 동작 결정 정보(S62)로부터 구동 신호(S3)를 생성하고, 해당 구동 신호(S3)에 의해 엑추에이터(23)를 구동시킴으로써, 원하는 동작을 행하게 한다. 이렇게 하여 인간의 가족 관계 등에 유사한 관계를 복수의 엔터테인먼트 로봇(1) 사이에서 구축할 수 있다.
또한, 상술한 동작 결정부(101)의 구체 구성을 도 18에 도시한다. 이 도 18로부터도 분명한 바와 같이, 동작 결정부(101)에는, 엔터테인먼트 로봇(1)의 감정을 결정하는 감정 결정 기구부(110)와, 해당 결정된 감정 상태를 고려하면서 엔터테인먼트 로봇(1)의 다음 동작을 결정하는 동작 결정 기구부(111)로 구성된다.
이 경우 감정 결정 기구부(11O)는 도 19에 도시하는 바와 같이, 「기쁨」, 「슬픔」, 「놀라움」, 「공포」, 「혐오」 및 「노함」의 6개 동작에 각각 대응시켜 설치된 감정 모델로서의 정동 유닛(112A 내지 112F)과, 각 정동 유닛(112A 내지 112F)에 각각 대응시켜 설치된 강도 증감 함수(113A 내지 113F)를 갖고 있다.
이 강도 증감 함수(113A 내지 113F)는 ID 비교부(104)로부터 주어지는 전달 정보(S61) 등에 근거하여, 미리 설정된 패러미터에 따라서 후술하는 바와 같이 각 정동 유닛(112A 내지 112F)의 강도를 증감시키기 위한 강도 정보(S70A 내지 S70F)를 생성하여 출력하는 함수이다.
그리고, 각 정동 유닛(112A 내지 112F)은 대응하는 정동 정도를 예를 들면 0 내지 100레벨까지의 강도로서 보존하고 있으며, 해당 강도를 대응하는 강도 증감 함수(113A 내지 113F)로부터 주어지는 강도 정보(S7OA 내지 S70F)에 근거하여 시시각각 변화시킨다.
이렇게 하여 감정 결정 기구부(110)는 이들 정동 유닛(112A 내지 112F)의 강도를 조합시키도록 하여 엔터테인먼트 로봇(1)의 그 때의 감정을 결정하여, 해당 결정 결과를 감정 상태 정보(S71)로서 동작 결정 기구부(111)에 출력한다.
따라서, 이 엔터테인먼트 로봇(1)에서는, 이 감정 모델부에 있어서의 각 강도 함수의 패러미터 설정 방법에 따라, 「화내기 쉽다」나 「온화하다」와 같은 성격을 갖게 할 수 있다.
그래서, 특징 설정부는 오퍼레이터에 의해 지정된 성격에 따라서 이들 각 강도 함수(113A 내지 113F)의 패러미터 값을 각각 각 성격마다 미리 정해져 있는 값에 설정함으로써, 엔터테인먼트 로봇(1)의 감정 및 행동 패턴을 지정된 감정 및 행동 패턴의 행동을 행하도록 설정하도록 이루어져 있다.
한편, 동작 결정 기구부(111)는 감정 결정 기구부(110)로부터 주어지는 감정 상태 정보 및 ID 비교부(1O4)로부터 주어지는 전달 정보(S61)에 근거하여 다음 동작을 결정한다. 이 경우, 동작 결정 기구부(111)는 다음 동작을 결정하는 수법으로서, 도 20에 도시하는 바와 같이, 상태의 노드(NODE0내지 NODEn)으로서 표현하고, 1개의 노드(NODE0)로부터 자기 또는 다른 어떤 노드(NODE0내지 NODEn)로 천이할지를 각 노드(NODE0내지 NODEn) 사이를 접속하는 ARC0내지 ARCn에 대해 각각 설정된 천이 확립(P0내지 Pn)에 근거하여 확률적으로 결정하는 확률 오토먼트라 불리는 행동 모델을 사용한다. 이 행동 모델은 미리 메모리(33)(도 2)에 격납되어 있는 것이다.
그리고, 동작 결정 기구부(111)는 ID 비교부(104)로부터 전달 정보(S61)가 주어졌을 때나, 현재 상태(노드(NODE0)로 옮기고나서 일정 시간이 경과했을 시 등에, 감정 상태 정보(S71)에 근거하여 얻어지는 그 때의 엔터테인먼트 로봇(1)의 감정 상태를 고려하면서 행동 모델을 사용하여 다음 상태(노드(NODE0내지 NODEn))를 결정하여, 해당 상태로 천이하기 위한 동작을 상술한 동작 결정 정보(S62)로서 동작 출력부에 송출한다.
따라서, 이 엔터테인먼트 로봇(1)에 있어서는, 동작 결정부(101)의 동작 결정 기구부(111)에 있어서 사용하는 행동 모델을 변경함으로써 행동 패턴을 변경할 수 있다. 그리고, 이 행동 모델은 가정 내의 각 입장 등의 군 중에서의 각 역할에 각각 대응시켜, 미리 메모리(33)(도 2)에 복수 종류 격납되어 있다.
그래서, 특징 설정부(1O0)는 오퍼레이터에 의해 그 엔터테인먼트 로봇(1) 군 중에서의 역할이 지정되었을 때에, 대응하는 행동 모델을 사용하도록 동작 결정 기구부(111)를 제어하고, 이로써 엔터테인먼트 로봇(1)에 해당 역할에 따른 패턴의 행동을 행하게 하도록 이루어져 있다.
이하, 이러한 CPU(32)에 의한 군 중에서의 역할에 따른 동작 결정 처리 순서에 대해서 도 18에 플로 챠트를 사용하여 설명한다. 스텝(SP90)으로부터 들어간 스텝(SP91)에 있어서, CPU(32)는 사용자에 의해 입력된 군 중에서의 역할과 감정 및 행동 패턴에 근거하여, 동작 결정부(101)에 있어서의 감정 상태 결정부(110)의 각 강도 증감 함수(113A 내지 113F)의 패러미터 값을 대응하는 값으로 설정함과 동시에, 동작 결정부(101)의 동작 결정 기구부(111)를 제어함으로써 대응하는 행동 모델을 사용하도록 설정한다.
스텝(SP92)에 있어서, CPU(32)는 텔레비젼 카메라(10)에 의해 촬상된 화상 신호(S1A)로부터 송신 정보를 검출하고, 스텝(SP93)으로 진행하여, 이 송신 정보를 송신자 ID, 수신자 ID 및 전달 정보로 분리한다. 그리고, 스텝(SP94)에 있어서, CPU(32)는 메모리(33)에 격납되어 있는 엔터테인먼트 로봇(1)의 식별 정보 일람에 근거하여, 수신자 ID에 자기가 포함되어 있는지의 여부를 판단하고, 그 결과, 수신자 ID에 자기가 포함되어 있다고 판단한 경우에는 스텝(SP95)으로 진행하여, 전달 정보를 해독한다.
스텝(SP96)에 있어서, CPU(32)는 전달 정보(S61)에 근거하여 상술한 바와 같이 하여 다음 동작을 결정하고, 스텝(SP97)으로 진행하여, 결정한 동작을 행한 후, 스텝(SP98)으로 옮겨 처리를 종료한다. 또한, CPU(32)는 스텝(SP94)에 있어서, 수신자 ID에 자기가 포함되어 있지 않다고 판단한 경우에는 스텝(SP98)으로 옮겨 처리를 종료한다.
(4) 동작 및 효과
이상의 구성에 있어서, CPU(32)는 입력부(3O)를 통하여 얻어지는 다른 엔터테인먼트 로봇(1)으로부터의 송신 정보가 자기를 향한 것인지의 여부를 판단하고, 그 결과, 자기를 향한 것이라 판단한 경우에는 해당 송신 정보에 근거하여 동작을 결정함으로써, 다른 엔터테인먼트 로봇(1)에 협조하여 동작하는 것이 가능해진다.
따라서, 복수의 엔터테인먼트 로봇(1)끼리가 각각 오퍼레이터의 지시에 의하지 않고 자율적으로 커뮤니케이션을 행하여 협조 동작함으로써, 예를 들면 축구 게임 등의 팀 플레이, 인간에게는 곤란한 장소나 상황에서의 작업, 가상적인 가족 관계와 같이, 각종 분야에 있어서의 군 로봇 협조가 실현된다.
이상의 구성에 의하면, 다른 엔터테인먼트 로봇(1)으로부터 보내져 오는 송신 정보에 근거하여 다음 동작을 결정함으로써, 다른 엔터테인먼트 로봇(1)에 협조하여 동작하는 엔터테인먼트 로봇(1)을 실현할 수 있으며, 이렇게 하여 해당 엔터테인먼트 로봇(1)을 사용하면 오퍼레이터의 지시에 의하지 않고 자율적으로 행동하는 로봇군을 구축할 수 있다.
(5) 다른 실시예
또한, 상술한 실시예에 있어서는, 특징 설정부(1O0)에 의해 복수의 엔터테인먼트 로봇(1) 사이에서 가족 관계를 구축한 경우에 대해서 서술했지만, 본 발명은 이에 한하지 않고, 동료 및 상대 엔터테인먼트 로봇(1)의 특징이나, 동료, 상대 및 모르는 엔터테인먼트 로봇(1)에 대한 행동 패턴을 설정하여, 자기와 다른 엔터테인먼트 로봇(1)과의 관계에 따른 동작을 행하게 함으로써, 인간 관계와 유사한 관계를 엔터테인먼트 로봇(1) 사이에서 구축하도록 해도 된다.
또, 상술한 실시예에 있어서는, 특징 설정부(1O0)에 의해 복수의 엔터테인먼트 로봇(1) 사이에서 가족 관계를 구축한 경우에 대해서 서술했지만, 본 발명은 이에 한하지 않고, 엔터테인먼트 로봇(1)의 성별이나, 성별에 따른 동작 패턴을 설정함으로써, 상대의 성별에 의해 자기 동작을 결정하거나, 구애 행동을 행하는 등의 이성 관계와 유사한 관계를 엔터테인먼트 로봇(1) 사이에서 구축하도록 해도 된다.
본 발명은 어뮤즈먼트 로봇이나 산업용 로봇에 이용할 수 있다.

Claims (9)

  1. 다른 로봇 장치와 서로 협조하여 동작하도록 이루어진 로봇 장치에 있어서,
    상기 다른 로봇 장치로부터 보내져 오는 송신 정보를 수신하여 입력하는 입력 수단과,
    상기 송신 정보로부터 송신 대상의 로봇 장치를 특정하는 식별 정보 및 상기 송신 대상의 로봇 장치에 전달하는 전달 정보를 추출하고, 상기 식별 정보를 상기 로봇 장치에 미리 할당되어 있는 식별 정보와 비교하여, 그 비교 결과 및 상기 전달 정보에 근거하여 동작을 결정하는 동작 결정 수단과,
    상기 동작 결정 수단에 의해 결정된 동작에 따라서 구동하는 구동 수단을 구비하는 것을 특징으로 하는 로봇 장치.
  2. 제 1 항에 있어서,
    상기 전달 정보는,
    상기 다른 로봇 장치의 현재 위치를 나타내는 위치 정보로 이루어지는 것을 특징으로 하는 로봇 장치.
  3. 제 1 항에 있어서,
    상기 전달 정보는,
    상기 다른 로봇 장치 주위에 존재하는 로봇 장치 중, 상기 다른 로봇 장치와 동일 군에 속하는 상기 로봇 장치의 대수 및 상기 다른 로봇 장치와 다른 군에 속하는 상기 로봇 장치의 대수를 나타내는 대수 정보로 이루어지는 것을 특징으로 하는 로봇 장치.
  4. 제 1 항에 있어서,
    상기 동작 결정 수단은,
    상기 송신 정보로부터 상기 송신 대상의 로봇 장치를 특정하는 식별 정보 및 상기 다른 로봇 장치를 특정하는 식별 정보 및 상기 송신 대상의 로봇 장치에 전달하는 전달 정보를 추출하고, 상기 송신 대상의 로봇 장치를 특정하는 식별 정보를 상기 로봇 장치에 미리 할당되어 있는 식별 정보와 비교하여, 그 비교 결과 및 상기 다른 로봇 장치를 특정하는 식별 정보 및 상기 전달 정보에 근거하여 동작을 결정하는 것을 특징으로 하는 로봇 장치.
  5. 제 1 항에 있어서,
    상기 동작 결정 수단은,
    상기 송신 정보로부터 상기 다른 로봇 장치를 특정하는 식별 정보 및 상기 송신 대상인 로봇 장치를 특정하는 식별 정보 및 상기 송신 대상인 로봇 장치에 전달하는 전달 정보를 추출하고, 상기 다른 로봇 장치를 특정하는 식별 정보가 복수의 로봇 장치 군 중에서 미리 선정되어 있는 로봇 장치의 식별 정보와 일치할 경우에는, 해당 미리 선정되어 있는 로봇 장치로부터 보내져 오는 전달 정보를 해당 로봇 장치 이외의 로봇 장치로부터 보내져 오는 전달 정보에 우선 접수하여 동작을 결정하는 것을 특징으로 하는 로봇 장치.
  6. 다른 로봇 장치와 서로 협조하여 동작하도록 이루어진 로봇 장치에 있어서,
    상기 다른 로봇 장치로부터 보내져 오는 송신 정보를 수신하여 입력하는 입력 수단과,
    상기 송신 정보에 근거하여 다음 동작을 결정해 두고, 상기 입력 수단을 통하여 타이밍 신호가 입력되면, 해당 타이밍 신호가 입력되는 것에 동기하여 구동 신호를 생성하여 출력하는 동작 결정 수단과,
    상기 동작 결정 수단으로부터 상기 구동 신호가 출력되는 타이밍으로 상기 구동 신호에 근거하여 구동하는 구동 수단을 구비하는 것을 특징으로 하는 로봇 장치.
  7. 제 6 항에 있어서,
    상기 동작 결정 수단은,
    상기 송신 정보로 정의되어 있는 상기 타이밍 신호의 종류에 근거하여 상기입력 수단을 통하여 입력되는 신호가 타이밍 신호인지의 여부를 판별하는 것을 특징으로 하는 로봇 장치.
  8. 다른 로봇 장치와 서로 협조하여 동작하도록 이루어진 로봇 장치에 있어서,
    상기 다른 로봇 장치로부터 보내져 오는 송신 정보를 수신하여 입력하는 입력 수단과,
    상기 다른 로봇 장치에 대한 상기 로봇 장치의 역할 및 감정 행동 패턴을 미리 설정해 두고, 상기 로봇 장치의 역할 및 상기 송신 정보에 근거하여 동작을 결정하는 동작 결정 수단과,
    상기 동작 결정 수단에 의해 결정한 동작에 따라서 구동하는 구동 수단을 구비하는 것을 특징으로 하는 로봇 장치.
  9. 다른 로봇 장치와 서로 협조하여 동작하도록 이루어진 로봇 장치에 있어서,
    상기 다른 로봇 장치로부터 보내져 오는 송신 정보를 수신하여 입력하는 입력 수단과,
    상기 다른 로봇 장치에 대한 상기 로봇 장치의 역할 및 감정 행동 패턴을 미리 설정해 두고, 상기 로봇 장치의 감정 행동 패턴 및 상기 송신 정보에 근거하여 동작을 결정하는 동작 결정 수단과,
    상기 동작 결정 수단에 의해 결정한 동작에 따라서 구동하는 구동 수단을 구비하는 것을 특징으로 하는 로봇 장치.
KR1020007013228A 1999-03-24 2000-03-24 로봇 장치 KR20010043800A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP8013699 1999-03-24
JP99-80136 1999-03-24
PCT/JP2000/001822 WO2000056506A1 (fr) 1999-03-24 2000-03-24 Robot

Publications (1)

Publication Number Publication Date
KR20010043800A true KR20010043800A (ko) 2001-05-25

Family

ID=13709847

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007013228A KR20010043800A (ko) 1999-03-24 2000-03-24 로봇 장치

Country Status (5)

Country Link
US (1) US6385506B1 (ko)
EP (1) EP1122037A1 (ko)
KR (1) KR20010043800A (ko)
CN (1) CN1126647C (ko)
WO (1) WO2000056506A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100458079B1 (ko) * 2001-11-23 2004-11-18 (주)로보티즈 감정 표현 로보트
KR100607467B1 (ko) * 2003-11-05 2006-08-01 혼다 기켄 고교 가부시키가이샤 프레임 그래버
KR102364180B1 (ko) * 2020-11-02 2022-02-16 경상국립대학교산학협력단 스마트 rf 센서를 이용한 공연 시스템

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1151016C (zh) * 1999-11-30 2004-05-26 索尼公司 机器人设备及其控制方法,和机器人性格判别方法
US20050037844A1 (en) * 2002-10-30 2005-02-17 Nike, Inc. Sigils for use with apparel
TW546874B (en) * 2000-10-11 2003-08-11 Sony Corp Robot apparatus and its control method with a function of preventing an image from being stolen
JP4524524B2 (ja) * 2000-10-11 2010-08-18 ソニー株式会社 ロボット装置及びその制御方法
JP4401564B2 (ja) * 2000-12-12 2010-01-20 本田技研工業株式会社 自律ロボット、集中制御装置、自律ロボットの行動計画策定方法、自律ロボットの集中制御方法、自律ロボットの行動計画策定プログラムを記録した記録媒体、自律ロボットの集中制御プログラムを記録した記録媒体
KR20020061961A (ko) * 2001-01-19 2002-07-25 사성동 지능형 애완로봇
JP2002307338A (ja) * 2001-04-18 2002-10-23 Nippon Telegr & Teleph Corp <Ntt> 動作型存在情報伝達装置およびその制御方法
KR20050063543A (ko) * 2003-12-22 2005-06-28 엘지전자 주식회사 이동로봇의 위치확인장치 및 방법
KR100866212B1 (ko) * 2007-02-08 2008-10-30 삼성전자주식회사 유전자 로봇 플랫폼 및 유전자 로봇 행동 발현 방법
CN101359225B (zh) * 2008-08-29 2010-10-06 北京大学 一种多水下机器人协作控制系统
JP2012096307A (ja) * 2010-10-29 2012-05-24 Yaskawa Electric Corp ロボット制御装置、ロボット制御方法およびロボットシステム
JP5578220B2 (ja) * 2012-10-22 2014-08-27 株式会社安川電機 ロボットシステム
CN105377385B (zh) * 2013-03-15 2019-02-22 国际海洋工程公司 无轨车辆和用于无轨车辆同步控制的系统
CN103587869B (zh) * 2013-11-05 2015-07-08 无锡普智联科高新技术有限公司 基于总线方式的多机器人物流仓储系统及其控制方法
CN104468685B (zh) * 2014-09-09 2018-04-17 杭州德宝威智能科技有限公司 机器人数据共享方法和系统
CN107076557A (zh) * 2016-06-07 2017-08-18 深圳市大疆创新科技有限公司 可移动机器人识别定位方法、装置、系统及可移动机器人
CN107717980A (zh) * 2016-08-10 2018-02-23 向忠宏 机器人特征探测器
CN106843031A (zh) * 2016-12-15 2017-06-13 北京光年无限科技有限公司 用于智能机器人的协同处理方法及系统
JP2018176386A (ja) * 2017-04-19 2018-11-15 富士ゼロックス株式会社 情報処理装置及びプログラム
CN108089154B (zh) * 2017-11-29 2021-06-11 西北工业大学 分布式声源探测方法及基于该方法的声音探测机器人
CN113001545B (zh) * 2021-03-01 2022-04-29 北方工业大学 一种机器人控制方法、控制装置及机器人

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5419372A (en) * 1977-07-14 1979-02-14 Nec Corp Production of semiconductor memory
US5148591A (en) * 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
JPS5856785A (ja) * 1981-09-30 1983-04-04 株式会社三協精機製作所 工業用ロボツトの動作制御装置
JPH0628004B2 (ja) 1985-09-05 1994-04-13 株式会社日立製作所 複数ロボットの制御方法
JPS6314201A (ja) 1986-07-04 1988-01-21 Hitachi Ltd インタ−ロツク条件判定回路
US5179329A (en) * 1989-04-25 1993-01-12 Shinko Electric Co., Ltd. Travel control method, travel control device, and mobile robot for mobile robot systems
FI932943A (fi) * 1993-06-24 1994-12-25 Irri Oy Automaattinen työkalunvaihto
US5786193A (en) * 1995-01-11 1998-07-28 Human Genome Sciences, Inc. Human geranylgeranyl pyrophosphate synthethase
US5959672A (en) * 1995-09-29 1999-09-28 Nippondenso Co., Ltd. Picture signal encoding system, picture signal decoding system and picture recognition system
JPH1058358A (ja) 1996-08-26 1998-03-03 Fujitsu Ltd 無人搬送装置
JPH10100045A (ja) 1996-09-30 1998-04-21 Toyoda Mach Works Ltd 多工程自動工作物処理装置の制御システム
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
AU8573198A (en) * 1997-07-21 1999-02-10 Kristin Ann Farry Method of evolving classifier programs for signal processing and control

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100458079B1 (ko) * 2001-11-23 2004-11-18 (주)로보티즈 감정 표현 로보트
KR100607467B1 (ko) * 2003-11-05 2006-08-01 혼다 기켄 고교 가부시키가이샤 프레임 그래버
KR102364180B1 (ko) * 2020-11-02 2022-02-16 경상국립대학교산학협력단 스마트 rf 센서를 이용한 공연 시스템

Also Published As

Publication number Publication date
CN1126647C (zh) 2003-11-05
EP1122037A1 (en) 2001-08-08
CN1297394A (zh) 2001-05-30
WO2000056506A1 (fr) 2000-09-28
US6385506B1 (en) 2002-05-07

Similar Documents

Publication Publication Date Title
KR20010043800A (ko) 로봇 장치
US20230380383A1 (en) Animal wearable devices, systems, and methods
US9592603B2 (en) Reconfigurable robotic system
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
CN107596698B (zh) 一种智能仿生机器狗的控制系统及实现方法
US6816753B2 (en) Robot control system and robot control method
JP2004298977A (ja) 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
JP2004216552A (ja) 移動ロボットとその自律走行システム及び方法
US20020068993A1 (en) Robot apparatus, body unit and coupling unit
US20190193266A1 (en) Driving device
EP3450118A1 (en) Robot
CN116088326A (zh) 用于宠物控制家居设备的宠物机器人控制方法
JP4281286B2 (ja) ロボット装置及びその制御方法
JP2002331482A (ja) ロボットシステム、ロボット装置及びその制御方法
JP4449372B2 (ja) ロボット装置及びその行動制御方法
JP6943674B2 (ja) 移動体、制御方法及び制御プログラム
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003271196A (ja) ロボット装置及びその制御方法
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
US11833441B2 (en) Robot
US7705552B2 (en) Robotic system
KR101910591B1 (ko) 반려동물용 목줄 장치 및 이를 포함하는 시스템
US10757439B2 (en) Arithmetic unit, transmission program, and transmission method
JP2020508921A (ja) 遠隔操作型無人潜水機及びその制御方法
US20180213159A1 (en) Intelligent camera for robots

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application