JP2002361576A - Service providing system to work inside three-dimensional space - Google Patents

Service providing system to work inside three-dimensional space

Info

Publication number
JP2002361576A
JP2002361576A JP2001169793A JP2001169793A JP2002361576A JP 2002361576 A JP2002361576 A JP 2002361576A JP 2001169793 A JP2001169793 A JP 2001169793A JP 2001169793 A JP2001169793 A JP 2001169793A JP 2002361576 A JP2002361576 A JP 2002361576A
Authority
JP
Japan
Prior art keywords
dimensional space
sensor
light
space
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001169793A
Other languages
Japanese (ja)
Inventor
Yujiro Naruse
雄二郎 成瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2001169793A priority Critical patent/JP2002361576A/en
Publication of JP2002361576A publication Critical patent/JP2002361576A/en
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a service providing system to provide a service including a higher grade of information and/or operations to any person engaged in the task in any facility of different sort, patients in a ward in hospital, etc. SOLUTION: The service providing system to work in a three-dimensional space has a wearable system 11 put on the body of a person 10 and having a function to sense the vital organism information and voices of the person and a three-dimensional space robot system 12 including a part formed movably to any place in the three-dimensional space and having a function to sense the face information of the person 10 and the information of inside the space, wherein the robot system 12 conducts communications with the wearable system 11 via a communications system 13, and thereby the person's 10 will and understanding are grapsed, and the service including information and/or operations required of the person concerned is provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば各種工場、
オフィス及び病院などの施設の3次元空間内で作業者、
職員、患者などの人間に対して種々のサービスを行う3
次元空間内サービス提供システムに関する。
The present invention relates to, for example, various factories,
Workers in the three-dimensional space of facilities such as offices and hospitals,
Provide various services to humans such as staff and patients 3
The present invention relates to a service providing system in a three-dimensional space.

【0002】[0002]

【従来の技術】従来、人間の意図理解を行うことは、ウ
ェアラブルコンピュータや知能ロボットなどを用いるこ
とにより、一定のレベルまでは可能である。例えば、ウ
ェアラブルコンピュータは音声認識、表情認識といった
認知技術によって人間の意図を予測することができる。
知能ロボットは、同様に音声認識及び表情認識によって
人間の意図を探り、その結果に基づいて人間の作業をサ
ポートする支援作業を行うことができる。
2. Description of the Related Art Conventionally, it is possible to understand human intentions to a certain level by using a wearable computer or an intelligent robot. For example, a wearable computer can predict human intention by cognitive techniques such as voice recognition and facial expression recognition.
Similarly, the intelligent robot can search for a human intention by voice recognition and facial expression recognition, and can perform a support operation supporting the human operation based on the result.

【0003】[0003]

【発明が解決しようとする課題】上述のように従来で
は、ウェアラブルコンピュータ、知能ロボットがそれぞ
れ個別に人間の意図理解を行うことは技術的に可能とな
っている。しかし、ウェアラブルコンピュータと知能ロ
ボットの密接な連携動作や、意図理解後の行動予測に基
づく作業、あるいは人間に対する身体的救助活動といっ
たより高度の処理を行う仕組みは未発達である。
As described above, conventionally, it is technically possible for a wearable computer and an intelligent robot to individually understand human intentions. However, mechanisms for performing more advanced processing such as close cooperation between a wearable computer and an intelligent robot, work based on behavior prediction after understanding intentions, or physical rescue activities for humans have not been developed.

【0004】本発明は、種々の施設内で業務に従事する
人や病室内の患者等に対して、より高度の情報や作業な
どのサービスを提供可能な3次元空間内サービス提供シ
ステムを提供することを目的とする。
[0004] The present invention provides a three-dimensional space service providing system capable of providing services such as more advanced information and work to people working in various facilities and patients in a hospital room. The purpose is to:

【0005】[0005]

【課題を解決するための手段】上記の課題を解決するた
め、本発明に係る3次元空間内情報提供システムは、人
間の身体に装着されたウェアラブルシステムと、3次元
空間の任意の場所に移動可能に構成された部分を含む3
次元空間ロボットシステムにより構成される。
In order to solve the above-mentioned problems, a three-dimensional space information providing system according to the present invention includes a wearable system mounted on a human body and moving to an arbitrary place in the three-dimensional space. 3 including parts that can be configured
It is composed of a three-dimensional space robot system.

【0006】ウェアラブルシステムは、少なくとも人間
の生体情報及び音声を検出する第1センサ群と、該第1
センサ群からの検出信号を3次元空間ロボットシステム
に送信し、該3次元空間ロボットシステムから送信され
てきた信号を受信する第1送受信装置、及び該第1送受
信装置が送受信する信号を処理する第1コンピュータを
含んで構成される。
[0006] The wearable system includes a first sensor group for detecting at least human biological information and voice, and the first sensor group.
A first transmission / reception device that transmits a detection signal from the sensor group to the three-dimensional space robot system and receives a signal transmitted from the three-dimensional space robot system, and a first transmission / reception device that processes a signal transmitted / received by the first transmission / reception device It is configured to include one computer.

【0007】一方、3次元空間ロボットシステムは、少
なくとも人間の画像情報及び3次元空間内部の情報を検
出する第2センサ群と、該第2センサ群からの検出信号
をウェアラブルシステムに送信し、該ウェアラブルシス
テムから送信されてきた信号を受信する第2送受信装
置、及び該第2送受信装置が送受信する信号を処理する
第2コンピュータを含んで構成される。そして、3次元
空間ロボットシステムがウェアラブルシステムと通信を
行うことにより、人間の意図を理解して該人間の求める
情報及び作業の少なくとも一方を含むサービスを提供す
る。
On the other hand, the three-dimensional space robot system transmits at least a second sensor group for detecting image information of a person and information in the three-dimensional space, and a detection signal from the second sensor group to the wearable system. The second transmission / reception device receives a signal transmitted from the wearable system, and a second computer processes a signal transmitted / received by the second transmission / reception device. Then, the three-dimensional robot system communicates with the wearable system to provide a service including at least one of information and work required by the person by understanding the intention of the person.

【0008】ウェアラブルシステムは、第1センサ群の
一部として人体の腕、手首、掌及び手指の少なくとも一
つの動きと力の入れ具合を求めるための腱センサを有
し、第1コンピュータは該腱センサの出力信号から演算
処理によって腕、手首、掌及び手指の少なくとも一つの
動きと力の入れ具合を求め、第1送受信装置は該動きと
力の入れ具合の情報を3次元空間ロボットシステムへ送
信する。
[0008] The wearable system has a tendon sensor as a part of the first sensor group for determining at least one of movement, force, and strength of the arm, wrist, palm, and finger of the human body. At least one of the arm, wrist, palm and finger is determined by the arithmetic processing from the output signal of the sensor and the degree of force, and the first transmitting / receiving device transmits the information of the movement and the degree of force to the three-dimensional robot system. I do.

【0009】また、この腱センサは人体の腕、手首、掌
及び手指の少なくとも一つである被検出部位の表面上
に、該被検出部位の内部組織に向けて光を照射するよう
に配置された発光波長スペクトルが600nm〜120
0nmの範囲内にある少なくとも一つの発光素子と、発
光素子から発光され、かつ内部組織で相互作用した後に
被検出部位の表面から出射した光を受光して該受光した
光に応じた出力信号を該腱センサの出力信号として発生
するように被検出部位の表面上に配置される少なくとも
一つの受光素子から構成される。
The tendon sensor is arranged on a surface of a detection site, which is at least one of an arm, a wrist, a palm, and a finger of a human body, so as to emit light toward an internal tissue of the detection site. Emission wavelength spectrum from 600 nm to 120
At least one light emitting element within a range of 0 nm, and light emitted from the light emitting element and emitted from the surface of the detection site after interacting with the internal tissue, and outputting an output signal corresponding to the received light. It is composed of at least one light receiving element arranged on the surface of the detected part so as to generate as an output signal of the tendon sensor.

【0010】本発明における3次元空間ロボットシステ
ムは、一つの態様によると3次元空間内を浮遊して移動
可能に設けられた空間移動システムと、3次元空間内の
地上を走行可能に設けられた地上走行システムを有し、
地上走行システムが人間の意図理解を把握してサービス
を提供する処理を自身であるいは空間移動システムを介
して行う。空間移動システムは、例えば気球と該気球に
推進力を与える推進装置とから構成される少なくとも一
つの空間移動ロボットを有し、気球に第2センサ群と第
2送受信装置及び第2コンピュータを搭載する。
According to one aspect, the three-dimensional space robot system according to the present invention is provided with a space movement system provided so as to be able to float in a three-dimensional space and to be able to travel on the ground in the three-dimensional space. Has a taxi system,
The taxi system performs a process of providing a service by grasping the understanding of human intentions by itself or through a space movement system. The space movement system has at least one space movement robot including, for example, a balloon and a propulsion device that applies a propulsion force to the balloon, and has a second sensor group, a second transmission / reception device, and a second computer mounted on the balloon. .

【0011】さらに、本発明によると人体の腕、手首、
掌及び手指の少なくとも一つである被検出部位の表面上
に、該被検出部位の内部組織に向けて光を照射するよう
に配置された発光波長スペクトルが600nm〜120
0nmの範囲内にある少なくとも一つの発光素子と、発
光素子から発光され、かつ内部組織で相互作用した後に
被検出部位の表面から出射した光を受光して該受光した
光に応じた出力信号を発生するように被検出部位の表面
上に配置される少なくとも一つの受光素子と、受光素子
の出力信号から演算処理によって人体の腕、手首、掌及
び手指の少なくとも一つの動きと力の入れ具合を求める
手段とを具備する新規なセンサ装置が提供される。
Further, according to the present invention, the arm, wrist,
An emission wavelength spectrum arranged to irradiate light toward an internal tissue of the detection site on a surface of the detection site which is at least one of a palm and a finger has a wavelength of 600 nm to 120 nm.
At least one light emitting element within a range of 0 nm, and light emitted from the light emitting element and emitted from the surface of the detection site after interacting with the internal tissue, and outputting an output signal corresponding to the received light. At least one light receiving element arranged on the surface of the detected part to be generated, and at least one movement and force of the human body arm, wrist, palm and finger by arithmetic processing from an output signal of the light receiving element. And a means for determining.

【0012】[0012]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1に、本発明の一実施形態に係
る3次元空間内サービス提供システムの概念図を示す。
この3次元空間内サービス提供システムは、例えば工場
内で作業に従事する作業者、オフィス内で働く職員、病
院内の患者などの人間10の身体に装着されたウェアラ
ブルシステム11と、3次元空間ロボットシステム1
2、及びウェアラブルシステム11と3次元空間ロボッ
トシステム12との間の通信を行う無線または有線の、
あるいは無線と有線を併用した通信システム13から構
成される。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a conceptual diagram of a service providing system in a three-dimensional space according to an embodiment of the present invention.
The three-dimensional space service providing system includes, for example, a wearable system 11 mounted on a human body 10 such as a worker working in a factory, a staff working in an office, a patient in a hospital, and a three-dimensional space robot. System 1
2, and wireless or wired communication between the wearable system 11 and the three-dimensional space robot system 12,
Alternatively, the communication system 13 includes a communication system 13 using both wireless and wired communication.

【0013】ウェアラブルシステム11は、身体に装着
される物体(例えば、眼鏡、帽子、イヤリング、ネック
レス、ネクタイ、ペンダント、バッチ、ネームプレー
ト、腕時計、上着、ベルト、靴、靴下など)に内蔵され
たセンサ群、コンピュータ、ディスプレイ、及び通信シ
ステム13の一部を構成する送受信装置を含んで構成さ
れ、これらの各構成要素が相互に自動認識し(wear and
play mode)、複数のコマンドを定義して、3次元空間
ロボットシステム12との通信による会話を円滑に進め
ることがのできる知能的なウェアラブルシステムであ
る。
The wearable system 11 is built in an object (eg, glasses, hats, earrings, necklaces, neckties, ties, pendants, batches, name plates, watches, jackets, belts, shoes, socks, etc.) to be worn on the body. It is configured to include a sensor group, a computer, a display, and a transmitting / receiving device forming a part of the communication system 13, and these components automatically recognize each other (wear and
play mode), which is an intelligent wearable system that can define a plurality of commands and smoothly proceed with a conversation with the three-dimensional space robot system 12.

【0014】3次元空間ロボットシステム12は、人間
10が居る3次元空間の任意の場所に移動する部分を含
み、人間10に対して種々の情報の提供や作業の提供と
いったサービスの提供を行うロボットシステムであり、
人間10の身体に関する情報と周囲環境をモニタリング
するセンサ群、コンピュータ、及び通信システム13の
他の一部を構成する送受信装置を搭載している。
The three-dimensional space robot system 12 includes a part which moves to an arbitrary place in the three-dimensional space where the human 10 is located, and provides a service such as provision of various information and work to the human 10. System
A sensor group for monitoring information on the body of the human 10 and the surrounding environment, a computer, and a transmitting / receiving device constituting another part of the communication system 13 are mounted.

【0015】ウェアラブルシステム11と3次元空間ロ
ボットシステム12とは、通信システム13により無線
あるいは有線で通信を行いつつ、協調・連携して動作す
る。従って、ウェアラブルシステム11や3次元空間ロ
ボット12に組み込まれている各種のセンサ群からの信
号に基づいて、人間10が置かれている状況を踏まえて
人間10の意図理解をコンピュータが行い、その意図理
解に基づいて人間10の欲する情報や作業の提供をコン
ピュータや3次元ロボットシステム12が遂行すること
ができる。
The wearable system 11 and the three-dimensional space robot system 12 operate cooperatively and cooperatively while communicating wirelessly or by wire using the communication system 13. Therefore, based on signals from various sensors incorporated in the wearable system 11 and the three-dimensional space robot 12, the computer performs understanding of the intention of the human 10 based on the situation where the human 10 is placed, and The computer or the three-dimensional robot system 12 can provide information and tasks desired by the human 10 based on the understanding.

【0016】図2は、図1に概念を示した本実施形態に
係る3次元空間内サービス提供システムのシステム構成
の一例を示している。3次元空間ロボットシステム12
は、空間移動システム21と地上走行システム22及び
基地システム23から構成される。
FIG. 2 shows an example of a system configuration of a service providing system in a three-dimensional space according to the present embodiment, the concept of which is shown in FIG. 3D space robot system 12
Is composed of a space movement system 21, a taxiing system 22, and a base system 23.

【0017】空間移動システム21は、例えば気球の浮
力と、気体の噴出を利用した推進装置により3次元空間
内を移動するロボットシステムであり、人間10の顔を
含む3次元空間内の画像情報や環境情報を取得して、地
上走行システム22に送信する機能を有する。
The space movement system 21 is a robot system that moves in a three-dimensional space by a propulsion device using, for example, the buoyancy of a balloon and the ejection of gas. It has a function of acquiring environment information and transmitting it to the taxi system 22.

【0018】地上走行システム22は、車輪を使用して
地上走行を行うロボットシステムであり、本実施形態で
は地上走行システム22が後述するように情報収集解析
センタとしての役割を果たし、また人間10に対して、
それ自身が直接にサービスを提供したり、あるいは空間
移動システム12を介してサービスを提供する。さら
に、地上走行システム22は空間移動システム21に対
する移動指令などのコマンドを発行する。
The taxiing system 22 is a robot system that performs taxiing using wheels. In the present embodiment, the taxiing system 22 plays a role as an information collection and analysis center as described later. for,
It itself provides services directly or via the space mobility system 12. Further, the taxiing system 22 issues a command such as a movement command to the space movement system 21.

【0019】基地システム23は、地上、壁面及び天井
の少なくとも一つに設置されるロボットシステムであ
り、主として空間移動システム21とドッキングして空
間移動システム21への充電やガスの補給を行う。ま
た、基地システム23は壁面や天井面から定点観測や作
業を行うことも可能である。
The base system 23 is a robot system installed on at least one of the ground, the wall surface and the ceiling, and mainly docks with the space movement system 21 to charge the space movement system 21 and supply gas. The base system 23 can also perform fixed point observation and work from a wall surface or a ceiling surface.

【0020】これら3次元空間ロボットシステム12を
構成する各ロボットシステム21,22,23は、通信
システム13によりウェアラブルシステム11との通信
を行うほか、相互間でも通信を行うことができる。通信
システム13の通信方式は無線でも有線でもよく、両者
を併用した方式でもよい。
Each of the robot systems 21, 22, and 23 constituting the three-dimensional space robot system 12 can communicate with the wearable system 11 by the communication system 13 and can also communicate with each other. The communication system of the communication system 13 may be wireless or wired, or may be a system using both of them.

【0021】図3には、ウェアラブルシステム11のシ
ステム構成を示す。ウェアラブルシステム11に備えら
れるセンサ群としては、まず人間10の健康管理を司る
センサである温度センサ(体温計)101、血圧センサ
102、心拍数センサ103及び脳波センサ104が設
けられる。次に、MV(Micro Vibration)センサ105
は人体の体表面微細振動を検出するセンサであり、人間
10の心理状態を把握するために用いられる。腱センサ
106は、後に詳述するように人体の手首の屈筋などの
腱の状態を検出するセンサであり、人間10の手首の動
き(ジェスチャー)や力の入れ具合を検知するために用
いられる。これらのセンサ101〜106が人間10に
関して検出する情報を総称して生体情報と呼ぶものとす
る。マイクロフォン(音響センサ)107は、人間10
が音声によりサービス内容の要求などのコマンドを入力
するために設けられている。
FIG. 3 shows a system configuration of the wearable system 11. As a sensor group provided in the wearable system 11, first, a temperature sensor (a thermometer) 101, a blood pressure sensor 102, a heart rate sensor 103, and an electroencephalogram sensor 104, which are sensors for managing the health of the human 10, are provided. Next, an MV (Micro Vibration) sensor 105
Is a sensor that detects minute vibrations of the human body surface, and is used to grasp the mental state of the human 10. The tendon sensor 106 is a sensor that detects a state of a tendon such as a flexor muscle of a wrist of a human body, as will be described in detail later, and is used to detect a movement (gesture) of the wrist of the human 10 and a degree of force. The information detected by the sensors 101 to 106 regarding the human 10 is collectively referred to as biological information. The microphone (acoustic sensor) 107 is
Is provided for inputting a command such as a request for service content by voice.

【0022】これらの各センサ101〜107の出力信
号は、増幅器及びアナログ信号からディジタル信号への
変換を行うA/D変換器を含むセンサインタフェース1
08を介して、CPUとメモリ(RAM/ROM)を含
むコンピュータ109に取り込まれる。
The output signals of these sensors 101 to 107 are supplied to a sensor interface 1 including an amplifier and an A / D converter for converting an analog signal to a digital signal.
08, the data is taken into a computer 109 including a CPU and a memory (RAM / ROM).

【0023】コンピュータ109には、人間10がコン
ピュータ109にコマンドを入力するためのキーボード
のような入力装置110と、送受信装置111、ディス
プレイ113及びスピーカ114が接続される。ディス
プレイ113は、例えば人間10の頭部に装着されるヘ
ッドマウントディスプレイであり、スピーカ114は人
間10の耳に装着されるヘッドフォンが用いられる。
The computer 109 is connected with an input device 110 such as a keyboard for the human 10 to input commands to the computer 109, a transmitting / receiving device 111, a display 113 and a speaker 114. The display 113 is, for example, a head-mounted display mounted on the head of the human 10, and the speaker 114 is a headphone mounted on the ear of the human 10.

【0024】送受信装置111は、アンテナ112を介
して例えばBluetooth(ブルートゥース)規格に基づく
無線通信をウェアラブルシステム11と3次元空間ロボ
ットシステム12の空間移動システム21及び基地シス
テム23との間で行う装置であり、符号化/復号化器、
変/復調器及び増幅器を含んで構成される。
The transmission / reception device 111 is a device that performs wireless communication based on, for example, the Bluetooth (Bluetooth) standard between the wearable system 11 and the space movement system 21 and the base system 23 of the three-dimensional space robot system 12 via the antenna 112. Yes, encoder / decoder,
It comprises a modulator / demodulator and an amplifier.

【0025】例えば、センサインタフェース108を介
してコンピュータ109に取り込まれたセンサ群101
〜107からの出力信号や、入力装置110からのコマ
ンドは、コンピュータ109による制御の下で送受信装
置111からアンテナ112を介して3次元空間ロボッ
トシステム12のうちの地上走行システム22に直接送
信されるか、あるいは空間移動システム21を経由して
地上走行システム22に送信される。
For example, the sensor group 101 loaded into the computer 109 via the sensor interface 108
Signals output from the input device 110 and commands from the input device 110 are transmitted directly from the transmitting / receiving device 111 to the ground traveling system 22 of the three-dimensional space robot system 12 via the antenna 112 under the control of the computer 109. Alternatively, it is transmitted to the taxiing system 22 via the space movement system 21.

【0026】また、3次元空間ロボットシステム12の
うちの空間移動システム21や地上走行システム22か
らウェアラブルシステム11に送信されてきた信号は、
アンテナ112を介して送受信装置111で受信され、
コンピュータ109に取り込まれた後、ディスプレイ1
13やスピーカ114に出力される。
The signals transmitted to the wearable system 11 from the space movement system 21 and the ground traveling system 22 of the three-dimensional space robot system 12 are as follows:
Received by the transmitting / receiving device 111 via the antenna 112,
After being loaded into the computer 109, the display 1
13 and the speaker 114.

【0027】センサ101〜107、センサインタフェ
ース108、コンピュータ109、入力装置110、送
受信装置111、ディスプレイ113及びスピーカ11
4への電源供給は、2次電池115によって行われる。
Sensors 101 to 107, sensor interface 108, computer 109, input device 110, transmission / reception device 111, display 113, and speaker 11
4 is supplied by a secondary battery 115.

【0028】上記構成において、センサインタフェース
108、コンピュータ109、入力装置110及び送受
信装置111については、人間10が履く靴下に実装し
てもよい。例えば、靴下の足の裏の指に対応する部分に
入力装置110を構成する小型・薄型キーボード、踵骨
隆起に対応する部分に2次電池115(圧力充電型2次
電池)、踵骨隆起と中足骨頭の間にセンサインタフェー
ス108とコンピュータ109及び送受信装置111を
含む集積回路により構成される電子回路モジュールをそ
れぞれ実装することができる。
In the above configuration, the sensor interface 108, the computer 109, the input device 110, and the transmission / reception device 111 may be mounted on socks worn by the person 10. For example, a small / thin keyboard that constitutes the input device 110 at a portion corresponding to the sole of the sole of the sock, a secondary battery 115 (pressure rechargeable secondary battery) at a portion corresponding to the heel ridge, and a heel ridge. An electronic circuit module including an integrated circuit including the sensor interface 108, the computer 109, and the transmitting / receiving device 111 can be mounted between the metatarsal heads.

【0029】図4は、本実施形態に係る3次元空間内サ
ービス提供システムの実空間でのより具体的な構成を示
している。地上(床)31A、壁面31B及び天井31
Cで形成される3次元空間内に、図2中に示した空間移
動システム21として気球を利用して3次元空間内を自
由自在に移動する複数(図の例では3つ)の空間移動ロ
ボット21A,21B,21Cが設けられている。地上
走行システム22は、車輪313によって地上31Aを
走行するロボットである。また、図2中に示した基地シ
ステム23として、3つの地上基地システム23A、壁
面基地システム23B及び天井基地システム23Cが設
けられている。以下、図4の各部について詳細に説明す
る。
FIG. 4 shows a more specific configuration in a real space of the system for providing services in a three-dimensional space according to the present embodiment. Ground (floor) 31A, wall 31B and ceiling 31
A plurality (three in the example in the figure) of space-moving robots freely moving in a three-dimensional space using a balloon as a space movement system 21 shown in FIG. 2 in a three-dimensional space formed by C 21A, 21B and 21C are provided. The ground traveling system 22 is a robot that travels on the ground 31A by the wheels 313. Further, as the base system 23 shown in FIG. 2, three ground base systems 23A, a wall base system 23B, and a ceiling base system 23C are provided. Hereinafter, each part of FIG. 4 will be described in detail.

【0030】まず、図5〜図7を用いて空間移動システ
ム21の具体的な構成例について述べる。ここでは、図
4において天井付近を移動している空間移動ロボット2
1Cについて説明するが、他の空間移動ロボット21
A,21Bについても同様の構成である。
First, a specific configuration example of the space movement system 21 will be described with reference to FIGS. Here, the spatial mobile robot 2 moving near the ceiling in FIG.
1C will be described.
A and 21B have the same configuration.

【0031】図5において、断面楕円状の気球200は
空気よりも軽い元素の気体、例えばHeガスあるいは水
素ガスなどが封入されている。この気球200の下部に
フード201が設けられ、このフード201内に図6に
も示されるように、小型軽量のモータ202と、モータ
202によって駆動される推進用の主プロペラ203
と、アクチュエータ204及びアクチュエータ204に
よって駆動される方向蛇205が設けられている。ま
た、気球200の推進方向の前後には図示しないモータ
により駆動される副プロペラ206が設けられ、さらに
気球200の上面には軽量の車輪207が取り付けられ
ている。
In FIG. 5, a balloon 200 having an elliptical cross section is filled with a gas of an element lighter than air, for example, He gas or hydrogen gas. A hood 201 is provided below the balloon 200, and a small and light motor 202 and a main propeller 203 for propulsion driven by the motor 202 are provided in the hood 201 as shown in FIG.
And an actuator 204 and a directional snake 205 driven by the actuator 204 are provided. A sub-propeller 206 driven by a motor (not shown) is provided before and after the balloon 200 in the propulsion direction, and lightweight wheels 207 are mounted on the upper surface of the balloon 200.

【0032】気球200には、内部圧を調整するための
図示しない圧力調整弁が取り付けられている。この圧力
調整弁による調整によって、気球200の大きさや形状
を適宜変更することができる。また、本実施形態では主
プロペラ203及び副プロペラ205によって、3次元
空間内の大気の気流との相互作用によって推進力を得る
ようにしているが、人体に無害に気体を噴出するジェッ
ト推進機を用いてもよい。さらに、空間移動ロボット2
1Cを移動させる際に、図示しないバネによって初速を
与える構成とすれば、推進装置のパワーを必要以上に大
きくすることなく、空間移動ロボット21Cを速やかに
所望位置に移動させることができる。
The balloon 200 is provided with a pressure adjusting valve (not shown) for adjusting the internal pressure. The size and shape of the balloon 200 can be appropriately changed by the adjustment by the pressure adjusting valve. Further, in the present embodiment, the main propeller 203 and the sub-propeller 205 are used to obtain a propulsive force by interaction with the airflow in the three-dimensional space. However, a jet propulsion device that ejects gas harmlessly to the human body is used. May be used. Furthermore, the space mobile robot 2
If the initial speed is given by a spring (not shown) when moving 1C, the space mobile robot 21C can be quickly moved to the desired position without increasing the power of the propulsion device more than necessary.

【0033】図6は、気球200の本体の一部の断面を
拡大して示している。なお、図6ではフード201を省
略して示している。ポリエステルのような絶縁体膜21
1の図で下側の面に薄膜太陽電池212が被着され、こ
の太陽電池212の薄膜が気球200の外皮を構成して
いる。太陽電池212上の薄膜上に後述するセンサ群2
13と上述したモータ202、主プロペラ203、アク
チュエータ204及び方向蛇205が配置されている。
FIG. 6 shows an enlarged cross section of a part of the main body of the balloon 200. In FIG. 6, the hood 201 is omitted. Insulating film 21 such as polyester
1, a thin-film solar cell 212 is attached to the lower surface, and the thin film of the solar cell 212 forms the outer skin of the balloon 200. Sensor group 2 described later on a thin film on solar cell 212
13 and the above-described motor 202, main propeller 203, actuator 204, and directional snake 205 are arranged.

【0034】絶縁体膜211の図で上側の面には、気球
200の内皮を構成する薄膜プリント基板218が配置
され、この薄膜プリント基板218上に集積回路からな
る電子回路モジュール219及び2次電池220が設け
られている。電子回路モジュール219には、後述する
センサインタフェース、コンピュータ及び送受信装置が
実装されている。電子回路モジュール219相互間の配
線及び電子回路モジュール219と2次電池220との
間の配線は、薄膜プリント基板218上の配線層221
によって行われる。
On the upper surface of the insulator film 211 in the drawing, a thin-film printed circuit board 218 constituting the endothelium of the balloon 200 is arranged. On this thin-film printed circuit board 218, an electronic circuit module 219 composed of an integrated circuit and a secondary battery 220 are provided. In the electronic circuit module 219, a sensor interface, a computer, and a transmission / reception device described later are mounted. The wiring between the electronic circuit modules 219 and the wiring between the electronic circuit module 219 and the secondary battery 220 are formed by a wiring layer 221 on the thin film printed circuit board 218.
Done by

【0035】図7は、空間移動ロボットのシステム構成
を示すブロック図である。まず図6中に示したセンサ群
213として、可視イメージセンサ231、赤外イメー
ジセンサ232、温度センサ233、湿度センサ23
4、音響センサ235及び位置センサ236が設けられ
ている。可視イメージセンサ231は、ビデオカメラで
もよいし、一定時間間隔で撮影を行う電子スチルカメラ
であってもよい。
FIG. 7 is a block diagram showing the system configuration of the space mobile robot. First, as a sensor group 213 shown in FIG. 6, a visible image sensor 231, an infrared image sensor 232, a temperature sensor 233, a humidity sensor 23
4. An acoustic sensor 235 and a position sensor 236 are provided. The visible image sensor 231 may be a video camera, or may be an electronic still camera that captures images at regular time intervals.

【0036】可視イメージセンサ231は、主として人
間10の顔を撮像するためのものであり、例えばTV会
議やTV電話に用いられる。赤外イメージセンサ232
は、3次元空間内全体の赤外線画像を撮像するためのも
のであり、例えば火災予知、侵入者検知などの目的で設
けられている。温度センサ233と湿度センサ234
は、3次元空間内の環境(快適度)をモニタするために
用いられる。音響センサ235は、音声入力や環境測定
(騒音の状態把握)に用いられ、また位置センサ236
は空間移動ロボットの位置を検出し、その位置制御を行
うために設けられている。
The visible image sensor 231 is mainly for imaging the face of the human 10, and is used for, for example, a TV conference or a TV telephone. Infrared image sensor 232
Is for capturing an infrared image of the entire three-dimensional space, and is provided for the purpose of, for example, predicting a fire or detecting an intruder. Temperature sensor 233 and humidity sensor 234
Is used to monitor the environment (comfort level) in the three-dimensional space. The acoustic sensor 235 is used for voice input and environmental measurement (grasping the state of noise).
Is provided for detecting the position of the space mobile robot and controlling its position.

【0037】各センサ231〜236の出力信号は、図
3の場合と同様に、増幅器やA/D変換器を含むセンサ
インタフェース238を介して、CPUとメモリ(RA
M/ROM)を含むコンピュータ239に取り込まれ
る。
The output signals of the sensors 231 to 236 are sent to the CPU and the memory (RA) via a sensor interface 238 including an amplifier and an A / D converter, as in the case of FIG.
(M / ROM).

【0038】コンピュータ239には、気球200を推
進する推進装置240のドライバ回路、すなわち図5及
び図6に示した主プロペラ203を駆動するモータ20
2、方向蛇205を駆動するアクチュエータ204及び
副プロペラ206を駆動する図示しないモータ等のドラ
イバ回路が接続され、さらに送受信装置241が接続さ
れる。ドライバ回路は、送受信装置241を介して地上
走行システム22から送信されてくる移動指令信号と位
置センサ236からの位置検出信号に基づいてコンピュ
ータ239により制御される。これにより推進装置24
0は、移動指令信号によって指令された3次元空間内の
位置に空間移動ロボットが移動するように動作する。
The computer 239 has a driver circuit of the propulsion device 240 for propelling the balloon 200, that is, the motor 20 for driving the main propeller 203 shown in FIGS.
2. A driver circuit such as an unillustrated motor for driving the actuator 204 for driving the directional snake 205 and the sub-propeller 206 is connected, and a transmission / reception device 241 is further connected. The driver circuit is controlled by the computer 239 based on a movement command signal transmitted from the taxiing system 22 via the transmission / reception device 241 and a position detection signal from the position sensor 236. Thereby, the propulsion device 24
0 operates so that the space mobile robot moves to the position in the three-dimensional space instructed by the movement instruction signal.

【0039】送受信装置241は、アンテナ242を介
して例えばBluetooth規格に基づく無線通信をウェアラ
ブルシステム11や、地上走行システム22及び基地シ
ステム23との間で行う装置であり、符号化/復号化
器、変/復調器及び増幅器を含んで構成される。
The transmitting / receiving device 241 is a device that performs wireless communication based on the Bluetooth standard, for example, with the wearable system 11, the ground running system 22, and the base system 23 via the antenna 242, and includes an encoder / decoder, It comprises a modulator / demodulator and an amplifier.

【0040】例えば、センサインタフェース238を介
してコンピュータ239に取り込まれたセンサ群213
の出力信号のうち、可視イメージセンサ231、赤外イ
メージセンサ232、温度センサ233、湿度センサ2
34及び音響センサ235からの信号は、コンピュータ
239による制御の下で送受信装置241からアンテナ
242を介して地上走行システム22に送信される。
For example, a sensor group 213 captured by the computer 239 via the sensor interface 238
Out of the output signals, the visible image sensor 231, the infrared image sensor 232, the temperature sensor 233, and the humidity sensor 2
Signals from the acoustic sensor 235 and the acoustic sensor 235 are transmitted from the transmitting / receiving device 241 to the taxiing system 22 via the antenna 242 under the control of the computer 239.

【0041】また、ウェアラブルシステム11や地上走
行システム22から空間移動システム21に送信されて
きた信号は、アンテナ242を介して送受信装置241
で受信され、コンピュータ239に取り込まれる。コン
ピュータ239は、地上走行システム22からの移動指
令信号を取り込むと、前述したように移動指令信号と位
置センサ236からの位置検出信号に基づいて推進装置
240の制御を行う。さらに、コンピュータ239はウ
ェアラブルシステム11から送信されてくる信号につい
ては、単に中継するか適当な処理を施した後、情報収集
解析センタである地上走行システム22に送受信装置2
41を介してアンテナ242から送信する中継制御を行
う。
A signal transmitted from the wearable system 11 or the taxi system 22 to the space mobile system 21 is transmitted and received by the transmitting / receiving device 241 via the antenna 242.
And is taken into the computer 239. When the computer 239 receives the movement command signal from the taxi system 22, it controls the propulsion device 240 based on the movement command signal and the position detection signal from the position sensor 236 as described above. Further, the computer 239 simply relays the signal transmitted from the wearable system 11 or performs an appropriate process, and then transmits the signal to the ground traveling system 22 which is an information collection and analysis center.
Relay control for transmission from the antenna 242 via the communication terminal 41 is performed.

【0042】センサ231〜236、センサインタフェ
ース238、コンピュータ239、推進装置240のド
ライバ回路及び送受信装置241への電源供給は、図6
で説明した太陽電池212、あるいは太陽電池212か
らのエネルギーにより充電される2次電池220によっ
て行われる。
The power supply to the sensors 231 to 236, the sensor interface 238, the computer 239, the driver circuit of the propulsion device 240, and the transmission / reception device 241 is shown in FIG.
The operation is performed by the solar cell 212 described in the above, or the secondary battery 220 charged by energy from the solar cell 212.

【0043】次に、図8を用いて空間移動システム21
を構成する空間移動ロボット21A,21B,21Cの
3次元空間内での動作例を説明する。図8(a)は空間
移動ロボット21Aが上昇、下降を行い、また地上走行
システム22によって高さ制御が行われるときの状態を
示している。すなわち、気球200に充填された気体の
浮力により空間移動ロボット21Aが浮遊している状態
で、気球200の両側部に取り付けられた副プロペラ2
06を例えば正回転させると、下方に気体が噴射するこ
とにより空間移動ロボット21Aは上昇し、副プロペラ
206を例えば逆回転させると、上方に気体が噴射する
ことにより空間移動ロボット21Aは下降する。この状
態で主プロペラ203を正回転または逆回転させると、
空間移動ロボット21Aは水平面内を移動し、その水平
面内の移動方向は方向蛇205によって制御できる。
Next, referring to FIG.
An example of the operation of the space mobile robots 21A, 21B, and 21C in the three-dimensional space will be described. FIG. 8A illustrates a state in which the space mobile robot 21 </ b> A moves up and down and the ground traveling system 22 performs height control. That is, in a state where the space mobile robot 21A is floating by the buoyancy of the gas filled in the balloon 200, the sub-propellers 2 attached to both sides of the balloon 200
When, for example, 06 is rotated forward, the space moving robot 21A rises by injecting gas downward, and when the sub-propeller 206 is rotated, for example, in reverse, the space moving robot 21A descends by injecting gas upward. When the main propeller 203 is rotated forward or backward in this state,
The space mobile robot 21A moves in a horizontal plane, and the moving direction in the horizontal plane can be controlled by the direction snake 205.

【0044】また、図8(a)の下側に示すように、例
えば地上走行システム22に備えられた巻き上げレンチ
24を用いて、空間移動ロボット21Aに連結されたワ
イヤ25を巻き取ることにより、気球200の浮力に抗
して空間移動ロボット21Aを引き下げて、その高さ位
置を制御することが可能である。なお、ワイヤ25に通
信ケーブルを内蔵させ、空間移動ロボット21Aと地上
走行システム22との間の通信を有線通信により行うよ
うにしてもよい。
As shown in the lower part of FIG. 8A, the wire 25 connected to the space mobile robot 21A is wound by using, for example, a hoisting wrench 24 provided in the taxiing system 22. It is possible to control the height position by lowering the space mobile robot 21A against the buoyancy of the balloon 200. Note that a communication cable may be built in the wire 25, and the communication between the space mobile robot 21A and the ground traveling system 22 may be performed by wired communication.

【0045】さらに、ここでは空間移動ロボット21A
の下面に連結されたワイヤ25を地上走行システム22
で巻き取るものとしたが、空間移動ロボット21Aの上
面にワイヤを連結し、それを天井基地システム23に備
えられた巻き上げレンチにより巻き取ることで、空間移
動ロボット21Aを引き上げることにより、高さ位置を
調整することもできる。勿論、これら両者を併用して空
間移動ロボット21Aの高さ位置調整を行うことも有効
である。
Further, here, the space mobile robot 21A
The wire 25 connected to the lower surface of the
The wire is connected to the upper surface of the space mobile robot 21A, and the wire is wound by a hoisting wrench provided in the ceiling base system 23. Can also be adjusted. Of course, it is also effective to adjust the height of the space mobile robot 21A by using both of them.

【0046】図8(b)は、空間移動ロボット21Bが
壁面31Bに沿って走行する状態を示している。この場
合、主プロペラ203を回転させることによって主たる
推進力を得ると共に、副プロペラ205を例えば正回転
させて壁面31Bと反対方向へ気体を噴射させることに
よって、空間移動ロボット21Bは車輪207が壁面3
1Bに適度な力で押しつけられつつ、方向蛇205によ
って制御された方向に壁面31Bに沿って走行する。
FIG. 8B shows a state where the space mobile robot 21B travels along the wall surface 31B. In this case, the main propulsion force is obtained by rotating the main propeller 203, and the sub-propeller 205 is rotated forward, for example, to inject gas in the direction opposite to the wall surface 31B.
The vehicle travels along the wall surface 31B in the direction controlled by the directional snake 205 while being pressed against the 1B with an appropriate force.

【0047】図8(c)は、空間移動ロボット21Cが
天井31Cに沿って走行する状態を示している。基本的
には図8(b)の場合と同様に、主プロペラ203を回
転させることによって主たる推進力を得ると共に、副プ
ロペラ205を例えば正回転させて天井31Cと反対方
向へ気体を噴射させることにより、空間移動ロボット2
1Cは車輪207が天井31Cに適度な力で押しつけら
れつつ、方向蛇205によって制御された方向に天井3
1Cに沿って走行する。
FIG. 8C shows a state where the space mobile robot 21C travels along the ceiling 31C. Basically, as in the case of FIG. 8B, a main propulsion force is obtained by rotating the main propeller 203, and the sub-propeller 205 is rotated forward, for example, to inject gas in a direction opposite to the ceiling 31C. Space robot 2
1C, while the wheel 207 is pressed against the ceiling 31C with an appropriate force, the ceiling 3C moves in the direction controlled by the directional snake 205.
Drive along 1C.

【0048】このように図8(a)(b)(c)のいず
れの場合も、気球200の浮力ベクトルと、推進装置2
40を構成する主プロペラ203及び副プロペラ205
の回転による2方向の推力ベクトルとの3成分のベクト
ル合成によって、所望の位置及び方向に空間移動ロボッ
ト21A,21B,21Cを移動させることが可能とな
っている。
As described above, in each of FIGS. 8A, 8B, and 8C, the buoyancy vector of the balloon 200 and the propulsion device 2
Main propeller 203 and auxiliary propeller 205 constituting 40
It is possible to move the space mobile robots 21A, 21B, 21C to a desired position and direction by combining the three components with the thrust vector in two directions due to the rotation of.

【0049】図9は、地上走行システム22のシステム
構成例を示すブロック図である。センサ群として可視イ
メージセンサ(ビデオカメラでもよい)301、地上走
行システム22自身の地上での位置を検出するための位
置センサ302、及び地上走行システム22の走行時の
加速度を検出するため加速度センサ303が設けられて
いる。可視イメージセンサ301は、人間10を撮像し
てそのジェスチャーを入力したり、あるいは侵入者検知
に用いられる。
FIG. 9 is a block diagram showing an example of a system configuration of the taxiing system 22. A visible image sensor (may be a video camera) 301 as a sensor group, a position sensor 302 for detecting the position of the ground running system 22 on the ground, and an acceleration sensor 303 for detecting acceleration during running of the ground running system 22. Is provided. The visible image sensor 301 is used for capturing an image of the person 10 and inputting its gesture, or for detecting an intruder.

【0050】各センサ301〜303の出力信号は、図
3及び図7の場合と同様に、増幅器やA/D変換器など
を含むセンサインタフェース308を介して、CPUと
メモリ(RAM/ROM)を含むコンピュータ309に
取り込まれる。コンピュータ309には、人間がコンピ
ュータ309にコマンドを入力するためのキーボードの
ような入力装置310、送受信装置311、コンピュー
タ309の出力結果を出力するディスプレイ、プリンタ
または電子的画像記録機器などからなる出力装置31
3、車輪315を駆動するモータ314のドライブ回路
やロボットアーム317を駆動するアクチュエータ31
6のドライブ回路が接続される。ロボットアーム317
は、人間10が希望する種々の作業を行うためのもので
ある。
The output signals of the sensors 301 to 303 are connected to a CPU and a memory (RAM / ROM) via a sensor interface 308 including an amplifier and an A / D converter, as in the case of FIGS. Computer 309. The computer 309 includes an input device 310 such as a keyboard for a human to input a command to the computer 309, a transmitting / receiving device 311, a display for outputting an output result of the computer 309, and an output device including a printer or an electronic image recording device. 31
3. The drive circuit of the motor 314 for driving the wheels 315 and the actuator 31 for driving the robot arm 317
6 drive circuits are connected. Robot arm 317
Are for performing various operations desired by the human 10.

【0051】送受信装置311は、アンテナ312を介
して例えばBluetooth規格に基づく無線通信をウェアラ
ブルシステム11や空間移動システム21(空間移動ロ
ボット21A,21B,21C)及び基地システム23
との間で行う装置であり、符号化/復号化器、変/復調
器及び増幅器を含んで構成される。
The transmission / reception device 311 performs wireless communication based on, for example, the Bluetooth standard via the antenna 312 for the wearable system 11, the space mobile system 21 (the space mobile robots 21A, 21B, 21C) and the base system 23.
And an encoder / decoder, a modulator / demodulator, and an amplifier.

【0052】例えば、入力装置310により空間移動シ
ステム21(空間移動ロボット21A,21B,21
C)に対する移動指令を入力すると、コンピュータ30
9による制御の下で送受信装置311からアンテナ31
2を介して移動指令信号が空間移動システム21に送信
される。また、ウェアラブルシステム11や空間移動シ
ステム21から送信されたきた信号はアンテナ312を
介して送受信装置311により受信され、コンピュータ
309に取り込まれる。
For example, the spatial movement system 21 (the spatial movement robots 21A, 21B, 21
When a movement command for C) is input, the computer 30
9 from the transmitting / receiving device 311 under the control of the antenna 31
2, a movement command signal is transmitted to the space movement system 21. Further, a signal transmitted from the wearable system 11 or the space movement system 21 is received by the transmission / reception device 311 via the antenna 312, and is taken into the computer 309.

【0053】センサ301〜303、センサインタフェ
ース308、コンピュータ309、入力装置310、送
受信装置311、出力装置313及び上記各ドライバ回
路への電源供給は、2次電池318によって行われる。
Power is supplied to the sensors 301 to 303, the sensor interface 308, the computer 309, the input device 310, the transmission / reception device 311, the output device 313, and the above driver circuits by the secondary battery 318.

【0054】上述した地上走行システム22は、前述し
たように情報収集解析センタとしての役割も有する。具
体的には、例えば可視イメージセンサ301で撮像され
た画像のデータや、空間移動ロボット21A,21B,
21Cに搭載された図7中の可視イメージセンサ213
によって撮像され、無線通信によって送信されてきた画
像のデータに対してコンピュータ309により画像認識
を行ったり、ウェアラブルシステム10に搭載された図
3中のマイクロフォン107や、空間移動ロボット21
A,21B,21Cに搭載された図7中の音響センサ2
35によって検出され、無線通信によって送信されてき
た音声のデータに対して、コンピュータ309によって
音声認識を行う。また、地上走行システム22は無線通
信ネットワークの管理も行う。
The above-described taxi system 22 also has a role as an information collection and analysis center as described above. Specifically, for example, data of an image captured by the visible image sensor 301 or the spatial mobile robots 21A, 21B,
Visible image sensor 213 in FIG. 7 mounted on 21C
The computer 309 performs image recognition on image data captured by the camera and transmitted by wireless communication, and the microphone 107 shown in FIG.
A, acoustic sensor 2 in FIG. 7 mounted on 21B, 21C
Speech recognition is performed by the computer 309 on the speech data detected by 35 and transmitted by wireless communication. The ground traveling system 22 also manages a wireless communication network.

【0055】さらに、地上走行システム22においては
可視イメージセンサ301及び出力装置313に含まれ
るディスプレイを備えているため、地上走行システム2
2を管理している人間と、ウェアラブルシステム11を
装着している人間10との間でTV会議やTV電話を行
うことができる。
Further, since the taxi system 22 has a display included in the visible image sensor 301 and the output device 313, the taxi system 2
2 and the person 10 wearing the wearable system 11 can hold a TV conference or a TV phone call.

【0056】図10は、基地システム23(23A,2
3B,23C)のシステム構成を示すブロック図であ
る。センサ群としては、3次元空間内を監視する可視イ
メージセンサ(ビデオカメラでもよい)401と、基地
システム23への空間移動ロボット21A,21B,2
1Cの近接を検知するための近接センサ402が設けら
れている。
FIG. 10 shows the base system 23 (23A, 2
3B, 23C) is a block diagram showing a system configuration. The sensor group includes a visible image sensor (may be a video camera) 401 for monitoring the three-dimensional space, and the spatial mobile robots 21A, 21B, 2 to the base system 23.
A proximity sensor 402 for detecting the proximity of 1C is provided.

【0057】センサ401,402からの出力信号は図
3、図7及び図9の場合と同様に、増幅器やA/D変換
器などを含むセンサインタフェース408を介して、C
PUとメモリ(RAM/ROM)を含むコンピュータ4
09に取り込まれる。コンピュータ409には、人間が
コンピュータ409にコマンドを入力するためのキーボ
ードその他の入力装置410と、送受信装置411、ド
ッキング装置413、充電器414及び圧縮ボンベ41
5が接続されている。
The output signals from the sensors 401 and 402 are supplied to a C interface via a sensor interface 408 including an amplifier and an A / D converter in the same manner as in FIGS. 3, 7 and 9.
Computer 4 including PU and memory (RAM / ROM)
09. The computer 409 includes a keyboard and other input devices 410 for a human to input commands to the computer 409, a transmitting / receiving device 411, a docking device 413, a charger 414, and a compression cylinder 41.
5 is connected.

【0058】送受信装置411は、アンテナ412を介
して例えばBluetooth規格に基づく無線通信をウェアラ
ブルシステム11や、空間移動システム21(空間移動
ロボット21A,21B,21C)及び地上走行システ
ム22との間で行う。
The transmission / reception device 411 performs wireless communication based on, for example, the Bluetooth standard between the wearable system 11, the space mobile system 21 (the space mobile robots 21A, 21B, 21C) and the ground running system 22 via the antenna 412. .

【0059】ドッキング装置413は、可視イメージセ
ンサ401によって監視される3次元空間内で空間移動
ロボット21A,21B,21Cが基地システム23
A,23B,23Cに近接したことが近接センサ402
によって検知されたとき、移動ロボット21A,21
B,21Cを図示しないロボットハンド等により捕捉し
てドッキングを行う装置である。
The docking device 413 allows the space mobile robots 21A, 21B, and 21C to operate in the three-dimensional space monitored by the visible image sensor 401.
A, 23B, and 23C indicate that the proximity sensor 402
Mobile robots 21A, 21
This is a device for docking by capturing B and 21C with a robot hand or the like (not shown).

【0060】充電器414は、ドッキング装置413に
よって空間移動ロボット21A,21B,21Cが基地
システム23A,23B,23Cとドッキングした状態
で、コンピュータ309からの指令に基づいて、空間移
動ロボット21A,21B,21C内の図6及び図7中
に示した2次電池220に充電を行う。
The charger 414 is configured to dock the space mobile robots 21A, 21B, and 21C with the base systems 23A, 23B, and 23C by the docking device 413 in accordance with a command from the computer 309, and to transfer the space mobile robots 21A, 21B, The secondary battery 220 shown in FIGS. 6 and 7 in 21C is charged.

【0061】圧縮ボンベ415は、例えば圧縮Heガス
(液化ガス)を充填しており、ドッキング装置413に
よって空間移動ロボット21A,21B,21Cが基地
システム23A,23B,23Cとドッキングした状態
で、コンピュータ309からの指令に基づき、空間移動
ロボット21A,21B,21Cの図5に示した気球2
00の内部にHeガスまたは水素ガスなどの気体の充填
を行う。
The compression cylinder 415 is filled with, for example, a compressed He gas (liquefied gas), and the computer 309 is in a state where the space mobile robots 21A, 21B, 21C are docked with the base systems 23A, 23B, 23C by the docking device 413. The balloon 2 shown in FIG. 5 of the space mobile robots 21A, 21B, 21C based on a command from
00 is filled with a gas such as He gas or hydrogen gas.

【0062】次に、ウェアラブルシステム10内の図3
中に示した腱センサ106について具体的に説明する。
腱センサ106は、例えば発光波長スペクトル帯域が6
00nm〜1500nmの近赤外光の範囲内にある発光
素子(例えば近赤外発光ダイオード)と、この発光素子
からの光の散乱光を受光する受光素子(例えばフォトダ
イオード)とから構成され、これら発光素子と受光素子
は手首、腕あるいは足首に配置される。
Next, FIG. 3 in the wearable system 10
The tendon sensor 106 shown therein will be specifically described.
The tendon sensor 106 has, for example, an emission wavelength spectrum band of 6
A light-emitting element (for example, a near-infrared light-emitting diode) in the range of near-infrared light of 00 nm to 1500 nm, and a light-receiving element (for example, a photodiode) for receiving scattered light of light from the light-emitting element are provided. The light emitting element and the light receiving element are arranged on a wrist, an arm or an ankle.

【0063】このような構成の腱センサ106によっ
て、手首や足首の動き、あるいは手または足の指の動き
や力の入れ具合をリアルタイムで電気信号に変換して取
り出すことができる。この腱センサ106の出力信号を
センサインタフェース108を介してコンピュータ10
9に取り込むことにより、送受信装置111を介して空
間移動ロボット21A,21B,21Cの移動や、地上
走行システム22におけるロボットアーム315の動き
を遠隔操作することができる。
With the tendon sensor 106 having such a configuration, the movement of the wrist or the ankle, or the movement of the finger of the hand or toe or the degree of force application can be converted into an electric signal in real time and extracted. The output signal of the tendon sensor 106 is transmitted to the computer 10 via the sensor interface 108.
9, the movement of the space mobile robots 21A, 21B, 21C and the movement of the robot arm 315 in the ground traveling system 22 can be remotely controlled via the transmission / reception device 111.

【0064】以下、手首と指に適用される腱センサの例
につき、図11及び図12を用いて検出原理を説明す
る。腱は通常、腱鞘に包まれており、腱鞘は滑液を含む
滑液鞘を有している。近赤外光に対して、腱は散乱体で
あるが、滑液は光の散乱と吸収の少ない媒体である(文
献1:「解剖学」金原出版、文献2:山本克之他「近赤
外光組織酸素モニタによる筋代謝の測定」計測と制御、
第39巻第4号、p.283、2000年4月参照)。
The principle of detection of an example of a tendon sensor applied to a wrist and a finger will be described below with reference to FIGS. The tendon is usually wrapped in a tendon sheath, which has a synovial sheath containing synovial fluid. For near-infrared light, the tendon is a scatterer, but the synovial fluid is a medium with little light scattering and absorption (Reference 1: “Anatomy” Kanahara Publishing, Reference 2: Katsuyuki Yamamoto et al. “Near-infrared light” Measurement and control of "measurement of muscle metabolism by optical tissue oxygen monitor"
Vol. 39, No. 4, p. 283, April 2000).

【0065】従って、人体表面から発光素子で近赤外線
を腱に向けて照射すると、光が腱と滑液で相互作用し
て、再び人体表面に戻ってくる。この戻り光(後方散乱
光)の強度は、腕、手首、掌あるいは指の動きに応じて
移動した腱と腱鞘の位置や腱の伸縮具合に依存するの
で、これを受光素子で電気信号に変換することで腱セン
サとして機能することができる。
Accordingly, when near-infrared light is emitted from the surface of the human body toward the tendon using the light emitting element, the light interacts with the tendon through the synovial fluid and returns to the surface of the human body again. The intensity of this return light (backscattered light) depends on the position of the tendon and tendon sheath moved in response to the movement of the arm, wrist, palm or finger, and the degree of tendon expansion and contraction. By doing so, it can function as a tendon sensor.

【0066】さらに詳細に説明すると、本実施形態にお
ける腱センサ106は、人体の腕、手首、掌及び手指の
少なくとも一つである被検出部位の表面上に、該被検出
部位の内部組織(浅指屈筋(腱)、深指屈筋(腱)、手
根屈筋(腱)、総指伸筋(腱)、母指内転筋、虫様筋、
腱鞘、滑液鞘、滑液、外転筋、肘筋、手根屈筋、尺骨、
上腕骨など)に向けて光を照射するように配置された発
光波長スペクトルが600nm〜1200nmの範囲内
にある少なくとも一つの発光素子と、前記発光素子から
発光され、かつ前記内部組織で相互作用(後方散乱、前
方散乱あるいは吸収)した後に前記被検出部位の表面か
ら出射した光を受光して該受光した光に応じた出力信号
をセンサの出力信号として発生するように前記被検出部
位の表面上に配置された少なくとも一つの受光素子とか
ら構成される。
More specifically, the tendon sensor 106 according to the present embodiment is provided on the surface of a detection site which is at least one of an arm, a wrist, a palm, and a finger of a human body. Finger flexor (tendon), deep finger flexor (tendon), carpal flexor (tendon), total finger extensor (tendon), adductor thumb, worm-like muscle,
Tendon sheath, synovial sheath, synovial fluid, abductor muscle, elbow muscle, carpal flexor, ulna,
(E.g., a humerus), at least one light emitting element having an emission wavelength spectrum in a range of 600 nm to 1200 nm arranged to irradiate light toward the humerus, emits light from the light emitting element, and interacts with the internal tissue ( (Backscattering, forward scattering or absorption), and receives light emitted from the surface of the detected part, and generates an output signal corresponding to the received light as an output signal of the sensor on the surface of the detected part. And at least one light-receiving element arranged in the first position.

【0067】この腱センサ106からの出力信号に対し
て、この出力信号をセンサインタフェース108を介し
て取り込むコンピュータ109において演算処理により
人体の腕、手首、掌及び手指の少なくとも一つの動きと
力の入れ具合が求められる。こうして求められた動きと
力の入れ具合の情報は、送受信装置111によって空間
移動システム21や地上走行システム22、さらには基
地システム23に送信されることにより、3次元空間ロ
ボットシステム12が人間10によって遠隔操作され
る。
In response to the output signal from the tendon sensor 106, at least one of the arms, wrists, palms and fingers of a human body is subjected to arithmetic processing by a computer 109 which takes in the output signal via the sensor interface 108 and applies force. Condition is required. The information on the degree of movement and power obtained in this manner is transmitted to the space movement system 21, the ground traveling system 22, and the base system 23 by the transmission / reception device 111, so that the three-dimensional space robot system 12 is Remotely operated.

【0068】図11では、滑液鞘に包まれた前腕から手
掌に至る屈筋の腱を腱に対して垂直の方向から近赤外発
光ダイオード(LED)501で照射し、後方散乱光を
複数のフォトダイオード(PD)502で検出する。図
12では、同様に滑液鞘に包まれた前腕から手掌に至る
屈筋の腱を近赤外発光ダイオード501で腱に対して平
行の方向から照射し、後方散乱光をフォトダイオード5
02で検出する。基本原理としては、いずれの場合も腱
と滑液で構成される光導波路の変形や移動を近赤外光を
用いて検出することであり、この場合、腱鞘の滑液は光
透過媒体、腱は光散乱媒体である。
In FIG. 11, a flexor tendon from the forearm wrapped in the synovial sheath to the palm is irradiated by a near-infrared light emitting diode (LED) 501 from a direction perpendicular to the tendon, and a plurality of backscattered lights are emitted. Detected by a photodiode (PD) 502. In FIG. 12, the flexor tendon from the forearm to the palm similarly wrapped in the synovial sheath is irradiated by the near-infrared light emitting diode 501 in a direction parallel to the tendon, and the backscattered light is emitted from the photodiode 5.
02 is detected. The basic principle is that in any case, the deformation or movement of the optical waveguide composed of tendon and synovial fluid is detected using near-infrared light. Is a light scattering medium.

【0069】図11の場合、指の動きにより腱が移動と
伸縮をするので、それに伴って滑液も移動と変形を行
う。発光ダイオード501からの光が体表面から腱に垂
直の方向から入射すると、腱と滑液の領域で多重散乱、
透過及び吸収などが起こり、光の一部が様々な光路を経
て複数のフォトダイオード502に入射する。このとき
3各フォトダイオードの信号出力をS1,S2,S3と
し、Fを伝達関数とすると、 S1=F(薬指の動きと力の入れ具合) S2=F(中指の動きと力の入れ具合) S3=F(人差指の動きと力の入れ具合) となる。
In the case of FIG. 11, since the tendon moves and expands and contracts by the movement of the finger, the synovial fluid also moves and deforms accordingly. When light from the light emitting diode 501 enters the tendon from the body surface in a direction perpendicular to the tendon, multiple scattering occurs in the tendon and synovial fluid regions,
Transmission and absorption occur, and a part of the light enters the plurality of photodiodes 502 through various optical paths. At this time, assuming that the signal outputs of the three photodiodes are S1, S2, and S3 and F is a transfer function, S1 = F (movement of the ring finger and force) S2 = F (movement of the middle finger and force) S3 = F (the movement of the index finger and the strength of the force).

【0070】従って、Fの逆伝達関数RFを実験により
求めておけば、S1,S2,S3から指の動きと力の入
れ具合を再現できる。
Therefore, if the inverse transfer function RF of F is obtained by an experiment, the movement of the finger and the degree of application of force can be reproduced from S1, S2, and S3.

【0071】一方、図12は浅指屈筋(腱)に平行に光
を入射する場合であり、この場合にはフォトダイオード
502からの信号出力S4は、手首の曲がりと力の入れ
具合で散乱光の強度が変化するので、伝達関数Fを用い
て S4=F(手首の曲がり角度と力の入れ具合) となる。S4から従って、Fの逆伝達関数RFを演算す
ることで、手首の曲がり角度と力の入れ具合を求めるこ
とができる。
On the other hand, FIG. 12 shows a case where light is incident parallel to the superficial digital flexor muscle (tendon). In this case, the signal output S4 from the photodiode 502 is scattered light due to the bending of the wrist and the force applied. Since the intensity of the wrist changes, S4 = F using the transfer function F (the bending angle of the wrist and the strength of the force). Accordingly, by calculating the inverse transfer function RF of F from S4, it is possible to obtain the bending angle of the wrist and the degree of force application.

【0072】図13は、このような原理に基づく筋セン
サ106の具体的な実装例を示す図であり、この例では
全体として腕時計型に構成されている。腕時計のバンド
状をなす基体600に、上述した発光素子である発光ダ
イオード601,602及び受光素子であるフォトダイ
オード群603が実装され、さらに集積回路からなる電
子回路モジュール604とアンテナ605及び電源とし
ての2次電池606が実装されている。
FIG. 13 is a view showing a specific example of mounting the muscle sensor 106 based on such a principle. In this example, the whole is configured as a wristwatch. The light emitting diodes 601 and 602 as the light emitting elements described above and the photodiode group 603 as the light receiving element are mounted on a base 600 having a band shape of a wristwatch, and further, an electronic circuit module 604 including an integrated circuit, an antenna 605, and A secondary battery 606 is mounted.

【0073】電子回路モジュール604は、図14に示
すようにフォトダイオード群603の出力信号を多重化
するためのマルチプレクサ611、マルチプレクサ61
1の出力信号によって励振される発信器612、発信器
612の出力信号を電力増幅してアンテナ614に供給
する電力増幅器613を含んで構成される。また、発光
ダイオード601,602を駆動する図示しないLD駆
動回路も電子回路モジュール604に含まれる。
The electronic circuit module 604 includes a multiplexer 611 and a multiplexer 61 for multiplexing the output signals of the photodiode group 603 as shown in FIG.
The transmitter 612 is excited by the output signal of the transmitter 612, and the power amplifier 613 is configured to amplify the power of the output signal of the transmitter 612 and supply the amplified signal to the antenna 614. The electronic circuit module 604 also includes an LD drive circuit (not shown) for driving the light emitting diodes 601 and 602.

【0074】筋センサ106が図3に示したように、図
1及び図2に示した3次元空間情報提供システムにおけ
るウェアラブルシステム11の一部として用いられる場
合、フォトダイオード群603の出力信号を筋センサ1
06の出力として図3中のセンサインタフェース108
に入力すればよいし、アンテナ605から送信される電
波を受信する受信機をセンサインタフェース108に含
ませてもよい。
When the muscle sensor 106 is used as a part of the wearable system 11 in the three-dimensional spatial information providing system shown in FIGS. 1 and 2 as shown in FIG. 3, the output signal of the photodiode group 603 is Sensor 1
As the output of 06, the sensor interface 108 in FIG.
, Or a receiver for receiving radio waves transmitted from the antenna 605 may be included in the sensor interface 108.

【0075】図13及び図14で説明した筋センサ10
6は、ロボットハンドの制御にも適用が可能である。図
15は、この場合の受信側の構成を示す図であり、筋セ
ンサ106が設置された位置から離れた遠隔地に設置さ
れている。筋センサ106のアンテナ605から送信さ
れる電波は、アンテナ620により受信され、受信器6
21で増幅及び検波された後、デマルチプレクサ623
によってフォトダイオード群603のそれぞれの出力信
号に相当する成分が分離される。デマルチプレクサ62
3の出力信号は、例えばコンピュータを用いて構成され
たデータ処理装置624に入力され、このデータ処理装
置624の出力によってロボットハンド625が制御さ
れる。
The muscle sensor 10 described with reference to FIGS.
6 can also be applied to the control of a robot hand. FIG. 15 is a diagram showing the configuration of the receiving side in this case, and is installed at a remote place away from the position where the muscle sensor 106 is installed. The radio wave transmitted from the antenna 605 of the muscle sensor 106 is received by the antenna 620,
After amplification and detection at 21, the demultiplexer 623
Thus, components corresponding to the respective output signals of the photodiode group 603 are separated. Demultiplexer 62
The output signal of No. 3 is input to a data processing device 624 configured using, for example, a computer, and the output of the data processing device 624 controls the robot hand 625.

【0076】このような構成により、筋センサ106に
よって検出される人間の腕、手首あるいは指の動きに基
づいてロボットハンド625を制御することによって、
マニピュレータ装置を実現することが可能となる。
With such a configuration, by controlling the robot hand 625 based on the movement of a human arm, wrist or finger detected by the muscle sensor 106,
A manipulator device can be realized.

【0077】従来のマニピュレータ装置の例として、人
体の手首付近に皮膚表面電極を配置して表面筋電信号
(EMG:Electromyography)を検出し、この信号に対
して周波数分析とニューラルネットワーク処理を行い、
5本の指の動きに対応する信号に変換してロボットハン
ドを動かした実験例が報告されている(文献3:「筋電
操作ハンドの制御のための皮膚表面筋電信号のニューラ
ルネットワークによる認識」計測自動制御学会論文集V
ol.30,No2,p216,1964)。
As an example of a conventional manipulator device, a skin surface electrode is arranged near the wrist of a human body to detect a surface myoelectric signal (EMG: Electromyography), and the signal is subjected to frequency analysis and neural network processing.
An experimental example in which a robot hand is moved by converting signals into signals corresponding to the movements of five fingers has been reported (Ref. 3: "Neural network recognition of skin surface myoelectric signals for controlling myoelectric operation hands"). ”Transactions of the Society of Instrument and Control Engineers V
ol. 30, No2, p216, 1964).

【0078】この従来例では、指操作に関する複雑な作
用が総和として重畳された表面筋電信号を検出している
ので、その信号に意味を持たせる(指の動きに対応させ
る)ために、複雑な信号処理を行う必要がある。また、
認識率を上げるためにシステムが大規模になり、携帯化
に適さず、また動作速度にも限界がある。
In this conventional example, since a complex action related to finger operation is detected as a surface EMG signal on which the sum is superimposed, the signal is given a meaning (corresponding to the movement of the finger). Signal processing must be performed. Also,
In order to increase the recognition rate, the system becomes large-scale, is not suitable for portability, and has a limit in operation speed.

【0079】これに対し、本実施形態で説明した筋セン
サ106では、腕、手首、掌あるいは指の動きや力の入
れ具合を力学的に伝達している人体内部の腱の伸縮と位
置の変動を直接検出しているため、文献3で必要とした
ような複雑な信号処理を必要とすることなく、ロボット
ハンド625を制御することが可能となる。
On the other hand, in the muscle sensor 106 described in the present embodiment, the tendon expansion and contraction and the position fluctuation of the tendon inside the human body which dynamically transmits the movement of the arm, wrist, palm or finger and the degree of force application. Is directly detected, it is possible to control the robot hand 625 without requiring complicated signal processing as required in Reference 3.

【0080】次に、本実施形態に係る3次元空間内サー
ビス提供システムの具体的な応用例について説明する。
ここでは、工場、オフィス(事務所)及び病院に適用し
た場合について説明するが、これ以外の用途にも3次元
空間サービス提供システムを適用することができる。
Next, a specific application example of the three-dimensional space service providing system according to the present embodiment will be described.
Here, a case where the present invention is applied to factories, offices (offices), and hospitals will be described. However, the three-dimensional space service providing system can be applied to other uses.

【0081】(工場の場合)まず、本実施形態の3次元
空間内サービス提供システムを製造工場の生産ライン
や、自動車、航空機、船舶等の整備工場に適用した場合
について説明する。生産ラインに本実施形態の3次元空
間サービス提供システムを適用する場合、生産ラインで
作業する作業者がウェアラブルシステム11を装着す
る。生産ラインを3次元空間ロボットシステム12によ
り3次元空間からモニタすることで、作業者の安全・衛
生管理を行い、作業能率向上を図ることができる。ま
た、ウェアラブルシステム11を介して3次元空間ロボ
ットシステム12により作業者の疲労状態をモニタする
こともできる。
(In the case of a factory) First, a case where the three-dimensional space service providing system of the present embodiment is applied to a production line of a manufacturing factory or a maintenance factory such as an automobile, an aircraft or a ship will be described. When the three-dimensional space service providing system of the present embodiment is applied to a production line, a worker working on the production line wears the wearable system 11. By monitoring the production line from the three-dimensional space by the three-dimensional robot system 12, the safety and hygiene of the worker can be managed, and the work efficiency can be improved. Further, the fatigue state of the worker can be monitored by the three-dimensional space robot system 12 via the wearable system 11.

【0082】一方、整備工場に本実施形態の3次元空間
サービス提供システムを適用する場合には、作業者が整
備対象をウェアラブルシステム11のディスプレイ11
3によって見ながら作業を行うことができる。作業者の
安全・衛生管理や作業能率向上及び作業者の疲労度のモ
ニタに関しては、生産ラインへの応用の場合と同様であ
る。
On the other hand, when the three-dimensional space service providing system according to the present embodiment is applied to a maintenance shop, the worker sets the maintenance target on the display 11 of the wearable system 11.
3 allows the user to work while watching. The management of worker safety and hygiene, the improvement of work efficiency, and the monitoring of worker fatigue are the same as in the case of application to a production line.

【0083】(オフィスの場合)本実施形態の3次元空
間内サービス提供システムを適用する場合、3次元空間
ロボットシステム12によって職員が業務を遂行してい
る居室の任意の場所からTV会議、TV電話を行うこと
が可能である。また、ウェアラブルシステム11を介し
て3次元空間ロボットシステム12により居室環境モニ
タと心理状態や健康状態のモニタを同時に行うことがで
きるので、例えば職員が一人で残業している場合におい
ても、安全確保と健康管理を行うことができる。さら
に、3次元空間ロボットシステム11の地上走行システ
ム22や空間移動システム21に対してコピー、資料の
検索、お茶のサービスなどを依頼することが可能であ
る。すなわち、この場合には3次元空間サービス提供シ
ステムは有能な秘書として機能する。
(In the case of an office) When the three-dimensional space service providing system of the present embodiment is applied, a TV conference or a TV telephone can be performed from an arbitrary place in a room where staff members are performing business by the three-dimensional space robot system 12. It is possible to do. Further, since the living room environment monitor and the psychological state and the health state can be monitored simultaneously by the three-dimensional spatial robot system 12 via the wearable system 11, even if the staff is working alone alone, safety is ensured. Can manage health. Further, it is possible to request the taxi system 22 or the space movement system 21 of the three-dimensional space robot system 11 to perform copying, searching for materials, tea service, and the like. That is, in this case, the three-dimensional space service providing system functions as a competent secretary.

【0084】(病院の場合)本実施形態の3次元空間サ
ービス提供システムを適用すれば、例えば通常のベッド
に患者が寝たままの状態で、患者の生体情報をウェアラ
ブルシステム11を介して3次元空間ロボットシステム
12により常時モニタできる。
(In the case of a hospital) If the three-dimensional space service providing system of this embodiment is applied, for example, the patient's biological information can be three-dimensionally transmitted through the wearable system 11 while the patient is lying on a normal bed. It can be constantly monitored by the space robot system 12.

【0085】患者が音声で要求すれば、3次元空間ロボ
ットシステム11の特に空間移動システム21(空間移
動ロボット21A,21B,21C)が天井から患者に
接近して、医者とのTV対話を行うことができる。ま
た、空間移動システム21と地上走行システム22は、
協調して介護ロボットとしての機能を果たすことができ
る。さらに、患者の生体情報や表情、動きをウェアラブ
ルシステム11を介して総合判断し、医師への連絡を必
要に応じて自動的に行うことも可能となる。
If the patient requests by voice, the three-dimensional space robot system 11, especially the space movement system 21 (space movement robots 21A, 21B, 21C) approaches the patient from the ceiling and performs TV conversation with the doctor. Can be. In addition, the space movement system 21 and the taxi system 22
The function as a care robot can be performed in cooperation. Furthermore, it is possible to make a comprehensive judgment on the patient's biological information, facial expression, and movement via the wearable system 11, and to automatically contact the doctor as needed.

【0086】[0086]

【発明の効果】以上説明したように、本発明によれば例
えば各種の工場、オフィス及び病院といった種々の施設
内で業務に従事する人や病室内の患者等に対して、より
高度の情報や作業などのサービスを提供することが可能
な3次元空間内サービス提供システムを提供することが
できる。
As described above, according to the present invention, a higher level of information and information can be obtained for persons working in various facilities such as various factories, offices and hospitals and patients in hospital rooms. A service providing system in a three-dimensional space capable of providing services such as work can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態に係る3次元空間内サービ
ス提供システムの概要を示す図
FIG. 1 is a diagram showing an outline of a service providing system in a three-dimensional space according to an embodiment of the present invention;

【図2】同実施形態に係る3次元空間内サービス提供シ
ステムの概略構成を示す図
FIG. 2 is a diagram showing a schematic configuration of a service providing system in a three-dimensional space according to the embodiment;

【図3】同実施形態におけるウェアラブルシステムの具
体的な構成例を示すブロック図
FIG. 3 is a block diagram showing a specific configuration example of a wearable system according to the embodiment;

【図4】同実施形態に係る3次元空間内サービス提供シ
ステムのより具体的な構成例を示す図
FIG. 4 is an exemplary diagram showing a more specific configuration example of a service providing system in a three-dimensional space according to the embodiment;

【図5】同実施形態における空間移動ロボットの構成を
示す図
FIG. 5 is a diagram showing a configuration of a space mobile robot in the embodiment.

【図6】同実施形態における空間移動ロボットの実装構
造を示す断面図
FIG. 6 is a sectional view showing a mounting structure of the space mobile robot in the embodiment.

【図7】同実施形態における空間移動ロボットの具体的
なシステム構成例を示すブロック図
FIG. 7 is a block diagram showing a specific example of a system configuration of the space mobile robot according to the embodiment;

【図8】同実施形態における空間移動ロボットの種々の
動作例を示す図
FIG. 8 is a view showing various operation examples of the space mobile robot in the embodiment.

【図9】同実施形態における地上走行システムの具体的
な構成例を示すブロック図
FIG. 9 is a block diagram showing a specific configuration example of a taxiing system in the embodiment.

【図10】同実施形態における基地局システムの具体的
な構成例を示すブロック図
FIG. 10 is a block diagram showing a specific configuration example of a base station system according to the embodiment;

【図11】同実施形態における腱センサ原理説明図FIG. 11 is a diagram illustrating the principle of a tendon sensor according to the embodiment;

【図12】同実施形態における腱センサの原理説明図FIG. 12 is a diagram illustrating the principle of the tendon sensor according to the embodiment;

【図13】同実施形態における腱センサの実装例を示す
FIG. 13 is a diagram showing a mounting example of the tendon sensor according to the embodiment;

【図14】同実施形態における腱センサをハンドロボッ
トの遠隔制御に用いる場合の送信側のシステム構成例を
ブロック図
FIG. 14 is a block diagram illustrating an example of a system configuration on a transmission side when the tendon sensor according to the embodiment is used for remote control of a hand robot.

【図15】同実施形態における腱センサをハンドロボッ
トの遠隔制御に用いる場合の受信側のシステム構成例を
ブロック図
FIG. 15 is a block diagram showing a system configuration example on the receiving side when the tendon sensor according to the embodiment is used for remote control of a hand robot.

【符号の説明】[Explanation of symbols]

11…ウェアラブルシステム 12…3次元空間ロボットシステム 13…通信システム 21…空間移動システム 22…地上走行システム 23…基地システム 24…巻き上げレンチ 25…ワイヤ 21A,21B,21C…空間移動ロボット 23A…地上基地システム 23B…壁面基地システム 23C…天井基地システム 101〜107…センサ群 109…コンピュータ 110…入力装置 111…送受信装置 112…アンテナ 113…ディスプレイ 114…スピーカ 200…気球 201…フード 202…プロペラ駆動モータ 203…主プロペラ 204…アクチュエータ 205…方向蛇 206…副プロペラ 207…車輪 211…絶縁体膜 212…薄膜太陽電池 213…センサ群 219…集積回路 220…薄膜2次電池 239…コンピュータ 240…推進装置 241…送受信装置 242…アンテナ 301〜323…センサ群 309…コンピュータ 310…入力装置 311…送受信装置 312…アンテナ 313…出力装置 314…モータ 315…車輪 316…アクチュエータ 317…ロボットアーム 318…2次電池 401〜402…センサ群 409…コンピュータ 410…入力装置 411…送受信装置 412…アンテナ 413…ドッキング装置 414…充電器 415…圧縮ボンベ 501…発光素子 502…受光素子 601,602…発光素子 603…受光素子 604…集積回路 605…アンテナ 606…2次電池 611…マルチプレクサ 612…発信器 613…電力増幅器 621…受信器 623…デマルチプレクサ 624…データ処理装置 625…ロボットハンド DESCRIPTION OF SYMBOLS 11 ... Wearable system 12 ... Three-dimensional space robot system 13 ... Communication system 21 ... Space movement system 22 ... Ground running system 23 ... Base system 24 ... Hoisting wrench 25 ... Wires 21A, 21B, 21C ... Space movement robot 23A ... Ground base system 23B ... wall base system 23C ... ceiling base system 101-107 ... sensor group 109 ... computer 110 ... input device 111 ... transceiver device 112 ... antenna 113 ... display 114 ... speaker 200 ... balloon 201 ... hood 202 ... propeller drive motor 203 ... main Propeller 204 Actuator 205 Serpentine 206 Sub-propeller 207 Wheel 211 Insulating film 212 Thin-film solar cell 213 Sensor group 219 Integrated circuit 220 Thin-film secondary battery 239 Computer 240 Propulsion device 241 Transmission / reception device 242 Antenna 301-323 Sensor group 309 Computer 310 Input device 311 Transmission / reception device 312 Antenna 313 Output device 314 Motor 315 Wheel 316 Actuator 317 Robot arm 318 ... Secondary batteries 401 to 402... Sensor group 409... Computer 410... 603 light receiving element 604 integrated circuit 605 antenna 606 secondary battery 611 multiplexer 612 transmitter 613 power amplifier 621 receiver 623 demultiplexer 624 data processing device 62 5 ... Robot hand

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】人間の身体に装着されたウェアラブルシス
テムと、3次元空間の任意の場所に移動可能に構成され
た部分を含む3次元空間ロボットシステムとを具備し、 前記ウェアラブルシステムは、少なくとも前記人間の生
体情報及び音声を検出する第1センサ群と、該第1セン
サ群からの検出信号を前記3次元空間ロボットシステム
に送信し、該3次元空間ロボットシステムから送信され
てきた信号を受信する第1送受信装置、及び該第1送受
信装置が送受信する信号を処理する第1コンピュータを
含み、 前記3次元空間ロボットシステムは、少なくとも前記人
間の画像情報及び3次元空間内部の情報を検出する第2
センサ群と、該第2センサ群からの検出信号を前記ウェ
アラブルシステムに送信し、該ウェアラブルシステムか
ら送信されてきた信号を受信する第2送受信装置、及び
該第2送受信装置が送受信する信号を処理する第2コン
ピュータを含み、 前記3次元空間ロボットシステムが前記ウェアラブルシ
ステムと通信を行うことにより、前記人間の意図を理解
して該人間の求める情報及び作業の少なくとも一方を含
むサービスを提供することを特徴とする3次元空間内サ
ービス提供システム。
1. A wearable system mounted on a human body, and a three-dimensional space robot system including a part configured to be movable to an arbitrary position in a three-dimensional space, wherein the wearable system includes at least the A first sensor group for detecting human biological information and voice, and a detection signal from the first sensor group is transmitted to the three-dimensional space robot system, and a signal transmitted from the three-dimensional space robot system is received. A first transmission / reception device, and a first computer for processing a signal transmitted / received by the first transmission / reception device, wherein the three-dimensional space robot system detects at least the human image information and information inside the three-dimensional space.
A sensor group, a second transmission / reception device that transmits a detection signal from the second sensor group to the wearable system, receives a signal transmitted from the wearable system, and processes a signal transmitted / received by the second transmission / reception device. The three-dimensional robot system communicates with the wearable system to provide a service including at least one of information and work required by the human by understanding the human intention. Characteristic three-dimensional space service providing system.
【請求項2】前記ウェアラブルシステムは、前記第1セ
ンサ群の一部として人体の腕、手首、掌及び手指の少な
くとも一つの動きと力の入れ具合を求めるための腱セン
サを有し、前記第1コンピュータは該腱センサの出力信
号から演算処理によって前記腕、手首、掌及び手指の少
なくとも一つの動きと力の入れ具合を求め、前記第1送
受信装置は該動きと力の入れ具合の情報を前記3次元空
間ロボットシステムへ送信することを特徴とする請求項
1記載の3次元空間内サービス提供システム。
2. The wearable system according to claim 1, further comprising: a tendon sensor for determining at least one of a movement, a force, and a force of an arm, a wrist, a palm, and a finger of a human body as a part of the first sensor group. 1 computer obtains at least one of the movement of the arm, the wrist, the palm and the finger and the strength of the force by an arithmetic processing from the output signal of the tendon sensor, and the first transmitting / receiving device obtains the information of the movement and the strength of the force. The system for providing services in a three-dimensional space according to claim 1, wherein the service is transmitted to the three-dimensional space robot system.
【請求項3】前記腱センサは、人体の腕、手首、掌及び
手指の少なくとも一つである被検出部位の表面上に、該
被検出部位の内部組織に向けて光を照射するように配置
された発光波長スペクトルが600nm〜1200nm
の範囲内にある少なくとも一つの発光素子と、前記発光
素子から発光され、かつ前記内部組織で相互作用した後
に前記被検出部位の表面から出射した光を受光して該受
光した光に応じた出力信号を該腱センサの出力信号とし
て発生するように前記被検出部位の表面上に配置される
少なくとも一つの受光素子とを有することを特徴とする
請求項2記載の3次元空間内サービス提供システム。
3. The tendon sensor is disposed on a surface of a detection site, which is at least one of an arm, a wrist, a palm, and a finger of a human body, so as to irradiate light toward an internal tissue of the detection site. Emission wavelength spectrum of 600 nm to 1200 nm
At least one light-emitting element within the range of, and receives light emitted from the light-emitting element and emitted from the surface of the detection site after interacting with the internal tissue, and outputs according to the received light. 3. The service providing system in a three-dimensional space according to claim 2, further comprising: at least one light receiving element disposed on a surface of the detected part so as to generate a signal as an output signal of the tendon sensor.
【請求項4】前記3次元空間ロボットシステムは、前記
3次元空間内を浮遊して移動可能に設けられた空間移動
システムと、前記3次元空間内の地上を走行可能に設け
られた地上走行システムを有し、 前記地上走行システムが前記人間の意図理解を把握して
前記サービスを提供する処理を自身であるいは前記空間
移動システムを介して行うことを特徴とする請求項1記
載の3次元空間内サービス提供システム。
4. The three-dimensional space robot system comprises: a space movement system provided so as to float in the three-dimensional space and a ground traveling system provided so as to run on the ground in the three-dimensional space. 2. The three-dimensional space according to claim 1, wherein the ground traveling system performs the process of providing the service by grasping the understanding of the human intention by itself or via the space movement system. 3. Service delivery system.
【請求項5】前記空間移動システムは、気球と該気球に
推進力を与える推進装置とから構成される少なくとも一
つの空間移動ロボットを有し、前記気球に前記第2セン
サ群と第2送受信装置及び第2コンピュータを搭載して
いることを特徴とする請求項4記載の3次元空間内サー
ビス提供システム。
5. The space moving system has at least one space moving robot composed of a balloon and a propulsion device for applying a propulsive force to the balloon, wherein the balloon has the second sensor group and a second transceiver. The service providing system in a three-dimensional space according to claim 4, further comprising a second computer and a second computer.
【請求項6】人体の腕、手首、掌及び手指の少なくとも
一つである被検出部位の表面上に、該被検出部位の内部
組織に向けて光を照射するように配置された発光波長ス
ペクトルが600nm〜1200nmの範囲内にある少
なくとも一つの発光素子と、 前記発光素子から発光され、かつ前記内部組織で相互作
用した後に前記被検出部位の表面から出射した光を受光
して該受光した光に応じた出力信号を発生するように前
記被検出部位の表面上に配置される少なくとも一つの受
光素子と、 前記受光素子の出力信号から演算処理によって人体の
腕、手首、掌及び手指の少なくとも一つの動きと力の入
れ具合を求める手段とを具備するセンサ装置。
6. An emission wavelength spectrum arranged on a surface of a detection site which is at least one of an arm, a wrist, a palm and a finger of a human body so as to irradiate light toward an internal tissue of the detection site. At least one light emitting element having a wavelength within a range of 600 nm to 1200 nm, and light emitted from the light emitting element and emitted from the surface of the detection site after interacting with the internal tissue, and the received light is received. At least one light-receiving element arranged on the surface of the detected part so as to generate an output signal corresponding to the at least one of an arm, a wrist, a palm, and a finger of a human body by an arithmetic processing from an output signal of the light-receiving element. And a means for determining the degree of movement and force.
JP2001169793A 2001-06-05 2001-06-05 Service providing system to work inside three-dimensional space Pending JP2002361576A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001169793A JP2002361576A (en) 2001-06-05 2001-06-05 Service providing system to work inside three-dimensional space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001169793A JP2002361576A (en) 2001-06-05 2001-06-05 Service providing system to work inside three-dimensional space

Publications (1)

Publication Number Publication Date
JP2002361576A true JP2002361576A (en) 2002-12-18

Family

ID=19011824

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001169793A Pending JP2002361576A (en) 2001-06-05 2001-06-05 Service providing system to work inside three-dimensional space

Country Status (1)

Country Link
JP (1) JP2002361576A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007515883A (en) * 2003-12-05 2007-06-14 カーディナル ヘルス 303、インコーポレイテッド Discovery and connection management by mobile system manager
JP2012515900A (en) * 2009-01-24 2012-07-12 シャンミン ヤン Sensing device
JP2013500522A (en) * 2009-07-23 2013-01-07 クゥアルコム・インコーポレイテッド Method and apparatus for dispensing user interface using wearable devices to control mobile devices and consumer electronic devices
JP2014517384A (en) * 2011-05-04 2014-07-17 クアルコム,インコーポレイテッド Gesture recognition via ad hoc proximity sensor mesh for remote control of objects
CN104020773A (en) * 2014-06-13 2014-09-03 哈尔滨工业大学 Accelerated speed optimal space robot online track planning method based on control period self-adaptive clock synchronization
JP2015174208A (en) * 2014-03-18 2015-10-05 セイコーエプソン株式会社 robot
CN107209566A (en) * 2015-01-19 2017-09-26 三星电子株式会社 The optical detection and analysis of internal body tissues
JP2021002364A (en) * 2020-09-02 2021-01-07 富士ゼロックス株式会社 Service providing device, server, service providing system, and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007515883A (en) * 2003-12-05 2007-06-14 カーディナル ヘルス 303、インコーポレイテッド Discovery and connection management by mobile system manager
JP2012515900A (en) * 2009-01-24 2012-07-12 シャンミン ヤン Sensing device
JP2013500522A (en) * 2009-07-23 2013-01-07 クゥアルコム・インコーポレイテッド Method and apparatus for dispensing user interface using wearable devices to control mobile devices and consumer electronic devices
JP2015046173A (en) * 2009-07-23 2015-03-12 クゥアルコム・インコーポレイテッドQualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
US9000887B2 (en) 2009-07-23 2015-04-07 Qualcomm Incorporated Method and apparatus for communicating control information by a wearable device to control mobile and consumer electronic devices
US9024865B2 (en) 2009-07-23 2015-05-05 Qualcomm Incorporated Method and apparatus for controlling mobile and consumer electronic devices
US9030404B2 (en) 2009-07-23 2015-05-12 Qualcomm Incorporated Method and apparatus for distributed user interfaces using wearable devices to control mobile and consumer electronic devices
JP2014517384A (en) * 2011-05-04 2014-07-17 クアルコム,インコーポレイテッド Gesture recognition via ad hoc proximity sensor mesh for remote control of objects
JP2015174208A (en) * 2014-03-18 2015-10-05 セイコーエプソン株式会社 robot
CN104020773A (en) * 2014-06-13 2014-09-03 哈尔滨工业大学 Accelerated speed optimal space robot online track planning method based on control period self-adaptive clock synchronization
CN104020773B (en) * 2014-06-13 2016-09-14 哈尔滨工业大学 A kind of based on controlling the online method for planning track of acceleration optimal spatial robot that periodic time self-adapting clock synchronizes
CN107209566A (en) * 2015-01-19 2017-09-26 三星电子株式会社 The optical detection and analysis of internal body tissues
EP3248084A4 (en) * 2015-01-19 2018-05-09 Samsung Electronics Co., Ltd. Optical detection and analysis of internal body tissues
EP3393343A4 (en) * 2015-01-19 2019-01-23 Samsung Electronics Co., Ltd. Optical detection and analysis of internal body tissues
US10362944B2 (en) 2015-01-19 2019-07-30 Samsung Electronics Company, Ltd. Optical detection and analysis of internal body tissues
US11119565B2 (en) 2015-01-19 2021-09-14 Samsung Electronics Company, Ltd. Optical detection and analysis of bone
CN107209566B (en) * 2015-01-19 2021-11-05 三星电子株式会社 Optical detection and analysis of internal body tissue
JP2021002364A (en) * 2020-09-02 2021-01-07 富士ゼロックス株式会社 Service providing device, server, service providing system, and program

Similar Documents

Publication Publication Date Title
US11331239B2 (en) Power assistive device for hand rehabilitation and a method of using the same
US11150081B2 (en) Thermal sensor position detecting device
CN101742981B (en) Wearable mini-size intelligent healthcare system
KR101570430B1 (en) Wearble device and operation method thereof
Stefanov et al. The smart house for older persons and persons with physical disabilities: structure, technology arrangements, and perspectives
US10744060B2 (en) Garment with remote controlled vibration array
CN101073494A (en) Non-invasive life evidence monitor, monitor system and method
CN105303793A (en) Handling vehicle accidents using a mobile terminal
Carrozza et al. A wearable biomechatronic interface for controlling robots with voluntary foot movements
CN203436505U (en) Intelligent robot used for medical nursing
JP2002361576A (en) Service providing system to work inside three-dimensional space
CN110740682A (en) Electronic device, server, data structure, physical condition management method, and physical condition management program
AU2022268375B2 (en) Multiple switching electromyography (emg) assistive communications device
JP6938980B2 (en) Information processing equipment, information processing methods and programs
EP4178436A1 (en) A gait moderation aiding system
JP2009101057A (en) Biological information processing apparatus, biological information processing method and program
Ding et al. Integrated control and related technology of assistive devices
US20190349367A1 (en) Individualized control system
Errico et al. Ambient assisted living for tetraplegic people by means of an electronic system based on a novel sensory headwear: Increased possibilities for reduced abilities
US20200279035A1 (en) Individualized control system and detection device thereof with high security
CN113827187A (en) Cold damage monitoring and early warning system suitable for extremely cold environment
Jones et al. Biosignal and context monitoring: distributed multimedia applications of body area networks in healthcare
KR101752244B1 (en) System for monitoring user using unmanned aerial vehicles
Chen et al. Implementation of fall detection and localized caring system
KR20220016715A (en) Electronic device and method for detecting danger information

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051025

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060411