JP2006289565A - Robot operation device and robot - Google Patents

Robot operation device and robot Download PDF

Info

Publication number
JP2006289565A
JP2006289565A JP2005115040A JP2005115040A JP2006289565A JP 2006289565 A JP2006289565 A JP 2006289565A JP 2005115040 A JP2005115040 A JP 2005115040A JP 2005115040 A JP2005115040 A JP 2005115040A JP 2006289565 A JP2006289565 A JP 2006289565A
Authority
JP
Japan
Prior art keywords
robot
operator
brain
sensor
brain activity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005115040A
Other languages
Japanese (ja)
Inventor
Atsushi Nakanishi
淳 中西
Atsushi Morimoto
淳 森本
Hiroshi Imamizu
寛 今水
Mitsuo Kawahito
光男 川人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
ATR Advanced Telecommunications Research Institute International
Original Assignee
Japan Science and Technology Agency
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, ATR Advanced Telecommunications Research Institute International filed Critical Japan Science and Technology Agency
Priority to JP2005115040A priority Critical patent/JP2006289565A/en
Publication of JP2006289565A publication Critical patent/JP2006289565A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot operation device for enabling a robot to instantly perform operation desired by an operator, even if a large number of sensors are not equipped in the robot, by sending out thinking and feeling of the operator to the robot as it is, and also to provide the robot. <P>SOLUTION: The operator A puts a brain cap 1 on a head part. The brain cap 1 has a first sensor 2 for measuring an electric field generated in response to brain activity and a second sensor 3 for detecting a state of a brain bloodstream. A brain activity analyzing part 12 in the robot 10 analyzes brain activity of the operator A on the basis of a signal for indicating an intracranial electric field provided by the first sensor 2 and a signal for indicating a state of the brain bloodstream provided by the second sensor 3, and the robot 10 performs operation in response to its analytical result. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、ロボットを操作するための装置、及びロボットに関する。   The present invention relates to an apparatus for operating a robot, and a robot.

ロボット開発の創成期には、工場内で人間に代わって労働を行う産業用ロボットが中心であったが、近年、一般市民の生活に対するロボットの関わり度が高くなってきている。特に、地震等の災害時に、倒壊した建物の瓦礫の中から負傷者を救助するレスキューロボットの活躍は、記憶に新しい。また、身体障害者などに対して動作補助を行う介護ロボットの研究も進んでいる。今後も日常生活におけるロボットの役割が、ますます高くなっていくと考えられる。   In the early days of robot development, industrial robots that worked on behalf of humans in factories were the focus, but in recent years, robots are becoming more involved in the lives of ordinary citizens. In particular, the rescue robot that rescues injured people from the rubble of a collapsed building in the event of an earthquake or other disaster is a new memory. In addition, research on nursing care robots that assist movement of persons with physical disabilities is also in progress. In the future, the role of robots in daily life will continue to increase.

ところで、ロボット開発に結びつけられる人間の脳活動の研究が進んでおり、脳から発生する微弱電場(脳波)及び微弱磁場(脳磁波)の計測精度は高くなっている。また、脳内の電流源の位置を高精度に推定するためのアルゴリスムも提案されている(例えば、特許文献1参照)。
国際公開第03/057035号パンフレット
By the way, research on human brain activity linked to robot development is progressing, and the measurement accuracy of weak electric field (electroencephalogram) and weak magnetic field (magnetomagnetic wave) generated from the brain is high. An algorithm for estimating the position of the current source in the brain with high accuracy has also been proposed (see, for example, Patent Document 1).
International Publication No. 03/057035 Pamphlet

ロボットは一般的に、自身に複数種のセンサを装備しており、これらの複数種のセンサの検知結果に基づいて、自身の行動を制御する。地震発生時のレスキューロボットを例にすると、レスキューロボットは、人間らしい物体を検知したとき、その物体が本当に人間であるか否かを判断し、人間であると判断した場合に、その場所まで進んで瓦礫を除去して負傷者を救出するか、レスキュー隊員に報知する。負傷者の場所までに障害物が存在する場合、レスキューロボットはその障害物にどのように対処するかを自身で考えて行動する。   In general, a robot is equipped with a plurality of types of sensors, and controls its own behavior based on detection results of the plurality of types of sensors. Taking a rescue robot at the time of an earthquake as an example, when a rescue robot detects a human-like object, it determines whether the object is really a human being, and if it determines that it is a human being, it proceeds to that location. Remove the rubble and rescue the injured or inform the rescue team. If there is an obstacle up to the injured person's place, the rescue robot will act on its own thinking how to deal with the obstacle.

このようなシステムでは、判断を行うためには多量の正確な情報が必要となるため、多数の高精度のセンサをロボットに装備しておかなければならず、コストが高くなるという問題がある。また、人間が所望する判断とは異なる誤った判断をロボットがしてしまうという問題がある。   In such a system, since a large amount of accurate information is required to make a determination, a large number of high-precision sensors must be installed in the robot, which increases the cost. In addition, there is a problem that the robot makes an erroneous determination different from the determination desired by a human.

上述したようにロボット自身が判断するのではなく、人間が判断を行い、その判断結果に応じてロボットに制御信号を送って、ロボットの動作を遠隔制御するシステムも行われいるが、このシステムではロボットの動作開始が遅くなるという問題がある。   As described above, instead of the robot itself judging, there is also a system in which a human makes a judgment and sends a control signal to the robot according to the judgment result to remotely control the operation of the robot. There is a problem that the operation start of the robot is delayed.

本発明は斯かる事情に鑑みてなされたものであり、操作者の脳活動を表す情報をそのままロボットへ送出することにより、多数のセンサをロボットに装備しておかなくても、操作者が行いたいと考えた動作を瞬時にロボットに行わせることができるロボット操作装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and by transmitting information representing the brain activity of the operator to the robot as it is, the operator can perform the operation even if the robot is not equipped with a large number of sensors. It is an object of the present invention to provide a robot operation device that can cause a robot to instantaneously perform an operation that is desired.

本発明の他の目的は、操作者の考えたことをそのまま瞬時に行うことができるロボットを提供することにある。   Another object of the present invention is to provide a robot that can instantly do what the operator thinks.

本発明のロボット操作装置は、ロボットを操作する装置において、操作者の脳活動を表す情報を非侵襲的に取得する取得手段と、該取得手段が取得した情報を前記ロボットへ出力する手段とを備えることを特徴とする。   According to another aspect of the present invention, there is provided a robot operation device including: an acquisition unit that non-invasively acquires information representing a brain activity of an operator; and a unit that outputs information acquired by the acquisition unit to the robot. It is characterized by providing.

本発明にあっては、非侵襲的に取得された操作者の脳活動を表す情報をロボットへ出力する。よって、操作者の意志または意図に沿った行動をロボットが瞬時に行う。例えば、操作者が注意を向けている方向にロボットが直ちに進む。多数のセンサをロボットに組み込んでおく必要がなく、また、操作者が指令のための制御信号をロボットに送出するのではないため、簡易な構成で状況に応じた適切な行動をロボットが瞬時に起こす。   In the present invention, non-invasively acquired information representing the brain activity of the operator is output to the robot. Therefore, the robot instantaneously performs an action according to the will or intention of the operator. For example, the robot immediately proceeds in the direction in which the operator is paying attention. It is not necessary to incorporate a large number of sensors in the robot, and the operator does not send control signals for commands to the robot, so the robot can instantly perform appropriate actions according to the situation with a simple configuration. Wake up.

本発明のロボット操作装置は、前記脳活動を表す情報が、前記操作者の少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳の脳活動を表す情報であることを特徴とする。   In the robot operation device of the present invention, the information representing the brain activity is information representing at least the motor activity, parietal lobe, premotor cortex, capture motor cortex, and cerebellar brain activity of the operator.

本発明にあっては、非侵襲的に取得された操作者の少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳の脳活動を表す情報をロボットへ出力する。よって、操作者が行いたいと考える動作をロボットが瞬時に行う。例えば、対象物を持ち上げたいと操作者が考えた場合、ロボットがその対象物を持ち上げる動作を直ちに行う。   In the present invention, information representing at least the motor area, parietal lobe, premotor area, capture motor area, and cerebellar brain activity of the operator acquired non-invasively is output to the robot. Therefore, the robot instantaneously performs an action that the operator wants to perform. For example, when an operator wants to lift an object, the robot immediately performs an operation of lifting the object.

本発明のロボット操作装置は、上記装置のいずれかにおいて、前記取得手段は、前記操作者に装着される、脳が発生する電場を計測する第1センサと、脳内の血流状態を計測する第2センサとを有することを特徴とする。   The robot operation device according to the present invention is the robot operation device according to any one of the above devices, wherein the acquisition unit measures a first sensor that is attached to the operator and measures an electric field generated by the brain, and a blood flow state in the brain. And a second sensor.

脳活動を表す一つの指標である脳が発生する電場を示す信号は、時間分解能に優れているが、空間分解能は劣るという特性を有する。一方、脳活動を表す一つの指標である脳内の血流状態を示す信号は、空間分解能に優れているが、時間分解能は劣るという特性を有する。よって、これらの信号を組み合わせることにより、それぞれの信号の長所を活かして、操作者の正確な脳活動を検知することが可能となる。   A signal indicating an electric field generated by the brain, which is one index representing brain activity, has a characteristic of being superior in temporal resolution but inferior in spatial resolution. On the other hand, a signal indicating a blood flow state in the brain, which is one index representing brain activity, has a characteristic of being superior in spatial resolution but inferior in time resolution. Therefore, by combining these signals, it is possible to detect the accurate brain activity of the operator by taking advantage of the advantages of each signal.

本発明のロボットは、操作者に操作されるロボットにおいて、前記操作者の脳活動を表す情報を入力する入力手段と、該入力手段で入力された前記情報に基づいて動作を決定する手段とを備えることを特徴とする。   The robot according to the present invention includes: an input unit that inputs information representing the brain activity of the operator; and a unit that determines an operation based on the information input by the input unit. It is characterized by providing.

操作者に操作されるロボットは、操作者の脳活動を表す情報を入力し、入力した情報に基づいて自身の動作を決定する。よって、操作者の意志または意図に沿った行動をロボットが瞬時に行う。   The robot operated by the operator inputs information representing the brain activity of the operator and determines its own motion based on the input information. Therefore, the robot instantaneously performs an action according to the will or intention of the operator.

本発明では、操作者の脳活動を表す情報を非侵襲的に取得し、取得した情報をロボットへ出力するようにしたので、操作者が所望したことまたは感じたことに応じてロボットが瞬時に行動することができる。ロボットは自身が判断を行わないので、判断のための情報を得るために多数のセンサを装備しておく必要がなくなり、低コスト化を図ることができる。また、ロボットが判断する場合よりも、正確な判断結果を得ることができる。   In the present invention, information representing the brain activity of the operator is acquired non-invasively, and the acquired information is output to the robot, so that the robot can instantly respond to what the operator desires or feels. I can act. Since the robot itself does not make a determination, it is not necessary to equip a large number of sensors to obtain information for determination, and the cost can be reduced. In addition, more accurate determination results can be obtained than when the robot makes the determination.

本発明では、操作者の少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳の脳活動を表す情報を非侵襲的に取得し、取得した情報をロボットへ出力するようにしたので、操作者がしたいと考える動作をロボットに瞬時に行わせることができる。ロボットは自身が動作の決定を行わないので、動作決定のための情報を得るために多数のセンサを装備しておく必要がなくなり、低コスト化を図ることができる。また、ロボットが決定する場合よりも、適切な動作をロボットに行わせることができる。   In the present invention, at least the motor area of the operator, the parietal lobe, the premotor area, the capture motor area, the information indicating the brain activity of the cerebellum is acquired non-invasively, and the acquired information is output to the robot. The robot can instantaneously perform the action that the operator wants to perform. Since the robot itself does not determine the operation, it is not necessary to equip a large number of sensors to obtain information for determining the operation, and the cost can be reduced. Further, it is possible to cause the robot to perform an appropriate operation as compared with the case where the robot determines.

本発明では、脳活動の時間分解能に優れている脳が発生する電場を示す信号と、脳活動の空間分解能に優れている脳内の血流状態を示す信号とを組み合わせて、脳活動を非侵襲的に計測するようにしたので、操作者の脳活動の状態を正確に把握することができる。   In the present invention, a combination of a signal indicating an electric field generated by a brain excellent in temporal resolution of brain activity and a signal indicating a blood flow state in the brain excellent in spatial resolution of brain activity is used to reduce brain activity. Since the measurement is performed invasively, the state of the brain activity of the operator can be accurately grasped.

本発明では、操作者がしたいことをそのまま即座に行えるロボットを提供することができる。   In the present invention, it is possible to provide a robot that can immediately do what the operator wants to do as it is.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。なお、本発明は、以下の実施の形態に限定されるものではない。   Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof. Note that the present invention is not limited to the following embodiments.

(第1実施の形態)
図1は、本発明で使用する、脳活動を表す情報を非侵襲的に取得する取得手段としてのブレインキャップを示す図である。ブレインキャップ1は、人間の頭部を覆うように帽子状をなした布製の下地体4に、2種類の第1センサ2,第2センサ3を複数個(例えば、数十個〜数百個)ずつ設けた構成をなしている。これらの第1センサ2及び第2センサ3は、等ピッチ(例えば、数ミリ間隔)で配設されている。
(First embodiment)
FIG. 1 is a diagram showing a brain cap used as an acquisition means for non-invasively acquiring information representing brain activity used in the present invention. The brain cap 1 has a plurality of (for example, several tens to several hundreds) two types of first sensors 2 and second sensors 3 on a cloth base body 4 having a hat shape so as to cover a human head. ). The first sensor 2 and the second sensor 3 are arranged at an equal pitch (for example, at intervals of several millimeters).

第1センサ2は、具体的には電極を有する脳波計(EEG:Electroencephalogram)であり、外部からの刺激を受けて脳内の神経細胞が発生する電流に起因する微弱な電場(脳波)を検出する。各第1センサ2は、自身が設置された各部位での脳活動に伴う電場の経時的変化を計測して出力する。第1センサ2は、時間分解能に優れており、数ミリ秒単位での計測が可能である。   Specifically, the first sensor 2 is an electroencephalogram (EEG) having electrodes, and detects a weak electric field (electroencephalogram) caused by a current generated by a nerve cell in the brain in response to an external stimulus. To do. Each first sensor 2 measures and outputs the change over time of the electric field accompanying brain activity at each site where it is installed. The first sensor 2 has excellent time resolution and can measure in units of several milliseconds.

第2センサ3は、具体的には近赤外光センサ(NIRS:Near Infrared Radiation Sensor) であって、比較的短い波長を持つ赤外光を出射する発光素子とその赤外光の反射光を受ける受光素子とを一組として構成されており、発光素子からの出射光の脳内での吸収量に基づいて脳血流の状態を検出する。各第2センサ3は、自身が設置された各部位における脳血流を計測して出力する。第2センサ3は、磁場,電場のように他の領域からの影響を受けないため空間分解能に優れており、数ミリ単位での計測が可能である。   Specifically, the second sensor 3 is a near-infrared light sensor (NIRS) which emits infrared light having a relatively short wavelength and reflects the reflected light of the infrared light. The receiving light receiving element is configured as a set, and the state of cerebral blood flow is detected based on the amount of light emitted from the light emitting element in the brain. Each second sensor 3 measures and outputs cerebral blood flow at each site where it is installed. Since the second sensor 3 is not affected by other regions such as a magnetic field and an electric field, it has excellent spatial resolution and can be measured in units of several millimeters.

このような第1センサ2及び第2センサ3は、小型の構成であっても脳活動に関する正確な情報を取得できるとともに、上述したようなブレインキャップ1に簡単に取り付けることができて大型の構成を必要としない。   The first sensor 2 and the second sensor 3 can acquire accurate information on brain activity even in a small configuration, and can be easily attached to the brain cap 1 as described above, and have a large configuration. Do not need.

図2は、本発明のロボット操作装置及びロボットの構成を示す図である。なお、以下では、地震などの災害が発生した地域で人命救助を行うロボット(レスキューロボット)10を例にして説明する。   FIG. 2 is a diagram showing the configuration of the robot operating device and the robot according to the present invention. In the following, a robot (rescue robot) 10 that saves lives in an area where a disaster such as an earthquake has occurred will be described as an example.

ロボット10の操作者Aは、図1に示したブレインキャップ1を頭部に被っている。ブレインキャップ1には、ロボット10とデータの無線通信を行う通信装置21が接続されており、ブレインキャップ1の第1センサ2及び第2センサ3で検出された信号が、通信装置21によりロボット10へ送信されるようになっている。また、通信装置21には、モニタ装置22が接続されており、ロボット10が取得した画像がモニタ装置22に表示されるようになっている。   The operator A of the robot 10 covers the brain cap 1 shown in FIG. A communication device 21 that performs wireless data communication with the robot 10 is connected to the brain cap 1, and signals detected by the first sensor 2 and the second sensor 3 of the brain cap 1 are transmitted by the communication device 21 to the robot 10. To be sent to. Further, a monitor device 22 is connected to the communication device 21, and an image acquired by the robot 10 is displayed on the monitor device 22.

ロボット10には、操作者Aの通信装置21との間でデータの無線通信を行う通信部11、ブレインキャップ1の第1センサ2及び第2センサ3で検出された信号に基づき操作者Aの脳活動を解析する脳活動解析部12、周囲の画像を取得する画像取得部13、及び、これらの各ハードウェアの動作を制御するCPU14などが備えられている。   The robot 10 includes a communication unit 11 that wirelessly communicates data with the communication device 21 of the operator A, the signals of the operator A based on signals detected by the first sensor 2 and the second sensor 3 of the brain cap 1. A brain activity analysis unit 12 that analyzes brain activity, an image acquisition unit 13 that acquires surrounding images, and a CPU 14 that controls the operation of each piece of hardware are provided.

第1センサ2及び第2センサ3で検出された信号は、通信装置21を介してロボット10へ送信される。操作者Aの脳活動を表すこれらの信号は、通信部11で受信されて脳活動解析部12へ入力される。脳活動解析部32は、脳内電場を示すデータと脳血流の状態を示すデータとに基づいて、操作者Aの脳活動を解析する。そして、ロボット10は、この解析結果に応じて動作を行う。   Signals detected by the first sensor 2 and the second sensor 3 are transmitted to the robot 10 via the communication device 21. These signals representing the brain activity of the operator A are received by the communication unit 11 and input to the brain activity analysis unit 12. The brain activity analysis unit 32 analyzes the brain activity of the operator A based on the data indicating the brain electric field and the data indicating the state of cerebral blood flow. Then, the robot 10 operates according to the analysis result.

一方、画像取得部13で得られた周囲の状況の撮影画像データは、通信部11を介して操作者A側へ送信される。送信された画像データは、通信装置21で受信されてモニタ装置22へ入力される。モニタ装置22は、画像データに応じた画像を表示して操作者Aに提示する。   On the other hand, the captured image data of the surrounding situation obtained by the image acquisition unit 13 is transmitted to the operator A side via the communication unit 11. The transmitted image data is received by the communication device 21 and input to the monitor device 22. The monitor device 22 displays an image corresponding to the image data and presents it to the operator A.

このような構成により、操作者Aは、ロボット10から送られる画像を見ながら、気になることを感じたり、行うべきことを考えたりする。このときに、その内容に応じて特定の部位(少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳)で所定の脳活動が引き起こされるため、第1センサ2及び第2センサ3で特定の信号が検出される。検出された信号はロボット10に送られ、その信号に基づくロボット10の動作が行われる。   With such a configuration, the operator A feels anxious or thinks about what to do while viewing the image sent from the robot 10. At this time, since predetermined brain activity is caused in a specific part (at least motor area, parietal lobe, premotor area, capture motor area, cerebellum) according to the contents, the first sensor 2 and the second sensor 3 A specific signal is detected. The detected signal is sent to the robot 10, and the operation of the robot 10 based on the signal is performed.

例えば、瓦礫の下に人間らしい物体が存在する画像がモニタ装置22に表示された場合、操作者Aはその方向に注意を向け、その物体に近づいて人間かどうか確認したいと思うと、そのときの空間情報処理に関連する脳の部位における第1センサ2及び第2センサ3の検知信号に基づきロボット10は人間らしい物体に近づいて行き、操作者Aがその物体が人間かどうか確認できるような場所まで近づいて確認したいと思うと、画像取得部13で取得された人間らしい物体がモニタ装置22で拡大表示され、その確実な確認作業が操作者Aによって行われる。操作者Aがその物体を人間であると判断して助けなければならないと考え、救助するためのベストの方法を考えると、意志決定処理に関連する脳の部位における第1センサ2及び第2センサ3の検知信号に基づき、ロボット10は操作者Aがベストと考えた救助方法に従ってその人を助け出す。一方、操作者Aがモニタ装置22に映し出された人間らしい物体を確認した結果、人間ではないと判断し、更に別の人間の捜索をしようと考えて別の個所に注意を向けた場合は、画像取得部13はその方向の画像を撮影してモニタ装置22に映し出す。   For example, when an image in which a human-like object is present under the rubble is displayed on the monitor device 22, the operator A pays attention to the direction and wants to check whether the person is close to the object. Based on the detection signals of the first sensor 2 and the second sensor 3 in the part of the brain related to the spatial information processing, the robot 10 approaches a human-like object to a place where the operator A can confirm whether the object is a human. When the user wants to check the image, the human-like object acquired by the image acquisition unit 13 is enlarged and displayed on the monitor device 22, and the operator A performs the reliable confirmation work. Considering that the operator A must help the object by judging that the object is human, and considering the best way to rescue, the first sensor 2 and the second sensor in the brain part related to the decision-making process Based on the detection signal 3, the robot 10 helps the person according to the rescue method that the operator A considers best. On the other hand, when the operator A confirms the human-like object displayed on the monitor device 22 and determines that the person is not a human being, and intends to search for another human being, he / she pays attention to another location. The acquisition unit 13 captures an image in that direction and displays it on the monitor device 22.

また、瓦礫中に埋まっている負傷者へ近づく途中に障害物があるような場合、操作者Aはその障害物の画像をモニタ装置22で確認して、障害物への対処方法(左まわりで迂回すべきか、右まわりで迂回すべきか、障害物を乗り越えて真っ直ぐ進むべきか、障害物を手で排除すべきかなど)を決定する。ロボット10は、この決定に伴う脳活動の情報(第1センサ2及び第2センサ3の検知信号)に基づき、操作者Aの決定内容通りに瞬時に行動する。   When there is an obstacle on the way to the injured person buried in the rubble, the operator A confirms the image of the obstacle on the monitor device 22 and measures the obstacle (in the counterclockwise direction). Decide whether to detour, detour around the right, whether to get over obstacles, go straight, or remove obstacles by hand). The robot 10 behaves instantaneously as determined by the operator A based on information on the brain activity associated with this determination (detection signals from the first sensor 2 and the second sensor 3).

以上のように、ブレインキャップ1を被った操作者Aの判断に従って、ロボット10は瞬時に動作する。ロボット10に多数種のセンサを搭載してロボット10に判断させる場合に比べて、正確な判断を行えることになり、また、ロボット10へのセンサなどのハードウェアの搭載が少なくて済んで低コスト化を図れる。また、操作者Aが一旦判断して、その判断に合うようにロボット10を動かすための制御信号をロボット10へ送信する場合と比較して、操作者Aの判断がそのままロボット10に伝送されるため、ロボット10の迅速な動作を行える。更に、操作者Aが脳で判断した複種種の情報をパラレル的にロボット10に伝えることができ、逐一制御信号をシリアル送信する場合に比べて、この点でもロボット10の迅速な行動を実現できる。   As described above, the robot 10 operates instantaneously in accordance with the judgment of the operator A who wears the brain cap 1. Compared to the case where the robot 10 is equipped with many types of sensors and makes the robot 10 make a judgment, the robot 10 can make an accurate judgment, and the robot 10 requires less hardware such as a sensor and is low in cost. Can be realized. Compared with the case where the operator A makes a determination once and transmits a control signal for moving the robot 10 to match the determination, the determination of the operator A is transmitted to the robot 10 as it is. Therefore, the robot 10 can be quickly operated. Furthermore, multiple types of information determined by the operator A in the brain can be transmitted to the robot 10 in parallel, and in this respect as well, the robot 10 can be quickly actuated as compared with the case where control signals are serially transmitted. .

なお、上述した例では、レスキューロボットの場合について説明したが、これは一例であって、身体障害者の動作を介護する介護ロボット、人間に癒し感を与えるペットロボットなど、全てのロボットに対して本発明が適用可能であることは勿論である。   In the above-described example, the case of the rescue robot has been described. However, this is only an example, and it can be applied to all robots such as a care robot that cares for the operation of a physically handicapped person and a pet robot that gives a feeling of healing to humans. Of course, the present invention is applicable.

本発明で使用するブレインキャップを示す図である。It is a figure which shows the brain cap used by this invention. 本発明のロボット操作装置及びロボットの構成を示す図である。It is a figure which shows the structure of the robot operating device and robot of this invention.

符号の説明Explanation of symbols

1 ブレインキャップ
2 第1センサ
3 第2センサ
10 ロボット
11 通信部
12 脳活動解析部
13 画像取得部
14 CPU
21 通信装置
22 モニタ装置
A 操作者
DESCRIPTION OF SYMBOLS 1 Brain cap 2 1st sensor 3 2nd sensor 10 Robot 11 Communication part 12 Brain activity analysis part 13 Image acquisition part 14 CPU
21 Communication device 22 Monitor device A Operator

Claims (4)

ロボットを操作する装置において、操作者の脳活動を表す情報を非侵襲的に取得する取得手段と、該取得手段が取得した情報を前記ロボットへ出力する手段とを備えることを特徴とするロボット操作装置。   An apparatus for operating a robot, comprising: an acquisition means for non-invasively acquiring information representing brain activity of an operator; and a means for outputting the information acquired by the acquisition means to the robot apparatus. 前記脳活動を表す情報は、前記操作者の少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳の脳活動を表す情報であることを特徴とする請求項1記載のロボット操作装置。   The robot operation apparatus according to claim 1, wherein the information representing the brain activity is information representing at least the motor activity, parietal lobe, pre-motor cortex, capture motor cortex, and cerebellar brain activity of the operator. 前記取得手段は、前記操作者に装着される、脳が発生する電場を計測する第1センサと、脳内の血流状態を計測する第2センサとを有することを特徴とする請求項1または2記載のロボット操作装置。   The said acquisition means has the 1st sensor with which the said operator is mounted | worn which measures the electric field which a brain generate | occur | produces, and the 2nd sensor which measures the blood-flow state in a brain, It is characterized by the above-mentioned. The robot operating device according to 2. 操作者に操作されるロボットにおいて、前記操作者の脳活動を表す情報を入力する入力手段と、該入力手段で入力された前記情報に基づいて動作を決定する手段とを備えることを特徴とするロボット。

A robot operated by an operator includes input means for inputting information representing the brain activity of the operator, and means for determining an action based on the information input by the input means. robot.

JP2005115040A 2005-04-12 2005-04-12 Robot operation device and robot Pending JP2006289565A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005115040A JP2006289565A (en) 2005-04-12 2005-04-12 Robot operation device and robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005115040A JP2006289565A (en) 2005-04-12 2005-04-12 Robot operation device and robot

Publications (1)

Publication Number Publication Date
JP2006289565A true JP2006289565A (en) 2006-10-26

Family

ID=37410705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005115040A Pending JP2006289565A (en) 2005-04-12 2005-04-12 Robot operation device and robot

Country Status (1)

Country Link
JP (1) JP2006289565A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010098283A1 (en) * 2009-02-24 2010-09-02 本田技研工業株式会社 Brain information output device, robot, and brain information output method
JP2010198232A (en) * 2009-02-24 2010-09-09 Honda Motor Co Ltd Brain information output device, robot, and brain information output method
CN102894971A (en) * 2011-07-29 2013-01-30 中国科学院沈阳自动化研究所 Helmet for acquiring brain signal by combining electroencephalography with near-infrared spectroscopy
WO2016041187A1 (en) * 2014-09-19 2016-03-24 中国科学院自动化研究所 Method for photoelectrically synchronizing data storage of brain activity recording
CN105852854A (en) * 2016-05-10 2016-08-17 华南理工大学 Wearable multimode brain function detection device based on NIRS-EEG
CN109571423A (en) * 2017-09-29 2019-04-05 本田技研工业株式会社 The user equipment of robot control system, robot control method and robot control system
CN110882134A (en) * 2019-10-24 2020-03-17 中国科学院深圳先进技术研究院 Obstacle crossing intention identification method, exoskeleton robot obstacle crossing control method and device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010098283A1 (en) * 2009-02-24 2010-09-02 本田技研工業株式会社 Brain information output device, robot, and brain information output method
JP2010198232A (en) * 2009-02-24 2010-09-09 Honda Motor Co Ltd Brain information output device, robot, and brain information output method
JP2010198233A (en) * 2009-02-24 2010-09-09 Honda Motor Co Ltd Brain information output device, robot, and brain information output method
CN102894971A (en) * 2011-07-29 2013-01-30 中国科学院沈阳自动化研究所 Helmet for acquiring brain signal by combining electroencephalography with near-infrared spectroscopy
WO2016041187A1 (en) * 2014-09-19 2016-03-24 中国科学院自动化研究所 Method for photoelectrically synchronizing data storage of brain activity recording
US10460833B2 (en) 2014-09-19 2019-10-29 Institute Of Automation Chinese Academy Of Sciences Method for storing data of photoelectrically synchronous brain activity recording
CN105852854A (en) * 2016-05-10 2016-08-17 华南理工大学 Wearable multimode brain function detection device based on NIRS-EEG
CN109571423A (en) * 2017-09-29 2019-04-05 本田技研工业株式会社 The user equipment of robot control system, robot control method and robot control system
US11135725B2 (en) 2017-09-29 2021-10-05 Honda Motor Co., Ltd. Robot control system, robot control method and user apparatus for robot control system
CN110882134A (en) * 2019-10-24 2020-03-17 中国科学院深圳先进技术研究院 Obstacle crossing intention identification method, exoskeleton robot obstacle crossing control method and device

Similar Documents

Publication Publication Date Title
US10213147B2 (en) Method and systems for detecting from biometrics that person sitting in seat of vehicle requires medical attention and for providing medical attention to the person
US7420472B2 (en) Patient monitoring apparatus
US9044136B2 (en) Wearable mini-size intelligent healthcare system
US7502498B2 (en) Patient monitoring apparatus
JP2006289565A (en) Robot operation device and robot
JP4612928B2 (en) Body motion sensing device
KR20170035851A (en) Smart bed system and control method thereof
KR20120071555A (en) Apparatus for rehabilitation robot
JP2011172674A (en) Patient state information management system
JP2006285425A (en) Health care service system using robot
US20210219873A1 (en) Machine vision to predict clinical patient parameters
JP2006318450A (en) Control system
Hou et al. IoT based smart wheelchair for elderly healthcare monitoring
JP2010188159A (en) Body motion sensing device
KR20170127591A (en) Health care robot
JP4505617B2 (en) Rehabilitation support device
JP4404838B2 (en) Condition analysis device
KR102258832B1 (en) Silver care system
RU2529944C1 (en) Apparatus for diagnosing performance capability of vehicle driver
KR101336925B1 (en) Walking Support Robot for Efficient Electronic Health Record
Chou Remote monitoring and control smart floor for detecting falls and wandering patterns in people with dementia
KR20200035695A (en) Montiroing system for pet and method using therewith
JP2006026209A (en) Robot
Voicu et al. Advanced monitoring & sensing of mobility impaired individuals
Abeyrathne et al. Vision-based fallen identification and hazardous access warning system of elderly people to improve well-being

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080121

A131 Notification of reasons for refusal

Effective date: 20080219

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080624