JP2006289565A - Robot operation device and robot - Google Patents
Robot operation device and robot Download PDFInfo
- Publication number
- JP2006289565A JP2006289565A JP2005115040A JP2005115040A JP2006289565A JP 2006289565 A JP2006289565 A JP 2006289565A JP 2005115040 A JP2005115040 A JP 2005115040A JP 2005115040 A JP2005115040 A JP 2005115040A JP 2006289565 A JP2006289565 A JP 2006289565A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- operator
- brain
- sensor
- brain activity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットを操作するための装置、及びロボットに関する。 The present invention relates to an apparatus for operating a robot, and a robot.
ロボット開発の創成期には、工場内で人間に代わって労働を行う産業用ロボットが中心であったが、近年、一般市民の生活に対するロボットの関わり度が高くなってきている。特に、地震等の災害時に、倒壊した建物の瓦礫の中から負傷者を救助するレスキューロボットの活躍は、記憶に新しい。また、身体障害者などに対して動作補助を行う介護ロボットの研究も進んでいる。今後も日常生活におけるロボットの役割が、ますます高くなっていくと考えられる。 In the early days of robot development, industrial robots that worked on behalf of humans in factories were the focus, but in recent years, robots are becoming more involved in the lives of ordinary citizens. In particular, the rescue robot that rescues injured people from the rubble of a collapsed building in the event of an earthquake or other disaster is a new memory. In addition, research on nursing care robots that assist movement of persons with physical disabilities is also in progress. In the future, the role of robots in daily life will continue to increase.
ところで、ロボット開発に結びつけられる人間の脳活動の研究が進んでおり、脳から発生する微弱電場(脳波)及び微弱磁場(脳磁波)の計測精度は高くなっている。また、脳内の電流源の位置を高精度に推定するためのアルゴリスムも提案されている(例えば、特許文献1参照)。
ロボットは一般的に、自身に複数種のセンサを装備しており、これらの複数種のセンサの検知結果に基づいて、自身の行動を制御する。地震発生時のレスキューロボットを例にすると、レスキューロボットは、人間らしい物体を検知したとき、その物体が本当に人間であるか否かを判断し、人間であると判断した場合に、その場所まで進んで瓦礫を除去して負傷者を救出するか、レスキュー隊員に報知する。負傷者の場所までに障害物が存在する場合、レスキューロボットはその障害物にどのように対処するかを自身で考えて行動する。 In general, a robot is equipped with a plurality of types of sensors, and controls its own behavior based on detection results of the plurality of types of sensors. Taking a rescue robot at the time of an earthquake as an example, when a rescue robot detects a human-like object, it determines whether the object is really a human being, and if it determines that it is a human being, it proceeds to that location. Remove the rubble and rescue the injured or inform the rescue team. If there is an obstacle up to the injured person's place, the rescue robot will act on its own thinking how to deal with the obstacle.
このようなシステムでは、判断を行うためには多量の正確な情報が必要となるため、多数の高精度のセンサをロボットに装備しておかなければならず、コストが高くなるという問題がある。また、人間が所望する判断とは異なる誤った判断をロボットがしてしまうという問題がある。 In such a system, since a large amount of accurate information is required to make a determination, a large number of high-precision sensors must be installed in the robot, which increases the cost. In addition, there is a problem that the robot makes an erroneous determination different from the determination desired by a human.
上述したようにロボット自身が判断するのではなく、人間が判断を行い、その判断結果に応じてロボットに制御信号を送って、ロボットの動作を遠隔制御するシステムも行われいるが、このシステムではロボットの動作開始が遅くなるという問題がある。 As described above, instead of the robot itself judging, there is also a system in which a human makes a judgment and sends a control signal to the robot according to the judgment result to remotely control the operation of the robot. There is a problem that the operation start of the robot is delayed.
本発明は斯かる事情に鑑みてなされたものであり、操作者の脳活動を表す情報をそのままロボットへ送出することにより、多数のセンサをロボットに装備しておかなくても、操作者が行いたいと考えた動作を瞬時にロボットに行わせることができるロボット操作装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and by transmitting information representing the brain activity of the operator to the robot as it is, the operator can perform the operation even if the robot is not equipped with a large number of sensors. It is an object of the present invention to provide a robot operation device that can cause a robot to instantaneously perform an operation that is desired.
本発明の他の目的は、操作者の考えたことをそのまま瞬時に行うことができるロボットを提供することにある。 Another object of the present invention is to provide a robot that can instantly do what the operator thinks.
本発明のロボット操作装置は、ロボットを操作する装置において、操作者の脳活動を表す情報を非侵襲的に取得する取得手段と、該取得手段が取得した情報を前記ロボットへ出力する手段とを備えることを特徴とする。 According to another aspect of the present invention, there is provided a robot operation device including: an acquisition unit that non-invasively acquires information representing a brain activity of an operator; and a unit that outputs information acquired by the acquisition unit to the robot. It is characterized by providing.
本発明にあっては、非侵襲的に取得された操作者の脳活動を表す情報をロボットへ出力する。よって、操作者の意志または意図に沿った行動をロボットが瞬時に行う。例えば、操作者が注意を向けている方向にロボットが直ちに進む。多数のセンサをロボットに組み込んでおく必要がなく、また、操作者が指令のための制御信号をロボットに送出するのではないため、簡易な構成で状況に応じた適切な行動をロボットが瞬時に起こす。 In the present invention, non-invasively acquired information representing the brain activity of the operator is output to the robot. Therefore, the robot instantaneously performs an action according to the will or intention of the operator. For example, the robot immediately proceeds in the direction in which the operator is paying attention. It is not necessary to incorporate a large number of sensors in the robot, and the operator does not send control signals for commands to the robot, so the robot can instantly perform appropriate actions according to the situation with a simple configuration. Wake up.
本発明のロボット操作装置は、前記脳活動を表す情報が、前記操作者の少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳の脳活動を表す情報であることを特徴とする。 In the robot operation device of the present invention, the information representing the brain activity is information representing at least the motor activity, parietal lobe, premotor cortex, capture motor cortex, and cerebellar brain activity of the operator.
本発明にあっては、非侵襲的に取得された操作者の少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳の脳活動を表す情報をロボットへ出力する。よって、操作者が行いたいと考える動作をロボットが瞬時に行う。例えば、対象物を持ち上げたいと操作者が考えた場合、ロボットがその対象物を持ち上げる動作を直ちに行う。 In the present invention, information representing at least the motor area, parietal lobe, premotor area, capture motor area, and cerebellar brain activity of the operator acquired non-invasively is output to the robot. Therefore, the robot instantaneously performs an action that the operator wants to perform. For example, when an operator wants to lift an object, the robot immediately performs an operation of lifting the object.
本発明のロボット操作装置は、上記装置のいずれかにおいて、前記取得手段は、前記操作者に装着される、脳が発生する電場を計測する第1センサと、脳内の血流状態を計測する第2センサとを有することを特徴とする。 The robot operation device according to the present invention is the robot operation device according to any one of the above devices, wherein the acquisition unit measures a first sensor that is attached to the operator and measures an electric field generated by the brain, and a blood flow state in the brain. And a second sensor.
脳活動を表す一つの指標である脳が発生する電場を示す信号は、時間分解能に優れているが、空間分解能は劣るという特性を有する。一方、脳活動を表す一つの指標である脳内の血流状態を示す信号は、空間分解能に優れているが、時間分解能は劣るという特性を有する。よって、これらの信号を組み合わせることにより、それぞれの信号の長所を活かして、操作者の正確な脳活動を検知することが可能となる。 A signal indicating an electric field generated by the brain, which is one index representing brain activity, has a characteristic of being superior in temporal resolution but inferior in spatial resolution. On the other hand, a signal indicating a blood flow state in the brain, which is one index representing brain activity, has a characteristic of being superior in spatial resolution but inferior in time resolution. Therefore, by combining these signals, it is possible to detect the accurate brain activity of the operator by taking advantage of the advantages of each signal.
本発明のロボットは、操作者に操作されるロボットにおいて、前記操作者の脳活動を表す情報を入力する入力手段と、該入力手段で入力された前記情報に基づいて動作を決定する手段とを備えることを特徴とする。 The robot according to the present invention includes: an input unit that inputs information representing the brain activity of the operator; and a unit that determines an operation based on the information input by the input unit. It is characterized by providing.
操作者に操作されるロボットは、操作者の脳活動を表す情報を入力し、入力した情報に基づいて自身の動作を決定する。よって、操作者の意志または意図に沿った行動をロボットが瞬時に行う。 The robot operated by the operator inputs information representing the brain activity of the operator and determines its own motion based on the input information. Therefore, the robot instantaneously performs an action according to the will or intention of the operator.
本発明では、操作者の脳活動を表す情報を非侵襲的に取得し、取得した情報をロボットへ出力するようにしたので、操作者が所望したことまたは感じたことに応じてロボットが瞬時に行動することができる。ロボットは自身が判断を行わないので、判断のための情報を得るために多数のセンサを装備しておく必要がなくなり、低コスト化を図ることができる。また、ロボットが判断する場合よりも、正確な判断結果を得ることができる。 In the present invention, information representing the brain activity of the operator is acquired non-invasively, and the acquired information is output to the robot, so that the robot can instantly respond to what the operator desires or feels. I can act. Since the robot itself does not make a determination, it is not necessary to equip a large number of sensors to obtain information for determination, and the cost can be reduced. In addition, more accurate determination results can be obtained than when the robot makes the determination.
本発明では、操作者の少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳の脳活動を表す情報を非侵襲的に取得し、取得した情報をロボットへ出力するようにしたので、操作者がしたいと考える動作をロボットに瞬時に行わせることができる。ロボットは自身が動作の決定を行わないので、動作決定のための情報を得るために多数のセンサを装備しておく必要がなくなり、低コスト化を図ることができる。また、ロボットが決定する場合よりも、適切な動作をロボットに行わせることができる。 In the present invention, at least the motor area of the operator, the parietal lobe, the premotor area, the capture motor area, the information indicating the brain activity of the cerebellum is acquired non-invasively, and the acquired information is output to the robot. The robot can instantaneously perform the action that the operator wants to perform. Since the robot itself does not determine the operation, it is not necessary to equip a large number of sensors to obtain information for determining the operation, and the cost can be reduced. Further, it is possible to cause the robot to perform an appropriate operation as compared with the case where the robot determines.
本発明では、脳活動の時間分解能に優れている脳が発生する電場を示す信号と、脳活動の空間分解能に優れている脳内の血流状態を示す信号とを組み合わせて、脳活動を非侵襲的に計測するようにしたので、操作者の脳活動の状態を正確に把握することができる。 In the present invention, a combination of a signal indicating an electric field generated by a brain excellent in temporal resolution of brain activity and a signal indicating a blood flow state in the brain excellent in spatial resolution of brain activity is used to reduce brain activity. Since the measurement is performed invasively, the state of the brain activity of the operator can be accurately grasped.
本発明では、操作者がしたいことをそのまま即座に行えるロボットを提供することができる。 In the present invention, it is possible to provide a robot that can immediately do what the operator wants to do as it is.
以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。なお、本発明は、以下の実施の形態に限定されるものではない。 Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof. Note that the present invention is not limited to the following embodiments.
(第1実施の形態)
図1は、本発明で使用する、脳活動を表す情報を非侵襲的に取得する取得手段としてのブレインキャップを示す図である。ブレインキャップ1は、人間の頭部を覆うように帽子状をなした布製の下地体4に、2種類の第1センサ2,第2センサ3を複数個(例えば、数十個〜数百個)ずつ設けた構成をなしている。これらの第1センサ2及び第2センサ3は、等ピッチ(例えば、数ミリ間隔)で配設されている。
(First embodiment)
FIG. 1 is a diagram showing a brain cap used as an acquisition means for non-invasively acquiring information representing brain activity used in the present invention. The brain cap 1 has a plurality of (for example, several tens to several hundreds) two types of
第1センサ2は、具体的には電極を有する脳波計(EEG:Electroencephalogram)であり、外部からの刺激を受けて脳内の神経細胞が発生する電流に起因する微弱な電場(脳波)を検出する。各第1センサ2は、自身が設置された各部位での脳活動に伴う電場の経時的変化を計測して出力する。第1センサ2は、時間分解能に優れており、数ミリ秒単位での計測が可能である。
Specifically, the
第2センサ3は、具体的には近赤外光センサ(NIRS:Near Infrared Radiation Sensor) であって、比較的短い波長を持つ赤外光を出射する発光素子とその赤外光の反射光を受ける受光素子とを一組として構成されており、発光素子からの出射光の脳内での吸収量に基づいて脳血流の状態を検出する。各第2センサ3は、自身が設置された各部位における脳血流を計測して出力する。第2センサ3は、磁場,電場のように他の領域からの影響を受けないため空間分解能に優れており、数ミリ単位での計測が可能である。
Specifically, the
このような第1センサ2及び第2センサ3は、小型の構成であっても脳活動に関する正確な情報を取得できるとともに、上述したようなブレインキャップ1に簡単に取り付けることができて大型の構成を必要としない。
The
図2は、本発明のロボット操作装置及びロボットの構成を示す図である。なお、以下では、地震などの災害が発生した地域で人命救助を行うロボット(レスキューロボット)10を例にして説明する。 FIG. 2 is a diagram showing the configuration of the robot operating device and the robot according to the present invention. In the following, a robot (rescue robot) 10 that saves lives in an area where a disaster such as an earthquake has occurred will be described as an example.
ロボット10の操作者Aは、図1に示したブレインキャップ1を頭部に被っている。ブレインキャップ1には、ロボット10とデータの無線通信を行う通信装置21が接続されており、ブレインキャップ1の第1センサ2及び第2センサ3で検出された信号が、通信装置21によりロボット10へ送信されるようになっている。また、通信装置21には、モニタ装置22が接続されており、ロボット10が取得した画像がモニタ装置22に表示されるようになっている。
The operator A of the
ロボット10には、操作者Aの通信装置21との間でデータの無線通信を行う通信部11、ブレインキャップ1の第1センサ2及び第2センサ3で検出された信号に基づき操作者Aの脳活動を解析する脳活動解析部12、周囲の画像を取得する画像取得部13、及び、これらの各ハードウェアの動作を制御するCPU14などが備えられている。
The
第1センサ2及び第2センサ3で検出された信号は、通信装置21を介してロボット10へ送信される。操作者Aの脳活動を表すこれらの信号は、通信部11で受信されて脳活動解析部12へ入力される。脳活動解析部32は、脳内電場を示すデータと脳血流の状態を示すデータとに基づいて、操作者Aの脳活動を解析する。そして、ロボット10は、この解析結果に応じて動作を行う。
Signals detected by the
一方、画像取得部13で得られた周囲の状況の撮影画像データは、通信部11を介して操作者A側へ送信される。送信された画像データは、通信装置21で受信されてモニタ装置22へ入力される。モニタ装置22は、画像データに応じた画像を表示して操作者Aに提示する。
On the other hand, the captured image data of the surrounding situation obtained by the
このような構成により、操作者Aは、ロボット10から送られる画像を見ながら、気になることを感じたり、行うべきことを考えたりする。このときに、その内容に応じて特定の部位(少なくとも運動野、頭頂葉、運動前野、補捉運動野、小脳)で所定の脳活動が引き起こされるため、第1センサ2及び第2センサ3で特定の信号が検出される。検出された信号はロボット10に送られ、その信号に基づくロボット10の動作が行われる。
With such a configuration, the operator A feels anxious or thinks about what to do while viewing the image sent from the
例えば、瓦礫の下に人間らしい物体が存在する画像がモニタ装置22に表示された場合、操作者Aはその方向に注意を向け、その物体に近づいて人間かどうか確認したいと思うと、そのときの空間情報処理に関連する脳の部位における第1センサ2及び第2センサ3の検知信号に基づきロボット10は人間らしい物体に近づいて行き、操作者Aがその物体が人間かどうか確認できるような場所まで近づいて確認したいと思うと、画像取得部13で取得された人間らしい物体がモニタ装置22で拡大表示され、その確実な確認作業が操作者Aによって行われる。操作者Aがその物体を人間であると判断して助けなければならないと考え、救助するためのベストの方法を考えると、意志決定処理に関連する脳の部位における第1センサ2及び第2センサ3の検知信号に基づき、ロボット10は操作者Aがベストと考えた救助方法に従ってその人を助け出す。一方、操作者Aがモニタ装置22に映し出された人間らしい物体を確認した結果、人間ではないと判断し、更に別の人間の捜索をしようと考えて別の個所に注意を向けた場合は、画像取得部13はその方向の画像を撮影してモニタ装置22に映し出す。
For example, when an image in which a human-like object is present under the rubble is displayed on the
また、瓦礫中に埋まっている負傷者へ近づく途中に障害物があるような場合、操作者Aはその障害物の画像をモニタ装置22で確認して、障害物への対処方法(左まわりで迂回すべきか、右まわりで迂回すべきか、障害物を乗り越えて真っ直ぐ進むべきか、障害物を手で排除すべきかなど)を決定する。ロボット10は、この決定に伴う脳活動の情報(第1センサ2及び第2センサ3の検知信号)に基づき、操作者Aの決定内容通りに瞬時に行動する。
When there is an obstacle on the way to the injured person buried in the rubble, the operator A confirms the image of the obstacle on the
以上のように、ブレインキャップ1を被った操作者Aの判断に従って、ロボット10は瞬時に動作する。ロボット10に多数種のセンサを搭載してロボット10に判断させる場合に比べて、正確な判断を行えることになり、また、ロボット10へのセンサなどのハードウェアの搭載が少なくて済んで低コスト化を図れる。また、操作者Aが一旦判断して、その判断に合うようにロボット10を動かすための制御信号をロボット10へ送信する場合と比較して、操作者Aの判断がそのままロボット10に伝送されるため、ロボット10の迅速な動作を行える。更に、操作者Aが脳で判断した複種種の情報をパラレル的にロボット10に伝えることができ、逐一制御信号をシリアル送信する場合に比べて、この点でもロボット10の迅速な行動を実現できる。
As described above, the
なお、上述した例では、レスキューロボットの場合について説明したが、これは一例であって、身体障害者の動作を介護する介護ロボット、人間に癒し感を与えるペットロボットなど、全てのロボットに対して本発明が適用可能であることは勿論である。 In the above-described example, the case of the rescue robot has been described. However, this is only an example, and it can be applied to all robots such as a care robot that cares for the operation of a physically handicapped person and a pet robot that gives a feeling of healing to humans. Of course, the present invention is applicable.
1 ブレインキャップ
2 第1センサ
3 第2センサ
10 ロボット
11 通信部
12 脳活動解析部
13 画像取得部
14 CPU
21 通信装置
22 モニタ装置
A 操作者
DESCRIPTION OF SYMBOLS 1
21
Claims (4)
A robot operated by an operator includes input means for inputting information representing the brain activity of the operator, and means for determining an action based on the information input by the input means. robot.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005115040A JP2006289565A (en) | 2005-04-12 | 2005-04-12 | Robot operation device and robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005115040A JP2006289565A (en) | 2005-04-12 | 2005-04-12 | Robot operation device and robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006289565A true JP2006289565A (en) | 2006-10-26 |
Family
ID=37410705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005115040A Pending JP2006289565A (en) | 2005-04-12 | 2005-04-12 | Robot operation device and robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006289565A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010098283A1 (en) * | 2009-02-24 | 2010-09-02 | 本田技研工業株式会社 | Brain information output device, robot, and brain information output method |
JP2010198232A (en) * | 2009-02-24 | 2010-09-09 | Honda Motor Co Ltd | Brain information output device, robot, and brain information output method |
CN102894971A (en) * | 2011-07-29 | 2013-01-30 | 中国科学院沈阳自动化研究所 | Helmet for acquiring brain signal by combining electroencephalography with near-infrared spectroscopy |
WO2016041187A1 (en) * | 2014-09-19 | 2016-03-24 | 中国科学院自动化研究所 | Method for photoelectrically synchronizing data storage of brain activity recording |
CN105852854A (en) * | 2016-05-10 | 2016-08-17 | 华南理工大学 | Wearable multimode brain function detection device based on NIRS-EEG |
CN109571423A (en) * | 2017-09-29 | 2019-04-05 | 本田技研工业株式会社 | The user equipment of robot control system, robot control method and robot control system |
CN110882134A (en) * | 2019-10-24 | 2020-03-17 | 中国科学院深圳先进技术研究院 | Obstacle crossing intention identification method, exoskeleton robot obstacle crossing control method and device |
-
2005
- 2005-04-12 JP JP2005115040A patent/JP2006289565A/en active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010098283A1 (en) * | 2009-02-24 | 2010-09-02 | 本田技研工業株式会社 | Brain information output device, robot, and brain information output method |
JP2010198232A (en) * | 2009-02-24 | 2010-09-09 | Honda Motor Co Ltd | Brain information output device, robot, and brain information output method |
JP2010198233A (en) * | 2009-02-24 | 2010-09-09 | Honda Motor Co Ltd | Brain information output device, robot, and brain information output method |
CN102894971A (en) * | 2011-07-29 | 2013-01-30 | 中国科学院沈阳自动化研究所 | Helmet for acquiring brain signal by combining electroencephalography with near-infrared spectroscopy |
WO2016041187A1 (en) * | 2014-09-19 | 2016-03-24 | 中国科学院自动化研究所 | Method for photoelectrically synchronizing data storage of brain activity recording |
US10460833B2 (en) | 2014-09-19 | 2019-10-29 | Institute Of Automation Chinese Academy Of Sciences | Method for storing data of photoelectrically synchronous brain activity recording |
CN105852854A (en) * | 2016-05-10 | 2016-08-17 | 华南理工大学 | Wearable multimode brain function detection device based on NIRS-EEG |
CN109571423A (en) * | 2017-09-29 | 2019-04-05 | 本田技研工业株式会社 | The user equipment of robot control system, robot control method and robot control system |
US11135725B2 (en) | 2017-09-29 | 2021-10-05 | Honda Motor Co., Ltd. | Robot control system, robot control method and user apparatus for robot control system |
CN110882134A (en) * | 2019-10-24 | 2020-03-17 | 中国科学院深圳先进技术研究院 | Obstacle crossing intention identification method, exoskeleton robot obstacle crossing control method and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10213147B2 (en) | Method and systems for detecting from biometrics that person sitting in seat of vehicle requires medical attention and for providing medical attention to the person | |
US7420472B2 (en) | Patient monitoring apparatus | |
US9044136B2 (en) | Wearable mini-size intelligent healthcare system | |
US7502498B2 (en) | Patient monitoring apparatus | |
JP2006289565A (en) | Robot operation device and robot | |
JP4612928B2 (en) | Body motion sensing device | |
KR20170035851A (en) | Smart bed system and control method thereof | |
KR20120071555A (en) | Apparatus for rehabilitation robot | |
JP2011172674A (en) | Patient state information management system | |
JP2006285425A (en) | Health care service system using robot | |
US20210219873A1 (en) | Machine vision to predict clinical patient parameters | |
JP2006318450A (en) | Control system | |
Hou et al. | IoT based smart wheelchair for elderly healthcare monitoring | |
JP2010188159A (en) | Body motion sensing device | |
KR20170127591A (en) | Health care robot | |
JP4505617B2 (en) | Rehabilitation support device | |
JP4404838B2 (en) | Condition analysis device | |
KR102258832B1 (en) | Silver care system | |
RU2529944C1 (en) | Apparatus for diagnosing performance capability of vehicle driver | |
KR101336925B1 (en) | Walking Support Robot for Efficient Electronic Health Record | |
Chou | Remote monitoring and control smart floor for detecting falls and wandering patterns in people with dementia | |
KR20200035695A (en) | Montiroing system for pet and method using therewith | |
JP2006026209A (en) | Robot | |
Voicu et al. | Advanced monitoring & sensing of mobility impaired individuals | |
Abeyrathne et al. | Vision-based fallen identification and hazardous access warning system of elderly people to improve well-being |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071120 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080121 |
|
A131 | Notification of reasons for refusal |
Effective date: 20080219 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080624 |