JP2007226634A - Person status recognition device, method, program, robot and life support system - Google Patents
Person status recognition device, method, program, robot and life support system Download PDFInfo
- Publication number
- JP2007226634A JP2007226634A JP2006048507A JP2006048507A JP2007226634A JP 2007226634 A JP2007226634 A JP 2007226634A JP 2006048507 A JP2006048507 A JP 2006048507A JP 2006048507 A JP2006048507 A JP 2006048507A JP 2007226634 A JP2007226634 A JP 2007226634A
- Authority
- JP
- Japan
- Prior art keywords
- person
- situation
- contents
- recognizing
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、人物の状況を認識する技術、および、その認識結果を用いてユーザの生活を支援する生活支援システムに関するものである。 The present invention relates to a technique for recognizing a person's situation and a life support system that supports a user's life using the recognition result.
従来、一般家庭でユーザの生活を補助、支援、介護するロボットや、愛玩用のロボット等が開発されている。
例えば、特開2005−103678号公報(特許文献1)には、在宅時モードと留守番モードとを有し、在宅時モードの実行時においては、ユーザが在宅中である動的環境に対応する監視動作を行い、留守番モードの実行時においてはユーザが非在宅中である静的環境に対応する監視動作を行うロボットが開示されている。この特許文献1では、ロボットがユーザの音声を認識する音声処理部を備えており、音声認識されたユーザの音声に応じて上記動作モードの切り替えが行われる。
2. Description of the Related Art Conventionally, robots that assist, support, and care for users' lives in ordinary households, pet robots, and the like have been developed.
For example, Japanese Patent Laying-Open No. 2005-103678 (Patent Document 1) has a home mode and an answering mode, and during execution of the home mode, monitoring corresponding to a dynamic environment in which the user is at home. A robot that performs an operation and performs a monitoring operation corresponding to a static environment where the user is not at home when the answering machine mode is executed is disclosed. In
また、特許第3558222号公報(特許文献2)には、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態を示すパラメータを有しており、パラメータ値に応じた行動を実行するロボットが開示されている。
また、特開2002−233979号公報(特許文献3)には、ユーザによる拍手の回数によって、実行する動作モードを切り替えることにより、多様なサービスをユーザに提供することのできる愛玩用ロボットが開示されている。
Japanese Patent No. 3558222 (Patent Document 2) has a parameter indicating the recognition result of an external environment such as vision and hearing, and an internal state such as instinct and emotion, and executes an action according to the parameter value. A robot is disclosed.
Japanese Patent Laying-Open No. 2002-2331979 (Patent Document 3) discloses a pet robot that can provide various services to the user by switching the operation mode to be executed according to the number of applause by the user. ing.
ところで、近年、ロボットの開発分野では、人とのコミュニケーションを自然に行い、人間とロボットとが違和感なく共存できる生活空間を実現させることが大きな目標の一つとして掲げられている。そのためには、人からの指示などがなくても、人がどのような状況にあるのかをロボットが自発的に認識し、認識結果に応じた対応をすることが求められる。
しかしながら、従来のロボットでは、「拍手をする」、「呼びかける」などのユーザからの所定の指示がない状態で、ユーザがおかれている状況を認識することは難しく、ユーザの状況に応じた対応をすることができないという問題があった。
By the way, in recent years, in the field of robot development, one of the major goals has been to realize a living space in which humans and robots can naturally communicate with each other and where humans and robots can coexist comfortably. For this purpose, it is required that the robot spontaneously recognizes what kind of situation the person is in without any instruction from the person and takes a response according to the recognition result.
However, with conventional robots, it is difficult to recognize the situation in which the user is placed without a specific instruction from the user, such as “applauding” or “calling”. There was a problem that I could not.
本発明は、上記問題を解決するためになされたもので、人物からの指示の有無にかかわらず、人物の状況を認識することのできる人物状況認識装置、方法、プログラム、および人物状況認識装置により認識された状況に応じた対応をとることのできるロボット、並びに生活支援システムを提供することを目的とする。 The present invention has been made to solve the above problem, and includes a person situation recognition apparatus, a method, a program, and a person situation recognition apparatus capable of recognizing the situation of a person regardless of whether there is an instruction from the person. It is an object of the present invention to provide a robot capable of taking action according to a recognized situation and a life support system.
上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、人物を監視する監視手段と、前記人物からの所定の指示を得ることなく、前記監視手段からの情報に基づいて前記人物の状況を認識する人物状況認識手段とを具備する人物状況認識装置を提供する。
In order to solve the above problems, the present invention employs the following means.
The present invention provides a person situation comprising monitoring means for monitoring a person and a person situation recognition means for recognizing the situation of the person based on information from the monitoring means without obtaining a predetermined instruction from the person. A recognition device is provided.
このような構成によれば、例えば、ビデオカメラ、マイクロフォンなどの監視手段によって取得された人物に関する情報は、人物状況認識手段に転送される。人物状況認識手段では、人物からの所定の指示を得ることなく、監視手段からの情報に基づいて人物の状況が認識される。これにより、人物からの「拍手」、「呼びかけ」などの特定の指示の有無にかかわらず、人物の状況を認識することが可能となる。 According to such a configuration, for example, information about a person acquired by a monitoring unit such as a video camera or a microphone is transferred to the person situation recognition unit. The person situation recognition means recognizes the person situation based on the information from the monitoring means without obtaining a predetermined instruction from the person. This makes it possible to recognize the situation of the person regardless of whether there is a specific instruction such as “applause” or “call” from the person.
上述の人物状況認識装置において、前記人物状況認識手段は、前記監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定手段と、各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識手段とを備えていても良い。 In the above-described person situation recognition apparatus, the person situation recognition means includes an element content identification means for identifying the contents of a plurality of elements for recognizing a person situation based on information from the monitoring means, and each of the elements Recognizing means for recognizing the situation of the person based on the combination of the contents.
このような構成によれば、例えば、ビデオカメラ、マイクロフォンなどの監視手段によって取得された人物に関する情報は、人物状況認識手段内の要素内容特定手段に転送される。要素内容特定手段では、監視手段からの情報に基づいて複数の要素に対する内容が特定される。例えば、人物の様子が単に撮影されている画像情報等から人物の状況を認識するために有効な複数の要素を検出し、各要素の内容を特定する。例えば、「場所」、「人物の姿勢」などの各要素について、「台所」、「立っている」等の内容が特定される。
このようにして、各要素の内容が特定されると、認識手段により、これら各要素の内容の組合せに基づいて人物の状況が認識される。例えば、「要素:場所」−「内容:ダイニング」、「要素:人物の姿勢」−「内容:座っている」という各要素の内容の組合せから「食事中」という人物の状況を認識する。このように、監視手段からの情報を人物の状況を認識するのに有効な各要素に分類し、この各要素の内容に基づいて人物の状況を認識するので、少ない情報で、かつ、効率よく人物の状況を認識することが可能となる。
According to such a configuration, for example, information about a person acquired by a monitoring unit such as a video camera or a microphone is transferred to an element content specifying unit in the person situation recognition unit. In the element content specifying means, the contents for a plurality of elements are specified based on the information from the monitoring means. For example, a plurality of elements effective for recognizing a person's situation are detected from image information or the like in which a person's appearance is simply captured, and the contents of each element are specified. For example, contents such as “kitchen” and “standing” are specified for each element such as “location” and “person's posture”.
When the content of each element is specified in this way, the situation of the person is recognized by the recognition means based on the combination of the content of each element. For example, the situation of a person “meal” is recognized from a combination of the contents of each element “element: place” — “content: dining”, “element: posture of person” — “content: sitting”. In this way, the information from the monitoring means is classified into each element effective for recognizing the person's situation, and the person's situation is recognized based on the contents of each element. It becomes possible to recognize the situation of a person.
本発明は、人物を監視する監視手段と、前記監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定手段と、各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識手段とを具備する人物状況認識装置を提供する。 The present invention includes a monitoring means for monitoring a person, an element content specifying means for specifying the contents of a plurality of elements for recognizing the situation of the person based on information from the monitoring means, There is provided a person situation recognition device comprising recognition means for recognizing the person situation based on a combination.
このような構成によれば、例えば、ビデオカメラ、マイクロフォンなどの監視手段によって取得された人物に関する情報は、要素内容特定手段に転送される。要素内容特定手段では、監視手段からの情報に基づいて複数の要素に対する内容が特定される。例えば、「場所」、「人物の姿勢」などの各要素について、「台所」、「立っている」等の内容が特定される。このようにして、各要素の内容が特定されると、認識手段により、これら各要素の内容の組合せに基づいて人物の状況が認識される。例えば、「要素:場所」−「内容:ダイニング」、「要素:人物の姿勢」−「内容:座っている」という各要素の内容の組合せから「食事中」という人物の状況を認識する。これにより、人物からの「拍手」、「呼びかけ」などの特定の指示の有無にかかわらず、人物の状況を認識することが可能となる。 According to such a configuration, for example, information about a person acquired by a monitoring unit such as a video camera or a microphone is transferred to the element content specifying unit. In the element content specifying means, the contents for a plurality of elements are specified based on the information from the monitoring means. For example, contents such as “kitchen” and “standing” are specified for each element such as “location” and “person's posture”. When the content of each element is specified in this way, the situation of the person is recognized by the recognition means based on the combination of the content of each element. For example, the situation of the person “meal” is recognized from the combination of the contents of the elements “element: place” — “content: dining”, “element: posture of person” — “content: sitting”. This makes it possible to recognize the situation of the person regardless of whether there is a specific instruction such as “applause” or “call” from the person.
上述の人物状況認識装置は、人物の状況と各前記要素の内容とが対応付けられている情報蓄積手段を有し、前記認識手段は、前記要素内容特定手段により特定された各前記要素の内容の組み合わせに一致する人物の状況を前記情報蓄積手段から取得することにより、前記人物の状況を認識することとしても良い。 The above-described person situation recognition apparatus has information storage means in which a person situation is associated with the contents of each element, and the recognition means includes the contents of each element specified by the element contents specification means. It is good also as recognizing the said person's condition by acquiring from the said information storage means the condition of the person who corresponds to the combination.
このような構成によれば、効率よく人物の状況を認識することができるとともに、認識精度を高めることが可能となる。また、情報蓄積手段を学習により更新する機能を備えることで、認識精度を更に高めることができる。 According to such a configuration, it is possible to efficiently recognize a person's situation and to improve recognition accuracy. In addition, the recognition accuracy can be further improved by providing a function for updating the information storage means by learning.
上述の人物状況認識装置において、前記認識手段は、前記人物の過去の状況履歴を参照して、前記人物の状況を認識することとしても良い。 In the above-described person situation recognition apparatus, the recognition unit may recognize the person situation with reference to the past situation history of the person.
このような構成によれば、人物の過去の状況履歴も参照して現在における人物の状況を認識するので、人物の状況認識の精度を更に高めることが可能となる。 According to such a configuration, since the current situation of the person is recognized with reference to the past situation history of the person, it is possible to further improve the accuracy of the situation recognition of the person.
本発明は、人物を監視する監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定過程と、各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識過程とを具備する人物状況認識方法を提供する。 The present invention provides an element content specifying process for specifying the contents of a plurality of elements for recognizing a person's situation based on information from a monitoring means for monitoring the person, and a combination of the contents of the elements. There is provided a person situation recognition method comprising a recognition process for recognizing a person situation.
本発明は、人物を監視する監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定処理と、各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識処理とをコンピュータに実行させるための人物状況認識プログラムを提供する。 The present invention is based on element content specifying processing for specifying the contents of a plurality of elements for recognizing a person's situation based on information from monitoring means for monitoring a person, and on the basis of a combination of the contents of each of the elements Provided is a person situation recognition program for causing a computer to execute a recognition process for recognizing a person situation.
本発明は、上述の人物状況認識装置によって認識された人物の状況に応じた対応をするロボットを提供する。
本発明は、上述の人物状況認識装置と、上述のロボットとを具備する生活支援システムを提供する。
The present invention provides a robot that responds to the situation of a person recognized by the person situation recognition apparatus described above.
The present invention provides a life support system including the above-described person situation recognition device and the above-described robot.
本発明の人物状況認識装置、人物状況認識方法、および人物状況認識プログラムによれば、ユーザからの指示の有無にかかわらず、ユーザの状況を認識することができるという効果を奏する。
本発明のロボットおよび生活支援システムによれば、ユーザの状況に適した対応をとることができるという効果を奏する。
According to the person situation recognition apparatus, person situation recognition method, and person situation recognition program of the present invention, there is an effect that the situation of the user can be recognized regardless of whether there is an instruction from the user.
According to the robot and the life support system of the present invention, it is possible to take an action suitable for the user's situation.
以下に、本発明に係る生活支援システムの一実施形態について、図面を参照して説明する。 Hereinafter, an embodiment of a life support system according to the present invention will be described with reference to the drawings.
〔第1の実施形態〕
以下、本発明の第1の実施形態に係る生活支援システムについて説明する。本実施形態に係る生活支援システムは、住居などのように、比較的狭い居住空間を対象としたものであり、ロボット1と、人物状況認識装置50とを主な構成要素として備えている。また、本実施形態では、住宅などの居住空間を生活支援の場としているため、ロボット1によるサービスを受ける人物(ユーザ)は特定の者に限られることとなる。
[First Embodiment]
The life support system according to the first embodiment of the present invention will be described below. The life support system according to the present embodiment is intended for a relatively small living space such as a residence, and includes the
図2は、本発明の一の実施形態に係るロボットの正面図、図3は、図2に示したロボットの左側面図である。
図2および図3に示すように、ロボット1の本体には、頭部2と、この頭部2を下方から支持する胸部3と、この胸部3の右側に設けられた右腕部4a、胸部3の左側に設けられた左腕部4bと、胸部3の下方に接続された腰部5と、この腰部5の下方に接続されたスカート部6と、このスカート部6の下方に接続された脚部7とが設けられている。
FIG. 2 is a front view of a robot according to an embodiment of the present invention, and FIG. 3 is a left side view of the robot shown in FIG.
2 and 3, the main body of the
頭部2には、頭頂部近傍に全方位カメラ11が一つ設けられている。この全方位カメラ11の外周に沿って複数の赤外線LED12が所定の間隔で円環上に配置されている。
頭部2の前面の中央近傍には、図2に示すように、前方を撮像するための前方カメラ13が正面視して右側に一つ、マイクロフォン14が正面視して左側に一つ、それぞれ設けられている。
One
In the vicinity of the center of the front surface of the
胸部3の前面の中央近傍には、モニタ15が一つ設けられている。このモニタ15の上方には、人を検知するための超音波距離センサ16が一つ設けられている。モニタ15の下方には、電源スイッチ17が一つ設けられている。超音波距離センサ16の上方には、2つのスピーカ18が左右に一つずつ設けられている。また、図3に示すように、胸部3の背面には、荷物を収納することができるランドセル部33が設けられている。ランドセル部33には、上部に設けたヒンジ周りに回動可能な開閉扉33aが設けられている。図2に示すように、胸部3の左右の肩部には、マンマシンインターフェースとして機能する肩スイッチ19がそれぞれ一つずつ設けられている。肩スイッチ19には、例えば、タッチセンサが採用されている。
One
右腕部4aおよび左腕部4bには、多関節構造が採用されている。右腕部4a、左腕部4bにおいて、胸部3との接続部近傍には、体や物の挟み込みを検知して腕の動作を止めるための脇スイッチ20がそれぞれ設けられている。図2に示すように、右腕部4aの手のひら部分には、マンマシンインターフェースとして機能する握手スイッチ21が内蔵されている。これら脇スイッチ20や握手スイッチ21には、例えば、押圧センサが採用される。
A multi-joint structure is adopted for the
腰部5の前面の中央近傍には、人を検知するための超音波距離センサ22が左右に一つずつ設けられている。これら超音波距離センサ22の下方には、複数の赤外線センサ23が配列されたセンサ領域24が設けられている。これら赤外線センサ23は、ロボット本体1の下方前方にある障害物等を検出するためのものである。図2および図3に示すように、腰部5の下方には、前面および背面において、音源方向を検出するためのマイクロフォン25が左右に一つずつ、計4つ設けられている。図3に示すように、腰部5の側面の左右には、本体を持ち上げるときに使用する取手部26がそれぞれ一つずつ設けられている。取手部26は、凹所とされており、操作者の手が挿入できるようになっている。
In the vicinity of the center of the front surface of the
スカート部6の前面下方には、段差を検出するための赤外線センサ27が、中央および左右に計3つ設けられている。図3に示すように、スカート部6の背面には、充電コネクタ28が設けられている。
Below the front surface of the
図2に示すように、脚部7の前面には、側方の距離を検出するための赤外線センサ29が左右に一つずつ設けられている。これら赤外線センサ29は、主に段差検出に用いられるものである。図3に示すように、脚部7の背面には、充電ステーションにロボット本体1を位置固定するためのフック30が設けられている。脚部7は、走行用車輪31および4つのボールキャスタ32を備えた台車とされている。
As shown in FIG. 2, one
このようなロボット1は、ロボット本体に内蔵されたバッテリからの電源供給により、作業空間を自立的に移動することが可能な構成を備えており、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でロボット1の所有者や操作者などのユーザの生活を補助・支援・介護するための各種サービスを提供するために用いられる。
そのため、ロボット1は、ユーザとの会話を実現させる会話機能のほか、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。このような機能は、例えば、ロボット1の本体に内蔵されたマイクロコンピュータ等からなる制御装置により実現されるものである。制御装置には、上述した各種カメラや各種センサ等が接続されており、カメラからの画像情報やセンサからのセンサ検出情報を取得し、これらの情報に基づいて各種プログラムを実行することにより、上述した各種機能を実現させる。なお、ロボット1の形状としては、図2および図3に示した形状に限られず、愛玩用に動物を模したものなど、種々のものを採用することが可能である。
Such a
Therefore, in addition to the conversation function for realizing the conversation with the user, the
人物状況認識装置50は、図1に示すように、人物を監視する監視手段としての各種物理センサ51と、人物からの所定の指示を得ることなく、物理センサからの情報に基づいて人物の状況を認識する人物状況認識部60とを備えている。人物状況認識部60は、物理センサ51からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する論理センサ(要素内容特定手段)52と、人物の状況と各前記要素の内容とが対応付けられている情報蓄積部(情報蓄積手段)53と、各要素の内容の組合せに基づいて人物の状況を認識する認識部(認識手段)54とを備えている。
As shown in FIG. 1, the person
物理センサ51は、例えば、人物の状態をさまざまな角度から捉えるビデオカメラ等であり、本実施形態では、住居の天井や壁等に設置され、人物の様子を上方から或いは側方から捕らえるビデオカメラ55や、ロボット1に設けられ、人物の顔の表情や姿勢などを捕らえるカメラなどが一例として挙げられる。具体的には、ロボット1に設けられた前方カメラ13、超音波距離センサ16、および超音波距離センサ22等が物理センサ51として機能する。また、ロボット1は、時計機能を有しており、これらセンサにより取得された各種情報とともに、時刻情報を後述の論理センサ52に出力する。上記物理センサ51と論理センサ52とは無線或いは有線の通信回線を介して接続されている。
The
論理センサ52は、物理センサ51により検出された人物の情報を受信する機能を備えている。また、論理センサ52は、例えば、マイクロコンピュータなどを備えており、物理センサ51から受信した情報に基づいて人物の状況を認識するための複数の要素の内容を特定する。ここでいう要素とは、1つ1つの要素は短時間あるいは瞬間的に行われるものであり、これ自体に明確な目的は無いものをいう。
The
上記要素としては、図1および図4に示すように、「場所」、「移動状況」、「姿勢」、「手の状態」、「顔の状態」などが一例として挙げられる。また、図4に示すように、「場所」に対応する内容として「寝室」、「リビング」、「台所」、「電話周辺」、「洗面所」などが挙げられ、「移動状況」に対応する内容として「静止」、「歩いている」、「歩き出す」、「立ち止まる」、「速く歩く」、「ゆっくり歩く」、「一方向」、「戻ってくる」などが挙げられ、「姿勢」に対応する内容として「立つ」、「椅子に座っている」「床に座っている」、「仰向けに寝る」、「立ち上がる」、「床に座る」、「椅子に座る」、「横になる」などが挙げられる。また、「手の状態」に対応する内容として、手の位置および手の動作が挙げられ、具体的には、手の位置として「下方」、「耳の横」、「頭の上」、「静止」、また、動作として「動きあり」、「上下の動き」、「左右の動き」などが挙げられる。また、「顔の状態」に対応する内容として、顔の位置および顔の動作が挙げられ、具体的には、顔の位置として、「正面」、「斜め下」、「斜め上」、「上」、「下」「横」などが挙げられ、顔の動作として「静止」、「動作あり」などが挙げられる。なお、これら内容については一例であり、これらに限られることはない。 Examples of the element include “location”, “movement situation”, “posture”, “hand state”, “face state”, and the like, as shown in FIGS. Further, as shown in FIG. 4, the contents corresponding to “place” include “bedroom”, “living room”, “kitchen”, “telephone area”, “toilet”, etc., and corresponds to “movement situation”. The contents include “still”, “walking”, “start walking”, “stop”, “walk fast”, “slow walk”, “one direction”, “return”, etc. Corresponding contents are “Stand”, “Sitting on a chair”, “Sitting on the floor”, “Sleeping on the back”, “Standing up”, “Sitting on the floor”, “Sitting on a chair”, “Lie down” Etc. The contents corresponding to the “hand state” include the position of the hand and the movement of the hand. Specifically, the position of the hand is “down”, “side of the ear”, “above the head”, “ “Still” and “motion”, “up / down motion”, “left / right motion” and the like can be cited as motions. The contents corresponding to the “face state” include the position of the face and the action of the face. Specifically, the positions of the face include “front”, “down diagonally”, “up diagonally”, “upper”. ”,“ Below ”,“ horizontal ”, and the like, and the face motions include“ still ”,“ with motion ”, and the like. In addition, about these contents, it is an example and is not restricted to these.
論理センサ52は、「場所」の内容特定については、以下の手法により特定することが可能である。
例えば、天井や壁などに設けられたカメラ55の設置位置は既知であるので、人物が捉えられた画像の送信元であるカメラ55を特定することにより、人物がどの位置にいるのかを特定することが可能である。また、ロボット1が、自己位置を検出する機能、周囲にいる人物までの方位、距離を検出する機能を備えている場合には、ロボット1からロボットの位置情報および人物までの距離と方位とを受け取ることにより、これら情報から人物の位置を特定することができる。
The
For example, since the installation position of the
論理センサ52は、「移動状況」の内容特定については、以下の手法により特定することが可能である。例えば、カメラにより撮影された画像フレームの差分をとることにより、人物が移動しているか静止しているのかを判定する。また、カメラ55により人の位置を連続的に追尾することにより、移動速度、移動経路を追跡する。なお、この移動状況の特定についても、上述の手法は一例であり、この手法に限られない。
The
論理センサ52は、「姿勢」、「手の状態」、「顔の状態」の内容特定については、以下の手法により特定することが可能である。例えば、ロボット1が備える前方カメラ13により取得された画像を画像処理することにより、人物の姿勢、手の状態、顔の状態を特定する。例えば、「姿勢」については、前方カメラ13により検出された人物の高さによって、立っているか座っているかを判定することができる。また、仰向けに寝ていることは、天井に設置されたカメラ55からの画像情報に基づいて全身、上半身を認識することにより行われる。更に、「立ち上がる」、「床に座る」、「椅子に座る」については、加速度センサを併用することにより、各動作を認識することが可能である。
The
また、手の状態、顔の状態については、画像情報から肌色検出を行うことにより手の位置を抽出し、頭部との位置関係において手の位置を特定する。また、顔の状態については、目や鼻など顔の特徴部分を画像処理により抽出し、更に、これら目や鼻の状態により顔の方向などを特定する。 For the hand state and the face state, the hand position is extracted by performing skin color detection from the image information, and the hand position is specified in the positional relationship with the head. As for the face state, facial features such as eyes and nose are extracted by image processing, and the face direction and the like are specified based on these eye and nose states.
なお、人物の姿勢、手の状態、顔の状態を特定する機能をロボット1が備えている場合には、ロボット1からその姿勢情報、手の状態情報、顔の状態情報を受信することにより、人物の姿勢等を特定することとしても良い。また、手の動き検出等については、特開2005−215927号公報に開示されている技術を採用することも可能である。
In the case where the
情報蓄積部53は、人物の状況と各要素の内容とを対応付けて記憶している。例えば、図5に示すように、「場所」に対して「ダイニング」、「移動状況」に対して「静止」、「姿勢」に対して「椅子に座っている」、「手の状態」に対して「上下の動き」、「顔の状態」に対して「斜め下方、かつ、動きあり」の組み合わせには、「食事中」という人物状況が対応付けられている。このように、人物の状況、例えば、「料理をする」、「電話中」、「読書中」、「居眠り中」などの各状況に対応して各要素の内容の組み合わせが対応付けられている。
The
認識部54は、論理センサ52により特定された各要素の内容の組み合わせに一致する人物の状況を情報蓄積部53から取得することにより人物の状況を認識し、この認識結果を通信回線を介してロボット1に出力する。ロボット1は、例えば、各動作プログラムと人物の状況とが対応付けられたデータベースを保有しており、このデータベースを参照して、人物の状況に対応する動作プログラムを読み出し、この動作プログラムを実行することにより、人物の状況に適した対応を実現させる。
The
次に、上述した構成を備える生活支援システムの作用について説明する。
ここでは、一例として、人物が食事をしている場合について説明する。
まず、住居内に設けられた複数のカメラ55およびロボット1の前方カメラ13、超音波距離センサ16、および超音波距離センサ22などから構成される物理センサ51から取得された画像情報などが通信回線を介して論理センサ52に入力されると、論理センサ52は、これらの画像情報を画像処理することにより、「場所」、「移動状況」、「姿勢」、「手の状態」、「顔の状態」などから構成される各要素の内容を特定する。この結果、論理センサ52により、「場所」の内容として「ダイニング」が、「移動状態」の内容として「静止」が、「姿勢」の内容として「椅子に座っている」が、「手の状態」として「上下の動き」が、「顔の状態」として「正面斜め下方かつ動きあり」が特定される。この特定結果は、認識部54に出力される。
Next, the operation of the life support system having the above-described configuration will be described.
Here, as an example, a case where a person is eating will be described.
First, image information acquired from a
認識部54は、上述した各要素の内容の組み合わせと一致する人物の状況を情報蓄積部53から取得する。この結果、「食事中」という人物の状況が取得されることとなる。認識部54は、人物の状況が「食事中」であると認識すると、この認識結果を通信回線を介してロボット1へ送信する。これにより、ロボット1の制御装置により「食事中」に対応する動作プログラムが実行されることにより、人物の状況に適した対応がなされることとなる。
The
以上説明してきたように、本実施形態に係る生活支援システムによれば、物理センサ51により取得された人物の画像に基づいて、人物の状況を認識するための各要素の内容を特定し、この要素の内容の組み合わせに基づいて人物状況を認識するので、非常に容易に人物の状況を認識することが可能となる。また、この認識結果に応じた対応をロボット1が行うことにより、ユーザからの指示の有無にかかわらずに、自主的に行動することが可能となる。
As described above, according to the life support system according to the present embodiment, the content of each element for recognizing the situation of the person is specified based on the person image acquired by the
なお、上述の実施形態においては、人物の状況を認識する際に、時間的概念を考慮していなかったが、時間的概念を含めて人物の状況を認識することとしても良い。また、時間的概念を含めた場合には、より人物の状況認識が容易となるため、その他の要素に関する特定を省略することとしても良い。例えば、人物が「電話機の周辺で2分程度停止している」という状況にある場合、「電話中」と判断することができる。一方、「電話中」と判断する際に、「手の状況」や「顔の状態」などは有効な判断材料にならない。このような場合には、「電話機の周辺」という「場所」の要素と、「停止」という「移動状況」の要素、および「2分以上」という「時間」の要素からなる3つの要素を特定することにより、「電話中」であるという状況を十分認識することが可能となる。 In the above-described embodiment, the time concept is not considered when recognizing the person's situation, but the person's situation may be recognized including the time concept. In addition, when the temporal concept is included, the situation of the person can be recognized more easily, so that the specification regarding other elements may be omitted. For example, when a person is in a situation of “stopping around the telephone for about 2 minutes”, it can be determined that the telephone is “on the phone”. On the other hand, when determining “on the phone”, “hand state” and “face condition” are not effective determination materials. In such a case, three elements are identified: a “place” element “periphery of the telephone”, a “movement situation” element “stop”, and a “time” element “2 minutes or longer”. By doing so, it is possible to fully recognize the situation of “on the phone”.
また、人は通常、「朝」、「昼」、「晩」の時間帯に、「ダイニング」で「椅子に座って」食事をするので、「場所」、「姿勢」、「時間帯」という3つの有効な要素に基づいて「食事中」という人物状態を認識することとしても良い。
このように、図4および図5に示した5つの要素について全てを特定するのではなく、人物の状況を認識するのに有効な要素のみを限定して特定することにより、更に容易に人物の状況を認識することが可能となる。
In addition, people usually eat “sitting in a chair” in “dining” during the “morning”, “noon”, and “evening” time periods, so “location”, “posture”, and “time period” The person state “meal” may be recognized based on three effective elements.
In this way, it is easier to identify a person by specifying only the elements that are effective for recognizing the person's situation instead of specifying all of the five elements shown in FIGS. It becomes possible to recognize the situation.
また、上記情報蓄積部54は、随時更新可能に構成されていても良い。例えば、人物が連続的に長時間滞在する場所、一日のうちに何度も訪れる場所、大体一定の時間に訪れる場所、略一定の間隔で訪れる場所などについて、これら場所が何を行う場所なのかを事後的に登録することにより、人物の状態認識の精度を更に高めることが可能となる。
Further, the
例えば、人物が一定の場所に長時間滞在していることがロボット1により検出された場合、ロボット1が人物に対して「何をしているの?」と問いかけるようにプログラムしておき、この問いかけに対応する人物からの回答と、このときの各要素の内容を対応付けて情報蓄積部54に蓄積することにより、情報蓄積部54を更新することとしても良い。
For example, when the
具体的には、人物がリビングに長時間滞在している場合、ロボット1は人物に対して「何をしているの?」と問いかける。この問いかけに対して「テレビを見ている」という回答があった場合、この「テレビを見ている」という回答と、現在、論理センサ52により特定されている各要素の内容、例えば、「場所」の内容として「リビング」、「移動状況」として「静止」、「姿勢」として「ソファに寝ている」、「手の状態」として「静止」、「顔の状態」として「斜め横かつ動きあり」の内容の組み合わせを対応付けて情報蓄積部54に蓄積することとしても良い。
Specifically, when a person stays in the living room for a long time, the
更に、情報蓄積部54に情報を蓄積する際に、人物の状況と各要素の内容とが適切であるかを人物に対してロボット1が確認することとしても良い。このように、確認することで、より精度の高い情報を情報蓄積部54に蓄積することが可能となる。例えば、「テレビを見ている」という状況を判断するのに、「手の状態」は有効な要素に含まれないので、「手の状態は削除する」という指示を人物がすることにより、「手の状態」以外の要素の内容の組み合わせから「テレビを見ている」という人物状況が認識されることとなる。
Further, when information is stored in the
更に、上述した情報蓄積部54に蓄積されている情報は、人物ごとにカスタマイズされていても良い。このように、カスタマイズされていることにより、人物の行動特性に応じた状況認識を実施することが可能となり、状況認識の精度を更に高めることが可能となる。この場合、人物の識別については、例えば、画像処理により顔の照合を行うことによって識別を行うこととしても良いし、人物の識別情報が記録されたICタグ56を人物が携帯し、このICタグ56の情報を読み取ることにより、人物の識別を容易に行うこととしても良い。
Furthermore, the information stored in the
更に、人物状況認識装置は、人物の過去の履歴(状況)に基づいて、現在の状況を認識することとしても良い。このように、過去の履歴に基づいて、現在の状況を認識することによって、より高い精度で人物の状況を認識することが可能となる。 Furthermore, the person situation recognition device may recognize the current situation based on the past history (situation) of the person. Thus, by recognizing the current situation based on the past history, it becomes possible to recognize the situation of the person with higher accuracy.
〔第2の実施形態〕
次に、本発明の第2の実施形態に係る生活支援システムについて図を参照して説明する。本実施形態に係る生活支援システムは、上述した第1の実施形態のように、住居などの比較的狭い屋内の居住空間を対象としたものではなく、不特定の複数の人物が行き来する比較的広い範囲、例えば、テーマパーク、商店街、美術館内などを生活支援の対象エリアとしている。このため、本実施形態に係る生活支援システムが備えるロボット1の台数や、物理センサ51の台数も行動範囲に応じて多数設置されることとなる。
[Second Embodiment]
Next, a life support system according to a second embodiment of the present invention will be described with reference to the drawings. The life support system according to the present embodiment is not intended for a relatively narrow indoor living space such as a residence, as in the first embodiment described above, and a relatively large number of unspecified persons come and go. A wide range, for example, theme parks, shopping streets, museums, and the like are the target areas for living support. For this reason, the number of
更に、本実施形態では、情報蓄積部53に蓄積される情報が上述した第1の実施形態と異なる。つまり、上述した第1の実施形態では、狭い居住空間内で、人物の生活に密着した形態での生活支援であったが、本実施形態では、比較的広い範囲内に存在する不特定多数の人物の中からロボット1等の支援を必要とする人物、例えば、「道に迷っている」、「立ち入り禁止区域に入ろうとしている」、「ロボットを呼んでいる」等の人物の状況を認識する。
以下、本実施形態に係る生活支援システムについて、上述した第1の実施形態と共通する構成要素については同一符号を付して説明を省略し、異なる構成要素について説明する。
Furthermore, in this embodiment, the information stored in the
Hereinafter, in the life support system according to the present embodiment, the same components as those in the first embodiment described above are denoted by the same reference numerals, description thereof will be omitted, and different components will be described.
図6に、本実施形態に係る情報蓄積部53の内容を示す。本実施形態において論理センサ52により取り扱われる要素は、上述と同様に、「場所」、「移動状況」、「姿勢」、「手の状態」、「顔の状態」とされている。また、人物の状況としては、例えば、「道に迷う」、「ロボットを呼ぶ」、「立ち入り禁止区域への進入」などがある。
「道に迷う」という人物行動に対応する各要素の内容の組み合わせは、図6に示すように、複数存在している。
例えば、「移動状況」として「同じ場所を行き来する」という1つの要素に対する内容と「道に迷う」という人物状況が対応付けられている。また、「場所」として「案内板前」、「移動状況」として「静止」、「顔の状態」として「前方かつ上方」という3つの要素の内容の組み合わせと「道に迷う」という状況とが対応付けられている。
FIG. 6 shows the contents of the
As shown in FIG. 6, there are a plurality of combinations of the contents of the elements corresponding to the person action “get lost”.
For example, as the “movement situation”, the content for one element “going back and forth in the same place” is associated with the person situation “getting lost”. In addition, the combination of the contents of the three elements, “Place in front”, “Moving situation” as “Still”, and “Face state” as “Front and up”, and “Lost” It is attached.
「ロボットを呼ぶ」という状況については、「移動状況」として「静止」、「手の状態」として「頭上で左右移動」、「顔の状態」として「ロボットの方向」という3つの要素の内容の組み合わせと「ロボットを呼ぶ」という状況とが対応付けられている。
また、「立ち入り禁止区域への進入」という状況については、要素内容の組み合わせが以下のように、複数存在している。
1つは、「場所」として「禁止エリアの位置」、「移動状況」として「静止」という2つの要素の内容の組み合わせが「立ち入り禁止区域への進入」という状況に対応付けられており、もう1つは、「場所」として「禁止エリアの位置」、「移動状況」として「静止」、「手の状態」として「顔の前で静止」、「顔の状態」として「正面」という4つの要素の内容の組み合わせが「立ち入り禁止区域への進入」という状況に対応付けられている。
Regarding the situation of “calling a robot”, the contents of three elements are “stationary” as “movement situation”, “moving left and right over the head” as “hand state”, and “robot direction” as “face state”. The combination is associated with the situation of “calling a robot”.
In addition, regarding the situation of “entry into the restricted area”, there are a plurality of combinations of element contents as follows.
One is a combination of the contents of two elements, “location of prohibited area” as “location” and “stationary” as “movement situation”, and is associated with the situation of “entry into the prohibited area”. One is “place of prohibited area” as “place”, “still” as “movement situation”, “still in front of face” as “hand state”, and “front” as “face state”. A combination of element contents is associated with a situation of “entry into a restricted area”.
論理センサ52は、物理センサ51から送られてくる画像情報等に写っている各人物について、各要素「場所」、「移動状況」、「姿勢」、「手の状態」、「顔の状態」の内容をそれぞれ特定し、これら要素の内容をその人物の識別情報に対応付けて認識部54に出力する。なお、人物の識別情報については、各人物が識別情報を記憶したICタグ56を携帯している場合には、このICタグ56から識別情報を読み取ることにより人物を識別してもよく、或いは、このような識別情報が割り当てられていない場合には、各人物について個別の識別情報を論理センサ52が自動的に付すことにより、各人物を識別する。
For each person shown in the image information or the like sent from the
認識部54は、論理センサ52により各人物の各要素に対応する内容が特定すると、これらの内容の組み合わせに一致する状況を情報蓄積部53から取得する。このとき、該当する状況がない人物については、今回の認識は行わないこととする。この結果、情報蓄積部53に、各要素の内容の組み合わせと一致する状況がある人物については、その人物の識別情報、および、その人物の状況を対応付けてロボット1に出力する。このとき、人物状況認識装置は、各ロボット1の位置を認識しているため、対象となる人物に最も近い位置にいるロボット1に対して、認識結果等を送信する。
When the content corresponding to each element of each person is specified by the
人物状況認識装置50から認識結果および人物の識別情報を受信したロボット1は、この人物の識別情報に基づいて不特定多数の人物の中から所望の人物を見つけ出し、この人物に対して認識結果に適した対応をとる。
例えば、認識結果が「道に迷う」であれば、ロボット1は、「どこにいきたいですか?」などのように問いかけ、この問いかけに対する回答に応じて、現在地や目的地への道順を案内するサービスを提供する。
また、認識結果が「ロボットを呼ぶ」であれば、ロボット1は、「どうしましたか?」などのように問いかけ、この問いかけに対する回答に応じて対話や動作を実行することにより、この人物の要望にあった行動を行う。
更に、認識結果が「立ち入り禁止区域への進入」であった場合には、ロボット1は、「そこへ入ってはいけません」などのように、進入を阻止するような行動をとることにより、人物の安全性を確保する。
The
For example, if the recognition result is “get lost”, the
If the recognition result is “call a robot”, the
Furthermore, when the recognition result is “entry into the restricted area”, the
以上、説明してきたように、本実施形態に係る生活支援システムでは、テーマパークやアーケード街などのように、比較的広大な範囲においても人物の行動を認識でき、人物の行動に適した対応をとることが可能となる。 As described above, the life support system according to the present embodiment can recognize a person's behavior even in a relatively wide area such as a theme park or an arcade street, and can provide a response suitable for the person's behavior. It is possible to take.
なお、上述した第1の実施形態および第2の実施形態では、人物状況認識装置はロボット1と個別に設置されていたが、この構成例に限られること無く、例えば、ロボット1に人物状況認識装置50が搭載される構成としても良い。
また、上述した第1の実施形態および第2の実施形態では、人物状況認識装置としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、各物理センサからの検出信号に基づいて別途ソフトウェアにて処理する構成も可能である。この場合、人物状況認識装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を備えている。そして、CPUが上記記憶媒体に記録されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の人物状況認識装置と同様の処理を実現させる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
In the first embodiment and the second embodiment described above, the person situation recognition device is installed separately from the
Further, in the first embodiment and the second embodiment described above, processing by hardware is assumed as the person situation recognition device, but it is not necessary to be limited to such a configuration. For example, a configuration in which software is separately processed based on detection signals from the respective physical sensors is also possible. In this case, the person situation recognition apparatus includes a main storage device such as a CPU and a RAM, and a computer-readable recording medium on which a program for realizing all or part of the above processing is recorded. Then, the CPU reads out the program recorded in the storage medium and executes information processing / calculation processing, thereby realizing processing similar to that of the above-described person situation recognition device.
Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.
なお、上述のように、ソフトウェアにて処理するのではなく、論理センサ52と認識部54という2つのハードウェアにより人物状況認識装置を構成することにより、例えば、各要素に対応する内容の特定処理を並列に実行することができる、論理センサの1つがだめになっても残りの論理センサによってバックアップすることができるなどの利点を得ることが可能となる。
Note that, as described above, instead of processing by software, the person situation recognition device is configured by two hardware units, that is, the
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.
1 ロボット
50 人物状況認識装置
51 物理センサ
52 論理センサ
53 情報蓄積部
54 認識部
60 人物状況認識部
DESCRIPTION OF
Claims (9)
前記人物からの所定の指示を得ることなく、前記監視手段からの情報に基づいて前記人物の状況を認識する人物状況認識手段と
を具備する人物状況認識装置。 A monitoring means for monitoring a person;
A person situation recognition device comprising: person situation recognition means for recognizing the person situation based on information from the monitoring means without obtaining a predetermined instruction from the person.
前記監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定手段と、
各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識手段と
を備える請求項1に記載の人物状況認識装置。 The person situation recognition means
Element content specifying means for specifying the contents of a plurality of elements for recognizing a person's situation based on information from the monitoring means;
Recognizing means for recognizing the situation of the person based on a combination of the contents of each of the elements.
前記監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定手段と、
各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識手段と
を具備する人物状況認識装置。 A monitoring means for monitoring a person;
Element content specifying means for specifying the contents of a plurality of elements for recognizing a person's situation based on information from the monitoring means;
Recognizing means for recognizing the situation of the person based on a combination of the contents of the elements.
前記認識手段は、前記要素内容特定手段により特定された各前記要素の内容の組み合わせに一致する人物の状況を前記情報蓄積手段から取得することにより、前記人物の状況を認識する請求項2または請求項3に記載の人物状況認識装置。 Comprising information storage means in which the situation of the person and the content of each element are associated with each other;
The said recognition means recognizes the said person's condition by acquiring the condition of the person who corresponds to the combination of the content of each said element specified by the said element content specification means from the said information storage means. Item 4. The person situation recognition device according to Item 3.
各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識過程と
を具備する人物状況認識方法。 An element content identification process for identifying the contents of a plurality of elements for recognizing a person's situation based on information from a monitoring means for monitoring the person;
A recognition process for recognizing the situation of the person based on a combination of the contents of the elements.
各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識処理と
をコンピュータに実行させるための人物状況認識プログラム。 Element content identification processing for identifying the contents of a plurality of elements for recognizing a person's situation based on information from a monitoring means for monitoring a person;
A person situation recognition program for causing a computer to execute a recognition process for recognizing the situation of the person based on a combination of contents of the elements.
請求項8に記載のロボットと
を具備する生活支援システム。 The person situation recognition device according to any one of claims 1 to 5,
A life support system comprising the robot according to claim 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006048507A JP2007226634A (en) | 2006-02-24 | 2006-02-24 | Person status recognition device, method, program, robot and life support system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006048507A JP2007226634A (en) | 2006-02-24 | 2006-02-24 | Person status recognition device, method, program, robot and life support system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007226634A true JP2007226634A (en) | 2007-09-06 |
Family
ID=38548385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006048507A Withdrawn JP2007226634A (en) | 2006-02-24 | 2006-02-24 | Person status recognition device, method, program, robot and life support system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007226634A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128594A (en) * | 2008-11-25 | 2010-06-10 | Sogo Keibi Hosho Co Ltd | Motion detection device and motion detection method |
CN104657694A (en) * | 2015-03-03 | 2015-05-27 | 北京烽火联拓科技有限公司 | RFID (radio frequency identification) tag as well as signal processing method and system thereof |
KR20150086074A (en) * | 2014-01-17 | 2015-07-27 | 엘지전자 주식회사 | robot cleaner and caring method of human using the same |
CN108369236A (en) * | 2015-12-08 | 2018-08-03 | 株式会社岛津制作所 | Analytical equipment data processing system and analytical equipment data processor |
JP2019123055A (en) * | 2018-01-18 | 2019-07-25 | 株式会社ユピテル | apparatus |
-
2006
- 2006-02-24 JP JP2006048507A patent/JP2007226634A/en not_active Withdrawn
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128594A (en) * | 2008-11-25 | 2010-06-10 | Sogo Keibi Hosho Co Ltd | Motion detection device and motion detection method |
KR20150086074A (en) * | 2014-01-17 | 2015-07-27 | 엘지전자 주식회사 | robot cleaner and caring method of human using the same |
KR102104896B1 (en) | 2014-01-17 | 2020-05-29 | 엘지전자 주식회사 | robot cleaner and caring method of human using the same |
CN104657694A (en) * | 2015-03-03 | 2015-05-27 | 北京烽火联拓科技有限公司 | RFID (radio frequency identification) tag as well as signal processing method and system thereof |
CN108369236A (en) * | 2015-12-08 | 2018-08-03 | 株式会社岛津制作所 | Analytical equipment data processing system and analytical equipment data processor |
CN108369236B (en) * | 2015-12-08 | 2021-09-07 | 株式会社岛津制作所 | Data processing system for analysis device and data processing program for analysis device |
JP2019123055A (en) * | 2018-01-18 | 2019-07-25 | 株式会社ユピテル | apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017169826A1 (en) | Autonomous behavior robot that performs welcoming behavior | |
JP4682217B2 (en) | Behavior control apparatus, method, and program | |
WO2018012219A1 (en) | Autonomous-behavior-type robot | |
JP7243110B2 (en) | Information processing device and information processing method, computer program, and package reception support system | |
JP2019162715A (en) | Robot installing skin | |
US20230266767A1 (en) | Information processing apparatus, information processing method, and program | |
CN109093633A (en) | A kind of detachable robot and its control method | |
JPWO2017212723A1 (en) | Virtual biological control system and virtual biological control method | |
WO2016199495A1 (en) | Behavior detection device, behavior detection method and program, and subject monitoring device | |
JP2007226634A (en) | Person status recognition device, method, program, robot and life support system | |
CN109895107A (en) | Maintaining method and recording medium are seen by nurse robot | |
JP6755447B2 (en) | Autonomous action robot with emergency stop function | |
JP6575005B2 (en) | Joint structure suitable for robot joints | |
JP2019171566A (en) | Robot having soft outer skin | |
JP7375770B2 (en) | Information processing device, information processing method, and program | |
JP2007152445A (en) | Self-propelled robot | |
JP2007152470A (en) | Robot with self-diagnostic function | |
JP4178846B2 (en) | Autonomous driving support device and program | |
KR20100075272A (en) | Method for being care of an infant using a robot | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
EP3992987A1 (en) | System and method for continously sharing behavioral states of a creature | |
JP2004029908A (en) | Support system and program | |
JP2007152444A (en) | Self-propelled robot and information management system | |
WO2021085175A1 (en) | Autonomous mobile object, information processing method, program, and information processing device | |
JP2007155985A (en) | Robot and voice recognition device, and method for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090512 |