JP2007226634A - Person status recognition device, method, program, robot and life support system - Google Patents

Person status recognition device, method, program, robot and life support system Download PDF

Info

Publication number
JP2007226634A
JP2007226634A JP2006048507A JP2006048507A JP2007226634A JP 2007226634 A JP2007226634 A JP 2007226634A JP 2006048507 A JP2006048507 A JP 2006048507A JP 2006048507 A JP2006048507 A JP 2006048507A JP 2007226634 A JP2007226634 A JP 2007226634A
Authority
JP
Japan
Prior art keywords
person
situation
contents
recognizing
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006048507A
Other languages
Japanese (ja)
Inventor
Masahito Takuhara
雅人 宅原
Yoshihiro Furuyui
義浩 古結
Tetsuya Tomonaka
哲也 塘中
Ken Onishi
献 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2006048507A priority Critical patent/JP2007226634A/en
Publication of JP2007226634A publication Critical patent/JP2007226634A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To recognize a status of a person regardless of an instruction from the person. <P>SOLUTION: This person status recognition device has: a physical sensor 51 comprising a plurality of sensors monitoring the person; a logical sensor 52 specifying contents of a plurality of elements for recognizing the status of the person on the basis of information from the physical sensor 51; and a recognition part 53 recognizing the status of the person on the basis of a combination of contents of the respective elements. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、人物の状況を認識する技術、および、その認識結果を用いてユーザの生活を支援する生活支援システムに関するものである。   The present invention relates to a technique for recognizing a person's situation and a life support system that supports a user's life using the recognition result.

従来、一般家庭でユーザの生活を補助、支援、介護するロボットや、愛玩用のロボット等が開発されている。
例えば、特開2005−103678号公報(特許文献1)には、在宅時モードと留守番モードとを有し、在宅時モードの実行時においては、ユーザが在宅中である動的環境に対応する監視動作を行い、留守番モードの実行時においてはユーザが非在宅中である静的環境に対応する監視動作を行うロボットが開示されている。この特許文献1では、ロボットがユーザの音声を認識する音声処理部を備えており、音声認識されたユーザの音声に応じて上記動作モードの切り替えが行われる。
2. Description of the Related Art Conventionally, robots that assist, support, and care for users' lives in ordinary households, pet robots, and the like have been developed.
For example, Japanese Patent Laying-Open No. 2005-103678 (Patent Document 1) has a home mode and an answering mode, and during execution of the home mode, monitoring corresponding to a dynamic environment in which the user is at home. A robot that performs an operation and performs a monitoring operation corresponding to a static environment where the user is not at home when the answering machine mode is executed is disclosed. In Patent Literature 1, the robot includes a voice processing unit that recognizes the user's voice, and the operation mode is switched according to the voice of the user who has been voice-recognized.

また、特許第3558222号公報(特許文献2)には、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態を示すパラメータを有しており、パラメータ値に応じた行動を実行するロボットが開示されている。
また、特開2002−233979号公報(特許文献3)には、ユーザによる拍手の回数によって、実行する動作モードを切り替えることにより、多様なサービスをユーザに提供することのできる愛玩用ロボットが開示されている。
Japanese Patent No. 3558222 (Patent Document 2) has a parameter indicating the recognition result of an external environment such as vision and hearing, and an internal state such as instinct and emotion, and executes an action according to the parameter value. A robot is disclosed.
Japanese Patent Laying-Open No. 2002-2331979 (Patent Document 3) discloses a pet robot that can provide various services to the user by switching the operation mode to be executed according to the number of applause by the user. ing.

特開2005−103678号公報JP 2005-103678 A 特許第3558222号公報Japanese Patent No. 3558222 特開2002−233979号公報Japanese Patent Laid-Open No. 2002-2331979

ところで、近年、ロボットの開発分野では、人とのコミュニケーションを自然に行い、人間とロボットとが違和感なく共存できる生活空間を実現させることが大きな目標の一つとして掲げられている。そのためには、人からの指示などがなくても、人がどのような状況にあるのかをロボットが自発的に認識し、認識結果に応じた対応をすることが求められる。
しかしながら、従来のロボットでは、「拍手をする」、「呼びかける」などのユーザからの所定の指示がない状態で、ユーザがおかれている状況を認識することは難しく、ユーザの状況に応じた対応をすることができないという問題があった。
By the way, in recent years, in the field of robot development, one of the major goals has been to realize a living space in which humans and robots can naturally communicate with each other and where humans and robots can coexist comfortably. For this purpose, it is required that the robot spontaneously recognizes what kind of situation the person is in without any instruction from the person and takes a response according to the recognition result.
However, with conventional robots, it is difficult to recognize the situation in which the user is placed without a specific instruction from the user, such as “applauding” or “calling”. There was a problem that I could not.

本発明は、上記問題を解決するためになされたもので、人物からの指示の有無にかかわらず、人物の状況を認識することのできる人物状況認識装置、方法、プログラム、および人物状況認識装置により認識された状況に応じた対応をとることのできるロボット、並びに生活支援システムを提供することを目的とする。   The present invention has been made to solve the above problem, and includes a person situation recognition apparatus, a method, a program, and a person situation recognition apparatus capable of recognizing the situation of a person regardless of whether there is an instruction from the person. It is an object of the present invention to provide a robot capable of taking action according to a recognized situation and a life support system.

上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、人物を監視する監視手段と、前記人物からの所定の指示を得ることなく、前記監視手段からの情報に基づいて前記人物の状況を認識する人物状況認識手段とを具備する人物状況認識装置を提供する。
In order to solve the above problems, the present invention employs the following means.
The present invention provides a person situation comprising monitoring means for monitoring a person and a person situation recognition means for recognizing the situation of the person based on information from the monitoring means without obtaining a predetermined instruction from the person. A recognition device is provided.

このような構成によれば、例えば、ビデオカメラ、マイクロフォンなどの監視手段によって取得された人物に関する情報は、人物状況認識手段に転送される。人物状況認識手段では、人物からの所定の指示を得ることなく、監視手段からの情報に基づいて人物の状況が認識される。これにより、人物からの「拍手」、「呼びかけ」などの特定の指示の有無にかかわらず、人物の状況を認識することが可能となる。   According to such a configuration, for example, information about a person acquired by a monitoring unit such as a video camera or a microphone is transferred to the person situation recognition unit. The person situation recognition means recognizes the person situation based on the information from the monitoring means without obtaining a predetermined instruction from the person. This makes it possible to recognize the situation of the person regardless of whether there is a specific instruction such as “applause” or “call” from the person.

上述の人物状況認識装置において、前記人物状況認識手段は、前記監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定手段と、各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識手段とを備えていても良い。   In the above-described person situation recognition apparatus, the person situation recognition means includes an element content identification means for identifying the contents of a plurality of elements for recognizing a person situation based on information from the monitoring means, and each of the elements Recognizing means for recognizing the situation of the person based on the combination of the contents.

このような構成によれば、例えば、ビデオカメラ、マイクロフォンなどの監視手段によって取得された人物に関する情報は、人物状況認識手段内の要素内容特定手段に転送される。要素内容特定手段では、監視手段からの情報に基づいて複数の要素に対する内容が特定される。例えば、人物の様子が単に撮影されている画像情報等から人物の状況を認識するために有効な複数の要素を検出し、各要素の内容を特定する。例えば、「場所」、「人物の姿勢」などの各要素について、「台所」、「立っている」等の内容が特定される。
このようにして、各要素の内容が特定されると、認識手段により、これら各要素の内容の組合せに基づいて人物の状況が認識される。例えば、「要素:場所」−「内容:ダイニング」、「要素:人物の姿勢」−「内容:座っている」という各要素の内容の組合せから「食事中」という人物の状況を認識する。このように、監視手段からの情報を人物の状況を認識するのに有効な各要素に分類し、この各要素の内容に基づいて人物の状況を認識するので、少ない情報で、かつ、効率よく人物の状況を認識することが可能となる。
According to such a configuration, for example, information about a person acquired by a monitoring unit such as a video camera or a microphone is transferred to an element content specifying unit in the person situation recognition unit. In the element content specifying means, the contents for a plurality of elements are specified based on the information from the monitoring means. For example, a plurality of elements effective for recognizing a person's situation are detected from image information or the like in which a person's appearance is simply captured, and the contents of each element are specified. For example, contents such as “kitchen” and “standing” are specified for each element such as “location” and “person's posture”.
When the content of each element is specified in this way, the situation of the person is recognized by the recognition means based on the combination of the content of each element. For example, the situation of a person “meal” is recognized from a combination of the contents of each element “element: place” — “content: dining”, “element: posture of person” — “content: sitting”. In this way, the information from the monitoring means is classified into each element effective for recognizing the person's situation, and the person's situation is recognized based on the contents of each element. It becomes possible to recognize the situation of a person.

本発明は、人物を監視する監視手段と、前記監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定手段と、各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識手段とを具備する人物状況認識装置を提供する。   The present invention includes a monitoring means for monitoring a person, an element content specifying means for specifying the contents of a plurality of elements for recognizing the situation of the person based on information from the monitoring means, There is provided a person situation recognition device comprising recognition means for recognizing the person situation based on a combination.

このような構成によれば、例えば、ビデオカメラ、マイクロフォンなどの監視手段によって取得された人物に関する情報は、要素内容特定手段に転送される。要素内容特定手段では、監視手段からの情報に基づいて複数の要素に対する内容が特定される。例えば、「場所」、「人物の姿勢」などの各要素について、「台所」、「立っている」等の内容が特定される。このようにして、各要素の内容が特定されると、認識手段により、これら各要素の内容の組合せに基づいて人物の状況が認識される。例えば、「要素:場所」−「内容:ダイニング」、「要素:人物の姿勢」−「内容:座っている」という各要素の内容の組合せから「食事中」という人物の状況を認識する。これにより、人物からの「拍手」、「呼びかけ」などの特定の指示の有無にかかわらず、人物の状況を認識することが可能となる。   According to such a configuration, for example, information about a person acquired by a monitoring unit such as a video camera or a microphone is transferred to the element content specifying unit. In the element content specifying means, the contents for a plurality of elements are specified based on the information from the monitoring means. For example, contents such as “kitchen” and “standing” are specified for each element such as “location” and “person's posture”. When the content of each element is specified in this way, the situation of the person is recognized by the recognition means based on the combination of the content of each element. For example, the situation of the person “meal” is recognized from the combination of the contents of the elements “element: place” — “content: dining”, “element: posture of person” — “content: sitting”. This makes it possible to recognize the situation of the person regardless of whether there is a specific instruction such as “applause” or “call” from the person.

上述の人物状況認識装置は、人物の状況と各前記要素の内容とが対応付けられている情報蓄積手段を有し、前記認識手段は、前記要素内容特定手段により特定された各前記要素の内容の組み合わせに一致する人物の状況を前記情報蓄積手段から取得することにより、前記人物の状況を認識することとしても良い。   The above-described person situation recognition apparatus has information storage means in which a person situation is associated with the contents of each element, and the recognition means includes the contents of each element specified by the element contents specification means. It is good also as recognizing the said person's condition by acquiring from the said information storage means the condition of the person who corresponds to the combination.

このような構成によれば、効率よく人物の状況を認識することができるとともに、認識精度を高めることが可能となる。また、情報蓄積手段を学習により更新する機能を備えることで、認識精度を更に高めることができる。   According to such a configuration, it is possible to efficiently recognize a person's situation and to improve recognition accuracy. In addition, the recognition accuracy can be further improved by providing a function for updating the information storage means by learning.

上述の人物状況認識装置において、前記認識手段は、前記人物の過去の状況履歴を参照して、前記人物の状況を認識することとしても良い。   In the above-described person situation recognition apparatus, the recognition unit may recognize the person situation with reference to the past situation history of the person.

このような構成によれば、人物の過去の状況履歴も参照して現在における人物の状況を認識するので、人物の状況認識の精度を更に高めることが可能となる。   According to such a configuration, since the current situation of the person is recognized with reference to the past situation history of the person, it is possible to further improve the accuracy of the situation recognition of the person.

本発明は、人物を監視する監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定過程と、各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識過程とを具備する人物状況認識方法を提供する。   The present invention provides an element content specifying process for specifying the contents of a plurality of elements for recognizing a person's situation based on information from a monitoring means for monitoring the person, and a combination of the contents of the elements. There is provided a person situation recognition method comprising a recognition process for recognizing a person situation.

本発明は、人物を監視する監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定処理と、各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識処理とをコンピュータに実行させるための人物状況認識プログラムを提供する。   The present invention is based on element content specifying processing for specifying the contents of a plurality of elements for recognizing a person's situation based on information from monitoring means for monitoring a person, and on the basis of a combination of the contents of each of the elements Provided is a person situation recognition program for causing a computer to execute a recognition process for recognizing a person situation.

本発明は、上述の人物状況認識装置によって認識された人物の状況に応じた対応をするロボットを提供する。
本発明は、上述の人物状況認識装置と、上述のロボットとを具備する生活支援システムを提供する。
The present invention provides a robot that responds to the situation of a person recognized by the person situation recognition apparatus described above.
The present invention provides a life support system including the above-described person situation recognition device and the above-described robot.

本発明の人物状況認識装置、人物状況認識方法、および人物状況認識プログラムによれば、ユーザからの指示の有無にかかわらず、ユーザの状況を認識することができるという効果を奏する。
本発明のロボットおよび生活支援システムによれば、ユーザの状況に適した対応をとることができるという効果を奏する。
According to the person situation recognition apparatus, person situation recognition method, and person situation recognition program of the present invention, there is an effect that the situation of the user can be recognized regardless of whether there is an instruction from the user.
According to the robot and the life support system of the present invention, it is possible to take an action suitable for the user's situation.

以下に、本発明に係る生活支援システムの一実施形態について、図面を参照して説明する。   Hereinafter, an embodiment of a life support system according to the present invention will be described with reference to the drawings.

〔第1の実施形態〕
以下、本発明の第1の実施形態に係る生活支援システムについて説明する。本実施形態に係る生活支援システムは、住居などのように、比較的狭い居住空間を対象としたものであり、ロボット1と、人物状況認識装置50とを主な構成要素として備えている。また、本実施形態では、住宅などの居住空間を生活支援の場としているため、ロボット1によるサービスを受ける人物(ユーザ)は特定の者に限られることとなる。
[First Embodiment]
The life support system according to the first embodiment of the present invention will be described below. The life support system according to the present embodiment is intended for a relatively small living space such as a residence, and includes the robot 1 and the person situation recognition device 50 as main components. Moreover, in this embodiment, since living spaces, such as a house, are used as a place of life support, the person (user) who receives the service by the robot 1 is limited to a specific person.

図2は、本発明の一の実施形態に係るロボットの正面図、図3は、図2に示したロボットの左側面図である。
図2および図3に示すように、ロボット1の本体には、頭部2と、この頭部2を下方から支持する胸部3と、この胸部3の右側に設けられた右腕部4a、胸部3の左側に設けられた左腕部4bと、胸部3の下方に接続された腰部5と、この腰部5の下方に接続されたスカート部6と、このスカート部6の下方に接続された脚部7とが設けられている。
FIG. 2 is a front view of a robot according to an embodiment of the present invention, and FIG. 3 is a left side view of the robot shown in FIG.
2 and 3, the main body of the robot 1 includes a head 2, a chest 3 that supports the head 2 from below, a right arm 4a provided on the right side of the chest 3, and a chest 3 Left arm portion 4 b provided on the left side of the chest, a waist portion 5 connected below the chest portion 3, a skirt portion 6 connected below the waist portion 5, and a leg portion 7 connected below the skirt portion 6. And are provided.

頭部2には、頭頂部近傍に全方位カメラ11が一つ設けられている。この全方位カメラ11の外周に沿って複数の赤外線LED12が所定の間隔で円環上に配置されている。
頭部2の前面の中央近傍には、図2に示すように、前方を撮像するための前方カメラ13が正面視して右側に一つ、マイクロフォン14が正面視して左側に一つ、それぞれ設けられている。
One omnidirectional camera 11 is provided near the top of the head 2. A plurality of infrared LEDs 12 are arranged on the ring at predetermined intervals along the outer periphery of the omnidirectional camera 11.
In the vicinity of the center of the front surface of the head 2, as shown in FIG. 2, the front camera 13 for imaging the front is one on the right side when viewed from the front, and the microphone 14 is one on the left side when viewed from the front. Is provided.

胸部3の前面の中央近傍には、モニタ15が一つ設けられている。このモニタ15の上方には、人を検知するための超音波距離センサ16が一つ設けられている。モニタ15の下方には、電源スイッチ17が一つ設けられている。超音波距離センサ16の上方には、2つのスピーカ18が左右に一つずつ設けられている。また、図3に示すように、胸部3の背面には、荷物を収納することができるランドセル部33が設けられている。ランドセル部33には、上部に設けたヒンジ周りに回動可能な開閉扉33aが設けられている。図2に示すように、胸部3の左右の肩部には、マンマシンインターフェースとして機能する肩スイッチ19がそれぞれ一つずつ設けられている。肩スイッチ19には、例えば、タッチセンサが採用されている。   One monitor 15 is provided near the center of the front surface of the chest 3. One ultrasonic distance sensor 16 for detecting a person is provided above the monitor 15. One power switch 17 is provided below the monitor 15. Above the ultrasonic distance sensor 16, two speakers 18 are provided one on each side. Further, as shown in FIG. 3, the back of the chest 3 is provided with a school bag portion 33 that can store luggage. The school bag 33 is provided with an opening / closing door 33a that can be rotated around a hinge provided at the top. As shown in FIG. 2, one shoulder switch 19 that functions as a man-machine interface is provided on each of the left and right shoulders of the chest 3. For the shoulder switch 19, for example, a touch sensor is employed.

右腕部4aおよび左腕部4bには、多関節構造が採用されている。右腕部4a、左腕部4bにおいて、胸部3との接続部近傍には、体や物の挟み込みを検知して腕の動作を止めるための脇スイッチ20がそれぞれ設けられている。図2に示すように、右腕部4aの手のひら部分には、マンマシンインターフェースとして機能する握手スイッチ21が内蔵されている。これら脇スイッチ20や握手スイッチ21には、例えば、押圧センサが採用される。   A multi-joint structure is adopted for the right arm portion 4a and the left arm portion 4b. In the right arm portion 4a and the left arm portion 4b, side switches 20 are provided in the vicinity of the connection portion with the chest portion 3 to detect the pinching of a body or an object and stop the movement of the arm. As shown in FIG. 2, a handshake switch 21 that functions as a man-machine interface is built in the palm of the right arm 4a. For the side switch 20 and the handshake switch 21, for example, a pressure sensor is employed.

腰部5の前面の中央近傍には、人を検知するための超音波距離センサ22が左右に一つずつ設けられている。これら超音波距離センサ22の下方には、複数の赤外線センサ23が配列されたセンサ領域24が設けられている。これら赤外線センサ23は、ロボット本体1の下方前方にある障害物等を検出するためのものである。図2および図3に示すように、腰部5の下方には、前面および背面において、音源方向を検出するためのマイクロフォン25が左右に一つずつ、計4つ設けられている。図3に示すように、腰部5の側面の左右には、本体を持ち上げるときに使用する取手部26がそれぞれ一つずつ設けられている。取手部26は、凹所とされており、操作者の手が挿入できるようになっている。   In the vicinity of the center of the front surface of the waist 5, one ultrasonic distance sensor 22 for detecting a person is provided on each side. Below these ultrasonic distance sensors 22, a sensor region 24 in which a plurality of infrared sensors 23 are arranged is provided. These infrared sensors 23 are for detecting an obstacle or the like in the lower front of the robot body 1. As shown in FIGS. 2 and 3, a total of four microphones 25 for detecting the direction of the sound source are provided below the waist 5 on the front and back sides, one on each side. As shown in FIG. 3, one handle portion 26 used for lifting the main body is provided on each of the left and right sides of the waist portion 5. The handle 26 is a recess so that the operator's hand can be inserted.

スカート部6の前面下方には、段差を検出するための赤外線センサ27が、中央および左右に計3つ設けられている。図3に示すように、スカート部6の背面には、充電コネクタ28が設けられている。   Below the front surface of the skirt portion 6, a total of three infrared sensors 27 for detecting a step are provided in the center and on the left and right. As shown in FIG. 3, a charging connector 28 is provided on the back surface of the skirt portion 6.

図2に示すように、脚部7の前面には、側方の距離を検出するための赤外線センサ29が左右に一つずつ設けられている。これら赤外線センサ29は、主に段差検出に用いられるものである。図3に示すように、脚部7の背面には、充電ステーションにロボット本体1を位置固定するためのフック30が設けられている。脚部7は、走行用車輪31および4つのボールキャスタ32を備えた台車とされている。   As shown in FIG. 2, one infrared sensor 29 for detecting a lateral distance is provided on the front surface of the leg portion 7 on the left and right sides. These infrared sensors 29 are mainly used for level difference detection. As shown in FIG. 3, a hook 30 for fixing the position of the robot body 1 to the charging station is provided on the back surface of the leg portion 7. The leg portion 7 is a carriage provided with traveling wheels 31 and four ball casters 32.

このようなロボット1は、ロボット本体に内蔵されたバッテリからの電源供給により、作業空間を自立的に移動することが可能な構成を備えており、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でロボット1の所有者や操作者などのユーザの生活を補助・支援・介護するための各種サービスを提供するために用いられる。
そのため、ロボット1は、ユーザとの会話を実現させる会話機能のほか、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。このような機能は、例えば、ロボット1の本体に内蔵されたマイクロコンピュータ等からなる制御装置により実現されるものである。制御装置には、上述した各種カメラや各種センサ等が接続されており、カメラからの画像情報やセンサからのセンサ検出情報を取得し、これらの情報に基づいて各種プログラムを実行することにより、上述した各種機能を実現させる。なお、ロボット1の形状としては、図2および図3に示した形状に限られず、愛玩用に動物を模したものなど、種々のものを採用することが可能である。
Such a robot 1 has a configuration capable of autonomously moving in a work space by supplying power from a battery built in the robot body, and coexists with a human being as a work space indoors. For example, it is used to provide various services for assisting / supporting / care for the life of a user such as the owner or operator of the robot 1 in a general home.
Therefore, in addition to the conversation function for realizing the conversation with the user, the robot 1 has a function of watching the user's action, assisting the user's action, and acting with the user. Such a function is realized by, for example, a control device including a microcomputer built in the main body of the robot 1. The above-described various cameras and various sensors are connected to the control device, and by acquiring image information from the cameras and sensor detection information from the sensors and executing various programs based on these information, Implement various functions. The shape of the robot 1 is not limited to the shape shown in FIG. 2 and FIG. 3, and various shapes such as those imitating animals for pets can be adopted.

人物状況認識装置50は、図1に示すように、人物を監視する監視手段としての各種物理センサ51と、人物からの所定の指示を得ることなく、物理センサからの情報に基づいて人物の状況を認識する人物状況認識部60とを備えている。人物状況認識部60は、物理センサ51からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する論理センサ(要素内容特定手段)52と、人物の状況と各前記要素の内容とが対応付けられている情報蓄積部(情報蓄積手段)53と、各要素の内容の組合せに基づいて人物の状況を認識する認識部(認識手段)54とを備えている。   As shown in FIG. 1, the person situation recognition device 50 includes various physical sensors 51 as monitoring means for monitoring a person and the situation of the person based on information from the physical sensor without obtaining a predetermined instruction from the person. And a person status recognition unit 60 for recognizing. The person situation recognizing unit 60, based on information from the physical sensor 51, a logic sensor (element content identifying means) 52 for identifying the contents of a plurality of elements for recognizing the person situation, An information storage unit (information storage unit) 53 associated with the contents of the elements, and a recognition unit (recognition unit) 54 that recognizes the situation of the person based on the combination of the contents of the elements are provided.

物理センサ51は、例えば、人物の状態をさまざまな角度から捉えるビデオカメラ等であり、本実施形態では、住居の天井や壁等に設置され、人物の様子を上方から或いは側方から捕らえるビデオカメラ55や、ロボット1に設けられ、人物の顔の表情や姿勢などを捕らえるカメラなどが一例として挙げられる。具体的には、ロボット1に設けられた前方カメラ13、超音波距離センサ16、および超音波距離センサ22等が物理センサ51として機能する。また、ロボット1は、時計機能を有しており、これらセンサにより取得された各種情報とともに、時刻情報を後述の論理センサ52に出力する。上記物理センサ51と論理センサ52とは無線或いは有線の通信回線を介して接続されている。   The physical sensor 51 is, for example, a video camera that captures the state of a person from various angles. In this embodiment, the physical sensor 51 is installed on the ceiling or wall of a residence and captures the state of the person from above or from the side. 55 or a camera provided on the robot 1 that captures the facial expression or posture of a person. Specifically, the front camera 13, the ultrasonic distance sensor 16, the ultrasonic distance sensor 22, and the like provided in the robot 1 function as the physical sensor 51. Moreover, the robot 1 has a clock function, and outputs time information to a logic sensor 52 described later together with various information acquired by these sensors. The physical sensor 51 and the logical sensor 52 are connected via a wireless or wired communication line.

論理センサ52は、物理センサ51により検出された人物の情報を受信する機能を備えている。また、論理センサ52は、例えば、マイクロコンピュータなどを備えており、物理センサ51から受信した情報に基づいて人物の状況を認識するための複数の要素の内容を特定する。ここでいう要素とは、1つ1つの要素は短時間あるいは瞬間的に行われるものであり、これ自体に明確な目的は無いものをいう。   The logical sensor 52 has a function of receiving information on a person detected by the physical sensor 51. The logic sensor 52 includes a microcomputer, for example, and specifies the contents of a plurality of elements for recognizing a person's situation based on information received from the physical sensor 51. The element here means that each element is performed for a short time or instantaneously and does not have a clear purpose in itself.

上記要素としては、図1および図4に示すように、「場所」、「移動状況」、「姿勢」、「手の状態」、「顔の状態」などが一例として挙げられる。また、図4に示すように、「場所」に対応する内容として「寝室」、「リビング」、「台所」、「電話周辺」、「洗面所」などが挙げられ、「移動状況」に対応する内容として「静止」、「歩いている」、「歩き出す」、「立ち止まる」、「速く歩く」、「ゆっくり歩く」、「一方向」、「戻ってくる」などが挙げられ、「姿勢」に対応する内容として「立つ」、「椅子に座っている」「床に座っている」、「仰向けに寝る」、「立ち上がる」、「床に座る」、「椅子に座る」、「横になる」などが挙げられる。また、「手の状態」に対応する内容として、手の位置および手の動作が挙げられ、具体的には、手の位置として「下方」、「耳の横」、「頭の上」、「静止」、また、動作として「動きあり」、「上下の動き」、「左右の動き」などが挙げられる。また、「顔の状態」に対応する内容として、顔の位置および顔の動作が挙げられ、具体的には、顔の位置として、「正面」、「斜め下」、「斜め上」、「上」、「下」「横」などが挙げられ、顔の動作として「静止」、「動作あり」などが挙げられる。なお、これら内容については一例であり、これらに限られることはない。   Examples of the element include “location”, “movement situation”, “posture”, “hand state”, “face state”, and the like, as shown in FIGS. Further, as shown in FIG. 4, the contents corresponding to “place” include “bedroom”, “living room”, “kitchen”, “telephone area”, “toilet”, etc., and corresponds to “movement situation”. The contents include “still”, “walking”, “start walking”, “stop”, “walk fast”, “slow walk”, “one direction”, “return”, etc. Corresponding contents are “Stand”, “Sitting on a chair”, “Sitting on the floor”, “Sleeping on the back”, “Standing up”, “Sitting on the floor”, “Sitting on a chair”, “Lie down” Etc. The contents corresponding to the “hand state” include the position of the hand and the movement of the hand. Specifically, the position of the hand is “down”, “side of the ear”, “above the head”, “ “Still” and “motion”, “up / down motion”, “left / right motion” and the like can be cited as motions. The contents corresponding to the “face state” include the position of the face and the action of the face. Specifically, the positions of the face include “front”, “down diagonally”, “up diagonally”, “upper”. ”,“ Below ”,“ horizontal ”, and the like, and the face motions include“ still ”,“ with motion ”, and the like. In addition, about these contents, it is an example and is not restricted to these.

論理センサ52は、「場所」の内容特定については、以下の手法により特定することが可能である。
例えば、天井や壁などに設けられたカメラ55の設置位置は既知であるので、人物が捉えられた画像の送信元であるカメラ55を特定することにより、人物がどの位置にいるのかを特定することが可能である。また、ロボット1が、自己位置を検出する機能、周囲にいる人物までの方位、距離を検出する機能を備えている場合には、ロボット1からロボットの位置情報および人物までの距離と方位とを受け取ることにより、これら情報から人物の位置を特定することができる。
The logic sensor 52 can specify the content of “location” by the following method.
For example, since the installation position of the camera 55 provided on the ceiling or the wall is known, the position of the person is specified by specifying the camera 55 that is the transmission source of the image in which the person is captured. It is possible. In addition, when the robot 1 has a function of detecting its own position, a direction to a person in the vicinity, and a function of detecting a distance, the position information of the robot from the robot 1 and the distance and direction to the person are set. By receiving the information, the position of the person can be specified from the information.

論理センサ52は、「移動状況」の内容特定については、以下の手法により特定することが可能である。例えば、カメラにより撮影された画像フレームの差分をとることにより、人物が移動しているか静止しているのかを判定する。また、カメラ55により人の位置を連続的に追尾することにより、移動速度、移動経路を追跡する。なお、この移動状況の特定についても、上述の手法は一例であり、この手法に限られない。   The logic sensor 52 can specify the content of “movement situation” by the following method. For example, it is determined whether a person is moving or stationary by taking a difference between image frames taken by a camera. Further, by continuously tracking the position of the person with the camera 55, the moving speed and the moving route are tracked. Note that the above-described method is also an example for specifying the movement status, and is not limited to this method.

論理センサ52は、「姿勢」、「手の状態」、「顔の状態」の内容特定については、以下の手法により特定することが可能である。例えば、ロボット1が備える前方カメラ13により取得された画像を画像処理することにより、人物の姿勢、手の状態、顔の状態を特定する。例えば、「姿勢」については、前方カメラ13により検出された人物の高さによって、立っているか座っているかを判定することができる。また、仰向けに寝ていることは、天井に設置されたカメラ55からの画像情報に基づいて全身、上半身を認識することにより行われる。更に、「立ち上がる」、「床に座る」、「椅子に座る」については、加速度センサを併用することにより、各動作を認識することが可能である。   The logic sensor 52 can specify the contents of “posture”, “hand state”, and “face state” by the following method. For example, the posture of the person, the state of the hand, and the state of the face are specified by performing image processing on an image acquired by the front camera 13 included in the robot 1. For example, with respect to “posture”, whether the person is standing or sitting can be determined based on the height of the person detected by the front camera 13. Sleeping on the back is performed by recognizing the whole body and the upper body based on image information from the camera 55 installed on the ceiling. Further, regarding “standing up”, “sitting on the floor”, and “sitting on a chair”, each motion can be recognized by using an acceleration sensor together.

また、手の状態、顔の状態については、画像情報から肌色検出を行うことにより手の位置を抽出し、頭部との位置関係において手の位置を特定する。また、顔の状態については、目や鼻など顔の特徴部分を画像処理により抽出し、更に、これら目や鼻の状態により顔の方向などを特定する。   For the hand state and the face state, the hand position is extracted by performing skin color detection from the image information, and the hand position is specified in the positional relationship with the head. As for the face state, facial features such as eyes and nose are extracted by image processing, and the face direction and the like are specified based on these eye and nose states.

なお、人物の姿勢、手の状態、顔の状態を特定する機能をロボット1が備えている場合には、ロボット1からその姿勢情報、手の状態情報、顔の状態情報を受信することにより、人物の姿勢等を特定することとしても良い。また、手の動き検出等については、特開2005−215927号公報に開示されている技術を採用することも可能である。   In the case where the robot 1 has a function for specifying the posture of the person, the hand state, and the face state, by receiving the posture information, the hand state information, and the face state information from the robot 1, It is good also as specifying the posture of a person. For hand movement detection and the like, the technique disclosed in Japanese Patent Application Laid-Open No. 2005-215927 can be employed.

情報蓄積部53は、人物の状況と各要素の内容とを対応付けて記憶している。例えば、図5に示すように、「場所」に対して「ダイニング」、「移動状況」に対して「静止」、「姿勢」に対して「椅子に座っている」、「手の状態」に対して「上下の動き」、「顔の状態」に対して「斜め下方、かつ、動きあり」の組み合わせには、「食事中」という人物状況が対応付けられている。このように、人物の状況、例えば、「料理をする」、「電話中」、「読書中」、「居眠り中」などの各状況に対応して各要素の内容の組み合わせが対応付けられている。   The information storage unit 53 stores the situation of the person and the contents of each element in association with each other. For example, as shown in FIG. 5, “Dining” for “Place”, “Still” for “Movement Status”, “Sitting in a Chair” for “Position”, “State of Hand” On the other hand, the combination of “up and down movement” and “face state” “obliquely and with movement” is associated with the personal situation “meal”. In this way, combinations of the contents of each element are associated with each situation such as “cooking”, “calling”, “reading”, “sleeping”, etc. .

認識部54は、論理センサ52により特定された各要素の内容の組み合わせに一致する人物の状況を情報蓄積部53から取得することにより人物の状況を認識し、この認識結果を通信回線を介してロボット1に出力する。ロボット1は、例えば、各動作プログラムと人物の状況とが対応付けられたデータベースを保有しており、このデータベースを参照して、人物の状況に対応する動作プログラムを読み出し、この動作プログラムを実行することにより、人物の状況に適した対応を実現させる。   The recognition unit 54 recognizes the situation of the person by acquiring the situation of the person that matches the combination of the contents of each element specified by the logic sensor 52 from the information storage unit 53, and sends the recognition result via the communication line. Output to the robot 1. The robot 1 has, for example, a database in which each operation program is associated with the person's situation, reads the operation program corresponding to the person's situation with reference to this database, and executes the operation program. Thus, it is possible to realize a response suitable for the situation of the person.

次に、上述した構成を備える生活支援システムの作用について説明する。
ここでは、一例として、人物が食事をしている場合について説明する。
まず、住居内に設けられた複数のカメラ55およびロボット1の前方カメラ13、超音波距離センサ16、および超音波距離センサ22などから構成される物理センサ51から取得された画像情報などが通信回線を介して論理センサ52に入力されると、論理センサ52は、これらの画像情報を画像処理することにより、「場所」、「移動状況」、「姿勢」、「手の状態」、「顔の状態」などから構成される各要素の内容を特定する。この結果、論理センサ52により、「場所」の内容として「ダイニング」が、「移動状態」の内容として「静止」が、「姿勢」の内容として「椅子に座っている」が、「手の状態」として「上下の動き」が、「顔の状態」として「正面斜め下方かつ動きあり」が特定される。この特定結果は、認識部54に出力される。
Next, the operation of the life support system having the above-described configuration will be described.
Here, as an example, a case where a person is eating will be described.
First, image information acquired from a physical sensor 51 including a plurality of cameras 55 provided in the house, the front camera 13 of the robot 1, the ultrasonic distance sensor 16, the ultrasonic distance sensor 22, and the like are communication lines. Is input to the logic sensor 52 through the image processing, the logic sensor 52 performs image processing on these pieces of image information, so that “location”, “movement situation”, “posture”, “hand state”, “face condition” The contents of each element composed of “state” and the like are specified. As a result, the logic sensor 52 uses “dining” as the content of “location”, “still” as the content of “moving state”, and “sitting in a chair” as the content of “posture”. "Up and down movement" is specified as "face state", and "downwardly in front and with movement" is specified as "face state". This identification result is output to the recognition unit 54.

認識部54は、上述した各要素の内容の組み合わせと一致する人物の状況を情報蓄積部53から取得する。この結果、「食事中」という人物の状況が取得されることとなる。認識部54は、人物の状況が「食事中」であると認識すると、この認識結果を通信回線を介してロボット1へ送信する。これにより、ロボット1の制御装置により「食事中」に対応する動作プログラムが実行されることにより、人物の状況に適した対応がなされることとなる。   The recognition unit 54 acquires from the information storage unit 53 the situation of the person that matches the combination of the contents of each element described above. As a result, the status of the person “meal” is acquired. When recognizing that the person's situation is “meal”, the recognizing unit 54 transmits the recognition result to the robot 1 via the communication line. As a result, an operation program corresponding to “meal” is executed by the control device of the robot 1, so that a response suitable for the situation of the person is performed.

以上説明してきたように、本実施形態に係る生活支援システムによれば、物理センサ51により取得された人物の画像に基づいて、人物の状況を認識するための各要素の内容を特定し、この要素の内容の組み合わせに基づいて人物状況を認識するので、非常に容易に人物の状況を認識することが可能となる。また、この認識結果に応じた対応をロボット1が行うことにより、ユーザからの指示の有無にかかわらずに、自主的に行動することが可能となる。   As described above, according to the life support system according to the present embodiment, the content of each element for recognizing the situation of the person is specified based on the person image acquired by the physical sensor 51, and this Since the person situation is recognized based on the combination of element contents, the person situation can be recognized very easily. In addition, when the robot 1 performs a response according to the recognition result, it is possible to act independently regardless of whether there is an instruction from the user.

なお、上述の実施形態においては、人物の状況を認識する際に、時間的概念を考慮していなかったが、時間的概念を含めて人物の状況を認識することとしても良い。また、時間的概念を含めた場合には、より人物の状況認識が容易となるため、その他の要素に関する特定を省略することとしても良い。例えば、人物が「電話機の周辺で2分程度停止している」という状況にある場合、「電話中」と判断することができる。一方、「電話中」と判断する際に、「手の状況」や「顔の状態」などは有効な判断材料にならない。このような場合には、「電話機の周辺」という「場所」の要素と、「停止」という「移動状況」の要素、および「2分以上」という「時間」の要素からなる3つの要素を特定することにより、「電話中」であるという状況を十分認識することが可能となる。   In the above-described embodiment, the time concept is not considered when recognizing the person's situation, but the person's situation may be recognized including the time concept. In addition, when the temporal concept is included, the situation of the person can be recognized more easily, so that the specification regarding other elements may be omitted. For example, when a person is in a situation of “stopping around the telephone for about 2 minutes”, it can be determined that the telephone is “on the phone”. On the other hand, when determining “on the phone”, “hand state” and “face condition” are not effective determination materials. In such a case, three elements are identified: a “place” element “periphery of the telephone”, a “movement situation” element “stop”, and a “time” element “2 minutes or longer”. By doing so, it is possible to fully recognize the situation of “on the phone”.

また、人は通常、「朝」、「昼」、「晩」の時間帯に、「ダイニング」で「椅子に座って」食事をするので、「場所」、「姿勢」、「時間帯」という3つの有効な要素に基づいて「食事中」という人物状態を認識することとしても良い。
このように、図4および図5に示した5つの要素について全てを特定するのではなく、人物の状況を認識するのに有効な要素のみを限定して特定することにより、更に容易に人物の状況を認識することが可能となる。
In addition, people usually eat “sitting in a chair” in “dining” during the “morning”, “noon”, and “evening” time periods, so “location”, “posture”, and “time period” The person state “meal” may be recognized based on three effective elements.
In this way, it is easier to identify a person by specifying only the elements that are effective for recognizing the person's situation instead of specifying all of the five elements shown in FIGS. It becomes possible to recognize the situation.

また、上記情報蓄積部54は、随時更新可能に構成されていても良い。例えば、人物が連続的に長時間滞在する場所、一日のうちに何度も訪れる場所、大体一定の時間に訪れる場所、略一定の間隔で訪れる場所などについて、これら場所が何を行う場所なのかを事後的に登録することにより、人物の状態認識の精度を更に高めることが可能となる。   Further, the information storage unit 54 may be configured to be updateable at any time. For example, a place where a person stays continuously for a long time, a place visited many times a day, a place visited at a certain time, a place visited at a substantially constant interval, etc. It is possible to further improve the accuracy of the person's state recognition by registering whether or not.

例えば、人物が一定の場所に長時間滞在していることがロボット1により検出された場合、ロボット1が人物に対して「何をしているの?」と問いかけるようにプログラムしておき、この問いかけに対応する人物からの回答と、このときの各要素の内容を対応付けて情報蓄積部54に蓄積することにより、情報蓄積部54を更新することとしても良い。   For example, when the robot 1 detects that a person has stayed at a certain place for a long time, the robot 1 is programmed to ask the person “What are you doing?” The information storage unit 54 may be updated by associating the answer from the person corresponding to the question with the contents of each element at this time and storing the information in the information storage unit 54.

具体的には、人物がリビングに長時間滞在している場合、ロボット1は人物に対して「何をしているの?」と問いかける。この問いかけに対して「テレビを見ている」という回答があった場合、この「テレビを見ている」という回答と、現在、論理センサ52により特定されている各要素の内容、例えば、「場所」の内容として「リビング」、「移動状況」として「静止」、「姿勢」として「ソファに寝ている」、「手の状態」として「静止」、「顔の状態」として「斜め横かつ動きあり」の内容の組み合わせを対応付けて情報蓄積部54に蓄積することとしても良い。   Specifically, when a person stays in the living room for a long time, the robot 1 asks the person “What are you doing?”. If there is an answer “watching TV” in response to this question, the answer “watching TV” and the contents of each element currently specified by the logic sensor 52, for example, “location” "Living" as "Contents", "Standing" as "Moving situation", "Sleeping on sofa" as "Position", "Still" as "Hand state", "Slanting and moving as" Face state " A combination of the contents of “Yes” may be stored in the information storage unit 54 in association with each other.

更に、情報蓄積部54に情報を蓄積する際に、人物の状況と各要素の内容とが適切であるかを人物に対してロボット1が確認することとしても良い。このように、確認することで、より精度の高い情報を情報蓄積部54に蓄積することが可能となる。例えば、「テレビを見ている」という状況を判断するのに、「手の状態」は有効な要素に含まれないので、「手の状態は削除する」という指示を人物がすることにより、「手の状態」以外の要素の内容の組み合わせから「テレビを見ている」という人物状況が認識されることとなる。   Further, when information is stored in the information storage unit 54, the robot 1 may confirm to the person whether the situation of the person and the contents of each element are appropriate. In this way, it is possible to store more accurate information in the information storage unit 54 by checking. For example, in order to determine the situation of “watching TV”, “hand state” is not included in the effective elements, so when a person gives an instruction “delete hand state”, “ A person situation of “watching television” is recognized from a combination of contents of elements other than “hand state”.

更に、上述した情報蓄積部54に蓄積されている情報は、人物ごとにカスタマイズされていても良い。このように、カスタマイズされていることにより、人物の行動特性に応じた状況認識を実施することが可能となり、状況認識の精度を更に高めることが可能となる。この場合、人物の識別については、例えば、画像処理により顔の照合を行うことによって識別を行うこととしても良いし、人物の識別情報が記録されたICタグ56を人物が携帯し、このICタグ56の情報を読み取ることにより、人物の識別を容易に行うこととしても良い。   Furthermore, the information stored in the information storage unit 54 described above may be customized for each person. Thus, by being customized, it is possible to carry out situation recognition according to the behavioral characteristics of the person, and it is possible to further improve the accuracy of situation recognition. In this case, for example, the person may be identified by collating the face by image processing, or the person carries the IC tag 56 on which the person identification information is recorded. It is also possible to easily identify a person by reading 56 information.

更に、人物状況認識装置は、人物の過去の履歴(状況)に基づいて、現在の状況を認識することとしても良い。このように、過去の履歴に基づいて、現在の状況を認識することによって、より高い精度で人物の状況を認識することが可能となる。   Furthermore, the person situation recognition device may recognize the current situation based on the past history (situation) of the person. Thus, by recognizing the current situation based on the past history, it becomes possible to recognize the situation of the person with higher accuracy.

〔第2の実施形態〕
次に、本発明の第2の実施形態に係る生活支援システムについて図を参照して説明する。本実施形態に係る生活支援システムは、上述した第1の実施形態のように、住居などの比較的狭い屋内の居住空間を対象としたものではなく、不特定の複数の人物が行き来する比較的広い範囲、例えば、テーマパーク、商店街、美術館内などを生活支援の対象エリアとしている。このため、本実施形態に係る生活支援システムが備えるロボット1の台数や、物理センサ51の台数も行動範囲に応じて多数設置されることとなる。
[Second Embodiment]
Next, a life support system according to a second embodiment of the present invention will be described with reference to the drawings. The life support system according to the present embodiment is not intended for a relatively narrow indoor living space such as a residence, as in the first embodiment described above, and a relatively large number of unspecified persons come and go. A wide range, for example, theme parks, shopping streets, museums, and the like are the target areas for living support. For this reason, the number of robots 1 provided in the life support system according to the present embodiment and the number of physical sensors 51 are also set according to the action range.

更に、本実施形態では、情報蓄積部53に蓄積される情報が上述した第1の実施形態と異なる。つまり、上述した第1の実施形態では、狭い居住空間内で、人物の生活に密着した形態での生活支援であったが、本実施形態では、比較的広い範囲内に存在する不特定多数の人物の中からロボット1等の支援を必要とする人物、例えば、「道に迷っている」、「立ち入り禁止区域に入ろうとしている」、「ロボットを呼んでいる」等の人物の状況を認識する。
以下、本実施形態に係る生活支援システムについて、上述した第1の実施形態と共通する構成要素については同一符号を付して説明を省略し、異なる構成要素について説明する。
Furthermore, in this embodiment, the information stored in the information storage unit 53 is different from that in the first embodiment described above. In other words, in the first embodiment described above, the life support was performed in a form in close contact with the life of a person in a narrow living space, but in this embodiment, an unspecified number of people existing within a relatively wide range. Recognize the status of a person who needs assistance from the robot 1 or the like, for example, “I am lost,” “I am trying to enter a restricted area”, “I am calling a robot” .
Hereinafter, in the life support system according to the present embodiment, the same components as those in the first embodiment described above are denoted by the same reference numerals, description thereof will be omitted, and different components will be described.

図6に、本実施形態に係る情報蓄積部53の内容を示す。本実施形態において論理センサ52により取り扱われる要素は、上述と同様に、「場所」、「移動状況」、「姿勢」、「手の状態」、「顔の状態」とされている。また、人物の状況としては、例えば、「道に迷う」、「ロボットを呼ぶ」、「立ち入り禁止区域への進入」などがある。
「道に迷う」という人物行動に対応する各要素の内容の組み合わせは、図6に示すように、複数存在している。
例えば、「移動状況」として「同じ場所を行き来する」という1つの要素に対する内容と「道に迷う」という人物状況が対応付けられている。また、「場所」として「案内板前」、「移動状況」として「静止」、「顔の状態」として「前方かつ上方」という3つの要素の内容の組み合わせと「道に迷う」という状況とが対応付けられている。
FIG. 6 shows the contents of the information storage unit 53 according to the present embodiment. In the present embodiment, the elements handled by the logic sensor 52 are “place”, “movement state”, “posture”, “hand state”, and “face state” as described above. Examples of the situation of the person include “get lost”, “call a robot”, and “entry into a restricted area”.
As shown in FIG. 6, there are a plurality of combinations of the contents of the elements corresponding to the person action “get lost”.
For example, as the “movement situation”, the content for one element “going back and forth in the same place” is associated with the person situation “getting lost”. In addition, the combination of the contents of the three elements, “Place in front”, “Moving situation” as “Still”, and “Face state” as “Front and up”, and “Lost” It is attached.

「ロボットを呼ぶ」という状況については、「移動状況」として「静止」、「手の状態」として「頭上で左右移動」、「顔の状態」として「ロボットの方向」という3つの要素の内容の組み合わせと「ロボットを呼ぶ」という状況とが対応付けられている。
また、「立ち入り禁止区域への進入」という状況については、要素内容の組み合わせが以下のように、複数存在している。
1つは、「場所」として「禁止エリアの位置」、「移動状況」として「静止」という2つの要素の内容の組み合わせが「立ち入り禁止区域への進入」という状況に対応付けられており、もう1つは、「場所」として「禁止エリアの位置」、「移動状況」として「静止」、「手の状態」として「顔の前で静止」、「顔の状態」として「正面」という4つの要素の内容の組み合わせが「立ち入り禁止区域への進入」という状況に対応付けられている。
Regarding the situation of “calling a robot”, the contents of three elements are “stationary” as “movement situation”, “moving left and right over the head” as “hand state”, and “robot direction” as “face state”. The combination is associated with the situation of “calling a robot”.
In addition, regarding the situation of “entry into the restricted area”, there are a plurality of combinations of element contents as follows.
One is a combination of the contents of two elements, “location of prohibited area” as “location” and “stationary” as “movement situation”, and is associated with the situation of “entry into the prohibited area”. One is “place of prohibited area” as “place”, “still” as “movement situation”, “still in front of face” as “hand state”, and “front” as “face state”. A combination of element contents is associated with a situation of “entry into a restricted area”.

論理センサ52は、物理センサ51から送られてくる画像情報等に写っている各人物について、各要素「場所」、「移動状況」、「姿勢」、「手の状態」、「顔の状態」の内容をそれぞれ特定し、これら要素の内容をその人物の識別情報に対応付けて認識部54に出力する。なお、人物の識別情報については、各人物が識別情報を記憶したICタグ56を携帯している場合には、このICタグ56から識別情報を読み取ることにより人物を識別してもよく、或いは、このような識別情報が割り当てられていない場合には、各人物について個別の識別情報を論理センサ52が自動的に付すことにより、各人物を識別する。   For each person shown in the image information or the like sent from the physical sensor 51, the logical sensor 52 has each element “location”, “movement state”, “posture”, “hand state”, “face state”. And the contents of these elements are output to the recognition unit 54 in association with the identification information of the person. As for the person identification information, when each person carries an IC tag 56 storing the identification information, the person may be identified by reading the identification information from the IC tag 56, or When such identification information is not assigned, the logical sensor 52 automatically assigns individual identification information for each person to identify each person.

認識部54は、論理センサ52により各人物の各要素に対応する内容が特定すると、これらの内容の組み合わせに一致する状況を情報蓄積部53から取得する。このとき、該当する状況がない人物については、今回の認識は行わないこととする。この結果、情報蓄積部53に、各要素の内容の組み合わせと一致する状況がある人物については、その人物の識別情報、および、その人物の状況を対応付けてロボット1に出力する。このとき、人物状況認識装置は、各ロボット1の位置を認識しているため、対象となる人物に最も近い位置にいるロボット1に対して、認識結果等を送信する。   When the content corresponding to each element of each person is specified by the logic sensor 52, the recognition unit 54 acquires a situation that matches the combination of these contents from the information storage unit 53. At this time, this time recognition is not performed for a person who does not have a corresponding situation. As a result, for a person whose information storage unit 53 has a situation that matches the combination of the contents of each element, the identification information of the person and the situation of the person are associated and output to the robot 1. At this time, since the person status recognition apparatus recognizes the position of each robot 1, it transmits a recognition result or the like to the robot 1 that is closest to the target person.

人物状況認識装置50から認識結果および人物の識別情報を受信したロボット1は、この人物の識別情報に基づいて不特定多数の人物の中から所望の人物を見つけ出し、この人物に対して認識結果に適した対応をとる。
例えば、認識結果が「道に迷う」であれば、ロボット1は、「どこにいきたいですか?」などのように問いかけ、この問いかけに対する回答に応じて、現在地や目的地への道順を案内するサービスを提供する。
また、認識結果が「ロボットを呼ぶ」であれば、ロボット1は、「どうしましたか?」などのように問いかけ、この問いかけに対する回答に応じて対話や動作を実行することにより、この人物の要望にあった行動を行う。
更に、認識結果が「立ち入り禁止区域への進入」であった場合には、ロボット1は、「そこへ入ってはいけません」などのように、進入を阻止するような行動をとることにより、人物の安全性を確保する。
The robot 1 that has received the recognition result and the person identification information from the person situation recognition device 50 finds out a desired person from among an unspecified number of persons based on the person identification information, and the recognition result for this person is obtained. Take appropriate action.
For example, if the recognition result is “get lost”, the robot 1 asks “Where do you want to go?”, Etc., and guides the route to the current location or destination according to the answer to this question. Provide service.
If the recognition result is “call a robot”, the robot 1 asks “How did you do it?” And the like, and the person's request is obtained by executing a dialogue or an action according to an answer to this question. Take action that suits your needs.
Furthermore, when the recognition result is “entry into the restricted area”, the robot 1 takes an action that prevents entry, such as “do not enter there”. , Ensure the safety of the person.

以上、説明してきたように、本実施形態に係る生活支援システムでは、テーマパークやアーケード街などのように、比較的広大な範囲においても人物の行動を認識でき、人物の行動に適した対応をとることが可能となる。   As described above, the life support system according to the present embodiment can recognize a person's behavior even in a relatively wide area such as a theme park or an arcade street, and can provide a response suitable for the person's behavior. It is possible to take.

なお、上述した第1の実施形態および第2の実施形態では、人物状況認識装置はロボット1と個別に設置されていたが、この構成例に限られること無く、例えば、ロボット1に人物状況認識装置50が搭載される構成としても良い。
また、上述した第1の実施形態および第2の実施形態では、人物状況認識装置としてハードウェアによる処理を前提としていたが、このような構成に限定される必要はない。例えば、各物理センサからの検出信号に基づいて別途ソフトウェアにて処理する構成も可能である。この場合、人物状況認識装置は、CPU、RAM等の主記憶装置、上記処理の全て或いは一部を実現させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を備えている。そして、CPUが上記記憶媒体に記録されているプログラムを読み出して、情報の加工・演算処理を実行することにより、上述の人物状況認識装置と同様の処理を実現させる。
ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。
In the first embodiment and the second embodiment described above, the person situation recognition device is installed separately from the robot 1. However, the present invention is not limited to this configuration example. It is good also as a structure by which the apparatus 50 is mounted.
Further, in the first embodiment and the second embodiment described above, processing by hardware is assumed as the person situation recognition device, but it is not necessary to be limited to such a configuration. For example, a configuration in which software is separately processed based on detection signals from the respective physical sensors is also possible. In this case, the person situation recognition apparatus includes a main storage device such as a CPU and a RAM, and a computer-readable recording medium on which a program for realizing all or part of the above processing is recorded. Then, the CPU reads out the program recorded in the storage medium and executes information processing / calculation processing, thereby realizing processing similar to that of the above-described person situation recognition device.
Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

なお、上述のように、ソフトウェアにて処理するのではなく、論理センサ52と認識部54という2つのハードウェアにより人物状況認識装置を構成することにより、例えば、各要素に対応する内容の特定処理を並列に実行することができる、論理センサの1つがだめになっても残りの論理センサによってバックアップすることができるなどの利点を得ることが可能となる。   Note that, as described above, instead of processing by software, the person situation recognition device is configured by two hardware units, that is, the logic sensor 52 and the recognition unit 54, so that, for example, specification processing of content corresponding to each element Can be executed in parallel, and even if one of the logic sensors becomes useless, it can be backed up by the remaining logic sensors.

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design changes and the like within a scope not departing from the gist of the present invention.

本発明の第1の実施形態に係る生活支援システムの概略構成を模式的に示したブロック図である。It is the block diagram which showed typically the schematic structure of the life assistance system which concerns on the 1st Embodiment of this invention. 図1に示したロボットの正面図の一例を示した図である。It is the figure which showed an example of the front view of the robot shown in FIG. 図3は、図2に示したロボットの左側面図である。FIG. 3 is a left side view of the robot shown in FIG. 本発明の第1の実施形態に係る論理センサにより分類される要素の種類、および、各要素における内容の一例を示した図である。It is the figure which showed an example of the kind of element classified by the logic sensor which concerns on the 1st Embodiment of this invention, and the content in each element. 本発明の第1の実施形態に係る情報蓄積部に蓄積される情報の一例を示した図である。It is the figure which showed an example of the information accumulate | stored in the information storage part which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る情報蓄積部に蓄積される情報の一例を示した図である。It is the figure which showed an example of the information accumulate | stored in the information storage part which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 ロボット
50 人物状況認識装置
51 物理センサ
52 論理センサ
53 情報蓄積部
54 認識部
60 人物状況認識部
DESCRIPTION OF SYMBOLS 1 Robot 50 Person situation recognition apparatus 51 Physical sensor 52 Logic sensor 53 Information storage part 54 Recognition part 60 Person situation recognition part

Claims (9)

人物を監視する監視手段と、
前記人物からの所定の指示を得ることなく、前記監視手段からの情報に基づいて前記人物の状況を認識する人物状況認識手段と
を具備する人物状況認識装置。
A monitoring means for monitoring a person;
A person situation recognition device comprising: person situation recognition means for recognizing the person situation based on information from the monitoring means without obtaining a predetermined instruction from the person.
前記人物状況認識手段は、
前記監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定手段と、
各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識手段と
を備える請求項1に記載の人物状況認識装置。
The person situation recognition means
Element content specifying means for specifying the contents of a plurality of elements for recognizing a person's situation based on information from the monitoring means;
Recognizing means for recognizing the situation of the person based on a combination of the contents of each of the elements.
人物を監視する監視手段と、
前記監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定手段と、
各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識手段と
を具備する人物状況認識装置。
A monitoring means for monitoring a person;
Element content specifying means for specifying the contents of a plurality of elements for recognizing a person's situation based on information from the monitoring means;
Recognizing means for recognizing the situation of the person based on a combination of the contents of the elements.
人物の状況と各前記要素の内容とが対応付けられている情報蓄積手段を有し、
前記認識手段は、前記要素内容特定手段により特定された各前記要素の内容の組み合わせに一致する人物の状況を前記情報蓄積手段から取得することにより、前記人物の状況を認識する請求項2または請求項3に記載の人物状況認識装置。
Comprising information storage means in which the situation of the person and the content of each element are associated with each other;
The said recognition means recognizes the said person's condition by acquiring the condition of the person who corresponds to the combination of the content of each said element specified by the said element content specification means from the said information storage means. Item 4. The person situation recognition device according to Item 3.
前記認識手段は、前記人物の過去の状況履歴を参照して、前記人物の状況を認識する請求項2から請求項4のいずれかに記載の人物状況認識装置。   The person recognition apparatus according to claim 2, wherein the recognition unit recognizes the situation of the person with reference to a past situation history of the person. 人物を監視する監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定過程と、
各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識過程と
を具備する人物状況認識方法。
An element content identification process for identifying the contents of a plurality of elements for recognizing a person's situation based on information from a monitoring means for monitoring the person;
A recognition process for recognizing the situation of the person based on a combination of the contents of the elements.
人物を監視する監視手段からの情報に基づいて、人物の状況を認識するための複数の要素の内容を特定する要素内容特定処理と、
各前記要素の内容の組合せに基づいて前記人物の状況を認識する認識処理と
をコンピュータに実行させるための人物状況認識プログラム。
Element content identification processing for identifying the contents of a plurality of elements for recognizing a person's situation based on information from a monitoring means for monitoring a person;
A person situation recognition program for causing a computer to execute a recognition process for recognizing the situation of the person based on a combination of contents of the elements.
請求項1から請求項3のいずれかに記載の人物状況認識装置によって認識された人物の状況に応じた対応をするロボット。   The robot which respond | corresponds according to the condition of the person recognized by the person condition recognition apparatus in any one of Claims 1-3. 請求項1から請求項5のいずれかに記載の人物状況認識装置と、
請求項8に記載のロボットと
を具備する生活支援システム。
The person situation recognition device according to any one of claims 1 to 5,
A life support system comprising the robot according to claim 8.
JP2006048507A 2006-02-24 2006-02-24 Person status recognition device, method, program, robot and life support system Withdrawn JP2007226634A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006048507A JP2007226634A (en) 2006-02-24 2006-02-24 Person status recognition device, method, program, robot and life support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006048507A JP2007226634A (en) 2006-02-24 2006-02-24 Person status recognition device, method, program, robot and life support system

Publications (1)

Publication Number Publication Date
JP2007226634A true JP2007226634A (en) 2007-09-06

Family

ID=38548385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006048507A Withdrawn JP2007226634A (en) 2006-02-24 2006-02-24 Person status recognition device, method, program, robot and life support system

Country Status (1)

Country Link
JP (1) JP2007226634A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128594A (en) * 2008-11-25 2010-06-10 Sogo Keibi Hosho Co Ltd Motion detection device and motion detection method
CN104657694A (en) * 2015-03-03 2015-05-27 北京烽火联拓科技有限公司 RFID (radio frequency identification) tag as well as signal processing method and system thereof
KR20150086074A (en) * 2014-01-17 2015-07-27 엘지전자 주식회사 robot cleaner and caring method of human using the same
CN108369236A (en) * 2015-12-08 2018-08-03 株式会社岛津制作所 Analytical equipment data processing system and analytical equipment data processor
JP2019123055A (en) * 2018-01-18 2019-07-25 株式会社ユピテル apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010128594A (en) * 2008-11-25 2010-06-10 Sogo Keibi Hosho Co Ltd Motion detection device and motion detection method
KR20150086074A (en) * 2014-01-17 2015-07-27 엘지전자 주식회사 robot cleaner and caring method of human using the same
KR102104896B1 (en) 2014-01-17 2020-05-29 엘지전자 주식회사 robot cleaner and caring method of human using the same
CN104657694A (en) * 2015-03-03 2015-05-27 北京烽火联拓科技有限公司 RFID (radio frequency identification) tag as well as signal processing method and system thereof
CN108369236A (en) * 2015-12-08 2018-08-03 株式会社岛津制作所 Analytical equipment data processing system and analytical equipment data processor
CN108369236B (en) * 2015-12-08 2021-09-07 株式会社岛津制作所 Data processing system for analysis device and data processing program for analysis device
JP2019123055A (en) * 2018-01-18 2019-07-25 株式会社ユピテル apparatus

Similar Documents

Publication Publication Date Title
WO2017169826A1 (en) Autonomous behavior robot that performs welcoming behavior
JP4682217B2 (en) Behavior control apparatus, method, and program
WO2018012219A1 (en) Autonomous-behavior-type robot
JP7243110B2 (en) Information processing device and information processing method, computer program, and package reception support system
JP2019162715A (en) Robot installing skin
US20230266767A1 (en) Information processing apparatus, information processing method, and program
CN109093633A (en) A kind of detachable robot and its control method
JPWO2017212723A1 (en) Virtual biological control system and virtual biological control method
WO2016199495A1 (en) Behavior detection device, behavior detection method and program, and subject monitoring device
JP2007226634A (en) Person status recognition device, method, program, robot and life support system
CN109895107A (en) Maintaining method and recording medium are seen by nurse robot
JP6755447B2 (en) Autonomous action robot with emergency stop function
JP6575005B2 (en) Joint structure suitable for robot joints
JP2019171566A (en) Robot having soft outer skin
JP7375770B2 (en) Information processing device, information processing method, and program
JP2007152445A (en) Self-propelled robot
JP2007152470A (en) Robot with self-diagnostic function
JP4178846B2 (en) Autonomous driving support device and program
KR20100075272A (en) Method for being care of an infant using a robot
US11938625B2 (en) Information processing apparatus, information processing method, and program
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature
JP2004029908A (en) Support system and program
JP2007152444A (en) Self-propelled robot and information management system
WO2021085175A1 (en) Autonomous mobile object, information processing method, program, and information processing device
JP2007155985A (en) Robot and voice recognition device, and method for the same

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090512