JP5765153B2 - Person monitoring system, robot, person monitoring method, and robot control program - Google Patents

Person monitoring system, robot, person monitoring method, and robot control program Download PDF

Info

Publication number
JP5765153B2
JP5765153B2 JP2011198342A JP2011198342A JP5765153B2 JP 5765153 B2 JP5765153 B2 JP 5765153B2 JP 2011198342 A JP2011198342 A JP 2011198342A JP 2011198342 A JP2011198342 A JP 2011198342A JP 5765153 B2 JP5765153 B2 JP 5765153B2
Authority
JP
Japan
Prior art keywords
person
robot
monitoring
monitoring target
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011198342A
Other languages
Japanese (ja)
Other versions
JP2013061715A (en
Inventor
慎一 大中
慎一 大中
泰美 小暮
泰美 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011198342A priority Critical patent/JP5765153B2/en
Publication of JP2013061715A publication Critical patent/JP2013061715A/en
Application granted granted Critical
Publication of JP5765153B2 publication Critical patent/JP5765153B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視対象者が建物の出入り口から出ることを防止するための人物監視システム、ロボット、人物監視方法およびロボット制御プログラムに関する。   The present invention relates to a person monitoring system, a robot, a person monitoring method, and a robot control program for preventing a person to be monitored from going out of a building entrance.

介護施設などに入居する認知症者は、自分の住んでいた家などに戻ろうとして、施設の外に出ようとすることがある。認知症者が施設の外に出てしまった場合、その認知症者を探すために、施設の職員が大変な労力を費やすことになる。また、認知症者が行方不明になってしまうおそれがある。   A person with dementia who lives in a care facility may try to go outside the facility in order to return to the house where he / she lived. If a person with dementia goes out of the facility, the staff of the facility will spend a great deal of effort looking for the person with dementia. In addition, people with dementia may be missing.

認知症者が入居する施設では、認知症者が別のフロアや施設の外に出て行かないように、何らかの対策を講じている。対策の一つとして、例えば、フロアの出入り口付近にICカードリーダを設置して、施設の職員のみが持つICカードをICカードリーダにかざさないと出入り口の扉が開かないようにして、別のフロアにつながる階段や外につながるロビーに認知症者が出られないようにする方法がある。   In facilities where people with dementia move in, some measures are taken to prevent people with dementia from going out of other floors or facilities. As one of the countermeasures, for example, an IC card reader is installed in the vicinity of the entrance of the floor, and the entrance / exit door is not opened unless the IC card held only by the staff of the facility is held over the IC card reader. There are ways to prevent people with dementia from going out to the stairs leading to the lobby and the lobby leading to the outside.

認知症者は、外に続く扉が開けられない場合に、自分の希望が叶わないことで不穏になったり、「なぜ外に出られないのか」などといった不満を施設職員に対して訴えたりすることがある。認知症者の場合、不満が一旦は収まったとしても、再び外に出ようとしたり不満を訴えたりすることがあるため、職員の負担が大きくなる。   When people with dementia cannot open the doors that open outside, they feel uncomfortable because their wishes are not fulfilled, or complain to facility staff about "why can't they go outside" Sometimes. In the case of a person with dementia, even if the dissatisfaction is settled once, it may try to go out again or complain of dissatisfaction, which increases the burden on the staff.

施設などの出入り口から出ようとする認知症者に対して離設(施設から出て行くこと。)を思いとどまらせるためには、認知症者に話しかけて会話を行うことが有効である。   Talking to a person with dementia and having a conversation are effective in keeping the person with dementia who wants to exit from the entrance of the facility from staying away (getting out of the facility).

非特許文献1には、ロボットが、認知症者に対して、スケジュールに沿った行動の促しを行い、その促しに対する認知症者の行動を確認する方法が記載されている。非特許文献1に記載の方法は、ロボットが認知症者に話しかけて認知症者と何らかの会話を行ったり、離設することとは関係のない行動を認知症者に促したりすることによって、認知症者に離設願望を忘れさせて、認知症者が施設の外に出ることを防止している。   Non-Patent Document 1 describes a method in which a robot prompts a person with dementia to act according to a schedule and confirms the behavior of the person with dementia in response to the prompt. In the method described in Non-Patent Document 1, the robot recognizes the person with dementia by talking to the person with dementia and having some kind of conversation with the person with dementia, or encouraging the person with dementia to perform an action unrelated to leaving. It prevents people with dementia from leaving the facility by forgetting their desire to leave.

特許文献1には、特定の人物(主人)に追従して自律的に移動し、主人の状態および周囲環境にもとづいて予測した主人の危険度が所定値よりも高い場合に、危険回避動作を行う装置が記載されている。危険回避動作とは、例えば、主人が横断歩道を渡るときに右側から車両が近づいている場合には、主人の前に移動して主人を止めることにより、主人の安全を確保する動作などである。   In Patent Literature 1, a risk avoidance operation is performed in a case where a person moves autonomously following a specific person (master), and the risk level of the master predicted based on the condition of the master and the surrounding environment is higher than a predetermined value. An apparatus for performing is described. The danger avoidance operation is, for example, an operation for ensuring the safety of the master by moving in front of the master and stopping the master when the vehicle approaches from the right side when the master crosses the pedestrian crossing. .

特許文献2には、対象者の年齢および反応に応じて適切な発話を行うことができるロボットが記載されている。   Patent Document 2 describes a robot that can perform appropriate speech according to the age and reaction of a subject.

特許文献3には、周囲に人を検出した場合に、検出した人の方向に本体部を向けて移動用モータを駆動させて、その人に近づくことができるロボットが記載されている。   Patent Document 3 describes a robot that can approach a person when a person is detected around the person by driving a moving motor with the main body directed toward the detected person.

特開2007−102488号公報JP 2007-102488 A 特開2009−178783号公報JP 2009-178783 A 特許第4556024号公報Japanese Patent No. 4556024

成田拓也、二瓶美里、石渡利奈、小野田穣、小竹元基、鎌田実、大中慎一、井上剛伸、「認知症を対象とした対話型情報支援システムの開発」ヒューマンインタフェース学会、ヒューマンインタフェースシンポジウム2010、CD−ROM、p.29−34, 2010Takuya Narita, Misato Nibe, Rina Ishiwata, Kei Onoda, Motoki Kotake, Minoru Kamata, Shinichi Onaka, Takenobu Inoue, “Development of Interactive Information Support System for Dementia” Human Interface Society, Human Interface Symposium 2010 CD-ROM, p. 29-34, 2010

認知症者は、遠くから話しかけられたときに、話しかけた人に近づこうとすることがある。また、後ろから話しかけられたときに、後ろを振り向こうとすることがある。そのときに、認知症者がバランスを崩して転倒したりするおそれがある。そのため、認知症者に対して話しかける場合には、健常者に対して話しかける場合と異なり、「近づいて話しかける(遠くから話しかけない)」、「後ろから話しかけない」などといった注意が必要になる。   People with dementia may try to get closer to the person they talk to when they are spoken from a distance. Also, when spoken from behind, they may try to turn around. At that time, the person with dementia may lose balance and fall. Therefore, when talking to a person with dementia, different from talking to a healthy person, it is necessary to pay attention such as “speak closer (do not talk from a distance)” or “do not talk from behind”.

非特許文献1に記載の方法は、認知症者がロボットの目の前にいることを前提としている。そのため、ロボットから離れたところにいる認知症者に対しては、認知症者の近くから話しかけることができない。   The method described in Non-Patent Document 1 assumes that a person with dementia is in front of the robot. Therefore, a person with dementia who is away from the robot cannot talk to the person with dementia.

特許文献1に記載の装置は、主人の前に移動して主人に注意を促すことが可能であるが、装置が常に主人に追従していなければならない。また、主人のそばについて移動する必要があるので、特定の人物しか保護することができない。複数の人物を保護する必要がある場合には、人数に応じた台数の装置が必要となり、建物の中など、限られた空間での使用には適さない。   The device described in Patent Document 1 can move in front of the master and alert the master, but the device must always follow the master. Moreover, since it is necessary to move near the master, only a specific person can be protected. When it is necessary to protect a plurality of persons, a number of devices corresponding to the number of persons is required, and it is not suitable for use in a limited space such as in a building.

特許文献3に記載のロボットは、人を検出して、自律的にその人に近づくことができるが、人の目の前に移動する機能を備えていない。   The robot described in Patent Document 3 can detect a person and approach the person autonomously, but does not have a function of moving in front of the person's eyes.

ロボットなどの自立移動可能な装置を人の目の前に移動させることは技術的に困難な場合が多い。例えば、歩いている人の目の前にロボットを移動させるためには、随時、その人の位置および正面の方向を検知しながら、ロボットを制御しなければならない。   In many cases, it is technically difficult to move a device such as a robot that can move independently in front of human eyes. For example, in order to move a robot in front of a person walking, it is necessary to control the robot while detecting the position and front direction of the person at any time.

そこで、本発明は、監視対象者に対して正面側から話しかけることができ、かつ、監視対象者が建物の出入り口から出ることを防止することができる人物監視システム、ロボット、人物監視方法およびロボット制御プログラムを提供することを目的とする。   Therefore, the present invention provides a person monitoring system, a robot, a person monitoring method, and a robot control capable of talking to a monitoring target person from the front side and preventing the monitoring target person from exiting the entrance of a building. The purpose is to provide a program.

本発明による人物監視システムは、所定エリア内に進入した移動物が監視対象者であるか否かを判定する人物判断手段と、人物判断手段が移動物が監視対象者であると判定した場合に、監視対象者の移動経路を推定し、推定した移動経路上に移動し、監視対象者の正面側から監視対象者に対して対話を実行するロボットとを含むことを特徴とする。   The person monitoring system according to the present invention includes a person determination unit that determines whether or not a moving object that has entered a predetermined area is a person to be monitored, and a person determination unit that determines that the moving object is a person to be monitored. And a robot that estimates the movement path of the monitoring target person, moves on the estimated movement path, and executes dialogue with the monitoring target person from the front side of the monitoring target person.

本発明による人物監視システムは、所定エリア内に進入した移動物を検知した場合に、移動物を特定可能な識別情報を送信する移動物検知手段を含む検出装置と、検出装置から受信した識別情報と監視対象者情報テーブルとをもとに、識別情報で特定される移動物が監視対象者であるか否かを判定し、移動物が監視対象者である場合には、監視対象者が発見されたことを示す発見信号を送信する人物判断手段を含む端末装置と、端末装置と通信可能なロボットとを含み、ロボットは、撮像装置と音声出力装置とを備え、端末装置から発見信号を受信した場合に監視対象者の移動経路を推定する移動経路推定手段と、移動経路推定手段が推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段と、移動情報にもとづいてロボットを指定地点に移動させる移動制御手段と、撮像装置が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する人物認識手段と、人物認識手段の判定結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を音声出力装置から出力する対話手段とを含むことを特徴とする。   A person monitoring system according to the present invention includes a detection device including a moving object detection unit that transmits identification information that can identify a moving object when a moving object that has entered a predetermined area is detected, and identification information received from the detection apparatus And the monitoring target person information table, it is determined whether the moving object specified by the identification information is the monitoring target person. If the moving object is the monitoring target person, the monitoring target person finds it. A terminal device including a person determination unit that transmits a discovery signal indicating that the detection has been performed, and a robot capable of communicating with the terminal device, the robot including an imaging device and an audio output device, and receiving the discovery signal from the terminal device A movement path estimation means for estimating the movement path of the monitoring subject, a movement information determination means for generating movement information for moving the robot to a designated point on the movement path estimated by the movement path estimation means, A movement control means for moving the robot to a designated point based on the information; a person recognition means for determining the distance between the monitoring target person and the robot and the direction of the face of the monitoring target person from the image signal output from the imaging device; Based on the determination result of the means, if it is determined that the distance is equal to or less than the pre-designated distance and the face of the person to be monitored is facing the robot, the audio signal based on the dialogue information is And an interactive means for outputting from the output device.

本発明によるロボットは、撮像装置と音声出力装置とを備え、端末装置から監視対象者が発見されたことを示す発見信号を受信した場合に監視対象者の移動経路を推定する移動経路推定手段と、移動経路推定手段が推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段と、移動情報にもとづいてロボットを指定地点に移動させる移動制御手段と、撮像装置が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する人物認識手段と、人物認識手段の判定結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を音声出力装置から出力する対話手段とを含むことを特徴とする。   A robot according to the present invention includes an imaging device and an audio output device, and a movement path estimation unit that estimates a movement path of a monitoring target person when receiving a discovery signal indicating that the monitoring target person has been detected from a terminal device A movement information determination unit that generates movement information for moving the robot to a designated point on the movement route estimated by the movement route estimation unit; a movement control unit that moves the robot to the designated point based on the movement information; A person recognition unit that determines the distance between the monitoring target person and the robot and the direction of the face of the monitoring target person from the image signal output from the apparatus, and a dialogable distance in which the distance is designated in advance based on the determination result of the person recognition unit Dialogue means for outputting an audio signal based on the dialogue information from the audio output device when it is determined that the face of the person to be monitored is facing the robot, Characterized in that it contains.

本発明による人物監視方法は、人物監視システムにおける人物監視方法であって、所定エリア内に進入した移動物が監視対象者であるか否かを判定し、移動物が監視対象者であると判定した場合に、監視対象者の移動経路を推定し、推定した移動経路上にロボットを移動し、ロボットに監視対象者の正面側から監視対象者に対して対話を実行させることを特徴とする。   The person monitoring method according to the present invention is a person monitoring method in a person monitoring system, wherein it is determined whether or not a moving object that has entered a predetermined area is a monitoring target person, and it is determined that the moving object is a monitoring target person. In this case, the movement path of the monitoring target person is estimated, the robot is moved on the estimated movement path, and the robot is caused to execute a dialogue with the monitoring target person from the front side of the monitoring target person.

本発明による人物監視方法は、人物監視システムにおける人物監視方法であって、検出装置は、所定エリア内に進入した移動物を検知した場合に、移動物を特定可能な識別情報を送信し、端末装置は、検出装置から受信した識別情報と監視対象者情報テーブルとをもとに、識別情報で特定される移動物が監視対象者であるか否かを判定し、移動物が監視対象者である場合には、監視対象者が発見されたことを示す発見信号を送信し、ロボットは、端末装置から発見信号を受信した場合に監視対象者の移動経路を推定し、推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成し、移動情報にもとづいてロボットを指定地点に移動させ、ロボットが備える撮像装置が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定し、判定の結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号をロボット装置が備える音声出力装置から出力することを特徴とする。   A person monitoring method according to the present invention is a person monitoring method in a person monitoring system, and a detection device transmits identification information that can identify a moving object when a moving object that has entered a predetermined area is detected, and a terminal The apparatus determines whether the moving object specified by the identification information is the monitoring target person based on the identification information received from the detection apparatus and the monitoring target person information table, and the moving object is the monitoring target person. In some cases, a discovery signal indicating that the monitoring subject has been found is transmitted, and when the robot receives the discovery signal from the terminal device, the robot estimates the movement route of the monitoring subject, and on the estimated movement route Movement information for moving the robot to the designated point is generated, the robot is moved to the designated point based on the movement information, and the distance between the monitoring target person and the robot is determined from the image signal output by the imaging device provided in the robot. And the direction of the face of the person being monitored is determined, and based on the result of the determination, the distance is less than or equal to the pre-designated dialogue distance and it is determined that the face of the person being monitored is facing the robot In addition, a voice signal based on the dialogue information is output from a voice output device provided in the robot device.

本発明によるロボット制御プログラムは、監視システムにおけるロボットを制御するためのロボット制御プログラムであって、コンピュータに、監視システム内の端末装置から発見信号を受信した場合に監視対象者の移動経路を推定する処理と、推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する処理と、移動情報にもとづいてロボット装置を指定地点に移動させる処理と、ロボット装置が備える撮像装置が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する処理と、判定の結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号をロボット装置が備える音声出力装置から出力する処理とを実行させることを特徴とする。   A robot control program according to the present invention is a robot control program for controlling a robot in a monitoring system, and estimates a movement path of a monitoring target when a computer receives a discovery signal from a terminal device in the monitoring system. Processing, processing for generating movement information for moving the robot to the designated point on the estimated movement route, processing for moving the robot device to the designated point based on the movement information, and an imaging device included in the robot device outputs A process for determining the distance between the monitoring target person and the robot and the direction of the face of the monitoring target person from the image signal to be monitored, and based on the determination result, the distance is equal to or less than a pre-designated interactive distance, and the monitoring target person If the robot's face is pointing toward the robot, the sound that the robot device has an audio signal based on the dialogue information Characterized in that to execute a process of outputting from the output device.

本発明によれば、監視対象者に対して正面側から話しかけることができ、かつ、監視対象者が建物の出入り口から出ることを防止することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can talk to a monitoring subject from the front side, and can prevent that a monitoring subject goes out of the entrance / exit of a building.

本発明による人物監視システムの機能構成を示すブロック図である。It is a block diagram which shows the function structure of the person monitoring system by this invention. 第1の実施形態におけるロボットの正面図である。It is a front view of the robot in a 1st embodiment. 第1の実施形態におけるロボットの電気的構成の一例を示す説明図である。It is explanatory drawing which shows an example of the electrical structure of the robot in 1st Embodiment. コントローラ430の内部構成を示す説明図である。3 is an explanatory diagram showing an internal configuration of a controller 430. FIG. ロボットを待機させるためのロボットステーションの外観を示す説明図である。It is explanatory drawing which shows the external appearance of the robot station for making a robot wait. ロボットステーションが設置された建物の出入り口付近を上から見た場合の説明図である。It is explanatory drawing at the time of seeing the entrance / exit vicinity of the building in which the robot station was installed from the top. 図6に示す建物の出入り口において認知症者が発見されたときの人物監視システムの動作を示す説明図である。It is explanatory drawing which shows operation | movement of a person monitoring system when a dementia person is discovered in the entrance and exit of the building shown in FIG. コントローラ430の動作を示すフローチャートである。5 is a flowchart showing the operation of a controller 430. コントローラ430の移動経路推定部が推定した移動経路の一例を示す説明図である。It is explanatory drawing which shows an example of the movement path | route which the movement path | route estimation part of the controller 430 estimated. 認知症者が推定移動経路1100上を移動し、ロボットが推定移動経路1100上の地点1101に向かうときの様子を示す説明図である。It is explanatory drawing which shows a mode when a dementia person moves on the estimated movement path | route 1100, and a robot heads to the point 1101 on the estimated movement path | route 1100. FIG. 本発明による人物監視システムの主要部を示すブロック図である。It is a block diagram which shows the principal part of the person monitoring system by this invention. 本発明による人物監視システムの主要部を示すブロック図である。It is a block diagram which shows the principal part of the person monitoring system by this invention.

実施形態1.
以下、本発明の第1の実施形態を図面を参照して説明する。
Embodiment 1. FIG.
A first embodiment of the present invention will be described below with reference to the drawings.

図1は、本発明による人物監視システムの機能構成を示すブロック図である。   FIG. 1 is a block diagram showing a functional configuration of a person monitoring system according to the present invention.

本発明による人物監視システムは、ロボットを含み、建物の出入り口から出ようとする監視対象者の前にロボットを移動させて、ロボットを介して監視対象者と対話を行うことによって、監視対象者が建物の出入り口から出ることを防止する。   The person monitoring system according to the present invention includes a robot, moves the robot in front of the person to be monitored through the entrance of the building, and performs dialogue with the person to be monitored through the robot. Prevent exit from the building entrance.

図1に示すように、人物監視システムは、人物検知手段101と、人物判断手段102と、移動経路推定手段103と、移動情報決定手段104と、移動制御手段105と、人物認識手段106と、対話手段107と、情報通知手段108と、帰還手段109とを含む。なお、人物検知手段101は、移動物検知手段の一例である。   As shown in FIG. 1, the person monitoring system includes a person detection unit 101, a person determination unit 102, a movement route estimation unit 103, a movement information determination unit 104, a movement control unit 105, a person recognition unit 106, A dialogue means 107, an information notification means 108, and a feedback means 109 are included. The person detection unit 101 is an example of a moving object detection unit.

人物検知手段101は、ICタグを所持する人物がICタグを検知するセンサの範囲内に入ったときに、ICタグを検知するとともに、ICタグに記憶されている人物を識別するための識別情報(以下、人物識別情報という。)を取得する。   The person detecting means 101 detects the IC tag when the person carrying the IC tag enters the range of the sensor that detects the IC tag, and identification information for identifying the person stored in the IC tag (Hereinafter referred to as person identification information).

人物判断手段102は、人物識別情報と監視対象者とを対応付けるための監視対象者情報を含む監視対象者情報テーブルを記憶する。監視対象者が複数存在する場合には、複数の監視対象者情報が監視対象者情報テーブルに登録される。   The person determination unit 102 stores a monitoring target person information table including monitoring target person information for associating person identification information with a monitoring target person. When there are a plurality of monitoring target persons, a plurality of monitoring target person information is registered in the monitoring target person information table.

人物判断手段102は、人物識別情報と監視対象者情報テーブルとをもとに、人物検知手段101で検知された人物が監視対象者であるか否かを判断する。本実施形態では、認知症者を監視対象者とする。   The person determination unit 102 determines whether the person detected by the person detection unit 101 is a monitoring target person based on the person identification information and the monitoring target person information table. In this embodiment, a person with dementia is a monitoring subject.

移動経路推定手段103は、人物判断手段102が監視対象者であると判断した人物の移動経路の推定を行う。本実施形態では、監視対象者である認知症者が建物内の所定の出入り口に向かうことを想定して、移動経路の推定を行う。   The movement route estimation unit 103 estimates the movement route of the person that the person determination unit 102 has determined to be a monitoring target person. In the present embodiment, the movement path is estimated on the assumption that a person with dementia who is a monitoring target heads for a predetermined entrance in the building.

移動経路決定手段104は、移動経路推定手段301で推定した移動経路上にロボットを移動させるために必要な移動速度および移動距離を算出する。   The movement route determination unit 104 calculates a movement speed and a movement distance necessary for moving the robot on the movement route estimated by the movement route estimation unit 301.

移動制御手段105は、移動情報決定手段104が算出した移動速度および移動距離にもとづいてロボットを移動させる。   The movement control unit 105 moves the robot based on the movement speed and movement distance calculated by the movement information determination unit 104.

人物認識手段106は、ロボットと監視対象者との距離を算出するとともに、監視対象者の顔がロボットの方を向いているか否かを判定する。   The person recognizing means 106 calculates the distance between the robot and the monitoring subject and determines whether or not the face of the monitoring subject is facing the robot.

対話手段107は、人物認識手段106の判定結果をもとに、ロボットと監視対象者との距離が予め決められた距離以内であって、監視対象者の顔がロボットの方を向いていると判断した場合には、ロボットに発話させる。   The dialogue unit 107 determines that the distance between the robot and the monitoring target person is within a predetermined distance based on the determination result of the person recognition unit 106 and the face of the monitoring target is facing the robot. If so, let the robot speak.

情報通知手段108は、スタッフが所持する携帯端末などに検出通知を送信する。検出通知は、監視対象者が出入り口から出ようとしていることをスタッフに知らせるための通知である。   The information notification means 108 transmits a detection notification to a portable terminal owned by the staff. The detection notification is a notification for notifying the staff that the monitoring target person is about to exit from the doorway.

帰還手段109は、ロボットを所定の待機場所(ロボットステーション)に移動させる。   The return means 109 moves the robot to a predetermined standby place (robot station).

図2は、第1の実施形態におけるロボットの正面図である。   FIG. 2 is a front view of the robot according to the first embodiment.

ロボット200は、頭部300と、胴体部400と、車輪501、502とを備える。   The robot 200 includes a head 300, a body part 400, and wheels 501 and 502.

頭部300は、例えば、球体である。胴体部400は、円筒型であり、円筒の平面が上面(図2における上側の面)および下面になるように配置される。   The head 300 is, for example, a sphere. The body part 400 is a cylindrical type, and is disposed such that the plane of the cylinder is an upper surface (an upper surface in FIG. 2) and a lower surface.

頭部300は、撮像装置311、312を含む。撮像装置311、312は、頭部300の正面側に設置される。   The head 300 includes imaging devices 311 and 312. The imaging devices 311 and 312 are installed on the front side of the head 300.

頭部300は、胴体部400に接続される。頭部300と胴体部400とは、胴体部400の上面の中心にほぼ垂直に設置された垂直軸によって接続される。また、頭部300は、垂直軸が頭部300の中心を通るようにして胴体部400と接続される。   The head part 300 is connected to the body part 400. The head part 300 and the body part 400 are connected by a vertical shaft that is installed substantially vertically at the center of the upper surface of the body part 400. The head 300 is connected to the body 400 so that the vertical axis passes through the center of the head 300.

頭部300は、水平軸を含む。水平軸は、胴体部400と頭部300とが正面を向いた状態で左右方向にほぼ水平(垂直軸に対してほぼ90度)に設置される。また、水平軸は、頭部300の中心を通るようにして設置される。水平軸を自転させることによって、頭部300を上下に回転させることができる。また、水平軸の中央を支点にして左右に回転させることによって頭部300を左右に回転させることができる。   The head 300 includes a horizontal axis. The horizontal axis is set substantially horizontally (approximately 90 degrees with respect to the vertical axis) in the left-right direction with the body 400 and the head 300 facing the front. Further, the horizontal axis is installed so as to pass through the center of the head 300. The head 300 can be rotated up and down by rotating the horizontal axis. Further, the head 300 can be rotated left and right by rotating left and right around the center of the horizontal axis.

胴体部400は、音声入力装置410および音声出力装置420を含む。音声入力装置410および音声出力装置420は、胴体部400の正面側に設置される。   The body part 400 includes an audio input device 410 and an audio output device 420. The voice input device 410 and the voice output device 420 are installed on the front side of the body part 400.

車輪501、502は、胴体部400の下面に設置される。   The wheels 501 and 502 are installed on the lower surface of the body part 400.

図3は、第1の実施形態におけるロボットの電気的構成の一例を示す説明図である。   FIG. 3 is an explanatory diagram illustrating an example of the electrical configuration of the robot according to the first embodiment.

頭部300は、撮像装置311、312の他に、アクチュエータ321、322を含む。   The head 300 includes actuators 321 and 322 in addition to the imaging devices 311 and 312.

胴体部400は、音声入力装置410および音声出力装置420の他に、コントローラ430と、バッテリ440と、アクチュエータ451、452と、ネットワークアダプタ460とを含む。   The torso part 400 includes a controller 430, a battery 440, actuators 451 and 452, and a network adapter 460 in addition to the audio input device 410 and the audio output device 420.

撮像装置311、312は、例えば、CCDカメラである。撮像装置311、312は、ロボットの200の周囲の状況を撮像し、撮像した画像を画像信号としてコントローラ430に出力する。   The imaging devices 311 and 312 are, for example, CCD cameras. The imaging devices 311 and 312 capture the situation around the robot 200 and output the captured image to the controller 430 as an image signal.

アクチュエータ321、322は、コントローラ430の指示にもとづいて、頭部300が含む水平軸を駆動させて、頭部300を上下または左右に回転させる。   The actuators 321 and 322 drive the horizontal axis included in the head 300 based on an instruction from the controller 430 to rotate the head 300 up and down or left and right.

音声入力装置410は、例えば、マイクロフォンである。音声入力装置410は、監視対象者が発する音声など周囲の音声を入力し、音声データを生成する。音声入力装置410は、生成した音声データをコントローラ430に出力する。   The voice input device 410 is, for example, a microphone. The voice input device 410 inputs ambient voice such as voice uttered by the monitoring subject and generates voice data. The voice input device 410 outputs the generated voice data to the controller 430.

音声出力装置420は、例えば、スピーカである。音声出力装置420は、コントローラ430から入力された音声データを、音声信号として出力する。   The audio output device 420 is, for example, a speaker. The audio output device 420 outputs the audio data input from the controller 430 as an audio signal.

コントローラ430は、CPU432と、メモリ433とを含む。   The controller 430 includes a CPU 432 and a memory 433.

コントローラ430は、ロボット200を制御する。具体的には、コントローラ430は、撮像装置311、312から入力される画像信号や、音声入力装置410から入力される音声信号にもとづいて、ロボット200の周囲の状況や監視対象者が発する音声を判断する。   The controller 430 controls the robot 200. Specifically, the controller 430 generates a sound generated by the situation around the robot 200 and the person to be monitored based on the image signal input from the imaging devices 311 and 312 and the sound signal input from the sound input device 410. to decide.

コントローラ430は、その判断結果にもとづいて、その後に続くロボット200の行動を決定する。そして、コントローラ430は、その決定にもとづいて、アクチュエータ451、452を介して、車輪501、502を制御してロボット200を回転させたり移動させたりする。また、アクチュエータ321、322を介して、頭部300の水平軸を制御して頭部300を上下左右に回転させたりする。   The controller 430 determines the subsequent action of the robot 200 based on the determination result. Based on the determination, the controller 430 controls the wheels 501 and 502 via the actuators 451 and 452 to rotate or move the robot 200. Further, the head 300 is rotated up and down and left and right by controlling the horizontal axis of the head 300 via the actuators 321 and 322.

メモリ433は、ロボットを制御するための制御プログラムを記憶する。   The memory 433 stores a control program for controlling the robot.

CPU432は、メモリ433に記憶された制御プログラムを実行し、コントローラ430の各種処理を実現する。   The CPU 432 executes a control program stored in the memory 433 and realizes various processes of the controller 430.

バッテリ440は、ロボットの動力源である。バッテリ440は、コントローラ430などに電力を供給する。   The battery 440 is a power source for the robot. The battery 440 supplies power to the controller 430 and the like.

アクチュエータ451、452は、コントローラ430の指示にもとづいて、車輪501、502を回転させる。コントローラ430は、アクチュエータ451とアクチュエータ452とを介して、車輪501と車輪502とを独立に制御することによって、ロボット200を方向転換させたり、前後に移動させたりすることができる。   The actuators 451 and 452 rotate the wheels 501 and 502 based on instructions from the controller 430. The controller 430 can change the direction of the robot 200 or move it back and forth by independently controlling the wheel 501 and the wheel 502 via the actuator 451 and the actuator 452.

ネットワークアダプタ460は、ネットワーク500に接続されたパーソナルコンピュータ(PC)などの端末装置とデータの送受信を行う。   The network adapter 460 transmits / receives data to / from a terminal device such as a personal computer (PC) connected to the network 500.

ここで、コントローラ430の構成について説明する。図4は、コントローラ430の内部構成を示す説明図である。   Here, the configuration of the controller 430 will be described. FIG. 4 is an explanatory diagram showing the internal configuration of the controller 430.

コントローラ430は、通信部4301と、音声認識部4302と、人物認識部4303と、ステーション認識部4304と、移動経路推定部4305と、移動情報決定部4306と、行動決定部4307と、制御部4308と、音声合成部4309と、出力部4310とを含む。   The controller 430 includes a communication unit 4301, a voice recognition unit 4302, a person recognition unit 4303, a station recognition unit 4304, a movement route estimation unit 4305, a movement information determination unit 4306, an action determination unit 4307, and a control unit 4308. A speech synthesizer 4309 and an output unit 4310.

なお、図1における移動経路推定手段103は、移動経路推定部4305に相当する。移動情報決定手段104は、移動情報決定部4306に相当する。移動制御手段105は、行動決定部4307および制御部4308に相当する。人物認識手段106は、人物認識部4303に相当する。対話手段107は、行動決定部4307、音声認識部4302、音声合成部4309および出力部4310に相当する。情報通知手段108は、行動決定部4307および通信部4301に相当する。帰還手段109は、行動決定部4307、ステーション認識部4304および制御部4308に相当する。   Note that the movement route estimation unit 103 in FIG. 1 corresponds to the movement route estimation unit 4305. The movement information determination unit 104 corresponds to the movement information determination unit 4306. The movement control unit 105 corresponds to the behavior determination unit 4307 and the control unit 4308. The person recognition unit 106 corresponds to the person recognition unit 4303. The interaction means 107 corresponds to the action determination unit 4307, the speech recognition unit 4302, the speech synthesis unit 4309, and the output unit 4310. The information notification unit 108 corresponds to the action determination unit 4307 and the communication unit 4301. The feedback means 109 corresponds to the action determination unit 4307, the station recognition unit 4304, and the control unit 4308.

通信部4301は、ネットワークアダプタ460を介してデータの送受信を行う。通信部4301は、監視対象者が発見されたことを示す発見信号を受信した場合には、受信した発見信号を行動決定部4307に出力する。また、通信部4301は、行動決定部4307から入力された情報、例えば、監視対象者の検出通知を、ネットワークアダプタ460を介してネットワーク500に送出する。   The communication unit 4301 transmits and receives data via the network adapter 460. When the communication unit 4301 receives a discovery signal indicating that the person to be monitored has been discovered, the communication unit 4301 outputs the received discovery signal to the behavior determination unit 4307. In addition, the communication unit 4301 transmits information input from the behavior determination unit 4307, for example, a notification of detection of the monitoring target person to the network 500 via the network adapter 460.

音声認識部4302は、音声入力装置410を介して、監視対象者が話した音声を認識し、監視対象者が話した内容を音声認識結果として行動決定部4307に出力する。   The voice recognition unit 4302 recognizes the voice spoken by the monitoring target person via the voice input device 410 and outputs the content spoken by the monitoring target person to the action determination unit 4307 as a voice recognition result.

人物認識部4303は、撮像装置311、312から入力される画像信号にもとづいて、人物を検出し、検出した人物までの距離を算出する。また、人物認識部4303は、検出した人物がロボット200の方を向いているか否かを判定する。本実施形態では、人物認識部4303は、検出した人物の正面顔を認識した場合に、その人物がロボット200の方を向いていると判断する。   The person recognition unit 4303 detects a person based on the image signals input from the imaging devices 311 and 312 and calculates a distance to the detected person. Also, the person recognition unit 4303 determines whether or not the detected person is facing the robot 200. In this embodiment, when the person recognition unit 4303 recognizes the front face of the detected person, the person recognition unit 4303 determines that the person is facing the robot 200.

ステーション認識部4304は、撮像装置311、312から入力される画像信号にもとづいて、ロボット200とロボットステーションとの相対位置関係を算出する。   The station recognition unit 4304 calculates the relative positional relationship between the robot 200 and the robot station based on image signals input from the imaging devices 311 and 312.

移動経路推定部4305は、監視対象者の移動経路を推定する。   The movement route estimation unit 4305 estimates the movement route of the monitoring target person.

移動情報決定部4306は、移動経路推定部4305が推定した推定移動経路上にロボット200を移動させるための移動速度と移動距離を算出する。移動情報決定部4306は、算出結果を含む移動情報を行動決定部4307に出力する。   The movement information determination unit 4306 calculates a movement speed and a movement distance for moving the robot 200 on the estimated movement path estimated by the movement path estimation unit 4305. The movement information determination unit 4306 outputs movement information including the calculation result to the behavior determination unit 4307.

行動決定部4307は、ステーション認識部4304や移動情報決定部4306などから入力した情報にもとづいて、制御部4308に動作指示を出力する。   The behavior determination unit 4307 outputs an operation instruction to the control unit 4308 based on information input from the station recognition unit 4304, the movement information determination unit 4306, and the like.

制御部4308は、行動決定部4307から入力した動作指示にもとづいて、アクチュエータ321、322、451、452を駆動させる。   The control unit 4308 drives the actuators 321, 322, 451, and 452 based on the operation instruction input from the behavior determination unit 4307.

音声合成部4309は、行動決定部4307から入力した台詞情報をもとに、合成音声データを生成して、出力部4310に出力する。台詞情報とは、「こんにちは」などの台詞を含む情報である。   The speech synthesizer 4309 generates synthesized speech data based on the dialogue information input from the action determination unit 4307 and outputs the synthesized speech data to the output unit 4310. The speech information is information that includes the words such as "Hello".

出力部4310は、音声合成部4309から入力した合成音声データを、音声出力装置420を介して、音声信号として出力する。   The output unit 4310 outputs the synthesized voice data input from the voice synthesis unit 4309 as a voice signal via the voice output device 420.

図5は、ロボット200を待機させるためのロボットステーション600の外観を示す説明図である。   FIG. 5 is an explanatory diagram showing an appearance of a robot station 600 for making the robot 200 stand by.

図5(a)は、ロボットステーション600の正面図である。図5(b)は、ロボットステーション600の側面図である。   FIG. 5A is a front view of the robot station 600. FIG. 5B is a side view of the robot station 600.

ロボットステーション600は、台座部610と、灯台部620とを含む。   The robot station 600 includes a pedestal unit 610 and a lighthouse unit 620.

灯台部610は、ロボット200を乗せるための台である。図5(c)は、ロボット200が台座部610に乗った状態のロボットステーション600の側面図である。   The lighthouse unit 610 is a table on which the robot 200 is placed. FIG. 5C is a side view of the robot station 600 with the robot 200 riding on the pedestal 610.

灯台部620の正面側には、4つのLEDが設置される。ロボット200のステーション認識部4304は、灯台部620に設置された4つのLEDの灯りを検知し、4つのLEDの配置の形状、大きさから、灯台部620とロボット200との相対位置関係を算出する。ロボット200は、ロボットステーション600上から他の場所に移動した場合でも、ステーション認識部4304が算出した相対位置関係をもとに、ロボットステーション600に戻ることができる。   Four LEDs are installed on the front side of the lighthouse unit 620. The station recognition unit 4304 of the robot 200 detects the lights of the four LEDs installed in the lighthouse unit 620, and calculates the relative positional relationship between the lighthouse unit 620 and the robot 200 from the shape and size of the arrangement of the four LEDs. To do. Even when the robot 200 moves from the robot station 600 to another place, the robot 200 can return to the robot station 600 based on the relative positional relationship calculated by the station recognition unit 4304.

なお、本実施形態では、灯台部620に4つのLEDを設置しているが、LEDは灯台部620にいくつ設置してもよい。また、LEDの配置は、図5に示すレイアウトに限られない。   In the present embodiment, four LEDs are installed in the lighthouse unit 620, but any number of LEDs may be installed in the lighthouse unit 620. Further, the LED arrangement is not limited to the layout shown in FIG.

次に、人物監視システムの動作を説明する。   Next, the operation of the person monitoring system will be described.

図6は、ロボットステーション600が設置された建物の出入り口付近を上から見た場合の説明図である。   FIG. 6 is an explanatory diagram when the vicinity of the entrance / exit of the building where the robot station 600 is installed is viewed from above.

本実施形態では、図6に示すように、ロボットステーション600を建物の出入り口1300の手前に設置する。そして、ロボットステーション600にロボット200を待機させる。なお、ロボットステーション600は、建物の出入り口以外の場所に設置されてもよい。   In the present embodiment, as shown in FIG. 6, the robot station 600 is installed in front of the entrance 1300 of the building. Then, the robot 200 is caused to wait on the robot station 600. The robot station 600 may be installed at a place other than the entrance of the building.

図7は、図6に示す建物の出入り口において認知症者が発見されたときの人物監視システムの動作を示す説明図である。   FIG. 7 is an explanatory diagram showing the operation of the person monitoring system when a person with dementia is found at the entrance of the building shown in FIG.

人物監視システムの各手段101〜110を実現するために、図7に示すように、ロボット200およびロボットステーション600の他に、エキサイタ701、702、703と、アクセスポイント900と、PC1000とを設置する。   In order to realize each means 101-110 of the person monitoring system, as shown in FIG. 7, in addition to the robot 200 and the robot station 600, exciters 701, 702, 703, an access point 900, and a PC 1000 are installed. .

エキサイタ701、702、703は、認知症者が所持するタグ800を検知するための検出装置(センサ)であって、例えば、無線ICタグリーダなどである。   Exciters 701, 702, and 703 are detection devices (sensors) for detecting a tag 800 possessed by a person with dementia, such as a wireless IC tag reader.

エキサイタ701〜703は、ロボットステーション600の手前の位置に配置され、天井などに設置される。図7に示す検知領域711、712、713は、エキサイタ701、702、703のタグの検知可能範囲を表す。   The exciters 701 to 703 are arranged at a position in front of the robot station 600 and are installed on the ceiling or the like. Detection areas 711, 712, and 713 shown in FIG. 7 represent tag detectable ranges of the exciters 701, 702, and 703.

タグ800は、例えば、ICタグである。タグ800は、無線LANなどの通信機能を備え、アクセスポイント900を介してPC1000と通信可能に接続されている。   The tag 800 is an IC tag, for example. The tag 800 has a communication function such as a wireless LAN, and is connected to the PC 1000 via the access point 900 so as to be communicable.

タグ800は、記憶部(図示せず)を備え、人物識別情報を記憶部に記憶する。人物識別情報は、タグ800を所持する人物を識別するための情報である。   Tag 800 includes a storage unit (not shown), and stores person identification information in the storage unit. The person identification information is information for identifying a person who possesses the tag 800.

アクセスポイント900は、中継装置である。アクセスポイント900は、ネットワークを介してPC1000と接続され、タグ800とPC1000との間で送受信されるデータを中継する。   Access point 900 is a relay device. The access point 900 is connected to the PC 1000 via the network and relays data transmitted and received between the tag 800 and the PC 1000.

PC1000は、無線LANなどの通信機能を備えた端末装置であって、ロボット200と通信可能に接続されている。   The PC 1000 is a terminal device having a communication function such as a wireless LAN, and is connected to the robot 200 so as to be communicable.

PC1000は、人物識別情報を解析するための制御ソフトウェアを備える。PC1000は、制御ソフトウェアを実行させることによって、人物識別情報の解析処理を行う。また、PC1000は、監視対象者情報テーブルを記憶する。   The PC 1000 includes control software for analyzing person identification information. The PC 1000 performs analysis processing of person identification information by executing control software. The PC 1000 also stores a monitoring subject information table.

図7に示すように、タグ800を所持した認知症者が検知領域712に進入した場合、エキサイタ702によってタグ800が検知される。   As shown in FIG. 7, when a person with dementia who has the tag 800 enters the detection region 712, the tag 800 is detected by the exciter 702.

エキサイタ702は、タグ800を検知すると、タグ800に対して人物識別情報の発信指示を送信する。   When the exciter 702 detects the tag 800, the exciter 702 transmits a transmission instruction of person identification information to the tag 800.

タグ800は、エキサイタから発信指示を受信すると、人物識別情報を記憶部から読み出す。そして、発信指示の送信元のエキサイタを特定可能な情報を付加した人物識別情報を、アクセスポイント900を介してPC1000に送信する。   When the tag 800 receives a call instruction from the exciter, the tag 800 reads the person identification information from the storage unit. Then, the person identification information to which information capable of specifying the exciter as the transmission source of the transmission instruction is added is transmitted to the PC 1000 via the access point 900.

PC1000は、タグ800からから人物識別情報を受信すると、受信した人物識別情報を解析し、解析結果に対応した処理を行う。   Upon receiving the person identification information from the tag 800, the PC 1000 analyzes the received person identification information and performs processing corresponding to the analysis result.

具体的には、PC1000は、人物識別情報と監視対象者情報テーブルとをもとに、タグ800に対応する人物(タグ800を所持する人物)を特定して、その人物が監視対象者(認知症者)であるか否か判定する。また、どのエキサイタでタグ800が検知されたかを判定する。そして、タグ800に対応する人物が認知症者である場合には、PC1000は、認知症者が発見されたことを示す情報と、認知症者が発見された検知領域を示す情報とを含む発見信号をロボット200に送出する。   Specifically, the PC 1000 identifies a person corresponding to the tag 800 (person who owns the tag 800) based on the person identification information and the monitoring target person information table, and the person is a monitoring target person (recognition). It is determined whether or not the person is sick. Also, it is determined which exciter has detected the tag 800. When the person corresponding to the tag 800 is a person with dementia, the PC 1000 includes information indicating that the person with dementia has been discovered and information indicating the detection area where the person with dementia has been found. A signal is sent to the robot 200.

なお、図1における人物検知手段101は、エキサイタ701〜703およびタグ800によって実現される。また、人物判断手段102は、PC1000の制御ソフトウェアによって実現される。   1 is realized by exciters 701 to 703 and a tag 800. The person determination unit 102 is realized by control software of the PC 1000.

次に、発見信号を受信したロボット200の動作を説明する。   Next, the operation of the robot 200 that has received the discovery signal will be described.

図8は、ロボット200のコントローラ430の動作を示すフローチャートである。   FIG. 8 is a flowchart showing the operation of the controller 430 of the robot 200.

コントローラ430は、PC1000からの発見信号を受信するまで、ロボットステーション600上でロボット200を待機させる(ステップS801)。   The controller 430 causes the robot 200 to wait on the robot station 600 until it receives a discovery signal from the PC 1000 (step S801).

コントローラ430は、PC1000から発見信号を受信する。コントローラ430は、検知領域で認知症者が発見されたと判断し(ステップS802)、認知症者の移動経路を推定する(ステップS803)。   The controller 430 receives a discovery signal from the PC 1000. The controller 430 determines that a person with dementia has been found in the detection area (step S802), and estimates the movement path of the person with dementia (step S803).

コントローラ430は、推定した移動経路上にロボット200を移動させるための速度と距離を算出する。そして、コントローラ430は、算出結果にもとづいて、アクチュエータ451、452を介して車輪501、502を駆動させて、ロボット200を認知症者の前に移動させる(ステップS804)。また、コントローラ430は、ロボット200の正面側が認知症者の方向を向くように、ロボット200を回転させる。   The controller 430 calculates the speed and distance for moving the robot 200 on the estimated movement path. Based on the calculation result, the controller 430 drives the wheels 501 and 502 via the actuators 451 and 452 to move the robot 200 in front of the person with dementia (step S804). Further, the controller 430 rotates the robot 200 so that the front side of the robot 200 faces the person with dementia.

ここで、ステップS804におけるコントローラ430の移動速度および移動距離の算出処理について説明する。   Here, the calculation processing of the moving speed and moving distance of the controller 430 in step S804 will be described.

図9は、コントローラ430の移動経路推定部4305が推定した移動経路(以下、推定移動経路という。)の一例を示す説明図である。   FIG. 9 is an explanatory diagram illustrating an example of a travel route (hereinafter referred to as an estimated travel route) estimated by the travel route estimation unit 4305 of the controller 430.

本実施形態では、移動経路推定部4305は、発見された認知症者が建物の出入り口に向かうと想定し、移動経路の始点を認知症者が発見された検知領域の中心に設定し、終点を出入り口の中心に設定して、移動経路を推定する。図9の矢印(推定移動経路1100)は、検知領域712で発見された認知症者の推定移動経路を示す。   In this embodiment, the movement path estimation unit 4305 assumes that the person with dementia who has been discovered heads for the entrance of the building, sets the start point of the movement path to the center of the detection area where the person with dementia has been discovered, and sets the end point as the end point. Estimate the movement route by setting it at the center of the doorway. An arrow (estimated movement path 1100) in FIG. 9 indicates the estimated movement path of the person with dementia found in the detection area 712.

図10は、認知症者である人1200が推定移動経路1100上を移動し、ロボット200が推定移動経路1100上の地点1101に向かうときの様子を示す説明図である。図10に示すように、本実施形態では、推定移動経路に対して垂直方向にロボット200を移動させて、ロボット200を推定移動経路上に到達させる。   FIG. 10 is an explanatory diagram showing a situation when a person 1200 who is a person with dementia moves on the estimated movement path 1100 and the robot 200 heads for a point 1101 on the estimated movement path 1100. As shown in FIG. 10, in the present embodiment, the robot 200 is moved in the direction perpendicular to the estimated movement path so that the robot 200 reaches the estimated movement path.

ここで、人1200の歩く速さをv、ロボット200の移動速度をV、ロボット200と人1200との距離をL、ロボット200の進行方向と、ロボット200と人1200とを結ぶ直線とのなす角度をθとする。   Here, the walking speed of the person 1200 is v, the moving speed of the robot 200 is V, the distance between the robot 200 and the person 1200 is L, the traveling direction of the robot 200 and the straight line connecting the robot 200 and the person 1200 are formed. Let the angle be θ.

コントローラ430の移動情報決定部4306は、ロボット200が人1200から十分な距離を保持した状態で地点1101に到達できるように、ロボット200の移動速度Vを算出する。具体的には、人が地点1101からl手前の地点1102に到達する前にロボット200が地点1101に到達できるように、ロボット200の移動速度Vを算出する。 The movement information determination unit 4306 of the controller 430 calculates the movement speed V of the robot 200 so that the robot 200 can reach the point 1101 while maintaining a sufficient distance from the person 1200. Specifically, the robot 200 before the person reaches the point 1101 l 0 before the point 1102 to be able to reach a point 1101, and calculates the moving speed V of the robot 200.

0<v<V(Lsinθ−l)/(Lcosθ+Vt)…式(1) 0 <v <V (Lsin θ−l 0 ) / (L cos θ + Vt 0 ) (1)

式(1)は、「人1200が地点1102に到達する前にロボット200を地点1101に到達させる」という条件を表した数式である。移動情報決定部4306は、式(1)で示す条件を満たすような移動速度Vを算出する。   Equation (1) is an equation representing a condition that “the robot 200 reaches the point 1101 before the person 1200 reaches the point 1102”. The movement information determination unit 4306 calculates a movement speed V that satisfies the condition represented by Expression (1).

なお、tは、地点1101においてロボット200の正面が人物の方向を向くように、ロボット200を回転させるときに要する時間である。つまり、ロボット200を90度回転させるときに要する時間である。 Note that t 0 is the time required to rotate the robot 200 so that the front of the robot 200 faces the person at the point 1101. That is, the time required for rotating the robot 200 by 90 degrees.

ロボットステーション600および検知領域711〜713の配置によって決定されるLおよびθ、人物の歩く速さv、ロボット200の回転時間tおよび距離lは、ロボット200が備える記憶装置に固定値として予め記憶させておけばよい。 L is determined by the arrangement of the robot station 600 and sense regions 711 through 713 and theta, velocity v walking of a person, the rotation time t 0 and the distance l 0 of the robot 200 in advance as a fixed value in the storage unit of the robot 200 is provided with Just remember.

人物の歩く速さvは、例えば、秒速1mである。回転時間tは、ロボットの種類に依存するが、例えば、1秒である。距離lは、1m以上に設定することが望ましい。 The walking speed v of the person is, for example, 1 m per second. The rotation time t 0 is, for example, 1 second although it depends on the type of robot. The distance l 0 is desirably set to 1 m or more.

移動情報決定部4306は、式(1)を満たす移動速度Vと、地点1101までの移動距離(Lcosθ)とを算出して、算出結果を含む移動情報を行動決定部4307に出力する。   The movement information determination unit 4306 calculates the movement speed V satisfying the equation (1) and the movement distance (Lcos θ) to the point 1101 and outputs the movement information including the calculation result to the action determination unit 4307.

ステップS804の後、コントローラ430は、撮像装置311、312から入力した画像信号を解析して、認知症者までの距離を算出する。そして、ロボット200と認知症者との距離が予め定められた対話可能距離以下であって、かつ、入力した画像信号から認知症者の正面顔を認識することができた場合は(ステップS805のYes)、コントローラ430は、ロボット200に認知症者との対話を実行させる(ステップS806)。対話可能距離は、ロボット200が、音声入力装置410および音声出力装置420を介して認知症者との対話を行うことができる距離である。   After step S804, the controller 430 analyzes the image signals input from the imaging devices 311 and 312 and calculates the distance to the person with dementia. When the distance between the robot 200 and the person with dementia is equal to or less than a predetermined dialogue possible distance and the front face of the person with dementia can be recognized from the input image signal (in step S805). Yes), the controller 430 causes the robot 200 to execute a dialog with the person with dementia (step S806). The interaction possible distance is a distance at which the robot 200 can perform an interaction with a person with dementia via the audio input device 410 and the audio output device 420.

ステップS805において、コントローラ430は、一定時間経過しても、ロボット200と認知症者との距離が対話可能距離以下にならない場合、または、入力した画像信号から認知症者の正面顔を認識することができない場合は(ステップS805のNo)、ステップS807の処理に移行する。   In step S805, the controller 430 recognizes the front face of the person with dementia from the input image signal when the distance between the robot 200 and the person with dementia is not less than the interaction possible distance even after a predetermined time has elapsed. If it is not possible (No in step S805), the process proceeds to step S807.

ここで、ステップS806において、コントローラ430がロボット200に認知症者との対話を実行させる処理について説明する。   Here, a process in which the controller 430 causes the robot 200 to perform a dialog with a person with dementia in step S806 will be described.

コントローラ430の行動決定部4307は、人物認識部4303からステップS805の条件が成立したことを通知された場合、音声合成部4309に台詞情報とともに動作指示を出力する。   When the action determining unit 4307 of the controller 430 is notified from the person recognizing unit 4303 that the condition of step S805 is established, the behavior determining unit 4307 outputs an operation instruction to the speech synthesizer 4309 along with the speech information.

音声合成部4309は、行動決定部4307から入力した台詞情報をもとに、合成音声データを生成する。音声合成部4309は、生成した合成音声データを出力部4310に出力する。出力部4310は、入力した合成音声データを音声出力装置420を介して、音声信号として出力する。このようにして、コントローラ430は、ロボット200に認知症者に対する話しかけを実行させることができる。   The speech synthesizer 4309 generates synthesized speech data based on the dialogue information input from the behavior determination unit 4307. The speech synthesis unit 4309 outputs the generated synthesized speech data to the output unit 4310. The output unit 4310 outputs the input synthesized voice data as a voice signal via the voice output device 420. In this way, the controller 430 can cause the robot 200 to execute a talk to a person with dementia.

認知症者がロボット200からの話しかけに応答すると、音声認識部4302は、認知症者が話した音声を認識し、音声認識結果を行動決定部4307に出力する。   When the person with dementia responds to the conversation from the robot 200, the voice recognition unit 4302 recognizes the voice spoken by the person with dementia and outputs the voice recognition result to the action determination unit 4307.

行動決定部4307は、音声認識部4302から音声認識結果を入力すると、次の台詞情報を音声合成部4309に出力する。行動決定部4307は、音声認識部4302から音声認識結果を入力するたびに、予め定められた台詞の順番に従って、次の台詞情報を記憶装置から読み出して音声合成部4309に出力する。本実施形態では、認知症者との対話の最後の台詞に「どうもありがとうございました。またお会いしましょう。それではどうぞお部屋にお戻りください」を設定する。   When the speech determination result is input from the speech recognition unit 4302, the behavior determination unit 4307 outputs the next line information to the speech synthesis unit 4309. Whenever the speech recognition result is input from the speech recognition unit 4302, the behavior determination unit 4307 reads the next speech information from the storage device according to a predetermined speech order and outputs it to the speech synthesizer 4309. In this embodiment, “Thank you very much. See you again. Then please return to your room” is set as the last line of dialogue with the person with dementia.

ステップS806の後、コントローラ430は、ロボット200をロボットステーション600上に移動させる(ステップS807)。   After step S806, the controller 430 moves the robot 200 onto the robot station 600 (step S807).

ここで、ステップS807において、コントローラ430がロボットステーション600上にロボット200を移動させる処理について説明する。   Here, a process in which the controller 430 moves the robot 200 onto the robot station 600 in step S807 will be described.

コントローラ430の行動決定部4307は、ステップS806の後、ステーション認識部4304に対して、ロボットステーション600の灯台部620の検出指示を出力する。それと同時に制御部4308に動作指示を出力し、ロボット200を一定時間ごとに一定角度内で回転させる。   After step S806, the action determination unit 4307 of the controller 430 outputs a detection instruction of the lighthouse unit 620 of the robot station 600 to the station recognition unit 4304. At the same time, an operation instruction is output to the control unit 4308 to rotate the robot 200 within a certain angle every certain time.

ステーション認識部4304は、灯台部の検出指示を入力すると、灯台部620の検出処理を開始する。ステーション認識部4304は、ロボットステーション600の灯台部620のLEDの灯りを検出すると、ロボット200とロボットステーション600との間の相対位置関係を算出し、相対位置関係を示す情報(以下、相対位置関係情報という。)を行動決定部4307に出力する。   The station recognizing unit 4304 starts the detection process of the lighthouse unit 620 upon receiving a lighthouse unit detection instruction. When the station recognizing unit 4304 detects the light of the LED of the lighthouse unit 620 of the robot station 600, the station recognizing unit 4304 calculates a relative positional relationship between the robot 200 and the robot station 600, and information indicating the relative positional relationship (hereinafter, relative positional relationship). Information ”) is output to the action determination unit 4307.

行動決定部4307は、相対位置関係情報にもとづいて、ロボットステーション600上にロボット200を移動させるための動作指示を制御部4308に出力する。これにより、ロボットステーション600上にロボット200を移動させることができる。   The action determination unit 4307 outputs an operation instruction for moving the robot 200 on the robot station 600 to the control unit 4308 based on the relative positional relationship information. Thereby, the robot 200 can be moved onto the robot station 600.

行動決定部4307は、ロボットステーション600上にロボット200を移動させた後、制御部4308に動作指示を出力し、ロボット200の背面が灯台部620に向くように、つまり、ロボット200の正面が灯台部620と正反対の方向を向くように、ロボット200を回転させる。   The behavior determination unit 4307 outputs an operation instruction to the control unit 4308 after moving the robot 200 on the robot station 600 so that the back surface of the robot 200 faces the lighthouse unit 620, that is, the front surface of the robot 200 is lighthouse. The robot 200 is rotated so as to face the direction opposite to the unit 620.

ステップS807の後、コントローラ430は、再び、ステップS801〜807の処理を繰り返す。   After step S807, the controller 430 repeats the processing of steps S801 to 807 again.

以上に説明したように、本実施形態では、建物の出入り口から出ようとする認知症者の前にロボット200を移動させて、ロボット200を介して認知症者と対話を行い、認知症者に部屋に戻るように促している。そのため、認知症者が建物の出入り口から出ることを防止することができる。また、認知症者と対話をすることによって、認知症者に対して離設を思いとどまらせることができる。   As described above, in the present embodiment, the robot 200 is moved in front of the person with dementia who is about to exit from the entrance of the building, and the robot 200 is used to interact with the person with dementia. Prompts to return to the room. Therefore, a person with dementia can be prevented from leaving the entrance of the building. Moreover, by having a dialogue with a person with dementia, the dementia can be discouraged.

また、認知症者に近づいて認知症者の正面から話しかけるようにしているので、認知症者に対して離れた場所から話しかけたり、正面以外から話しかけたりする場合に比べて、認知症者を転倒させる危険性が小さい。   In addition, since I approach the person with dementia and talk from the front of the person with dementia, the person with dementia falls compared to the case of talking to the person with dementia from a remote place or talking from outside the front. The risk of letting it is small.

また、ロボット200を介して認知症者に話しかけを行うだけでなく、スタッフに対して、認知症者が出入り口から出ようとしていることを通知することができるので、建物の出入り口から出ようする認知症者の存在をスタッフに認識させることができる。   In addition to talking to people with dementia via the robot 200, the staff can be notified that the person with dementia is about to exit from the entrance. The staff can be made aware of the presence of the sick.

なお、本実施形態では、ICタグを検知する検知領域を設定して認知症者の位置を特定しているが、建物のしかるべき場所にカメラなどのセンサを設置して、検知領域において認知症者の位置を特定した後も、認知症者とロボットとの位置を随時検出するようにしてもよい。そのような形態を実現するには、認知症者とロボットとの位置をカメラやセンサなどからロボット200に随時通知させるようにすればよい。また、ロボット200のコントローラ430に、ロボット200と認知症者との位置関係にもとづいて、認知症者の移動距離を随時推定し、認知症者の前に移動するための速度と距離を随時計算してロボットを移動させる機能を持たせるようにすればよい。   In this embodiment, the detection area for detecting the IC tag is set and the position of the person with dementia is specified. However, a sensor such as a camera is installed at an appropriate place in the building, and the dementia is detected in the detection area. Even after specifying the position of the person, the positions of the person with dementia and the robot may be detected at any time. In order to realize such a form, the robot 200 may be notified of the position of the person with dementia and the robot from a camera or a sensor as needed. Further, the controller 430 of the robot 200 estimates the distance traveled by the person with dementia based on the positional relationship between the robot 200 and the person with dementia, and calculates the speed and distance for moving in front of the person with dementia as needed. Thus, a function for moving the robot may be provided.

また、ロボット200が、認知症者との対話を記録し、記録した対話内容をスタッフに送信する機能を備えていてもよい。そのような形態を実現するには、行動決定部4307が、音声認識結果をロボット200の記憶装置に格納するようにすればよい。また、行動決定部4307が、記憶装置に格納した音声認識結果を、通信部4301を介してスタッフが所持する携帯端末などに送信すればよい。   Further, the robot 200 may have a function of recording a dialogue with a person with dementia and transmitting the recorded dialogue content to the staff. In order to realize such a form, the action determination unit 4307 may store the voice recognition result in the storage device of the robot 200. Moreover, what is necessary is just to transmit the speech recognition result stored in the memory | storage device to the portable terminal etc. which the staff possesses via the communication part 4301 for the action determination part 4307.

また、認知症者を発見した時点で、スタッフに通知する機能を備えていてもよい。そのような形態を実現するには、PC1000が、検知領域で検出された人物が認知症者であると判断した場合に、スタッフが所持する携帯端末などに検出通知を送信するようにすればよい。   Moreover, it may have a function of notifying the staff when a person with dementia is discovered. In order to realize such a form, when the PC 1000 determines that the person detected in the detection area is a person with dementia, the detection notification may be transmitted to a portable terminal or the like possessed by the staff. .

また、検知領域を出入り口のすぐ手前に設置し、その領域で認知症者を検出した場合には、PC1000が、施設から認知症者が出た可能性が高いことを示す通知を、スタッフが所持する携帯端末などに送信するようにしてもよい。   In addition, if a detection area is installed immediately in front of the entrance and a person with dementia is detected in that area, the staff will have a notification that the PC 1000 is likely to have a person with dementia from the facility. You may make it transmit to the portable terminal etc. which do.

図11および図12は、本発明による人物監視システムの主要部を示すブロック図である。   11 and 12 are block diagrams showing the main part of the person monitoring system according to the present invention.

図11に示すように、人物監視システムは、所定エリア内に進入した移動物が監視対象者であるか否かを判定する人物判断手段21(図1に示す人物判断手段102に相当。)と、人物判断手段21が移動物が監視対象者であると判定した場合に、監視対象者の移動経路を推定し、推定した移動経路上に移動し、監視対象者の正面側から監視対象者に対して対話を実行するロボット30(図7に示すロボット200に相当。)とを含む。   As shown in FIG. 11, the person monitoring system includes a person determination unit 21 (corresponding to the person determination unit 102 shown in FIG. 1) that determines whether or not a moving object that has entered a predetermined area is a monitoring target person. When the person determination means 21 determines that the moving object is a monitoring target person, the moving path of the monitoring target person is estimated, moved on the estimated moving path, and the monitoring target person is moved from the front side of the monitoring target person. And a robot 30 (corresponding to the robot 200 shown in FIG. 7) that executes a dialogue with the robot.

また、図12に示すように、人物監視システムは、所定エリア内に進入した移動物を検知した場合に、移動物を特定可能な識別情報を送信する移動物検出手段11(図1に示す人物検知手段101に相当。)を含む検出装置10(図7に示すエキサイタ701〜703に相当。)と、検出装置10から受信した識別情報と監視対象者情報テーブルとをもとに、識別情報で特定される移動物が監視対象者であるか否かを判定し、移動物が監視対象者である場合には、監視対象者が発見されたことを示す発見信号を送信する人物判断手段21(図1に示す人物判断手段102に相当。)を含む端末装置20(図7に示すPC1000に相当。)と、端末装置20と通信可能なロボット30(図7に示すロボット200に相当。)とを含み、ロボット30は、撮像装置36(図3に示す撮像装置311、312に相当。)と音声出力装置37(図3に示す音声出力装置420に相当。)とを備え、端末装置20から発見信号を受信した場合に監視対象者の移動経路を推定する移動経路推定手段31(図1に示す移動経路推定手段103に相当。)と、移動経路推定手段31が推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段32(図1に示す移動情報決定手段104に相当。)と、移動情報にもとづいてロボットを指定地点に移動させる移動制御手段33(図1に示す移動制御手段105に相当。)と、撮像装置36が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する人物認識手段34(図1に示す人物認識手段106に相当。)と、人物認識手段34の判定結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を音声出力装置37から出力する対話手段35(図1に示す対話手段107に相当。)とを含む。   Also, as shown in FIG. 12, the person monitoring system detects the moving object that has entered the predetermined area, and the moving object detecting means 11 (identifier shown in FIG. 1) transmits identification information that can identify the moving object. Based on the detection apparatus 10 (corresponding to the exciters 701 to 703 shown in FIG. 7) including the detection means 101), the identification information received from the detection apparatus 10 and the monitoring subject information table, It is determined whether or not the specified moving object is a monitoring target person. If the moving object is the monitoring target person, a person determination means 21 (sends a discovery signal indicating that the monitoring target person has been found). A terminal device 20 (corresponding to the person determination means 102 shown in FIG. 1)) (corresponding to the PC 1000 shown in FIG. 7), and a robot 30 (corresponding to the robot 200 shown in FIG. 7) capable of communicating with the terminal device 20. Including, robot 30 includes an imaging device 36 (corresponding to the imaging devices 311 and 312 shown in FIG. 3) and an audio output device 37 (corresponding to the audio output device 420 shown in FIG. 3), and receives a discovery signal from the terminal device 20. In this case, the movement path estimation means 31 (corresponding to the movement path estimation means 103 shown in FIG. 1) for estimating the movement path of the monitoring target person and the robot at the designated point on the movement path estimated by the movement path estimation means 31 A movement information determination unit 32 (corresponding to the movement information determination unit 104 shown in FIG. 1) that generates movement information for movement, and a movement control unit 33 (in FIG. 1) that moves the robot to a designated point based on the movement information. And a person recognition unit 34 for determining the distance between the monitoring target person and the robot and the direction of the face of the monitoring target person from the image signal output from the imaging device 36 (FIG. 1). Based on the determination result of the person recognizing means 34, and the distance is equal to or less than a pre-designated dialogue possible distance, and the face of the person being monitored is facing the robot. When the determination is made, a dialogue means 35 (corresponding to the dialogue means 107 shown in FIG. 1) that outputs a voice signal based on the dialogue information from the voice output device 37 is included.

上記の実施形態には、以下のような人物監視システムも開示されている。   In the above embodiment, the following person monitoring system is also disclosed.

(1)移動情報決定手段32は、移動経路上を移動する監視対象者と指定地点との距離が予め指定した距離以下になる前に、ロボット30を指定地点に到達させることができる移動速度を移動情報に設定する人物監視システム。 (1) The movement information determination unit 32 sets a movement speed at which the robot 30 can reach the designated point before the distance between the monitoring target person who moves on the movement route and the designated point becomes equal to or less than a predetermined distance. A person monitoring system set for movement information.

(2)ロボット30は、該ロボット30と通信可能に接続された携帯端末に、監視対象者が検出されたことを示す検出通知を送信する情報通知手段(図1に示す情報通知手段108に相当。)を含む人物監視システム。 (2) The robot 30 is an information notification unit (corresponding to the information notification unit 108 shown in FIG. 1) that transmits a detection notification indicating that a monitoring target person has been detected to a mobile terminal that is communicably connected to the robot 30. .) Person monitoring system including.

(3)人物判断手段21は、移動物に付されたICタグが送信する識別情報にもとづいて移動物が監視対象者であるか否かを判定する人物監視システム。 (3) The person determination unit 21 is a person monitoring system that determines whether or not the moving object is a monitoring target person based on the identification information transmitted by the IC tag attached to the moving object.

上記の実施形態には、以下のようなロボットも開示されている。   In the above embodiment, the following robot is also disclosed.

(4)撮像装置36と音声出力装置37を備え、端末装置20から監視対象者が発見されたことを示す発見信号を受信した場合に監視対象者の移動経路を推定する移動経路推定手段31と、移動経路推定手段31が推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段32と、移動情報にもとづいてロボットを指定地点に移動させる移動制御手段33と、撮像装置36が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する人物認識手段34と、人物認識手段34の判定結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を音声出力装置37から出力する対話手段35とを含むロボット。 (4) a moving path estimation means 31 that includes the imaging device 36 and the audio output device 37 and estimates the moving path of the monitoring target person when receiving a discovery signal indicating that the monitoring target person has been detected from the terminal device 20; The movement information determining means 32 for generating movement information for moving the robot to the designated point on the movement route estimated by the movement path estimating means 31 and the movement control means 33 for moving the robot to the designated point based on the movement information. And the person recognition means 34 for determining the distance between the monitoring target person and the robot and the orientation of the face of the monitoring target person from the image signal output from the imaging device 36, and the distance based on the determination result of the person recognition means 34 in advance. When it is determined that the face of the person to be monitored is not more than the designated interactive distance and the face of the person to be monitored is facing the robot, an audio signal based on the dialogue information is output to the audio output device 3 Robot comprising a dialogue unit 35 to be output from.

(5)ロボット30と通信可能に接続された携帯端末に、監視対象者が検出されたことを示す検出通知を送信する情報通知手段を含むロボット。 (5) A robot including an information notification unit that transmits a detection notification indicating that a monitoring target person has been detected to a mobile terminal that is communicably connected to the robot 30.

10 検出装置
11、101 移動物検知手段
20 端末装置
21、102 人物判断手段
30、200 ロボット
31、103 移動経路推定手段
32、104 移動情報決定手段
33、105 移動制御手段
34、106 人物認識手段
35、107 対話手段
36、311、312 撮像装置
37、420 音声出力装置
108 情報通知手段
109 帰還手段
300 頭部
321、322 アクチュエータ
400 胴体部
410 音声入力装置
430 コントローラ
432 CPU
433 メモリ
440 バッテリ
451、452 アクチュエータ
460 ネットワークアダプタ
500 ネットワーク
600 ロボットステーション
610 台座部
620 灯台部
701、702、703 エキサイタ
711、712、713 検知領域
800 タグ
900 アクセスポイント
1000 PC
1100 推定移動経路
1200 人
1300 出入り口
4301 通信部
4302 音声認識部
4303 人物認識部
4304 ステーション認識部
4305 移動経路推定部
4306 移動情報決定部
4307 行動決定部
4308 制御部
4309 音声合成部
4310 出力部
DESCRIPTION OF SYMBOLS 10 Detection apparatus 11, 101 Moving object detection means 20 Terminal device 21, 102 Person determination means 30, 200 Robot 31, 103 Movement path estimation means 32, 104 Movement information determination means 33, 105 Movement control means 34, 106 Person recognition means 35 , 107 Dialogue means 36, 311, 312 Imaging device 37, 420 Audio output device 108 Information notification means 109 Feedback means 300 Head 321 322 Actuator 400 Body part 410 Voice input device 430 Controller 432 CPU
433 Memory 440 Battery 451, 452 Actuator 460 Network adapter 500 Network 600 Robot station 610 Base part 620 Lighthouse part 701, 702, 703 Exciter 711, 712, 713 Detection area 800 Tag 900 Access point 1000 PC
DESCRIPTION OF SYMBOLS 1100 Estimated movement path 1200 Person 1300 Entrance / exit 4301 Communication part 4302 Voice recognition part 4303 Person recognition part 4304 Station recognition part 4305 Movement path estimation part 4306 Movement information determination part 4307 Action determination part 4308 Control part 4309 Speech synthesis part 4310 Output part

Claims (10)

所定エリア内に進入した移動物が監視対象者であるか否かを判定する人物判断手段と、
前記人物判断手段が前記移動物が監視対象者であると判定した場合に、前記監視対象者の移動経路を推定し、推定した前記移動経路上に移動し、前記監視対象者の正面側から前記監視対象者に対して対話を実行するロボットとを含む
ことを特徴とする人物監視システム。
Person judging means for judging whether or not the moving object that has entered the predetermined area is a monitoring target person;
When the person determination unit determines that the moving object is a monitoring target person, the moving target of the monitoring target person is estimated, moved on the estimated moving path, and the monitoring target person from the front side of the monitoring target person A person monitoring system comprising a robot that performs a dialogue with a person to be monitored.
所定エリア内に進入した移動物を検知した場合に、前記移動物を特定可能な識別情報を送信する移動物検知手段を含む検出装置と、
前記検出装置から受信した前記識別情報と監視対象者情報テーブルとをもとに、前記識別情報で特定される移動物が監視対象者であるか否かを判定し、前記移動物が監視対象者である場合には、前記監視対象者が発見されたことを示す発見信号を送信する人物判断手段を含む端末装置と、
前記端末装置と通信可能なロボットとを含み、
前記ロボットは、
撮像装置と音声出力装置とを備え、
前記端末装置から前記発見信号を受信した場合に前記監視対象者の移動経路を推定する移動経路推定手段と、
前記移動経路推定手段が推定した前記移動経路上の指定地点に前記ロボットを移動させるための移動情報を生成する移動情報決定手段と、
前記移動情報にもとづいて前記ロボットを前記指定地点に移動させる
移動制御手段と、
前記撮像装置が出力する画像信号から前記監視対象者と前記ロボットとの距離および前記監視対象者の顔の向きを判定する人物認識手段と、
前記人物認識手段の判定結果にもとづいて、前記距離が予め指定された対話可能距離以下であって、前記監視対象者の顔が前記ロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を前記音声出力装置から出力する対話手段とを含む
ことを特徴とする人物監視システム。
A detection device including a moving object detection means for transmitting identification information capable of specifying the moving object when a moving object that has entered the predetermined area is detected;
Based on the identification information received from the detection device and the monitoring target person information table, it is determined whether or not the moving object specified by the identification information is a monitoring target person, and the moving object is a monitoring target person. A terminal device including person determination means for transmitting a discovery signal indicating that the monitoring subject has been discovered;
A robot capable of communicating with the terminal device,
The robot is
An imaging device and an audio output device;
A movement path estimation means for estimating a movement path of the monitoring subject when the discovery signal is received from the terminal device;
Movement information determination means for generating movement information for moving the robot to a designated point on the movement path estimated by the movement path estimation means;
Movement control means for moving the robot to the designated point based on the movement information;
Person recognition means for determining a distance between the monitoring target person and the robot and an orientation of the face of the monitoring target person from an image signal output by the imaging device;
Based on the determination result of the person recognition means, when it is determined that the distance is equal to or less than a pre-designated dialogue possible distance and the face of the person to be monitored is facing the robot, A person monitoring system, comprising: dialogue means for outputting a voice signal based on the voice signal from the voice output device.
移動情報決定手段は、
移動経路上を移動する監視対象者と指定地点との距離が予め指定した距離以下になる前に、ロボットを前記指定地点に到達させることができる移動速度を移動情報に設定する
請求項2に記載の人物監視システム。
The movement information determination means
The movement information that allows the robot to reach the designated point is set in the movement information before the distance between the monitoring subject moving on the movement route and the designated point becomes equal to or less than a predetermined distance. Person monitoring system.
ロボットは、
該ロボットと通信可能に接続された携帯端末に、監視対象者が検出されたことを示す検出通知を送信する情報通知手段を含む
請求項1から請求項3のうちのいずれか1項に記載の人物監視システム。
The robot
The information notification means which transmits the detection notification which shows that the monitoring subject was detected to the portable terminal connected so that communication with this robot was possible. Person monitoring system.
人物判断手段は、
移動物に付されたICタグが送信する識別情報にもとづいて前記移動物が監視対象者であるか否かを判定する
請求項1から請求項4のうちのいずれか1項に記載の人物監視システム。
The person judgment means
The person monitoring according to any one of claims 1 to 4, wherein it is determined whether or not the moving object is a monitoring subject based on identification information transmitted by an IC tag attached to the moving object. system.
撮像装置と音声出力装置とを備え、
端末装置から監視対象者が発見されたことを示す発見信号を受信した場合に前記監視対象者の移動経路を推定する移動経路推定手段と、
前記移動経路推定手段が推定した前記移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段と、
前記移動情報にもとづいて前記ロボットを前記指定地点に移動させる移動制御手段と、
前記撮像装置が出力する画像信号から前記監視対象者と前記ロボットとの距離および前記監視対象者の顔の向きを判定する人物認識手段と、
前記人物認識手段の判定結果にもとづいて、前記距離が予め指定された対話可能距離以下であって、前記監視対象者の顔が前記ロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を前記音声出力装置から出力する対話手段とを含む
ことを特徴とするロボット。
An imaging device and an audio output device;
A movement path estimation means for estimating a movement path of the monitoring target person when receiving a discovery signal indicating that the monitoring target person has been detected from the terminal device;
Movement information determination means for generating movement information for moving the robot to a designated point on the movement path estimated by the movement path estimation means;
Movement control means for moving the robot to the designated point based on the movement information;
Person recognition means for determining a distance between the monitoring target person and the robot and an orientation of the face of the monitoring target person from an image signal output by the imaging device;
Based on the determination result of the person recognition means, when it is determined that the distance is equal to or less than a pre-designated dialogue possible distance and the face of the person to be monitored is facing the robot, And a dialogue means for outputting the original voice signal from the voice output device.
ロボットと通知可能に接続された携帯端末に、監視対象者が検知されたことを示す検出通知を送信する情報通知手段を含む
請求項6に記載のロボット。
The robot according to claim 6, further comprising information notification means for transmitting a detection notification indicating that a monitoring target person has been detected to a portable terminal connected to the robot so as to be notified.
人物監視システムにおける人物監視方法であって、
所定エリア内に進入した移動物が監視対象者であるか否かを判定し、
前記移動物が監視対象者であると判定した場合に、前記監視対象者の移動経路を推定し、推定した前記移動経路上にロボットを移動し、前記ロボットに前記監視対象者の正面側から前記監視対象者に対して対話を実行させる
ことを特徴とする人物監視方法。
A person monitoring method in a person monitoring system,
Determine whether the moving object that entered the predetermined area is a monitoring subject,
When it is determined that the moving object is a monitoring target person, the movement path of the monitoring target person is estimated, a robot is moved on the estimated movement path, and the robot is moved from the front side of the monitoring target person to the robot. A person monitoring method characterized by causing a person to be monitored to perform a dialogue.
人物監視システムにおける人物監視方法であって、
検出装置は、所定エリア内に進入した移動物を検知した場合に、前記移動物を特定可能な識別情報を送信し、
端末装置は、前記検出装置から受信した前記識別情報と監視対象者情報テーブルとをもとに、前記識別情報で特定される移動物が監視対象者であるか否かを判定し、前記移動物が監視対象者である場合には、前記監視対象者が発見されたことを示す発見信号を送信し、
ロボットは、
前記端末装置から発見信号を受信した場合に前記監視対象者の移動経路を推定し、
推定した前記移動経路上の指定地点に前記ロボットを移動させるための移動情報を生成し、
前記移動情報にもとづいて前記ロボットを前記指定地点に移動させ、
前記ロボットが備える撮像装置が出力する画像信号から前記監視対象者と前記ロボットとの距離および前記監視対象者の顔の向きを判定し、
前記判定の結果にもとづいて、前記距離が予め指定された対話可能距離以下であって、前記監視対象者の顔が前記ロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を前記ロボット装置が備える前記音声出力装置から出力する
ことを特徴とする人物監視方法。
A person monitoring method in a person monitoring system,
When the detection device detects a moving object that has entered the predetermined area, it transmits identification information that can identify the moving object,
The terminal device determines whether the moving object specified by the identification information is a monitoring target person based on the identification information received from the detection device and the monitoring target person information table, and the moving object Is a monitoring subject, a discovery signal indicating that the monitoring subject has been discovered is transmitted,
The robot
When the discovery signal is received from the terminal device, the movement path of the monitoring subject is estimated,
Generating movement information for moving the robot to a designated point on the estimated movement path;
Moving the robot to the designated point based on the movement information;
A distance between the monitoring target person and the robot and an orientation of the face of the monitoring target person are determined from an image signal output by an imaging device included in the robot;
Based on the result of the determination, when the distance is equal to or less than a pre-designated dialogue possible distance and it is determined that the face of the person to be monitored is facing the robot, voice based on dialogue information A person monitoring method comprising: outputting a signal from the voice output device included in the robot device.
監視システムにおけるロボットを制御するためのロボット制御プログラムであって、
コンピュータに、
前記監視システム内の端末装置から監視対象者が発見されたことを示す発見信号を受信した場合に前記監視対象者の移動経路を推定する処理と、
推定した前記移動経路上の指定地点に前記ロボットを移動させるための移動情報を生成する処理と、
前記移動情報にもとづいて前記ロボット装置を前記指定地点に移動させる処理と、
前記ロボット装置が備える撮像装置が出力する画像信号から前記監視対象者と前記ロボットとの距離および前記監視対象者の顔の向きを判定する処理と、
前記判定の結果にもとづいて、前記距離が予め指定された対話可能距離以下であって、前記監視対象者の顔が前記ロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を前記ロボット装置が備える前記音声出力装置から出力する処理とを実行させる
ことを特徴とするロボット制御プログラム。
A robot control program for controlling a robot in a monitoring system,
On the computer,
A process of estimating a movement path of the monitoring subject when receiving a discovery signal indicating that the monitoring subject has been discovered from a terminal device in the monitoring system;
Processing for generating movement information for moving the robot to a designated point on the estimated movement route;
A process of moving the robot apparatus to the designated point based on the movement information;
A process of determining a distance between the monitoring target person and the robot and an orientation of the face of the monitoring target person from an image signal output by an imaging device included in the robot apparatus;
Based on the result of the determination, when the distance is equal to or less than a pre-designated dialogue possible distance and it is determined that the face of the person to be monitored is facing the robot, voice based on dialogue information A process for outputting a signal from the voice output device included in the robot device is executed.
JP2011198342A 2011-09-12 2011-09-12 Person monitoring system, robot, person monitoring method, and robot control program Active JP5765153B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011198342A JP5765153B2 (en) 2011-09-12 2011-09-12 Person monitoring system, robot, person monitoring method, and robot control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011198342A JP5765153B2 (en) 2011-09-12 2011-09-12 Person monitoring system, robot, person monitoring method, and robot control program

Publications (2)

Publication Number Publication Date
JP2013061715A JP2013061715A (en) 2013-04-04
JP5765153B2 true JP5765153B2 (en) 2015-08-19

Family

ID=48186354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011198342A Active JP5765153B2 (en) 2011-09-12 2011-09-12 Person monitoring system, robot, person monitoring method, and robot control program

Country Status (1)

Country Link
JP (1) JP5765153B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6681800B2 (en) * 2016-07-15 2020-04-15 株式会社日立製作所 Control device, control system, and control method
CN109644303B (en) 2016-08-29 2021-07-23 Groove X 株式会社 Robot for operating sounding body
JP7176244B2 (en) * 2018-06-20 2022-11-22 カシオ計算機株式会社 Robot, robot control method and program
IT201800007934A1 (en) * 2018-08-07 2020-02-07 Universita' Degli Studi Di Siena METHOD FOR GENERATING A AWARENESS SIGNAL OF A COLLABORATIVE ROBOT AND RELATED HARDWARE SYSTEM
JP7157234B2 (en) * 2019-02-27 2022-10-19 本田技研工業株式会社 Movable robot and its control method
JP7258438B2 (en) * 2019-07-10 2023-04-17 株式会社国際電気通信基礎技術研究所 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4303602B2 (en) * 2004-01-09 2009-07-29 本田技研工業株式会社 Facial image acquisition system
JP4830438B2 (en) * 2005-10-04 2011-12-07 トヨタ自動車株式会社 Autonomous mobile device
JP4576445B2 (en) * 2007-04-12 2010-11-10 パナソニック株式会社 Autonomous mobile device and program for autonomous mobile device
WO2009025140A1 (en) * 2007-08-21 2009-02-26 Nec Corporation Behavior monitoring system and behavior monitoring method
JP4940160B2 (en) * 2008-01-30 2012-05-30 セコム株式会社 Mobile robot
JP2009222969A (en) * 2008-03-17 2009-10-01 Toyota Motor Corp Speech recognition robot and control method for speech recognition robot

Also Published As

Publication number Publication date
JP2013061715A (en) 2013-04-04

Similar Documents

Publication Publication Date Title
JP5765153B2 (en) Person monitoring system, robot, person monitoring method, and robot control program
JP4455417B2 (en) Mobile robot, program, and robot control method
JP5366048B2 (en) Information provision system
JP4257230B2 (en) Mobile robot
JP4976903B2 (en) robot
EP3421401B1 (en) Elevator system and method of intent deduction for an elevator system
US11467581B2 (en) Autonomous moving body for moving between floors using an elevator, control program of autonomous moving body, method of controlling autonomous moving body, and system server for controlling autonomous moving body from remote place
EP3450372A1 (en) Spoken command interface
US11932512B2 (en) Methods and architectures for end-to-end robot integration with elevators and building systems
JP2012139798A (en) Mobile robot, learning system for the same, and method of learning action of the same
JP4764377B2 (en) Mobile robot
JP5552710B2 (en) Robot movement control system, robot movement control program, and robot movement control method
US20220308556A1 (en) Delivery robot and notification method
JP2012203646A (en) Flow-state discrimination device, flow-state discrimination method, flow-state discrimination program, and robot control system using the device, method and program
EP3882200A1 (en) Robot concierge
US11368497B1 (en) System for autonomous mobile device assisted communication
CN113401741A (en) Specialization, personalization and enhancement of elevator calls to robots and cooperating robots
JP6754099B2 (en) Elevator door control system
JP6722408B2 (en) Elevator user support system
JP7434635B1 (en) Information processing device, information processing method and program
JP2020009201A (en) Guide robot system and control method thereof
WO2024166674A1 (en) Robot and robot control method
JP7258438B2 (en) ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP7397228B1 (en) Information processing device, information processing method, program and information processing system
US20240069555A1 (en) Robot operable to disembark from escalator and method of controlling same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150601

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5765153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150