JP2006178644A - Behavioral representation system and behavioral representation processing apparatus - Google Patents

Behavioral representation system and behavioral representation processing apparatus Download PDF

Info

Publication number
JP2006178644A
JP2006178644A JP2004369633A JP2004369633A JP2006178644A JP 2006178644 A JP2006178644 A JP 2006178644A JP 2004369633 A JP2004369633 A JP 2004369633A JP 2004369633 A JP2004369633 A JP 2004369633A JP 2006178644 A JP2006178644 A JP 2006178644A
Authority
JP
Japan
Prior art keywords
motion
control information
action
behavior
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004369633A
Other languages
Japanese (ja)
Inventor
Shin Miyaji
伸 宮治
Atsushi Oda
淳志 小田
Yoshitaro Yamanaka
義太郎 山中
Kazue Sumiya
和重 角谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2004369633A priority Critical patent/JP2006178644A/en
Publication of JP2006178644A publication Critical patent/JP2006178644A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Alarm Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a family member who watches for a robot representing the behavior of an elderly person from becoming too familiar or bored with the watching. <P>SOLUTION: Depending on the first result of detection by a first motion detecting means 401 that detects the motion of an elderly person, a robot 200 at the house of a family member of the elderly person is made to represent the behavior of the elderly person. The level of interest of the family member is estimated from second detection results obtained from second motion detecting means 105, 201 that detect the watching action of the family member. The result is fed back so as to vary the way in which the robot 200 represents the behavior. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、観察者に対して被観察体の行動を表現する際に使用する行動表現システム、および行動表現処理装置に関するものであり、特に、間接的に被観察体を見守る場合などに用いて好適なものである。   The present invention relates to a behavior expression system and a behavior expression processing device that are used when expressing the behavior of an object to be observed with respect to an observer, and in particular, when used to indirectly observe an object to be observed. Is preferred.

高齢社会、少子化時代を迎え、独居高齢者のライフケアが大きな社会問題となってきている。昨今では、別居家族だけでなく、ボランティア等も含めた地域社会全体で独居高齢者のライフケアサポートが必要であると言われている。このような状況の中、ロボットを利用した高齢者の生活見守りシステムへの期待が大きくなってきている。   With the aging society and the declining birthrate, life care for the elderly living alone has become a major social issue. Nowadays, it is said that life care support for the elderly living alone is necessary not only for separated families but also for the entire community including volunteers. Under such circumstances, expectation for a life monitoring system for elderly people using robots is increasing.

一方、これまでの高齢者の見守りシステムとして、人の存在、動き、環境等に関する情報を検知してこれらを送信し、受信側でこれらの情報を具体的な表現として表すことで、例えば遠隔地に居る近親者等に緊急状態等を伝達する通信装置(特許文献1)や、居住者の生活状況を検知し、検知した結果をインターネット等の通信網を介して遠隔地に伝達し、これを元にバーチャルフラワーやロボット等を動作させることで、居住者の生活状況を遠隔地に居る近親者等に伝達するシステム(特許文献2)などが提案されている。
特開2003−67874 特開2004−96630
On the other hand, as a conventional monitoring system for elderly people, information on the presence, movement, environment, etc. of people is detected and transmitted, and this information is expressed as a specific expression on the receiving side. A communication device (patent document 1) for transmitting an emergency state to a close relative in the country, and detecting a living situation of a resident, and transmitting the detected result to a remote place via a communication network such as the Internet. There has been proposed a system (Patent Document 2) that transmits a living situation of a resident to a close relative in a remote place by operating a virtual flower or a robot.
JP 2003-67874 A JP200496630

然し乍ら、見守る側にとって、高齢者の生活状況を常時見守ることは退屈な作業であり、継続的に見守るには忍耐力が要求される場合も多い。また、高齢者の生活状況を反映して動作する先述のバーチャルフラワーやロボット等の動作を見守るという単調作業に対し“慣れ” や“飽き”が生じ、その結果独居高齢者の生活を見守るという本来の目的を損なう可能性もある。   However, it is a tedious task for the watcher to constantly watch the life of the elderly, and perseverance is often required to keep watching. In addition, “habituation” and “boring” occur in the monotonous work of watching the movements of the above-mentioned virtual flowers and robots that reflect the living conditions of the elderly, and as a result, the original is to watch the lives of the elderly living alone. May defeat the purpose.

そこで、本発明は、見守る側における単調な作業に対する“慣れ”や“飽き”を軽減するような行動表現システム、および行動表現処理装置を提供することを課題とする。   Therefore, an object of the present invention is to provide an action expression system and an action expression processing device that reduce “habituation” and “satisfaction” with respect to monotonous work on the side of watching.

本発明の行動表現システムは、被観察体の動作を検知する第1の動作検知手段と、前記被観察体の動作に対応する動作を観察者に対して行う行動表現ユニットと、前記観察者の動作を検知する第2の動作検知手段と、を備えると共に、前記行動表現ユニットを制御するための制御情報を、前記第1の動作検知手段により得られた第1の検知結果と、前記第2の動作検知手段により得られた第2の検知結果と、から求めるための制御情報生成手段を有する、ことを特徴とする。   The behavior expression system of the present invention includes a first motion detection unit that detects a motion of an object to be observed, a behavior expression unit that performs an operation corresponding to the motion of the object to be observed, and an observer's Second motion detection means for detecting motion, and control information for controlling the behavior expression unit, the first detection result obtained by the first motion detection means, and the second And a second detection result obtained by the motion detection means, and a control information generation means for obtaining from the second detection result.

本発明によると、第1の動作検知手段により検知された被観察体の動作に対応する動作を行動表現ユニットが行った際に、それを見た観察者のリアクションを第2の動作検知手段で検知し、前記行動表現ユニットを制御するための制御情報にフィードバックすることで、観察者が見守りという単調な作業に対して“慣れ”や“飽き”を感じることを軽減させることができる。   According to the present invention, when the action expression unit performs an action corresponding to the action of the observed object detected by the first action detecting means, the reaction of the observer who sees the action is detected by the second action detecting means. By detecting and feeding back to the control information for controlling the action expression unit, it is possible to reduce the feeling that the observer feels “familiar” or “tired” with respect to the monotonous work of watching.

なお、前記制御情報生成手段は、前記第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求めるものであってもよい。   The control information generation unit may obtain the control information by adding changes to the original control information obtained from the first detection result based on the second detection result.

さらに、前記行動表現システムはより好ましくは、前記第1の検知結果に基づき前記被観察体の動作を推定する動作推定手段と、前記第2の検知結果に基づき、前記行動表現ユニットの動作を観察した前記観察者の関心度を推定する関心度推定手段と、を備え、前記制御情報生成手段は、前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。   Furthermore, the behavior expression system more preferably observes the motion of the behavior expression unit based on the second detection result, and motion estimation means for estimating the motion of the observed object based on the first detection result. Interest level estimation means for estimating the interest level of the observer, and the control information generation means estimates the motion of the observed object estimated by the motion estimation means and the interest level estimation means. The control information may be obtained from the degree of interest of the observer.

また、前記行動表現システムは、前記第1の検知結果を送信する送信手段と、前記送信手段により送信された前記第1の検知結果を受信する受信手段と、を有し、前記制御情報生成手段は、前記受信手段により受信した前記第1の検知結果と、前記第2の動作検知手段により得られた第2の検知結果と、から前記制御情報を求めるものであってもよい。   In addition, the behavior expression system includes a transmission unit that transmits the first detection result, and a reception unit that receives the first detection result transmitted by the transmission unit, and the control information generation unit May obtain the control information from the first detection result received by the receiving means and the second detection result obtained by the second operation detecting means.

また、前記制御情報生成手段は、前記受信手段により受信した第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求める、ものであってもよい。   Further, the control information generation means obtains the control information by adding a change to the original control information obtained from the first detection result received by the receiving means based on the second detection result. May be.

また、前記行動表現システムは、前記第1の検知結果を送信する送信手段と、前記送信手段により送信された前記第1の検知結果を受信する受信手段と、を有し、前記動作推定手段は、前記受信手段により受信した前記第1の検知結果に基づき前記被観察体の動作を推定するものであってもよい。   In addition, the behavior expression system includes a transmission unit that transmits the first detection result, and a reception unit that receives the first detection result transmitted by the transmission unit. The operation of the object to be observed may be estimated based on the first detection result received by the receiving unit.

さらに、前記行動表現システムはより好ましくは、前記動作推定手段により推定された前記被観察体の動作に関する情報を送信する送信手段と、前記送信手段により送信された前記被観察体の動作に関する情報を受信する受信手段と、を有し、前記制御情報生成手段は、前記受信手段により受信した前記被観察体の動作に関する情報と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。   Further, the behavior expression system more preferably includes transmission means for transmitting information on the motion of the observed object estimated by the motion estimation means, and information on the motion of the observed object transmitted by the transmitting means. Receiving the receiving means, the control information generating means from the information about the operation of the object received by the receiving means, and the interest level of the observer estimated by the interest level estimation means The control information may be obtained.

以上のように、被観察体側から第1の検知結果を送信手段によって送信することで、遠隔地の被観察体の見守りが可能となる。   As described above, the first detection result is transmitted from the observed object side by the transmission unit, so that it is possible to watch the remotely observed object.

なお、前記行動表現システムは、前記行動表現ユニットを制御する制御情報と、前記第2の動作検知手段により検知された前記観察者に関する第2の検知結果と、を関連付けて格納する格納手段を備え、前記制御情報生成手段は、前記第1の検知結果と、前記格納手段に格納された情報とから、前記原制御情報を求めるものであってもよい。   The behavior expression system includes storage means for storing the control information for controlling the behavior expression unit and the second detection result related to the observer detected by the second motion detection means in association with each other. The control information generation means may obtain the original control information from the first detection result and information stored in the storage means.

なお、前記行動表現システムは、前記行動表現ユニットを制御する制御情報と、前記関心度推定手段により推定された関心度情報により制御された前記観察者の関心度と、を関連づけて格納する格納手段を備え、前記制御情報は、前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、前記格納手段に格納された情報とから、前記制御情報を求めるものであってもよい。   The behavior representation system stores the control information for controlling the behavior representation unit and the interest level of the observer controlled by the interest level information estimated by the interest level estimation unit in association with each other. The control information includes the motion of the observed object estimated by the motion estimation means, the interest level of the observer estimated by the interest level estimation means, and the information stored in the storage means. The control information may be obtained.

このように、行動表現ユニットを制御する制御情報、第2の動作検知手段により検知された第2の検知結果、関心度推定手段により推定された関心度情報により制御された前記観察者の関心度、などを格納する格納手段を備えることで、過去のデータなどを利用することができ、観察者の個性に応じたシステムのカスタマイズが可能となる。   In this way, the control information for controlling the behavior expression unit, the second detection result detected by the second motion detection means, the interest level of the observer controlled by the interest level information estimated by the interest level estimation means , Etc., the past data can be used, and the system can be customized according to the individuality of the observer.

本発明の行動表現処理装置は、被観察体の動作に対応する動作を観察者に対して行う行動表現ユニットを制御するための制御情報を、前記被観察体の動作を検知する第1の動作検知手段により得られた第1の検知結果と、前記観察者の動作を検知する第2の動作検知手段により得られた第2の検知結果と、から求めるための制御情報生成手段を有する、ことを特徴とする。   The behavior expression processing device according to the present invention provides control information for controlling an action expression unit that performs an operation corresponding to the operation of the object to be observed with respect to the observer, and a first operation for detecting the operation of the object to be observed. Control information generating means for obtaining from the first detection result obtained by the detection means and the second detection result obtained by the second movement detection means for detecting the movement of the observer. It is characterized by.

なお、前記行動表現処理装置は、前記第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求めるものであってもよい。   The behavior expression processing device may obtain the control information by changing the original control information obtained from the first detection result based on the second detection result.

また、前記行動表現処理装置は、前記第1の検知結果に基づき前記被観察体の動作を推定する動作推定手段と、前記第2の検知結果に基づき、前記行動表現ユニットの動作を観察した前記観察者の関心度を推定する関心度推定手段と、を備え、前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。   In addition, the behavior expression processing device observes the behavior of the behavior expression unit based on the second detection result and the motion estimation unit that estimates the motion of the observed object based on the first detection result. Interest level estimation means for estimating the interest level of the observer, and the motion of the observed object estimated by the motion estimation means and the interest level of the observer estimated by the interest level estimation means Control information may be obtained.

また、前記行動表現処理装置は、前記第2の検知結果に基づき、前記行動表現ユニットの動作を観察した前記観察者の関心度を推定する関心度推定手段を備え、前記第1の検知結果に基づき前記被観察体の動作を推定する動作推定手段により推定された前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。   Further, the behavior expression processing device includes an interest level estimation unit that estimates an interest level of the observer who observes the operation of the behavior expression unit based on the second detection result, and the first detection result includes The control information is obtained from the motion of the observed object estimated by the motion estimating means for estimating the motion of the observed object based on the interest level of the observer estimated by the interest level estimating means. May be.

また、前記行動表現処理装置は、前記第1の検知結果を送信する送信手段により送信された前記第1の検知結果を受信する受信手段を有し、前記受信手段により受信した前記第1の検知結果と、前記第2の動作検知手段により得られた第2の検知結果と、から前記制御情報を求めるものであってもよい。   In addition, the behavior expression processing device includes a reception unit that receives the first detection result transmitted by the transmission unit that transmits the first detection result, and the first detection received by the reception unit. The control information may be obtained from the result and the second detection result obtained by the second motion detection means.

また、前記行動表現処理装置は、前記受信手段により受信した第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求めるものであってもよい。   Further, the behavior expression processing device obtains the control information by adding a change based on the second detection result to the original control information obtained from the first detection result received by the receiving unit. Also good.

また、前記行動表現処理装置は、前記第1の検知結果を送信する送信手段により送信された前記第1の検知結果を受信する受信手段を有し、前記動作推定手段は、前記受信手段により受信した前記第1の検知結果に基づき前記被観察体の動作を推定するものであってもよい。   In addition, the behavior expression processing device includes a reception unit that receives the first detection result transmitted by the transmission unit that transmits the first detection result, and the motion estimation unit is received by the reception unit. The motion of the object to be observed may be estimated based on the first detection result.

また、前記行動表現処理装置は、前記動作推定手段により推定された前記被観察体の動作に関する情報を送信する送信手段により送信された前記被観察体の動作に関する情報を受信する受信手段を有し、前記受信手段により受信した前記被観察体の動作に関する情報と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求めるものであってもよい。   In addition, the behavior expression processing device includes a receiving unit that receives information on the motion of the observed object transmitted by the transmitting unit that transmits information on the motion of the observed object estimated by the motion estimating unit. The control information may be obtained from information related to the movement of the observed object received by the receiving unit and the interest level of the observer estimated by the interest level estimation unit.

また、前記行動表現処理装置は、前記行動表現ユニットを制御する制御情報と、前記第2の動作検知手段により検知された前記観察者に関する第2の検知結果と、を関連付けて格納する格納手段を備え、前記第1の検知結果と、前記格納手段に格納された情報とから、前記原制御情報を求めるものであってもよい。   In addition, the behavior expression processing device has storage means for storing the control information for controlling the behavior expression unit and the second detection result related to the observer detected by the second motion detection means in association with each other. The original control information may be obtained from the first detection result and the information stored in the storage means.

また、前記行動表現処理装置は、前記行動表現ユニットを制御する制御情報と、前記関心度推定手段により推定された関心度情報により制御された前記観察者の関心度と、を関連づけて格納する格納手段を備え、前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、前記格納手段に格納された情報とから、前記制御情報を求めるものであってもよい。   In addition, the behavior expression processing device stores the control information for controlling the behavior expression unit and the interest level of the observer controlled by the interest level information estimated by the interest level estimation unit in association with each other. And the control information is obtained from the motion of the observed object estimated by the motion estimation means, the interest level of the observer estimated by the interest level estimation means, and information stored in the storage means. It may be what you want.

本発明の行動表現ユニットは、被観察体の動作を検知する第1の動作検知手段により得られた第1の検知結果と、観察者の動作を検知する第2の動作検知手段により得られた第2の検知結果と、から求められた制御情報の制御に従い、前記被観察体の動作に対応する動作を観察者に対して行う、ことを特徴とする。   The behavior expression unit of the present invention is obtained by the first detection result obtained by the first motion detection means for detecting the motion of the object to be observed and the second motion detection means for detecting the motion of the observer. According to the second detection result and the control of the control information obtained from the second detection result, an operation corresponding to the operation of the object to be observed is performed on the observer.

さらに、前記行動表現ユニットはより好ましくは、前記観察者の動作を検知する前記第2の動作検知手段を有するものであってもよい。   Further, the behavior expression unit may more preferably include the second motion detection means for detecting the motion of the observer.

行動表現ユニットに第2の動作検知手段を具備することで、観察者のより詳細な動作検知を行うことができる。   By providing the action expression unit with the second motion detection means, it is possible to perform more detailed motion detection of the observer.

本発明により、見守る側における単調な作業に対する“慣れ”や“飽き”を軽減するような行動表現システム、および行動表現処理装置を提供することができる。   According to the present invention, it is possible to provide an action expression system and an action expression processing device that reduce “habituation” and “satisfaction” with respect to monotonous work on the watching side.

以下、本発明の実施の形態につき図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本実施の形態に係る行動表現システム1の構成を示すブロック図である。本システムによれば、例えば、離れて住む高齢者の見守りを行う事が可能となる。   FIG. 1 is a block diagram showing a configuration of an action expression system 1 according to the present embodiment. According to this system, for example, it is possible to watch an elderly person who lives away.

同図を参照して、100は観察者(以下、近親者)側に設置される行動表現処理装置(以下、サーバ)、200は被観察体の動作に対応する動作を近親者に対して行うため近親者側に設置される行動表現ユニット(以下、ロボット)、300は電気通信回線(以下、インターネット)、400は被観察体(以下、高齢者)側に設置されるサブユニットである。   Referring to the figure, 100 is an action expression processing device (hereinafter referred to as a server) installed on the observer (hereinafter referred to as a close relative) side, and 200 performs an operation corresponding to the operation of the object to be observed on the close relative. Therefore, an action expression unit (hereinafter referred to as a robot) installed on the close relative side, 300 is a telecommunication line (hereinafter referred to as the Internet), and 400 is a subunit installed on the observed object (hereinafter referred to as an elderly person) side.

サブユニット400において、401は本発明における第1の動作検知手段の一例である高齢者の動作検知のための動作検知用センサで、高齢者側の環境サイド、例えば高齢者宅の壁や天井、家電機器等に設置されている。402は動作検知用センサ401の検知結果をもとに高齢者の行動を推定する動作推定手段(以下、行動推定部)である。403は行動推定部402の推定結果をインターネット300を介して後で述べる受信部101へ送信する送信手段(以下、送信部)である。   In the sub-unit 400, 401 is a motion detection sensor for motion detection of an elderly person, which is an example of the first motion detection means in the present invention. It is installed in household appliances. Reference numeral 402 denotes a motion estimation unit (hereinafter referred to as a behavior estimation unit) that estimates the behavior of an elderly person based on the detection result of the motion detection sensor 401. Reference numeral 403 denotes transmission means (hereinafter referred to as a transmission unit) that transmits the estimation result of the behavior estimation unit 402 to the reception unit 101 described later via the Internet 300.

ロボット200において、201はロボットに設置された近親者の動作検知のためのロボット側搭載センサであり、本発明における第2の動作検知手段の一例である。   In the robot 200, reference numeral 201 denotes a robot-side mounted sensor for detecting the operation of a close relative installed in the robot, which is an example of the second operation detecting means in the present invention.

サーバ100において、101はインターネット300を介して送信部403から送信されたデータを受信する受信手段(以下、受信部)である。102は受信部101で受信された高齢者の行動の推定結果と後述の関心度推定部106における近親者の関心度の推定結果に従って次段で使用する行動表現データを決定する行動表現決定部、103は行動表現データに従い具体的に高齢者の行動に対応する行動をロボット200に行わせるための制御情報(以下、行動表現指令信号)を発する行動表現コントローラである。上記行動表現決定部102と行動表現コントローラ103は本発明における制御情報生成手段の一例である。   In the server 100, reference numeral 101 denotes a receiving unit (hereinafter referred to as a receiving unit) that receives data transmitted from the transmitting unit 403 via the Internet 300. 102 is an action expression determination unit that determines action expression data to be used in the next stage according to the estimation result of the elderly person's action received by the receiving unit 101 and the estimation result of the degree of interest of the close relative in the interest degree estimation unit 106 described later. Reference numeral 103 denotes an action expression controller that issues control information (hereinafter referred to as an action expression command signal) for causing the robot 200 to perform an action corresponding to the action of the elderly person specifically according to the action expression data. The behavior expression determination unit 102 and the behavior expression controller 103 are examples of control information generation means in the present invention.

104はロボット200と行動表現指令信号やロボット側搭載センサ201の検知結果などを授受する通信部、105は本発明における第2の動作検知手段の別の例である近親者の動作検知のための動作検知用センサであり、近親者側の環境サイド、例えば近親者宅の壁や天井、家電機器等に設置されている。   Reference numeral 104 denotes a communication unit that exchanges the behavior expression command signal and the detection result of the robot-side mounted sensor 201 with the robot 200, and reference numeral 105 denotes another example of the second motion detection means in the present invention for detecting the motion of a close relative. It is a motion detection sensor and is installed on the environmental side of the close relative, for example, the wall or ceiling of the close relative's house, home appliances and the like.

106は動作検知用センサ105、および/またはロボット側搭載センサ201の検知結果をもとに近親者の動作から近親者のロボット200への関心の程度を推定する関心度推定部、107は行動表現決定部102や関心度推定部106の推定結果などを格納する推定結果格納部(以下、関心度DB[データベース])である。なお、行動表現決定部102で関心度DB107のデータを参酌して行動表現データを決定する事も可能である。   106 is an interest level estimation unit that estimates the degree of interest of the close relative from the motion of the close relative based on the detection result of the motion detection sensor 105 and / or the robot-side sensor 201, and 107 is the behavior expression An estimation result storage unit (hereinafter, interest level DB [database]) that stores estimation results of the determination unit 102 and the interest level estimation unit 106. It is also possible for the behavioral expression determination unit 102 to determine the behavioral expression data in consideration of the data of the interest level DB 107.

動作検知用センサ105やロボット側搭載センサ201、動作検知用センサ401は、例えば、画像センサ、音感センサ、圧力センサ、赤外線(焦電)センサ、距離センサ、加速度センサ等で構成される。また、動作検知用センサ105や動作検知用センサ401は、例えば、家電製品のスイッチや扉部などに装着されたセンサであってもよいし、図示しない近親者や高齢者に装着するウェアラブルなセンサであってもよい。   The motion detection sensor 105, the robot-side mounted sensor 201, and the motion detection sensor 401 include, for example, an image sensor, a sound sensor, a pressure sensor, an infrared (pyroelectric) sensor, a distance sensor, an acceleration sensor, and the like. Further, the motion detection sensor 105 and the motion detection sensor 401 may be, for example, a sensor mounted on a switch or door of a household electrical appliance, or a wearable sensor mounted on a close relative or an elderly person (not shown). It may be.

図2は上述のロボット200の一例を説明するための模式的な外観図である。同図に示すロボット200は、総軸数6の稼動部の他、顔部分等のLED表示(目、頬など)、口部分のスピーカによる音声出力可能なロボットとなっているが、これに限らず、さらに軸数増加などによってより詳細な行動表現、感情表現が可能となっているヒューマノイド型ロボットであってもよい。また、被観察体が犬などの場合には、犬型ロボットでもよいし、ロボット以外にも高齢者の動作に応じて行動表現を行うことができるバーチャルフラワー等であってもよい。   FIG. 2 is a schematic external view for explaining an example of the robot 200 described above. The robot 200 shown in the figure is a robot capable of outputting voices by LED displays (eyes, cheeks, etc.) of the face portion and the speaker of the mouth portion, in addition to the operating portion having the total number of axes of 6, but is not limited thereto. Further, a humanoid robot that can express more detailed behavior and emotion by increasing the number of axes may be used. Further, when the object to be observed is a dog or the like, it may be a dog type robot, or may be a virtual flower or the like that can perform behavioral expression in accordance with the motion of an elderly person other than the robot.

図1の構成により、本実施形態にかかる行動表現システム1では、ロボット200が行った行動表現を見た近親者の動作を動作検知用センサ105が検知し、その結果を基に近親者のロボット200に対する関心度を関心度推定部106で推定し、その推定結果を行動表現決定部102にフィードバックしている。つまり、サーバ100の出力であるロボット200の行動表現への近親者の関心度がサーバ100へフィードバックされ、ロボット200の動作に反映される構成となっている。この結果、ロボット200は近親者の注意を惹くことができ、近親者の“慣れ”や“飽き”を軽減させることが可能となる。   With the configuration of FIG. 1, in the behavior expression system 1 according to the present embodiment, the motion detection sensor 105 detects the motion of the close relative who saw the behavior expression performed by the robot 200, and the close relative's robot is based on the result. The interest level with respect to 200 is estimated by the interest level estimation unit 106, and the estimation result is fed back to the behavior expression determination unit 102. In other words, the degree of interest of the close relative to the behavioral expression of the robot 200 that is the output of the server 100 is fed back to the server 100 and reflected in the operation of the robot 200. As a result, the robot 200 can attract the attention of close relatives, and can reduce the “familiarity” and “satisfaction” of close relatives.

次に、高齢者の見守りにおける一連の行動表現システム1における動作フローについて図3のフローチャートを用いて説明する。   Next, an operation flow in the series of behavior expression system 1 for watching the elderly will be described with reference to the flowchart of FIG.

同図を参照して、同図の右側が高齢者のサブユニット400側の動作フローであり、同左側が近親者のサーバ100側の動作フローである。両フローは各々で別個独立に動作する。   Referring to the figure, the right side of the figure is an operation flow on the subunit 400 side of an elderly person, and the left side is an operation flow on the server 100 side of a close relative. Both flows operate independently of each other.

まず、右側の高齢者宅サブユニット400側の動作フローについて説明する。   First, an operation flow on the right elderly home subunit 400 side will be described.

高齢者宅のサブユニット400の電源が投入されると、スタートからステップS101へ動作が遷移する。   When the power of the subunit 400 in the elderly home is turned on, the operation transitions from the start to step S101.

ステップS101では、動作検知用センサ401を用いた高齢者の動作検知(以下、センシング動作)が開始される。各センサにより検知されたセンシングデータは時系列的にサブユニット400中の図示しないメモリ等に格納される。   In step S101, elderly person motion detection (hereinafter referred to as sensing operation) using the motion detection sensor 401 is started. Sensing data detected by each sensor is stored in a memory (not shown) in the subunit 400 in time series.

ステップS102では、任意の時間分のセンシングデータがメモリから取得される。すなわち、行動というものは瞬時的な性格のものではなく、むしろ時間的な継続性を有しているため、次のステップで行動推定を行う際に有用な量のセンシングデータが読込まれる。なお、この時間はステップS104で推定結果を送信部403から受信バッファへ送信する時間周期に依存しても良い。   In step S102, sensing data for an arbitrary time is acquired from the memory. That is, since the behavior is not an instantaneous character but rather has temporal continuity, a useful amount of sensing data is read when performing behavior estimation in the next step. Note that this time may depend on the time period for transmitting the estimation result from the transmission unit 403 to the reception buffer in step S104.

ステップS103では、行動推定部402において上記センシングデータを用いて、高齢者の当該時間内における具体的な行動が推定される。この結果、例えば、睡眠、食事、掃除、テレビ鑑賞、歩行といった高齢者の行動がセンシング結果から推定される。   In step S <b> 103, the behavior estimation unit 402 estimates the specific behavior of the elderly within the time using the sensing data. As a result, for example, the behavior of elderly people such as sleeping, eating, cleaning, watching TV, and walking is estimated from the sensing result.

ステップS104では、推定結果が送信部403から出力される。出力された推定結果は、受信部101を経て、サーバ100の受信バッファへ出力される。この送信動作は、例えば1分間隔で行われる。   In step S <b> 104, the estimation result is output from the transmission unit 403. The output estimation result is output to the reception buffer of the server 100 via the reception unit 101. This transmission operation is performed at intervals of 1 minute, for example.

ステップS105では、サブユニット400に対し動作終了指示などがあった場合には終了処理を行い、一連のフローを終了する。それ以外はステップS102へ移動し、一連のフローを繰り返す。   In step S105, if there is an operation end instruction or the like to the subunit 400, an end process is performed, and a series of flows is ended. Otherwise, the process moves to step S102, and a series of flows is repeated.

次に、左側の近親者宅サーバ100側の動作フローについて説明する。なお、サブユニット400の電源が投入されてから一定時間経過後にサーバ100の電源が投入され、サーバ100内の受信バッファにデータがある程度蓄積されている前提で説明を行う。   Next, the operation flow on the left side relatives' home server 100 side will be described. The description will be made on the assumption that the power of the server 100 is turned on after a lapse of a certain time since the power of the subunit 400 is turned on and data is accumulated in the reception buffer in the server 100 to some extent.

近親者宅のサーバ100の電源が投入されると、左図のフローにおいてスタートからステップS201へ動作が遷移する。   When the power of the server 100 in the close relative's house is turned on, the operation transitions from start to step S201 in the flow in the left diagram.

ステップS201では、動作検知用センサ105を用いた近親者のセンシング動作が開始される。各センサにより検知されたセンシングデータは時系列的にサーバ100中のメモリ等に格納される。なお、センシング動作にはロボット側搭載センサ201を使用してもよい。本実施形態ではロボット側搭載センサ201も使用する場合を例にとって説明を行う。   In step S201, a close relative sensing operation using the motion detection sensor 105 is started. Sensing data detected by each sensor is stored in a memory or the like in the server 100 in time series. Note that the robot-side sensor 201 may be used for the sensing operation. In the present embodiment, the case where the robot-side sensor 201 is also used will be described as an example.

ステップS202では、任意の時間分のセンシングデータがメモリから取得される。すなわち、次のステップで行動推定を行う際に有用な量のセンシングデータが読込まれる。   In step S202, sensing data for an arbitrary time is acquired from the memory. That is, a useful amount of sensing data is read when performing behavior estimation in the next step.

ステップS203では、関心度推定部106において上記センシングデータを用いて近親者のロボット200(ロボット200の行動表現を含む)に対する関心の程度(関心度)が推定される。この推定において、動作検知用センサ105のみを使用する場合は、センサ105のセンシング結果のみから近親者のロボット200に対する関心度が推定される。本実施形態のようにロボット側搭載センサ201を使用する場合には、例えば、動作検知用センサ105は近親者の居場所を特定してロボット200を近親者の方へ移動させる用に使用し、近親者がロボット200に対して関心を示しているかどうかの推定はロボット側搭載センサ201のセンシング結果を用いて行う、といったセンシング結果の使い分けをすることも可能である。   In step S <b> 203, the degree of interest (degree of interest) of the close relatives robot 200 (including the behavioral expression of the robot 200) is estimated by the interest level estimation unit 106 using the sensing data. In this estimation, when only the motion detection sensor 105 is used, the degree of interest of the close relative to the robot 200 is estimated from only the sensing result of the sensor 105. When the robot-side sensor 201 is used as in the present embodiment, for example, the motion detection sensor 105 is used to specify the location of the close relative and move the robot 200 toward the close relative. It is also possible to properly use the sensing results, such as estimating whether the person is interested in the robot 200 using the sensing results of the robot-side sensor 201.

ステップS204では、上記の近親者のロボット200への関心度などが関心度DB107に格納される。なお、後述のステップS207において関心度DB107から読み出されたデータを参照しない場合には、当該ステップS204は実行しなくてもよい。   In step S <b> 204, the degree of interest of the above-mentioned relatives in the robot 200 is stored in the degree-of-interest DB 107. Note that if the data read from the interest level DB 107 in step S207 described later is not referred to, step S204 may not be executed.

ステップS205では、行動表現決定部102に受信バッファから高齢者の行動の推定結果が読込まれる。読み込みの際のデータ量、および読込み周期は任意に設定してよいが、バッファがオーバーフローしないようなデータ量、および周期である必要がある。   In step S205, the behavior expression determination unit 102 reads the estimation result of the elderly's behavior from the reception buffer. The amount of data at the time of reading and the reading cycle may be arbitrarily set, but the amount of data and the cycle should not be such that the buffer overflows.

ステップS206では、関心度DB107から過去に格納した近親者のロボット200への関心度などが読み出される。例えば、関心度DB107には近親者の推定された関心度やプロフィール、嗜好、既往症、などが蓄積されている。なお、次のステップS207において関心度DB107から読み出されたデータを参照しない場合には、当該ステップS206は実行しなくてもよい。   In step S206, the degree of interest of the close relative stored in the past from the interest degree DB 107 is read out. For example, the degree-of-interest DB 107 stores the degree of interest, profile, preference, pre-existing condition, etc. of a close relative. Note that if the data read from the interest level DB 107 in the next step S207 is not referred to, the step S206 need not be executed.

ステップS207では、図4に示される様な行動表現データが決定される。行動表現データは、例えば、高齢者のジェスチャを行うようなものであっても良い。なお、ステップS205で読込まれた高齢者の行動推定結果に従って、ロボット行動出力が一意に定まる。また、ステップS203で評価された近親者のロボット200への関心度に従って、前記ロボット行動出力における動作レベルが決定される。これら一連の内容については、図4を使用して後で説明する。   In step S207, action expression data as shown in FIG. 4 is determined. The behavior expression data may be, for example, a gesture for an elderly person. The robot action output is uniquely determined according to the elderly person action estimation result read in step S205. Further, the motion level in the robot action output is determined according to the degree of interest of the close relative evaluated in step S203. The series of contents will be described later with reference to FIG.

ステップS208では、行動表現決定部102において決定されたロボット行動出力、動作レベルに従い、図4中のマトリクスを使用して決定される行動表現指令信号が、行動表現コントローラ103からロボット200に対して送信される。この指令に従い、ロボット200が行動表現を行う。   In step S208, an action expression command signal determined using the matrix in FIG. 4 according to the robot action output and action level determined by the action expression determining unit 102 is transmitted from the action expression controller 103 to the robot 200. Is done. In accordance with this command, the robot 200 performs behavioral expression.

ステップS209では、サーバ100に対し動作終了指示などがあった場合には終了処理を行い、一連のフローを終了する。それ以外はステップS202へ移動し、一連のフローを繰り返す。   In step S209, if there is an operation end instruction or the like to the server 100, end processing is performed, and a series of flows is ended. Otherwise, the process moves to step S202, and a series of flows is repeated.

次に、ステップS207におけるロボット行動出力の決定方法について述べる。   Next, a method for determining the robot action output in step S207 will be described.

図4のテーブルを参照して、ロボット200の行動表現は高齢者の状態レベル(後述)、近親者のロボット200への関心度に従い、図に示されるようなテーブルから決定される。このテーブルは同図のように複数存在してもよく、高齢者の行動推定の結果内容に依存してテーブルが決定されるようにしてもよい。同図は行動推定の結果から、高齢者がテレビの野球観戦を楽しんでいると推定された場合のテーブルを選択した例を表している。なお、同図は説明上5×5のマトリクスで記述しているが、これに限られず自由に設定することができる。   Referring to the table of FIG. 4, the behavioral expression of the robot 200 is determined from the table as shown in the figure in accordance with the state level (described later) of the elderly and the degree of interest of the close relative in the robot 200. A plurality of such tables may exist as shown in the figure, and the tables may be determined depending on the contents of the results of the elderly person's behavior estimation. The figure shows an example of selecting a table when it is estimated from the result of behavior estimation that an elderly person enjoys watching a baseball game on television. Although the figure is described as a 5 × 5 matrix for the sake of explanation, it is not limited to this and can be set freely.

さて、同図のテーブル中において、縦軸方向は具体的にはロボット行動出力を表している。ロボット行動出力は、高齢者の行動推定の結果得られる後述の高齢者の状態レベルに依存して選択される。一方、横軸方向は具体的には近親者のロボット200に対する関心度に対応したロボット動作の動作レベルを表している。数字が大きいほど、ロボットへの関心度が高く、これに連れてロボットの動作レベルが低下する。ロボットの動作レベルとは、ロボット動作の甚だしさの程度のことで、例えばテーブル中に見られる様に、LED発光周期や、音声音量、手足の振りの度合いを表している。こちらはステップS203で推定された関心度に依存して決定される。   Now, in the table of the figure, the vertical axis direction specifically represents the robot action output. The robot action output is selected depending on the state level of the elderly person described later obtained as a result of the elderly person's action estimation. On the other hand, the horizontal axis direction specifically represents the motion level of the robot operation corresponding to the degree of interest of the close relative in the robot 200. The larger the number, the higher the degree of interest in the robot, and the movement level of the robot decreases accordingly. The operation level of the robot is the degree of exaggeration of the robot operation. For example, as seen in the table, the operation level of the robot represents the LED light emission period, the sound volume, and the degree of limb swing. This is determined depending on the degree of interest estimated in step S203.

上記のように、高齢者の行動推定の結果に依存してロボット行動出力が選択され、近親者の関心度からロボットの動作レベルが変更され、マトリクスにおける行動表現が決定される。すなわち、ロボット200の行動出力の内容とその動作レベルが決定される。これが、行動表現データとして、行動表現決定部102から出力される。なお、マトリクス中の内容は説明のための例示であり、ロボットの表現能力等に従って適宜設定される。   As described above, the robot action output is selected depending on the result of the elderly person's action estimation, the action level of the robot is changed based on the degree of interest of the close relative, and the action expression in the matrix is determined. That is, the content of action output of the robot 200 and its operation level are determined. This is output from the action expression determination unit 102 as action expression data. Note that the content in the matrix is an example for explanation, and is set as appropriate according to the expression capability of the robot.

なお、高齢者のテレビの野球観戦を楽しんでいるという行動の行動推定は、居間でテレビを見ながら楽しんでいる状況の場合には、居間の赤外線センサ等やテレビの電源に取り付けられたセンサ、被験者の笑い声等を感知する音感センサなどを用い、さらに電子番組表(EPG)を参照することで達成できる。こうした行動推定の結果、高齢者宅からは、「テレビで野球観戦をしている」という大まかな“行動”と、高齢者の“状態レベル”が送信される。高齢者の状態レベルとは、その行動中における、例えば、「静かに観戦している状態」や「(贔屓のチームの負け試合で)苛々している」とか、「(テレビの中の観衆と一緒に)応援をしている」などといった、前記“行動”中において更に分類された行動である。同図テーブル中に高齢者の行動の甚だしさや積極性といった点から、先述のように5段階に細分化され、5つの異なる表現の例として表されている。なお、上述の“行動”、および“状態レベル”とロボットの行動出力内容の対応は、前もって定められており、サーバ100内部に格納されている。こうしたロボットの行動表現は、人型ロボットなどの場合には、高齢者の動きそのものを真似たジェスチャーの出力であってもよい。本実施形態では後者の場合で説明している。   In addition, in the situation where you enjoy watching TV in the living room while watching the baseball game on the elderly, the living room's infrared sensor etc. or a sensor attached to the TV power supply, This can be achieved by using a sensation sensor for detecting a laughing voice of the subject and referring to an electronic program guide (EPG). As a result of such behavior estimation, a general “behavior” of “watching a baseball game on TV” and a “state level” of the elderly are transmitted from the home of the elderly. The state level of an elderly person is, for example, “the state of watching quietly”, “it is frustrating (in the losing game of a niece ’s team)” or “(with the audience on the television). The actions are further classified in the “behavior” such as “supporting together”. The table is subdivided into five stages as described above from the viewpoint of the exaggerated behavior and aggressiveness of the elderly, and is shown as examples of five different expressions. Note that the correspondence between the “behavior” and “state level” described above and the action output content of the robot is determined in advance and stored in the server 100. Such a behavioral expression of a robot may be an output of a gesture imitating the movement of an elderly person in the case of a humanoid robot or the like. In the present embodiment, the latter case is described.

さて、同図において、例えばロボット行動出力が“2”と判定され、ロボットへの関心度が“2”と評価された場合は、ロボット200は両手を振る動作をし、そのスイングの範囲はスイング可動範囲全体の50%とされる。また、ロボット行動出力が“2”と判定され、ロボットへの関心度が“1”と評価された場合は、関心度が“2”の時より関心度が低いので近親者の関心を惹くために、両手を振る動作は同じであるが、そのスイングの範囲は全体の75%となり、ロボットへの関心度が“0”と評価された場合は、更に関心を惹くべく、ロボット200は両手を振る動作を頻繁に行う動作をする。   In the figure, for example, when the robot action output is determined to be “2” and the degree of interest in the robot is evaluated as “2”, the robot 200 moves both hands, and the range of the swing is a swing. 50% of the entire movable range. Also, if the robot action output is determined to be “2” and the degree of interest in the robot is evaluated as “1”, the degree of interest is lower than when the degree of interest is “2”, so that the close relatives are interested. In addition, the movement of shaking both hands is the same, but the range of the swing is 75% of the whole. If the degree of interest in the robot is evaluated as “0”, the robot 200 moves both hands to attract more interest. The operation which shakes frequently is performed.

一方、ロボットへの関心度が“3”と評価された場合は、近親者のロボット200への関心度は“2”と評価された場合と比べて高いと言えるので、両手を振る動作は同じであるが、そのスイングは全体の25%となり、ロボットへの関心度が“4”と評価された場合は、さらに近親者の関心を惹く必要はないと判断できるので、ロボット200は片手を振る動作程度となる。   On the other hand, when the degree of interest in the robot is evaluated as “3”, it can be said that the degree of interest in the close relative of the robot 200 is higher than in the case where the degree of interest in the robot 200 is evaluated as “2”. However, the swing is 25% of the whole, and when the degree of interest in the robot is evaluated as “4”, it can be determined that it is not necessary to attract the close relative's interest, so the robot 200 shakes one hand. It becomes operation degree.

以上により、ロボット200が推定された遠隔地の高齢者の行動を動作で表現し、それを見た近親者の動作を動作検知用センサ105で検知し、その検知結果から近親者のロボット200に対する関心度を関心度推定部106で推定し、その推定結果を行動表現決定部102にフィードバックする。つまり、サーバ100の出力であるロボット200の行動表現への近親者の関心度がサーバ100へフィードバックされ、ロボット200の動作に反映される構成となっている。この結果、ロボット200は近親者の注意を惹くことができ、近親者の“慣れ”や“飽き”を軽減させることが可能となる効果がある。   As described above, the behavior of the elderly person at the remote location estimated by the robot 200 is expressed by the motion, the motion of the close relative who sees it is detected by the motion detection sensor 105, and the relative detection result of the relative 200 with respect to the robot 200 of the relative The interest level is estimated by the interest level estimation unit 106, and the estimation result is fed back to the behavior expression determination unit 102. In other words, the degree of interest of the close relative to the behavioral expression of the robot 200 that is the output of the server 100 is fed back to the server 100 and reflected in the operation of the robot 200. As a result, the robot 200 can attract the close relative's attention, and has the effect of being able to reduce the “familiarity” and “satisfaction” of the close relative.

次に、ステップS206で読み出された関心度DB107における近親者のロボット200への関心度の過去のデータを参照してロボット行動出力およびロボット行動出力の動作レベルを決定する方法について説明する。例えば、近親者の過去の関心度の平均値などが低いなどの場合には、ステップS203で評価した関心度に対して例えば1を引くなどした値に関心度を変更することで、標準的なケースよりロボットの動作が1ランク甚だしい様な設定とすることができる。なお、ステップS203で評価した関心度の変更をするのではなく、図4のマトリクス中の動作レベルを1ランク甚だしい様な設定に変更してもよい。また、0未満の関心度にも対応可能なテーブルを用意しておき、マトリクスデータを右へ1つシフトさせることで、関心度はそのままで、ロボットの行動を1ランク甚だしい様な設定とする事もできる。   Next, a method for determining the robot action output and the action level of the robot action output with reference to past data of the interest degree of the close relatives in the robot 200 in the interest degree DB 107 read in step S206 will be described. For example, when the average value of the degree of interest of the close relative is low, the degree of interest is changed to a value obtained by subtracting, for example, 1 from the degree of interest evaluated in step S203. It can be set so that the robot movement is one rank higher than the case. Instead of changing the degree of interest evaluated in step S203, the operation level in the matrix of FIG. 4 may be changed to a setting that is significant for one rank. Also, by preparing a table that can handle interest levels less than 0 and shifting the matrix data to the right by one, the robot's behavior is set to be one rank higher with the interest level unchanged. You can also.

この結果、飽き易い傾向のある観察者に対しても、対応が可能となる効果がある。   As a result, it is possible to cope with an observer who tends to get bored.

また、関心度DB107に、例えば高血圧などの既往歴が登録されている場合には、長時間の興奮状態は避けるべく、ステップS203で評価した関心度に対して例えば1を足した値に関心度を変更したり、図4のマトリクス中のロボット200の行動出力を1ランク低下させるように変更を行う。また、関心度DB107に、どのチームのファンであるかプロフィールに登録されている場合はそれを考慮してロボット行動出力およびロボット行動出力の動作レベルを決定することも対応可能である。   Further, when a history of high blood pressure or the like is registered in the interest level DB 107, for example, the interest level is added to a value obtained by adding, for example, 1 to the interest level evaluated in step S203 in order to avoid a long excitement state. Or the action output of the robot 200 in the matrix of FIG. 4 is changed by one rank. In addition, when the interest level DB 107 is registered in the profile as to which team the fan is, it is also possible to determine the robot action output and the action level of the robot action output in consideration thereof.

以上のように、関心度DB107を用いて近親者のロボット200への関心度の過去のデータや既往歴を参照することで、当該システムを近親者の個性や嗜好により近い状態で運用することができる効果がある。   As described above, it is possible to operate the system in a state closer to the personality and preferences of the close relatives by referring to the past data and the past history of the interest level of the close relatives using the interest level DB 107. There is an effect that can be done.

図4では“野球観戦を楽しむ”例の場合が表されているが、同様の表は複数用意されていてもよく、それらは被験者の行動毎に対応している。例えば、“ボクシング観戦を楽しむ”とか、“テレビドラマを楽しむ”などであってもよい。なお、これらテーブルデータはサーバ100内メモリや関心度DB107等に登録されており、必要に応じて順次参照される。なお、本実施形態ではテーブルを用いてロボットの行動表現を決定する例で説明したが、テーブルに限られず、行動表現決定のための算出式や関数などを使用してもよい。   Although FIG. 4 shows an example of “enjoying watching a baseball game”, a plurality of similar tables may be prepared, and they correspond to each test subject's action. For example, “enjoy watching boxing” or “enjoy TV drama” may be used. These table data are registered in the memory in the server 100, the interest level DB 107, and the like, and are sequentially referred to as necessary. In the present embodiment, the example is described in which the action expression of the robot is determined using the table. However, the present invention is not limited to the table, and a calculation formula or a function for determining the action expression may be used.

なお、本実施形態において、ステップS203において、ロボット200に本実施形態のように自走機能が搭載されている場合には、その特徴を活かし、例えば近親者の正面へ移動して、顔の表情を画像で取得するなどの他、音声で話しかけたり、手足等で近親者に接触したりして、近親者のロボット200へのリアクションを引き出し、さらに詳細な検知を実施することができ、ロボットへの関心度をより正確に測ることができる。   In this embodiment, when the robot 200 is equipped with a self-propelled function as in this embodiment in step S203, the feature is utilized and, for example, the face is moved to the front of the close relative to express the facial expression. In addition to acquiring images as an image, it is possible to perform a more detailed detection by drawing a reaction to a close relative's robot 200 by talking with a voice or contacting a close relative with a limb or the like. Can be measured more accurately.

また、上記実施形態は図1で示されているように、高齢者の行動推定部402が高齢者宅のサブユニット400内部に存在している場合であったが、図5のようにサーバ100内部に存在していてもよい(行動推定部108)。この場合は、上記の実施形態に対して以下の変更がなされている。   Further, as shown in FIG. 1, the above embodiment is a case where the elderly person's behavior estimation unit 402 is present in the subunit 400 of the elderly person's house, but the server 100 as shown in FIG. It may exist inside (behavior estimating part 108). In this case, the following changes are made to the above embodiment.

すなわち、サブユニット400において、動作検知用センサ401、送信部403は図1の場合と同じものであり、行動推定部402が搭載されていない。この場合、図5におけるサブユニット400は、動作検知用センサ401の検知結果を送信する機能のみを有する。   That is, in the subunit 400, the motion detection sensor 401 and the transmission unit 403 are the same as those in FIG. 1, and the behavior estimation unit 402 is not mounted. In this case, the subunit 400 in FIG. 5 has only a function of transmitting the detection result of the motion detection sensor 401.

一方、図5のサーバ100は、図1における行動推定部402と同じ処理を行う行動推定部108が、受信部101と行動表現決定部102の間に挿入されている。すなわち、受信部101はインターネット300を介して送信部403からのデータを受信し行動推定部108へ送信し、行動推定部108は推定結果を行動表現決定部102へ送出する。この場合は、高齢者の行動推定、および近親者の関心度推定をサーバ100で行う。   On the other hand, in the server 100 of FIG. 5, a behavior estimation unit 108 that performs the same processing as the behavior estimation unit 402 in FIG. 1 is inserted between the reception unit 101 and the behavior representation determination unit 102. That is, the reception unit 101 receives data from the transmission unit 403 via the Internet 300 and transmits the data to the behavior estimation unit 108, and the behavior estimation unit 108 transmits the estimation result to the behavior expression determination unit 102. In this case, the server 100 performs the behavior estimation of the elderly and the degree of interest of the close relative.

以上で説明したように本発明によれば、遠く離れた高齢者の行動を動作検知用センサ401で検知し、近親者宅のロボット200で行動表現させることで高齢者を間接的に見守ることができ、さらに動作検知用センサ105やロボット側搭載センサ201により、見守る近親者側の関心度をロボット200の行動表現にフィードバックすることで行動表現に変化を与えることにより、近親者の見守りへの“慣れ”や“飽き”を軽減することができ、さらに、システム運用の継続性を図ることが可能となる、といった効果が得られる。   As described above, according to the present invention, it is possible to indirectly monitor an elderly person by detecting the action of the elderly person who is far away by the motion detection sensor 401 and expressing the action by the robot 200 in the close relative's house. In addition, the action detection sensor 105 and the robot-side sensor 201 provide feedback to the behavioral expression of the robot 200 by feeding back the interest level of the close relative to the robot 200, thereby changing the behavioral expression. It is possible to reduce the “familiarity” and “satisfaction”, and it is possible to achieve continuity of system operation.

また、関心度DB107を用いることで、本発明における行動表現システム、行動表現処理装置を近親者の個性や嗜好に対応させることができる。   Further, by using the degree of interest DB 107, the behavior expression system and the behavior expression processing device according to the present invention can be made to correspond to the personality and preference of a close relative.

なお、本実施の形態における行動表現システムは、ハードウェア的には、任意のコンピュータのCPU、メモリ、その他のLSIなどで実現できる。また、ソフトウェア的には、メモリにロードされた行動表現機能のあるプログラムなどによって実現される。図1には、ハードウェアおよびソフトウェアによって実現される行動表現システムの機能ブロックが示されている。ただし、これらの機能ブロックが、ハードウェアのみ、ソフトウェアのみ、あるいは、それらの組合せ等、いろいろな形態で実現できることは言うまでもない。   It should be noted that the behavior expression system in the present embodiment can be realized in hardware by a CPU, memory, or other LSI of an arbitrary computer. In terms of software, it is realized by a program having an action expression function loaded in a memory. FIG. 1 shows functional blocks of an action expression system realized by hardware and software. However, it goes without saying that these functional blocks can be realized in various forms such as hardware only, software only, or a combination thereof.

本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   The embodiments of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims.

実施の形態に係る行動表現システムの構成図である。It is a block diagram of the action expression system which concerns on embodiment. 実施の形態に係るロボットを示す図である。It is a figure which shows the robot which concerns on embodiment. 実施の形態に係る行動表現システムにかかる動作フローチャートである。It is an operation | movement flowchart concerning the action expression system which concerns on embodiment. 実施の形態に係るロボットの行動出力および動作レベルを決定するテーブル図である。It is a table figure which determines the action output and action level of the robot which concern on embodiment. 別の実施の形態に係る行動表現システムの構成図である。It is a block diagram of the action expression system which concerns on another embodiment.

符号の説明Explanation of symbols

1 行動表現システム
100 サーバ
101 受信部
102 行動表現決定部
103 行動表現コントローラ
105 動作検知用センサ
106 関心度推定部
107 関心度DB
108 行動推定部
200 ロボット
201 ロボット側搭載センサ
400 サブユニット
401 動作検知用センサ
402 行動推定部
403 送信部
DESCRIPTION OF SYMBOLS 1 Action expression system 100 Server 101 Reception part 102 Action expression determination part 103 Action expression controller 105 Motion detection sensor 106 Interest level estimation part 107 Interest level DB
DESCRIPTION OF SYMBOLS 108 Action estimation part 200 Robot 201 Robot side mounting sensor 400 Sub unit 401 Motion detection sensor 402 Action estimation part 403 Transmission part

Claims (9)

被観察体の動作を検知する第1の動作検知手段と、
前記被観察体の動作に対応する動作を観察者に対して行う行動表現ユニットと、
前記観察者の動作を検知する第2の動作検知手段と、
を備えると共に、
前記行動表現ユニットを制御するための制御情報を、前記第1の動作検知手段により得られた第1の検知結果と、前記第2の動作検知手段により得られた第2の検知結果と、から求めるための制御情報生成手段を有する、
ことを特徴とする行動表現システム。
First motion detection means for detecting the motion of the object to be observed;
An action expression unit that performs an operation corresponding to the operation of the object to be observed on an observer;
Second motion detection means for detecting the motion of the observer;
With
Control information for controlling the behavior expression unit is obtained from the first detection result obtained by the first motion detection means and the second detection result obtained by the second motion detection means. Having control information generating means for obtaining,
An action expression system characterized by that.
請求項1に記載の行動表現システムであって、
前記制御情報生成手段は、
前記第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求める、
ことを特徴とする行動表現システム。
The behavior expression system according to claim 1,
The control information generating means
Obtaining the control information by adding a change based on the second detection result to the original control information obtained from the first detection result;
An action expression system characterized by that.
請求項1に記載の行動表現システムであって、
前記第1の検知結果に基づき前記被観察体の動作を推定する動作推定手段と、
前記第2の検知結果に基づき、前記行動表現ユニットの動作を観察した前記観察者の関心度を推定する関心度推定手段と、
を備え、
前記制御情報生成手段は、
前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求める、
ことを特徴とする行動表現システム。
The behavior expression system according to claim 1,
Motion estimation means for estimating the motion of the object to be observed based on the first detection result;
Interest level estimation means for estimating the level of interest of the observer who has observed the action of the behavior expression unit based on the second detection result;
With
The control information generating means
Obtaining the control information from the motion of the observed object estimated by the motion estimation means and the interest level of the observer estimated by the interest level estimation means;
An action expression system characterized by that.
請求項3に記載の行動表現システムであって、
前記動作推定手段により推定された前記被観察体の動作に関する情報を送信する送信手段と、
前記送信手段により送信された前記被観察体の動作に関する情報を受信する受信手段と、
を有し、
前記制御情報生成手段は、
前記受信手段により受信した前記被観察体の動作に関する情報と、前記関心度推定手段により推定した前記観察者の関心度と、から前記制御情報を求める、
ことを特徴とする行動表現システム。
The behavior expression system according to claim 3,
Transmitting means for transmitting information on the motion of the observed object estimated by the motion estimating means;
Receiving means for receiving information relating to the operation of the observed object transmitted by the transmitting means;
Have
The control information generating means
Obtaining the control information from the information on the motion of the observed object received by the receiving means and the interest level of the observer estimated by the interest level estimation means;
An action expression system characterized by that.
請求項2に記載の行動表現システムであって、
前記行動表現ユニットを制御する制御情報と、前記第2の動作検知手段により検知された前記観察者に関する第2の検知結果と、を関連付けて格納する格納手段を備え、
前記制御情報生成手段は、
前記第1の検知結果と、前記格納手段に格納された情報とから、前記原制御情報を求める、
ことを特徴とする行動表現システム。
The behavior expression system according to claim 2,
Storage means for storing the control information for controlling the behavior expression unit and the second detection result relating to the observer detected by the second motion detection means in association with each other;
The control information generating means
Obtaining the original control information from the first detection result and the information stored in the storage means;
An action expression system characterized by that.
請求項3または4に記載の行動表現システムであって、
前記行動表現ユニットを制御する制御情報と、前記関心度推定手段により推定された関心度情報により制御された前記観察者の関心度と、を関連づけて格納する格納手段を備え、
前記制御情報は、
前記動作推定手段により推定した前記被観察体の動作と、前記関心度推定手段により推定した前記観察者の関心度と、前記格納手段に格納された情報とから、前記制御情報を求める、
ことを特徴とする行動表現システム。
The behavior expression system according to claim 3 or 4,
Storage means for storing the control information for controlling the action expression unit and the interest level of the observer controlled by the interest level information estimated by the interest level estimation unit in association with each other;
The control information is
Obtaining the control information from the motion of the observed object estimated by the motion estimation means, the interest level of the observer estimated by the interest level estimation means, and information stored in the storage means;
An action expression system characterized by that.
請求項1ないし6の何れかに記載の行動表現システムであって、
前記行動表現ユニットは、前記第2の動作検知手段を有する、
ことを特徴とする行動表現システム。
The behavior expression system according to any one of claims 1 to 6,
The behavior expression unit includes the second motion detection unit.
An action expression system characterized by that.
被観察体の動作に対応する動作を観察者に対して行う行動表現ユニットを制御するための制御情報を、
前記被観察体の動作を検知する第1の動作検知手段により得られた第1の検知結果と、
前記観察者の動作を検知する第2の動作検知手段により得られた第2の検知結果と、
から求めるための制御情報生成手段を有する、
ことを特徴とする行動表現処理装置。
Control information for controlling an action expression unit that performs an action corresponding to the action of the object to be observed on the observer,
A first detection result obtained by a first motion detection means for detecting the motion of the object to be observed;
A second detection result obtained by a second motion detection means for detecting the motion of the observer;
Control information generating means for obtaining from
An action expression processing device characterized by that.
請求項8に記載の行動表現処理装置であって、
前記第1の検知結果から求められる原制御情報に、前記第2の検知結果に基づき変更を加えることにより前記制御情報を求める、
ことを特徴とする行動表現処理装置。
The behavior expression processing device according to claim 8,
Obtaining the control information by adding a change based on the second detection result to the original control information obtained from the first detection result;
An action expression processing device characterized by that.
JP2004369633A 2004-12-21 2004-12-21 Behavioral representation system and behavioral representation processing apparatus Pending JP2006178644A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004369633A JP2006178644A (en) 2004-12-21 2004-12-21 Behavioral representation system and behavioral representation processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004369633A JP2006178644A (en) 2004-12-21 2004-12-21 Behavioral representation system and behavioral representation processing apparatus

Publications (1)

Publication Number Publication Date
JP2006178644A true JP2006178644A (en) 2006-07-06

Family

ID=36732715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004369633A Pending JP2006178644A (en) 2004-12-21 2004-12-21 Behavioral representation system and behavioral representation processing apparatus

Country Status (1)

Country Link
JP (1) JP2006178644A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2113449A2 (en) 2008-05-01 2009-11-04 Sony Corporation Actuator control device, actuator control method, actuator, robot apparatus, and computer program
JP2018047163A (en) * 2016-09-23 2018-03-29 カシオ計算機株式会社 Robot, robot control method and program
JP2019101971A (en) * 2017-12-07 2019-06-24 カシオ計算機株式会社 Watching robot, watching method and program
US11580875B2 (en) 2017-11-06 2023-02-14 Panasonic Intellectual Property Management Co., Ltd. Cleanup support system, cleanup support method, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2113449A2 (en) 2008-05-01 2009-11-04 Sony Corporation Actuator control device, actuator control method, actuator, robot apparatus, and computer program
US8340822B2 (en) 2008-05-01 2012-12-25 Sony Corporation Actuator control device, actuator control method, actuator, robot apparatus, and computer program
JP2018047163A (en) * 2016-09-23 2018-03-29 カシオ計算機株式会社 Robot, robot control method and program
US11580875B2 (en) 2017-11-06 2023-02-14 Panasonic Intellectual Property Management Co., Ltd. Cleanup support system, cleanup support method, and recording medium
JP2019101971A (en) * 2017-12-07 2019-06-24 カシオ計算機株式会社 Watching robot, watching method and program

Similar Documents

Publication Publication Date Title
TWI692717B (en) Image display device, topic selection method and program
JP5149447B2 (en) Method for providing video viewing companion on display and virtual organism generator
JP6165302B1 (en) Image display device, topic selection method, topic selection program
US10166465B2 (en) Contextual user interface based on video game playback
JP2020039029A (en) Video distribution system, video distribution method, and video distribution program
JP2010257461A (en) Method and system for creating shared game space for networked game
WO2019116521A1 (en) Entertainment system, robot device, and server device
US11759959B2 (en) Object control system and object control method
WO2017141530A1 (en) Information processing device, information processing method and program
JP6682475B2 (en) Image display device, topic selection method, topic selection program
CN113375316B (en) Control method and device for air conditioner and air conditioner
JP2018092528A (en) Chat system, management device, terminal device, and method and program for assisting selection of destination
JP2019139170A (en) Image display device, image display method, and image display program
JP2020089947A (en) Information processing device, information processing method, and program
KR20160110634A (en) Smart vegetation cultivating apparatus and smart vegetation cultivating method
US11544968B2 (en) Information processing system, information processingmethod, and recording medium
JP6715477B2 (en) Device control system, device control method, and control program
JP2006178644A (en) Behavioral representation system and behavioral representation processing apparatus
US20210397245A1 (en) Information processing system, display method, and computer program
JP2014075045A (en) Controller, method for controlling controller, device to be controlled, server, control program, and recording medium
JP6671928B2 (en) Robot motion control data generation system and motion control data generation method
US11580875B2 (en) Cleanup support system, cleanup support method, and recording medium
JP2004096630A (en) Life condition and environment expression apparatus, expression apparatus and life condition and environment expression method
JP6749120B2 (en) Network system, information processing method, and server
JP7532182B2 (en) Remote conference support control device, method and program