JP2019128557A - Information output device, method, and program - Google Patents

Information output device, method, and program Download PDF

Info

Publication number
JP2019128557A
JP2019128557A JP2018011956A JP2018011956A JP2019128557A JP 2019128557 A JP2019128557 A JP 2019128557A JP 2018011956 A JP2018011956 A JP 2018011956A JP 2018011956 A JP2018011956 A JP 2018011956A JP 2019128557 A JP2019128557 A JP 2019128557A
Authority
JP
Japan
Prior art keywords
information
value
unit
passer
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018011956A
Other languages
Japanese (ja)
Other versions
JP6920225B2 (en
Inventor
安範 尾崎
Yasunori Ozaki
安範 尾崎
充裕 後藤
Mitsuhiro Goto
充裕 後藤
石原 達也
Tatsuya Ishihara
達也 石原
崇由 望月
Takayoshi Mochizuki
崇由 望月
成宗 松村
Narimune Matsumura
成宗 松村
純史 布引
Ayafumi Nunobiki
純史 布引
山田 智広
Tomohiro Yamada
智広 山田
航洋 前田
Koyo Maeda
航洋 前田
明彦 鏡
Akihiko Kagami
明彦 鏡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NHK Enterprises Inc
Original Assignee
Nippon Telegraph and Telephone Corp
NHK Enterprises Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NHK Enterprises Inc filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018011956A priority Critical patent/JP6920225B2/en
Publication of JP2019128557A publication Critical patent/JP2019128557A/en
Application granted granted Critical
Publication of JP6920225B2 publication Critical patent/JP6920225B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To control the output of information on the basis of the distance to a pedestrian as well as the face direction of the pedestrian and determine whether or not a call to the pedestrian by output of information is successful.SOLUTION: Face direction data pertaining to one or more pedestrians is chronologically acquired from a face recognition sensor 2 under control of a face direction data acquisition unit 111, and distance data for the distance between an information output device 1 and the one or more pedestrians is acquired from a distance measurement sensor 3 under control of a distance data acquisition unit 112. Thereafter, a gaze determination process and a proximity determination process are executed on the basis of the face direction data and the distance data under control of a gaze determination unit 114 and a proximity determination unit 115. Output control of image information or voice information is exercised on the basis of the determination results of the gaze determination and proximity determination processes under control of an output control unit 116. Thereafter, determination is made under control of a call success determination unit 117 as to whether or not a call to the pedestrians by output of the image or voice information was successful.SELECTED DRAWING: Figure 2

Description

この発明は、通行者に対して情報を出力する情報出力装置、方法およびプログラムに関する。   The present invention relates to an information output device, method, and program for outputting information to a passerby.

従来、距離測定センサを利用して通行者の移動軌跡を算出し、当該移動軌跡に基づいて、実世界へ影響を与えるように動作する機能を有する装置(以後、単にエージェントと称する)に集客動作をさせる研究が行われていた。このような研究では、通行者がエージェントに近寄らない場合には、エージェントを眺めながら通り過ぎていく通行者も、エージェントを眺めずに通り過ぎていく通行者も、等しく集客対象外となっていた(例えば、非特許文献1を参照)。   Conventionally, a movement measurement of a passerby is calculated using a distance measurement sensor, and a customer having an ability to operate to affect the real world based on the movement movement (hereinafter simply referred to as an agent) Research has been done to In such research, when passersby did not approach the agent, passersby passing while looking at the agent, and those passing by without looking at the agent were equally excluded from attracting customers (for example, , Non-Patent Document 1).

Niklas Bergstrom, et al., “Modeling of Natural Human-Robot Encounters”, IEEE/RSJ International Conference on Intelligent Robots and Systems, 2008Niklas Bergstrom, et al., “Modeling of Natural Human-Robot Encounters”, IEEE / RSJ International Conference on Intelligent Robots and Systems, 2008

ところが、非特許文献1に記載されるような技術では、集客対象外となる、エージェントに近寄らずにエージェントを眺めている通行者は、エージェントに興味がある可能性が高い。したがって、このような通行者に対して集客動作を実行すれば、集客動作による呼び掛けが成功する確率は高いかもしれない。また、例えばエージェントを眺めることなく偶然エージェントの近くを通り過ぎるような通行者は、非特許文献1に記載されるような技術では集客対象となるが、特にエージェントに興味がない可能性が高い。したがって、このような通行者に対して集客動作を実行しても、集客動作による呼び掛けが成功する確率は低いかもしれない。   However, in the technology described in Non-Patent Document 1, a passerby who is not attracting customers and who looks at the agent without approaching the agent is likely to be interested in the agent. Therefore, if the customer-collecting operation is executed for such a passer-by, the probability that the call by the customer-collecting operation is successful may be high. Also, for example, a person who passes by the agent by chance without looking at the agent is likely to be attracted by the technique as described in Non-Patent Document 1, but there is a high possibility that the agent is not particularly interested. Therefore, even if the customer attraction operation is executed for such a passer-by, the probability that the call by the customer attraction operation will be successful may be low.

すなわち、非特許文献1に記載される、距離測定センサによって計測されるデータのみに基づいてエージェントが集客動作を実行するか否かを判定する技術では、エージェントに対して興味を示している通行者に対して集客動作を実行せずに、エージェントに対して興味を示していない通行者に対して集客動作を実行してしまう状況が生じ得る。したがって、集客動作を実行するか否かの判定に、エージェントと通行者との距離に加えて他の判定基準も利用するのが好ましい。   That is, in the technique described in Non-Patent Document 1 for determining whether or not an agent performs a customer attraction operation based only on data measured by a distance measuring sensor, a passerby who is interested in the agent However, there may be a situation in which the attracting operation is performed for a passerby who is not interested in the agent without performing the attracting operation. Therefore, it is preferable to use other determination criteria in addition to the distance between the agent and the passerby for determining whether or not to perform the customer attraction operation.

また、非特許文献1に記載されるような技術には、次の問題もある。   Further, the technique described in Non-Patent Document 1 has the following problem.

例えば、エージェントの集客動作は、当該集客動作による呼び掛けが成功せずに周りに通行者がいなくなってしまっていても継続される。これは、エージェントの電力の浪費となる。   For example, the agent's customer attracting operation is continued even if the call by the customer attracting operation is not successful and there are no passersby around. This wastes agent power.

さらに、例えばエージェントの周囲の音環境が変化すると、エージェントから出力される音声が周囲の雑音にかき消され通行者に届きにくくなることがある。このように、エージェントが設置される環境が変わると、エージェントが同じ条件で集客動作を実行していても、当該集客動作による呼び掛けが成功する確率が下がってしまうことがある。非特許文献1に記載される技術では、このような状況が生じても、呼び掛けが成功しにくくなった集客動作を、エージェントは同じ条件で何度も繰り返し実行してしまう。   Furthermore, for example, when the sound environment around the agent changes, the sound output from the agent may be drowned out by the surrounding noise and may not reach the passerby. As described above, when the environment in which the agent is installed is changed, even if the agent is performing the customer collection operation under the same conditions, the probability that the call by the customer collection operation is successful may decrease. In the technique described in Non-Patent Document 1, even if such a situation occurs, the agent repeatedly executes the customer-collection operation, which makes it difficult for the call to succeed, under the same conditions.

これらの問題については、集客動作による呼び掛けの成否を検知することにより対策を講じることができるかもしれない。   For these problems, measures may be taken by detecting the success or failure of the call due to the attracting customers.

この発明は上記事情に着目してなされたもので、その目的とするところは、通行者との間の距離に加え通行者の顔向きにも基づいて情報の出力制御を行い、当該情報の出力による通行者への呼び掛けの成否を判定できる情報出力装置、方法およびプログラムを提供することにある。   The present invention has been made focusing on the above circumstances, and the purpose of the invention is to control the output of information based on the distance between the passing person and the face direction of the passing person, and to output the information It is an object to provide an information output device, method, and program capable of determining success or failure of a call to a passerby.

上記課題を解決するために、この発明の第1の態様は、通行者の検知に応じて当該通行者に対して、画像情報と、音声情報と、対象物を駆動するための駆動制御情報とのうちの少なくとも1つを出力可能な情報出力装置にあって、顔認識センサから、前記通行者に係る顔向きデータを経時的に取得する顔向きデータ取得部と、距離測定センサから、前記情報出力装置と前記通行者との間の距離データを経時的に取得する距離データ取得部と、前記取得される顔向きデータに基づいて、前記通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する注視判定部と、前記取得される距離データに基づいて、前記情報出力装置から所定の距離内に前記通行者が存在する時間が第2の時間以上であるか否かを判定する近接判定部と、前記注視判定部および前記近接判定部における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる出力制御部と、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つの出力期間中または出力期間後に前記注視判定部および前記近接判定部により得られる判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つの出力による呼び掛けが成功したか否かを判定する呼び掛け成否判定部とを備えるようにしたものである。   In order to solve the above-described problem, the first aspect of the present invention provides image information, audio information, and drive control information for driving an object to the passer-by in response to detection of the passer-by. A face direction data acquisition unit that acquires face direction data relating to the passer by time from the face recognition sensor, and the information from the distance measurement sensor. A distance data acquisition unit for acquiring distance data between an output device and the passer with time and a predetermined range in which the face of the passer includes the information output device based on the acquired face direction data The passerby is within a predetermined distance from the information output device based on the gaze determination unit that determines whether or not the time facing is equal to or longer than the first time and the acquired distance data The time is more than the second time Whether or not to output at least one of the image information, the audio information, and the drive control information based on the determination result in the proximity determination unit that determines whether or not, and the determination result in the gaze determination unit and the proximity determination unit And determining that at least one of the image information, the audio information, and the drive control information is output, at least one of the image information, the audio information, and the drive control information. A determination result obtained by the gaze determination unit and the proximity determination unit during or after an output period of at least one of the image information, the audio information, and the drive control information, the output control unit configured to output one A call for determining whether the call by the output of at least one of the image information, the audio information, and the drive control information is successful based on It is obtained by such and a determination unit.

この発明の第2の態様は、前記出力制御部が、前記注視判定部および前記近接判定部における判定結果と、当該判定結果に対応付けられた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数種類の動作のうち行動価値の値が最も高い動作を選択する選択部と、前記選択された動作に応じた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる制御部とを備えるようにしたものである。   According to a second aspect of the present invention, in the output control unit, a determination result in the gaze determination unit and the proximity determination unit, the image information, the audio information, and the drive control information associated with the determination result. And at least one of the plurality of types of operations for outputting at least one and the action value table storing the value of the action value of each of the operations, the determination result in the gaze determination unit and the proximity determination unit A selection unit that selects the operation having the highest action value among the plurality of types of operations, and at least one of the image information, the audio information, and the drive control information according to the selected operation. And a control unit for outputting the.

この発明の第3の態様は、前記出力制御部が、前記注視判定部および前記近接判定部における判定結果と、当該判定結果に対応付けられた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数種類の動作の中から動作をランダムに選択する選択部と、前記選択された動作に応じた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる制御部とを備えるようにしたものである。   According to a third aspect of the present invention, the output control unit includes a determination result in the gaze determination unit and the proximity determination unit, the image information associated with the determination result, the audio information, and the drive control information. Are associated with determination results in the gaze determination unit and the proximity determination unit based on a behavior value table that stores a plurality of types of operations that output at least one of the behaviors and a behavior value of each of the operations. A control unit that randomly selects an operation from the plurality of types of operations, and a control that outputs at least one of the image information, the audio information, and the drive control information according to the selected operation. Part.

この発明の第4の態様は、前記顔向きデータ取得部が、前記顔認識センサから、複数の通行者の各々に係る顔向きデータを経時的に取得し、前記距離データ取得部が、前記距離測定センサから、前記情報出力装置と前記複数の通行者の各々との間の距離データを経時的に取得し、前記注視判定部が、前記複数の通行者の各々に対して、当該通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が前記第1の時間以上であるか否かを判定し、前記近接判定部が、前記複数の通行者の各々に対して、前記情報出力装置から所定の距離内に当該通行者が存在する時間が前記第2の時間以上であるか否かを判定し、前記出力制御部が、前記複数の通行者の各々に対応して、前記注視判定部および前記近接判定部における判定結果と、当該判定結果に対応付けられた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数の通行者と前記複数種類の動作の組み合わせの中から、前記行動価値の値が最も高い動作に対応する通行者と動作との組み合わせを選択する選択部と、前記選択された通行者に対して、前記選択された動作に応じた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる制御部とを備えるようにしたものである。   According to a fourth aspect of the present invention, the face direction data acquisition unit acquires, from the face recognition sensor, face direction data relating to each of a plurality of passers over time, and the distance data acquisition unit includes the distance data Distance data between the information output device and each of the plurality of passers is acquired over time from the measurement sensor, and the gaze determination unit is configured to determine the passersby for each of the plurality of passers-by. It is determined whether or not the time when the face is facing a predetermined range including the information output device is equal to or longer than the first time, the proximity determination unit, for each of the plurality of passers-by It is determined whether or not the time during which the passerby exists within a predetermined distance from the information output device is the second time or more, and the output control unit corresponds to each of the plurality of passersby, The determination result in the gaze determination unit and the proximity determination unit, and the A behavior value table that stores a plurality of types of operations that output at least one of the image information, the audio information, and the drive control information associated with a fixed result, and behavior value values of the respective operations Of the action value from among combinations of the plurality of passersby and the plurality of types of actions associated with the determination results in the gaze determination unit and the proximity determination unit for each of the plurality of passers A selection unit that selects a combination of a passer-by and an action corresponding to the action having the highest value; and for the selected passer-by, the image information, the audio information, and the drive corresponding to the selected action And a control unit that outputs at least one of the control information.

この発明の第5の態様は、前記顔向きデータ取得部が、前記顔認識センサから、複数の通行者の各々に係る顔向きデータを経時的に取得し、前記距離データ取得部が、前記距離測定センサから、前記情報出力装置と前記複数の通行者の各々との間の距離データを経時的に取得し、前記注視判定部が、前記複数の通行者の各々に対して、当該通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が前記第1の時間以上であるか否かを判定し、前記近接判定部が、前記複数の通行者の各々に対して、前記情報出力装置から所定の距離内に当該通行者が存在する時間が前記第2の時間以上であるか否かを判定し、前記出力制御部が、前記複数の通行者の各々に対応して、前記注視判定部および前記近接判定部における判定結果と、当該判定結果に対応付けられた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数の通行者と前記複数種類の動作の組み合わせの中から、動作をランダムに選択し、さらに、前記複数の通行者のうち当該選択された動作の行動価値の値が最も高い通行者を選択する第1選択部と、前記行動価値テーブルに基づいて、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数の通行者と前記複数種類の動作の組み合わせの中から、通行者をランダムに選択し、さらに、前記複数種類の動作のうち当該選択された通行者に対応付けられた行動価値の値が最も高い動作を選択する第2選択部と、前記行動価値テーブルに基づいて、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数の通行者と前記複数種類の動作の組み合わせの中から、動作と通行者とをランダムに選択する第3選択部とのうちの少なくとも1つを備え、前記出力制御部が、前記第1選択部、前記第2選択部、または前記第3選択部によって選択された通行者に対して、当該選択部によって選択された動作に応じた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる制御部とを備えるようにしたものである。   According to a fifth aspect of the present invention, the face direction data acquisition unit acquires, from the face recognition sensor, face direction data related to each of a plurality of passers, and the distance data acquisition unit acquires the distance. Distance data between the information output device and each of the plurality of passers is acquired over time from the measurement sensor, and the gaze determination unit is configured to determine the passersby for each of the plurality of passers-by. It is determined whether or not the time when the face is facing a predetermined range including the information output device is equal to or longer than the first time, the proximity determination unit, for each of the plurality of passers-by It is determined whether or not the time during which the passerby exists within a predetermined distance from the information output device is the second time or more, and the output control unit corresponds to each of the plurality of passersby, The determination result in the gaze determination unit and the proximity determination unit, and the A behavior value table that stores a plurality of types of operations that output at least one of the image information, the audio information, and the drive control information associated with a fixed result, and behavior value values of the respective operations Based on the combination of the plurality of passers and the plurality of types of movements associated with the determination results in the gaze determination unit and the proximity determination unit for each of the plurality of passers. And selecting a passer with the highest value of the action value of the selected action among the plurality of passers, and selecting the passer based on the action value table. A passerby is randomly selected from a combination of the plurality of passers and the plurality of types of movements associated with the determination results in the gaze determination unit and the proximity determination unit for each. A second selection unit that selects the operation having the highest action value associated with the selected passerby among the plurality of types of actions, and the plurality of actions based on the action value table. Selecting a motion and a passer at random from a combination of the plurality of passers and the plurality of types of actions associated with the determination results in the gaze determination unit and the proximity determination unit for each passerby of At least one of a third selection unit, and the output control unit selects the passerby selected by the first selection unit, the second selection unit, or the third selection unit. A control unit that outputs at least one of the image information, the audio information, and the drive control information according to the operation selected by the unit.

この発明の第6の態様は、前記情報出力装置が、前記呼び掛けが成功したと判定された場合に、前記行動価値テーブルにおける、前記選択された動作の行動価値の値を増加させ、前記通行者への呼び掛けが失敗したと判定された場合に、前記行動価値テーブルにおける、前記選択された動作の行動価値の値を減少させる行動価値テーブル更新部をさらに備えるようにしたものである。   According to a sixth aspect of the present invention, when the information output device determines that the call is successful, the information output device increases the value of the action value of the selected action in the action value table, and the passerby When it is determined that the call to is unsuccessful, the behavior value table updating unit that decreases the value of the behavior value of the selected action in the behavior value table is further provided.

この発明の第1の態様によれば、顔認識センサから、通行者に係る顔向きデータが経時的に取得され、距離測定センサから、情報出力装置と上記通行者との間の距離データが経時的に取得される。上記取得される顔向きデータに基づいて、上記通行者の顔が上記情報出力装置を含む所定の範囲を向いている時間が第1の時間以上であるか否かが判定される注視判定処理が実行される。また、上記取得される距離データに基づいて、上記情報出力装置から所定の距離内に上記通行者が存在する時間が第2の時間以上であるか否かが判定される近接判定処理が実行される。通行者に対する注視判定処理の判定結果と近接判定処理の判定結果とに基づいて、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力するか否かが判定され、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、当該画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。当該画像情報と音声情報と駆動制御情報とのうちの少なくとも1つの出力期間中または出力期間後に注視判定処理および近接判定処理により得られる判定結果に基づいて、上記画像情報と音声情報と駆動制御情報とのうちの少なくとも1つの出力による呼び掛けが成功したか否かが判定される。   According to the first aspect of the present invention, the face orientation data relating to the passerby is acquired over time from the face recognition sensor, and the distance data between the information output device and the passerby is acquired from the distance measurement sensor over time. Is acquired. A gaze determination process in which it is determined whether or not the time during which the face of the passerby faces the predetermined range including the information output device is the first time or more based on the acquired face direction data. Executed. Further, based on the acquired distance data, proximity determination processing is performed in which it is determined whether the time during which the passerby is present within the predetermined distance from the information output device is equal to or longer than the second time. The Whether or not to output at least one of image information, voice information, and drive control information is determined based on the determination result of the gaze determination process for the passerby and the determination result of the proximity determination process, and image information and When it is determined to output at least one of audio information and drive control information, at least one of the image information, audio information, and drive control information is output. Based on the determination result obtained by the gaze determination process and the proximity determination process during or after the output period of at least one of the image information, the audio information, and the drive control information, the image information, the audio information, and the drive control information It is determined whether the call with at least one of the outputs is successful.

顔向きは視線に方向がおおよそ一致するものであり、それゆえ通行者の顔向きは、情報出力装置と通行者との間の距離と同様に、通行者が情報出力装置に興味を示しているか否かを判断するために有用である。したがって、上述したように情報出力装置と通行者との間の距離に加えて通行者の顔向きを基準として用いることにより、例えば情報出力装置に対して確かに興味を示している通行者を対象として、情報を出力することが可能となる。   Face orientation is roughly the same as gaze direction, so is the passer's face orientation similar to the distance between the information output device and the passer, is the passer showing interest in the information output device? It is useful to determine whether or not. Therefore, by using the face direction of the passer as a reference in addition to the distance between the information output device and the passer as described above, for example, a passerby who is certainly interested in the information output device is targeted. It is possible to output information as

また、呼び掛けが成功したか否かを判定すると、以下のような効果が奏せられる。すなわち、呼び掛けが成功したか否かの判定を情報の出力期間中に行うと、例えば、当該情報の出力条件を満たす通行者がいなくなっている場合には、当該情報の出力を停止して無駄な電力消費を抑えることができる。さらに、呼び掛けが成功したか否かの情報により、情報の出力条件を見直すこともできるし、オペレータが情報出力装置の設置される環境を変えることを判断することもできる。   Further, when it is determined whether or not the call is successful, the following effects can be obtained. That is, if the call is successfully determined during the information output period, for example, if there is no passerby that satisfies the information output condition, the output of the information is stopped and wasted. Power consumption can be reduced. Furthermore, the information output condition can be reviewed based on the information on whether or not the call is successful, and it can be determined that the operator changes the environment in which the information output device is installed.

この発明の第2の態様によれば、注視判定処理および近接判定処理の判定結果と、当該判定結果に対応付けられた画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、注視判定処理および近接判定処理の判定結果に対応付けられた上記複数種類の動作のうち行動価値の値が最も高い動作が選択される。その後、当該選択された動作に応じた画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。このように、行動価値の値という基準で動作を選択すれば、例えば、予め保証されている成功率の確度で、選択された通行者を呼び止められる可能性があるという利点がある。   According to the second aspect of the present invention, at least one of the determination results of the gaze determination processing and the proximity determination processing, and the image information, audio information, and drive control information associated with the determination results is output. The action value of the plurality of types of actions associated with the determination results of the gaze determination process and the proximity determination process based on the action value table storing the plurality of types of actions and the action value values of the respective actions. The operation with the highest value is selected. Thereafter, at least one of image information, audio information, and drive control information corresponding to the selected operation is output. As described above, if an action is selected based on a behavior value value, there is an advantage that the selected passerby may be stopped with accuracy of a success rate guaranteed in advance.

この発明の第3の態様によれば、上記行動価値テーブルに基づいて、注視判定処理および近接判定処理の判定結果に対応付けられた上記複数種類の動作の中から動作がランダムに選択される。その後、当該選択された動作に応じた画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。   According to the third aspect of the present invention, based on the behavior value table, an action is randomly selected from the plurality of types of actions associated with the determination results of the gaze determination process and the proximity determination process. Thereafter, at least one of image information, audio information, and drive control information corresponding to the selected operation is output.

例えば、行動価値の値を基準にして動作を選択する場合には、初期の段階で行動価値の値が低く設定された動作が殆ど選択されないことが生じ得る。しかしながら、行動価値の値が低く設定された動作のうちにも、実際には当該動作による呼び掛けが成功する確率がそれ程低くないものも含まれ得る。上述したようにランダムに動作を選択するようにすることによって、このような動作による呼び掛けが成功するか否かの情報を取得することができ、当該情報は、例えば、初期の段階の行動価値の値の設定が適切であるか否かを見直すことに利用することができる。   For example, when an action is selected on the basis of the action value, it is possible that an action with a low action value is not selected at the initial stage. However, among the operations whose action value is set to be low, there may be actually those that are not so low in the probability of successful call by the operation. As described above, by selecting an action at random, it is possible to obtain information on whether or not the call by such an action is successful. It can be used to review whether the value setting is appropriate.

この発明の第4の態様によれば、上記顔認識センサから、複数の通行者の各々に係る顔向きデータが経時的に取得され、上記距離測定センサから、上記情報出力装置と複数の通行者の各々との間の距離データが経時的に取得される。上記複数の通行者の各々に対して、当該通行者の顔が上記情報出力装置を含む所定の範囲を向いている時間が上記第1の時間以上であるか否かが判定される注視判定処理が実行される。また、上記複数の通行者の各々に対して、上記情報出力装置から所定の距離内に当該通行者が存在する時間が上記第2の時間以上であるか否かが判定される近接判定処理が実行される。その後、上記複数の通行者の各々に対応して、注視判定処理および近接判定処理の判定結果と、当該判定結果に対応付けられた画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、上記複数の通行者の各々に対する注視判定処理および近接判定処理の判定結果に対応付けられた上記複数の通行者と上記複数種類の動作の組み合わせの中から、行動価値の値が最も高い動作に対応する通行者と動作との組み合わせが選択される。その後、選択された通行者に対して、選択された動作に応じた画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。   According to the fourth aspect of the present invention, face direction data relating to each of a plurality of passers is acquired from the face recognition sensor over time, and the information output device and the plurality of passers are acquired from the distance measurement sensor. Distance data between each is acquired over time. A gaze determination process in which it is determined for each of the plurality of passersby whether or not the time when the face of the passer is facing a predetermined range including the information output device is equal to or longer than the first time. Is executed. In addition, for each of the plurality of passers-by, a proximity determination process for determining whether or not the time during which the passer-by exists within a predetermined distance from the information output device is equal to or longer than the second time. Executed. Then, corresponding to each of the plurality of passers-by, at least one of the determination result of the gaze determination process and the proximity determination process, and the image information, audio information, and drive control information associated with the determination result Are associated with the determination results of the gaze determination process and the proximity determination process for each of the plurality of passersby, based on the action value table storing the plurality of types of actions for outputting and the action value values of the respective actions. The combination of the passer-by and the action corresponding to the action having the highest action value is selected from the combination of the plurality of passers-by and the plurality of kinds of actions. Thereafter, at least one of image information, audio information, and drive control information corresponding to the selected operation is output to the selected passerby.

このため、行動価値の値を基準に、複数の通行者の中から少なくとも1人を呼び止められる可能性が最も高くなる手法で、通行者に対して情報を出力することによる呼び掛けをすることができる。   For this reason, it is possible to make a call by outputting information to passersby by a method that is most likely to stop at least one of a plurality of passersby based on the value of action value. .

また、例えば、選択された通行者の方向にディスプレイの正面が向くようにディスプレイの角度を調節して画像情報を出力したり、選択された通行者の方向にスピーカの正面が向くようにスピーカの向きを調節して音声情報を出力したり、選択された通行者の方向に向かって、可動部を駆動してジェスチャを提示したりするようにしてもよい。このようにすると、画像情報または音声情報の提供や、可動部により実行されるジェスチャを、選択された通行者がより一層受けやすくなり、当該情報の出力による通行者の呼び掛けが成功する確率が高くなる。   Further, for example, the display angle is adjusted so that the front of the display faces the direction of the selected passer-by and the image information is output, or the front of the speaker faces the direction of the selected passer-by. Audio information may be output by adjusting the direction, or the movable part may be driven to present a gesture toward the direction of the selected passerby. In this way, the selected passer-by becomes more susceptible to the provision of the image information or the voice information and the gesture performed by the movable unit, and the probability that the passer's call by the output of the information is successful is high. Become.

この発明の第5の態様によれば、上記顔認識センサから、複数の通行者の各々に係る顔向きデータが経時的に取得され、上記距離測定センサから、上記情報出力装置と複数の通行者の各々との間の距離データが経時的に取得される。上記複数の通行者の各々に対して、当該通行者の顔が上記情報出力装置を含む所定の範囲を向いている時間が上記第1の時間以上であるか否かが判定される注視判定処理が実行される。また、上記複数の通行者の各々に対して、上記情報出力装置から所定の距離内に当該通行者が存在する時間が上記第2の時間以上であるか否かが判定される近接判定処理が実行される。その後、上記複数の通行者の各々に対応して、注視判定処理および近接判定処理の判定結果と、当該判定結果に対応付けられた画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、上記複数の通行者の各々に対する注視判定処理および近接判定処理の判定結果に対応付けられた上記複数の通行者と上記複数種類の動作の組み合わせの中から、動作がランダムに選択され、さらに、上記複数の通行者のうち当該選択された動作の行動価値の値が最も高い通行者が選択される。あるいは、上記行動価値テーブルに基づいて、上記複数の通行者と上記複数種類の動作の組み合わせの中から、通行者がランダムに選択され、さらに、上記複数種類の動作のうち当該選択された通行者に対応付けられた行動価値の値が最も高い動作が選択される。あるいは、上記行動価値テーブルに基づいて、上記複数の通行者と上記複数種類の動作の組み合わせの中から、動作と通行者とがランダムに選択される。その後、選択された通行者に対して、選択された動作に応じた画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。   According to the fifth aspect of the present invention, face direction data relating to each of a plurality of passersby is acquired sequentially from the face recognition sensor, and the information output device and the plurality of passersby are obtained from the distance measurement sensor. The distance data between each of these is acquired over time. A gaze determination process in which it is determined for each of the plurality of passersby whether or not the time when the face of the passer is facing a predetermined range including the information output device is equal to or longer than the first time. Is executed. In addition, for each of the plurality of passers-by, a proximity determination process for determining whether or not the time during which the passer-by exists within a predetermined distance from the information output device is equal to or longer than the second time. Executed. Then, corresponding to each of the plurality of passers-by, at least one of the determination result of the gaze determination process and the proximity determination process, and the image information, audio information, and drive control information associated with the determination result Are associated with the determination results of the gaze determination process and the proximity determination process for each of the plurality of passersby, based on the action value table storing the plurality of types of actions for outputting and the action value values of the respective actions. The action is randomly selected from the combination of the plurality of passers and the plurality of types of actions, and the passer with the highest action value of the selected action among the plurality of passers is selected. Selected. Alternatively, based on the action value table, a passer is randomly selected from among the plurality of passersby and the combination of the plurality of types of actions, and further, the selected passer of the plurality of types of actions The action having the highest action value associated with is selected. Alternatively, based on the action value table, an action and a passer-by are selected at random from a combination of the plurality of passers-by and the plurality of kinds of actions. Thereafter, at least one of image information, audio information, and drive control information corresponding to the selected operation is output to the selected passerby.

このように、動作と通行者とのランダムな選択の中に、動作と通行者との一方をランダムに選択し他方はその中で行動価値の値が最も高くなるような選択を含めるようにして、当該選択に基づいて動作を実行し、当該動作による呼び掛けが成功したか否かの情報を取得すると、例えば、行動価値の値が最も高い動作に対応する通行者と動作との組み合わせを基準にした、通行者を変更することによる行動価値の値の変化への寄与の割合や、動作を変更することによる行動価値の値の変化への寄与の割合等を解析することができる。   In this way, one of the action and the passer can be randomly selected, and the other can include the selection such that the value of the action value is the highest, in the random choice between the action and the passer. When an action is performed based on the selection and information on whether the call by the action is successful is acquired, for example, based on a combination of a passerby and the action corresponding to the action having the highest action value. Thus, it is possible to analyze the rate of contribution to the change in the value of action value by changing the passerby, the rate of contribution to the change in the value of action value by changing the action, and the like.

この発明の第6の態様によれば、上記呼び掛けが成功したと判定された場合に、行動価値テーブルにおける、上記選択された動作の行動価値の値が増加され、上記呼び掛けが失敗したと判定された場合に、行動価値テーブルにおける、上記選択された動作の行動価値の値が減少される。このため、行動価値の値を基準に情報出力装置が実行する動作を選択する場合に、呼び掛けが成功した動作が次回以降に選択されやすくなり、呼び掛けが失敗した動作が次回以降に選択されにくくなる。すなわち、情報出力装置は、設置された環境に対応できるように自律的に逐次学習する。   According to the sixth aspect of the present invention, when it is determined that the call has succeeded, the value of the action value of the selected action in the action value table is increased, and it is determined that the call has failed. In this case, the action value of the selected action in the action value table is decreased. For this reason, when selecting an operation to be executed by the information output device based on the value of action value, an operation with a successful call is easily selected after the next time, and an operation with a failed call is less likely to be selected after the next time. . That is, the information output device learns autonomously and sequentially so that it can cope with the installed environment.

すなわち、この発明によれば、通行者との間の距離に加え通行者の顔向きにも基づいて情報の出力制御を行い、当該情報の出力による通行者への呼び掛けの成否を判定できる情報出力装置、方法およびプログラムを提供することができる。   In other words, according to the present invention, information output control is performed based on the face direction of the passer in addition to the distance to the passerby, and the information output that can determine the success or failure of the call to the passer by the output of the information Devices, methods and programs can be provided.

この発明の第1の実施形態に係る、通行者の検出に応じて当該通行者に対して画像情報または音声情報を出力する情報出力装置の一例を示す図。The figure which shows an example of the information output device which outputs image information or audio | voice information with respect to the said passerby according to the detection of a passerby according to 1st Embodiment of this invention. 図1に示した情報出力装置の機能構成を示すブロック図。FIG. 2 is a block diagram showing a functional configuration of the information output device shown in FIG. 1; 図1に示した距離測定センサによって取得される距離データの一例を示す図。FIG. 2 is a view showing an example of distance data acquired by the distance measurement sensor shown in FIG. 1; 図1に示した顔認識センサによって取得される顔向きデータの一例を示す図。FIG. 6 is a view showing an example of face direction data acquired by the face recognition sensor shown in FIG. 1; 図1に示した情報出力装置が実行可能な、画像情報または音声情報を出力する動作の一例を示す図。The figure which shows an example of the operation | movement which outputs the image information or audio | voice information which can be performed by the information output device shown in FIG. 図2に示した情報出力装置の制御ユニットによって実行される行動価値テーブル初期化処理の一例を示すフロー図。The flowchart which shows an example of the action value table initialization process performed by the control unit of the information output device shown in FIG. 図2に示した情報出力装置の制御ユニットによって実行される計測値取得処理の一例を示すフロー図。FIG. 3 is a flow chart showing an example of a measurement value acquisition process executed by a control unit of the information output device shown in FIG. 2; 図2に示した情報出力装置の制御ユニットによって実行されるユーザ状態判定処理の一例を示すフロー図。The flowchart which shows an example of the user state determination process performed by the control unit of the information output device shown in FIG. 図2に示した情報出力装置の記憶ユニットに記憶される頭状態ログテーブルHの一例を示す図。FIG. 3 is a view showing an example of a head status log table H stored in a storage unit of the information output device shown in FIG. 2; 図2に示した情報出力装置の記憶ユニットに記憶される体状態ログテーブルBの一例を示す図。The figure which shows an example of the body condition log table B memorize | stored in the memory | storage unit of the information output device shown in FIG. 図9に示した頭状態ログテーブルHから生成される頭状態ログテーブルH´´の一例を示す図。The figure which shows an example of head state log table H '' produced | generated from head state log table H shown in FIG. 図10に示した体状態ログテーブルBから生成される体状態ログテーブルB´´の一例を示す図。The figure which shows an example of the body state log table B '' produced | generated from the body state log table B shown in FIG. 図11に示した頭状態ログテーブルH´´と図12に示した体状態ログテーブルB´´とを組み合わせて生成される統合ログテーブルMの一例を示す図。The figure which shows an example of the integrated log table M produced | generated combining the head state log table H "shown in FIG. 11, and the body state log table B" shown in FIG. 図13に示した統合ログテーブルMから対象別ログテーブルを生成させる一例を示す図。FIG. 14 is a view showing an example of generating a target-specific log table from the integrated log table M shown in FIG. 13; 図8に示したユーザ状態判定処理において実行される近接判定処理の一例を示す図。The figure which shows an example of the proximity determination process performed in the user state determination process shown in FIG. 図8に示したユーザ状態判定処理において実行される注視判定処理の一例を示す図。The figure which shows an example of the gaze determination process performed in the user state determination process shown in FIG. 図2に示した情報出力装置の制御ユニットによって実行される出力制御処理の一例を示すフロー図。FIG. 7 is a flow chart showing an example of output control processing executed by a control unit of the information output device shown in FIG. 2; 図2に示した情報出力装置の記憶ユニットに記憶される行動価値テーブルの一例を示す図。The figure which shows an example of the action value table memorize | stored in the memory | storage unit of the information output device shown in FIG. 図2に示した情報出力装置の制御ユニットによって実行される行動価値テーブル更新処理の一例を示すフロー図。The flowchart which shows an example of the action value table update process performed by the control unit of the information output device shown in FIG. 最近傍法を利用したトラッキング処理の概念図。The conceptual diagram of the tracking process using the nearest neighbor method. 図8に示したユーザ状態判定処理に伴って実行される、トラッキング処理を実行して、id値を付与した頭状態ログテーブルH´および体状態ログテーブルB´を生成させる処理の一例を示すフロー図。A flow showing an example of processing that is executed along with the user state determination processing shown in FIG. 8 to generate a head state log table H ′ and a body state log table B ′ to which an id value is added by executing tracking processing Figure. 図8に示したユーザ状態判定処理に伴って実行される、同一の通行者を示しているid値とid値とを対応付けるマッチリストを生成させる処理の一例を示すフロー図。The flowchart which shows an example of the process which produces | generates the match list | wrist which matches the id H value and id B value which show the same passer, and is performed with the user state determination process shown in FIG. 図8に示したユーザ状態判定処理に伴って実行される、頭状態ログテーブルH´と体状態ログテーブルB´とをマッチリストを利用して組み合わせて統合ログテーブルMを生成させる処理の一例を示すフロー図。An example of processing for generating the integrated log table M by combining the head state log table H ′ and the body state log table B ′ using the match list, which is executed in accordance with the user state determination processing shown in FIG. FIG. この発明の他の実施形態に係る、情報出力装置が実行可能な駆動制御情報または音声情報を出力する動作の一例を示す図。The figure which shows an example of the operation | movement which outputs the drive control information or audio | voice information which can be performed by the information output device based on other Embodiment of this invention.

以下、図面を参照してこの発明に係わる実施形態を説明する。
[第1の実施形態]
(構成)
図1は、この発明の第1の実施形態に係る、通行者の検出に応じて当該通行者に対して画像情報または音声情報を出力する情報出力装置1の一例を示す図である。
Embodiments according to the present invention will be described below with reference to the drawings.
First Embodiment
(Constitution)
FIG. 1 is a view showing an example of an information output apparatus 1 for outputting image information or voice information to a passer in accordance with the detection of a passer according to the first embodiment of the present invention.

情報出力装置1は、例えば、通行者に画像情報または音声情報を出力してサービスの利用を呼び掛けるバーチャルロボットインタラクティブサイネージ等である。図1では、情報出力装置1、顔認識センサ2、距離測定センサ3、ディスプレイ4、およびスピーカ5が一体となっている例を図示しているが、これらの各々は別個の装置として分離されていてもよく、また、これらのうちの任意の組み合わせが一体となっていてもよい。   The information output device 1 is, for example, virtual robot interactive signage or the like which outputs image information or voice information to a passerby and calls for use of the service. Although FIG. 1 shows an example in which the information output device 1, the face recognition sensor 2, the distance measurement sensor 3, the display 4 and the speaker 5 are integrated, each of them is separated as a separate device. And any combination of these may be integrated.

情報出力装置1は、例えばカメラ等である顔認識センサ2から、通行者に係る顔向きデータを経時的に取得する。また、情報出力装置1は、例えば超音波距離センサや赤外線距離センサ等である距離測定センサ3から、情報出力装置1と通行者との間の距離データを経時的に取得する。当該取得される顔向きデータおよび距離データに基づいて、情報出力装置1は、画像情報または音声情報を出力するか否かを判定する。そして、出力すると判定された場合に、画像情報および音声情報をそれぞれディスプレイ4およびスピーカ5を用いて出力する。   The information output device 1 acquires face direction data relating to a passerby over time from a face recognition sensor 2 such as a camera. Further, the information output device 1 temporally acquires distance data between the information output device 1 and a passerby from the distance measurement sensor 3 which is, for example, an ultrasonic distance sensor or an infrared distance sensor. Based on the acquired face orientation data and distance data, the information output device 1 determines whether to output image information or audio information. And when it determines with outputting, image information and audio | voice information are output using the display 4 and the speaker 5, respectively.

さらに、情報出力装置1は、画像情報または音声情報の出力期間中または出力期間後に、上記顔向きデータおよび距離データに基づいて、当該画像情報または音声情報の出力による呼び掛けが成功したか否かを判定する。   Furthermore, the information output device 1 determines whether the call by the output of the image information or the sound information is successful or not during or after the output period of the image information or the sound information based on the face direction data and the distance data. judge.

図2は、図1に示した情報出力装置1の機能構成を示すブロック図である。
情報出力装置1は、ハードウェアとして、制御ユニット11と、記憶ユニット12と、入出力インタフェースユニット13とを備えている。
FIG. 2 is a block diagram showing a functional configuration of the information output apparatus 1 shown in FIG.
The information output device 1 includes a control unit 11, a storage unit 12, and an input / output interface unit 13 as hardware.

入出力インタフェースユニット13は、例えば1つ以上の有線または無線の通信インタフェースユニットを含んでいる。入出力インタフェースユニット13は、顔認識センサ2から、通行者に係る顔向きデータを取得し、距離測定センサ3から、情報出力装置1と通行者との間の距離データを取得し、当該取得される顔向きデータおよび距離データを制御ユニット11に出力する。また、入出力インタフェースユニット13は、制御ユニット11から出力される画像情報および音声情報をそれぞれディスプレイ4およびスピーカ5に出力する。   The input / output interface unit 13 includes, for example, one or more wired or wireless communication interface units. The input / output interface unit 13 acquires face direction data relating to a passerby from the face recognition sensor 2, acquires distance data between the information output device 1 and the passerby from the distance measurement sensor 3, Face direction data and distance data are output to the control unit 11. Further, the input / output interface unit 13 outputs image information and audio information output from the control unit 11 to the display 4 and the speaker 5, respectively.

記憶ユニット12は、記憶媒体として例えばHDD(Hard Disc Drive)またはSSD(Solid State Drive)等の随時書き込みおよび読み出しが可能な不揮発メモリを使用したもので、本実施形態を実現するために、頭状態ログテーブルH記憶部121と、体状態ログテーブルB記憶部122と、対象別ログテーブル記憶部123と、行動価値テーブル記憶部124とを備えている。   The storage unit 12 uses, as a storage medium, a non-volatile memory such as a hard disc drive (HDD) or a solid state drive (SSD) that can be written and read as needed, and a head state to realize this embodiment. A log table H storage unit 121, a body state log table B storage unit 122, a subject-specific log table storage unit 123, and an action value table storage unit 124 are provided.

頭状態ログテーブルH記憶部121は、頭状態ログテーブルHを記憶している。頭状態ログテーブルHは、顔認識センサ2から取得される、1以上の通行者に係る顔向きデータを記憶する。   The head status log table H storage unit 121 stores a head status log table H. The head state log table H stores face orientation data relating to one or more passers-by acquired from the face recognition sensor 2.

体状態ログテーブルB記憶部122は、体状態ログテーブルBを記憶している。体状態ログテーブルBは、距離測定センサ3から取得される、情報出力装置1と1以上の通行者との間の距離データを記憶する。   The physical condition log table B storage unit 122 stores a physical condition log table B. The body state log table B stores distance data acquired from the distance measurement sensor 3 between the information output device 1 and one or more passers-by.

対象別ログテーブル記憶部123は、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルを記憶させるために使用される。   The target-specific log table storage unit 123 is used to store one or more target-specific log tables for each passer by integrating face direction data and distance data for each passer-by.

行動価値テーブル記憶部124は、行動価値テーブルを記憶している。行動価値テーブルは、1以上の通行者の各々に対応して、情報出力装置1への当該通行者の注視状態および情報出力装置1と当該通行者との近接状態と、当該注視状態および近接状態の組み合わせに対応付けられた画像情報または音声情報を出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する。   The behavior value table storage unit 124 stores a behavior value table. The action value table corresponds to each of one or more passers-by, and the gaze state of the passer-by to the information output device 1, the proximity state between the information output device 1 and the passer-by, the gaze state and the proximity state A plurality of types of operations for outputting image information or audio information associated with a combination of the values and action value values of the respective operations are stored.

制御ユニット11は、CPU(Central Processing Unit)等のハードウェアプロセッサと、プログラムメモリとを備え、本実施形態における処理機能を実行するために、顔向きデータ取得部111と、距離データ取得部112と、対象別ログテーブル生成部113と、注視判定部114と、近接判定部115と、出力制御部116と、呼び掛け成否判定部117と、行動価値テーブル初期化部118と、行動価値テーブル更新部119とを備えている。これらの各部における処理機能はいずれも、プログラムメモリに格納されたプログラムを上記ハードウェアプロセッサに実行させることによって実現される。   The control unit 11 includes a hardware processor such as a CPU (Central Processing Unit) and a program memory. In order to execute the processing functions in the present embodiment, the face orientation data acquisition unit 111, the distance data acquisition unit 112, , The target log table generation unit 113, the gaze determination unit 114, the proximity determination unit 115, the output control unit 116, the challenge success / failure determination unit 117, the behavior value table initialization unit 118, and the behavior value table update unit 119. And. All of the processing functions in these units are realized by causing the hardware processor to execute a program stored in the program memory.

顔向きデータ取得部111は、入出力インタフェースユニット13を介して顔認識センサ2から、1以上の通行者に係る顔向きデータを経時的に取得し、取得された顔向きデータを、頭状態ログテーブルHに書き込む処理を実行する。   The face direction data acquisition unit 111 sequentially acquires face direction data relating to one or more passersby from the face recognition sensor 2 through the input / output interface unit 13, and acquires the acquired face direction data as a head state log. Execute processing to write to table H.

距離データ取得部112は、入出力インタフェースユニット13を介して距離測定センサ3から、情報出力装置1と1以上の通行者との間の距離データを経時的に取得し、取得された距離データを、体状態ログテーブルBに書き込む処理を実行する。   The distance data acquisition unit 112 acquires distance data between the information output device 1 and one or more passers from the distance measurement sensor 3 via the input / output interface unit 13 over time, and acquires the acquired distance data. , The process of writing in the body state log table B is executed.

対象別ログテーブル生成部113は、先ず、頭状態ログテーブルHおよび体状態ログテーブルBから、顔向きデータおよび距離データを読み出す。そして、対象別ログテーブル生成部113は、通行者別に顔向きデータと距離データとを統合して、通行者別の1以上の対象別ログテーブルをそれぞれ生成し、生成された1以上の対象別ログテーブルを、記憶ユニット12の対象別ログテーブル記憶部123に記憶させる処理を実行する。   The target log table generation unit 113 first reads face orientation data and distance data from the head state log table H and the body state log table B. Then, the target-specific log table generating unit 113 integrates the face direction data and distance data for each passerby to generate one or more target-specific log tables for each passer-by, and generates one or more target-specific log tables. A process of storing the log table in the by-target log table storage unit 123 of the storage unit 12 is executed.

注視判定部114は、記憶ユニット12の対象別ログテーブル記憶部123から、通行者別の1以上の対象別ログテーブルを読み出す。そして、注視判定部114は、上記読み出された通行者別の1以上の対象別ログテーブルに記憶される顔向きデータに基づいて、1以上の通行者の各々に対して、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する処理を実行して、1以上の通行者の注視状態を判定する。   The gaze determination unit 114 reads one or more target-specific log tables for each passerby from the target-specific log table storage unit 123 of the storage unit 12. Then, the gaze determination unit 114 determines, for each of the one or more passersby, based on the face direction data stored in the read one or more target-specific log tables for each passerby. A process of determining whether a face is facing a predetermined range including the information output device 1 is performed to determine whether or not it is the first time or more to determine the gaze state of one or more passersby.

近接判定部115も、記憶ユニット12の対象別ログテーブル記憶部123から、通行者別の1以上の対象別ログテーブルを読み出す。そして、近接判定部115は、上記読み出された通行者別の1以上の対象別ログテーブルに記憶される距離データに基づいて、1以上の通行者の各々に対して、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かを判定する処理を実行して、1以上の通行者の近接状態を判定する。   The proximity determination unit 115 also reads one or more target log tables for each passerby from the target log table storage unit 123 of the storage unit 12. Then, the proximity determination unit 115 sends the information output device 1 to each of the one or more passers, based on the distance data stored in the one or more subject-specific log tables that are read. A process of determining whether the time during which the passer is present within the predetermined distance is the second time or more is executed to determine the proximity state of one or more passers.

出力制御部116は、上記行動価値テーブルを参照し、1以上の通行者の各々に対する注視判定部114および近接判定部115における判定結果に基づいて、行動価値テーブルに記憶される動作の中から情報出力装置1が実行する動作を選択することによって、画像情報または音声情報を出力するか否かを判定する。そして、出力制御部116は、画像情報または音声情報を出力すると判定された場合に、当該画像情報または音声情報を、入出力インタフェースユニット13を介してディスプレイ4またはスピーカ5から出力させる処理を実行する。   The output control unit 116 refers to the behavior value table, and based on the determination results in the gaze determination unit 114 and the proximity determination unit 115 for each of one or more passers-by, information from the operations stored in the behavior value table By selecting an operation to be executed by the output device 1, it is determined whether to output image information or audio information. Then, when it is determined that the image information or the audio information is to be output, the output control unit 116 executes a process of causing the display 4 or the speaker 5 to output the image information or the audio information via the input / output interface unit 13. .

呼び掛け成否判定部117は、画像情報または音声情報の出力期間中または出力期間後に注視判定部114および近接判定部115により得られる判定結果に基づいて、当該画像情報または音声情報の出力による通行者への呼び掛けが成功したか否かを判定する処理を実行する。   The call success / failure determination unit 117 is based on the determination result obtained by the gaze determination unit 114 and the proximity determination unit 115 during or after the output period of the image information or the audio information, to the passerby by outputting the image information or the audio information. The process of determining whether or not the call is successful is executed.

行動価値テーブル初期化部118は、記憶ユニット12の行動価値テーブル記憶部124に記憶される行動価値テーブルを初期化する処理を実行する。   The behavior value table initialization unit 118 executes processing for initializing the behavior value table stored in the behavior value table storage unit 124 of the storage unit 12.

行動価値テーブル更新部119は、呼び掛け成否判定部117における判定結果に基づいて、行動価値テーブルにおける、出力制御部116において選択された動作の行動価値の値を増加または減少させる処理を実行する。   The behavior value table updating unit 119 executes processing for increasing or decreasing the behavior value of the action selected by the output control unit 116 in the behavior value table based on the determination result in the challenge success / failure determination unit 117.

(動作)
次に、以上のように構成された情報出力装置1の動作を説明する。
(1)計測データの具体例
先ず、情報出力装置1において取得される顔向きデータおよび距離データについて説明する。
(Operation)
Next, the operation of the information output apparatus 1 configured as described above will be described.
(1) Specific Example of Measurement Data First, face orientation data and distance data acquired by the information output apparatus 1 will be described.

図3は、図1に示した距離測定センサ3によって取得される距離データの一例を示す図である。なお、世界座標系の基準軸として、例えば、情報出力装置1のディスプレイ4上に距離測定センサ3が設置されている位置からディスプレイ4の平面に沿って右側へ向かう方向を正の向きとするX軸、ディスプレイ4の平面に沿って下側へ向かう方向を正の向きとするY軸、および、ディスプレイ4の平面から垂直にディスプレイ4の正面方向へ向かう方向を正の向きとするZ軸を用いる。
図3に示されるように、情報出力装置1は距離測定センサ3から、距離データとして、時刻tと、Y軸を中心としてX軸の正の向きから通行者の中心座標の方向までの角度θと、ディスプレイ4上の距離測定センサ3が設置されている位置と通行者の中心座標との間の距離Rとを取得する。距離測定センサ3による距離データの計測は、定期的にまたは不定期に継続して実行される。
FIG. 3 is a diagram illustrating an example of distance data acquired by the distance measurement sensor 3 illustrated in FIG. 1. As a reference axis of the world coordinate system, for example, a positive direction is a direction from the position where the distance measuring sensor 3 is installed on the display 4 of the information output apparatus 1 toward the right side along the plane of the display 4. An axis, a Y-axis whose positive direction is the downward direction along the plane of the display 4, and a Z-axis whose positive direction is the frontward direction of the display 4 from the plane of the display 4 .
As shown in FIG. 3, the information output device 1 uses the distance measuring sensor 3 as the distance data at time t and an angle θ from the positive direction of the X axis to the direction of the center coordinates of the passers centering on the Y axis. obtaining a p, the distance R p between the position and the passerby center coordinates of the distance measuring sensor 3 on the display 4 is installed. The measurement of the distance data by the distance measuring sensor 3 is executed continuously or irregularly.

図4は、図1に示した顔認識センサ2によって取得される顔向きデータの一例を示す図である。なお、顔認識センサ2は、例えば、撮像素子を平面上に並べたものであり、当該撮像素子が並ぶ平面が上記Z軸と垂直となるように設置されているとする。
図4の(a)は、顔認識センサによって撮影可能な画角θを図示している。図4の(b)は、顔認識センサ2によって撮影される、画像の幅の大きさWと、撮影画像の左上の点を基準とした顔検出枠の左上の座標(x,y)と、顔検出枠の幅の大きさwとを図示している。なお、当該大きさおよび座標は、例えばピクセル単位である。図4の(c)は、通行者の中心座標を通りY軸に平行な直線を中心として、上記X軸の正の向きから通行者の顔の正面方向までの角度θを図示している。なお、θは、通行者の顔がディスプレイ4と反対の側を向いている場合に正の値、通行者の顔がディスプレイ4側を向いている場合には負の値とする。
FIG. 4 is a diagram showing an example of face orientation data acquired by the face recognition sensor 2 shown in FIG. The face recognition sensor 2 is, for example, one in which imaging devices are arranged on a plane, and it is assumed that a plane on which the imaging devices are arranged is installed so as to be perpendicular to the Z axis.
FIG. 4A illustrates an angle of view θ c that can be captured by the face recognition sensor. FIG. 4B shows the width W of the image captured by the face recognition sensor 2, the coordinates (x, y) at the upper left of the face detection frame based on the upper left point of the captured image, The width w of the face detection frame is illustrated. In addition, the said magnitude | size and coordinate are a pixel unit, for example. FIG. 4C illustrates an angle θ h from the positive direction of the X axis to the front direction of the passer's face centered on a straight line passing through the center coordinates of the passer and parallel to the Y axis. . Note that θ h is a positive value when the face of the passer is facing the side opposite to the display 4 and a negative value when the face of the passer is facing the display 4 side.

情報出力装置1は、顔認識センサ2によって撮影される画像から、顔向きデータとして、時刻tと、顔検出枠の左上の座標(x,y)と、顔検出枠の幅の大きさwと、角度θとを取得する。 From the image captured by the face recognition sensor 2, the information output device 1 uses the time t, the upper left coordinates (x, y) of the face detection frame, and the size w of the width of the face detection frame as face direction data. , The angle θ h .

(2)画像情報または音声情報を出力する動作の具体例
次に、情報出力装置1によって画像情報または音声情報を出力する各動作について説明する。
(2) Specific Example of Operation for Outputting Image Information or Audio Information Next, each operation for outputting image information or audio information by the information output apparatus 1 will be described.

図5は、図1に示した情報出力装置1が通行者の検知に応じて実行可能な、画像情報または音声情報を出力する動作の一例を示す図である。図5は、情報出力装置1が実行可能な3種類の動作a,a,aを図示している。 FIG. 5 is a diagram illustrating an example of an operation for outputting image information or audio information that can be executed by the information output apparatus 1 illustrated in FIG. 1 in response to detection of a passerby. FIG. 5 illustrates three types of operations a 1 , a 2 , and a 3 that can be executed by the information output apparatus 1.

動作aは、ディスプレイ4に、手招きをしながら誘導する人の画像情報を出力し、スピーカ5から、「こちらへどうぞ」という呼び掛けの言葉に対応する音声情報を出力する動作である。
動作aは、ディスプレイ4に、手招きをしながら誘導する人の画像情報を出力し、スピーカ5から、「こちらに来てください」という呼び掛けの言葉に対応する音声情報と、通行者の注意を引くための効果音に対応する音声情報とを出力する動作である。なお、効果音に対応する音声情報の音量は、例えば、呼び掛けの言葉に対応する上述した2種類の音声情報の音量よりも大きい。
動作aは、ディスプレイ4に、待機する人の画像情報を出力する動作である。
Operating a 1 is, on the display 4, and outputs the image information of the person to induce while beckoning, from the speaker 5, is an operation to output the audio information corresponding to the words of the interrogation that "Please to here".
The action a 2 outputs the image information of the person who is guided while beckoning on the display 4, and from the speaker 5, the voice information corresponding to the calling word “Please come here” and the attention of the passerby This is an operation for outputting sound information corresponding to the sound effect for drawing. Note that the volume of the audio information corresponding to the sound effect is, for example, larger than the volume of the above-described two types of audio information corresponding to the calling word.
The operation a 3 is an operation for outputting the image information of the waiting person on the display 4.

(3)情報出力装置1が行動価値テーブルを初期化する動作
図6は、図2に示した情報出力装置1の制御ユニット11によって実行される行動価値テーブル初期化処理の一例を示すフロー図である。
(3) Operation of Information Output Device 1 Initializing Action Value Table FIG. 6 is a flow chart showing an example of action value table initialization processing executed by the control unit 11 of the information output device 1 shown in FIG. is there.

情報出力装置1は、行動価値テーブルに基づいて、画像情報または音声情報を出力する動作を選択する。行動価値テーブルは、1以上の通行者の各々に対応して、情報出力装置1への当該通行者の注視状態および情報出力装置1と当該通行者との近接状態と、当該注視状態および近接状態の組み合わせに対応付けられた画像情報または音声情報を出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する。   The information output device 1 selects an operation for outputting image information or audio information based on the behavior value table. The action value table corresponds to each of one or more passers-by, and the gaze state of the passer-by to the information output device 1, the proximity state between the information output device 1 and the passer-by, the gaze state and the proximity state A plurality of types of operations for outputting image information or audio information associated with a combination of the values and action value values of the respective operations are stored.

先ず、ステップS101において、制御ユニット11は、行動価値テーブル初期化部118の制御の下、記憶ユニット12の所定の設定記憶領域にアクセスして、行動価値テーブルの初期化フラグflagが不定値であるか否かを判定する。初期化フラグflagが不定値であると判定された場合には、行動価値テーブルを初期化するためにステップS102からステップS105までの処理が実行される。   First, in step S101, the control unit 11 accesses a predetermined setting storage area of the storage unit 12 under the control of the action value table initialization unit 118, and the initialization flag flag of the action value table is an undefined value. It is determined whether or not. When it is determined that the initialization flag flag is an indefinite value, the processing from step S102 to step S105 is executed to initialize the behavior value table.

ステップS102において、制御ユニット11は、行動価値テーブル初期化部118の制御の下、記憶ユニット12の所定の設定記憶領域にアクセスして、計測人数の最大値Nとして例えば20を書き込む。これにより、情報出力装置1が取得する顔向きデータおよび距離データから得られる通行者の計測人数が20人となるまで、行動価値テーブルは対応できるものとなる。   In step S102, the control unit 11 accesses a predetermined setting storage area of the storage unit 12 under the control of the behavior value table initialization unit 118, and writes 20 as the maximum value N of the number of persons to be measured. Thus, the action value table can be handled until the number of passersby obtained from the face orientation data and distance data acquired by the information output device 1 reaches 20.

ステップS103において、制御ユニット11は、行動価値テーブル初期化部118の制御の下、記憶ユニット12の所定の設定記憶領域にアクセスして、学習回数ベクトルKの各要素の値として例えば5を書き込む。なお、K={K,K,・・・,K}であり、Kは、計測人数が1のときに使用する学習回数を示すものであり、Kは、計測人数が2のときに使用する学習回数を示すものであり、以下同様である。当該学習回数ベクトルKの各要素は、例えば、行動価値テーブル更新部119の制御下で行動価値テーブルを更新させる際に、行動価値の値を増減させる尺度を定めるものである。例えば、学習回数ベクトルKの各要素の値が増加するにつれ、行動価値テーブルが更新される際の行動価値の値の増減は小さいものとなる。 In step S103, the control unit 11 accesses a predetermined setting storage area of the storage unit 12 under the control of the behavior value table initialization unit 118, and writes, for example, 5 as the value of each element of the learning frequency vector K. Note that K = {K 1 , K 2 ,..., K N }, K 1 indicates the number of times of learning used when the number of measurement persons is 1, and K 2 indicates that the number of measurement persons is 2 Indicates the number of learnings to be used at the same time, and so on. For example, each element of the learning frequency vector K defines a scale for increasing or decreasing the value of the behavior value when the behavior value table is updated under the control of the behavior value table update unit 119. For example, as the value of each element of the learning frequency vector K increases, the increase or decrease in the value of the behavior value when the behavior value table is updated becomes small.

ステップS104において、制御ユニット11は、行動価値テーブル初期化部118の制御の下、行動価値テーブルにおける行動価値の値Qを初期化する。当該初期化は、例えば記憶ユニット12に記憶される初期化データに基づいていてもよい。   In step S <b> 104, the control unit 11 initializes a behavior value Q in the behavior value table under the control of the behavior value table initialization unit 118. The initialization may be based on initialization data stored in the storage unit 12, for example.

ステップS105において、制御ユニット11は、行動価値テーブル初期化部118の制御の下、記憶ユニット12の所定の設定記憶領域にアクセスして、行動価値テーブルの初期化フラグflagにTrueを書き込む。当該行動価値テーブルの初期化フラグflagがTrueであることは、行動価値テーブルが既に初期化されていることを示す。   In step S105, the control unit 11 accesses a predetermined setting storage area of the storage unit 12 under the control of the behavior value table initialization unit 118, and writes True in the initialization flag flag of the behavior value table. That the initialization flag flag of the action value table is True indicates that the action value table has already been initialized.

(4)情報出力装置1が通行者を検知して通行者の状態を判定する動作
以下では、情報出力装置1の動作を、図7および図8に示すフロー図を用いて、図9から図14に示すログテーブルの例を参照しながら説明する。
(4) Operation in which the information output device 1 detects a passerby and determines the state of the passerby In the following, the operation of the information output device 1 will be described from FIG. 9 to FIG. This will be described with reference to the example of the log table shown in FIG.

図7は、図2に示した情報出力装置1の制御ユニット11によって実行される計測値取得処理の一例を示すフロー図である。
先ず、ステップS201において、制御ユニット11は、頭状態ログテーブルHと体状態ログテーブルBをそれぞれ初期化する。
FIG. 7 is a flowchart showing an example of a measurement value acquisition process executed by the control unit 11 of the information output apparatus 1 shown in FIG.
First, in step S201, the control unit 11 initializes the head state log table H and the body state log table B, respectively.

次に、ステップS202において、制御ユニット11は、現在時刻t´を取得し、記憶ユニット12の所定の領域に記憶させる。   Next, in step S <b> 202, the control unit 11 acquires the current time t ′ and stores it in a predetermined area of the storage unit 12.

ステップS203において、制御ユニット11は、顔向きデータ取得部111の制御の下、顔認識センサ2から、1以上の通行者に係る顔向きデータとして、例えば、計測値t,m,x,y,w,θを取得する。計測値mは、同時刻に複数の通行者に係る顔向きデータが取得される場合に、mの値によって計測値x,y,w,θのパラメータセットを通行者別に区分けして記憶させておくための指標であり、以下でも同様である。 In step S203, under the control of the face orientation data acquisition unit 111, the control unit 11 receives, for example, measured values t, m, x, y, and the like as face orientation data relating to one or more passers-by from the face recognition sensor 2. Get w, θ h . The measurement value m is stored by dividing the parameter set of the measurement values x, y, w, θ h according to the value of m according to the value of m when face direction data pertaining to a plurality of passers are acquired at the same time. This is the same index below.

ステップS204において、制御ユニット11は、顔向きデータ取得部111の制御の下、取得される計測値t,m,x,y,w,θを、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHに行を追加して書き込む。なお、図9に、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHの一例を示している。 In step S 204, the control unit 11 stores the measurement values t, m, x, y, w, θ h acquired in the head state log table H storage unit 121 under the control of the face direction data acquisition unit 111. Add a row to the log state log table H and write it. FIG. 9 shows an example of the head state log table H stored in the head state log table H storage unit 121.

一方、ステップS205において、制御ユニット11は、距離データ取得部112の制御の下、距離測定センサ3から、情報出力装置1と1以上の通行者との間の距離データとして、例えば、計測値t,m,R,θを取得する。 On the other hand, in step S205, under the control of the distance data acquisition unit 112, the control unit 11 uses the distance measurement sensor 3 as distance data between the information output device 1 and one or more passersby, for example, as a measurement value t. , M, R p and θ p are obtained.

ステップS206において、制御ユニット11は、距離データ取得部112の制御の下、取得される計測値t,m,R,θを、体状態ログテーブルB記憶部122に記憶される体状態ログテーブルBに行を追加して書き込む。なお、図10に、体状態ログテーブルB記憶部122に記憶される体状態ログテーブルBの一例を示している。 In step S206, the control unit 11 stores the measured values t, m, R p , and θ p acquired under the control of the distance data acquisition unit 112 in the body condition log table B storage unit 122. Add row to table B and write. FIG. 10 shows an example of the body state log table B stored in the body state log table B storage unit 122.

ステップS203およびステップS204における処理と、ステップS205およびステップS206における処理は、定期的にまたは不定期に継続して実行される。   The processing in step S203 and step S204 and the processing in step S205 and step S206 are continuously or periodically performed.

ステップS207において、制御ユニット11は、時刻t´から現在時刻tまでに経過した時間であるt−t´が、所定の時間Tより大きいか否かを判定する。経過時間t−t´がTを越えていない場合、ステップS203およびステップS205の計測値取得処理が継続される。経過時間t−t´がTを越えている場合には、図8に示す、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルを生成し、当該対象別ログテーブルに基づいて通行者の状態を判定する処理が実行される。なお、人間が視覚刺激を認知し反応する時間Taは約200ミリ秒であると知られているが、上記所定の時間Tとして、例えば、Taより長い時間である0.5秒程度の時間を用いる。   In step S207, the control unit 11 determines whether or not t−t ′, which is the time elapsed from time t ′ to the current time t, is greater than a predetermined time T. When the elapsed time t−t ′ does not exceed T, the measurement value acquisition process in step S203 and step S205 is continued. If the elapsed time t-t 'exceeds T, one or more target-specific log tables are created for each passer, as shown in FIG. 8, in which face direction data and distance data are integrated for each passer, A process of determining a passerby state based on the target log table is executed. It is known that the time Ta when a human recognizes and reacts to a visual stimulus is about 200 milliseconds. As the predetermined time T, for example, a time of about 0.5 seconds, which is longer than Ta, is used. Use.

図8は、図2に示した情報出力装置1の制御ユニット11によって実行されるユーザ状態判定処理の一例を示すフロー図である。
先ず、ステップS301において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHを読み出し、読み出された頭状態ログテーブルHにid列を付与する。当該id列の付与では、計測値t,m,x,y,w,θの各パラメータセットに対して、同一の通行者のパラメータセットには同一のid値が付与され、異なる通行者のパラメータセットには異なるid値が付与される。
FIG. 8 is a flowchart showing an example of a user state determination process executed by the control unit 11 of the information output apparatus 1 shown in FIG.
First, in step S301, the control unit 11 reads the head state log table H stored in the head state log table H storage unit 121 under the control of the target log table generation unit 113, and the read head state log. Give id H column to table H. In the assignment of the id H column, the same id H value is given to the parameter set of the same passerby for each parameter set of the measured values t, m, x, y, w, θ h , and different passing Different id H values are assigned to the parameter set of the person.

ステップS302において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、体状態ログテーブルB記憶部122に記憶される体状態ログテーブルBを読み出し、読み出された体状態ログテーブルBにid列を付与する。当該id列の付与では、計測値t,m,R,θの各パラメータセットに対して、同一の通行者のパラメータセットには同一のid値が付与され、異なる通行者のパラメータセットには異なるid値が付与される。なお、ステップS301における処理と、ステップS302における処理は、任意の順序で実行してよい。 In step S302, the control unit 11 reads the physical condition log table B stored in the physical condition log table B storage unit 122 under the control of the object-specific log table generation unit 113, and the read physical condition log table B Give id B column to In the assignment of the id B column, the same id B value is given to the same passer's parameter set for each parameter set of the measurement values t, m, R p , and θ p , and the parameters of different passers Different id B values are assigned to the set. Note that the processing in step S301 and the processing in step S302 may be executed in an arbitrary order.

次に、ステップS303において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id列が付与された頭状態ログテーブルHと、id列が付与された体状態ログテーブルBとの間でマッチングを実行し、同一の通行者を示しているid値とid値との対応付けをする。 Next, in step S303, the control unit 11, under the control of the target-specific log table generating unit 113, id H column and head state log table H which is applied, id B columns granted body state log table B And the id H value indicating the same passer-by and the id B value are associated with each other.

ステップS304において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルHにid列が付与された頭状態ログテーブルH´と、体状態ログテーブルBにid列が付与された体状態ログテーブルB´とにおいて、id値とid値との上記対応付けに基づいて、id値およびid値と置き換えて、同一の通行者のパラメータセットには同一の値のid値を付与し、異なる通行者のパラメータセットには異なる値のid値を付与し、頭状態ログテーブルH´´と体状態ログテーブルB´´とを生成する。その後、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´と体状態ログテーブルB´´とを組み合わせて、統合ログテーブルMを生成する。 In step S304, the control unit 11 controls the head status log table H under the control of the object-specific log table generation unit 113, and the head status log table H ′ to which the id H column is assigned, and the body status log table B id B in the column body state log table granted B', based on the correspondence between id H value and id B value, replacing the id H value and id B value, the parameter set of the same passer is The same value id M value is given, different parameter id M values are given to different passer parameter sets, and a head condition log table H ′ ′ and a body condition log table B ′ ′ are generated. Thereafter, the control unit 11 combines the head status log table H ′ ′ and the body status log table B ′ ′ under the control of the subject-specific log table creation unit 113 to create an integrated log table M.

図11に、図9に示した頭状態ログテーブルHから生成された頭状態ログテーブルH´´の一例を示しており、図12に、図10に示した体状態ログテーブルBから生成された体状態ログテーブルB´´の一例を示している。なお、図11に示す頭状態ログテーブルH´´にはR列とθ列が値をすべてNAで埋めて追加されており、図12に示す体状態ログテーブルB´´にはx列、y列、w列、θ列が値をすべてNAで埋めて追加されている。また、図13に、図11に示した頭状態ログテーブルH´´と図12に示した体状態ログテーブルB´´とを組み合わせて生成された統合ログテーブルMの一例を示している。 FIG. 11 shows an example of the head state log table H ″ generated from the head state log table H shown in FIG. 9, and FIG. 12 shows the example generated from the body state log table B shown in FIG. An example of physical condition log table B '' is shown. Note that the head condition log table H ′ ′ shown in FIG. 11 has all the values of the R p column and the θ p column filled with NA and added, and the body status log table B ′ ′ shown in FIG. , y column, w column, θ h columns have been added to fill in all the value NA. Further, FIG. 13 shows an example of the integrated log table M generated by combining the head state log table H ′ ′ shown in FIG. 11 and the body state log table B ′ ′ shown in FIG.

ステップS305において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、統合ログテーブルMをid値を基準に分割して、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルM1,M2,・・・を生成し、生成された1以上の対象別ログテーブルM1,M2,・・・を対象別ログテーブル記憶部123に記憶させる。なお、図14に、図13に示した統合ログテーブルMから生成された対象別ログテーブルM1,M2の一例を示している。 In step S305, the control unit 11 divides the integrated log table M based on the id M value under the control of the target log table generation unit 113, and integrates the face direction data and the distance data for each passerby. Create one or more target-specific log tables M1, M2, ... for each passerby, and store the generated one or more target-specific log tables M1, M2, ... in the target-specific log table storage unit 123 . FIG. 14 shows an example of the target log tables M1 and M2 generated from the integrated log table M shown in FIG.

最後に、ステップS306において、制御ユニット11は、注視判定部114の制御の下、対象別ログテーブル記憶部123に記憶される1以上の対象別ログテーブルM1,M2,・・・を読み出し、読み出された1以上の対象別ログテーブルM1,M2,・・・に記憶される顔向きデータに基づいて、id値に対応する通行者毎に、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する注視判定処理を実行する。また、制御ユニット11は、近接判定部115の制御の下、対象別ログテーブル記憶部123に記憶される1以上の対象別ログテーブルM1,M2,・・・を読み出し、読み出された1以上の対象別ログテーブルM1,M2,・・・に記憶される距離データに基づいて、id値に対応する通行者毎に、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かを判定する近接判定処理を実行する。 Finally, in step S306, the control unit 11 reads and reads one or more target log tables M1, M2,... Stored in the target log table storage unit 123 under the control of the gaze determination unit 114. For each passerby corresponding to the id M value, the face of the passer's face outputs the information output device 1 based on the face direction data stored in the one or more target-specific log tables M1, M2,. A gaze determination process for determining whether or not the time in which the predetermined range is included is equal to or longer than the first time is executed. Further, under the control of the proximity determination unit 115, the control unit 11 reads one or more target-specific log tables M1, M2,... Stored in the target-specific log table storage unit 123, Based on the distance data stored in the subject log tables M1, M2,..., The time that the passerby exists within a predetermined distance from the information output device 1 for each passerby corresponding to the id M value. The proximity determination process for determining whether or not is equal to or longer than the second time is executed.

(5)注視判定処理および近接判定処理の具体例
上述したように、通行者の状態は、注視判定処理と近接判定処理によって2種類の観点で判定される。すなわち、通行者の状態“sid”は、近接判定処理の判定結果“isNear(Mid)”と、注視判定処理の判定結果“isLooking(Mid)”とにより次式で表される。
(5) Specific Example of Gaze Determination Process and Proximity Determination Process As described above, the state of the passer is determined from two types of viewpoints by the gaze determination process and the proximity determination process. That is, the state "s id " of the passerby is represented by the following expression by the determination result "isNear (M id )" of the proximity determination process and the determination result "is Looking (M id )" of the gaze determination process.

図15は、図8のステップS306において実行される近接判定処理の一例を示す図である。
上述したように、当該近接判定処理は、距離測定センサ3から取得され通行者別に対象別ログテーブルM1,M2,・・・のいずれかに記憶される距離データに基づいて、id値に対応する通行者毎に、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かを判定する処理である。
FIG. 15 is a diagram illustrating an example of the proximity determination process executed in step S306 of FIG.
As described above, the proximity determination process corresponds to the id M value based on the distance data acquired from the distance measurement sensor 3 and stored in any of the object-specific log tables M1, M2,. This is a process for determining for each passerby whether or not the time during which the passerby is within a predetermined distance from the information output device 1 is equal to or longer than the second time.

上記所定の距離Rとして、例えば、ロボットと人間における個人的距離と社会的距離の境目として知られている100cmを用いてもよい。また、上記第2の時間Tとして、例えば、計測時間の半分の時間を用いてもよい。なお、上記所定の距離Rおよび上記時間Tは、任意の値であってもよい。 As the predetermined distance R B, for example, it may be used 100cm known as boundary personal distance and social distance in the robot and humans. Further, as the second time T 2, for example, may be used half the time of the measurement time. The predetermined distance R B and the time T 2 are, may be any value.

上記近接判定処理は、例えば、情報出力装置1のディスプレイ4からの距離R以内に通行者が時間T以上の時間いる場合にTrue、そうではない場合にFalseを返す、次式で表される関数を用いて実行される。当該関数は、距離測定センサ3から取得される情報出力装置1と通行者との間の距離の計測値Rに関する条件を規定する関数である。なお、次式では、時間Tが、計測時間の基準とする時間の半分の時間である(t−t´)/2である場合を示している。また、次式では、積分記号は台形則などの数値積分を表すものであり、 欠損値は値として無視するものとする。R(t)がすべて欠損値ならば計算不能としてotherwiseの条件が適用される。以下でも同様である。
The above-mentioned proximity determination process is expressed by the following equation, for example, which returns True if the passerby has a time T 2 or more within the distance R B from the display 4 of the information output device 1 and returns False otherwise. Is performed using the The function is a function defining a condition related to the measurement value R p of the distance between the information output apparatus 1 obtained from the distance measuring sensor 3 and the passerby. In the following equation, the time T 2 is illustrates the case where a half hours of time as a reference of the measurement time (t-t') / 2. Also, in the following equation, the integral symbol represents a numerical integral such as trapezoidal rule, and the missing value is ignored as a value. If R p (t) is all missing values, the otherwise condition is applied. The same applies to the following.

なお、上記の式中のUは単位ステップ関数であり、以下のように表される。
Note that U in the above equation is a unit step function and is expressed as follows.

図16は、図8のステップS306において実行される注視判定処理の一例を示す図である。
上述したように、当該注視判定処理は、顔認識センサ2から取得され通行者別に対象別ログテーブルM1,M2,・・・のいずれかに記憶される顔向きデータに基づいて、id値に対応する通行者毎に、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する処理である。
FIG. 16 is a diagram illustrating an example of gaze determination processing executed in step S306 of FIG.
As described above, the gaze determination process uses the id M value based on the face direction data acquired from the face recognition sensor 2 and stored in any of the subject-specific log tables M1, M2,. This is a process for determining for each corresponding passer whether or not the time when the face of the passer is facing a predetermined range including the information output device 1 is equal to or longer than the first time.

上記通行者の顔が情報出力装置1を含む所定の範囲を向いているか否かを判定する基準として、本実施形態では例えば角度を用いる。人間が頭を動かさずに刺激を捉えることができる視野角2θは、22.0度であると知られている。したがって、例えば、注視判定の上記基準角度として、視野角2θの22.0度を用いてもよい。また、上記第1の時間Tとして、例えば、計測時間の半分の時間を用いてもよい。なお、上記基準角度および上記時間Tは、任意の値であってもよい。 In the present embodiment, for example, an angle is used as a criterion for determining whether or not the face of the passerby faces the predetermined range including the information output device 1. It is known that the viewing angle 2θa at which a human can capture a stimulus without moving his head is 22.0 degrees. Thus, for example, as the reference angle of the gaze determination, it may be used 22.0 degrees viewing angle 2 [Theta] a. Further, as the time T 1 of the aforementioned first, for example, may be used half the time of the measurement time. Incidentally, the reference angle and the time T 1 may be of any value.

上記注視判定処理は、例えば、情報出力装置1のディスプレイ4の中心側を通行者が時間T以上の時間向いている場合にTrue、そうでない場合にFalseを返す、次式で表される関数を用いて実行される。当該関数は、顔認識センサ2から取得される上記で説明した計測値x,w,θに関する条件を規定する関数である。なお、次式では、時間Tが、計測時間の基準とする時間の半分の時間である(t−t´)/2である場合を示している。なお、次式では、θ,θ,θ(t)はラジアンを単位として表している。
The above-mentioned gaze determination process is, for example, True when a pedestrian is facing the center side of the display 4 of the information output device 1 for a time T 1 or more, and returns False otherwise, a function represented by the following equation Is performed using The function is a function that defines the conditions regarding the measurement values x, w, and θ h described above acquired from the face recognition sensor 2. The following equation shows the case where the time T 1 is (t−t ′) / 2, which is half of the time used as the reference of the measurement time. In the following equation, θ h , θ a , and θ p (t) are expressed in radians.

なお、θ(t)は以下のように表される。
Note that θ p (t) is expressed as follows.

なお、顔認識センサ2からの計測値x,w,θから、計測値x,wにより上記の式で算出されたθを用いて注視判定処理を実行する代わりに、距離測定センサ3からの計測値θをそのまま用いて上記注視判定処理を実行してもよい。 From the distance measurement sensor 3 instead of executing the gaze determination process from the measurement values x, w, θ h from the face recognition sensor 2 using the θ p calculated by the above equation using the measurement values x, w using measurements theta p it may execute the attention judgment process.

(6)情報出力装置1が出力制御する動作
図17は、図2に示した情報出力装置1の制御ユニット11によって実行される出力制御処理の一例を示すフロー図である。
(6) Operation of Output Control of Information Output Device 1 FIG. 17 is a flow chart showing an example of the output control process executed by the control unit 11 of the information output device 1 shown in FIG.

先ず、ステップS401において、制御ユニット11は、出力制御部116の制御の下、記憶ユニット12の所定の設定領域にアクセスして、0から1の範囲で乱数を計算して書き込む。   First, in step S401, the control unit 11 accesses a predetermined setting area of the storage unit 12 under the control of the output control unit 116, calculates and writes a random number in the range of 0 to 1.

次に、ステップS402において、制御ユニット11は、出力制御部116の制御の下、書き込まれた乱数がεより小さいか否かを判定する。   Next, in step S402, the control unit 11 determines whether or not the written random number is smaller than ε under the control of the output control unit 116.

ステップS402において書き込まれた乱数がεより小さくはないと判定された場合、ステップS403において、制御ユニット11は、出力制御部116の制御の下、記憶ユニット12の所定の設定領域にアクセスして、0から1の範囲で乱数を計算して書き込む。   When it is determined that the random number written in step S402 is not smaller than ε, in step S403, the control unit 11 accesses a predetermined setting area of the storage unit 12 under the control of the output control unit 116, and Calculate and write a random number in the range of 0 to 1.

ステップS404において、制御ユニット11は、出力制御部116の制御の下、書き込まれた乱数がεより小さいか否かを判定する。   In step S404, the control unit 11 determines whether or not the written random number is smaller than ε under the control of the output control unit 116.

ステップS404において書き込まれた乱数がεより小さくはないと判定された場合、ステップS405において、制御ユニット11は、出力制御部116の制御の下、行動価値テーブル記憶部124に記憶される行動価値テーブルを参照し、図8のステップS306における注視判定処理および近接判定処理の判定結果に対応付けられた上記1以上の通行者と複数種類の動作の組み合わせの中から、行動価値の値Qが最も高い動作に対応する通行者のid値と動作aとの組み合わせを選択する。 If it is determined in step S404 that the random number written is not smaller than ε, then in step S405, the control unit 11 stores the action value table stored in the action value table storage unit 124 under the control of the output control unit 116. Referring to FIG. 8, the action value Q is the highest among the combinations of the one or more passers-by and the plurality of types of actions associated with the determination results of the gaze determination process and the proximity determination process in step S306 of FIG. A combination of the passer's id M value and the action ai corresponding to the action is selected.

ステップS404において書き込まれた乱数がεより小さいと判定された場合、制御ユニット11は、出力制御部116の制御の下、図8のステップS306における注視判定処理および近接判定処理の判定結果に対応付けられた上記1以上の通行者と複数種類の動作の組み合わせの中から、ステップS406において、動作aをランダムに選択し、ステップS407において、上記1以上の通行者のうち当該選択された動作aの行動価値の値Qが最も高い通行者のid値を選択する。 If it is determined that the random number written in step S404 is smaller than ε, the control unit 11 associates the determination result of the gaze determination process and the proximity determination process in step S306 of FIG. 8 under the control of the output control unit 116. In step S406, an action a i is randomly selected from the combination of the one or more passers and the plurality of actions, and in step S407, the selected action a of the one or more passers is selected. Select the id M value of the passer whose value Q of i 's action value is the highest.

一方、ステップS402において書き込まれた乱数がεより小さいと判定された場合、ステップS408において、制御ユニット11は、出力制御部116の制御の下、記憶ユニット12の所定の設定領域にアクセスして、0から1の範囲で乱数を計算して書き込む。   On the other hand, when it is determined that the random number written in step S402 is smaller than ε, in step S408, the control unit 11 accesses a predetermined setting area of the storage unit 12 under the control of the output control unit 116, and Calculate and write a random number in the range of 0 to 1.

ステップS409において、制御ユニット11は、出力制御部116の制御の下、書き込まれた乱数がεより小さいか否かを判定する。   In step S409, the control unit 11 determines whether or not the written random number is smaller than ε under the control of the output control unit 116.

ステップS409において書き込まれた乱数がεより小さくはないと判定された場合、制御ユニット11は、出力制御部116の制御の下、図8のステップS306における注視判定処理および近接判定処理の判定結果に対応付けられた上記1以上の通行者と複数種類の動作の組み合わせの中から、ステップS410において、通行者のid値をランダムに選択し、ステップS411において、上記複数種類の動作のうち当該選択された通行者のid値に対応付けられた行動価値の値Qが最も高い動作aを選択する。 If it is determined in step S409 that the random number written is not smaller than ε, the control unit 11 determines the result of the gaze determination process and the proximity determination process in step S306 of FIG. 8 under the control of the output control unit 116. In step S410, a passer's id M value is randomly selected from the associated one or more passers-by and a plurality of types of actions, and in step S411, the selection is made among the plurality of types of actions. The action a i having the highest action value Q associated with the passer's id M value is selected.

ステップS409において書き込まれた乱数がεより小さいと判定された場合、制御ユニット11は、出力制御部116の制御の下、図8のステップS306における注視判定処理および近接判定処理の判定結果に対応付けられた上記1以上の通行者と複数種類の動作の組み合わせの中から、ステップS412において、動作aをランダムに選択し、ステップS413において、通行者のid値をランダムに選択する。 When it is determined that the random number written in step S409 is smaller than ε, the control unit 11 associates the determination result of the gaze determination process and the proximity determination process in step S306 of FIG. 8 under the control of the output control unit 116. From the combination of the one or more passersby and the plurality of types of actions, the action ai is randomly selected in step S412, and the id M value of the passer is randomly selected in step S413.

ステップS405において、ステップS406およびステップS407において、ステップS410およびステップS411において、あるいは、ステップS412およびステップS413において、動作aおよび通行者のid値が選択された後、ステップS414において、制御ユニット11は、選択された動作a、選択されたid値を示す信号、選択されたid値に関する対象別ログテーブルMidを出力する。これにより、例えば、選択されたid値に関する対象別ログテーブルMidにおける位置情報等を用いて、選択されたid値に対応する通行者に対して、選択された動作aに対応する画像情報または音声情報を出力することもできる。 In step S405, in steps S406 and S407, in steps S410 and S411, or in steps S412 and S413, after operation a i and the id M value of the passer are selected, control unit 11 is selected in step S414. outputs operation a i selected, a signal indicating the selected id M value, the target-specific log table M id for the selected id M values. Thus, for example, by using the positional information and the like in the target-specific log table M id for the selected id M value for passerby corresponding to id M value selected, corresponding to the selected operation a i Image information or audio information can also be output.

図18は、当該動作aおよび通行者のid値の選択処理において参照される行動価値テーブルの一例を示す図である。当該行動価値テーブルにおける行動価値の値が、例えば、図6のステップS104の行動価値テーブル初期化処理において設定される初期値となっている例を示している。なお、図18に示される行動価値テーブルに記憶される動作a,a,aは、図5で定義した動作a,a,aに一致している。 FIG. 18 is a diagram illustrating an example of an action value table referred to in the selection process of the action a i and the passer's id M value. The value of the action value in the said action value table has shown the example used as the initial value set in the action value table initialization process of FIG.6 S104, for example. The operation a 1, a 2, a 3 stored in the action-value table shown in FIG. 18 coincides with the operation a 1, a 2, a 3 defined in FIG.

行動価値テーブルは、例えば、情報出力装置1が取得する顔向きデータおよび距離データから得られる通行者の計測人数に応じて定められている。図18の(a)は、通行者の計測人数が0の場合に参照される行動価値テーブルの一例を示しており、図18の(b)は、通行者の計測人数が1の場合に参照される行動価値テーブルの一例を示している。   The action value table is determined according to the number of passersby obtained from the face orientation data and distance data acquired by the information output device 1, for example. (A) of FIG. 18 shows an example of the action value table to be referred to when the number of measured persons of the passer is 0, and (b) of FIG. 18 is referred to when the number of measured persons of the passer is 1 An example of the action value table to be performed is shown.

例えば図18の(a),(b)に示されているように、行動価値テーブルでは、各々、通行者毎に、当該通行者に対する近接判定処理の判定結果“isNear(Mid)”および注視判定処理の判定結果“isLooking(Mid)”の組み合わせの各々に対して、画像情報または音声情報を出力する3種類の動作a,a,aと、当該各動作a,a,aの行動価値の値が記憶されている。 For example, as shown in FIGS. 18A and 18B, in the behavior value table, for each passerby, the determination result “isNear (M id )” of the proximity determination process for the passerby and the gaze Three types of operations a 1 , a 2 , a 3 for outputting image information or audio information for each combination of determination results “isLooking (M id )” of the determination processing, and the respective operations a 1 , a 2 , A 3 action value values are stored.

すなわち、行動価値テーブルは、通行者の人数、着目する通行者のid値、当該通行者に対する近接判定処理の判定結果“isNear(Mid)”、当該通行者に対する注視判定処理の判定結果“isLooking(Mid)”、および動作aの種類に応じて、当該動作の行動価値の値Qを返すテーブルである。すなわち、行動価値の値Qは、Q(n,id,isNear(Mid),isLooking(Mid),a)で表すことができる。 That is, the action value table includes the number of passers, the id M value of the passerby, the determination result of the proximity determination process for the passer, "isNear (M id )", and the determination result of the gaze determination process for the passer This is a table that returns the value Q of the action value of the operation according to the type of isLooking (M id ) ”and the operation a i . That is, the action value Q can be expressed by Q (n, id M , isNear (M id ), isLooking (M id ), a i ).

ここでは計測人数が0または1の場合の、行動価値の値を初期値で表している行動価値テーブルの例を示したが、例えば、計測人数が2からNまでのテーブルは、次式によって定まる行動価値の値Qを初期値として用いて生成することができる。
Here, an example of the behavior value table in which the value of the behavior value is represented by the initial value when the number of measured people is 0 or 1 is shown, but for example, a table with the number of measured people from 2 to N is determined by the following equation. The action value value Q can be used as an initial value.

なお、通行者に対する近接判定処理の判定結果“isNear(Mid)”および注視判定処理の判定結果“isLooking(Mid)の各組合せに対して、対応付けられている各動作a,a,aの行動価値の値を調節することによって、通行者の近接判定処理の判定結果“isNear(Mid)”および注視判定処理の判定結果“isLooking(Mid)の各組合せに応じて実行されやすい動作を定めることができる。 Incidentally, the proximity determination processing of the determination result for passerby "isNear (M id)" and for each combination of attention judgment processing of the judgment result of "isLooking (M id), each operation is associated a 1, a 2 , by adjusting the value of the activation level of a 3, executed in accordance with each combination of passerby proximity determination processing of the determination result "isNear (M id)" and the attention judgment processing of the judgment result of "isLooking (M id) It is possible to define an action that is easy to be done.

例えば、近接判定処理の判定結果“isNear(Mid)”がFalse、および、注視判定処理の判定結果“isLooking(Mid)”がFalseの組み合わせに対しては、誘導を実行しない動作aが選択される確率を高くするために、任意の通行者に対して当該動作aの行動価値の値を高い値に設定していてもよい。 For example, the proximity determination processing of the determination result "isNear (M id)" is False, and, for the combination of the determination result of the attention judgment processing "isLooking (M id)" is False, the operation a 3 is not executed induction in order to increase the probability of being selected, the value of the activation level of the operation a 3 may be set to a higher value for any passerby.

また、近接判定処理の判定結果“isNear(Mid)”がFalse、および、注視判定処理の判定結果“isLooking(Mid)”がTrueである組み合わせに対しては、誘導を実行する動作aが選択される確率を高くするために、任意の通行者に対して当該動作aの行動価値の値を高い値に設定していてもよい。 Also, the proximity determination processing of the determination result "isNear (M id)" is False, and, for the combined determination result of the attention judgment processing "isLooking (M id)" is True, operating a 2 to perform induction There in order to increase the probability of being selected, the value of the activation level of the operation a 2 may be set to a higher value for any passerby.

さらに、近接判定処理の判定結果“isNear(Mid)”がTrue、および、注視判定処理の判定結果“isLooking(Mid)”がTrueまたはFalseである組み合わせに対しては、誘導を実行する動作ではあるが、出力される音声に通行者の注意を引くための効果音が含まれずゆえに音量が小さいものとなっている動作aが選択される確率を高くするために、任意の通行者に対して当該動作aの行動価値の値を高い値に設定していてもよい。 Furthermore, the proximity determination processing decision result "isNear (M id)" is True, and the operation determination result of the attention judgment processing "isLooking (M id)" is for the combination is True or False, to perform induction However, in order to increase the probability of selecting the action a 1 whose volume is low because the output sound does not include a sound effect for attracting the passer's attention, an arbitrary passerby can be selected. the value of the activation level of the operation a 1 may be set to a higher value for.

なお、上述した行動価値の値の設定は一例に過ぎず、例えば、近接判定処理の判定結果“isNear(Mid)”がTrue、および、注視判定処理の判定結果“isLooking(Mid)”がTrueである組み合わせに対してのみ、誘導を実行する動作a,aが選択される確率が高くなるように、各動作の行動価値の値の設定をしてもよい。さらに、動作a,a,aは、図5において、いずれも画像情報を出力するものとして定義したが、例えば、画像情報と音声情報のいずれも出力しないような動作であってもよい。 Note that the setting of the value of the action value described above is merely an example, and for example, the determination result of the proximity determination processing “isNear (M id )” is True, and the determination result of the fixation determination processing “isLooking (M id )” is The action value of each operation may be set so that the probability that the operations a 1 and a 2 for performing guidance are selected is high only for the combination that is True. Furthermore, although each of the operations a 1 , a 2 , and a 3 is defined as outputting image information in FIG. 5, for example, an operation may be such that neither image information nor audio information is output. .

(7)情報出力装置1が行動価値テーブルを更新する動作
図19は、図2に示した情報出力装置1の制御ユニット11によって実行される行動価値テーブル更新処理の一例を示すフロー図である。
(7) Operation of Information Output Device 1 Updating Action Value Table FIG. 19 is a flowchart showing an example of action value table update processing executed by the control unit 11 of the information output device 1 shown in FIG.

先ず、ステップS501において、制御ユニット11は、図17のステップS414における処理によって動作aに対応する画像情報または音声情報が例えば出力された際の通行者の人数nが0より大きいか否かを判定する。 First, in step S501, the control unit 11 determines whether or not the number n of passers-by when the image information or audio information corresponding to the operation a i is output by the processing in step S414 in FIG. judge.

通行者の人数nが0より大きいと判定された場合、ステップS502において、制御ユニット11は、図17に示した情報出力装置1の出力制御処理の際に使用したid値のセットを、id´値のセットとして記憶ユニット12の所定の領域に記憶させる。 If it is determined that the number n of passers-by is greater than 0, in step S502, the control unit 11 sets the id M value set used in the output control process of the information output apparatus 1 shown in FIG. It is stored in a predetermined area of the storage unit 12 as a set of M 'values.

また、ステップS503において、制御ユニット11は、図17に示した情報出力装置1の出力制御処理の際に使用した通行者の人数nの値を、n´の値として記憶ユニット12の所定の領域に記憶させる。   Further, in step S503, the control unit 11 sets the value of the number n of passersby used in the output control process of the information output apparatus 1 shown in FIG. Remember me.

次に、ステップS504において、制御ユニット11は、所定の時間、計測値取得処理を停止する。当該所定の時間は、例えば情報出力装置1によって出力される画像情報または音声情報の再生時間に対応するものであってもよい。例えば、当該再生時間が10秒以上の時間の場合には当該所定の時間を10秒間とすることによって、情報出力装置1が上記計測値取得処理の停止後に次に計測値取得処理を開始する時刻が、上記画像情報または音声情報の出力期間中の時刻にあたるようにしてもよい。なお、当該所定の時間は、情報出力装置1が上記計測値取得処理の停止後に次に計測値取得処理を開始する時刻が、上記画像情報または音声情報の再生時間が終わっている時刻にあたるようにしてもよい。   Next, in step S504, the control unit 11 stops the measurement value acquisition process for a predetermined time. The predetermined time may correspond to, for example, the reproduction time of image information or audio information output by the information output device 1. For example, when the reproduction time is 10 seconds or more, by setting the predetermined time to 10 seconds, the time at which the information output device 1 starts the next measurement value acquisition process after stopping the measurement value acquisition process. However, it may be the time during the output period of the image information or audio information. The predetermined time is set such that the time when the information output device 1 starts the measurement value acquisition process next after the measurement value acquisition process stops corresponds to the time when the reproduction time of the image information or the audio information is over. It may be

ステップS505において、制御ユニット11は、顔向きデータ取得部111および距離データ取得部112の制御の下、通行者に係る顔向きデータおよび距離データを経時的に取得する。当該取得処理は、例えば、図7のステップS207における処理と同一の所定の時間Tを基準に実行してもよい、あるいは、図7のステップS207における処理と異なる時間を基準に実行してもよい。なお、当該取得処理は、上記画像情報または音声情報の出力期間中または出力期間後に実行される。   In step S <b> 505, the control unit 11 acquires the face direction data and distance data related to the passerby over time under the control of the face direction data acquisition unit 111 and the distance data acquisition unit 112. The acquisition process may be performed based on, for example, the same predetermined time T as the process in step S207 of FIG. 7 or may be performed based on a time different from the process in step S207 of FIG. . The acquisition process is executed during or after the output period of the image information or audio information.

次に、ステップS506において、制御ユニット11は、図8のステップS301からステップS306における処理と同様の処理を実行する。すなわち、制御ユニット11は、注視判定部114の制御の下、ステップS505における処理において取得された顔向きデータに基づいて、新たに付与されるid値に対応する通行者毎に、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する。また、制御ユニット11は、近接判定部115の制御の下、ステップS505における処理において取得された距離データに基づいて、id値に対応する通行者毎に、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かを判定する。 Next, in step S506, the control unit 11 performs the same processing as the processing in steps S301 to S306 in FIG. That is, under the control of the gaze determination unit 114, the control unit 11 performs, for each passerby corresponding to the newly assigned id M value, the passerby based on the face orientation data acquired in the process in step S505. It is determined whether the time during which the face of the person faces the predetermined range including the information output device 1 is equal to or longer than the first time. Further, under the control of the proximity determination unit 115, the control unit 11 sets a predetermined distance from the information output device 1 for each passerby corresponding to the id M value based on the distance data acquired in the process in step S505. It is determined whether or not the time during which the passerby is present is equal to or longer than the second time.

ステップS507において、制御ユニット11は、呼び掛け成否判定部117の制御の下、ステップS506における注視判定処理および近接判定処理により得られる判定結果に基づいて、上記画像情報または音声情報の出力による通行者への呼び掛けに応じて通行者が装置を利用したか否かを判定する。   In step S507, the control unit 11 controls the passerby by outputting the image information or the audio information based on the determination result obtained by the gaze determination process and the proximity determination process in step S506 under the control of the call success / failure determination unit 117. It is determined whether or not a passerby has used the device in response to the call.

上記画像情報または音声情報の出力による通行者への呼び掛けに応じて通行者が装置を利用したか否かは、次の判定式によって判定される。
Whether or not the passer-by has used the device in response to a call to the passer-by by outputting the image information or the audio information is determined by the following determination formula.

すなわち、少なくとも1の通行者に対して、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であり、かつ、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であると判定された場合に、上記画像情報または音声情報の出力による通行者への呼び掛けが成功して通行者が装置を利用したと判定される。なお、ステップS506およびステップS507の上記説明では、当該注視判定処理および近接判定処理において、図8のステップS306において基準とした第1の時間および第2の時間と同一の時間を基準にして処理を実行するものとして説明したが、図8のステップS306において基準とした第1の時間および第2の時間と各々異なる時間を基準にして処理を実行するものとしてもよい。   That is, for at least one passerby, the time when the face of the passerby faces the predetermined range including the information output device 1 is the first time or more, and the predetermined distance from the information output device 1 When it is determined that the time when the passer is present is equal to or more than the second time, the call to the passer by the output of the image information or the voice information is successful and the passerby uses the device It is judged. In the above description of step S506 and step S507, in the gaze determination process and the proximity determination process, the process is performed based on the same time as the first time and the second time which are the reference in step S306 of FIG. Although described as being executed, the process may be executed based on times different from the first time and the second time as the reference in step S306 of FIG.

ステップS507において、画像情報または音声情報の出力による通行者への呼び掛けが成功して通行者が装置を利用したと判定された場合、ステップS508において、制御ユニット11は、行動価値テーブル更新部119の制御の下、実行された動作aの行動価値の値Qを増加させる。 If it is determined in step S507 that calling to the passerby by output of image information or voice information is successful and it is determined that the passerby has used the device, in step S508, the control unit 11 determines that the action value table updating unit 119 Under the control, the action value Q of the executed action a i is increased.

一方、ステップS507において、画像情報または音声情報の出力による通行者への呼び掛けが成功せずに通行者が装置を利用しなかったと判定された場合は、ステップS509において、制御ユニット11は、行動価値テーブル更新部119の制御の下、実行された動作aの行動価値の値Qを減少させる。 On the other hand, if it is determined in step S507 that the passerby has not been successfully called out by outputting the image information or the voice information and it is determined that the passerby did not use the device, the control unit 11 performs action value in step S509. Under the control of the table updating unit 119, the action value Q of the executed action a i is decreased.

なお、ステップS508およびステップS509における行動価値の値Qを増減させる処理は、例えば、次の漸化式にしたがって実行される。
In addition, the process which increases / decreases the value Q of the action value in step S508 and step S509 is performed according to the following recurrence formula, for example.

すなわち、通行者への呼び掛けが成功したと判定された場合には、上記出力制御処理の際の通行者の人数nに対応する行動価値テーブルにおいて、通行者の各々に対して、当該通行者に対する注視判定処理および近接判定処理における判定結果に対応付けられた、実行された動作aの行動価値の値Qが増加される。 That is, when it is determined that the call to the passer is successful, in the action value table corresponding to the number n of passers in the output control process, for each passer, The action value Q of the executed action a i associated with the determination results in the gaze determination process and the proximity determination process is increased.

一方、通行者への呼び掛けが失敗したと判定された場合には、上記出力制御処理の際の通行者の人数nに対応する行動価値テーブルにおいて、通行者の各々に対して、当該通行者に対する注視判定処理および近接判定処理における判定結果に対応付けられた、実行された動作aの行動価値の値Qが減少される。 On the other hand, if it is determined that the call to the passer has failed, in the action value table corresponding to the number n of passers in the output control process, for each passer, The action value Q of the executed action a i associated with the determination results in the gaze determination process and the proximity determination process is decreased.

なお、上記漸化式は、通行者の数n´のときに呼び掛けした際に、当該呼び掛けに応じて利用した割合(利用回数/呼びかけ回数)という意味がある。   The above recurrence formula has a meaning of a ratio (the number of times of use / the number of calls) used according to the call when the number n ′ of passersby calls.

最後に、ステップS510において、制御ユニット11は、記憶ユニット12の所定の設定記憶領域にアクセスして、学習回数ベクトルKの要素Kn´の値を1インクリメントする。 Finally, in step S510, the control unit 11 accesses a predetermined setting storage area of the storage unit 12 and increments the value of the element K n 'of the learning number vector K by one.

(8)統合ログテーブル生成処理の具体例
ここでは、図8のステップS301からステップS304において実行される、頭状態ログテーブルHと体状態ログテーブルBとを通行者情報を追加した上で組み合わせて、統合ログテーブルMを生成させる処理について詳しく説明する。
(8) Specific Example of Integrated Log Table Generation Processing Here, the head state log table H and the body state log table B, which are executed in steps S301 to S304 in FIG. The process of generating the integrated log table M will be described in detail.

図20は、情報出力装置1において取得される顔向きデータおよび距離データの計測値の各パラメータセットに、最近傍法を利用して通行者情報を追加するトラッキング処理の概念図である。各パラメータセットについて、時間的に隣接する各パラメータセットとの距離を算出し、算出された距離が最も小さいパラメータセットを同一の通行者に係るパラメータセットであると判定する。ただし、距離が最も近いパラメータセットであっても、当該距離が所定の値より大きい場合には、異なる通行者に係るパラメータセットであると判定するようにする。   FIG. 20 is a conceptual diagram of a tracking process of adding passer information to each parameter set of measured values of face direction data and distance data acquired in the information output device 1 using the nearest neighbor method. For each parameter set, the distance to each temporally adjacent parameter set is calculated, and it is determined that the parameter set with the smallest calculated distance is the parameter set for the same passerby. However, even if the distance is the closest parameter set, if the distance is greater than a predetermined value, it is determined that the parameter set relates to a different passerby.

本実施形態では、頭状態ログテーブルHに記憶される1以上の通行者に係る顔向きデータにおいて、最近傍法を利用して通行者情報を追加するトラッキング処理を実行し、同一の通行者のパラメータセットには同一のid値が付与されるようにし、異なる通行者のパラメータセットには異なるid値が付与されるようにする。また、体状態ログテーブルBにおいても同様の処理を実行し、各パラメータセットにid値が付与される。 In the present embodiment, in the face direction data related to one or more passersby stored in the head status log table H, tracking processing is performed to add passer information using the nearest neighbor method, and the same passer The same id H value is assigned to the parameter set, and different id H values are assigned to different passer parameter sets. The same process is executed in the body state log table B, and an id B value is assigned to each parameter set.

図21は、図8のステップS301において実行される、頭状態ログテーブルHの各パラメータセットに通行者情報であるid値を付与して頭状態ログテーブルH´を生成させる処理の一例、ならびに、図8のステップS302において実行される、体状態ログテーブルBの各パラメータセットに通行者情報であるid値を付与して体状態ログテーブルB´を生成させる処理の一例を示すフロー図である。 FIG. 21 shows an example of processing for generating the head state log table H ′ by assigning id H values that are passer-by information to each parameter set of the head state log table H, which is executed in step S301 of FIG. 8 is a flow chart showing an example of processing executed at step S302 in FIG. 8 to generate body condition log table B ′ by giving id B value which is passerby information to each parameter set of body condition log table B. is there.

以下では、例として、頭状態ログテーブルHから頭状態ログテーブルH´を生成する例について詳細に説明する。
当該頭状態ログテーブルH´および体状態ログテーブルB´の生成処理は、図20に図示したトラッキング処理によって実行される。
Hereinafter, as an example, an example of generating the head state log table H ′ from the head state log table H will be described in detail.
The generation process of the head state log table H ′ and the body state log table B ′ is executed by the tracking process illustrated in FIG.

ステップS601において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHを読み出す。   In step S <b> 601, the control unit 11 reads the head state log table H stored in the head state log table H storage unit 121 under the control of the target log table generation unit 113.

ステップS602において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、読み出された頭状態ログテーブルHに計測開始時刻とともに記憶されているパラメータセットにid値を付与する。なお、計測開始時刻とともに記憶されているパラメータセットが複数ある場合には、各パラメータセットに対して各々異なるid値を付与する。 In step S602, the control unit 11 adds an id H value to the parameter set stored together with the measurement start time in the read head state log table H under the control of the by-target log table generation unit 113. When there are a plurality of parameter sets stored together with the measurement start time, different id H values are assigned to the respective parameter sets.

ステップS603において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id値の付与処理の基準時刻として、先ず計測開始時刻を選択する。 In step S < b> 603, the control unit 11 first selects a measurement start time as a reference time for the id H value assignment process under the control of the target log table generation unit 113.

ステップS604において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id値の付与処理の基準id値として、上記選択された計測開始時刻とともに記憶されているパラメータセットに各々付与されたid値の中から開始id値を選択する。ここでは、例として、開始id値として1が選択されたとして説明する。 Each In step S604, the control unit 11, under the control of the target-specific log table generating unit 113, as a reference id H value of grant processing id H value, the parameter sets stored together with the selected measurement start time selecting a starting id H values from the granted id H value. Here, as an example, it is assumed that 1 is selected as the start id H value.

次に、ステップS605において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルHに記憶されている、上記基準時刻より後の時間的に隣接するパラメータセット(xtrack,ytrack,wtrack)のうちに、上記基準時刻とともに記憶され基準id値である1が付与されているパラメータセット(xrow,yrow,wrow)との距離が、所定の空間距離内のものがあるか否かを判定する。なお、当該所定の空間距離は、例えば、固定の値でも、パラメータセット間の時間差に比例するものであってもよい。なお、上記空間距離は、次式を用いて算出される。
Next, in step S605, the control unit 11 stores the temporally adjacent parameter set after the reference time stored in the head status log table H under control of the subject-specific log table generation unit 113 (x Among track , y track and w track ), a distance to a parameter set (x row , y row , w row ) stored with the above reference time and to which 1 which is a reference id H value is given is a predetermined space Determine if there is something in the distance. The predetermined spatial distance may be, for example, a fixed value or proportional to the time difference between parameter sets. The spatial distance is calculated using the following equation.

ステップS605において所定の空間距離内のパラメータセットがあると判定された場合、ステップS606において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、当該所定の空間距離内のパラメータセットのうち空間距離が最も小さいパラメータセットに、id値として基準id値と同一の値である1を付与する。 If it is determined in step S605 that there is a parameter set within the predetermined spatial distance, the control unit 11 determines the parameter set within the predetermined spatial distance under the control of the target-specific log table generation unit 113 in step S606. Among them, 1 which is the same value as the reference id H value is assigned as the id H value to the parameter set having the smallest spatial distance.

ステップS605において所定の空間距離内のパラメータセットがないと判定された場合、あるいは、ステップS606における処理の後に、ステップS607において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、基準時刻とともに記憶されている各パラメータセットに付与されているすべてのid値を基準として、ステップS605およびステップS606の処理が完了したか否かが判定される。基準時刻とともに記憶されている各パラメータセットに付与されているすべてのid値を基準としてステップS605およびステップS606の処理が完了していないと判定された場合、ステップS608において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、基準id値を、基準時刻とともに記憶されているパラメータセットに付与されているid値の範囲の次のid値にインクリメントし、ステップS605からの処理が繰り返される。 If it is determined in step S605 that there is no parameter set within the predetermined spatial distance, or after the processing in step S606, the control unit 11 performs the reference under the control of the target log table generation unit 113 in step S607. based all id H values that are assigned to each parameter set stored together with the time, whether or not the processing of steps S605 and step S606 has been completed is determined. If it is determined that the processing in step S605 and step S606 is not completed on the basis of all id H values assigned to each parameter set stored together with the reference time, in step S608, the control unit 11 Under the control of the target log table generation unit 113, the reference id H value is incremented to the next id H value in the range of the id H value assigned to the parameter set stored together with the reference time, and from step S605 The process is repeated.

基準時刻とともに記憶されている各パラメータセットに付与されているすべてのid値を基準としてステップS605およびステップS606の処理が完了したと判定された場合、ステップS609において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、上記基準時刻より後の時間的に隣接するパラメータセットのうち未だid値が付与されていないパラメータセットに対して、いずれかのパラメータセットに既に付与されているid値とは異なる新たなid値を付与する。 If it is determined that the processing in step S605 and step S606 is completed on the basis of all id H values assigned to each parameter set stored together with the reference time, in step S609, the control unit 11 Under the control of the log table generation unit 113, one of the parameter sets to which the id H value has not been assigned yet among the parameter sets that are temporally adjacent after the reference time is already assigned to any parameter set. to impart a different new id H value is the id H values are.

ステップS610において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、計測されたすべての時刻を基準時刻としてステップS604からステップS609までの処理が完了したか否かを判定する。計測されたすべての時刻を基準時刻としてステップS604からステップS609までの処理が完了していないと判定された場合は、ステップS611において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、基準時刻をインクリメントし、ステップS604からステップS609までの処理が繰り返される。   In step S610, the control unit 11 determines under the control of the by-target log table generation unit 113 whether all the measured times are used as the reference time and whether the processing from step S604 to step S609 is completed. If it is determined that the processing from step S604 to step S609 is not completed with all the measured times as the reference time, in step S611, the control unit 11 performs control under the control of the object-specific log table generation unit 113. The reference time is incremented, and the processing from step S604 to step S609 is repeated.

計測されたすべての時刻を基準時刻としてステップS604からステップS609までの処理が完了したと判定された場合、ステップS612において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルHに記憶されるすべてのパラメータセットにid値が付与されたログテーブルH´を出力し、記憶ユニット12の所定の領域に記憶させる。 When it is determined that the processing from step S604 to step S609 has been completed using all the measured times as reference times, in step S612, the control unit 11 controls the head state under the control of the target log table generation unit 113. A log table H ′ in which id H values are assigned to all parameter sets stored in the log table H is output and stored in a predetermined area of the storage unit 12.

上記では頭状態ログテーブルHから頭状態ログテーブルH´を生成する例について詳細に説明したが、体状態ログテーブルBから体状態ログテーブルB´も同様の方法で生成される。   Although the example which produces head state log table H 'from head state log table H was explained in detail in the above, body state log table B' is generated from body state log table B by the same method.

ただし、体状態ログテーブルB´を生成する場合には、ステップS605における空間距離は、パラメータセット(R,θ)を用いて、
によって算出される。
However, when generating the body state log table B ′, the spatial distance in step S605 is calculated using the parameter set (R p , θ p ).
Is calculated by

図22は、図8のステップS303において実行される、同一の通行者を示しているid値とid値とを対応付けるマッチリストを生成させる処理の一例を示すフロー図である。 FIG. 22 is a flowchart illustrating an example of a process for generating a match list that associates id H values and id B values indicating the same passers, which are executed in step S303 of FIG.

ステップS701において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、記憶ユニット12に記憶される頭状態ログテーブルH´と体状態ログテーブルB´とを読み出す。   In step S <b> 701, the control unit 11 reads the head state log table H ′ and the body state log table B ′ stored in the storage unit 12 under the control of the target log table generation unit 113.

ステップS702において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´に記憶される、同一のid値が付与されたパラメータセットの時系列データと、体状態ログテーブルB´に記憶される、同一のid値が付与されたパラメータセットの時系列データとの間のDTW(Dynamic Time Warping)距離を、id値とid値との各組合せに対して算出する。 In step S702, the control unit 11 stores the time-series data of the parameter set with the same id H value stored in the head state log table H ′ under the control of the target log table generation unit 113, the body The DTW (Dynamic Time Warping) distance between the time-series data of the parameter set assigned with the same id B value and stored in the state log table B ′ is set to each combination of id H value and id B value. To calculate.

ステップS703において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、算出されたDTW距離のうち最も小さいものを選択する。   In step S <b> 703, the control unit 11 selects the smallest one of the calculated DTW distances under the control of the target log table generation unit 113.

ステップS704において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、選択されたDTW距離の値が所定の値より小さいか否かを判定する。   In step S704, the control unit 11 determines whether or not the value of the selected DTW distance is smaller than a predetermined value under the control of the target log table generation unit 113.

選択されたDTW距離の値が所定の値より小さいと判定された場合、ステップS705において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、選択されたDTW距離に対応するid値およびid値を対応付ける。 When it is determined that the selected DTW distance value is smaller than the predetermined value, in step S705, the control unit 11 controls the id H corresponding to the selected DTW distance under the control of the target log table generation unit 113. Associate the value with the id B value.

ステップS706において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id値とid値の両方において、上記対応付けがされていないものがあるか否かを判定する。 In step S706, the control unit 11 determines, under the control of the by-target log table generation unit 113, whether or not there is any id H value and id B value that are not associated with each other.

id値とid値の両方において、上記対応付けがされていないものがあると判定された場合、ステップS707において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、既に対応付けがされたid値およびid値を除くid値とid値との各組合せに対して算出されたDTW距離のうち最も小さいものを選択する。選択されたDTW距離について、ステップS704からの処理が繰り返される。 When it is determined that there is a case in which the above association is not made in both the id H value and the id B value, in step S 707, the control unit 11 has already taken action under the control of the object-specific log table generation unit 113. It marked with been id H values and selects the smallest of the DTW distance calculated for each combination of id H value and id B values except id B values. The process from step S704 is repeated for the selected DTW distance.

ここで、ステップS704において、最も小さいものとして選択されたDTW距離の値が所定の値より大きいと判定された場合、あるいは、ステップS706において、すべてのid値またはすべてのid値について上記対応付けがされていると判定された場合に、id値とid値との間のマッチングは完了し、ステップS708において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id値とid値との対応付けを示すマッチリストを出力し、記憶ユニット12の所定の領域に記憶させる。 Here, if it is determined in step S704 that the value of the DTW distance selected as the smallest value is greater than a predetermined value, or in step S706, all the id H values or all id B values are handled as described above. If it is determined that the ID H value has been added, the matching between the id H value and the id B value is completed, and in step S 708, the control unit 11 executes the id processing under the control of the object-specific log table generation unit 113. A match list indicating the association between the H value and the id B value is output and stored in a predetermined area of the storage unit 12.

図23は、図8のステップS304において実行される、頭状態ログテーブルH´と体状態ログテーブルB´とをマッチリストを利用して組み合わせて、統合ログテーブルMを生成させる処理の一例を示すフロー図である。   FIG. 23 shows an example of processing for generating the integrated log table M by combining the head status log table H ′ and the body status log table B ′ using the match list, which is executed in the step S304 of FIG. FIG.

ステップS801において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、記憶ユニット12に記憶される頭状態ログテーブルH´と体状態ログテーブルB´とマッチリストとを読み出す。   In step S801, the control unit 11 reads out the head status log table H ′, the body status log table B ′, and the match list stored in the storage unit 12 under the control of the by-target log table generation unit 113.

ステップS802において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、読み出された頭状態ログテーブルH´および体状態ログテーブルB´を各々複製した、頭状態ログテーブルH´´および体状態ログテーブルB´´を生成する。   In step S802, the control unit 11 duplicates the read head status log table H ′ and the body status log table B ′ under the control of the subject-specific log table generation unit 113, and the head status log table H ′ ′ And a body state log table B ″.

ステップS803において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、マッチリストからid値とid値との対応付けの1つを選択する。 In step S803, the control unit 11 selects one of the correspondence between the id H value and the id B value from the match list under the control of the by-target log table generation unit 113.

ステップS804において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´に記憶されるパラメータセットのうち、選択された対応付けに関するid値が付与されたパラメータセットと、体状態ログテーブルB´´に記憶されるパラメータセットのうち、選択された対応付けに関するid値が付与されたパラメータセットとに、いずれかのパラメータセットに既に付与されているid値とは異なる新たなid値を付与する。 In step S804, the control unit 11 is given an id H value related to the selected association among the parameter sets stored in the head state log table H ″ under the control of the target log table generation unit 113. The id that has already been assigned to one of the parameter sets and one of the parameter sets stored in the physical condition log table B ′ ′ to which the id B value related to the selected association has been assigned. to impart a different new id M value and M value.

ステップS805において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、マッチリストにおけるid値とid値とのすべての対応付けについてステップS804の処理が完了したか否かを判定する。id値とid値とのすべての対応付けについてステップS804の処理が完了していないと判定された場合、ステップS806において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、マッチリストから未処理のid値とid値との対応付けの1つを選択する。その後、ステップS804からの処理が繰り返される。 In step S805, the control unit 11 determines whether or not the process in step S804 has been completed for all associations between id H values and id B values in the match list under the control of the target log table generation unit 113. To do. If it is determined that the processing in step S804 has not been completed for all the associations between the id H value and the id B value, in step S806, the control unit 11 controls the target log table generation unit 113 under the control. Select one of the correspondences between the unprocessed id H value and id B value from the match list. Thereafter, the process from step S804 is repeated.

ステップS805において、id値とid値とのすべての対応付けについてステップS804の処理が完了したと判定された場合、ステップS807において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´においてid列を削除し、体状態ログテーブルB´´においてid列を削除する。 If it is determined in step S805 that the processing in step S804 has been completed for all associations between id H values and id B values, the control unit 11 performs control of the target log table generation unit 113 in step S807. Below, the id H column is deleted in the head state log table H ″ , and the id B column is deleted in the body state log table B ″ .

ステップS808において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´において、R列とθ列を、値をすべてNAで埋めて追加する。なお、当該処理後の頭状態ログテーブルH´´は、図11に示した頭状態ログテーブルH´´の例に対応する。一方、ステップS809において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、体状態ログテーブルB´´において、x列、y列、w列、θ列を、値をすべてNAで埋めて追加する。なお、当該処理後の体状態ログテーブルB´´は、図12に示した体状態ログテーブルB´´の例に対応する。なお、ステップS808とステップS809との処理の順序は問わない。 In step S 808, the control unit 11 adds all values in the column R p and the column θ p in the head state log table H ′ ′ under the control of the object-specific log table generation unit 113 and adds the values. The head state log table H ″ after the processing corresponds to the example of the head state log table H ″ illustrated in FIG. On the other hand, in step S 809, the control unit 11 controls all the x columns, y columns, w columns, and θ h columns in the body state log table B ′ ′ under the control of the object-specific log table generation unit 113. Fill in and add. Note that the post-processing body state log table B ″ corresponds to the example of the body state log table B ″ illustrated in FIG. In addition, the order of the process of step S808 and step S809 does not matter.

ステップS810において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´と体状態ログテーブルB´´とを組み合わせて統合ログテーブルMを生成する。   In step S810, the control unit 11 generates an integrated log table M by combining the head state log table H ″ and the body state log table B ″ under the control of the target log table generation unit 113.

ステップS811において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、統合ログテーブルMからm列を削除する。   In step S811, the control unit 11 deletes m columns from the integrated log table M under the control of the target log table generation unit 113.

ステップS812において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、統合ログテーブルMを出力し、記憶ユニット12の所定の領域に記憶させる。なお、当該統合ログテーブルMは、図13に示した統合ログテーブルMの例に対応する。   In step S 812, the control unit 11 outputs the integrated log table M under the control of the target log table generation unit 113 and stores it in a predetermined area of the storage unit 12. The integrated log table M corresponds to the example of the integrated log table M shown in FIG.

(効果)
以上詳述したように、この発明の第1の実施形態では、以下のような効果が奏せられる。
(1)顔向きデータ取得部111の制御の下、顔認識センサ2から、1以上の通行者に係る顔向きデータが経時的に取得され、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHに書き込まれる。一方、距離データ取得部112の制御の下、距離測定センサ3から、情報出力装置1と1以上の通行者との間の距離データが取得され、体状態ログテーブルB記憶部122に記憶される体状態ログテーブルBに書き込まれる。その後、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルHと体状態ログテーブルBとから、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルが生成される。その後、注視判定部114の制御の下、通行者別の1以上の対象別ログテーブルに基づいて、通行者毎に、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かが判定される注視判定処理が実行される。また、近接判定部115の制御の下、通行者別の1以上の対象別ログテーブルに基づいて、通行者毎に、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かが判定される近接判定処理が実行される。その後、出力制御部116の制御の下、行動価値テーブルが参照され、通行者毎の注視判定処理および近接判定処理の判定結果に基づいて、情報出力装置1が画像情報または音声情報を出力することにより実行する動作aと、当該動作aの対象とする通行者のid値とが選択され、選択された動作a、選択されたid値を示す信号、選択されたid値に関する対象別ログテーブルMidが出力される。
(effect)
As described in detail above, the first embodiment of the present invention has the following effects.
(1) Under the control of the face orientation data acquisition unit 111, the head orientation data related to one or more passers is acquired over time from the face recognition sensor 2 and stored in the head state log table H storage unit 121. The status log table H is written. On the other hand, under the control of distance data acquisition unit 112, distance data between information output device 1 and one or more passersby is acquired from distance measurement sensor 3 and stored in physical condition log table B storage unit 122. It is written to the physical condition log table B. Thereafter, under the control of the target log table generation unit 113, one or more targets for each passerby that integrate face direction data and distance data for each passerby from the head state log table H and the body state log table B Another log table is generated. Thereafter, the face of the passer is facing a predetermined range including the information output device 1 for each passerby, based on one or more target-specific log tables for each passerby under the control of the gaze determination unit 114. A gaze determination process in which it is determined whether or not the time is equal to or longer than the first time is executed. Further, under the control of the proximity determination unit 115, the time during which the passer is present within a predetermined distance from the information output device 1 is determined for each passer based on one or more target-specific log tables for each passer. Proximity determination processing for determining whether or not the time is equal to or longer than 2 is executed. Thereafter, the action value table is referred to under the control of the output control unit 116, and the information output device 1 outputs the image information or the voice information based on the determination result of the gaze determination process and the proximity determination process for each passer. and operating a i to be executed by being subject to passerby id M value and is selected to be of the operation a i, selected operating a i, a signal indicating the selected id M values, selected id M value The per-target log table M id is output.

顔向きは視線に方向がおおよそ一致するものであり、それゆえ通行者の顔向きは、情報出力装置1と通行者との間の距離と同様に、通行者が情報出力装置1に興味を示しているか否かを判断するために有用である。したがって、上述したように情報出力装置1と通行者との間の距離に加えて通行者の顔向きを基準として用いることにより、例えば情報出力装置1に対して確かに興味を示している通行者を対象として、画像情報または音声情報を出力することが可能となる。   The face direction corresponds to the line of sight, so that the passer's face direction is similar to the distance between the information output device 1 and the passerby, the passerby is interested in the information output device 1 It is useful to determine whether the Therefore, by using the face orientation of the passer as a reference in addition to the distance between the information output device 1 and the passer-by as described above, for example, a passer-by who is certainly interested in the information output device 1 It is possible to output image information or audio information for

また、上記選択されたid値を示す信号、選択されたid値に関する対象別ログテーブルMidを利用して、例えば、id値が選択された通行者の方向にディスプレイ4の正面が向くようにディスプレイ4の角度を調節して画像情報を出力したり、id値が選択された通行者の方向にスピーカ5の正面が向くようにスピーカ5の向きを調節して音声情報を出力したりするようにしてもよい。このようにすると、id値が選択された通行者が画像情報または音声情報の提供をより一層受けやすくなり、当該画像情報または音声情報の出力による通行者の呼び掛けが成功する確率が高くなる。 The signal indicating the selected id M values, using the target-specific log table M id for the selected id M value, for example, in the direction of the passerby that id M value is selected front of the display 4 Output the image information by adjusting the angle of the display 4 so that it faces, or output the audio information by adjusting the direction of the speaker 5 so that the front of the speaker 5 faces the passerby whose id M value is selected It may be done. In this way, it becomes easier for the passerby whose id M value is selected to be provided with the image information or the voice information, and the probability that the passerby's call by the output of the image information or the voice information is successful becomes high.

(2)呼び掛け成否判定部117の制御の下、上記選択された動作aに対応する画像情報または音声情報の出力期間中または出力期間後に注視判定処理および近接判定処理により得られる判定結果に基づいて、当該画像情報または音声情報の出力による呼び掛けが成功したか否かが判定される。行動価値テーブル更新部119の制御の下、呼び掛け成否判定部117における判定結果に基づいて、行動価値テーブルにおける、出力制御部116において選択された動作aの行動価値の値が増加または減少される。 (2) Based on the determination result obtained by the gaze determination process and the proximity determination process during or after the output period of the image information or the audio information corresponding to the selected operation a i under the control of the call success / failure determination unit 117. Thus, it is determined whether or not the call by the output of the image information or audio information is successful. Under the control of the behavior value table update unit 119, based on the determination result in the challenge success / failure determination unit 117, the value of the behavior value of the action a i selected in the output control unit 116 in the behavior value table is increased or decreased. .

呼び掛けが成功したか否かの判定を画像情報または音声情報の出力期間中に行うと、例えば、当該画像情報または音声情報の出力条件を満たす通行者がいなくなっている場合には、当該画像情報または音声情報の出力を停止して無駄な電力消費を抑えることができる。さらに、呼び掛けが成功したか否かの情報により、画像情報または音声情報の出力条件を見直すこともできるし、オペレータが情報出力装置の設置される環境を変えることを判断することもできる。   If it is determined during the output period of the image information or audio information that the call has been successful, for example, if there is no passerby that satisfies the output condition of the image information or audio information, the image information or The output of audio information can be stopped to reduce wasteful power consumption. Furthermore, the output condition of the image information or the audio information can be reviewed or the operator can determine that the environment in which the information output device is installed can be changed depending on the information as to whether the calling is successful or not.

また、行動価値テーブルにおける行動価値の値を上述のように更新すると、行動価値の値を基準に情報出力装置1が実行する動作を選択する場合に、呼び掛けが成功した動作が次回以降に選択されやすくなり、呼び掛けが失敗した動作が次回以降に選択されにくくなる。すなわち、情報出力装置1は、設置された環境に対応できるように自律的に逐次学習する。   Further, when the value of the action value in the action value table is updated as described above, when selecting the action to be executed by the information output device 1 based on the value of the action value, the action for which the call is successful is selected from next time onwards. This makes it easier to select an action for which the call failed, from the next time. That is, the information output device 1 learns autonomously and sequentially so that it can cope with the installed environment.

(3)上記出力制御部116の制御では、行動価値テーブルが参照される。その結果、id値に対応する通行者毎の注視判定処理および近接判定処理における判定結果に対応付けられた上記1以上の通行者と複数種類の動作の組み合わせの中から、行動価値の値Qが最も高い動作に対応する通行者のid値と動作aとの組み合わせが選択される。あるいは、上記1以上の通行者と複数種類の動作の組み合わせの中から、動作aがランダムに選択され、上記1以上の通行者のうち当該選択された動作aの行動価値の値Qが最も高い通行者のid値が選択される。あるいは、上記1以上の通行者と複数種類の動作の組み合わせの中から、通行者のid値がランダムに選択され、上記複数種類の動作のうち当該選択された通行者のid値に対応付けられた行動価値の値Qが最も高い動作aが選択される。あるいは、上記1以上の通行者と複数種類の動作の組み合わせの中から、動作aがランダムに選択され、通行者のid値がランダムに選択される。 (3) In the control of the output control unit 116, the action value table is referred to. As a result, among the combinations of the one or more passersby and the plurality of types of actions associated with the determination result in the gaze determination process and the proximity determination process for each passerby corresponding to the id M value, the value Q of action value The combination of the passer's id M value and the action a i corresponding to the action with the highest is selected. Alternatively, the action ai is randomly selected from the combination of the one or more passersby and the plurality of kinds of actions, and the value Q of the action value of the selected action ai among the one or more passersby is selected. The highest pedestrian id M value is selected. Alternatively, from the combinations of said one or more passerby and a plurality of types of operation, id M value of passersby is randomly selected, corresponding to the id M value of the selected passerby among the plurality of types of operation The action a i having the highest value Q of the attached action value is selected. Alternatively, the action a i is randomly selected from the combination of the one or more passers and a plurality of kinds of actions, and the passer's id M value is randomly selected.

このように、行動価値の値の高さという基準で動作を選択すれば、例えば、予め保証されている成功率の確度で、選択された通行者を呼び止められる可能性があるという利点がある。また、複数の通行者の中から少なくとも1人を呼び止められる可能性が最も高くなる手法で、通行者に対して画像情報または音声情報を出力することによる呼び掛けをすることができる。   As described above, if the action is selected based on the value of the action value, there is an advantage that the selected passerby may be blocked, for example, with a certainty of the success rate guaranteed in advance. In addition, it is possible to make a call by outputting image information or audio information to a passer-by by a method in which at least one of a plurality of passers-by is most likely to be stopped.

また、例えば、行動価値の値を基準にして動作を選択する場合には、初期の段階で行動価値の値が低く設定された動作が殆ど選択されないことが生じ得る。しかしながら、行動価値の値が低く設定された動作のうちにも、実際には当該動作による呼び掛けが成功する確率がそれ程低くないものも含まれ得る。上述したようにランダムに動作を選択するようにすることによって、このような動作による呼び掛けが成功するか否かの情報を取得することができ、当該情報は、例えば、初期の段階の行動価値の値の設定が適切であるか否かを見直すことに利用することができる。   Also, for example, when selecting an action based on the value of the action value, it may happen that the action whose action value is set low in the initial stage is hardly selected. However, among the operations whose action value is set to be low, there may be actually those that are not so low in the probability of successful call by the operation. As described above, by selecting an operation at random, it is possible to obtain information as to whether or not the invocation by such an operation is successful, and the information is, for example, of the action value of the initial stage. It can be used to review whether the value setting is appropriate.

さらに、動作と通行者とのランダムな選択の中に、動作と通行者との一方をランダムに選択し他方はその中で行動価値の値が最も高くなるような選択を含めるようにして、当該選択に基づいて動作を実行し、当該動作による呼び掛けが成功したか否かの情報を取得すると、例えば、行動価値の値が最も高い動作に対応する通行者と動作との組み合わせを基準にした、通行者を変更することによる行動価値の値の変化への寄与の割合や、動作を変更することによる行動価値の値の変化への寄与の割合等を解析することができる。   Furthermore, in the random selection between the action and the passerby, one of the action and the passer is randomly selected, and the other includes the selection in which the value of the action value is the highest. When the action is executed based on the selection and information on whether the call by the action is successful is acquired, for example, based on the combination of the passerby and the action corresponding to the action having the highest action value, It is possible to analyze the rate of contribution to the change in the value of action value by changing the passerby, the rate of contribution to the change in the value of action value by changing the action, and the like.

(4)行動価値テーブルにおいて、例えば、近接判定処理の判定結果“isNear(Mid)”がFalse、および、注視判定処理の判定結果“isLooking(Mid)”がFalseの組み合わせに対しては、誘導を実行しない動作aが選択される確率を高くするために、任意の通行者に対して当該動作aの行動価値の値を高い値に設定していてもよい。また、近接判定処理の判定結果“isNear(Mid)”がFalse、および、注視判定処理の判定結果“isLooking(Mid)”がTrueである組み合わせに対しては、誘導を実行する動作aが選択される確率を高くするために、任意の通行者に対して当該動作aの行動価値の値を高い値に設定していてもよい。さらに、近接判定処理の判定結果“isNear(Mid)”がTrue、および、注視判定処理の判定結果“isLooking(Mid)”がTrueまたはFalseである組み合わせに対しては、誘導を実行する動作ではあるが、出力される音声に通行者の注意を引くための効果音が含まれずゆえに音量が小さいものとなっている動作aが選択される確率を高くするために、任意の通行者に対して当該動作aの行動価値の値を高い値に設定していてもよい。 (4) In the action value table, for example, when the determination result of the proximity determination processing “isNear (M id )” is False, and the determination result of the gaze determination processing “isLooking (M id )” is False, in order to increase the probability that the operation a 3 is not executed induction is selected, the value of the activation level of the operation a 3 may be set to a higher value for any passerby. Also, the proximity determination processing of the determination result "isNear (M id)" is False, and, for the combined determination result of the attention judgment processing "isLooking (M id)" is True, operating a 2 to perform induction There in order to increase the probability of being selected, the value of the activation level of the operation a 2 may be set to a higher value for any passerby. Furthermore, the proximity determination processing decision result "isNear (M id)" is True, and the operation determination result of the attention judgment processing "isLooking (M id)" is for the combination is True or False, to perform induction However, in order to increase the probability of selecting the action a 1 whose volume is low because the output sound does not include a sound effect for attracting the passer's attention, an arbitrary passerby can be selected. the value of the activation level of the operation a 1 may be set to a higher value for.

情報出力装置1に近寄らずに情報出力装置1を眺めているような通行者は、情報出力装置1に興味がある可能性が高いかもしれないが、情報出力するか否かを距離だけを基準に判定していた従来技術では情報出力の対象とすることができなかった。しかしながら、上述した行動価値テーブルの構成により、そのような通行者に対しても、画像情報または音声情報が出力される確率が上がるようにすることができる。   A passerby who looks at the information output device 1 without approaching the information output device 1 may be likely to be interested in the information output device 1, but whether or not to output information is based on the distance alone. According to the prior art which was determined to be, it could not be the target of information output. However, the configuration of the action value table described above can increase the probability that image information or audio information is output even for such passers-by.

また、上述したような音量調節を行うことによって、例えば、情報出力装置1の近くにいる通行者に大きな音量の音声情報を出力して不快感を与えてしまうことを防ぐことができる。   In addition, by performing the above-described volume adjustment, for example, it is possible to prevent an unpleasant feeling from being output by outputting voice information of a large volume to a passerby near the information output device 1.

[他の実施形態]
なお、この発明は上記第1の実施形態に限定されるものではない。例えば、上記第1の実施形態では、情報出力装置が画像情報または音声情報を出力する装置である例について説明した。しかしながら、情報出力装置は、対象物を駆動するための駆動制御情報または音声情報を出力する装置であってもよい。例えば、情報出力装置は、ヒト型のロボットであり、対象物としての左手部分の可動部を駆動するための駆動制御情報を出力し、それに応じて左手部分を回転させて通行者にジェスチャを提示することが可能な装置であってもよい。なお、上記対象物は複数あってもよく、駆動制御情報は、複数の対象物のうちの任意のものを駆動するための情報であってもよい。
[Other embodiments]
The present invention is not limited to the first embodiment. For example, in the first embodiment, the example in which the information output apparatus is an apparatus that outputs image information or audio information has been described. However, the information output device may be a device that outputs drive control information or audio information for driving an object. For example, the information output device is a humanoid robot that outputs drive control information for driving the movable part of the left-hand part as an object, and rotates the left-hand part accordingly to present a gesture to the passerby It may be a device capable of Note that there may be a plurality of the target objects, and the drive control information may be information for driving any one of the plurality of target objects.

図24は、情報出力装置が通行者の検知に応じて実行可能な、駆動制御情報または音声情報を出力する動作の一例を示す図である。図24に図示される3種類の動作a,a,aはそれぞれ、図5に関連して図示して説明した動作a,a,aに対応している。 FIG. 24 is a diagram illustrating an example of an operation of outputting drive control information or audio information that can be executed in response to detection of a passerby by the information output device. Each three operating a 1, a 2, a 3 illustrated in FIG. 24 corresponds to the operation a 1, a 2, a 3 as shown and described in connection with FIG.

動作aは、左手部分の可動部を駆動させることにより、手招きをしながら誘導するジェスチャを実行し、スピーカから、「こちらへどうぞ」という呼び掛けの言葉に対応する音声情報を出力する動作である。
動作aは、左手部分の可動部を駆動させることにより、手招きをしながら誘導するジェスチャを実行し、スピーカから、「こちらに来てください」という呼び掛けの言葉に対応する音声情報と、通行者の注意を引くための効果音に対応する音声情報とを出力する動作である。なお、効果音に対応する音声情報の音量は、例えば、呼び掛けの言葉に対応する上述した2種類の音声情報の音量よりも大きい。
動作aは、左手部分の可動部を駆動させずに情報出力装置を待機させる動作である。すなわち、駆動制御情報と音声情報のいずれも出力しない動作である。
The operation a 1 is an operation in which a moving part of the left hand portion is driven to perform a gesture that guides the user while beckoning, and voice information corresponding to a call-to-call message is output from the speaker. .
Operating a 2, by driving the movable portion of the left hand part, perform a gesture to induce while beckoning, from the speaker, and audio information that corresponds to the word of the interrogation "Please come here", passerby The voice information corresponding to the sound effect for drawing the attention is output. Note that the volume of the audio information corresponding to the sound effect is, for example, larger than the volume of the above-described two types of audio information corresponding to the calling word.
Operation a 3 is an operation to wait for the information output device without driving the movable portion of the left hand portion. That is, it is an operation that outputs neither drive control information nor audio information.

図24の例の場合は、図18に示した行動価値テーブルは、各々、通行者毎に、当該通行者に対する近接判定処理の判定結果“isNear(Mid)”および注視判定処理の判定結果“isLooking(Mid)”の組み合わせの各々に対して、駆動制御情報または音声情報を出力する3種類の動作a,a,aと、当該各動作a,a,aの行動価値の値とを記憶するようにすればよい。なお、行動価値テーブルに記憶される動作a,a,a3は、図24で定義した動作a,a,aに一致させるようにすればよい。 In the case of the example of FIG. 24, the behavior value table shown in FIG. 18 includes, for each passerby, the determination result “isNear (M id )” of the proximity determination process and the determination result of the gaze determination process “ For each combination of isLooking (M id ) ′ ′, three types of operations a 1 , a 2 , a 3 that output drive control information or voice information and actions of the respective operations a 1 , a 2 , a 3 It suffices to store the value of the value. The operations a 1 , a 2 and a 3 stored in the action value table may be made to coincide with the operations a 1 , a 2 and a 3 defined in FIG.

なお、情報出力装置は、上述したような、画像情報または音声情報を出力する装置や、駆動制御情報または音声情報を出力する装置に限定されない。すなわち、情報出力装置は、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力可能であり、出力可能なこれらの情報を任意の組み合わせで出力可能な装置であってもよい。この場合、上述したのと同様に動作a,a,aを、出力可能な情報の任意の組み合わせで定義し、行動価値テーブルも上述したのと同様に適宜設計すればよい。なお、例えば、上述したのと同様に、選択された通行者の方向に向かって、可動部を駆動してジェスチャを提示するようにすれば、可動部により実行されるジェスチャを、選択された通行者がより一層受けやすくなり、当該画像情報と音声情報と駆動制御情報とのうちの少なくとも1つの出力による通行者の呼び掛けが成功する確率が高くなる。 Note that the information output device is not limited to the device that outputs image information or sound information as described above, or the device that outputs drive control information or sound information. That is, the information output device may be a device capable of outputting at least one of image information, audio information, and drive control information, and capable of outputting the information capable of being output in any combination. In this case, the actions a 1 , a 2 , and a 3 may be defined as arbitrary combinations of information that can be output as described above, and the action value table may be appropriately designed as described above. For example, as described above, if the movable unit is driven to present a gesture in the direction of the selected passerby, the gesture executed by the movable unit is selected. It becomes even easier for a person to receive, and the probability that the call by the passer by the output of at least one of the image information, the sound information, and the drive control information will be higher.

また、顔認識センサおよび距離測定センサから取得される計測データは上記で示したものと異なるものであってもよく、その場合、注視判定処理および近接判定処理も上記で示したのとは異なる関数を用いて実行されるようにしてもよい。また、上記では、頭状態ログテーブルHおよび体状態ログテーブルBにid値を付与する際のトラッキング処理について、最近傍法を利用するものとして説明したが、トラッキング処理はこれに限定されるものではない。さらに、id値とid値とを対応付けるマッチリストを生成させる処理について、DTW距離を利用するものとして説明したが、マッチリストを生成させる処理もこれに限定されるものではない。 Also, the measurement data obtained from the face recognition sensor and the distance measurement sensor may be different from those described above, in which case the function for gazing determination processing and the proximity determination processing also differs from that described above. It may be performed using Also, in the above description, the tracking processing when giving an id value to the head status log table H and the physical status log table B has been described as using the nearest neighbor method, but the tracking processing is not limited to this. Absent. Furthermore, although the process of generating the match list that associates the id H value with the id B value has been described as using the DTW distance, the process of generating the match list is not limited to this.

その他、情報出力装置の種類とその構成、ならびに、各ログテーブルや行動価値テーブルの構成や、注視判定処理および近接判定処理の詳細等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。   In addition, the type and configuration of the information output device, the configuration of each log table and action value table, the details of the gaze determination processing and the proximity determination processing, and the like can be variously modified without departing from the gist of the present invention. It is possible.

要するにこの発明は、上記第1の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記第1の実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、上記第1の実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。   In short, the present invention is not limited to the first embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Further, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the first embodiment. For example, some components may be deleted from all the components shown in the first embodiment. Furthermore, you may combine suitably the component covering different embodiment.

1…情報出力装置、11…制御ユニット、111…顔向きデータ取得部、112…距離データ取得部、113…対象別ログテーブル生成部、114…注視判定部、115…近接判定部、116…出力制御部、117…呼び掛け成否判定部、118…行動価値テーブル初期化部、119…行動価値テーブル更新部、12…記憶ユニット、121…頭状態ログテーブルH記憶部、122…体状態ログテーブルB記憶部、123…対象別ログテーブル記憶部、124…行動価値テーブル記憶部、13…入出力インタフェースユニット、2…顔認識センサ、3…距離測定センサ、4…ディスプレイ、5…スピーカ   DESCRIPTION OF SYMBOLS 1 ... Information output device, 11 ... Control unit, 111 ... Face direction data acquisition part, 112 ... Distance data acquisition part, 113 ... Log table production part according to object, 114 ... Gaze determination part, 115 ... Proximity determination part, 116 ... Output Control unit 117: calling success / failure determination unit 118: action value table initialization unit 119: action value table updating unit 12: storage unit 121: head state log table H storage unit 122: body state log table B storage , 123 ... Subject-specific log table storage unit, 124 ... Action value table storage unit, 13 ... Input / output interface unit, 2 ... Face recognition sensor, 3 ... Distance measurement sensor, 4 ... Display, 5 ... Speaker

Claims (8)

通行者の検知に応じて当該通行者に対して、画像情報と、音声情報と、対象物を駆動するための駆動制御情報とのうちの少なくとも1つを出力可能な情報出力装置であって、
顔認識センサから、前記通行者に係る顔向きデータを経時的に取得する顔向きデータ取得部と、
距離測定センサから、前記情報出力装置と前記通行者との間の距離データを経時的に取得する距離データ取得部と、
前記取得される顔向きデータに基づいて、前記通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する注視判定部と、
前記取得される距離データに基づいて、前記情報出力装置から所定の距離内に前記通行者が存在する時間が第2の時間以上であるか否かを判定する近接判定部と、
前記注視判定部および前記近接判定部における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる出力制御部と、
前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つの出力期間中または出力期間後に前記注視判定部および前記近接判定部により得られる判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つの出力による呼び掛けが成功したか否かを判定する呼び掛け成否判定部と
を備える情報出力装置。
An information output device capable of outputting at least one of image information, voice information, and drive control information for driving an object to the passerby according to detection of the passer,
A face direction data acquisition unit that acquires face direction data relating to the passer-by from a face recognition sensor over time;
A distance data acquisition unit that acquires distance data between the information output device and the passer-by from a distance measurement sensor over time;
Based on the acquired face orientation data, a gaze determination unit that determines whether or not the time when the passer's face is facing a predetermined range including the information output device is a first time or more,
A proximity determination unit that determines whether or not the time during which the passerby is within a predetermined distance from the information output device is a second time or more based on the acquired distance data;
Based on the determination results in the gaze determination unit and the proximity determination unit, it is determined whether to output at least one of the image information, the audio information, and the drive control information, and the image information and the An output controller that outputs at least one of the image information, the audio information, and the drive control information when it is determined to output at least one of the audio information and the drive control information;
Based on the determination result obtained by the gaze determination unit and the proximity determination unit during or after the output period of at least one of the image information, the audio information, and the drive control information, the image information and the audio An information output device comprising: a call success / failure determination unit that determines whether or not a call using information and at least one of the drive control information is successful.
前記出力制御部は、
前記注視判定部および前記近接判定部における判定結果と、当該判定結果に対応付けられた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数種類の動作のうち行動価値の値が最も高い動作を選択する選択部と、
前記選択された動作に応じた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる制御部と
を備える、請求項1に記載の情報出力装置。
The output control unit
A plurality of types of operations for outputting at least one of the determination result in the gaze determination unit and the proximity determination unit, the image information associated with the determination result, the audio information, and the drive control information; The value of the action value is the highest among the plurality of types of actions associated with the determination results in the gaze determination unit and the proximity determination unit based on the action value table storing the value of the action value of each operation A selection unit for selecting an operation;
The information output device according to claim 1, further comprising: a control unit that outputs at least one of the image information, the audio information, and the drive control information according to the selected operation.
前記出力制御部は、
前記注視判定部および前記近接判定部における判定結果と、当該判定結果に対応付けられた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数種類の動作の中から動作をランダムに選択する選択部と、
前記選択された動作に応じた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる制御部と
を備える、請求項1に記載の情報出力装置。
The output control unit
A plurality of types of operations for outputting at least one of the determination result in the gaze determination unit and the proximity determination unit, the image information associated with the determination result, the audio information, and the drive control information; Based on a behavior value table storing the behavior value of each motion, a motion is randomly selected from the plurality of types of motions associated with the determination results in the gaze determination unit and the proximity determination unit. A selection section;
The information output device according to claim 1, further comprising: a control unit that outputs at least one of the image information, the audio information, and the drive control information according to the selected operation.
前記顔向きデータ取得部は、前記顔認識センサから、複数の通行者の各々に係る顔向きデータを経時的に取得し、
前記距離データ取得部は、前記距離測定センサから、前記情報出力装置と前記複数の通行者の各々との間の距離データを経時的に取得し、
前記注視判定部は、前記複数の通行者の各々に対して、当該通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が前記第1の時間以上であるか否かを判定し、
前記近接判定部は、前記複数の通行者の各々に対して、前記情報出力装置から所定の距離内に当該通行者が存在する時間が前記第2の時間以上であるか否かを判定し、
前記出力制御部は、
前記複数の通行者の各々に対応して、前記注視判定部および前記近接判定部における判定結果と、当該判定結果に対応付けられた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数の通行者と前記複数種類の動作の組み合わせの中から、前記行動価値の値が最も高い動作に対応する通行者と動作との組み合わせを選択する選択部と、
前記選択された通行者に対して、前記選択された動作に応じた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる制御部と
を備える、請求項1に記載の情報出力装置。
The face orientation data acquisition unit acquires face orientation data relating to each of a plurality of passers from the face recognition sensor over time,
The distance data acquisition unit temporally acquires distance data between the information output device and each of the plurality of passersby from the distance measurement sensor,
The gaze determination unit determines, for each of the plurality of passers, whether or not the time during which the face of the passer is facing a predetermined range including the information output device is the first time or more. Judgment,
The proximity determination unit determines, for each of the plurality of passersby, whether or not the time during which the passer is present within a predetermined distance from the information output device is the second time or more.
The output control unit
Corresponding to each of the plurality of passers-by, among the determination results in the gaze determination unit and the proximity determination unit, the image information, the audio information, and the drive control information associated with the determination result Determination in the gaze determination unit and the proximity determination unit for each of the plurality of passersby, based on the action value table storing the plurality of types of operations outputting at least one and the action value of each operation A selection unit that selects a combination of a passer and an action corresponding to an action having the highest value of the action from a combination of the plurality of passers and the plurality of kinds of actions associated with a result;
2. The control unit according to claim 1, further comprising: a control unit that causes the selected passer to output at least one of the image information, the audio information, and the drive control information according to the selected operation. The information output device described.
前記顔向きデータ取得部は、前記顔認識センサから、複数の通行者の各々に係る顔向きデータを経時的に取得し、
前記距離データ取得部は、前記距離測定センサから、前記情報出力装置と前記複数の通行者の各々との間の距離データを経時的に取得し、
前記注視判定部は、前記複数の通行者の各々に対して、当該通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が前記第1の時間以上であるか否かを判定し、
前記近接判定部は、前記複数の通行者の各々に対して、前記情報出力装置から所定の距離内に当該通行者が存在する時間が前記第2の時間以上であるか否かを判定し、
前記出力制御部は、
前記複数の通行者の各々に対応して、前記注視判定部および前記近接判定部における判定結果と、当該判定結果に対応付けられた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力する複数種類の動作と、当該各動作の行動価値の値とを記憶する行動価値テーブルに基づいて、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数の通行者と前記複数種類の動作の組み合わせの中から、動作をランダムに選択し、さらに、前記複数の通行者のうち当該選択された動作の行動価値の値が最も高い通行者を選択する第1選択部と、
前記行動価値テーブルに基づいて、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数の通行者と前記複数種類の動作の組み合わせの中から、通行者をランダムに選択し、さらに、前記複数種類の動作のうち当該選択された通行者に対応付けられた行動価値の値が最も高い動作を選択する第2選択部と、
前記行動価値テーブルに基づいて、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に対応付けられた前記複数の通行者と前記複数種類の動作の組み合わせの中から、動作と通行者とをランダムに選択する第3選択部と
のうちの少なくとも1つを備え、
前記出力制御部は、前記第1選択部、前記第2選択部、または前記第3選択部によって選択された通行者に対して、当該選択部によって選択された動作に応じた前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる制御部と
を備える、請求項1に記載の情報出力装置。
The face orientation data acquisition unit acquires face orientation data relating to each of a plurality of passers from the face recognition sensor over time,
The distance data acquisition unit temporally acquires distance data between the information output device and each of the plurality of passersby from the distance measurement sensor,
The gaze determination unit determines, for each of the plurality of passers, whether or not the time during which the face of the passer is facing a predetermined range including the information output device is the first time or more. Judgment,
The proximity determination unit determines, for each of the plurality of passersby, whether or not the time during which the passer is present within a predetermined distance from the information output device is the second time or more.
The output control unit
Among the image information, the voice information, and the drive control information among the determination result in the gaze determination unit and the proximity determination unit, the image information associated with the determination result, corresponding to each of the plurality of passers-by Determination in the gaze determination unit and the proximity determination unit for each of the plurality of passersby, based on the action value table storing the plurality of types of operations outputting at least one and the action value of each operation An operation is randomly selected from a combination of the plurality of passers-by and the plurality of types of actions associated with a result, and an action value of the selected action among the plurality of passers-by is selected. A first selection unit to select the highest passer,
From the combination of the plurality of passersby and the plurality of types of actions associated with the determination result in the gaze determination unit and the proximity determination unit for each of the plurality of passersby based on the action value table, A second selection unit that randomly selects a passer, and further selects, from among the plurality of types of actions, the action having the highest action value value associated with the selected passer,
From the combination of the plurality of passersby and the plurality of types of actions associated with the determination result in the gaze determination unit and the proximity determination unit for each of the plurality of passersby based on the action value table, And at least one of a third selection unit that randomly selects an action and a passerby,
The output control unit is configured to transmit the image information and the image information corresponding to the operation selected by the selection unit to the passerby selected by the first selection unit, the second selection unit, or the third selection unit. The information output device according to claim 1, further comprising: a control unit that outputs at least one of audio information and the drive control information.
前記呼び掛けが成功したと判定された場合に、前記行動価値テーブルにおける、前記選択された動作の行動価値の値を増加させ、前記通行者への呼び掛けが失敗したと判定された場合に、前記行動価値テーブルにおける、前記選択された動作の行動価値の値を減少させる行動価値テーブル更新部をさらに備える、請求項2乃至5のいずれかに記載の情報出力装置。   When it is determined that the calling is successful, the value of the action value of the selected action is increased in the action value table, and it is determined that the calling to the passer fails. The information output device according to claim 2, further comprising an action value table update unit that decreases an action value of the selected action in the value table. ハードウェアプロセッサおよびメモリを備え、通行者の検知に応じて当該通行者に対して、画像情報と、音声情報と、対象物を駆動するための駆動制御情報とのうちの少なくとも1つを出力可能な装置が実行する情報出力方法であって、
顔認識センサから、前記通行者に係る顔向きデータを経時的に取得する過程と、
距離測定センサから、前記装置と前記通行者との間の距離データを経時的に取得する過程と、
前記取得される顔向きデータに基づいて、前記通行者の顔が前記装置を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する注視判定過程と、
前記取得される距離データに基づいて、前記装置から所定の距離内に前記通行者が存在する時間が第2の時間以上であるか否かを判定する近接判定過程と、
前記注視判定過程および前記近接判定過程における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる過程と
前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つの出力期間中または出力期間後に前記注視判定過程および前記近接判定過程により得られる判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つの出力による呼び掛けが成功したか否かを判定する過程と
を備える情報出力方法。
A hardware processor and a memory are provided, and at least one of image information, audio information, and drive control information for driving an object can be output to the passer in response to detection of the passer. Information output method executed by the device, and
A process of acquiring face direction data relating to the passer from a face recognition sensor over time;
Obtaining distance data over time from the device and the passerby from a distance measuring sensor;
A gaze determination step of determining whether a time during which a face of the passerby faces a predetermined range including the device is longer than or equal to a first time based on the acquired face direction data;
A proximity determination step of determining whether or not a time during which the passerby exists within a predetermined distance from the device is a second time or more based on the acquired distance data;
Based on the determination results in the gaze determination process and the proximity determination process, it is determined whether to output at least one of the image information, the audio information, and the drive control information, and the image information and the A step of outputting at least one of the image information, the audio information, and the drive control information when it is determined to output at least one of the audio information and the drive control information; And the audio information and the drive control information based on determination results obtained by the gaze determination process and the proximity determination process during or after the output period of at least one of the image information, the audio information, and the drive control information And a step of determining whether or not the call by at least one output of the drive control information is successful.
請求項1乃至6のいずれかに記載の情報出力装置が備える各部としてハードウェアプロセッサを機能させるプログラム。   The program which functions a hardware processor as each part with which the information output device in any one of Claims 1 thru | or 6 is equipped.
JP2018011956A 2018-01-26 2018-01-26 Information output device, method and program Active JP6920225B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018011956A JP6920225B2 (en) 2018-01-26 2018-01-26 Information output device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018011956A JP6920225B2 (en) 2018-01-26 2018-01-26 Information output device, method and program

Publications (2)

Publication Number Publication Date
JP2019128557A true JP2019128557A (en) 2019-08-01
JP6920225B2 JP6920225B2 (en) 2021-08-18

Family

ID=67472232

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018011956A Active JP6920225B2 (en) 2018-01-26 2018-01-26 Information output device, method and program

Country Status (1)

Country Link
JP (1) JP6920225B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention degree calculation device, attention degree calculation method, attention degree calculation program, information providing system and information providing device
US20100161409A1 (en) * 2008-12-23 2010-06-24 Samsung Electronics Co., Ltd. Apparatus for providing content according to user's interest in content and method for providing content according to user's interest in content
JP2011077913A (en) * 2009-09-30 2011-04-14 Nhk Service Center Inc Apparatus and system for processing information transmission, and computer program to be used therefor
WO2016132884A1 (en) * 2015-02-16 2016-08-25 ソニー株式会社 Information processing device, method, and program
JP2017156514A (en) * 2016-03-01 2017-09-07 株式会社Liquid Electronic signboard system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention degree calculation device, attention degree calculation method, attention degree calculation program, information providing system and information providing device
US20100161409A1 (en) * 2008-12-23 2010-06-24 Samsung Electronics Co., Ltd. Apparatus for providing content according to user's interest in content and method for providing content according to user's interest in content
JP2011077913A (en) * 2009-09-30 2011-04-14 Nhk Service Center Inc Apparatus and system for processing information transmission, and computer program to be used therefor
WO2016132884A1 (en) * 2015-02-16 2016-08-25 ソニー株式会社 Information processing device, method, and program
JP2017156514A (en) * 2016-03-01 2017-09-07 株式会社Liquid Electronic signboard system

Also Published As

Publication number Publication date
JP6920225B2 (en) 2021-08-18

Similar Documents

Publication Publication Date Title
US11257223B2 (en) Systems and methods for user detection, identification, and localization within a defined space
JP6950692B2 (en) People flow estimation device, people flow estimation method and program
JP6592183B2 (en) monitoring
US11429189B2 (en) Monitoring
KR102032662B1 (en) Human-computer interaction with scene space monitoring
KR20150057424A (en) A system and method for interaction with augmented reality avatar
CN106604804B (en) Collision detection
WO2020031767A1 (en) Information processing device, information processing method, and program
KR20170014491A (en) Method and device for recognizing motion
CN109465819A (en) Human body recognition system and human body recognition method
JP2010123019A (en) Device and method for recognizing motion
Taylor et al. Robot perception of human groups in the real world: State of the art
US20180203515A1 (en) Monitoring
US20170092001A1 (en) Augmented reality with off-screen motion sensing
Mettel et al. Designing and evaluating safety services using depth cameras
JP2020201926A (en) System and method for generating haptic effect based on visual characteristics
JP2020155944A (en) Speaker detection system, speaker detection method, and program
US20220288791A1 (en) Information processing device, information processing method, and program
JP2019128557A (en) Information output device, method, and program
JP7326707B2 (en) Robot, robot control method and program
JP6850740B2 (en) Information output device, method and program
Kühn et al. A modular audio-visual scene analysis and attention system for humanoid robots
CN111919250B (en) Intelligent assistant device for conveying non-language prompt
KR102010129B1 (en) Method and apparatus for emulating behavior of robot
WO2024142874A1 (en) Prediction method, display method, program, prediction system, display system, and trained model

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R150 Certificate of patent or registration of utility model

Ref document number: 6920225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150