JP2019128910A - 情報出力装置、方法およびプログラム - Google Patents

情報出力装置、方法およびプログラム Download PDF

Info

Publication number
JP2019128910A
JP2019128910A JP2018011940A JP2018011940A JP2019128910A JP 2019128910 A JP2019128910 A JP 2019128910A JP 2018011940 A JP2018011940 A JP 2018011940A JP 2018011940 A JP2018011940 A JP 2018011940A JP 2019128910 A JP2019128910 A JP 2019128910A
Authority
JP
Japan
Prior art keywords
information
output
output device
passerby
passer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018011940A
Other languages
English (en)
Other versions
JP6850740B2 (ja
Inventor
安範 尾崎
Yasunori Ozaki
安範 尾崎
充裕 後藤
Mitsuhiro Goto
充裕 後藤
石原 達也
Tatsuya Ishihara
達也 石原
崇由 望月
Takayoshi Mochizuki
崇由 望月
成宗 松村
Narimune Matsumura
成宗 松村
純史 布引
Ayafumi Nunobiki
純史 布引
山田 智広
Tomohiro Yamada
智広 山田
航洋 前田
Koyo Maeda
航洋 前田
明彦 鏡
Akihiko Kagami
明彦 鏡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
NHK Enterprises Inc
Original Assignee
Nippon Telegraph and Telephone Corp
NHK Enterprises Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NHK Enterprises Inc filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018011940A priority Critical patent/JP6850740B2/ja
Publication of JP2019128910A publication Critical patent/JP2019128910A/ja
Application granted granted Critical
Publication of JP6850740B2 publication Critical patent/JP6850740B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】通行者との間の距離に加え通行者の顔向きにも基づいて、当該通行者に対して情報を出力するか否かを判定できるようにする。【解決手段】顔向きデータ取得部111の制御の下、顔認識センサ2から、1以上の通行者に係る顔向きデータが経時的に取得され、距離データ取得部112の制御の下、距離測定センサ3から、情報出力装置1と1以上の通行者との間の距離データが取得される。対象別ログテーブル生成部113の制御の下、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルが生成される。その後、注視判定部114および近接判定部115の制御の下、当該対象別ログテーブルに基づいて、注視判定処理と近接判定処理が実行される。出力制御部116の制御の下、当該注視判定処理および近接判定処理の判定結果に基づいて、画像情報または音声情報の出力制御がされる。【選択図】図2

Description

この発明は、通行者に対して情報を出力する情報出力装置、方法およびプログラムに関する。
従来、距離測定センサを利用して通行者の移動軌跡を算出し、当該移動軌跡に基づいて、実世界へ影響を与えるように動作する機能を有する装置(以後、単にエージェントと称する)に集客動作をさせる研究が行われていた。このような研究では、通行者がエージェントに近寄らない場合には、エージェントを眺めながら通り過ぎていく通行者も、エージェントを眺めずに通り過ぎていく通行者も、等しく集客対象外となっていた(例えば、非特許文献1を参照)。
Niklas Bergstrom, et al. "Modeling of Natural Human-Robot Encounters", IEEE/RSJ International Conference on Intelligent Robots and Systems, 2008
ところが、非特許文献1に記載されるような技術では、集客対象外となる、エージェントに近寄らずにエージェントを眺めている通行者は、エージェントに興味がある可能性が高い。したがって、このような通行者に対して集客動作を実行すれば、集客動作による呼び掛けが成功する確率は高いかもしれない。また、例えばエージェントを眺めることなく偶然エージェントの近くを通り過ぎるような通行者は、非特許文献1に記載されるような技術では集客対象となるが、特にエージェントに興味がない可能性が高い。したがって、このような通行者に対して集客動作を実行しても、集客動作による呼び掛けが成功する確率は低いかもしれない。
すなわち、非特許文献1に記載される、距離測定センサによって計測されるデータのみに基づいてエージェントが集客動作を実行するか否かを判定する技術では、エージェントに対して興味を示している通行者に対して集客動作を実行せずに、エージェントに対して興味を示していない通行者に対して集客動作を実行してしまう状況が生じ得る。したがって、集客動作を実行するか否かの判定に、エージェントと通行者との距離に加えて他の判定基準も利用するのが好ましい。
この発明は上記事情に着目してなされたもので、その目的とするところは、通行者との間の距離に加え通行者の顔向きにも基づいて、当該通行者に対して情報を出力するか否かを判定できる情報出力装置、方法およびプログラムを提供することにある。
上記課題を解決するために、この発明の第1の態様は、通行者の検知に応じて当該通行者に対して、画像情報と、音声情報と、対象物を駆動するための駆動制御情報とのうちの少なくとも1つを出力可能な情報出力装置にあって、顔認識センサから、前記通行者に係る顔向きデータを経時的に取得する顔向きデータ取得部と、距離測定センサから、前記情報出力装置と前記通行者との間の距離データを経時的に取得する距離データ取得部と、前記取得される顔向きデータに基づいて、前記通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する注視判定部と、前記取得される距離データに基づいて、前記情報出力装置から所定の距離内に前記通行者が存在する時間が第2の時間以上であるか否かを判定する近接判定部と、前記注視判定部および前記近接判定部における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる出力制御部とを備えるようにしたものである。
この発明の第2の態様は、前記出力制御部が、前記通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が前記第1の時間以上であると判定され、かつ、前記情報出力装置から所定の距離内に前記通行者が存在する時間が前記第2の時間未満であると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定するようにしたものである。
この発明の第3の態様は、前記出力制御部が、前記情報出力装置から所定の距離内に前記通行者が存在する時間が前記第2の時間未満であると判定される場合には、前記音声情報として、予め設定された第1の音量の音声情報を出力させ、前記情報出力装置から所定の距離内に前記通行者が存在する時間が前記第2の時間以上であると判定される場合には、前記音声情報として、前記第1の音量より小さい第2の音量の音声情報を出力させるようにしたものである。
この発明の第4の態様は、前記顔向きデータ取得部が、前記顔認識センサから、複数の通行者の各々に係る顔向きデータを経時的に取得し、前記距離データ取得部が、前記距離測定センサから、前記情報出力装置と前記複数の通行者の各々との間の距離データを経時的に取得し、前記注視判定部が、前記複数の通行者の各々に対して、当該通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が前記第1の時間以上であるか否かを判定し、前記近接判定部が、前記複数の通行者の各々に対して、前記情報出力装置から所定の距離内に当該通行者が存在する時間が前記第2の時間以上であるか否かを判定し、前記出力制御部が、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させるようにしたものである。
この発明の第5の態様は、前記出力制御部が、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に基づいて、前記複数の通行者の各々に対して前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力することによる呼び掛けの成功率を推定する推定部と、前記推定された呼び掛けの成功率が最も高い通行者を、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つの出力対象候補となる通行者として選択する対象選択部とを備え、前記出力制御部が、前記選択された通行者に対する前記注視判定部および前記近接判定部における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させるようにしたものである。
この発明の第6の態様は、前記出力制御部が、前記選択された通行者に対して前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させるようにしたものである。
この発明の第1の態様によれば、顔認識センサから、通行者に係る顔向きデータが経時的に取得され、距離測定センサから、情報出力装置と上記通行者との間の距離データが経時的に取得される。上記取得される顔向きデータに基づいて、上記通行者の顔が上記情報出力装置を含む所定の範囲を向いている時間が第1の時間以上であるか否かが判定される注視判定処理が実行される。また、上記取得される距離データに基づいて、上記情報出力装置から所定の距離内に上記通行者が存在する時間が第2の時間以上であるか否かが判定される近接判定処理が実行される。通行者に対する注視判定処理の判定結果と近接判定処理の判定結果とに基づいて、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力するか否かが判定され、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、当該画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。顔向きは視線に方向がおおよそ一致するものであり、それゆえ通行者の顔向きは、情報出力装置と通行者との間の距離と同様に、通行者が情報出力装置に興味を示しているか否かを判断するために有用である。したがって、上述したように情報出力装置と通行者との間の距離に加えて通行者の顔向きを基準として用いることにより、例えば情報出力装置に対して確かに興味を示している通行者を対象として、情報を出力することが可能となる。
この発明の第2の態様によれば、上記通行者の顔が上記情報出力装置を含む所定の範囲を向いている時間が上記第1の時間以上であると判定され、かつ、上記情報出力装置から所定の距離内に上記通行者が存在する時間が上記第2の時間未満であると判定された場合に、上記画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力すると判定される。情報出力装置に近寄らずに情報出力装置を眺めているような通行者は、情報出力装置に興味がある可能性が高いかもしれないが、情報出力するか否かを距離だけを基準に判定していた従来技術では情報出力の対象とすることができなかった。しかしながら、第2の態様の上述した構成により、そのような通行者に対しても、情報を出力するようにすることができる。
この発明の第3の態様によれば、上記情報出力装置から所定の距離内に上記通行者が存在する時間が上記第2の時間未満であると判定される場合には、上記音声情報として、予め設定された第1の音量の音声情報が出力され、上記情報出力装置から所定の距離内に上記通行者が存在する時間が上記第2の時間以上であると判定される場合には、上記音声情報として、上記第1の音量より小さい第2の音量の音声情報が出力される。このような音量調節を行うことによって、例えば、情報出力装置の近くにいる通行者に大きな音量の音声情報を出力して不快感を与えてしまうことを防ぐことができる。
この発明の第4の態様によれば、上記顔認識センサから、複数の通行者の各々に係る顔向きデータが経時的に取得され、上記距離測定センサから、上記情報出力装置と複数の通行者の各々との間の距離データが経時的に取得される。上記複数の通行者の各々に対して、当該通行者の顔が上記情報出力装置を含む所定の範囲を向いている時間が上記第1の時間以上であるか否かが判定される注視判定処理が実行される。また、上記複数の通行者の各々に対して、上記情報出力装置から所定の距離内に当該通行者が存在する時間が上記第2の時間以上であるか否かが判定される近接判定処理が実行される。上記複数の通行者の各々に対する注視判定処理の判定結果と近接判定処理の判定結果とに基づいて、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力するか否かが判定され、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、当該画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。このため、例えば、複数の通行者の中に、注視判定処理と近接判定処理との両方の判定結果が所定の条件を満たす通行者がいる場合や、所定の条件を満たす通行者の数等を基準として、情報を出力するようにすることができる。
この発明の第5の態様によれば、上記複数の通行者の各々に対する注視判定処理の判定結果と近接判定処理の判定結果とに基づいて、上記複数の通行者の各々に対して画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力することによる呼び掛けの成功率が推定され、当該推定された呼び掛けの成功率が最も高い通行者が、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つの出力対象候補となる通行者として選択される。当該選択された通行者に対する注視判定処理の判定結果と近接判定処理の判定結果とに基づいて、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力するか否かが判定され、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、当該画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。このように、呼び掛けの成功率が最も高いと知られている状態にある通行者を選択して、その状態に対応する情報を出力すれば、例えば、少なくとも予め保証されている成功率の確度で、選択された通行者を呼び止められる可能性があるという利点がある。
この発明の第6の態様によれば、上記選択された通行者に対して画像情報と音声情報と駆動制御情報とのうちの少なくとも1つが出力される。例えば、選択された通行者の方向にディスプレイの正面が向くようにディスプレイの角度を調節して画像情報を出力したり、選択された通行者の方向にスピーカの正面が向くようにスピーカの向きを調節して音声情報を出力したり、選択された通行者の方向に向かって、可動部を駆動してジェスチャを提示したりするようにしてもよい。このようにすると、画像情報または音声情報の提供や、可動部により実行されるジェスチャを、選択された通行者がより一層受けやすくなり、当該情報の出力による通行者の呼び掛けが成功する確率が高くなる。
すなわち、この発明の各態様によれば、通行者との間の距離に加え通行者の顔向きにも基づいて、当該通行者に対して情報を出力するか否かを判定できる情報出力装置、方法およびプログラムを提供することができる。
この発明の第1の実施形態に係る、通行者の検出に応じて当該通行者に対して画像情報または音声情報を出力する情報出力装置の一例を示す図。 図1に示した情報出力装置の機能構成を示すブロック図。 図1に示した距離測定センサによって取得される距離データの一例を示す図。 図1に示した顔認識センサによって取得される顔向きデータの一例を示す図。 図1に示した情報出力装置が実行可能な、画像情報または音声情報を出力する動作の一例を示す図。 図2に示した情報出力装置の制御ユニットによって実行される計測値取得処理の一例を示すフロー図。 図2に示した情報出力装置の制御ユニットによって実行される対象別ログテーブル生成処理の一例を示すフロー図。 図2に示した情報出力装置の制御ユニットによって実行される出力制御処理の一例を示すフロー図。 図2に示した情報出力装置の記憶ユニットに記憶される頭状態ログテーブルHの一例を示す図。 図2に示した情報出力装置の記憶ユニットに記憶される体状態ログテーブルBの一例を示す図。 図9に示した頭状態ログテーブルHから生成される頭状態ログテーブルH´´の一例を示す図。 図10に示した体状態ログテーブルBから生成される体状態ログテーブルB´´の一例を示す図。 図11に示した頭状態ログテーブルH´´と図12に示した体状態ログテーブルB´´とを組み合わせて生成される統合ログテーブルMの一例を示す図。 図13に示した統合ログテーブルMから対象別ログテーブルを生成させる一例を示す図。 図8に示した出力制御処理に伴って実行される近接判定処理の一例を示す図。 図8に示した出力制御処理に伴って実行される注視判定処理の一例を示す図。 図2に示した情報出力装置の記憶ユニットに記憶される呼び掛け成功率テーブルの一例を示す図。 図2に示した情報出力装置の記憶ユニットに記憶される動作テーブルの一例を示す図。 最近傍法を利用したトラッキング処理の概念図。 図7に示した対象別ログテーブル生成処理において実行される、トラッキング処理を実行して、id値を付与した頭状態ログテーブルH´および体状態ログテーブルB´を生成させる処理の一例を示すフロー図。 図7に示した対象別ログテーブル生成処理において実行される、同一の通行者を示しているid値とid値とを対応付けるマッチリストを生成させる処理の一例を示すフロー図。 図7に示した対象別ログテーブル生成処理において実行される、頭状態ログテーブルH´と体状態ログテーブルB´とをマッチリストを利用して組み合わせて統合ログテーブルMを生成させる処理の一例を示すフロー図。 この発明の他の実施形態に係る、情報出力装置が実行可能な駆動制御情報または音声情報を出力する動作の一例を示す図。
以下、図面を参照してこの発明に係わる実施形態を説明する。
[第1の実施形態]
(構成)
図1は、この発明の第1の実施形態に係る、通行者の検出に応じて当該通行者に対して画像情報または音声情報を出力する情報出力装置1の一例を示す図である。
情報出力装置1は、例えば、通行者に画像情報または音声情報を出力してサービスの利用を呼び掛けるバーチャルロボットインタラクティブサイネージ等である。図1では、情報出力装置1、顔認識センサ2、距離測定センサ3、ディスプレイ4、およびスピーカ5が一体となっている例を図示しているが、これらの各々は別個の装置として分離されていてもよく、また、これらのうちの任意の組み合わせが一体となっていてもよい。
情報出力装置1は、例えばカメラ等である顔認識センサ2から、通行者に係る顔向きデータを経時的に取得する。また、情報出力装置1は、例えば超音波距離センサや赤外線距離センサ等である距離測定センサ3から、情報出力装置1と通行者との間の距離データを経時的に取得する。当該取得される顔向きデータおよび距離データに基づいて、情報出力装置1は、画像情報または音声情報を出力するか否かを判定する。そして、出力すると判定された場合に、画像情報および音声情報をそれぞれディスプレイ4およびスピーカ5を用いて出力する。
図2は、図1に示した情報出力装置1の機能構成を示すブロック図である。
情報出力装置1は、ハードウェアとして、制御ユニット11と、記憶ユニット12と、入出力インタフェースユニット13とを備えている。
入出力インタフェースユニット13は、例えば1つ以上の有線または無線の通信インタフェースユニットを含んでいる。入出力インタフェースユニット13は、顔認識センサ2から、通行者に係る顔向きデータを取得し、距離測定センサ3から、情報出力装置1と通行者との間の距離データを取得し、当該取得される顔向きデータおよび距離データを制御ユニット11に出力する。また、入出力インタフェースユニット13は、制御ユニット11から出力される画像情報および音声情報をそれぞれディスプレイ4およびスピーカ5に出力する。
記憶ユニット12は、記憶媒体として例えばHDD(Hard Disc Drive)またはSSD(Solid State Drive)等の随時書き込みおよび読み出しが可能な不揮発メモリを使用したもので、本実施形態を実現するために、頭状態ログテーブルH記憶部121と、体状態ログテーブルB記憶部122と、対象別ログテーブル記憶部123と、呼び掛け成功率テーブル記憶部124と、動作テーブル記憶部125とを備えている。
頭状態ログテーブルH記憶部121は、頭状態ログテーブルHを記憶している。頭状態ログテーブルHは、顔認識センサ2から取得される、1以上の通行者に係る顔向きデータを記憶する。
体状態ログテーブルB記憶部122は、体状態ログテーブルBを記憶している。体状態ログテーブルBは、距離測定センサ3から取得される、情報出力装置1と1以上の通行者との間の距離データを記憶する。
対象別ログテーブル記憶部123は、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルを記憶させるために使用される。
呼び掛け成功率テーブル記憶部124は、呼び掛け成功率テーブルを記憶している。呼び掛け成功率テーブルは、情報出力装置1への通行者の注視状態と、情報出力装置1と通行者との近接状態と、当該注視状態および近接状態にある通行者に画像情報または音声情報を出力することによる呼び掛けの成功率とを記憶する。呼び掛けの成功パターンには、例えば、通行者が情報出力装置1からの画像情報または音声情報に気付き、情報出力装置1によって提供されるサービスを利用する等のインタラクションをするパターン等がある。呼び掛けの失敗パターンには、例えば、通行者が情報出力装置1に気付かずに通り過ぎてしまうパターン等がある。
動作テーブル記憶部125は、動作テーブルを記憶している。動作テーブルは、情報出力装置1への通行者の注視状態と、情報出力装置1と通行者との近接状態と、通行者の当該注視状態および近接状態に対応する、情報出力装置1により実行される画像情報または音声情報を出力する動作とを記憶する。
制御ユニット11は、CPU(Central Processing Unit)等のハードウェアプロセッサと、プログラムメモリとを備え、本実施形態における処理機能を実行するために、顔向きデータ取得部111と、距離データ取得部112と、対象別ログテーブル生成部113と、注視判定部114と、近接判定部115と、出力制御部116とを備えている。これらの各部における処理機能はいずれも、プログラムメモリに格納されたプログラムを上記ハードウェアプロセッサに実行させることによって実現される。
顔向きデータ取得部111は、入出力インタフェースユニット13を介して顔認識センサ2から、1以上の通行者に係る顔向きデータを経時的に取得し、取得された顔向きデータを、頭状態ログテーブルHに書き込む処理を実行する。
距離データ取得部112は、入出力インタフェースユニット13を介して距離測定センサ3から、情報出力装置1と1以上の通行者との間の距離データを経時的に取得し、取得された距離データを、体状態ログテーブルBに書き込む処理を実行する。
対象別ログテーブル生成部113は、先ず、頭状態ログテーブルHおよび体状態ログテーブルBから、顔向きデータおよび距離データを読み出す。そして、対象別ログテーブル生成部113は、通行者別に顔向きデータと距離データとを統合して、通行者別の1以上の対象別ログテーブルをそれぞれ生成し、生成された1以上の対象別ログテーブルを、記憶ユニット12の対象別ログテーブル記憶部123に記憶させる処理を実行する。
注視判定部114は、記憶ユニット12の対象別ログテーブル記憶部123から、通行者別の1以上の対象別ログテーブルを読み出す。そして、注視判定部114は、上記読み出された通行者別の1以上の対象別ログテーブルに記憶される顔向きデータに基づいて、1以上の通行者の各々に対して、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する処理を実行して、1以上の通行者の注視状態を判定する。
近接判定部115も、記憶ユニット12の対象別ログテーブル記憶部123から、通行者別の1以上の対象別ログテーブルを読み出す。そして、近接判定部115は、上記読み出された通行者別の1以上の対象別ログテーブルに記憶される距離データに基づいて、1以上の通行者の各々に対して、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かを判定する処理を実行して、1以上の通行者の近接状態を判定する。
出力制御部116は、記憶ユニット12の動作テーブル記憶部125に記憶される動作テーブルを参照し、画像情報または音声情報の出力対象候補となる通行者に対する注視判定部114および近接判定部115における判定結果に基づいて、画像情報または音声情報を出力するか否かを判定する。そして、出力制御部116は、画像情報または音声情報を出力すると判定された場合に、当該画像情報または音声情報を、入出力インタフェースユニット13を介してディスプレイ4またはスピーカ5から出力させる処理を実行する。
なお、出力対象候補となる通行者は、1の通行者に係る顔向きデータおよび距離データのみが取得されている場合にはその通行者である。しかしながら、当該出力対象候補となる通行者は、複数の通行者に係る顔向きデータおよび距離データが取得されている場合には、出力制御部116が備える呼び掛け成功率推定部1161および出力対象候補選択部1162における処理によって選択される。
呼び掛け成功率推定部1161は、記憶ユニット12の呼び掛け成功率テーブル記憶部124に記憶される呼び掛け成功率テーブルを参照し、複数の通行者の各々に対する注視判定部114および近接判定部115における判定結果に基づいて、複数の通行者の各々に対して、画像情報または音声情報を出力することによる呼び掛けの成功率を推定する処理を実行する。
出力対象候補選択部1162は、推定された呼び掛けの成功率が最も高い通行者を、上記出力対象候補となる通行者として選択する処理を実行する。
(動作)
次に、以上のように構成された情報出力装置1の動作を説明する。
(1)計測データの具体例
先ず、情報出力装置1において取得される顔向きデータおよび距離データについて説明する。
図3は、図1に示した距離測定センサ3によって取得される距離データの一例を示す図である。なお、世界座標系の基準軸として、例えば、情報出力装置1のディスプレイ4上に距離測定センサ3が設置されている位置からディスプレイ4の平面に沿って右側へ向かう方向を正の向きとするX軸、ディスプレイ4の平面に沿って下側へ向かう方向を正の向きとするY軸、および、ディスプレイ4の平面から垂直にディスプレイ4の正面方向へ向かう方向を正の向きとするZ軸を用いる。
図3に示されるように、情報出力装置1は距離測定センサ3から、距離データとして、時刻tと、Y軸を中心としてX軸の正の向きから通行者の中心座標の方向までの角度θと、ディスプレイ4上の距離測定センサ3が設置されている位置と通行者の中心座標との間の距離Rとを取得する。距離測定センサ3による距離データの計測は、定期的にまたは不定期に継続して実行される。
図4は、図1に示した顔認識センサ2によって取得される顔向きデータの一例を示す図である。なお、顔認識センサ2は、例えば、撮像素子を平面上に並べたものであり、当該撮像素子が並ぶ平面が上記Z軸と垂直となるように設置されているとする。
図4の(a)は、顔認識センサによって撮影可能な画角θを図示している。図4の(b)は、顔認識センサ2によって撮影される、画像の幅の大きさWと、撮影画像の左上の点を基準とした顔検出枠の左上の座標(x,y)と、顔検出枠の幅の大きさwとを図示している。なお、当該大きさおよび座標は、例えばピクセル単位である。図4の(c)は、通行者の中心座標を通りY軸に平行な直線を中心として、上記X軸の正の向きから通行者の顔の正面方向までの角度θを図示している。なお、θは、通行者の顔がディスプレイ4と反対の側を向いている場合に正の値、通行者の顔がディスプレイ4側を向いている場合には負の値とする。
情報出力装置1は、顔認識センサ2によって撮影される画像から、顔向きデータとして、時刻tと、顔検出枠の左上の座標(x,y)と、顔検出枠の幅の大きさwと、角度θとを取得する。
(2)画像情報または音声情報を出力する動作の具体例
次に、情報出力装置1によって画像情報または音声情報を出力する各動作について説明する。
図5は、図1に示した情報出力装置1が通行者の検知に応じて実行可能な、画像情報または音声情報を出力する動作の一例を示す図である。図5は、情報出力装置1が実行可能な3種類の動作a,a,aを図示している。
動作aは、ディスプレイ4に、手招きをしながら誘導する人の画像情報を出力し、スピーカ5から、「こちらへどうぞ」という呼び掛けの言葉に対応する音声情報を出力する動作である。
動作aは、ディスプレイ4に、手招きをしながら誘導する人の画像情報を出力し、スピーカ5から、「こちらに来てください」という呼び掛けの言葉に対応する音声情報と、通行者の注意を引くための効果音に対応する音声情報とを出力する動作である。なお、効果音に対応する音声情報の音量は、例えば、呼び掛けの言葉に対応する上述した2種類の音声情報の音量よりも大きい。
動作aは、ディスプレイ4に、待機する人の画像情報を出力する動作である。
(3)情報出力装置1が通行者を検知して画像情報または音声情報を出力する全体動作
以下では、情報出力装置1の動作を、図6、図7、および図8に示すフロー図を用いて、図9から図14に示すログテーブルの例を参照しながら説明する。
図6は、図2に示した情報出力装置1の制御ユニット11によって実行される計測値取得処理の一例を示すフロー図である。
先ず、ステップS101において、制御ユニット11は、頭状態ログテーブルHと体状態ログテーブルBをそれぞれ初期化する。
次に、ステップS102において、制御ユニット11は、現在時刻t´を取得し、記憶ユニット12の所定の領域に記憶させる。
ステップS103において、制御ユニット11は、顔向きデータ取得部111の制御の下、顔認識センサ2から、1以上の通行者に係る顔向きデータとして、例えば、計測値t,m,x,y,w,θを取得する。計測値mは、同時刻に複数の通行者に係る顔向きデータが取得される場合に、mの値によって計測値x,y,w,θのパラメータセットを通行者別に区分けして記憶させておくための指標であり、以下でも同様である。
ステップS104において、制御ユニット11は、顔向きデータ取得部111の制御の下、取得される計測値t,m,x,y,w,θを、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHに行を追加して書き込む。なお、図9に、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHの一例を示している。
一方、ステップS105において、制御ユニット11は、距離データ取得部112の制御の下、距離測定センサ3から、情報出力装置1と1以上の通行者との間の距離データとして、例えば、計測値t,m,R,θを取得する。
ステップS106において、制御ユニット11は、距離データ取得部112の制御の下、取得される計測値t,m,R,θを、体状態ログテーブルB記憶部122に記憶される体状態ログテーブルBに行を追加して書き込む。なお、図10に、体状態ログテーブルB記憶部122に記憶される体状態ログテーブルBの一例を示している。
ステップS103およびステップS104における処理と、ステップS105およびステップS106における処理は、定期的にまたは不定期に継続して実行される。
ステップS107において、制御ユニット11は、時刻t´から現在時刻tまでに経過した時間であるt−t´が、所定の時間Tより大きいか否かを判定する。経過時間t−t´がTを越えていない場合、ステップS103およびステップS105の計測値取得処理が継続される。経過時間t−t´がTを越えている場合には、図7に示す、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルを生成する処理が実行される。なお、人間が視覚刺激を認知し反応する時間Taは約200ミリ秒であると知られているが、上記所定の時間Tとして、例えば、Taより長い時間である0.5秒程度の時間を用いる。
図7は、図2に示した情報出力装置1の制御ユニット11によって実行される対象別ログテーブルの生成処理の一例を示すフロー図である。
先ず、ステップS201において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHを読み出し、読み出された頭状態ログテーブルHにid列を付与する。当該id列の付与では、計測値t,m,x,y,w,θの各パラメータセットに対して、同一の通行者のパラメータセットには同一のid値が付与され、異なる通行者のパラメータセットには異なるid値が付与される。
ステップS202において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、体状態ログテーブルB記憶部122に記憶される体状態ログテーブルBを読み出し、読み出された体状態ログテーブルBにid列を付与する。当該id列の付与では、計測値t,m,R,θの各パラメータセットに対して、同一の通行者のパラメータセットには同一のid値が付与され、異なる通行者のパラメータセットには異なるid値が付与される。なお、ステップS201における処理と、ステップS202における処理は、任意の順序で実行してよい。
次に、ステップS203において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id列が付与された頭状態ログテーブルHと、id列が付与された体状態ログテーブルBとの間でマッチングを実行し、同一の通行者を示しているid値とid値との対応付けをする。
ステップS204において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルHにid列が付与された頭状態ログテーブルH´と、体状態ログテーブルBにid列が付与された体状態ログテーブルB´とにおいて、id値とid値との上記対応付けに基づいて、id値およびid値と置き換えて、同一の通行者のパラメータセットには同一の値のid値を付与し、異なる通行者のパラメータセットには異なる値のid値を付与し、頭状態ログテーブルH´´と体状態ログテーブルB´´とを生成する。その後、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´と体状態ログテーブルB´´とを組み合わせて、統合ログテーブルMを生成する。
図11に、図9に示した頭状態ログテーブルHから生成された頭状態ログテーブルH´´の一例を示しており、図12に、図10に示した体状態ログテーブルBから生成された体状態ログテーブルB´´の一例を示している。なお、図11に示す頭状態ログテーブルH´´にはR列とθ列が値をすべてNAで埋めて追加されており、図12に示す体状態ログテーブルB´´にはx列、y列、w列、θ列が値をすべてNAで埋めて追加されている。また、図13に、図11に示した頭状態ログテーブルH´´と図12に示した体状態ログテーブルB´´とを組み合わせて生成された統合ログテーブルMの一例を示している。
最後に、ステップS205において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、統合ログテーブルMをid値を基準に分割して、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルM1,M2,・・・を生成し、生成された1以上の対象別ログテーブルM1,M2,・・・を対象別ログテーブル記憶部123に記憶させる。なお、図14に、図13に示した統合ログテーブルMから生成された対象別ログテーブルM1,M2の一例を示している。
図8は、図2に示した情報出力装置1の制御ユニット11によって実行される出力制御処理の一例を示すフロー図である。
先ず、ステップS301において、制御ユニット11は、注視判定部114の制御の下、対象別ログテーブル記憶部123に記憶される1以上の対象別ログテーブルM1,M2,・・・を読み出し、読み出された1以上の対象別ログテーブルM1,M2,・・・に記憶される顔向きデータに基づいて、id値に対応する通行者毎に、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する注視判定処理を実行する。また、制御ユニット11は、近接判定部115の制御の下、対象別ログテーブル記憶部123に記憶される1以上の対象別ログテーブルM1,M2,・・・を読み出し、読み出された1以上の対象別ログテーブルM1,M2,・・・に記憶される距離データに基づいて、id値に対応する通行者毎に、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かを判定する近接判定処理を実行する。
次に、ステップS302において、制御ユニット11は、呼び掛け成功率推定部1161の制御の下、呼び掛け成功率テーブル記憶部124に記憶される呼び掛け成功率テーブルを参照し、id値に対応する通行者毎の、ステップS301における注視判定処理および近接判定処理の判定結果に基づいて、id値に対応する通行者毎に、画像情報または音声情報を出力することによる呼び掛けの成功率を推定する。
その後、制御ユニット11は、出力対象候補選択部1162の制御の下、推定された呼び掛け成功率が最も高い通行者に対応するid値を選択することにより、推定された呼び掛け成功率が最も高い通行者を、画像情報または音声情報の出力対象候補となる通行者として選択する。
ステップS303において、制御ユニット11は、出力制御部116の制御の下、選択されたid値に対応する通行者に対するステップS301における注視判定処理および近接判定処理の判定結果と、動作テーブル記憶部125に記憶される動作テーブルとに基づいて、情報出力装置1が画像情報または音声情報を出力することにより実行する動作aを選択する。
ステップS304において、制御ユニット11は、出力制御部116の制御の下、選択された動作a、選択されたid値を示す信号、選択されたid値に関する対象別ログテーブルMidを出力する。これにより、例えば、選択されたid値に関する対象別ログテーブルMidにおける位置情報等を用いて、選択されたid値に対応する通行者に対して画像情報または音声情報を出力することもできる。
なお、上記では出力対象候補の通行者を選択する場合を例として説明したが、出力対象候補の通行者を選択しなくてもよい。例えば、出力対象候補の通行者を選択せずに、ステップS301における注視判定処理および近接判定処理の判定結果が動作テーブル等における所定の条件を満たす通行者がいる場合や、所定の条件を満たす通行者の数等を基準として、動作テーブル等を参照して情報出力装置1から画像情報または音声情報を出力するようにしてもよい。
また、出力対象候補の通行者を選択する場合も、上述した呼び掛け成功率を用いる以外の方法で当該選択を行ってもよい。例えば、ステップS301における注視判定処理および近接判定処理の判定結果が動作テーブル等における所定の条件を満たす通行者のうち、情報出力装置1の最も近い距離にいる通行者を選択するようにしてもよい。
(4)注視判定処理および近接判定処理の具体例
上述したように、通行者の状態は、注視判定処理と近接判定処理によって2種類の観点で判定される。すなわち、通行者の状態“sid”は、近接判定処理の判定結果“isNear(Mid)”と、注視判定処理の判定結果“isLooking(Mid)”とにより次式で表される。
図15は、図8のステップS301において実行される近接判定処理の一例を示す図である。
上述したように、当該近接判定処理は、距離測定センサ3から取得され通行者別に対象別ログテーブルM1,M2,・・・のいずれかに記憶される距離データに基づいて、id値に対応する通行者毎に、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かを判定する処理である。
上記所定の距離Rとして、例えば、ロボットと人間における個人的距離と社会的距離の境目として知られている100cmを用いてもよい。また、上記第2の時間Tとして、例えば、計測時間の半分の時間を用いてもよい。なお、上記所定の距離Rおよび上記時間Tは、任意の値であってもよい。
上記近接判定処理は、例えば、情報出力装置1のディスプレイ4からの距離R以内に通行者が時間T以上の時間いる場合にTrue、そうではない場合にFalseを返す、次式で表される関数を用いて実行される。当該関数は、距離測定センサ3から取得される情報出力装置1と通行者との間の距離の計測値Rに関する条件を規定する関数である。なお、次式では、時間Tが、計測時間の基準とする時間の半分の時間である(t−t´)/2である場合を示している。また、次式では、積分記号は台形則などの数値積分を表すものであり、 欠損値は値として無視するものとする。R(t)がすべて欠損値ならば計算不能としてotherwiseの条件が適用される。以下でも同様である。
なお、上記の式中のUは単位ステップ関数であり、以下のように表される。
図16は、図8のステップS301において実行される注視判定処理の一例を示す図である。
上述したように、当該注視判定処理は、顔認識センサ2から取得され通行者別に対象別ログテーブルM1,M2,・・・のいずれかに記憶される顔向きデータに基づいて、id値に対応する通行者毎に、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する処理である。
上記通行者の顔が情報出力装置1を含む所定の範囲を向いているか否かを判定する基準として、本実施形態では例えば角度を用いる。人間が頭を動かさずに刺激を捉えることができる視野角2θは、22.0度であると知られている。したがって、例えば、注視判定の上記基準角度として、視野角2θの22.0度を用いてもよい。また、上記第1の時間Tとして、例えば、計測時間の半分の時間を用いてもよい。なお、上記基準角度および上記時間Tは、任意の値であってもよい。
上記注視判定処理は、例えば、情報出力装置1のディスプレイ4の中心側を通行者が時間T以上の時間向いている場合にTrue、そうでない場合にFalseを返す、次式で表される関数を用いて実行される。当該関数は、顔認識センサ2から取得される上記で説明した計測値x,w,θに関する条件を規定する関数である。なお、次式では、時間Tが、計測時間の基準とする時間の半分の時間である(t−t´)/2である場合を示している。なお、次式では、θ,θ,θ(t)はラジアンを単位として表している。
なお、θ(t)は以下のように表される。
なお、顔認識センサ2からの計測値x,w,θから、計測値x,wにより上記の式で算出されたθを用いて注視判定処理を実行する代わりに、距離測定センサ3からの計測値θをそのまま用いて上記注視判定処理を実行してもよい。
(5)出力制御処理の具体例
図17は、図8のステップS302において実行される出力対象候補選択処理において参照される呼び掛け成功率テーブルの一例を示す図である。
図17に示されているように、呼び掛け成功率テーブルは、通行者に対する近接判定処理の判定結果“isNear(Mid)”と、当該通行者に対する注視判定処理の判定結果“isLooking(Mid)”と、当該近接判定処理の判定結果および当該注視判定処理の判定結果にある通行者に画像情報または音声情報を出力することによる呼びかけの成功率“P(sid)”とを対応付けて記憶している。
図8のステップS302における呼び掛け成功率推定処理では、各id値に対応する通行者毎に、呼び掛け成功率テーブルが参照され、当該通行者に画像情報または音声情報を出力することによる呼び掛けの成功率が、当該通行者に対するステップS301における近接判定処理の判定結果と注視判定処理の判定結果とに対応付けられた呼び掛け成功率であると推定される。その後、図8のステップS302における出力対象候補選択処理では、推定された呼び掛け成功率が最も高い通行者に対応するid値を選択することにより、推定された呼び掛け成功率が最も高い通行者が画像情報または音声情報の出力対象候補となる通行者として選択される。
上記出力対象候補選択処理は、次式を用いて実行される。
図18は、図8のステップS303において実行される出力動作選択処理において参照される動作テーブルの一例を示す図である。
図18に示されているように、動作テーブルは、通行者に対する近接判定処理の判定結果“isNear(Mid)”と、当該通行者に対する注視判定処理の判定結果“isLooking(Mid)”と、当該近接判定処理の判定結果および当該注視判定処理の判定結果にある通行者に画像情報または音声情報を出力する動作aとを対応付けて記憶している。図18に示される動作テーブルに記憶される動作a,a,aは、図5で定義した動作a,a,aに一致している。
図8のステップS303における出力動作選択処理では、例えば、ステップS301における近接判定処理の判定結果“isNear(Mid)”がFalseであり、かつ、ステップS301における注視判定処理の判定結果“isLooking(Mid)”がFalseである場合に、図18に示す動作テーブルにおいて対応付けられている、誘導を実行しない動作aが選択される。
一方、ステップS301における近接判定処理の判定結果“isNear(Mid)”がFalseであり、かつ、ステップS301における注視判定処理の判定結果“isLooking(Mid)”がTrueである場合には、図18に示す動作テーブルにおいて対応付けられている、誘導を実行する動作aが選択される。
さらに、ステップS301における近接判定処理の判定結果“isNear(Mid)”がTrueであり、ステップS301における注視判定処理の判定結果“isLooking(Mid)”がTrueまたはFalseである場合には、図18に示す動作テーブルにおいて対応付けられている、誘導を実行する動作ではあるが、出力される音声に通行者の注意を引くための効果音が含まれずゆえに音量が小さいものとなっている動作aが選択される。
なお、図18に示した動作テーブルは一例に過ぎず、例えば、近接判定処理の判定結果“isNear(Mid)”がTrueであり、かつ、注視判定処理の判定結果“isLooking(Mid)”がTrueである場合にのみ、誘導を実行する動作a,aが選択されるようにしてもよい。さらに、動作a,a,aは、図5において、いずれも画像情報は出力するものとして定義したが、例えば、画像情報と音声情報のいずれも出力しないような動作であってもよい。
(6)統合ログテーブル生成処理の具体例
ここでは、図7のステップS201からステップS204において実行される、頭状態ログテーブルHと体状態ログテーブルBとを通行者情報を追加した上で組み合わせて、統合ログテーブルMを生成させる処理について詳しく説明する。
図19は、情報出力装置1において取得される顔向きデータおよび距離データの計測値の各パラメータセットに、最近傍法を利用して通行者情報を追加するトラッキング処理の概念図である。各パラメータセットについて、時間的に隣接する各パラメータセットとの距離を算出し、算出された距離が最も小さいパラメータセットを同一の通行者に係るパラメータセットであると判定する。ただし、距離が最も近いパラメータセットであっても、当該距離が所定の値より大きい場合には、異なる通行者に係るパラメータセットであると判定するようにする。
本実施形態では、頭状態ログテーブルHに記憶される1以上の通行者に係る顔向きデータにおいて、最近傍法を利用して通行者情報を追加するトラッキング処理を実行し、同一の通行者のパラメータセットには同一のid値が付与されるようにし、異なる通行者のパラメータセットには異なるid値が付与されるようにする。また、体状態ログテーブルBにおいても同様の処理を実行し、各パラメータセットにid値が付与される。
図20は、図7のステップS201において実行される、頭状態ログテーブルHの各パラメータセットに通行者情報であるid値を付与して頭状態ログテーブルH´を生成させる処理の一例、ならびに、図7のステップS202において実行される、体状態ログテーブルBの各パラメータセットに通行者情報であるid値を付与して体状態ログテーブルB´を生成させる処理の一例を示すフロー図である。
以下では、例として、頭状態ログテーブルHから頭状態ログテーブルH´を生成する例について詳細に説明する。
当該頭状態ログテーブルH´および体状態ログテーブルB´の生成処理は、図19に図示したトラッキング処理によって実行される。
ステップS401において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHを読み出す。
ステップS402において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、読み出された頭状態ログテーブルHに計測開始時刻とともに記憶されているパラメータセットにid値を付与する。なお、計測開始時刻とともに記憶されているパラメータセットが複数ある場合には、各パラメータセットに対して各々異なるid値を付与する。
ステップS403において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id値の付与処理の基準時刻として、先ず計測開始時刻を選択する。
ステップS404において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id値の付与処理の基準id値として、上記選択された計測開始時刻とともに記憶されているパラメータセットに各々付与されたid値の中から開始id値を選択する。ここでは、例として、開始id値として1が選択されたとして説明する。
次に、ステップS405において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルHに記憶されている、上記基準時刻より後の時間的に隣接するパラメータセット(xtrack,ytrack,wtrack)のうちに、上記基準時刻とともに記憶され基準id値である1が付与されているパラメータセット(xrow,yrow,wrow)との距離が、所定の空間距離内のものがあるか否かを判定する。なお、当該所定の空間距離は、例えば、固定の値でも、パラメータセット間の時間差に比例するものであってもよい。なお、上記空間距離は、次式を用いて算出される。
ステップS405において所定の空間距離内のパラメータセットがあると判定された場合、ステップS406において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、当該所定の空間距離内のパラメータセットのうち空間距離が最も小さいパラメータセットに、id値として基準id値と同一の値である1を付与する。
ステップS405において所定の空間距離内のパラメータセットがないと判定された場合、あるいは、ステップS406における処理の後に、ステップS407において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、基準時刻とともに記憶されている各パラメータセットに付与されているすべてのid値を基準として、ステップS405およびステップS406の処理が完了したか否かが判定される。基準時刻とともに記憶されている各パラメータセットに付与されているすべてのid値を基準としてステップS405およびステップS406の処理が完了していないと判定された場合、ステップS408において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、基準id値を、基準時刻とともに記憶されているパラメータセットに付与されているid値の範囲の次のid値にインクリメントし、ステップS405からの処理が繰り返される。
基準時刻とともに記憶されている各パラメータセットに付与されているすべてのid値を基準としてステップS405およびステップS406の処理が完了したと判定された場合、ステップS409において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、上記基準時刻より後の時間的に隣接するパラメータセットのうち未だid値が付与されていないパラメータセットに対して、いずれかのパラメータセットに既に付与されているid値とは異なる新たなid値を付与する。
ステップS410において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、計測されたすべての時刻を基準時刻としてステップS404からステップS409までの処理が完了したか否かを判定する。計測されたすべての時刻を基準時刻としてステップS404からステップS409までの処理が完了していないと判定された場合は、ステップS411において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、基準時刻をインクリメントし、ステップS404からステップS409までの処理が繰り返される。
計測されたすべての時刻を基準時刻としてステップS404からステップS409までの処理が完了したと判定された場合、ステップS412において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルHに記憶されるすべてのパラメータセットにid値が付与されたログテーブルH´を出力し、記憶ユニット12の所定の領域に記憶させる。
上記では頭状態ログテーブルHから頭状態ログテーブルH´を生成する例について詳細に説明したが、体状態ログテーブルBから体状態ログテーブルB´も同様の方法で生成される。
ただし、体状態ログテーブルB´を生成する場合には、ステップS405における空間距離は、パラメータセット(R,θ)を用いて、
によって算出される。
図21は、図7のステップS203において実行される、同一の通行者を示しているid値とid値とを対応付けるマッチリストを生成させる処理の一例を示すフロー図である。
ステップS501において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、記憶ユニット12に記憶される頭状態ログテーブルH´と体状態ログテーブルB´とを読み出す。
ステップS502において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´に記憶される、同一のid値が付与されたパラメータセットの時系列データと、体状態ログテーブルB´に記憶される、同一のid値が付与されたパラメータセットの時系列データとの間のDTW(Dynamic Time Warping)距離を、id値とid値との各組合せに対して算出する。
ステップS503において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、算出されたDTW距離のうち最も小さいものを選択する。
ステップS504において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、選択されたDTW距離の値が所定の値より小さいか否かを判定する。
選択されたDTW距離の値が所定の値より小さいと判定された場合、ステップS505において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、選択されたDTW距離に対応するid値およびid値を対応付ける。
ステップS506において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id値とid値の両方において、上記対応付けがされていないものがあるか否かを判定する。
id値とid値の両方において、上記対応付けがされていないものがあると判定された場合、ステップS507において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、既に対応付けがされたid値およびid値を除くid値とid値との各組合せに対して算出されたDTW距離のうち最も小さいものを選択する。選択されたDTW距離について、ステップS504からの処理が繰り返される。
ここで、ステップS504において、最も小さいものとして選択されたDTW距離の値が所定の値より大きいと判定された場合、あるいは、ステップS506において、すべてのid値またはすべてのid値について上記対応付けがされていると判定された場合に、id値とid値との間のマッチングは完了し、ステップS508において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、id値とid値との対応付けを示すマッチリストを出力し、記憶ユニット12の所定の領域に記憶させる。
図22は、図7のステップS204において実行される、頭状態ログテーブルH´と体状態ログテーブルB´とをマッチリストを利用して組み合わせて、統合ログテーブルMを生成させる処理の一例を示すフロー図である。
ステップS601において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、記憶ユニット12に記憶される頭状態ログテーブルH´と体状態ログテーブルB´とマッチリストとを読み出す。
ステップS602において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、読み出された頭状態ログテーブルH´および体状態ログテーブルB´を各々複製した、頭状態ログテーブルH´´および体状態ログテーブルB´´を生成する。
ステップS603において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、マッチリストからid値とid値との対応付けの1つを選択する。
ステップS604において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´に記憶されるパラメータセットのうち、選択された対応付けに関するid値が付与されたパラメータセットと、体状態ログテーブルB´´に記憶されるパラメータセットのうち、選択された対応付けに関するid値が付与されたパラメータセットとに、いずれかのパラメータセットに既に付与されているid値とは異なる新たなid値を付与する。
ステップS605において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、マッチリストにおけるid値とid値とのすべての対応付けについてステップS604の処理が完了したか否かを判定する。id値とid値とのすべての対応付けについてステップS604の処理が完了していないと判定された場合、ステップ606において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、マッチリストから未処理のid値とid値との対応付けの1つを選択する。その後、ステップS604からの処理が繰り返される。
ステップS605において、id値とid値とのすべての対応付けについてステップS604の処理が完了したと判定された場合、ステップS607において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´においてid列を削除し、体状態ログテーブルB´´においてid列を削除する。
ステップS608において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´において、R列とθ列を、値をすべてNAで埋めて追加する。なお、当該処理後の頭状態ログテーブルH´´は、図11に示した頭状態ログテーブルH´´の例に対応する。一方、ステップS609において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、体状態ログテーブルB´´において、x列、y列、w列、θ列を、値をすべてNAで埋めて追加する。なお、当該処理後の体状態ログテーブルB´´は、図12に示した体状態ログテーブルB´´の例に対応する。なお、ステップS608とステップS609との処理の順序は問わない。
ステップS610において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルH´´と体状態ログテーブルB´´とを組み合わせて統合ログテーブルMを生成する。
ステップS611において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、統合ログテーブルMからm列を削除する。
ステップS612において、制御ユニット11は、対象別ログテーブル生成部113の制御の下、統合ログテーブルMを出力し、記憶ユニット12の所定の領域に記憶させる。なお、当該統合ログテーブルMは、図13に示した統合ログテーブルMの例に対応する。
(効果)
以上詳述したように、この発明の第1の実施形態では、以下のような効果が奏せられる。
(1)顔向きデータ取得部111の制御の下、顔認識センサ2から、1以上の通行者に係る顔向きデータが経時的に取得され、頭状態ログテーブルH記憶部121に記憶される頭状態ログテーブルHに書き込まれる。一方、距離データ取得部112の制御の下、距離測定センサ3から、情報出力装置1と1以上の通行者との間の距離データが取得され、体状態ログテーブルB記憶部122に記憶される体状態ログテーブルBに書き込まれる。その後、対象別ログテーブル生成部113の制御の下、頭状態ログテーブルHと体状態ログテーブルBとから、通行者別に顔向きデータと距離データとを統合した、通行者別の1以上の対象別ログテーブルが生成される。その後、注視判定部114の制御の下、通行者別の1以上の対象別ログテーブルに基づいて、通行者毎に、当該通行者の顔が情報出力装置1を含む所定の範囲を向いている時間が第1の時間以上であるか否かが判定される注視判定処理が実行される。また、近接判定部115の制御の下、通行者別の1以上の対象別ログテーブルに基づいて、通行者毎に、情報出力装置1から所定の距離内に当該通行者が存在する時間が第2の時間以上であるか否かが判定される近接判定処理が実行される。その後、出力制御部116の制御の下、通行者毎の注視判定処理および近接判定処理の判定結果に基づいて、情報出力装置1が画像情報または音声情報を出力することにより実行する動作aが選択される。
顔向きは視線に方向がおおよそ一致するものであり、それゆえ通行者の顔向きは、情報出力装置1と通行者との間の距離と同様に、通行者が情報出力装置1に興味を示しているか否かを判断するために有用である。したがって、上述したように情報出力装置1と通行者との間の距離に加えて通行者の顔向きを基準として用いることにより、例えば情報出力装置1に対して確かに興味を示している通行者を対象として、画像情報または音声情報を出力することが可能となる。
また、複数の通行者に係る顔向きデータおよび距離データが取得される場合に、当該複数の通行者の中に、注視判定処理と近接判定処理との両方の判定結果が所定の条件を満たす通行者がいる場合や、所定の条件を満たす通行者の数等を基準として、画像情報または音声情報を出力するようにすることができる。
(2)出力制御部116では、呼び掛け成功率推定部1161の制御の下、呼び掛け成功率テーブルが参照され、通行者毎の注視判定処理および近接判定処理の判定結果に基づいて、通行者毎に、画像情報または音声情報を出力することによる呼び掛けの成功率が推定される。出力対象候補選択部1162の制御の下、推定された呼び掛け成功率が最も高い通行者に対応するid値を選択することにより、推定された呼び掛け成功率が最も高い通行者が画像情報または音声情報の出力対象候補となる通行者として選択される。その後、出力制御部116の制御の下、選択された通行者に対する注視判定処理および近接判定処理の判定結果と、動作テーブルとに基づいて、情報出力装置1が画像情報または音声情報を出力することにより実行する上記動作aが選択される。出力制御部116の制御の下、選択された動作a、選択されたid値を示す信号、選択されたid値に関する対象別ログテーブルMidが出力される。
このように、呼び掛けの成功率が最も高いと知られている状態にある通行者を選択して、その状態に対応する画像情報または音声情報を出力すれば、例えば、少なくとも予め保証されている成功率の確度で、選択された通行者を呼び止められる可能性があるという利点がある。
また、上記選択されたid値を示す信号、選択されたid値に関する対象別ログテーブルMidを利用して、例えば、選択された通行者の方向にディスプレイ4の正面が向くようにディスプレイ4の角度を調節して画像情報を出力したり、選択された通行者の方向にスピーカ5の正面が向くようにスピーカ5の向きを調節して音声情報を出力したりするようにしてもよい。このようにすると、選択された通行者が画像情報または音声情報の提供をより一層受けやすくなり、当該画像情報または音声情報の出力による通行者の呼び掛けが成功する確率が高くなる。
(3)上記動作テーブルは、通行者に対する近接判定処理の判定結果“isNear(Mid)”と、当該通行者に対する注視判定処理の判定結果“isLooking(Mid)”と、当該近接判定処理の判定結果および当該注視判定処理の判定結果にある通行者に画像情報または音声情報を出力する動作aとを対応付けて記憶している。上述した動作aの選択では、近接判定処理の判定結果“isNear(Mid)”がFalseであり、かつ、注視判定処理の判定結果“isLooking(Mid)”がFalseである場合に、動作テーブルにおいて対応付けられている、誘導を実行しない動作aが選択される。
一方、近接判定処理の判定結果“isNear(Mid)”がFalseであり、かつ、注視判定処理の判定結果“isLooking(Mid)”がTrueである場合には、動作テーブルにおいて対応付けられている、誘導を実行する動作aが選択される。
さらに、近接判定処理の判定結果“isNear(Mid)”がTrueであり、注視判定処理の判定結果“isLooking(Mid)”がTrueまたはFalseである場合には、動作テーブルにおいて対応付けられている、誘導を実行する動作ではあるが、出力される音声に通行者の注意を引くための効果音が含まれずゆえに音量が小さいものとなっている動作aが選択される。
情報出力装置1に近寄らずに情報出力装置1を眺めているような通行者は、情報出力装置1に興味がある可能性が高いかもしれないが、情報出力するか否かを距離だけを基準に判定していた従来技術では情報出力の対象とすることができなかった。しかしながら、上述した動作テーブルの構成により、そのような通行者に対しても、画像情報または音声情報を出力するようにすることができる。
また、上述したような音量調節を行うことによって、例えば、情報出力装置1の近くにいる通行者に大きな音量の音声情報を出力して不快感を与えてしまうことを防ぐことができる。
[他の実施形態]
なお、この発明は上記第1の実施形態に限定されるものではない。例えば、上記第1の実施形態では、情報出力装置が画像情報または音声情報を出力する装置である例について説明した。しかしながら、情報出力装置は、対象物を駆動するための駆動制御情報または音声情報を出力する装置であってもよい。例えば、情報出力装置は、ヒト型のロボットであり、対象物としての左手部分の可動部を駆動するための駆動制御情報を出力し、それに応じて左手部分を回転させて通行者にジェスチャを提示することが可能な装置であってもよい。なお、上記対象物は複数あってもよく、駆動制御情報は、複数の対象物のうちの任意のものを駆動するための情報であってもよい。
図23は、情報出力装置が通行者の検知に応じて実行可能な、駆動制御情報または音声情報を出力する動作の一例を示す図である。図23に図示される3種類の動作a,a,aはそれぞれ、図5に関連して図示して説明した動作a,a,aに対応している。
動作aは、左手部分の可動部を駆動させることにより、手招きをしながら誘導するジェスチャを実行し、スピーカから、「こちらへどうぞ」という呼び掛けの言葉に対応する音声情報を出力する動作である。
動作aは、左手部分の可動部を駆動させることにより、手招きをしながら誘導するジェスチャを実行し、スピーカから、「こちらに来てください」という呼び掛けの言葉に対応する音声情報と、通行者の注意を引くための効果音に対応する音声情報とを出力する動作である。なお、効果音に対応する音声情報の音量は、例えば、呼び掛けの言葉に対応する上述した2種類の音声情報の音量よりも大きい。
動作aは、左手部分の可動部を駆動させずに情報出力装置を待機させる動作である。すなわち、駆動制御情報と音声情報のいずれも出力しない動作である。
図23の例の場合は、図17に示した呼び掛け成功率テーブルは、通行者に対する近接判定処理の判定結果“isNear(Mid)”と、当該通行者に対する注視判定処理の判定結果“isLooking(Mid)”と、当該近接判定処理の判定結果および当該注視判定処理の判定結果にある通行者に駆動制御情報または音声情報を出力することによる呼びかけの成功率“P(sid)”とを対応付けて記憶するようにすればよい。また、図18に示した動作テーブルは、動作テーブルに記憶される動作a,a,aを、図23で定義した動作a,a,aに一致させるようにすればよい。
なお、情報出力装置は、上述したような、画像情報または音声情報を出力する装置や、駆動制御情報または音声情報を出力する装置に限定されない。すなわち、情報出力装置は、画像情報と音声情報と駆動制御情報とのうちの少なくとも1つを出力可能であり、出力可能なこれらの情報を任意の組み合わせで出力可能な装置であってもよい。この場合、上述したのと同様に動作a,a,aを、出力可能な情報の任意の組み合わせで定義し、呼び掛け成功率テーブルおよび動作テーブルも上述したのと同様に適宜設計すればよい。なお、例えば、上述したのと同様に、選択された通行者の方向に向かって、可動部を駆動してジェスチャを提示するようにすれば、可動部により実行されるジェスチャを、選択された通行者がより一層受けやすくなり、当該画像情報と音声情報と駆動制御情報とのうちの少なくとも1つの出力による通行者の呼び掛けが成功する確率が高くなる。
また、顔認識センサおよび距離測定センサから取得される計測データは上記で示したものと異なるものであってもよく、その場合、注視判定処理および近接判定処理も上記で示したのとは異なる関数を用いて実行されるようにしてもよい。また、上記では、頭状態ログテーブルHおよび体状態ログテーブルBにid値を付与する際のトラッキング処理について、最近傍法を利用するものとして説明したが、トラッキング処理はこれに限定されるものではない。さらに、id値とid値とを対応付けるマッチリストを生成させる処理について、DTW距離を利用するものとして説明したが、マッチリストを生成させる処理もこれに限定されるものではない。
その他、情報出力装置の種類とその構成、ならびに、各ログテーブルや呼び掛け成功率テーブルおよび動作テーブルの構成や、注視判定処理および近接判定処理の詳細等についても、この発明の要旨を逸脱しない範囲で種々変形して実施可能である。
要するにこの発明は、上記第1の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記第1の実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の発明を形成できる。例えば、上記第1の実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態に亘る構成要素を適宜組み合せてもよい。
1…情報出力装置、11…制御ユニット、111…顔向きデータ取得部、112…距離データ取得部、113…対象別ログテーブル生成部、114…注視判定部、115…近接判定部、116…出力制御部、1161…呼び掛け成功率推定部、1162…出力対象候補選択部、12…記憶ユニット、121…頭状態ログテーブルH記憶部、122…体状態ログテーブルB記憶部、123…対象別ログテーブル記憶部、124…呼び掛け成功率テーブル記憶部、125…動作テーブル記憶部、13…入出力インタフェースユニット、2…顔認識センサ、3…距離測定センサ、4…ディスプレイ、5…スピーカ

Claims (8)

  1. 通行者の検知に応じて当該通行者に対して、画像情報と、音声情報と、対象物を駆動するための駆動制御情報とのうちの少なくとも1つを出力可能な情報出力装置であって、
    顔認識センサから、前記通行者に係る顔向きデータを経時的に取得する顔向きデータ取得部と、
    距離測定センサから、前記情報出力装置と前記通行者との間の距離データを経時的に取得する距離データ取得部と、
    前記取得される顔向きデータに基づいて、前記通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する注視判定部と、
    前記取得される距離データに基づいて、前記情報出力装置から所定の距離内に前記通行者が存在する時間が第2の時間以上であるか否かを判定する近接判定部と、
    前記注視判定部および前記近接判定部における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる出力制御部と
    を備える情報出力装置。
  2. 前記出力制御部は、前記通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が前記第1の時間以上であると判定され、かつ、前記情報出力装置から所定の距離内に前記通行者が存在する時間が前記第2の時間未満であると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定する、請求項1に記載の情報出力装置。
  3. 前記出力制御部は、前記情報出力装置から所定の距離内に前記通行者が存在する時間が前記第2の時間未満であると判定される場合には、前記音声情報として、予め設定された第1の音量の音声情報を出力させ、前記情報出力装置から所定の距離内に前記通行者が存在する時間が前記第2の時間以上であると判定される場合には、前記音声情報として、前記第1の音量より小さい第2の音量の音声情報を出力させる、請求項1又は2に記載の情報出力装置。
  4. 前記顔向きデータ取得部は、前記顔認識センサから、複数の通行者の各々に係る顔向きデータを経時的に取得し、
    前記距離データ取得部は、前記距離測定センサから、前記情報出力装置と前記複数の通行者の各々との間の距離データを経時的に取得し、
    前記注視判定部は、前記複数の通行者の各々に対して、当該通行者の顔が前記情報出力装置を含む所定の範囲を向いている時間が前記第1の時間以上であるか否かを判定し、
    前記近接判定部は、前記複数の通行者の各々に対して、前記情報出力装置から所定の距離内に当該通行者が存在する時間が前記第2の時間以上であるか否かを判定し、
    前記出力制御部は、前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる、請求項1乃至3のいずれかに記載の情報出力装置。
  5. 前記出力制御部は、
    前記複数の通行者の各々に対する前記注視判定部および前記近接判定部における判定結果に基づいて、前記複数の通行者の各々に対して前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力することによる呼び掛けの成功率を推定する推定部と、
    前記推定された呼び掛けの成功率が最も高い通行者を、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つの出力対象候補となる通行者として選択する対象選択部と
    を備え、
    前記出力制御部は、前記選択された通行者に対する前記注視判定部および前記近接判定部における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる、請求項4に記載の情報出力装置。
  6. 前記出力制御部は、前記選択された通行者に対して前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる、請求項5に記載の情報出力装置。
  7. ハードウェアプロセッサおよびメモリを備え、通行者の検知に応じて当該通行者に対して、画像情報と、音声情報と、対象物を駆動するための駆動制御情報とのうちの少なくとも1つを出力可能な装置が実行する情報出力方法であって、
    顔認識センサから、前記通行者に係る顔向きデータを経時的に取得する過程と、
    距離測定センサから、前記装置と前記通行者との間の距離データを経時的に取得する過程と、
    前記取得される顔向きデータに基づいて、前記通行者の顔が前記装置を含む所定の範囲を向いている時間が第1の時間以上であるか否かを判定する注視判定過程と、
    前記取得される距離データに基づいて、前記装置から所定の距離内に前記通行者が存在する時間が第2の時間以上であるか否かを判定する近接判定過程と、
    前記注視判定過程および前記近接判定過程における判定結果に基づいて、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力するか否かを判定し、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力すると判定された場合に、前記画像情報と前記音声情報と前記駆動制御情報とのうちの少なくとも1つを出力させる過程と
    を備える情報出力方法。
  8. 請求項1乃至6のいずれかに記載の情報出力装置が備える各部としてハードウェアプロセッサを機能させるプログラム。
JP2018011940A 2018-01-26 2018-01-26 情報出力装置、方法およびプログラム Active JP6850740B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018011940A JP6850740B2 (ja) 2018-01-26 2018-01-26 情報出力装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018011940A JP6850740B2 (ja) 2018-01-26 2018-01-26 情報出力装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2019128910A true JP2019128910A (ja) 2019-08-01
JP6850740B2 JP6850740B2 (ja) 2021-03-31

Family

ID=67472297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018011940A Active JP6850740B2 (ja) 2018-01-26 2018-01-26 情報出力装置、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6850740B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277097A (ja) * 2008-05-15 2009-11-26 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置
JP2010112979A (ja) * 2008-11-04 2010-05-20 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2011077913A (ja) * 2009-09-30 2011-04-14 Nhk Service Center Inc 情報伝達処理装置及び情報伝達処理システム並びにこれらに用いるコンピューター・プログラム
JP2016115185A (ja) * 2014-12-16 2016-06-23 日本電信電話株式会社 情報提示先選択方法、装置及びそのプログラム
WO2016132884A1 (ja) * 2015-02-16 2016-08-25 ソニー株式会社 情報処理装置および方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009277097A (ja) * 2008-05-15 2009-11-26 Nippon Telegr & Teleph Corp <Ntt> 情報処理装置
JP2010112979A (ja) * 2008-11-04 2010-05-20 Advanced Telecommunication Research Institute International インタラクティブ看板システム
JP2011077913A (ja) * 2009-09-30 2011-04-14 Nhk Service Center Inc 情報伝達処理装置及び情報伝達処理システム並びにこれらに用いるコンピューター・プログラム
JP2016115185A (ja) * 2014-12-16 2016-06-23 日本電信電話株式会社 情報提示先選択方法、装置及びそのプログラム
WO2016132884A1 (ja) * 2015-02-16 2016-08-25 ソニー株式会社 情報処理装置および方法、並びにプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
尾崎 安範、外7名: ""通行者の行動モデルに基づいてサービス利用を促すバーチャルエージェントを備えたインタラクティブサイネ", 電子情報通信学会技術研究報告 クラウドネットワークロボット, vol. 第116巻,第462号, JPN6020035896, February 2017 (2017-02-01), pages 111 - 116, ISSN: 0004351113 *
木原 民雄、外2名: ""人の位置移動による状況即応型デジタルサイネージの構成法"", 情報処理学会論文誌, vol. 第53巻,第2号, JPN6020035897, February 2012 (2012-02-01), pages 868 - 878, ISSN: 0004351114 *

Also Published As

Publication number Publication date
JP6850740B2 (ja) 2021-03-31

Similar Documents

Publication Publication Date Title
JP6592183B2 (ja) モニタリング
US7680295B2 (en) Hand-gesture based interface apparatus
JP6950692B2 (ja) 人流推定装置、人流推定方法およびプログラム
US10168787B2 (en) Method for the target recognition of target objects
JP2019527448A (ja) 車両の運転者の状態を監視するための方法及びシステム
KR102032662B1 (ko) 장면 공간 모니터링을 통한 사람-컴퓨터 상호 작용
EP3037917A1 (en) Monitoring
JP5001930B2 (ja) 動作認識装置及び方法
WO2020031767A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019097595A1 (ja) 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム
US9710708B1 (en) Method and apparatus for autonomously recognizing at least one object in an image
US20220035441A1 (en) Systems and methods for object tracking using fused data
CN107111363B (zh) 用于监视的方法、装置和系统
JP5012589B2 (ja) 画像情報を用いた人物追跡システム
US20170092001A1 (en) Augmented reality with off-screen motion sensing
JP5651639B2 (ja) 情報処理装置、情報表示装置、情報処理方法およびプログラム
JP2018094645A (ja) 行動コマンド生成システム、応答システムおよび行動コマンド生成方法
JP2020155944A (ja) 発話者検出システム、発話者検出方法及びプログラム
JP2019128910A (ja) 情報出力装置、方法およびプログラム
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
JP2021135363A (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
JP2021033359A (ja) 感情推定装置、感情推定方法、プログラム、情報提示装置、情報提示方法及び感情推定システム
JP2008046802A (ja) インタラクション情報出力装置、インタラクション情報出力方法、及びプログラム
JP6920225B2 (ja) 情報出力装置、方法およびプログラム
JP7041046B2 (ja) グループ推定装置及びグループ推定方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20180208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210308

R150 Certificate of patent or registration of utility model

Ref document number: 6850740

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250