JP2022149349A - 非発生時対象予測情報を用いて起因の判定・決定を行う因果関係判定装置、プログラム及び方法 - Google Patents

非発生時対象予測情報を用いて起因の判定・決定を行う因果関係判定装置、プログラム及び方法 Download PDF

Info

Publication number
JP2022149349A
JP2022149349A JP2021051458A JP2021051458A JP2022149349A JP 2022149349 A JP2022149349 A JP 2022149349A JP 2021051458 A JP2021051458 A JP 2021051458A JP 2021051458 A JP2021051458 A JP 2021051458A JP 2022149349 A JP2022149349 A JP 2022149349A
Authority
JP
Japan
Prior art keywords
information
occurrence
target
determination
predetermined event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021051458A
Other languages
English (en)
Inventor
翔一郎 三原
Shoichiro Mihara
賢史 小森田
Masashi Komorida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021051458A priority Critical patent/JP2022149349A/ja
Publication of JP2022149349A publication Critical patent/JP2022149349A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ある対象の状態・行動が所定のイベントの発生に起因するか否かに係る情報を、より適切に決定することが可能な因果関係判定装置を提供する。【解決手段】本因果関係判定装置は、少なくとも対象の状態・行動を測定可能な測定手段から、少なくとも対象の状態・行動に係る情報を含む測定情報を取得する測定情報取得手段と、測定情報及び/又は取得された対象の属性情報を用いて、所定のイベントが発生していないとの前提下における対象の状態・行動に係る情報である非発生時対象予測情報を生成する対象予測手段と、所定のイベントが発生した時点若しくは期間に係る測定情報である発生時対象測定情報と、非発生時対象予測情報とを比較して、発生時対象測定情報に係る対象の状態・行動が、所定のイベントの発生に起因するか否かを判定する、及び/又は、所定のイベントの発生に起因する度合いを決定する起因判定手段とを有する。【選択図】図1

Description

発生した事象間の因果関係を推定する技術に関する。
新たな商品やサービスを提供する事業を成功させるためには、これらが実際に人々の間で受容されるか否かを評価し、これら商品やサービスの、さらにはその提供方法の改善を行うサイクルを回すことが重要となっている。
また従来、このような受容性の評価は、例えば数千人規模の顧客グループに対してアンケート調査を実施し、商品・サービスに対する意見を収集する形で実施されてきた。ここで、このアンケート調査は通常、人手によるため、長期間継続的に調査を実施したり、様々なタイプの商品・サービスについての評価結果を取得したりするには多大な時間とコストがかかってしまう。
この受容性評価の問題に対処するべく、例えば特許文献1には、画像データや音声データを解析して取得した顧客の視線、表情、感情や音声から、顧客の製品に対する満足度を自動的に測定する技術が開示されている。この技術では例えば、笑顔や興奮した目つきを検出した場合、顧客は満足しているものとし、一方、しかめ面や困惑した目つきを検出した場合、顧客は不満足であるものとして、顧客の満足度を決定している。さらに、検出した視線から製品を顧客が凝視しているか否かを判定し、顧客が凝視している間にのみ、表情や感情の検出を行っており、これにより、顧客が対象の製品に注意を向けているときの顧客の状態を取得することができるとしている。
また、特許文献2には、店員と顧客との会話における顧客の音声データを抽出し、抽出した顧客の音声データに基づいて、顧客満足度を算出し、算出された顧客満足度を、店員に通知する接客支援装置が開示されている。特許文献2では、この装置を採用することで、店員に顧客満足度をリアルタイムで認識させて、店員の接客能力を向上させることが可能になるとしている。
特表2005-531080号公報 特開2011-221683号公報
しかしながら、特許文献1や特許文献2に記載されたような従来技術では依然、状況によっては、顧客が商品・サービスを受容したか否かを判定し損なう事態が生じてしまう。
例えば、特許文献1に記載された技術は、提示した製品に対する顧客の凝視を検出している間にのみ、この製品に対する顧客の表情や感情等の状態を測定するようにしている。しかしながら、顧客が製品を凝視しているというだけでは、顧客から検出された表情や感情等の状態が、この製品の提示に起因するものであると決めつけることはできない。すなわち、顧客が凝視している状況にあっても、例えばこの製品の提示以外の何らかのイベントの発生が、顧客の状態の原因となっている可能性は排除できない。
さらに言えば、顧客が製品を凝視していない状況における顧客の状態が、この製品の提示に起因したものである可能性も十分に考えられる。例えば、複数の顧客が互いに顔を合わせて、提示した製品についての会話を行っているときに、たまたま顧客が提示した製品を凝視していない場合、例えこの顧客の状態がこの製品の提示に起因しているとしても、それを見逃してしまうことになる。さらに、顧客が製品から顔を背けてその場を離れた等の場合にも、その状態が有する満足度に関する情報を捉えることはできないのである。
また、特許文献2に記載された技術についても、店員と顧客との会話における顧客の音声データから顧客満足度を算出してはいるものの、その音声データに反映された顧客の状態が、会話相手の店員に起因するものと断定することはできない。例えば、その会話の行われた店舗の状況や、会話が行われる直前にたまたま発生したイベントの影響を受けている可能性も十分に考えられるのである。
ちなみにこのような商品・サービスに対する満足度や受容度を正確に捉えるのが困難であるとの問題は、より一般化すれば、所定のイベントが発生した際の、ある対象の状態や行動が、当該イベントの発生に起因したものであるか否かの判定を的確に行うことが通常は困難である、との問題に昇華される。実際、この対象の状態や行動が、当該イベント以外の事象や状況の影響を受けている可能性のあることは否定できない。
すなわち、ある対象において実際に生じた状態や行動の原因を特定したい場合に、原因候補である所定のイベントの発生以外の条件を一致させる、いわゆる対照実験のやり方は、現実には非常に採り難いことも少なくないのである。
そこで、本発明は、ある対象の状態及び/又は行動が所定のイベントの発生に起因するか否かに係る情報を、より適切に決定することが可能な因果関係判定装置、プログラム及び方法を提供することを目的とする。
本発明によれば、所定のイベントの発生と、対象の状態及び/又は行動との因果関係を判定する因果関係判定装置であって、
少なくとも当該対象の状態及び/又は行動を測定可能な測定手段から、少なくとも当該対象の状態及び/又は行動に係る情報を含む測定情報を取得する測定情報取得手段と、
当該測定情報、及び/又は取得された当該対象の属性情報を用いて、当該所定のイベントが発生していないとの前提下における当該対象の状態及び/又は行動に係る情報である非発生時対象予測情報を生成する対象予測手段と、
当該所定のイベントが発生した時点若しくは期間に係る当該測定情報である発生時対象測定情報と、当該非発生時対象予測情報とを比較して、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因するか否かを判定する、及び/又は、当該所定のイベントの発生に起因する度合いを決定する起因判定手段と
を有する因果関係判定装置が提供される。
この本発明による因果関係判定装置の一実施形態として、本因果関係判定装置は、少なくとも当該所定のイベントが発生していないとの前提条件を含む前提情報を保存した前提情報保存手段を更に有し、対象予測手段は、当該前提情報に含まれる前提条件の下で当該対象の状態及び/又は行動を予測して、当該非発生時対象予測情報を生成することも好ましい。
また、本発明による因果関係判定装置において、測定手段は当該対象の環境も測定可能であって、取得された当該測定情報は、当該対象の環境に係る情報も含み、当該前提情報は、当該所定のイベントが発生した際若しくはその直前の環境と同じ若しくは類似した環境にあるとの前提条件も含むことも好ましい。
さらに、本発明による因果関係判定装置において、当該測定情報は、当該対象の移動に係る情報である対象移動情報と、当該対象の周囲に存在する移動体における移動に係る情報である移動体移動情報とを含み、
当該前提情報は、当該所定のイベントが発生した際若しくはその直前において測定された当該移動体の移動に係る態様のうちの少なくとも1つが生じているとの前提条件を含み、
対象予測手段は、この前提条件を含む前提条件の下で当該対象の移動に係る情報を予測して、当該非発生時対象予測情報を生成することも好ましい。
また、本発明に係る以上に述べた前提情報は、当該所定のイベントに合わせて又は先立って実際に発生した別のイベントが発生した、との前提条件も含むことも好ましい。
さらに、本発明による因果関係判定装置の他の実施形態として、前提情報保存手段は、互いに少なくとも1つの前提条件の異なる複数の当該前提情報を保存し、
対象予測手段は、当該前提情報毎に、当該前提情報に含まれる前提条件の下で当該対象の状態及び/又は行動を予測して、複数の当該非発生時対象予測情報を生成し、
起因判定手段は、当該発生時対象測定情報と、当該非発生時対象予測情報の各々とを比較して得られた複数の判定結果及び/又は決定結果に基づいて、起因するか否かの結論としての判定、及び/又は、起因する度合いの結論としての決定を行うことも好ましい。
また、本発明に係る起因判定手段は具体的に、当該発生時対象測定情報と当該非発生時対象予測情報とが、互いに異なる情報又は所定以上に相違する情報である場合に、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因すると判定することも好ましい。
さらに、本発明に係る起因判定手段は具体的に、当該発生時対象測定情報と当該非発生時対象予測情報との相違の度合いに基づき、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因する度合いを決定することも好ましい。
また、本発明に係る起因判定手段は具体的に、当該発生時対象測定情報と当該非発生時対象予測情報とが、同じ情報又は所定以上に類似する情報である場合に、当該発生時対象測定情報に係る当該対象の状態及び/又は行動は、当該所定のイベントの発生に起因しないと判定することも好ましい。
さらに、本発明に係る起因判定手段は具体的に、当該所定のイベントの発生が複数ある場合に、当該発生毎に得られた複数の判定結果及び/又は決定結果に基づいて、当該所定のイベントに関し、起因するか否かの結論としての判定、及び/又は、起因する度合いの結論としての決定を行うことも好ましい。
また、本発明に係る起因判定手段は具体的に、互いに異なる複数の当該所定のイベントがある場合に、当該所定のイベント毎に得られた複数の判定結果及び/又は決定結果に基づいて、そのうちの1つ若しくは複数の所定のイベントに関し、起因するか否かの結論としての判定、及び/又は、起因する度合いの結論としての決定を行うことも好ましい。
さらに、本発明の具体的な適用例として、当該所定のイベントは、所定の商品又はサービスの提示であって、当該対象は、当該提示を受ける人物であることも好ましい。
本発明によれば、また、所定のイベントの発生と、対象の状態及び/又は行動との因果関係を判定するコンピュータを機能させる因果関係判定プログラムであって、
少なくとも当該対象の状態及び/又は行動を測定可能な測定手段から、少なくとも当該対象の状態及び/又は行動に係る情報を含む測定情報を取得する測定情報取得手段と、
当該測定情報、及び/又は取得された当該対象の属性情報を用いて、当該所定のイベントが発生していないとの前提下における当該対象の状態及び/又は行動に係る情報である非発生時対象予測情報を生成する対象予測手段と、
当該所定のイベントが発生した時点若しくは期間に係る当該測定情報である発生時対象測定情報と、当該非発生時対象予測情報とを比較して、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因するか否かを判定する、及び/又は、当該所定のイベントの発生に起因する度合いを決定する起因判定手段と
してコンピュータを機能させる因果関係判定プログラムが提供される。
本発明によれば、さらに、所定のイベントの発生と、対象の状態及び/又は行動との因果関係を判定するコンピュータにおける因果関係判定方法であって、
少なくとも当該対象の状態及び/又は行動を測定可能な測定手段から、少なくとも当該対象の状態及び/又は行動に係る情報を含む測定情報を取得するステップと、
当該測定情報、及び/又は取得された当該対象の属性情報を用いて、当該所定のイベントが発生していないとの前提下における当該対象の状態及び/又は行動に係る情報である非発生時対象予測情報を生成するステップと、
当該所定のイベントが発生した時点若しくは期間に係る当該測定情報である発生時対象測定情報と、当該非発生時対象予測情報とを比較して、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因するか否かを判定する、及び/又は、当該所定のイベントの発生に起因する度合いを決定するステップと
を有する因果関係判定方法が提供される。
本発明の因果関係判定装置、プログラム及び方法によれば、ある対象の状態及び/又は行動が所定のイベントの発生に起因するか否かに係る情報を、より適切に決定することが可能となる。
本発明による因果関係判定装置を含む因果関係判定システムの一実施形態を示す模式図、及び本発明による因果関係判定装置の一実施形態における機能構成を示す機能ブロック図である。 本発明による因果関係判定方法の一具体例を説明するための模式図である。 本発明による因果関係判定方法の他の具体例を説明するための模式図である。 本発明による因果関係判定方法における更なる他の具体例を説明するための模式図である。 本発明による因果関係判定方法における更なる他の具体例を説明するための模式図である。 本発明による因果関係判定方法における更なる他の具体例を説明するための模式図である。 本発明による因果関係判定方法における更なる他の具体例を説明するための模式図である。
以下、本発明の実施形態について、図面を用いて詳細に説明する。
[因果関係判定装置,システム]
図1は、本発明による因果関係判定装置を含む因果関係判定システムの一実施形態を示す模式図、及び本発明による因果関係判定装置の一実施形態における機能構成を示す機能ブロック図である。
図1に示した、本発明による因果関係判定装置1は本実施形態において、RGBカメラであるカメラ2、マイク3、及びユーザ属性情報管理サーバ4との間で、通信ネットワークを介して通信接続が可能となっており、これらと合わさって1つの因果関係判定システムを形成している。また、これらから取得された情報に基づいて、
(a)所定のイベント(図1では、サービスロボットが移動して商品の提示(レコメンデーション)を行う事象)の発生と、
(b)対象(図1では、商品提示対象である人物)の状態及び/又は行動(状態・行動)と
の因果関係を判定する装置となっている。
具体的に因果関係判定装置1は、その特徴として、
(A)少なくとも対象(人物)の状態・行動を測定可能な測定手段(図1では、カメラ2やマイク3からの画像・音声情報を処理する測定部111)から、少なくとも対象(人物)の状態・行動に係る情報を含む「測定情報」(例えば対象の位置、速度や感情等に係る情報)を取得する測定情報取得部112と、
(B)取得された「測定情報」、及び取得された対象(人物)の「属性情報」(図1ではユーザ属性情報管理サーバ4から取得されたユーザ属性情報)のうちの一方又は両方を用いて、所定のイベント(サービスロボットによる商品の提示)が発生していないとの前提下における対象(人物)の状態・行動に係る情報である「非発生時対象予測情報」を生成する対象予測部113と、
(C)所定のイベント(サービスロボットによる商品の提示)が発生した時点若しくは期間に係る「測定情報」である「発生時対象測定情報」と、「非発生時対象予測情報」とを比較して、
(c1)「発生時対象測定情報」に係る対象(人物)の状態・行動が、所定のイベント(サービスロボットによる商品の提示)の発生に起因するか否かを判定する、及び/又は、
(c2)所定のイベント(サービスロボットによる商品の提示)の発生に起因する度合いを決定する
起因判定部116と
を有している。
このように、因果関係判定装置1は、所定のイベントの発生を前提から外した「非発生時対象予測情報」を生成した上で、この「非発生時対象予測情報」と、所定のイベントが発生した状況での「発生時対象測定情報」とを比較することによって、いわゆる対照実験に相当するような起因判定・決定処理を実施することを可能としている。
すなわち、因果関係判定装置1は、ある対象において実際に生じた状態・行動の原因を明らかにする際に、その原因候補である所定のイベントの発生について、それを外した場合とそれを含む場合との状況に係る情報を比較する、といったことを実現可能にしているのである。その結果、ある対象の状態・行動が所定のイベントの発生に起因するか否かに係る情報を、より適切に決定することが可能となる。
またさらに言い換えると、従来は、単純にある対象において実際に生じた状態・行動の内容に基づいてその原因を探っていたのであるが、因果関係判定装置1は、生成した「非発生時対象予測情報」を用いて原因を突き止めているので、従来と比較してより対照実験的となって、より確度の高い起因判定・決定を行うことができるのである。
ここで、このような因果関係判定装置1によれば、図1に示すように例えば、サービスロボットがある人物に近づいてきて、この人物に画像表示及び音声出力をもってある商品の提示(レコメンデーション)を行った場合に、この人物のその際の表情が、この提示(レコメンデーション)に起因するものか否かを判定することができる。すなわち、因果関係判定装置1によれば、提示した商品やサービスに対する、提示された人物の(満足度を含む)受容性を評価することもできる。またこれにより、例えば商品・サービス、さらにはその提供方法の改善に貢献することも可能となるのである。
なお、上記(A)の測定手段は当然、装置1内に備えられた測定部111に限定されるものではない。例えばカメラ2やカメラ2に接続された情報処理装置に設けられた画像認識部といったように、装置1の外部に存在する機能部であってもよい。また、この測定手段に情報を提供する手段も、カメラ2やマイク3に限定されるものではない。例えば、デプスカメラ、赤外線カメラ、LIDER(LIght DEtection and Ranging,Laser Imaging DEtection and Ranging)デバイスや、SONAR(SOund NAvigation and Ranging)デバイス、さらには視線計測デバイスや、脈拍計や血圧計等の人体特性測定デバイス等とすることもできる。
また、所定のイベントも勿論、所定の商品又はサービスの提示に限定されるものではない。例えば、各種コンテンツや芸能・学術・公共イベントの提示・公開、各種社会現象・事件の発生や、各種自然現象の発生等、「対象」の状態・行動に影響を与える可能性があるものならば、種々様々な事象・現象が所定のイベントとなり得るのである。
さらに、その状態・行動が起因判定・決定の対象となる「対象」も、人物に限定されるものではない。例えば、動物、各種機器・システムや、さらには自律運転車、自律ロボットや、自律ドローン等、その状態・行動が所定のイベントの影響を受け得るものならば種々様々なものが「対象」に該当するのである。
さらに、本発明による因果関係判定装置1の構成要素である上記(B)の対象予測部113と上記(C)の起因判定部116とが、互いに異なる別の装置に含まれていてもよい。例えば、複数のサーバの全体によって上記(A)~(C)の機能を実現することも可能となっている。ここでこのような場合、これらの全体をもって、本発明による因果関係判定方法を実施する因果関係判定システムと捉えることができるのである。
[装置機能構成,因果関係判定プログラム・方法]
同じく図1の機能ブロック図において、因果関係判定装置1は、通信インタフェース101と、画像・音声情報保存部102と、ユーザ属性情報保存部103と、前提情報保存部104と、判定結果起因度保存部105と、キーボード(KB)・ディスプレイ(DP)106と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、本発明による因果関係判定プログラムを保存しており、また、コンピュータ機能を有していて、この因果関係判定プログラムを実行することによって、因果関係判定処理を実施する。
またこのことから因果関係判定装置1は、因果関係判定処理専用の装置であってもよいが、本発明による因果関係判定プログラムを搭載した、汎用のクラウドサーバや非クラウド型サーバであってもよく、さらにはパーソナルコンピュータ(PC)、ノート型若しくはタブレット型コンピュータや、スマートフォン、さらにはウェアラブル装置とすることも可能である。
また、プロセッサ・メモリは、機能構成部として、認識部111aを含む測定部111と、測定情報取得部112と、対象予測部113と、前提情報選択部114と、イベント発動部115と、起因度算出部116aを含む起因判定部116と、通信制御部121と、入出力制御部122とを有する。なお、これらの機能構成部は、プロセッサ・メモリに保存された因果関係判定プログラムの機能と捉えることができ、また、図1の機能ブロック図における因果関係判定装置1の機能構成部間を矢印で接続して示した処理の流れは、本発明による因果関係判定方法の一実施形態としても理解される。
同じく図1の機能ブロック図において、測定部111は、少なくとも対象(以下、判定対象者とする)の状態・行動を測定可能な機能構成部であって、本実施形態においては、カメラ2やマイク3(さらには、図1の状況においてサービスロボットに搭載されたカメラやマイク)から受信され、一先ず画像・音声情報保存部102に保存された画像・音声情報を処理して、少なくとも判定対象者の状態・行動に係る情報を含む測定情報を生成し、測定情報取得部112へ出力する。
具体的に本実施形態において、この測定部111の認識部111aは、取得した画像・音声情報から、公知の画像認識技術や音声認識技術等を用いて、判定対象者の位置、速度、顔の表情、感情、骨格、動作、発話内容、及び(予め設定・付与されている)人物を特定可能な識別子等のうちの少なくとも1つに係る情報を含む測定情報を生成することができる。
また認識部111aは、上記と同様にして、判定対象者の周囲の環境に係る情報である環境情報、例えば、周囲に存在する人物の位置、速度、顔の表情、感情、骨格、動作、発話内容、及び(予め設定・付与されている)周囲の人物を特定可能な識別子等、また、判定対象者のいる建物や部屋の構造、周囲の物体の種別、位置や、速度、さらには(当日の)天候、明るさ、時間帯等のうちの少なくとも1つからなる環境情報を含む測定情報を生成してもよい。
より具体的に、認識部111aは、例えば非特許文献:Joseph Redmon, Ali Farhadi, "YOLOv3: An Incremental Improvement", Tech Report, Computer Vision and Pattern Recognition (cs.CV), arXiv:1804.02767 [cs.CV], 2018 に開示された技術を用いて、取得された画像情報内に含まれている判定対象者(又は周囲の人物)を特定し、当該判定対象者(又は周囲の人物)の識別子と、当該人物の画像座標系(又は世界座標系)における位置情報とを対応付けた時系列情報を測定情報としてもよい。
また認識部111aは、非特許文献:呉剣明,王亜楠,帆足啓一郎,滝嶋 康弘,「顔向きの変化に高精度かつ軽量な表情認識手法」,映像情報メディア学会 2018年次大会,22B:マルチメディアAI2, 2018年 に開示された技術を用いて、取得された画像情報内に含まれている判定対象者(又は周囲の人物)の顔を認識し、当該顔の表情がポジティブ、ニュートラル及びネガティブのうちのいずれに該当するかを決定した、顔の表情に係る測定情報を生成することもできる。
さらに認識部111aは、非特許文献:Zhe Cao et al., "OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields", Journal version of arXiv:1611.08050, Computer Vision and Pattern Recognition (cs.CV), arXiv:1812.08008 [cs.CV], 2019 に開示された技術を用いて、取得された画像情報に含まれている判定対象者(又は周囲の人物)の識別子と、判定対象者(又は周囲の人物)の骨格情報、具体的には各関節ポイントの人体座標系における位置情報とを対応付けた時系列情報を測定情報としてもよい。
またさらに認識部111aは、取得された音声情報内に含まれている音声を発した判定対象者(又は周囲の人物)を特定し、
(a)当該判定対象者(又は周囲の人物)の識別子と、
(b)当該音声(発話)の内容から検索された(予め定義・設定された)ポジティブワードやネガティブワードの出現数若しくは出現頻度に基づき決定された発話内容の極性や、当該人物の発話時の感情と
を対応付けた時系列情報を測定情報とすることもできる。
同じく図1の機能ブロック図において、測定情報取得部112は、測定部111から測定情報を取得し、当該測定情報を適宜、予測対象部113や起因判定部116へ出力する。具体的に1つの好適な態様として、(後に詳述するが)イベント発動部115からイベント発生・発動の通知を受けるまでは当該測定情報を対象予測部113へ出力し、一方、イベント発生・発動の通知を受けた後、当該測定情報を起因判定部116へ出力することも好ましい。
同じく図1の機能ブロック図において、前提情報選択部114は、前提情報保存部104に予め準備され保存されていた「前提情報」のうち、(後に詳述する)対象予測部113における予測処理に用いる前提情報を選択して、対象予測部113へ出力する。ここで、この前提情報は、対象予測部113における予測処理において用いられる前提条件を含む(指定する)情報であって、少なくとも所定のイベントが発生していないとの前提条件を含む(指定する)情報となっている。
例えば、所定のイベントがある商品やサービスの提示である場合に、前提情報は、少なくとも「(判定対象者に対し)当該商品やサービスは提示されていない状況である」旨の前提条件を含む情報であって、すでに説明した「非発生時対象予測情報」を生成するのに適した若しくは必要な情報となっているのである。
また、測定情報が上述したように環境情報(判定対象者の周囲の環境に係る情報)も含んでいる場合において、前提情報は、「所定のイベントが発生した際若しくはその直前の環境と同じ若しくは類似した環境にある」旨の前提条件も含むことも好ましい。
このような前提情報は、対象予測部113での「非発生時対象予測情報」の生成処理における「所定のイベントは非発生」との条件以外の前提条件を、「発生時対象測定情報」の前提条件とできるだけ一致させる方向に働く。したがって、このような前提情報を採用することによって、後に起因判定部116で実施される両者の比較処理を、いわゆる対照実験の形により近づけ、これにより、より確度の高い起因判定・決定を行うことが可能となるのである。
また前提情報の好適な態様として、測定情報が、
(a)判定対象者の移動に係る情報である対象移動情報と、
(b)判定対象者の周囲に存在する移動体(例えば周囲の人物)における移動に係る情報である移動体移動情報と
を含む場合、前提情報は、所定のイベントが発生した際若しくはその直前において測定された移動体(周囲の人物)の移動に係る態様のうちの少なくとも1つ(例えば、周囲のある人物が歩いて判定対象者に近づいているとの態様)が生じているとの前提条件を含むことも好ましい。ここで、このような前提情報は、前提情報選択部114が測定情報取得部112から取得した測定情報に基づき、生成したものとすることができる。
また、このような前提情報も、「非発生時対象予測情報」における「所定のイベントは非発生」との条件以外の前提条件を、「発生時対象測定情報」の前提条件とできるだけ一致させる方向に働くので、このような前提情報を採用することによって最終的に、より確度の高い起因判定・決定を行うことが可能となるのである。
さらに前提情報の好適な態様として、前提情報は、所定のイベントに合わせて又は先立って実際に別のイベントが発生した、との前提条件も含むことも好ましい。例えば後に図4を用いて説明する具体例のように、所定のイベントが「(サービスロボットは)商品Aの提示(レコメンデーション)を行う」である場合に、実際にはこの商品Aの提示と合せて、(商品Aを含む)商品群に係る情報の提示(別のイベント)も行われるならば、前提情報は、「商品Aの提示は行われない」との前提条件と、「(商品Aを含む)商品群に係る情報の提示は行われる」との前提条件とを含むものとすることができる。
また勿論、このような前提情報も、「非発生時対象予測情報」と「発生時対象測定情報」との前提条件をできるだけ一致させるので、最終的に、より確度の高い起因判定・決定を行うことを可能にするのである。
なお前提情報選択部114は、以上に述べたように、所定イベントの内容(例えば、提示する商品やサービス、さらにはその提示方法の内容等)や測定情報の内容(例えば、判定対象者や周囲の人物の位置、速度や、移動の向き等)に応じて、「非発生時対象予測情報」の生成に適した前提情報を選択し、対象予測部113へ出力する。例えば、前提情報に対し予め所定イベントの内容や測定情報の内容に係る項目事項を紐づけた上で前提情報保存部104に保存しておき、前提情報選択部114は、当該項目事項をキーとして所望の前提情報を検索可能となっていることも好ましい。
同じく図1の機能ブロック図において、対象予測部113は、
(a)測定情報取得部112から受け取った測定情報、及び
(b)ユーザ属性情報管理サーバ4から取得され、一先ずユーザ属性情報保存部103に保存されていた判定対象者のユーザ属性情報(例えば、性別、年齢、居住地、趣味・嗜好等)
のうちの一方又は両方を用いて、所定のイベントが発生していないとの前提下における判定対象者の状態・行動に係る情報である「非発生時対象予測情報」を生成する。ここで本実施形態では、対象予測部113は、(少なくとも所定のイベントが発生していないとの前提条件を含む)前提情報に含まれる前提条件の下で、判定対象者の状態・行動を予測するのである。
なお特に、上記(b)のユーザ属性情報を用いた対象予測処理については、後に図3及び図4を用いて具体的に説明する。また、このユーザ属性情報と上記(a)の測定情報との両方を用いた対象予測処理については、後に図7を用いて具体的に説明を行う。
また、後に図2、図5、図6及び図7に示した具体例を用いて説明を行う対象予測処理であるが、
(a)測定情報が、判定対象者の移動に係る情報である対象移動情報と、判定対象者の周囲に存在する移動体(例えば周囲の人物)における移動に係る情報である移動体移動情報とを含み、
(b)前提情報が、所定のイベントが発生した際若しくはその直前において測定された移動体(周囲の人物)の移動に係る態様のうちの少なくとも1つ(例えば、周囲のある人物が歩いて判定対象者に近づいているとの態様)が生じているとの前提条件を含む場合に、
対象予測部113は、上記(b)の前提条件を含む前提条件の下で、当該対象の移動に係る情報を予測して、非発生時対象予測情報を生成することも好ましい。
さらに、図5、図6及び図7に示した具体例を用いて後に説明を行う対象予測処理であるが、前提情報保存部104が、互いに少なくとも1つの前提条件の異なる複数の前提情報を保存している場合に、対象予測部113は、これら複数の前提情報を用い、前提情報毎に、当該前提情報に含まれる前提条件の下で判定対象者の状態・行動を予測して、複数の非発生時対象予測情報を生成することも好ましい。これにより後に説明するが、起因判定の確度を決定したり、より確度の高い起因度を決定したりすることも可能となるのである。
さらに認識部111aが上述したように、判定対象者(又は周囲の人物)の骨格情報、具体的には各関節ポイントの人体座標系における位置情報を含む測定情報を生成する場合において、対象予測部113は、非特許文献:Tim Lebailly et al., "Motion Prediction Using Temporal Inception Module", Proceedings of the 15th Asian Conference on Computer Vision, ACCV 2020, arXiv:2010.03006 [cs.CV], 2020 に開示された学習器を構築し、判定対象者(又は周囲の人物)における例えば数秒先の骨格の状態を含む非発生時対象予測情報を生成してもよい。
同じく図1の機能ブロック図において、イベント発動部115は、所定のイベントを発生・発動させるべく、所定のイベントを発生・発動させるための指示情報、制御情報や通知情報等を生成し、これを通信制御部121及び通信インタフェース101を介し、所定のイベントに係るデバイス・装置、システム、人物や、組織等へ送信する。また、指示情報、制御情報や通知情報等の送信に合わせ、所定のイベントの発生・発動通知を測定情報取得部112へ出力する。
具体的に本実施形態では、イベント発動部115は例えば、(公知の画像認識技術を用いて人物の識別が可能な)サービスロボットに対し、「前方を歩いている識別子xxxの人物(判定対象者)の手前2mまで近づき、商品Aをディスプレイに表示して商品Aをレコメンドする音声を出力せよ」との指示情報を生成し、当該サービスロボットへ送信してもよい。
なお、イベント発動部115は、例えばキーボード(KB)106及び入出力制御部122を介し入力されたイベント発動指示に従い、上記のイベント発動処理を実施してもよく、または、予め設定された条件(例えば判定対象者がサービスロボットの可動範囲に入っているとの条件)が満たされた場合、自動的にイベント発動処理を開始してもよい。
<起因判定部>
同じく図1の機能ブロック図において、起因判定部116は、
(a)所定のイベントが発生した時点若しくは期間に係る測定情報である「発生時対象測定情報」と、
(b)対象予測部113から受け取った「非発生時対象予測情報」と
を比較して、上記(a)の発生時対象測定情報に係る対象の状態・行動が、所定のイベントの発生に起因するか否かを判定する、及び/又は、(起因度算出部116aによって)所定のイベントの発生に起因する度合いである起因度を決定する。
ここで、後に図5、図6及び図7に示した具体例を用いて説明を行う起因判定処理であるが、対象予測部113が、(互いに少なくとも1つの前提条件の異なる)複数の前提情報における前提情報毎に、当該前提情報に含まれる前提条件の下で、判定対象者の状態・行動を予測して、複数の非発生時対象予測情報を生成する場合を考える。
この場合、起因判定部116は、発生時対象測定情報と、これら複数の非発生時対象予測情報の各々とを比較して得られた複数の判定結果及び/又は決定結果に基づいて、起因するか否かの結論としての判定、及び/又は、起因度の結論としての決定を行うことも好ましい。これにより後に説明するが、起因判定の確度を決定したり、より確度の高い起因度を決定したりすることも可能となるのである。
また、起因判定部116は、所定のイベント(例えばサービスロボットによる商品Aの提示)の発生が複数ある場合に、当該発生毎に(サービスロボットによる商品Aの提示毎に)行った判定及び/又は決定により得られた複数の判定結果及び/又は決定結果に基づいて、所定のイベントに関し、起因するか否かの結論としての判定、及び/又は、起因する度合いである起因度の結論としての決定を行うことも好ましい。
例えば、(この後説明を行うが)発生時対象測定情報と非発生時対象予測情報とが互いに異なる情報であるならば(一致していない情報であるならば)、発生時対象測定情報に係る判定対象者の状態・行動が、所定のイベントの発生に起因すると判定する場合において、全ての判定結果における「起因する」との判定結果の割合が、所定割合閾値(例えば0.7)を上回るならば、最終的な判定として「所定のイベントの発生に起因する」との判定を行ってもよいのである。
さらに、起因判定部116は、互いに異なる複数の「所定のイベント」がある場合に、所定のイベントの発生毎の判定及び/又は決定により得られた、複数の判定結果及び/又は決定結果に基づいて、これら複数の所定のイベントのうちの1つ若しくは複数に関し、起因するか否かの結論としての判定、及び/又は、起因する度合いの結論としての決定を行うことも好ましい。
例えば、サービスロボットの例でいえば、提示する商品やその提示方法を逐次的に変更してもよく、変更したそれぞれの提示において得られた(例えば、商品A~D及び商品F~Kについては起因せず商品Eについては起因する、との)判定結果から、起因すると判定された(時刻において提示された)商品Eのみが、判定対象者の状態・行動の原因になっていると結論することができる。または、商品Aを様々な提示方法で提示する一連の提示において、判定対象者の状態・行動が起因すると判定された(時刻における)提示方法を、判定対象者の状態・行動の原因となったと結論してもよい。
以下、起因判定又は起因度決定の具体的な処理について説明を行う。起因判定部116は、発生時対象測定情報と非発生時対象予測情報とが互いに異なる情報である場合に、発生時対象測定情報に係る判定対象者の状態・行動が、所定のイベントの発生に起因すると判定することができる。例えば、次式
(1) (発生時対象測定情報)≠(非発生時対象予測情報)
が満たされる場合に、所定のイベントの発生に起因するとの判定を行ってもよい。
ここで、(発生時対象測定情報)及び(非発生時対象予測情報)はそれぞれ、発生時対象測定情報及び非発生時対象予測情報を表す数値であって、例えば判定対象者が走っている場合に1であって、歩いている場合に0.8であり、立って止まっている場合に0.2であって、座っている場合に0であるような数値とすることもできる。
また、起因判定部116は、発生時対象測定情報と非発生時対象予測情報とが、所定以上に相違する情報である場合に、発生時対象測定情報に係る判定対象者の状態・行動が、所定のイベントの発生に起因すると判定してもよい。例えば、次式
(2) |(発生時対象測定情報)-(非発生時対象予測情報)|>Th
が満たされる場合に、所定のイベントの発生に起因するとの判定を行ってもよい。ここで、Thは判定閾値であって、例えば上記の数値例の場合において、Th=0.5とすることも可能となる。ちなみにこの場合、(発生時対象測定情報)が歩いている場合の0.8であって、(非発生時対象予測情報)が立って止まっている場合の0.2であるならば、起因するとの判定が行われることになる。
さらに、起因判定部116は、発生時対象測定情報と非発生時対象予測情報との相違の度合いに基づき、発生時対象測定情報に係る当該対象の状態・行動が、所定のイベントの発生に起因する度合いである起因度を決定することも好ましい。例えばこの起因度Sを、次式
(3) S=|(発生時対象測定情報)-(非発生時対象予測情報)|/CS
を用いて算出してもよい。ここで、CSは起因度Sを0~1の範囲の値に規格化するための定数である。また、この起因度Sは、上式(2)が満たされる場合に、すなわち起因するとの判定がなされた場合に算出されるものであってもよい。
さらに、起因判定部116は、発生時対象測定情報と非発生時対象予測情報とが、同じ情報である場合に、発生時対象測定情報に係る判定対象者の状態・行動は、所定のイベントの発生に起因しないと判定してもよい。例えば、次式
(4) (発生時対象測定情報)=(非発生時対象予測情報)
が満たされる場合に、所定のイベントの発生には起因しないとの判定を行ってもよい。
またさらに、起因判定部116は、発生時対象測定情報と非発生時対象予測情報とが、所定以上に類似する情報である場合に、発生時対象測定情報に係る判定対象者の状態・行動は、所定のイベントの発生に起因しないと判定することもできる。例えば、次式
(5) |(発生時対象測定情報)-(非発生時対象予測情報)|≦Th
が満たされる場合に、所定のイベントの発生に起因しないとの判定を行うことも可能である。
なお、上式(4)や上式(5)で表されるような非起因の判定は、特に、前提情報における「所定のイベントが非発生」以外の「前提条件」が実際の状況と一致している(又は高い類似度をもって類似している)場合に、確度の高い判定となる。すなわち、この場合、「前提条件」と実際の状況とに共通する(所定のイベントの発生とは異なる)何らかの事象が、判定対象者の状態・行動の原因となっている可能性が少なくなく、言い換えれば、所定のイベントの発生が当該原因になっている可能性は低いとの判断を行うことができるのである。
同じく図1の機能ブロック図において、起因判定部116から出力される起因判定結果や決定された起因度の情報は、逐次、判定結果起因度保存部105に保存されて、例えば所定期間における様々な又は一連の「所定のイベント」についての起因判定・起因度に関するレポート情報としてまとめられてもよい。また、通信制御部121及び通信インタフェース101を介し外部の情報処理装置へ送信され、そこで利用される形態をとることも可能である。さらに、入出力制御部122及びディスプレイ106に表示され、管理者に提示されてもよい。
[因果関係判定方法の種々の具体例]
図2は、本発明による因果関係判定方法の一具体例を説明するための模式図である。
図2(A)によれば、ある広い室内において、判定対象者及び複数の人物が歩いており、サービスロボットが、判定対象者に接近してあるサービスを提示すべく、部屋の片隅で待機している。また、カメラ2による映像情報から、測定情報として、判定対象者(対象)及び複数の人物(移動体)における刻々の位置及び速度を含む対象移動情報・移動体移動情報が(測定部111で)生成され、(測定情報取得部112において)取得されている。
ここで、対象予測部113は、以下に示した前提条件:
・「サービスロボットは判定対象者の近傍に存在しない」、
・「判定対象者は位置Pから位置Qへ移動している」、及び
・「判定対象者の周囲の人物X、Y及びZの位置及び速度は、・・・である」
を含む前提情報に基づいて、「判定対象者は位置Qから出口Aに向かって移動する」との情報を含む非発生時対象予測情報を生成する。
次いで、図2(B)に示したように、イベント発動部115は、サービスロボットを判定対象者の近傍に移動させる(所定のイベントを発動させる)。また、測定情報取得部112は、(所定のイベントが発生した際の若しくはその直前における測定情報である)発生時対象測定情報として、「判定対象者は位置Qから出口Bに向かって移動する」を取得する。
ここで起因判定部116(図1)は、
(a)非発生時対象予測情報:「判定対象者は位置Qから出口Aに向かって移動する」と、
(b)発生時対象測定情報:「判定対象者は位置Qから出口Bに向かって移動する」と
が互いに異なっていることから、「判定対象者の(出口Bへ向かう)行動は、サービスロボットの接近に起因して発生した」又は「サービスロボット(の接近)は、判定対象者に影響を与えた」との判定を行うのである。
なお、上述したような、対象予測部113で生成される非発生時対象予測情報は、例えば非特許文献:西川 憲明他, 「ヒューリスティックモデルによる群集シミュレーション」, 人工知能学会第31回全国大会論文集, セッションID: 1H1-2, 2017年, <https://doi.org/10.11517/pjsai.JSAI2017.0_1H12> に開示された技術を用いて、当該室内の各歩行者(判定対象者及び複数の人物の各々)について衝突回避を目的とする意思決定プロセスモデルを構築し、当該モデルに基づいて各歩行者の進行方向及び速度を決定して、将来の各歩行者、ひいては判定対象者の移動を予測することにより生成されてもよい。
また、上述したような非発生時対象予測情報は、例えば非特許文献:Yamaguchi K, et al., "Who are you with and where are you going?", CVPR 2011, IEEE, 2011, pp.1345-1352 に開示された技術を用いて、歩行者(判定対象者及び複数の人物)間のグループ関係を考慮に入れたモデルを構築し、当該モデルに基づきエネルギー最小化問題を解くことによって、将来の各歩行者、ひいては判定対象者の移動を予測して生成されることも可能である。
さらに、上述したような非発生時対象予測情報は、例えば非特許文献:箕浦 大晃他, 「移動対象の属性と環境情報を導入したLSTMによる経路予測」, 精密工学会誌, 86 巻 12 号 p.961-968, 2020 <https://doi.org/10.2493/jjspe.86.961> に開示された技術を用いて、各人物(判定対象者及び複数の人物の各々)の年齢や性別等の属性と、当該室内の形状、設置物等の属性とを考慮に入れた深層学習モデルを構築し、当該深層学習モデルに基づき将来の各人物、ひいては判定対象者の移動を予測することによって生成されてもよい。
さらにまた、上述したような非発生時対象予測情報は、例えば非特許文献:Nicolas Schneider et al, " Pedestrian Path Prediction with Recursive Bayesian Filters: A Comparative Study", German Conference on Pattern Recognition (GCPR) 2013, Pattern Recognition pp.174-183 2013 に開示された技術に基づき、例えば数秒先の判定対象者の位置を予測することによって生成されることも可能である。
図3は、本発明による因果関係判定方法の他の具体例を説明するための模式図である。
図3(A)によれば、判定対象者とサービスロボットが、互いに近接した位置にいる。ここで、対象予測部113は、ユーザ属性情報保存部103(図1)に保存されている判定対象者の(性別、年齢や、行動・購入履歴等の)ユーザ属性情報を用い、前提条件:「サービスロボットは判定対象者に(商品としての)書籍Aをレコメンドしない」を含む前提情報に基づいて、「判定対象者は書籍Aを購入しない」との情報を含む非発生時対象予測情報を生成する。
次いで、図3(B)に示したように、イベント発動部115は、サービスロボットに対し判定対象者への書籍Aのレコメンドを、ディスプレイ表示や音声出力として行わせる(所定のイベントを発動させる)。また、測定情報取得部112は、サービスロボットに搭載されたマイクからの音声情報:「買います」に基づき(測定部111で)生成された測定情報:「判定対象者は書籍Aを購入する」を、発生時対象測定情報として取得する。
ここで起因判定部116(図1)は、
(a)非発生時対象予測情報:「判定対象者は書籍Aを購入しない」と、
(b)発生時対象測定情報:「判定対象者は書籍Aを購入する」と
が互いに異なっていることから、「判定対象者の書籍Aの購入行動は、サービスロボットによる書籍Aのレコメンドに起因して発生した」又は「サービスロボットによる書籍Aのレコメンドは、判定対象者に影響を与えた」との判定を行うのである。
なお、上述したような、判定対象者が購入するか否かの予測については、例えば
(a)非特許文献:石垣 司他, 「日常購買行動に関する大規模データの融合による顧客行動予測システム」, 人工知能学会論文誌, 26巻, 6号, p.670-681, 2011, <https://doi.org/10.1527/tjsai.26.670> に開示された技術に基づき、大規模な購入履歴や生活調査データを用いて、購入行動推定用のベイジアンネットワーク(Bayesian network)を構築し、
(b)このベイジアンネットワークを用い、判定対象者の性別、年齢、行動・購入履歴や、嗜好、さらにはライフスタイル情報等の(例えばアンケート等によって収集された)ユーザ属性情報、さらには季節や時間帯等の情報に基づいて、判定対象者が購入するか否かを予測してもよい。
なお、ここで構築されたベイジアンネットワークは、例えば商品カテゴリとライフスタイルに係る潜在クラス変数の関係をモデル化したものとなっている。
図4は、本発明による因果関係判定方法における更なる他の具体例を説明するための模式図である。
図4(A)によれば、図3(A)の具体例と同様、判定対象者とサービスロボットが、互いに近接した位置にいる。ここで、対象予測部113は、ユーザ属性情報保存部103(図1)に保存されている判定対象者の(性別、年齢や、行動・購入履歴等の)ユーザ属性情報を用い、前提条件:「サービスロボットは判定対象者に書籍Aをレコメンドしない」及び「サービスロボットは判定対象者に「新刊の書籍はいかがですか?」との新刊書籍情報を提示する」を含む前提情報に基づいて、「判定対象者は新刊書籍に興味を示さない(新刊書籍の問合せはしない)」との情報を含む非発生時対象予測情報を生成する。なお、ここでの判定対象者が商品(書籍)に興味を示すか否かの予測も、図3を用いて説明した具体例での予測と同様の手法を用いて、実施することが可能である。
次いで、図4(B)に示したように、イベント発動部115は、サービスロボットに対し、「新刊の書籍はいかがですか?」との新刊書籍情報の提示、及び判定対象者への書籍Aのレコメンドを、ディスプレイ表示や音声出力として行わせる。すなわち、所定のイベント(商品Aのレコメンド)、及びこれとは別のイベント(新刊書籍情報の提示)を発動させる。
また、測定情報取得部112は、サービスロボットに搭載されたマイクからの音声情報:「新刊を見せて!」に基づき(測定部111で)生成された測定情報:「判定対象者は新刊書籍に興味を示す(新刊書籍の問合せをする)」を、発生時対象測定情報として取得する。
ここで起因判定部116(図1)は、
(a)非発生時対象予測情報:判定対象者は新刊書籍に興味を示さない(新刊書籍の問合せはしない)」と、
(b)発生時対象測定情報:「判定対象者は新刊書籍に興味を示す(新刊書籍の問合せをする)」と
が互いに異なっていることから、「判定対象者による(新刊書籍への興味から生じた)問合せ行動は、サービスロボットによる書籍Aのレコメンドに起因して発生した」又は「サービスロボットによる書籍Aのレコメンドは、判定対象者に影響を与えた」との判定を行うのである。
以上図4を用いて説明した起因判定の具体例は、図3の具体例と比較すると、前提情報の中に、非発生時の予測と発生時の測定とに共通する前提条件:「新刊書籍情報を提示する」が含まれている分、より対照実験的となっており、その結果、より確度の高い起因判定を行うことができている。特に、書籍Aも新刊書籍に含まれる商品であるので、判定対象者による新刊書籍への興味から生じた問合せ行動は、単なる新刊書籍の提示によるものではなく、まさに書籍Aのレコメンドに起因することがより確実となるのである。
図5は、本発明による因果関係判定方法における更なる他の具体例を説明するための模式図である。
図5(A)によれば、ある会場に入るためのゲートの前に、判定対象者が立っており、一方、サービスロボットがこの会場内で待機している。また、カメラ2による映像情報から、測定情報として、判定対象者を含む会場内外の人物(対象及び移動体)における刻々の位置及び速度を含む対象移動情報・移動体移動情報が(測定部111で)生成され、(測定情報取得部112において)取得されている。
ここで、対象予測部113は、
・前提条件:「サービスロボットはゲートの近傍に位置していない」を含む前提情報1と、
・前提条件:「サービスロボットはゲートの近傍に位置していない」及び「(サービスロボットに代えて)他の人物がゲートに向かって移動している」を含む前提情報2と
のそれぞれに基づいて対象予測処理を実施する。具体的には、
・前提情報1に基づき、「判定対象者はゲートを通過して入場する」との情報を含む非発生時対象予測情報1を生成し、
・前提情報2に基づき、「判定対象者はゲートを通過して入場する」との情報を含む非発生時対象予測情報2を生成する。
次いで、図5(B)に示したように、イベント発動部115は、サービスロボットをゲートの近傍に移動させる(所定のイベントを発動させる)。また、測定情報取得部112は、(所定のイベントが発生した際の若しくはその直前における測定情報である)発生時対象測定情報として、「判定対象者は入場しない(ゲートを通過しない)」を取得する。
ここで、起因判定部116(図1)は、
(a)非発生時対象予測情報1:「判定対象者はゲートを通過して入場する」と、
(b)発生時対象測定情報:「判定対象者は入場しない(ゲートを通過しない)」と
が互いに異なっていることから、1つ目の判定として、「判定対象者の入場しない(ゲートを通過しない)との状態は、サービスロボットのゲート近傍への移動に起因して発生した」との判定1を行う。
さらに、起因判定部116は、
(a)非発生時対象予測情報2:「判定対象者はゲートを通過して入場する」と、
(b)発生時対象測定情報:「判定対象者は入場しない(ゲートを通過しない)」と
が互いに異なっていることから、2つ目の判定として、「判定対象者の入場しない(ゲートを通過しない)との状態は、サービスロボットのゲート近傍への移動に起因して発生した」との判定2を行う。
次いで、起因判定部116は、以上に述べた判定1及び判定2に基づき、結論として、「判定対象者の入場しない(ゲートを通過しない)との状態は、サービスロボットのゲート近傍への移動に起因して発生した」又は「サービスロボット(のゲート近傍への移動)は、判定対象者に影響を与えた」との判定を行うのである。
ここで起因判定部116は、複数の判定結果(本具体例では判定1及び2の2つ)のうちの「起因する」との判定結果の割合が、所定割合閾値(例えば0.7)を上回る場合に、結論として「起因する」との判定を行ってもよい。または、当該判定結果の割合を判定の確度とし、例えば本具体例では、「判定対象者の(入場しないとの)状態は、確度100%(=2/2)をもって、サービスロボットの移動に起因している」と判定してもよいのである。
この場合例えば、本具体例において、非発生時対象予測情報2が上記とは異なり「判定対象者は入場しない(ゲートを通過しない)」を含んでいて発生時対象測定情報と一致するとすると、判定2は、(上式(4)を用いることにより)「入場しないとの状態は、サービスロボットの移動に起因しない」となる。その結果、起因判定部116は、「判定対象者の(入場しないとの)状態は、確度50%(=1/2)をもって、サービスロボットの移動に起因している」と判定することができるのである。
図6は、本発明による因果関係判定方法における更なる他の具体例を説明するための模式図である。
図6(A)によれば、図5(A)の具体例と同様、ある会場に入るためのゲートの前に判定対象者が立っており、一方、サービスロボットがこの会場内で待機している。また、カメラ2による映像情報から、測定情報として、判定対象者を含む会場内外の人物(対象及び移動体)における刻々の位置及び速度を含む対象移動情報・移動体移動情報が(測定部111で)生成され、(測定情報取得部112において)取得されている。
ここで、対象予測部113は、
・前提条件:「サービスロボットはゲートの近傍に位置していない」を含む前提情報1と、
・前提条件:「サービスロボットはゲートの近傍に位置していない」及び「(サービスロボットに代えて)他の人物がゲートに向かって移動している」を含む前提情報2と
のそれぞれに基づいて対象予測処理を実施する。具体的には、
・前提情報1に基づき、「判定対象者は、速度5をもってゲートを通過し入場する」との情報を含む非発生時対象予測情報1を生成し、
・前提情報2に基づき、「判定対象者は、速度15をもってゲートを通過し入場する」との情報を含む非発生時対象予測情報2を生成する。ちなみに本具体例では、測定情報において人物の速度(の大きさ)を、0, 1,・・・,20の21段階で示す設定がなされている。
次いで、図6(B)に示したように、イベント発動部115は、サービスロボットをゲートの近傍に移動させる(所定のイベントを発動させる)。また、測定情報取得部112は、(所定のイベントが発生した際の若しくはその直前における測定情報である)発生時対象測定情報として、「判定対象者は速度0で待機している(速度0でゲートに向かっている)」を取得する。
ここで、起因判定部116の起因度算出部116a(図1)は、
(a)非発生時対象予測情報1:「判定対象者は、速度5をもってゲートを通過し入場する」と、
(b)発生時対象測定情報:「「判定対象者は速度0で待機している(速度0でゲートに向かっている)」と
に対し、上式(3)を適用して、「判定対象者の待機状態が、サービスロボットのゲート近傍への移動に起因する度合いである起因度」S1を、0.25(=|5-0|/20)に決定する。
さらに、起因判定部116の起因度算出部116aは、
(a)非発生時対象予測情報2:「判定対象者は、速度15をもってゲートを通過し入場する」と、
(b)発生時対象測定情報:「「判定対象者は速度0で待機している(速度0でゲートに向かっている)」と
に対し、上式(3)を適用して、「判定対象者の待機状態が、サービスロボットのゲート近傍への移動に起因する度合いである起因度」S2を、0.75(=|15-0|/20)に決定する。
次いで、起因判定部116の起因度算出部116aは、結論として、「判定対象者の待機状態が、サービスロボットのゲート近傍への移動に起因する度合いである起因度」Sを、S1とS2との平均値、すなわち0.5(=(0.25+0.75)/2)に決定するのである。このように、本発明による因果関係判定方法の一実施形態によれば、判定対象者の状態・行動が所定のイベントに起因する度合いである起因度を、より正確に算出することも可能となるのである。
図7は、本発明による因果関係判定方法における更なる他の具体例を説明するための模式図である。
図7によれば、ある立食パーティ会場において、判定対象者を含むパーティ参加者が、立ってパーティに参加しており、一方、サービスロボットが、この会場内をサーバとして移動している。また、カメラ2による映像情報から、判定対象者を含む参加者における刻々の位置、(立位や座位等の)姿勢や、(ポジティブ、ニュートラルやネガティブといった)表情、さらには視線の向きを含む測定情報が(測定部111で)生成され、(測定情報取得部112において)取得されている。
ここで、対象予測部113は、経路Aを「判定対象者の近傍を横切る経路」として、
・前提条件:「サービスロボットは経路Aを移動しない」及び「判定対象者は一人でたっている」を含む前提情報1
に基づいて、「判定対象者の表情はニュートラルである」との情報を含む非発生時対象予測情報1を生成する。
またさらに、対象予測部113は、
・前提条件:「サービスロボットは経路Aを移動しない」、「判定対象者は一人でたっている」、「参加者Aが判定対象者に視線を向けている」及び「参加者Aの表情はポジティブである」を含む前提情報2と、
・ユーザ属性情報:「判定対象者は参加者Aと同じBグループに属している」と
に基づき、「判定対象者の表情はポジティブである」との情報を含む非発生時対象予測情報2を生成するのである。
ここで、判定対象者の表情の予測については、例えば人の集まりにおける各人の位置や人間関係に係る情報、及び各人の視線の向きや表情等の情報によって訓練された表情推定モデルを構築し、当該モデルを用いて、上記の前提情報1や前提情報2の下での判定対象者の表情を予測してもよい。
次いで、同じく図7に示したように、イベント発動部115は、サービスロボットに経路Aを移動させる(所定のイベントを発動させる)。また、測定情報取得部112は、(所定のイベントが発生した際の若しくはその直前における測定情報である)発生時対象測定情報として、「判定対象者の表情はネガティブである」を取得する。
ここで、起因判定部116(図1)は、
(a)非発生時対象予測情報1:「判定対象者の表情はニュートラルである」と、
(b)発生時対象測定情報:「判定対象者の表情はネガティブである」と
が互いに異なっていることから、1つ目の判定として、「判定対象者の(表情がネガティブとの)状態は、サービスロボットの経路Aの移動に起因して発生した」との判定1を行う。
さらに、起因判定部116は、
(a)非発生時対象予測情報2:「判定対象者の表情はポジティブである」と、
(b)発生時対象測定情報:「判定対象者の表情はネガティブである」と
が互いに異なっていることから、2つ目の判定として、「判定対象者の(表情がネガティブとの)状態は、サービスロボットの経路Aの移動に起因して発生した」との判定2を行う。
次いで、起因判定部116は、以上に述べた判定1及び判定2に基づき、結論として、「判定対象者の(表情がネガティブとの)状態は、サービスロボットの経路Aの移動に起因して発生した」又は「サービスロボット(の経路Aの移動)は、判定対象者に影響を与えた」との判定を行う。ここで、起因判定部116は、2つの判定結果(判定1及び判定2)の両方が「起因する」との判定結果であり、すなわち「起因する」との判定が行われた割合が1(=2/2)であって所定割合閾値0.7を上回っているので、最終的に「起因する」との判定を行うのである。
以上図7を用いて説明した具体例のように、判定対象者を含む人物が視線を向けたり合わせたり、さらにはその表情を変えたりするような状況においても、判定対象者の状態・行動が、所定のイベントの発生に起因するのか否かを判定することが可能となるのである。
以上詳細に説明したように、本発明によれば、所定のイベントの発生を前提から外した「非発生時対象予測情報」を生成した上で、この「非発生時対象予測情報」と、所定のイベントが発生した状況での「発生時対象測定情報」とを比較することによって、いわゆる対照実験に相当するような起因判定・決定処理を実施することが可能となる。すなわち、ある対象の状態及び/又は行動が所定のイベントの発生に起因するか否かに係る情報を、より適切に決定することが可能となる。
また1つの応用例としてではあるが、本発明によれば例えば、提示した商品やサービスに対する、提示された人物の(満足度を含む)受容性を評価することもできる。またこれにより、例えば商品・サービス、さらにはその提供方法の改善に貢献することも可能となるのである。
さらに、例えば多数の子供達に対し質の高い、且つ個々の性格に合った教育を提供するために、当該子供達から勉強への意欲を引き出すことのできる(当該子供達の勉強への意欲がそれに起因する)ことが本発明によって判明した教材や教育サービスを、積極的に活用することもできる。すなわち本発明によれば、国連が主導する持続可能な開発目標(SDGs)の目標4「すべての人々に包摂的かつ公平で質の高い教育を提供し、生涯学習の機会を促進する」に貢献することも可能となるのである。
さらに、例えば多数の大人達に対し、環境に害を及ぼさないディーセント・ワーク(働きがいのある人間らしい仕事)や、質の高い、且つ個々の性格に適した仕事を提供するために、当該大人達から仕事に対する意欲や満足感を引き出すことのできる(当該大人達の仕事に対する意欲や満足感がそれに起因する)ことが本発明によって判明した仕事内容や職種を、積極的に活用することもできる。すなわち本発明によれば、国連が主導するSDGsの目標8「すべての人々のための包摂的かつ持続可能な経済成長、雇用およびディーセント・ワークを推進する」に貢献することも可能となるのである。
またさらに、例えば多数の消費者に対し、当該消費者の性格や生活パターンの現状に沿った、持続可能な消費とライフスタイルについての情報を提供するために、当該消費者の適切な購買・消費行動を引き出すことのできる(当該消費者の適切な購買・消費行動がそれに起因する)ことが本発明によって判明した商品・サービス購買消費情報を、積極的に活用することもできる。すなわち本発明によれば、国連が主導するSDGsの目標12「持続可能な消費と生産のパターンを確保する」に貢献することも可能となるのである。
以上に述べた本発明の種々の実施形態において、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 因果関係判定装置
101 通信インタフェース
102 画像・音声情報保存部
103 ユーザ属性情報保存部
104 前提情報保存部
105 判定結果起因度保存部
106 キーボード(KB)・ディスプレイ(DP)
111 測定部
111a 認識部
112 測定情報取得部
113 対象予測部
114 前提情報選択部
115 イベント発動部
116 起因判定部
116a 起因度算出部
121 通信制御部
122 入出力制御部
2 カメラ
3 マイク
4 ユーザ属性情報管理サーバ

Claims (14)

  1. 所定のイベントの発生と、対象の状態及び/又は行動との因果関係を判定する因果関係判定装置であって、
    少なくとも当該対象の状態及び/又は行動を測定可能な測定手段から、少なくとも当該対象の状態及び/又は行動に係る情報を含む測定情報を取得する測定情報取得手段と、
    当該測定情報、及び/又は取得された当該対象の属性情報を用いて、当該所定のイベントが発生していないとの前提下における当該対象の状態及び/又は行動に係る情報である非発生時対象予測情報を生成する対象予測手段と、
    当該所定のイベントが発生した時点若しくは期間に係る当該測定情報である発生時対象測定情報と、当該非発生時対象予測情報とを比較して、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因するか否かを判定する、及び/又は、当該所定のイベントの発生に起因する度合いを決定する起因判定手段と
    を有することを特徴とする因果関係判定装置。
  2. 少なくとも当該所定のイベントが発生していないとの前提条件を含む前提情報を保存した前提情報保存手段を更に有し、
    前記対象予測手段は、当該前提情報に含まれる前提条件の下で当該対象の状態及び/又は行動を予測して、当該非発生時対象予測情報を生成する
    ことを特徴とする請求項1に記載の因果関係判定装置。
  3. 前記測定手段は当該対象の環境も測定可能であって、取得された当該測定情報は、当該対象の環境に係る情報も含み、
    当該前提情報は、当該所定のイベントが発生した際若しくはその直前の環境と同じ若しくは類似した環境にあるとの前提条件も含む
    ことを特徴とする請求項2に記載の因果関係判定装置。
  4. 当該測定情報は、当該対象の移動に係る情報である対象移動情報と、当該対象の周囲に存在する移動体における移動に係る情報である移動体移動情報とを含み、
    当該前提情報は、当該所定のイベントが発生した際若しくはその直前において測定された当該移動体の移動に係る態様のうちの少なくとも1つが生じているとの前提条件を含み、
    前記対象予測手段は、該前提条件を含む前提条件の下で当該対象の移動に係る情報を予測して、当該非発生時対象予測情報を生成する
    ことを特徴とする請求項3に記載の因果関係判定装置。
  5. 当該前提情報は、当該所定のイベントに合わせて又は先立って実際に発生した別のイベントが発生した、との前提条件も含むことを特徴とする請求項2から4のいずれか1項に記載の因果関係判定装置。
  6. 前記前提情報保存手段は、互いに少なくとも1つの前提条件の異なる複数の当該前提情報を保存し、
    前記対象予測手段は、当該前提情報毎に、当該前提情報に含まれる前提条件の下で当該対象の状態及び/又は行動を予測して、複数の当該非発生時対象予測情報を生成し、
    前記起因判定手段は、当該発生時対象測定情報と、当該非発生時対象予測情報の各々とを比較して得られた複数の判定結果及び/又は決定結果に基づいて、起因するか否かの結論としての判定、及び/又は、起因する度合いの結論としての決定を行う
    ことを特徴とする請求項2から5のいずれか1項に記載の因果関係判定装置。
  7. 前記起因判定手段は、当該発生時対象測定情報と当該非発生時対象予測情報とが、互いに異なる情報又は所定以上に相違する情報である場合に、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因すると判定することを特徴とする請求項1から6のいずれか1項に記載の因果関係判定装置。
  8. 前記起因判定手段は、当該発生時対象測定情報と当該非発生時対象予測情報との相違の度合いに基づき、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因する度合いを決定することを特徴とする請求項1から7のいずれか1項に記載の因果関係判定装置。
  9. 前記起因判定手段は、当該発生時対象測定情報と当該非発生時対象予測情報とが、同じ情報又は所定以上に類似する情報である場合に、当該発生時対象測定情報に係る当該対象の状態及び/又は行動は、当該所定のイベントの発生に起因しないと判定することを特徴とする請求項1から8のいずれか1項に記載の因果関係判定装置。
  10. 前記起因判定手段は、当該所定のイベントの発生が複数ある場合に、当該発生毎の判定及び/又は決定により得られた複数の判定結果及び/又は決定結果に基づいて、当該所定のイベントに関し、起因するか否かの結論としての判定、及び/又は、起因する度合いの結論としての決定を行う
    ことを特徴とする請求項1から9のいずれか1項に記載の因果関係判定装置。
  11. 前記起因判定手段は、互いに異なる複数の当該所定のイベントがある場合に、当該所定のイベントの発生毎の判定及び/又は決定により得られた複数の判定結果及び/又は決定結果に基づいて、前記複数の所定のイベントのうちの1つ若しくは複数に関し、起因するか否かの結論としての判定、及び/又は、起因する度合いの結論としての決定を行う
    ことを特徴とする請求項1から10のいずれか1項に記載の因果関係判定装置。
  12. 当該所定のイベントは、所定の商品又はサービスの提示であって、当該対象は、当該提示を受ける人物であることを特徴とする請求項1から11のいずれか1項に記載の因果関係判定装置。
  13. 所定のイベントの発生と、対象の状態及び/又は行動との因果関係を判定するコンピュータを機能させる因果関係判定プログラムであって、
    少なくとも当該対象の状態及び/又は行動を測定可能な測定手段から、少なくとも当該対象の状態及び/又は行動に係る情報を含む測定情報を取得する測定情報取得手段と、
    当該測定情報、及び/又は取得された当該対象の属性情報を用いて、当該所定のイベントが発生していないとの前提下における当該対象の状態及び/又は行動に係る情報である非発生時対象予測情報を生成する対象予測手段と、
    当該所定のイベントが発生した時点若しくは期間に係る当該測定情報である発生時対象測定情報と、当該非発生時対象予測情報とを比較して、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因するか否かを判定する、及び/又は、当該所定のイベントの発生に起因する度合いを決定する起因判定手段と
    してコンピュータを機能させることを特徴とする因果関係判定プログラム。
  14. 所定のイベントの発生と、対象の状態及び/又は行動との因果関係を判定するコンピュータにおける因果関係判定方法であって、
    少なくとも当該対象の状態及び/又は行動を測定可能な測定手段から、少なくとも当該対象の状態及び/又は行動に係る情報を含む測定情報を取得するステップと、
    当該測定情報、及び/又は取得された当該対象の属性情報を用いて、当該所定のイベントが発生していないとの前提下における当該対象の状態及び/又は行動に係る情報である非発生時対象予測情報を生成するステップと、
    当該所定のイベントが発生した時点若しくは期間に係る当該測定情報である発生時対象測定情報と、当該非発生時対象予測情報とを比較して、当該発生時対象測定情報に係る当該対象の状態及び/又は行動が、当該所定のイベントの発生に起因するか否かを判定する、及び/又は、当該所定のイベントの発生に起因する度合いを決定するステップと
    を有することを特徴とする因果関係判定方法。
JP2021051458A 2021-03-25 2021-03-25 非発生時対象予測情報を用いて起因の判定・決定を行う因果関係判定装置、プログラム及び方法 Pending JP2022149349A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021051458A JP2022149349A (ja) 2021-03-25 2021-03-25 非発生時対象予測情報を用いて起因の判定・決定を行う因果関係判定装置、プログラム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021051458A JP2022149349A (ja) 2021-03-25 2021-03-25 非発生時対象予測情報を用いて起因の判定・決定を行う因果関係判定装置、プログラム及び方法

Publications (1)

Publication Number Publication Date
JP2022149349A true JP2022149349A (ja) 2022-10-06

Family

ID=83462517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021051458A Pending JP2022149349A (ja) 2021-03-25 2021-03-25 非発生時対象予測情報を用いて起因の判定・決定を行う因果関係判定装置、プログラム及び方法

Country Status (1)

Country Link
JP (1) JP2022149349A (ja)

Similar Documents

Publication Publication Date Title
Erol et al. Toward artificial emotional intelligence for cooperative social human–machine interaction
Cerekovic et al. Rapport with virtual agents: What do human social cues and personality explain?
Mead et al. Autonomous human–robot proxemics: socially aware navigation based on interaction potential
Matsuyama et al. Four-participant group conversation: A facilitation robot controlling engagement density as the fourth participant
US9202110B2 (en) Automatic analysis of rapport
CN106663383B (zh) 分析受试者的方法和系统
JP2021517287A (ja) マイクロ表現を用いて信ぴょう性を決定するコンピュータ化されたシステムおよび方法
Frauendorfer et al. Nonverbal social sensing in action: Unobtrusive recording and extracting of nonverbal behavior in social interactions illustrated with a research example
US20190147228A1 (en) System and method for human emotion and identity detection
EP3513371A1 (en) System and method for human personality diagnostics based on computer perception of observable behavioral manifestations of an individual
US20220036916A1 (en) Speech emotion recognition method and apparatus
WO2020148920A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US11386804B2 (en) Intelligent social interaction recognition and conveyance using computer generated prediction modeling
US20210012065A1 (en) Methods Circuits Devices Systems and Functionally Associated Machine Executable Code for Generating a Scene Guidance Instruction
US20170316452A1 (en) Information processing apparatus and information processing method
CN111353804A (zh) 一种服务评价方法、装置、终端设备和介质
US10770072B2 (en) Cognitive triggering of human interaction strategies to facilitate collaboration, productivity, and learning
Pantic et al. Social signal processing
Cheng et al. Predicting online lecture ratings based on gesturing and vocal behavior
CN114995657A (zh) 一种智能机器人的多模态融合自然交互方法、系统及介质
Arakawa et al. REsCUE: A framework for REal-time feedback on behavioral CUEs using multimodal anomaly detection
Inoue et al. Engagement recognition by a latent character model based on multimodal listener behaviors in spoken dialogue
CN112053205A (zh) 通过机器人情绪识别的产品推荐方法及装置
Inoue et al. Engagement Recognition in Spoken Dialogue via Neural Network by Aggregating Different Annotators' Models.
Sun et al. In your eyes: Modality disentangling for personality analysis in short video