JP6447108B2 - 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム - Google Patents

利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム Download PDF

Info

Publication number
JP6447108B2
JP6447108B2 JP2014260783A JP2014260783A JP6447108B2 JP 6447108 B2 JP6447108 B2 JP 6447108B2 JP 2014260783 A JP2014260783 A JP 2014260783A JP 2014260783 A JP2014260783 A JP 2014260783A JP 6447108 B2 JP6447108 B2 JP 6447108B2
Authority
JP
Japan
Prior art keywords
availability
subjects
line
relationship
product
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014260783A
Other languages
English (en)
Other versions
JP2016122272A (ja
Inventor
哲典 田口
哲典 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014260783A priority Critical patent/JP6447108B2/ja
Priority to US14/920,106 priority patent/US9842255B2/en
Publication of JP2016122272A publication Critical patent/JP2016122272A/ja
Application granted granted Critical
Publication of JP6447108B2 publication Critical patent/JP6447108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本開示は、利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラムに関する。
注目人数を商品の注目度の情報として用いる技術が知られている(例えば、特許文献1参照)。
特開2007−286995号公報
ところで、ある特定の物体が人に利用(購買等を含む)される可能性(以下、「利用可能性」という)を数値化する際、人の視線が当該物体に向けている態様(例えば、視線が向けられる回数や時間等)を利用できる。一般的に、長い時間、ある人の視線が物体に向けられるほど、その人によるその物体に係る利用可能性は高くなる。また、一般的に、多くの人の視線が物体に向けられるほど、その物体に係る利用可能性は高くなる。
開示の技術は、人の視線が物に向けられている様態から、物に係る利用可能性を精度良く数値化する利用可能性算出装置等の提供を目的とする。
本開示の一局面によれば、対象者の視線情報を取得する視線情報取得部と、
複数の対象者の視線情報に基づいて、物に前記複数の対象者の視線が向けられる態様を判断する視線態様判断部と、
前記複数の対象者間の関係を判断する関係判断部と、
前記関係判断部により判断された前記複数の対象者間の関係と、前記視線態様判断部により判断された前記態様とに基づいて、前記物が前記対象者により利用される可能性を表す指標値を算出する利用可能性算出部とを備える、利用可能性算出装置が提供される。
本開示の技術によれば、利用可能性を算出する際に複数の被写体間の関係を用いることで、物に係る利用可能性を精度良く数値化できる利用可能性算出装置等が得られる。
利用可能性算出装置が適用される利用可能性算出システム1の一例を示す図である。 利用可能性算出装置100のハードウェア構成の一例を示す図である。 利用可能性算出装置100の機能ブロック図である。 商品位置データベース125の説明図(その1)である。 商品位置データベース125の説明図(その2)である。 撮像画像内に2人の対象者S1、S2が検出された場合の注視態様テーブルの例を示す図である。 対象者毎の利用可能性の算出結果(個別テーブル)の例を示す図である。 グループ毎の利用可能性の算出結果(グループテーブル)の例を示す図である。 商品棚に商品が置かれているシーンの一例を示す図である。 利用可能性算出装置100により実行される利用可能性算出処理の一例を示すフローチャートである。 グループとなる対象者S1,S2が商品を注視するシーンの一例を示す図である。 商品の属性テーブルの一例を示す図である。 実施例2において利用可能性算出装置100により実行される利用可能性算出処理の一例を示すフローチャートである。 商品の属性に応じて異なる利用可能性の算出結果(テーブル)の例を示す図である。 実施例3において利用可能性算出装置100により実行される利用可能性算出処理の一例を示すフローチャートである。 グループ判定用データベース生成処理の一例を示すフローチャートである。 図16に示す処理により生成されるデータベースの一例を示す図である。 グループ判定処理の一例を示すフローチャートである。 注視態様テーブルの他の例を示す図である。
以下、添付図面を参照しながら各実施例について詳細に説明する。
図1は、利用可能性算出装置が適用される利用可能性算出システム1の一例を示す図である。
利用可能性算出システム1は、視線センサ20と、利用可能性算出装置100とを含む。利用可能性算出装置100は、視線センサ20とは有線または無線で通信可能に接続される。尚、以下で説明する利用可能性算出装置100の機能の一部又は全部は、視線センサ20内に内蔵されうる処理装置により実現されてもよい。
視線センサ20は、カメラ21を含む。視線センサ20は、複数のカメラ21を含んでもよい。以下では、一例として、視線センサ20は、1つのカメラ21のみを含むものとする。視線センサ20が複数のカメラ21を含む場合、複数のカメラ21が取得する複数の撮像画像の集合を1枚の集合的な撮像画像として、以下の説明における"撮像画像"として用いればよい。
カメラ21は、対象者S(対象者の一例)の目や顔の撮影画像を取得する。以下では、一例として、カメラ21は、対象者Sの顔を含む風景を撮影するものとする。カメラ21は、任意のタイプの撮像素子を含んでよい。例えば、カメラ21は、比較的安価なCMOS(complementary metal-oxide-semiconductor)カメラであってよい。
図2は、利用可能性算出装置100のハードウェア構成の一例を示す図である。
利用可能性算出装置100は、例えばコンピューターにより実現される。図2に示す例では、利用可能性算出装置100は、制御部101、主記憶部102、補助記憶部103、ドライブ装置104、ネットワークI/F部106、入力部107を含む。
制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力部107や記憶装置からデータを受け取り、演算、加工した上で、記憶装置などに出力する。
主記憶部102は、ROM(Read Only Memory)やRAM(Random Access Memory)などである。主記憶部102は、制御部101が実行する基本ソフトウェアであるOS(Operating System)やアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
補助記憶部103は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
ドライブ装置104は、記録媒体105、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。
記録媒体105は、所定のプログラムを格納する。この記録媒体105に格納されたプログラムは、ドライブ装置104を介して利用可能性算出装置100にインストールされる。インストールされた所定のプログラムは、利用可能性算出装置100により実行可能となる。
ネットワークI/F部106は、有線及び/又は無線回線などのデータ伝送路により構築されたネットワークを介して接続された通信機能を有する周辺機器と利用可能性算出装置100とのインターフェースである。
入力部107は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、マウスやタッチパッド等を有する。
尚、図2に示す例において、以下で説明する各種処理等は、プログラムを利用可能性算出装置100に実行させることで実現することができる。また、プログラムを記録媒体105に記録し、このプログラムが記録された記録媒体105を利用可能性算出装置100に読み取らせて、以下で説明する各種処理等を実現させることも可能である。なお、記録媒体105は、様々なタイプの記録媒体を用いることができる。例えば、記録媒体105は、CD(Compact Disc)−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的,電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等であってよい。なお、記録媒体105には、搬送波は含まれない。
図3は、利用可能性算出装置100の機能ブロック図である。
利用可能性算出装置100は、ある任意の物体が人に利用される可能性(以下、「利用可能性」という)を算出する。ここで、人に利用されるとは、利用される行為そのもののみならず、利用のための行為、例えば、利用のために人に購買されること、利用のために人に借りられること(有償、無償は問わない)、利用のために人に譲り渡されること等を含む。物体は、任意の物体であり、以下では、一例として、対象者Sによる購入対象となる商品であるとする。また、以下では、一例として、商品は、店舗に陳列される任意の商品を想定する。従って、対象者Sは、店舗に来る人(商品を利用する可能性のある人)である。この場合、視線センサ20のカメラ21は、商品を視る対象者Sの顔を撮像できるように配置される。
利用可能性算出装置100は、視線情報取得部110と、顔検出部112と、人数検出部114と、視線態様判断部120と、関係判断部130と、利用可能性算出部140とを含む。
視線情報取得部110は、視線センサ20から視線情報を取得する。視線情報は、カメラ21の撮影画像そのものであってもよいし、カメラ21の撮影画像に基づいて得られる視線に関する情報(例えば視線ベクトルや視線位置)であってもよい。ここでは、視線情報取得部110は、カメラ21の撮影画像を取得するものとする。例えば、視線情報取得部110は、所定のフレームレート毎に得られるカメラ21の撮像画像を取得する。
顔検出部112は、カメラ21の撮影画像に基づいて対象者Sの顔を検出する。尚、顔検出部112による対象者Sの顔の検出アルゴリズムは、例えば個々の対象者Sを識別するための顔認識技術のような高精度なアルゴリズムであってもよいが、顔であるか否かを認識できる程度の簡易なアルゴリズムであってもよい。これは、顔検出部112による対象者Sの顔の検出結果は、後述の人数検出部114において撮影画像内の対象者Sの人数を算出するために用いられるためである。
人数検出部114は、顔検出部112の検出結果に基づいて、各撮像画像内の対象者Sの数(人数)を算出する。例えば、顔検出部112により2つの顔が検出された場合、人数検出部114は、人数を"二人"として算出する。
視線態様判断部120は、視線検出部124と、注視対象判断部126と、注視態様テーブル作成部128とを含む。
視線検出部124は、顔検出部112で検出された顔に係る対象者Sの視線を検出する。ここでは、視線検出部124は、仮想平面M上の対象者Sの視線位置を算出する。仮想平面Mは、図1に示すように、例えば、商品の位置(座標)を含む鉛直平面である。視線位置Pは、図1に示すように、視線ベクトルV1が仮想平面Mに交わる点の位置である。以下では、便宜上、図1に示すように、仮想平面Mの左端を原点としてXYZ軸を定義し、Z軸の正方向は、対象者S側であるとする。
視線位置算出方法は、任意である。例えば、視線検出部124は、カメラ21の撮影画像に基づいて、対象者Sの視線ベクトルV1を算出する。対象者Sの視線ベクトルV1の算出方法は、任意である。対象者Sの視線ベクトルV1の算出方法は、例えば特開2011-217764号公報に開示される方法であってよい。また、視線方向(視線ベクトルV1)の検出方法は、瞳孔と角膜反射を検知し、それらの位置関係から視線方向を算出する角膜反射法であってもよい。この場合、視線センサ20は、近赤外LED(Light-Emitting Diode)を含む。近赤外LEDによる近赤外光を対象者Sの顔に当てるこの方法は、瞳孔は、視線方向によって位置が変わるが、角膜反射の位置は、視線方向には影響を受けないことを利用するものである。近赤外LEDによる近赤外光を顔に当てる場合は、目の中に基準点となる角膜反射が発生するため、カメラのみから計測する方法と比較し計測精度が向上する。次いで、視線検出部124は、検出した視線ベクトルV1に基づいて対象者Sの視線位置を算出する。例えば、視線検出部124は、視線ベクトルV1と、対象者S及び商品間の距離とに基づいて、商品が位置する仮想平面M上における対象者Sの視線位置を算出する。対象者S及び商品間の距離は、測定値であってもよいし、固定値(想定値)であってよい。例えば、注視対象判断部126は、対象者Sの瞳孔間距離に基づいて、対象者S及び商品間の距離(以下、「商品−対象者間距離」とも称する)を算出してもよい。但し、商品−対象者間距離の算出方法は、任意であり、例えば視線センサ20が距離画像を取得する場合は、商品−対象者間距離は距離画像に基づいて算出されてもよい。尚、算出された視線位置は、キャリブレーション等の後処理を受けてもよい。
注視対象判断部126は、視線検出部124の検出結果に基づいて、顔検出部112で検出された顔に係る対象者Sが視線を向けている商品(以下、「注視対象の商品」とも称する)を特定する。
対象者Sの注視対象の商品を特定する方法は任意である。例えば、注視対象判断部126は、視線検出部124が算出した視線位置と、商品位置データベース125に記憶された商品の位置情報とに基づいて、対象者Sの注視対象の商品を特定する。商品位置データベース125は、対象者Sの注視対象となる商品の位置を表す位置情報を記憶する。位置情報が表す商品の位置は、任意であり、例えば商品の中心位置、重心位置、商品の顕著性の高い部位の位置等であってもよい。図4及び図5は、商品位置データベース125の説明図である。図4に示す例では、商品位置データベース125には、商品C1,C2・・・に関する左上位置N1及び右下位置N2(図5参照)のXY座標が記憶される。商品位置データベース125は、商品の位置情報に加えて、商品領域の形状及びサイズに関する情報を記憶してもよい。商品領域とは、仮想平面上における商品が占める領域を指すが、簡易的な商品外形に対応した領域であってもよい。例えば、注視対象判断部126は、視線検出部124が算出した視線位置に最も近い位置情報を持つ商品を、注視対象の商品として特定してもよいし、視線検出部124が算出した視線位置を内部に含む商品領域に係る商品を、注視対象の商品として特定してもよい。また、注視対象となり得る商品が1つしかない場合は、注視対象判断部126は、自動的にその商品を対象者Sの注視対象の商品として特定してもよい。
注視態様テーブル作成部128は、対象者毎に、注視対象判断部126の判断結果を時系列に表す注視態様テーブルを作成する。本例では、一例として、注視態様テーブルは、注視対象判断部126の判断結果の時系列に加えて、対象者間距離算出部132の算出結果の時系列を含む。対象者間距離算出部132の算出結果の時系列は、注視対象判断部126の判断結果の時系列に同期されてよい。図6は、撮像画像内に2人の対象者S1、S2が検出された場合の注視態様テーブルの例を示す。対象者S1、S2は、異なる人である。図6において、(A)は対象者S1に係る注視態様テーブルの例を示し、(B)は対象者S2に係る注視態様テーブルの例を示す。時間の欄の数字は、一例として、1秒間のフレーム集合を表し、"フレーム集合1"は、最初の1秒間のフレーム集合を表し、"2"は次の1秒間のフレーム集合を表す。図6に示す例では、最初の9秒間の各フレームからは、対象者S1、S2は共に商品C1を注視しているという注視対象判断部126の判断結果と、その際の対象者間距離が50[cm]であるという対象者間距離算出部132の算出結果とが得られたことを表す。また、最後の1秒間の各フレームからは、対象者S1、S2は共に商品C2を注視しているという注視対象判断部126の判断結果と、その際の対象者間距離が80[cm]であるという対象者間距離算出部132の算出結果とが得られたことを表す。
関係判断部130は、対象者間距離算出部132と、人間関係判断部136を含む。
対象者間距離算出部132は、ある一時点の撮像画像内に複数の対象者Sが検出された場合に、対象者間距離を算出する。対象者間距離は、任意の方法で算出されてもよい。例えば、対象者間距離は、一方の対象者Sの目の位置から他方の対象者Sの目の位置までの距離、各対象者Sの顔領域の重心間の距離等に基づいて算出されてもよい。
人間関係判断部136は、撮像画像内に複数の対象者Sが検出された場合に、複数の対象者Sが、注視対象を共用する可能性が高い人間関係であるかを判断する。共用する可能が高い人間関係とは、グループと見做せる関係であってよく、例えば、血縁関係、同居している関係、友達関係、及び、恋人関係のうちの少なくともいずれか1つを含んでよい。例えば、共用する可能が高い人間関係である複数の対象者は、夫婦、親子、カップル、非介護者と介護者、店員と顧客などであってよい。以下では、注視対象を共用する可能性が高い人間関係を、単に「共用可能性の高い人間関係」とも称する。
例えば、人間関係判断部136は、撮像画像内の複数の対象者Sが親しい関係であるか否かから、共用可能性の高い人間関係かを判定してもよい。例えば、人間関係判断部136は、共用可能性の高い人間関係であるか否かを、一方の対象者Sと他方の対象者Sとの間の物理的な距離で判断してもよい。人が他の人と隣接する際に物理的にあける空間としてパーソナルスペースというものがある。このパーソナルスペースは、それらの人と人とが親しい場合、親しくない場合に比べて、相対的に狭くなることが知られている。このことから、一方の対象者Sと他方の対象者Sとの距離から、これらの対象者Sが共用可能性の高い人間関係か否かを判断できる。
利用可能性算出部140は、対象者S毎の利用可能性(第2指標値の一例)と、グループ毎の利用可能性(第1指標値の一例)とを算出する。ある対象者Sの利用可能性とは、その注視対象がその対象者Sに利用される可能性を表す。あるグループの利用可能性とは、その物体がそのグループに利用される可能性(そのグループに属する複数の対象者Sを利用する利用可能性)を表す。利用可能性を評価する際、一グループは、一対象者Sと同一視できる。グループについては後述する。また、複数の対象者Sによる利用可能性とは、その物体がその複数の対象者Sに利用される可能性を表す。複数の対象者Sによる利用可能性が高いことは、利用される確率が高いことのみならず、その物体が利用される数量が多いことをも意味しうる。
尚、ある商品に係る対象者Sの利用可能性は、その商品に対して当該対象者Sが持つ関心度(第2指標値の一例)となりうる。即ち、ある商品に係る対象者S毎の利用可能性は、対象者S毎の、その商品に対して持つ関心度を表しうる。ある商品に係るグループの利用可能性は、その商品に対して当該グループの全体としての関心度、即ち各対象者Sが持つ関心度の代表値(第1指標値の一例)となりうる。
利用可能性算出部140は、人間関係判断部136の判断結果に基づいて、共用可能性の高い人間関係でない複数の対象者Sについては、対象者S毎の利用可能性を算出する。ここでは、一例として、利用可能性算出部140は、対象者S毎の利用可能性を、各対象者Sが商品を注視している時間の積算値として算出する。他の例では、利用可能性算出部140は、対象者S毎の利用可能性として、各対象者Sが商品を注視した頻度(何回見たか)を算出してもよいし、各対象者Sが商品を注視したか否かを判定(二値化)してもよい。利用可能性算出部140は、商品毎に対象者Sの利用可能性を算出する。例えば、図6に示す例では、利用可能性算出部140は、対象者S1に対しては、商品C1を9秒間注視していることから、商品C1に係る対象者S1の利用可能性を"9"と算出する。また、利用可能性算出部140は、対象者S1に対しては、商品C2を1秒間注視していることから、商品C2に係る対象者S1の利用可能性を"1"と算出する。同様に、対象者S2に対しては、商品C1を9秒間注視していることから、商品C1に係る対象者S2の利用可能性を"9"と算出する。また、利用可能性算出部140は、対象者S2に対しては、商品C3を1秒間注視していることから、商品C3に係る対象者S2の利用可能性を"1"と算出する。このようにして得られる対象者S毎の算出結果は、図7に示すような個別テーブルとして保持されてよい。
他方、利用可能性算出部140は、人間関係判断部136の判断結果に基づいて、共用可能性の高い人間関係である複数の対象者Sについては、グループとして一対象者とみなし、当該グループの利用可能性を算出する。ここでは、一例として、利用可能性算出部140は、グループの利用可能性を、グループに属する各対象者Sが商品を注視している時間の各積算値をそのまま合算するのに代えて、各積算値を適宜補正し、補正した各積算値を合算することで算出する。この際、利用可能性算出部140は、積算値が小さくなる方向に補正を行う。また、積算値を補正する処理を行なわずに、積算値を算出する段階で、積算値が各ユーザSが商品を注視している時間をそのまま合算した値よりも小さくなるような計算をおこなっても良い。例えば、利用可能性算出部140は、グループの利用可能性を、グループに属する複数のユーザSのうちの複数のユーザSの総数よりも少ない任意の人数のユーザSが商品を注視している時間の積算値として算出する。これは、他のユーザSが商品を注視している時間の積算値を"0"に補正したことと等価である。或いは、利用可能性算出部140は、グループの利用可能性を、グループに属する各ユーザSが商品を注視している時間の各積算値を重み付け平均することで算出してもよい。また、これらの各種算出方法において、積算は、ユーザ間距離が所定閾値Th1(後述)以下のときの時間のみを積算することにより実現されてもよい。
注視している時間の積算値を用いた例で説明を行なったが、前記したように、何人が注視したかという人数や回数で判断をするようにしても良い。
人数で判断する場合は、共用可能性の高い人間関係でない複数のユーザSについては、複数のユーザSの人数を用いて利用可能性を算出し、共用可能性の高い人間関係である複数のユーザSについては、複数のユーザSの総数よりも少ない人数を用いて利用可能性を算出する。
回数で判断する場合は、共用可能性の高い人間関係でない複数のユーザSについては、複数のユーザSが見た回数を用いて利用可能性を算出し、共用可能性の高い人間関係である複数のユーザSについては、複数のユーザSが見た回数の総数よりも少ない回数を用いで利用可能性を算出する。
図8は、図6に示す2人の対象者S1,S2からなるグループの利用可能性の算出結果(グループテーブル)の例を示す図である。ここでは、2人の対象者S1,S2が共用可能性の高い人間関係であると判定され、対象者S1,S2がグループG1に属する場合を想定する。尚、図8には、グループG1以外のグループG2についても図示されている。利用可能性算出部140は、商品毎にグループG1の利用可能性を算出する。例えば、図6に示す例では、利用可能性算出部140は、グループG1のうちの対象者S1,S2の両方が商品C1を9秒間注視していることから、商品C1に係るグループG1の利用可能性を"9"と算出する。即ち、利用可能性算出部140は、商品C1に係るグループG1の利用可能性を二人分の利用可能性を合算した"18"とはせずに、"9"と算出する。また、利用可能性算出部140は、グループG1のうちの対象者S1のみが商品C2を1秒間注視していることから、商品C2に係るグループG1の利用可能性を"1"と算出する。また、利用可能性算出部140は、グループG1のうちの対象者S2のみが商品C3を1秒間注視していることから、商品C3に係るグループG1の利用可能性を"1"と算出する。このようにして得られるグループ毎の算出結果は、図8に示すようなグループテーブルとして保持されてよい。
利用可能性算出部140は、後述の如く、商品の属性をも判断して、利用可能性を算出してもよい。これについては、後述の実施例2において説明する。
ところで、複数の対象者Sによる利用可能性は、複数の対象者Sが共用可能性の高い人間関係である場合は、そうでない場合に比べて、小さくなりうる。これは、複数の対象者Sが共用可能性の高い人間関係である場合は、当該複数の対象者Sが協動して1つの商品を利用する可能性があるためである。例えば、製品Aを一人が見ていて、製品Bを三人が見ている場合、単に見ている人数などから判断をすれば、製品Bの需要(利用可能性)は、製品Aに比べて3倍あると見做せる。しかし、製品Bを見ている三人が家族連れなどで、製品Aや製品Bが大型冷蔵庫などの一家に一台あれば良い製品であれば、家族の三人が3台の製品Bを購入することはあり得ない。そのため、製品Bの需要(利用可能性)は、製品Aの3倍あるとは見做せない。このように単に見ている人数などから判断するだけでは、利用可能性を精度よく算出できない虞がある。
この点、図3に示す利用可能性算出装置100によれば、複数の対象者Sが共用可能性の高い人間関係である場合は、複数の対象者Sによる利用可能性を、グループG1の利用可能性として算出するので、複数の対象者Sによる利用可能性の算出精度を高めることができる。即ち、図3に示す利用可能性算出装置100によれば、複数の対象者Sが共用可能性の高い人間関係である場合、単に各対象者Sの利用可能性を合算するのではなく、当該合算値よりも小さい値になる態様で、複数の対象者Sによる利用可能性を算出する。これにより、複数の対象者Sによる利用可能性の算出精度を高めることができる。
より具体的には、図8に示す例では、利用可能性算出部140は、商品C1に係るグループG1の利用可能性を二人分の利用可能性を合算した"18"とはせずに、"9"と算出する。グループG1の利用可能性は、複数の対象者S1、S2による利用可能性と等価である。仮に、複数の対象者S1、S2が共用可能性の高い人間関係でない場合は、複数の対象者S1、S2による利用可能性は、二人分の利用可能性を合算した"18"となる。このようにして、図3に示す利用可能性算出装置100によれば、複数の対象者S1、S2間の人間関係に応じて、複数の対象者Sによる利用可能性を精度良く算出できる。
次に、図9乃至図11を参照して、利用可能性算出装置100の動作に関する実施例(実施例1)について説明する。ここでは、3つの商品C1,C2,C3が商品棚200上に置かれているシーン(図9参照)を想定する。この場合、視線センサ20のカメラ21(2つ以上のカメラ21も可)は、3つの商品C1,C2,C3のいずれを注視するときの対象者Sであってもその対象者Sを撮像できるように設けられる。尚、図9に示す例では、商品C1,C2,C3が商品棚200上に置かれている状況を概略的に示す図である。尚、この場合、カメラ21(図示せず)は、例えば中央の商品C2の近傍に配置され、Z軸の正方向に視線方向を有する。また、対象者S(図示せず)は、商品C1,C2,C3よりもZ軸の正方向側の位置から、商品C1,C2,C3を注視するものとする。尚、図9に示す例では、3つの商品C1,C2,C3が商品棚200上に横方向に置かれているが、以下の説明は、任意の数の商品が商品棚200上に任意の方向に置かれている状況下でも適用可能である。
図10は、実施例1において利用可能性算出装置100により実行される利用可能性算出処理の一例を示すフローチャートである。図10に示す処理は、視線情報取得部110が視線センサ20から所定時間分の視線情報(本例では撮像画像)を取得する毎に実行されてよい。
ステップS1000では、顔検出部112は、視線情報取得部110が視線センサ20から取得した撮像画像に基づいて、顔検出処理を行う。
ステップS1002では、人数検出部114は、顔検出結果に基づいて、撮像画像に含まれる人数(対象者数)を検出する。
ステップS1004では、人数検出部114は、対象者数が複数(2以上)であるか否を判定する。対象者数が2以上である場合は、ステップS1016に進み、それ以外の場合(対象者数が1の場合)は、ステップS1006に進む。
ステップS1006では、視線検出部124は、今回検出した一人の対象者Sに対して対象者ID(Identification)を付与し、当該対象者の目領域を検出する。ここでは、一例として、今回検出した一人の対象者Sを、「対象者Sm」と称する。目領域は、例えばパターンマッチングにより検出されてもよい。目領域は、顔検出の際に検出されてもよい。
ステップS1008では、視線検出部124は、対象者Smの視線位置を検出する。視線位置の検出(算出)方法は上述のとおりであってよい。
ステップS1010では、注視対象判断部126は、対象者Smの注視対象の商品を特定する。注視対象の商品の特定方法は上述のとおりであってよい。ここでは、商品Ct(商品C1,C2又はC3)が特定されたものとする。
ステップS1012では、利用可能性算出部140は、商品Ctに係る対象者S(対象者Sm又はステップS1026の判定結果が"NO"の場合の各対象者S1、S2)の利用可能性を算出する。対象者Sの利用可能性の算出方法は、上述の対象者毎の利用可能性の算出方法とおりであってよい。このようにして対象者Sの利用可能性を算出すると、利用可能性算出部140は、個別テーブル(図7)を作成又は更新してよい。
ステップS1016では、視線検出部124は、今回検出した2人以上の対象者Sに対して対象者IDを付与し、各対象者の目領域を検出する。ここでは、一例として、今回検出した対象者Sは2人であるとし、これらの対象者Sを、「対象者S1、S2」と称する。尚、3人以上の対象者Sが検出された場合でも、以下の説明は当てはまる。
ステップS1018では、対象者間距離算出部132は、対象者S1、S2の間の距離(対象者間距離)を算出する。対象者間距離の算出方法は、上述のとおりであってよい。対象者間距離算出部132は、対象者S1、S2が検出される撮像画像毎(時系列)に、対象者間距離を算出してよい。
ステップS1020では、視線検出部124は、対象者S1、S2のそれぞれの視線位置を検出する。視線位置は、対象者S1,S2毎に検出されてよい。視線位置の検出(算出)方法は、上述のとおりであってよい。視線検出部124は、対象者S1、S2が検出される撮像画像毎(時系列)に、各視線位置を算出してよい。
ステップS1022では、注視対象判断部126は、対象者S1、S2のそれぞれの注視対象の商品を特定する。注視対象の商品は、対象者S1,S2毎に特定されてよい。注視対象の商品の特定方法は上述のとおりであってよい。注視対象判断部126は、対象者S1、S2が検出される撮像画像毎(時系列)に、対象者S1、S2のそれぞれの注視対象の商品を特定してよい。ここでは、対象者S1、S2のそれぞれの注視対象の商品として同一の商品Ct(商品C1,C2又はC3)が特定されたものとする。
ステップS1024では、注視態様テーブル作成部128は、ステップS1018及びステップS1022の結果に基づいて、対象者S1、S2に係る注視態様テーブルを作成する。注視態様テーブルは、図6を参照して上述した通りである。
ステップS1026では、人間関係判断部136は、ステップS1024で得られた注視態様テーブルに基づいて、対象者S1、S2に係る対象者間距離が所定閾値Th1以下であるか否かを判定する。所定閾値Th1は、対象者S1、S2が共用可能性の高い人間関係であるか否かを判定するための閾値であり、共用可能性の高い人間関係であれば物理的な距離も短くなることを利用している。所定閾値Th1は、任意であるが、例えば50cm程度であってよい。人間関係判断部136は、対象者S1、S2に係る対象者間距離の平均値(各時間における対象者間距離の平均値)を用いてもよい。また、人間関係判断部136は、対象者間距離の最小値が所定閾値Th1以下であるか否か、対象者間距離が所定閾値Th1以下である状態が所定時間以上継続したか否かを判定してもよい。また、人間関係判断部136は、対象者S1、S2が共に同一の商品を注視しているときの対象者間距離のみを使用してもよい。対象者間距離が所定閾値Th1以下である場合は、ステップS1028に進み、それ以外の場合は、ステップS1012に進む。ステップS1012に進む場合は、今回検出された2人の対象者S1、S2は、共用可能性の高い人間関係でないと判定されたことになる。この場合、対象者S1、S2は、グループと見做されず、それ故に、ステップS1012において、対象者毎の利用可能性が算出される。具体的には、利用可能性算出部140は、対象者S1、S2のそれぞれについて、商品Ctに係る対象者Sの利用可能性を算出する。
ステップS1028では、人間関係判断部136は、今回検出された2人の対象者S1、S2をグループと見做し、グループIDを付与する。ここでは、一例として、今回検出した対象者S1、S2のグループを「グループG1」と称する。
尚、ステップS1004において3人以上の対象者Sが検出された場合は、ステップS1026において、人間関係判断部136は、それぞれの対象者毎に、任意の他の対象者に対する対象者間距離が所定閾値Th1以下であるか否かを判定してもよい。或いは、人間関係判断部136は、それぞれの対象者毎に、全ての他の対象者に対する対象者間距離が所定閾値Th1以下であるか否かを判定してもよい。この結果、ステップS1028では、人間関係判断部136は、3人以上の対象者Sのうちの、一部の対象者のみをグループとみなしてもよい。この場合、グループとみなした対象者Sについては、ステップS1030に進み、それ以外の対象者Sについては、ステップS1012の処理に進む。
ステップS1030では、利用可能性算出部140は、商品Ctに係るグループG1の利用可能性を算出する。グループの利用可能性の算出方法は、上述のとおりであってよい。このようにしてグループの利用可能性を算出すると、利用可能性算出部140は、グループテーブル(図8)を作成又は更新してよい。
図10に示す処理によれば、対象者間距離が所定閾値Th1以下である複数の対象者Sについては共用可能性の高い人間関係であると判定され、当該複数の対象者Sをグループとして、グループの利用可能性が算出される。例えば、図11に示すような状況、即ち、所定閾値Th1以下の対象者間距離の対象者S1,S2が同一の商品C2(商品Ct)を同時に注視している想定される。尚、図11では、各対象者S1,S2の視線が矢印で模式的に示されている。この場合、複数の対象者S1,S2による利用可能性は、グループの利用可能性として算出されることになる。他方、対象者間距離が所定閾値Th1以下でない複数の対象者Sについては共用可能性の高い人間関係でないと判定され、当該複数の対象者Sのそれぞれについて、対象者の利用可能性が算出される。このようにして、図10に示す処理によれば、複数の対象者Sが共用可能性の高い人間関係であるか否かに応じて、利用可能性が異なる態様で算出されるので、精度の高い利用可能性を算出できる。
尚、図10に示す例では、複数の対象者Sが共用可能性の高い人間関係であるか否かに応じて、利用可能性が異なる態様で算出されるが、全ての対象者Sに対して各対象者の利用可能性が算出されてもよい。この場合、複数の対象者Sが共用可能性の高い人間関係である場合は、更に、その複数の対象者Sをグループとして、グループの利用可能性が算出される。この場合、グループの利用可能性は、該グループを形成する各対象者Sの利用可能性を補正することで算出されてよい。この補正方法については上述の通りであってよい。
次に、図12乃至図14を参照して、利用可能性算出装置100の動作に関する他の実施例(実施例2)について説明する。
実施例2は、上述した実施例1に対して、商品の属性テーブルを使用する点が主に異なる。具体的には、実施例2では、利用可能性算出部140は、複数の対象者S間の人間関係に加えて、注視対象の商品の属性(性質)を判断して、利用可能性を算出する。商品の属性は、例えば、その商品が、複数の対象者Sで共用可能であるか否かに関するものであってよい。
図12は、商品の属性テーブルの一例を示す図である。図12には、各商品C1、C2等について、共用可能性の高い人間関係である複数の対象者Sで共用可能であるか否かの属性が定義されている。例えば、一般的に、冷蔵庫などの大型商品は、複数の対象者Sで共用可能である。また、例えば自動販売機等における食べ物や飲み物などの商品は、複数の対象者Sで共用可能でなく、共用不可(又は共用困難)である。共用可能性の高い人間関係である複数の対象者Sで共用可能であるか否かは、属性テーブルの作成者(設計者)が適宜決定すればよい。
図13は、実施例2において利用可能性算出装置100により実行される利用可能性算出処理の一例を示すフローチャートである。図13に示す処理は、視線情報取得部110が視線センサ20から所定時間分の視線情報(本例では撮像画像)を取得する毎に実行されてよい。
図13に示す処理は、図10に示した処理に対して、ステップS1027が追加された点が主に異なる。以下、図10に対して異なる部分について説明する。
ステップS1026の判定結果が"YES"の場合、ステップS1027に進む。
ステップS1027では、利用可能性算出部140は、商品の属性テーブル(図12参照)を参照して、ステップS1024で得られた注視態様テーブルに基づいて、複数の対象者Sの注視対象の商品Ctの属性が共用可能な商品であるか否かを判定する。例えば図8に示す例では、注視対象の商品Ctが商品C1である場合は、共用可能な商品と判定され、注視対象の商品Ctが商品C2又はC3である場合は、共用可能でない商品と判定される。注視対象の商品Ctの属性が共用可能な商品である場合は、ステップS1028に進み、それ以外の場合、ステップS1012に進む。ステップS1012に進む場合は、2人の対象者S1、S2は共用可能性の高い人間関係でありうるが、グループとされず、ステップS1012において、対象者毎の利用可能性が算出される。具体的には、利用可能性算出部140は、対象者S1、S2のそれぞれについて、商品Ctに係る対象者Sの利用可能性を算出する。
注視対象の商品Ctが複数ある場合は、利用可能性算出部140は、商品毎に、その属性に応じてステップS1030又はステップS1012に進むこととしてよい。例えば、図6に示す例では、対象者S1、S2の注視対象の商品は、3つの商品C1,C2,C3である。この場合、商品C1については、商品の属性テーブル(図12参照)から共用可能であるので、対象者S1、S2をグループG1としてグループの利用可能性が算出される(ステップS1030)。他方、商品C2、C3については、商品の属性テーブル(図12参照)から共用不可であるので、対象者S1、S2のそれぞれの利用可能性が算出される(ステップS1012)。この場合は、利用可能性の各算出結果に基づいて、図14に示すような個別テーブルとグループテーブルを複合したテーブルが生成されてもよい。
ところで、複数の対象者Sによる利用可能性は、上述の如く、複数の対象者Sが共用可能性の高い人間関係である場合は、そうでない場合に比べて、小さくなる傾向がある。しかしながら、かかる傾向は、商品の属性に依存する。具体的には、共用可能な商品の場合は、複数の対象者Sによる利用可能性は、上述の如く、複数の対象者Sが共用可能性の高い人間関係である場合は、そうでない場合に比べて、小さくなる傾向があるが、共用可能でない商品の場合は、かかる傾向とならない。共用可能でない商品の場合は、共用可能性の高い人間関係である複数の対象者Sのそれぞれに利用される可能性があるためである。例えば、製品Aを、共用可能性の高い人間関係である三人が見ている場合、製品Aが大型冷蔵庫などの一家に一台あれば良い製品であれば、家族の三人が3台の製品Aを購入することはあり得ない。他方、製品Cを、共用可能性の高い人間関係である三人が見ている場合、製品Cが携帯電話などの個人で用いる製品であれば、家族の三人で1台だけ製品Cを購入する可能性は小さい。このように共用可能性の高い人間関係の判断結果を用いるだけでは、利用可能性を精度よく算出できない虞がある。
この点、図13に示す処理によれば、利用可能性算出部140は、複数の対象者Sが共用可能性の高い人間関係であり、且つ、注視対象の商品が共用可能である場合に、その商品については複数の対象者Sによる利用可能性を、グループG1の利用可能性として算出する。また、利用可能性算出部140は、複数の対象者Sが共用可能性の高い人間関係である場合であっても、注視対象の商品が共用可能でない場合には、その商品については、対象者S毎の利用可能性を算出する。これにより、複数の対象者Sによる利用可能性及び対象者S毎の利用可能性の算出精度を高めることができる。このように、図13に示す処理によれば、複数の対象者Sによる利用可能性を算出する際、複数の対象者S間の人間関係のみならず、複数の対象者Sの注視対象の商品の属性をも判断するので、各商品に係る利用可能性の算出精度を高めることができる。
次に、図15乃至図18を参照して、利用可能性算出装置100の動作に関する他の実施例(実施例3)について説明する。
実施例3は、上述した実施例1に対して、複数の対象者Sが共用可能性の高い人間関係(グループ)であるか否かの判定方法が主に異なる。
図15は、実施例3において利用可能性算出装置100により実行される利用可能性算出処理の一例を示すフローチャートである。図15に示す処理は、視線情報取得部110が視線センサ20から所定時間分の視線情報(本例では撮像画像)を取得する毎に実行されてよい。
図15に示す処理は、図10に示した処理に対して、ステップS1019、ステップS1025−1,1025−2が追加された点が主に異なる。以下、図10に対して異なる部分について説明する。
ステップS1019では、人間関係判断部136は、グループ判定用データベースを生成する。このグループ判定用データベース生成処理は、図16を参照して後述する。
ステップS1025−1では、人間関係判断部136は、ステップS1019で生成したグループ判定用データベースを参照して、グループ判定処理を行う。グループ判定処理は、図17を参照して後述する。
ステップS1025−2では、人間関係判断部136は、ステップS1025−1のグループ判定処理結果に基づいて、対象者S1、S2がグループであるか否かを判定する。対象者S1、S2がグループであると判定した場合は、ステップS1028に進み、それ以外の場合は、ステップS1012に進む。
図16は、グループ判定用データベース生成処理の一例を示すフローチャートである。図16に示す処理は、視線情報取得部110が視線センサ20から所定時間分の撮像画像に対して、時系列で古い順に一の撮像画像毎に実行されてもよいし、時系列で古い順に所定数の撮像画像(例えば、1秒間のフレーム集合)ごとに実行されてもよい。
ステップS1600では、人間関係判断部136は、各対象者S1、S2の顔領域から口領域を検出する。口領域の検出方法は任意であり、例えばパターンマッチングが用いられてよい。
ステップS1602では、人間関係判断部136は、各対象者S1、S2の口領域の重心間距離を算出する。
ステップS1604では、人間関係判断部136は、対象者S1、S2毎に、各対象者S1、S2の口領域の上下方向の変化量を算出する。変化量は、各所定フレーム前から変化量等であってよい。口領域の上下方向の変化量は、口領域の上下方向の幅の変化量として算出されてもよい。
ステップS1606では、人間関係判断部136は、対象者S1、S2毎に、ステップS1604で得た口領域の上下方向の変化量が所定閾値Th2以上であるか否かを判定する。変化量が所定閾値Th2以上である場合は、ステップS1608に進み、それ以外の場合は、ステップS1610に進む。対象者S1、S2毎に判定結果が異なる場合は、対象者S1、S2毎に異なるステップに進んでよい。
ステップS1608では、人間関係判断部136は、口が開いていると判定する。
ステップS1610では、人間関係判断部136は、口が閉じていると判定する。
ステップS1612では、人間関係判断部136は、今回処理した撮像画像に関する判定結果(口が閉じているか否かの判定結果)をデータベースに保存する。
ステップS1614では、人間関係判断部136は、視線情報取得部110が視線センサ20から所定時間分の撮像画像の全てに対して判定処理が終了したか否かを判定する。撮像画像の全てに対して判定処理が終了した場合は、終了し、それ以外の場合は、ステップS1600に戻り、新たな撮像画像に対して同一の処理を繰り返す。
図17は、図16に示すグループ判定用データベース生成処理により生成されるデータベースの一例を示す図である。図17において、(A)は対象者S1に係るデータベースの例を示し、(B)は対象者S2に係るデータベースの例を示す。時間の欄の数字は、一例として、1秒間のフレーム集合を表し、"フレーム集合1"は、最初の1秒間のフレーム集合を表し、"2"は次の1秒の時間間のフレーム集合を表す。図17に示す例では、所定時間として10秒間の撮像画像に対するグループ判定用データベース生成処理結果が示される。図17に示す例では、口が開いているか否かの判定結果(口の状態)に加えて、各対象者S1、S2の口領域の重心間距離の算出結果(距離)が保存されている。
図18は、グループ判定処理の一例を示すフローチャートである。
ステップS1800では、人間関係判断部136は、ステップS1024で得られた注視態様テーブルに基づいて、対象者S1、S2に係る対象者間距離が所定閾値Th1以下であるか否かを判定する。この判定方法は、上述したステップS1026の同様であってよい。尚、人間関係判断部136は、ステップS1024で得られた注視態様テーブルに代えて又は加えて、図16に示す処理結果(各対象者S1、S2の口領域の重心間距離)に基づいて、対象者間距離が所定閾値Th1以下であるか否かを判定してもよい。対象者S1、S2に係る対象者間距離が所定閾値Th1以下である場合は、ステップS1802に進み、それ以外の場合は、ステップS1806に進む。
ステップS1802では、人間関係判断部136は、図16に示す処理により得られるグループ判定用データベース(図17)を参照して、対象者S1、S2が交互に口を開いたか否かを判定する。図17に示す例では、時間"2"〜時間"5"までのフレーム集合に関する判定結果は、対象者S1、S2が交互に口を開いたことを示している。この場合、人間関係判断部136は、対象者S1、S2が交互に口を開いたと判定してよい。対象者S1、S2が交互に口を開いた場合は、ステップS1804に進み、それ以外の場合は、ステップS1806に進む。
ステップS1804では、人間関係判断部136は、対象者S1、S2はグループであると判定する。このような判定結果が生成される場合、図15のステップS1025−2の判定結果は"YES"となる。
ステップS1806では、人間関係判断部136は、対象者S1、S2はグループでないと判定する。このような判定結果が生成される場合、図15のステップS1025−2の判定結果は"NO"となる。
図15等に示す処理によれば、対象者間距離及び対象者S1、S2の口の動き(開閉状態)に基づいて、対象者S1、S2が共用可能性の高い人間関係であるか否かが判定される。具体的には、人間関係判断部136は、対象者間距離が所定閾値Th1以下であり、且つ、対象者S1、S2が交互に口を開いた場合は、対象者S1、S2が共用可能性の高い人間関係であると判定する。これにより、対象者S1、S2が共用可能性の高い人間関係であるか否かを精度良く判定できる。これは、対象者S1、S2が親しい関係であるときは、同じ商品を見ながら会話する場合があるが、対象者S1、S2が親しい関係でないときは、会話することはほとんどない。従って、対象者S1、S2が交互に口を開いたか否か、即ち会話しているか否かを判定することで、対象者S1、S2の人間関係を精度良く判定できる。
尚、図18に示す処理では、対象者間距離及び対象者S1、S2の口の動きに基づいて、対象者S1、S2が共用可能性の高い人間関係であるか否かを判定しているが、対象者S1、S2の口の動きのみに基づいて判定してもよい。
尚、本実施例3は、上述した実施例2と組み合わせることも可能である。例えば図15の処理において、ステップS1027の判定処理を組み込むこととしてもよい。
以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。
例えば、上述した各実施例では、人間関係判断部136は、対象者間距離及び/又は対象者S1、S2の口の動きに基づいて、対象者S1、S2が共用可能性の高い人間関係であるか否かを判定しているが、これに限られない。例えば、人間関係判断部136は、対象者S1、S2が同じ商品を注視していない際にお互いの顔を見ていた場合や、手を繋いでいる場合に、共用可能性の高い人間関係であると判定してもよい。
また、上述した各実施例では、注視態様テーブルは、図6に示すように、注視対象判断部126の判断結果の時系列に加えて、対象者間距離算出部132の算出結果の時系列を含むが、対象者間距離算出部132の算出結果の時系列は省略されてもよい。また、利用可能性算出部140は、各対象者Sの利用可能性を、各対象者Sが商品を注視したか否かの二値で算出する場合、注視態様テーブルは、対象者S毎及び商品毎の各値を保持するものであってよい。例えば、注視態様テーブルは、図19に示すように、ある対象者S1がある商品C1を注視したことを示す場合、値"1"を有し、対象者S1がある商品C3を注視していないことを示す場合、値"0"を有してよい。このような注視態様テーブルは、各対象者Sの利用可能性を表すことになる。従って、かかる構成では、注視態様テーブル作成部128は、利用可能性算出部140の機能の一部(各対象者Sの利用可能性を算出機能)を実現することになる。
また、上述した各実施例において、利用可能性算出部140は、更に、商品ごとに、各対象者及び/又は各グループの利用可能性を合計し、商品ごとに利用可能性の合計値(図7及び図8の"合計"参照)を導出してもよい。この際、利用可能性算出部140は、図7及び図8に示すように、個別テーブルとグループテーブルとで別々に合計値を導出してもよい。或いは、利用可能性算出部140は、商品ごとに、個別テーブルの合計値とグループテーブルの合計値とを更に合算した合計値を導出してもよい。尚、利用可能性算出部140は、各対象者Sの利用可能性を、各対象者Sが商品を注視したか否かの二値で算出する場合(例えば、商品を注視した場合は"1"、商品を注視していない場合は"0")、合計値は、商品を注視した対象者の数に相当する。同様に、利用可能性算出部140は、各グループの利用可能性を、各グループの所定の対象者S(又は所定数以上の対象者S)が商品を注視したか否かの二値で算出する場合、合計値は、商品を注視したグループの数に相当する。
また、図10等に示す処理では、利用可能性算出部140は、共用可能性の高い人間関係がある複数の対象者については、各対象者の利用可能性を算出することに代えて、グループの利用可能性を算出しているが、これに限られない。例えば、利用可能性算出部140は、共用可能性の高い人間関係がある複数の対象者については、グループの利用可能性を算出することに加えて、各対象者の利用可能性を算出してもよい。この場合、利用可能性算出部140は、ある商品に係るグループの利用可能性を算出する場合、当該商品に係る、当該グループに属する各対象者の利用可能性を算出する。よって、利用可能性算出部140は、グループであるか否かに拘らず各対象者の利用可能性を算出すると共に、各グループの利用可能性を算出することになる。
また、図10等に示す処理では、利用可能性算出部140は、共用可能性の高い人間関係がある複数の対象者については、各対象者の利用可能性を算出することに代えて、グループの利用可能性を算出しているが、これに限られない。例えば、利用可能性算出部140は、グループの利用可能性を算出しなくてもよい。以下、かかる変形例を「変形例1」と称する。かかる変形例1においては、利用可能性算出部140は、共用可能性の高い人間関係がある複数の対象者については、各対象者の利用可能性を低く算出(又は補正)してよい。例えば、利用可能性算出部140は、グループに属する各対象者の利用可能性を一律に低く算出してもよいし、グループに属する各対象者のうちの、所定の一の対象者以外の利用可能性を"0"に補正してもよい。尚、かかる変形例1においては、ある商品について、あるグループに属する各対象者Sの利用可能性の集合(第1指標値の一例)が、当該商品について、同グループに属する複数の対象者Sにより利用される可能性を表すことになる。例えば、ある商品について、あるグループに属する複数の対象者Sにより利用される可能性は、当該商品について、同グループに属する各対象者Sの利用可能性の合算値に基づいて判断できる。
また、図13に示す処理では、利用可能性算出部140は、共用可能性の高い人間関係がある複数の対象者が注視する商品について、その商品が共用可能であるか否かに応じて、各対象者の利用可能性、又は、グループの利用可能性を算出しているが、これに限られない。利用可能性算出部140は、共用可能性の高い人間関係がある複数の対象者が注視する商品について、その商品が共用可能である場合、グループの利用可能性を算出することに加えて、各対象者の利用可能性を算出してもよい。或いは、利用可能性算出部140は、共用可能性の高い人間関係がある複数の対象者が注視する商品について、その商品が共用可能である場合、グループの利用可能性を算出することに代えて、各対象者の利用可能性を算出してもよい。以下、かかる変形例を「変形例2」と称する。かかる変形例2においては、利用可能性算出部140は、共用可能性の高い人間関係がある複数の対象者が注視する商品について、その商品が共用可能である場合、共用可能でない場合に比べて、各対象者の利用可能性を低く算出(又は補正)してよい。例えば、利用可能性算出部140は、共用可能な商品については、グループに属する各対象者の利用可能性を一律に低く算出してもよいし、グループに属する各対象者のうちの、所定の一の対象者以外の利用可能性を"0"に補正してもよい。尚、かかる変形例2においては、ある共用可能な商品について、あるグループに属する各対象者Sの利用可能性の集合(第1指標値の一例)が、当該商品について、同グループに属する複数の対象者Sにより利用される可能性を表すことになる。例えば、ある共用可能な商品について、あるグループに属する複数の対象者Sにより利用される可能性は、当該商品について、同グループに属する各対象者Sの利用可能性の合算値に基づいて判断できる。
また、図13に示す処理では、利用可能性算出部140は、複数の対象者が共用可能性の高い人間関係があり、且つ、当該複数の対象者が注視する商品が共用可能である場合は、各対象者の利用可能性を算出しているが、これに限られない。例えば、利用可能性算出部140は、商品が共用可能である場合は、共用可能性の高い人間関係があるか否かを判定することなく、各対象者の利用可能性を算出してもよい。
また、図12に示す商品の属性テーブルは、その商品が共用可能であるか否かを示しているが、他の観点から設定されてもよい。例えば、商品の属性テーブルは、その商品に係る利用可能性を、対象者毎に算出するかグループ毎に算出するかを示してもよい。このような設定は、設計者が所望の態様で実現できる。
また、上述した各実施例において、利用可能性算出部140は、ある対象者について視線が検出されない短い時間がある場合、当該対象者のグループに属する他の対象者と同じ注視対象の商品を見ていることとして、当該対象者に係る利用可能性を算出してもよい。これにより、瞬き等で瞬間的に視線が検出できない場合でも、利用可能性を精度良く算出できる。
また、上述した説明では、対象者Sの注視対象となる物体は、商品棚に陳列できるような商品であったが、商品のサイズや形状等は任意であるし、商品の陳列方法も任意である。また、商品の位置を追従してもよい。
また、上述した説明では、仮想平面Mは、対象者Sの注視対象となる物体の位置(座標)を含むが、仮想平面Mは、商品位置データベース125に基づく商品の位置(Z座標)を必ずしも含む必要はない。例えば、仮想平面Mは、商品位置データベース125に基づく商品の位置(Z座標)を所定値だけZ軸正方向にオフセットした位置を含むように設定されてもよい。所定値は、商品のZ方向の長さの半分等であってもよい。
また、上述した説明では、仮想平面Mは、鉛直平面であるが、鉛直平面に対して傾斜していてもよい。また、仮想平面の代わりに、注視対象の空間的位置情報から、ユーザが注視した対象を特定してもよい。
また、上述した説明では、対象者Sの注視対象となる物体は、商品であったが、商品以外の物体(商取引の対象とならない物体)であってもよい。例えば、対象者Sの注視対象となる物体は、ポスター、広告、絵画、彫刻、画像、建造物、図書、動植物、商品見本等であってよい。また、対象者Sの注視対象は、ディスプレイ、携帯型端末、装着型端末などの画面に表示されるコンテンツのような、可視化される無体物であってもよい。例えば、対象者Sの注視対象となる物体は、広告のためにコンテンツ(商品等の物体)を表示若しくは配置する表示装置(デジタルサイネージ:Digital Signage)上の画面領域であってもよい。
また、上述した各実施例では、視線検出部124は視線ベクトルから視線位置を算出(特定)しているが、視線位置は任意の方法で取得すればよく、視線ベクトルから視線位置を算出する処理は、視線位置を取得する方法の一形態である。例えば、視線検出部124は、パターンマッチングにより視線ベクトルを介さずに視線位置を算出してもよい。また、画像処理ではなく、眼電位などをもとに視線位置を取得してもよい。さらに、例えば、対象が大きい場合や対象が遠い距離の場合などには、顔向きなどを視線方向とみなしてもよい。
また、上述した各実施例において、利用可能性算出装置100により実行される利用可能性算出処理等は、リアルタイムに実行されてもよい。
また、上述した各実施例では、視線センサ20は、設置型の視線センサであるが、対象者Sに装着される装着型視線センサであってもよい。この場合、装着型視線センサは、視線情報と共に位置情報を利用可能性算出装置100に送信することとしてよい。位置情報は、装着型視線センサに接続又は内蔵されるGPS(Global Positioning System)受信機により取得されてよい。この場合、利用可能性算出装置100は、各対象者Sの装着型視線センサから得られる位置情報を、対象者間距離を算出するために利用できる。また、装着型視線センサは、固有のIDを利用可能性算出装置100に送信することとしてよい。この場合、利用可能性算出装置100は、IDに紐付けられた対象者の登録情報に基づいて、対象者間の人間関係を判断できる。
なお、以上の実施例に関し、さらに以下の付記を開示する。
(付記1)
対象者の視線情報を取得する視線情報取得部と、
複数の対象者の視線情報に基づいて、物に前記複数の対象者の視線が向けられる態様を判断する視線態様判断部と、
前記複数の対象者間の関係を判断する関係判断部と、
前記関係判断部により判断された前記複数の対象者間の関係と、前記視線態様判断部により判断された前記態様とに基づいて、前記物が前記対象者により利用される可能性を表す指標値を算出する利用可能性算出部とを備える、利用可能性算出装置。
(付記2)
前記指標値は、前記物が複数の対象者により利用される可能性を表す第1指標値を含み、
前記利用可能性算出部は、前記物が前記複数の対象者のそれぞれにより利用される各可能性を表す対象者毎の第2指標値の合計値よりも、前記第1指標値を低く算出する、付記1に記載の利用可能性算出装置。
(付記3)
前記利用可能性算出部は、前記視線態様判断部により判断された前記態様が、前記物に複数の対象者が同一の時間に視線を向けることを示す場合に、前記複数の対象者間の前記関係に応じて前記複数の対象者に係る前記第1指標値又は前記第2指標値を算出する、付記2に記載の利用可能性算出装置。
(付記4)
前記関係判断部は、前記複数の対象者間の関係として、人間関係を判断する、付記3に記載の利用可能性算出装置。
(付記5)
前記関係判断部は、前記人間関係として、前記物に同一の時間に視線を向ける前記複数の対象者が前記物を共用する関係であるか否かを判定する、付記4に記載の利用可能性算出装置。
(付記6)
前記利用可能性算出部は、前記複数の対象者が前記物を共用する関係であると前記関係判断部が判定した場合、前記第1指標値を算出する、付記5に記載の利用可能性算出装置。
(付記7)
前記利用可能性算出部は、前記複数の対象者が前記物を共用する関係であると前記関係判断部が判定した場合、前記複数の対象者を1つのグループとして、前記物が該グループにより利用される可能性を前記第1指標値として算出する、付記6に記載の利用可能性算出装置。
(付記8)
前記利用可能性算出部は、前記複数の対象者が該複数の対象者で前記物を共用する関係でないと前記関係判断部が判定した場合、前記複数の対象者のそれぞれに係る前記第2指標値を算出する、付記6〜7のうちのいずれか1項に記載の利用可能性算出装置。
(付記9)
前記関係判断部は、前記複数の対象者間の距離に基づいて、前記複数の対象者が前記物を共用する関係であるか否かを判定する、付記5に記載の利用可能性算出装置。
(付記10)
前記関係判断部は、前記複数の対象者間の距離が所定閾値以下である場合、前記複数の対象者間の関係が前記物を共用する関係であると判定する、付記9に記載の利用可能性算出装置。
(付記11)
前記関係判断部は、前記複数の対象者の各口の動きに基づいて、前記複数の対象者が前記物を共用する関係であるか否かを判定する、付記5に記載の利用可能性算出装置。
(付記12)
前記関係判断部は、前記複数の対象者の各口が交互に開いた場合、前記複数の対象者間の関係が前記物を共用する関係であると判定する、付記11に記載の利用可能性算出装置。
(付記13)
前記利用可能性算出部は、前記複数の対象者が前記物を共用する関係であり、且つ、前記物が前記複数の対象者で共用可能である場合、前記第1指標値を算出する、付記5に記載の利用可能性算出装置。
(付記14)
前記利用可能性算出部は、前記物が前記複数の対象者で共用可能でない場合、前記複数の対象者のそれぞれに係る前記第2指標値を算出する、付記13に記載の利用可能性算出装置。
(付記15)
前記視線態様判断部は、視線が前記物に向けられている時間、視線が前記物に向けられる頻度、又は、前記物に視線を向けたか否かを、前記態様として判断する、付記1〜14のうちのいずれか1項に記載の利用可能性算出装置。
(付記16)
前記視線態様判断部は、視線が前記物に向けられている時間を判断し、
前記利用可能性算出部は、前記複数の対象者のそれぞれの視線が前記物に向けられている各時間に基づいて、前記指標値を算出する、付記1〜15のうちのいずれか1項に記載の利用可能性算出装置。
(付記17)
前記利用可能性算出部は、更に、複数のグループに係る前記第1指標値の合計値と、複数の対象者に係る前記第2指標値の合計値とを算出する、付記8に記載の利用可能性算出装置。
(付記18)
前記第1指標値は、時間を表し、
前記利用可能性算出部は、前記複数の対象者のそれぞれの視線が前記物に向けられている各時間の合算時間よりも短い時間を前記第1指標値が表すように、前記第1指標値を算出する、付記16に記載の利用可能性算出装置。
(付記19)
前記視線態様判断部は、視線が前記物に向けられている時間を判断し、
前記利用可能性算出部は、視線が前記物に向けられている時間が長いほど、前記第2指標値を高く算出する、付記3に記載の利用可能性算出装置。
(付記20)
対象者の視線情報を取得し、
複数の対象者の視線情報に基づいて、物に前記複数の対象者の視線が向けられる態様を判断し、
前記複数の対象者間の関係を判断し、
前記複数の対象者間の関係と、前記態様とに基づいて、前記物が前記対象者により利用される可能性を表す指標値を算出することを含む、コンピューターにより実行される利用可能性算出方法。
(付記21)
対象者の視線情報を取得し、
複数の対象者の視線情報に基づいて、物に前記複数の対象者の視線が向けられる態様を判断し、
前記複数の対象者間の関係を判断し、
前記複数の対象者間の関係と、前記態様とに基づいて、前記物が前記対象者により利用される可能性を表す指標値を算出する、
処理をコンピューターに実行させる利用可能性算出プログラム。
(付記22)
カメラと、
前記カメラから対象者の視線情報を取得する視線情報取得部と、
複数の対象者の視線情報に基づいて、物に前記複数の対象者の視線が向けられる態様を判断する視線態様判断部と、
前記複数の対象者間の関係を判断する関係判断部と、
前記関係判断部により判断された前記複数の対象者間の関係と、前記視線態様判断部により判断された前記態様とに基づいて、前記物が前記対象者により利用される可能性を表す指標値を算出する利用可能性算出部とを備える、利用可能性算出システム。
1 利用可能性算出システム
100 利用可能性算出装置
110 視線情報取得部
120 視線態様判断部
128 注視態様テーブル作成部
130 関係判断部
136 人間関係判断部
138 利用可能性算出部

Claims (13)

  1. 対象者の視線情報を取得する視線情報取得部と、
    複数の対象者の視線情報に基づいて、物に前記複数の対象者の視線が向けられる態様を判断する視線態様判断部と、
    前記複数の対象者間の関係を判断する関係判断部と、
    前記関係判断部により判断された前記複数の対象者間の関係と、前記視線態様判断部により判断された前記態様とに基づいて、前記物が前記対象者により利用される可能性を表す指標値を算出する利用可能性算出部とを備える、利用可能性算出装置。
  2. 前記指標値は、前記物が前記複数の対象者により利用される可能性を表す第1指標値を含み、
    前記利用可能性算出部は、前記物が前記複数の対象者のそれぞれにより利用される各可能性を表す対象者毎の第2指標値の合計値よりも、前記第1指標値を低く算出する、請求項1に記載の利用可能性算出装置。
  3. 前記利用可能性算出部は、前記視線態様判断部により判断された前記態様が、前記物に複数の対象者が同一の時間に視線を向けることを示す場合に、前記複数の対象者間の前記関係に応じて前記複数の対象者に係る前記第1指標値又は前記第2指標値を算出する、請求項2に記載の利用可能性算出装置。
  4. 前記関係判断部は、前記関係として、前記物に同一の時間に視線を向ける前記複数の対象者が前記物を共用する関係であるか否かを判定する、請求項3に記載の利用可能性算出装置。
  5. 前記利用可能性算出部は、前記複数の対象者が前記物を共用する関係であると前記関係判断部が判定した場合、前記第1指標値を算出する、請求項4に記載の利用可能性算出装置。
  6. 前記利用可能性算出部は、前記複数の対象者が該複数の対象者で前記物を共用する関係でないと前記関係判断部が判定した場合、前記複数の対象者のそれぞれに係る前記第2指標値を算出する、請求項5に記載の利用可能性算出装置。
  7. 前記関係判断部は、前記複数の対象者間の距離に基づいて、前記複数の対象者が前記物を共用する関係であるか否かを判定する、請求項4に記載の利用可能性算出装置。
  8. 前記関係判断部は、前記複数の対象者の各口の動きに基づいて、前記複数の対象者が前記物を共用する関係であるか否かを判定する、請求項4に記載の利用可能性算出装置。
  9. 前記利用可能性算出部は、前記複数の対象者が前記物を共用する関係であり、且つ、前記物が前記複数の対象者で共用可能である場合、前記第1指標値を算出する、請求項4に記載の利用可能性算出装置。
  10. 前記利用可能性算出部は、前記物が前記複数の対象者で共用可能でない場合、前記複数の対象者のそれぞれに係る前記第2指標値を算出する、請求項9に記載の利用可能性算出装置。
  11. 前記視線態様判断部は、視線が前記物に向けられている時間を判断し、
    前記利用可能性算出部は、前記複数の対象者のそれぞれの視線が前記物に向けられている各時間に基づいて、前記指標値を算出する、請求項1〜10のうちのいずれか1項に記載の利用可能性算出装置。
  12. 対象者の視線情報を取得し、
    複数の対象者の視線情報に基づいて、物に前記複数の対象者の視線が向けられる態様を判断し、
    前記複数の対象者間の関係を判断し、
    前記複数の対象者間の関係と、前記態様とに基づいて、前記物が前記対象者により利用される可能性を表す指標値を算出することを含む、コンピューターにより実行される利用可能性算出方法。
  13. 対象者の視線情報を取得し、
    複数の対象者の視線情報に基づいて、物に前記複数の対象者の視線が向けられる態様を判断し、
    前記複数の対象者間の関係を判断し、
    前記複数の対象者間の関係と、前記態様とに基づいて、前記物が前記対象者により利用される可能性を表す指標値を算出する、
    処理をコンピューターに実行させる利用可能性算出プログラム。
JP2014260783A 2014-12-24 2014-12-24 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム Active JP6447108B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014260783A JP6447108B2 (ja) 2014-12-24 2014-12-24 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
US14/920,106 US9842255B2 (en) 2014-12-24 2015-10-22 Calculation device and calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014260783A JP6447108B2 (ja) 2014-12-24 2014-12-24 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム

Publications (2)

Publication Number Publication Date
JP2016122272A JP2016122272A (ja) 2016-07-07
JP6447108B2 true JP6447108B2 (ja) 2019-01-09

Family

ID=56164562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014260783A Active JP6447108B2 (ja) 2014-12-24 2014-12-24 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム

Country Status (2)

Country Link
US (1) US9842255B2 (ja)
JP (1) JP6447108B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016200150A1 (en) * 2015-06-08 2016-12-15 Samsung Electronics Co., Ltd. Method and apparatus for providing content
JP6972526B2 (ja) * 2016-09-27 2021-11-24 大日本印刷株式会社 コンテンツ提供装置、コンテンツ提供方法、及びプログラム
JP6942464B2 (ja) * 2016-12-09 2021-09-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20180357670A1 (en) * 2017-06-07 2018-12-13 International Business Machines Corporation Dynamically capturing, transmitting and displaying images based on real-time visual identification of object
US11463618B2 (en) 2017-06-20 2022-10-04 Nec Corporation Apparatus for providing information and method of providing information, and non-transitory storage medium
US11200692B2 (en) 2017-08-07 2021-12-14 Standard Cognition, Corp Systems and methods to check-in shoppers in a cashier-less store
US11232687B2 (en) 2017-08-07 2022-01-25 Standard Cognition, Corp Deep learning-based shopper statuses in a cashier-less store
US10853965B2 (en) * 2017-08-07 2020-12-01 Standard Cognition, Corp Directional impression analysis using deep learning
US10650545B2 (en) 2017-08-07 2020-05-12 Standard Cognition, Corp. Systems and methods to check-in shoppers in a cashier-less store
US10474988B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
US11250376B2 (en) 2017-08-07 2022-02-15 Standard Cognition, Corp Product correlation analysis using deep learning
JP6972756B2 (ja) * 2017-08-10 2021-11-24 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP6972757B2 (ja) 2017-08-10 2021-11-24 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP2019124976A (ja) * 2018-01-11 2019-07-25 トヨタ自動車株式会社 リコメンド装置、リコメンド方法、及びリコメンドプログラム
JP7139680B2 (ja) * 2018-05-14 2022-09-21 富士通株式会社 活性度評価プログラム、装置、及び方法
WO2020059277A1 (ja) * 2018-09-20 2020-03-26 富士フイルム株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP7041046B2 (ja) * 2018-12-05 2022-03-23 Kddi株式会社 グループ推定装置及びグループ推定方法
US11232575B2 (en) 2019-04-18 2022-01-25 Standard Cognition, Corp Systems and methods for deep learning-based subject persistence
KR20210109275A (ko) 2020-02-27 2021-09-06 삼성전자주식회사 사용자의 관심 객체를 예측하는 방법 및 장치
JP6919073B1 (ja) * 2020-03-16 2021-08-11 楽天グループ株式会社 自動販売機制御システム、制御装置、及び制御方法
WO2021214981A1 (ja) * 2020-04-24 2021-10-28 シャープNecディスプレイソリューションズ株式会社 コンテンツ表示装置、コンテンツ表示方法およびプログラム
US11303853B2 (en) 2020-06-26 2022-04-12 Standard Cognition, Corp. Systems and methods for automated design of camera placement and cameras arrangements for autonomous checkout
US11361468B2 (en) 2020-06-26 2022-06-14 Standard Cognition, Corp. Systems and methods for automated recalibration of sensors for autonomous checkout

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4198951B2 (ja) * 2002-07-17 2008-12-17 独立行政法人科学技術振興機構 グループ属性推定方法及びグループ属性推定装置
JP4876687B2 (ja) 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム
JP2008243058A (ja) 2007-03-28 2008-10-09 Fujifilm Corp 嗜好調査システム及び嗜好調査方法
JP2009116510A (ja) 2007-11-05 2009-05-28 Fujitsu Ltd 注目度算出装置、注目度算出方法、注目度算出プログラム、情報提供システム、及び、情報提供装置
US8219438B1 (en) * 2008-06-30 2012-07-10 Videomining Corporation Method and system for measuring shopper response to products based on behavior and facial expression
JP5560858B2 (ja) 2010-04-02 2014-07-30 富士通株式会社 補正値算出装置、補正値算出方法および補正値算出プログラム
AU2011205223C1 (en) * 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US20130054377A1 (en) * 2011-08-30 2013-02-28 Nils Oliver Krahnstoever Person tracking and interactive advertising
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
JP5834941B2 (ja) 2012-01-19 2015-12-24 富士通株式会社 注目対象特定装置、注目対象特定方法、及びプログラム
JP6058982B2 (ja) * 2012-11-26 2017-01-11 株式会社日立システムズ 消費者ニーズ分析システム及び消費者ニーズ分析方法

Also Published As

Publication number Publication date
US20160188962A1 (en) 2016-06-30
US9842255B2 (en) 2017-12-12
JP2016122272A (ja) 2016-07-07

Similar Documents

Publication Publication Date Title
JP6447108B2 (ja) 利用可能性算出装置、利用可能性算出方法及び利用可能性算出プログラム
JP2023171650A (ja) プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法
US9913578B2 (en) Eye gaze detecting device and eye gaze detection method
US11948401B2 (en) AI-based physical function assessment system
US8724845B2 (en) Content determination program and content determination device
US10380603B2 (en) Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale
JP5527423B2 (ja) 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
US20200202561A1 (en) Method and apparatus with gaze estimation
JP4717934B2 (ja) 関係分析方法、関係分析プログラム、および、関係分析装置
US20150063640A1 (en) Image processing apparatus and image processing method
US10185870B2 (en) Identification system and identification method
EP2698685A2 (en) Using physical sensory input to determine human response to multimedia content displayed on a mobile device
Fan et al. Fall detection via human posture representation and support vector machine
EP2905680B1 (en) Information processing apparatus, information processing method, and program
CN110476141A (zh) 视线跟踪方法及用于执行该方法的用户终端
US20170105668A1 (en) Image analysis for data collected from a remote computing device
US20200350057A1 (en) Remote computing analysis for cognitive state data metrics
WO2021068781A1 (zh) 一种疲劳状态识别方法、装置和设备
US9241664B2 (en) Using physical sensory input to determine human response to multimedia content displayed on a mobile device
JP2015219892A (ja) 視線分析システムおよび視線分析装置
US11596764B2 (en) Electronic device and method for providing information for stress relief by same
US9361705B2 (en) Methods and systems for measuring group behavior
CN110476180A (zh) 用于提供基于文本阅读的奖励型广告服务的方法及用于实行该方法的用户终端
JP2012022538A (ja) 注目位置推定方法、画像表示方法、注目コンテンツ表示方法、注目位置推定装置および画像表示装置
Hynes et al. An evaluation of lower facial micro expressions as an implicit QoE metric for an augmented reality procedure assistance application

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181119

R150 Certificate of patent or registration of utility model

Ref document number: 6447108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150