JP6802549B1 - 情報処理方法、情報処理装置、及び制御プログラム - Google Patents

情報処理方法、情報処理装置、及び制御プログラム Download PDF

Info

Publication number
JP6802549B1
JP6802549B1 JP2020137602A JP2020137602A JP6802549B1 JP 6802549 B1 JP6802549 B1 JP 6802549B1 JP 2020137602 A JP2020137602 A JP 2020137602A JP 2020137602 A JP2020137602 A JP 2020137602A JP 6802549 B1 JP6802549 B1 JP 6802549B1
Authority
JP
Japan
Prior art keywords
information
sight
line
user
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020137602A
Other languages
English (en)
Other versions
JP2021082249A (ja
Inventor
寿和 大野
寿和 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Swallow Incubate Co Ltd
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Swallow Incubate Co Ltd
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Swallow Incubate Co Ltd, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2020137602A priority Critical patent/JP6802549B1/ja
Application granted granted Critical
Publication of JP6802549B1 publication Critical patent/JP6802549B1/ja
Publication of JP2021082249A publication Critical patent/JP2021082249A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】視線情報と人に関する情報とを対応付けた情報をより簡易な構成で精度良く生成する。【解決手段】一以上のユーザのそれぞれについて、各ユーザの目を含む画像データを取得し、画像データに含まれる各ユーザの目を示す情報に基づき各ユーザの視線を示す視線情報を検出し、画像データに含まれる各ユーザの目を示す情報に基づき各ユーザを個人認証し、個人認証された各ユーザを特定する個人情報を取得し、一以上のユーザの個人情報と一以上のユーザの視線情報とを対応付けた管理情報を生成し、管理情報を出力する。【選択図】図2

Description

本開示は、ユーザの個人情報とユーザの視線を示す情報とを対応付けた情報を生成する技術に関するものである。
視線検出技術は、人物の興味対象の推定、眠気等の人物の状態の推定、及び視線による機器への入力を行うユーザインターフェースといった種々の用途で用いられている。視線情報に基づき人物の状態及び行動を推定する際には、視線情報と人に関する情報とを対応付けた情報を用いることが有用である。このような例として、特許文献1には、店内の顧客の行動を推定する際に、店内の顧客の視線情報と、年代、性別等の顧客の属性情報及び顧客が購入した商品に関する情報(POS(PointOf Sales)情報)とを対応付けた情報を用いる技術が開示されている。
特開2017−102564号公報
しかしながら、特許文献1に開示の技術では、設備が大規模化し、視線情報と人に関する情報とを精度良く対応付けることが困難であるため、更なる改善が必要であった。
本開示は、このような課題を解決するためになされたものであり、視線情報と人に関する情報とを対応付けた情報をより簡易な構成で精度良く生成することを目的とする。
本開示の一態様は、情報処理装置における情報処理方法であって、一以上のユーザのそれぞれについて、各ユーザの目を含む画像データを取得し、前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザの視線を示す視線情報を検出し、前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザを個人認証し、前記個人認証された前記各ユーザを特定する個人情報を取得し、前記一以上のユーザの前記個人情報と前記一以上のユーザの前記視線情報とを対応付けた管理情報を生成し、前記管理情報を出力する。
本開示によれば、視線情報と人に関する情報とを対応付けた情報をより簡易な構成で精度良く生成することができる。
本開示の実施の形態1に係る画像処理システムの全体構成の一例を示す図である。 実施の形態1に係る画像処理システムの詳細な構成の一例を示すブロック図である。 目領域の一例を示す図である。 認証情報テーブルの一例を示す図である。 ユーザ情報テーブルの一例を示す図である。 実施の形態1に係る画像処理装置の動作の一例を示すフローチャートである。 管理情報テーブルの一例を示す図である。 管理情報テーブルの他の一例を示す図である。 実施の形態5に係る画像処理装置の動作の一例を示すフローチャートである。 実施の形態5に係る画像処理装置の動作の一例を示すフローチャートである。 仮管理情報テーブルの一例を示す図である。 実施の形態6に係る画像処理システムの詳細な構成の一例を示すブロック図である。
(本開示の基礎となる知見)
上述した特許文献1に開示の技術では、商品に対する顧客の注目度合いを示すヒートマップを生成するために、店内を複数のエリアに分割し、顧客の属性と顧客の動線(立ち寄ったエリア等)とを対応付けた情報と、各エリアに配置された商品と顧客の視線が向けられた位置とを対応付けた情報等が用いられる。顧客の属性と動線に関する情報の取得のためには、店舗の天井及び壁面に設置された無線センサーカメラが用いられる。顧客の視線を示す情報の取得のためには、商品の陳列棚に取り付けられた視線センサーが用いられる。
したがって、特許文献1に開示の技術では、顧客の視線情報と顧客の行動情報とを対応付けた情報を生成するためには、顧客の視線情報及び顧客の行動情報の取得に用いる設備が大規模になるという課題があった。また、特許文献1に開示の技術では、複数の設備で異なるタイミングで取得された情報を段階的に組み合わせて、視線情報と行動情報とを対応付けた情報を得ている。このため、情報を組み合わせる処理が複雑になり、結果として、視線情報と行動情報との時間的な対応関係の精度が低下しうるという問題があった。
そこで、本発明者は、このような課題に対して詳細な検討を行った結果、ユーザの目を含む画像を、視線情報の検出だけでなく、個人認証にも利用することによって、視線情報と人に関する情報とを対応付けた情報をより簡易な構成で精度よく生成できるとの知見を得て、下記に示す各態様を想到するに至った。
本開示の一態様に係る情報処理方法は、情報処理装置における情報処理方法であって、一以上のユーザのそれぞれについて、各ユーザの目を含む画像データを取得し、前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザの視線を示す視線情報を検出し、前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザを個人認証し、前記個人認証された前記各ユーザを特定する個人情報を取得し、前記一以上のユーザの前記個人情報と前記一以上のユーザの前記視線情報とを対応付けた管理情報を生成し、前記管理情報を出力する。
本構成では、一以上のユーザのそれぞれについて、各ユーザの目を含む画像データに含まれる各ユーザの目を示す情報に基づき、視線情報の検出及び個人認証が行われ、各ユーザの個人情報が取得される。そして、本構成では、このように取得された一以上のユーザの個人情報と一以上のユーザの視線情報とを対応付けた管理情報が生成され、出力される。
このため、本構成では、各ユーザの視線情報と個人情報とを対応付けた管理情報の生成に用いる画像データを、各ユーザの目を含む画像データのみに制限することができる。これにより、本構成は、各ユーザの視線情報と各ユーザの個人情報とを対応付けた情報をより簡易な構成で生成することができる。
また、本構成は、各ユーザの視線情報及び個人認証に用いる画像データが同一であるので、同一時点における各ユーザの目を示す情報に基づき、視線情報の検出及び個人認証を行うことができる。これにより、当該個人認証されたユーザについての時間的に差異のない視線情報及び個人情報を取得して、これらを対応付けた情報を生成することができる。したがって、本構成は、互いに異なる時点の各ユーザの目を示す情報に基づき、視線情報の検出及び個人認証を行う場合よりも精度良く、各ユーザの視線情報と個人情報とを対応付けた情報を生成することができる。
上記態様において、前記個人情報は、前記各ユーザの性質または特徴を示す一以上の属性を含み、前記管理情報の出力では、更に、前記管理情報に基づいて、前記視線情報が前記一以上の属性毎に分類された視線利用情報を生成し、前記視線利用情報を出力してもよい。
本構成によれば、更に、管理情報に基づいて視線情報が一以上の属性毎に分類された視線利用情報が生成され、出力される。このため、当該出力された視線利用情報の視認者は、同一の一以上の属性を有するユーザの視線の傾向を容易に把握することができる。
上記態様において、前記一以上の属性は、年齢、性別、勤務先及び職種のうちの一以上を含んでもよい。
本構成によれば、視線情報が、年齢、性別、勤務先及び職種のうちの一以上によって分類された視線利用情報が生成され、出力される。このため、当該出力された視線利用情報の視認者は、年齢、性別、勤務先及び職種のうちの一以上の属性が同じユーザの視線の傾向を容易に把握することができる。
上記態様において、前記視線情報は、前記各ユーザの視線が向けられた位置を示す視線位置情報を含み、前記視線利用情報は、前記視線位置情報が示す位置と、前記視線位置情報が示す位置にユーザの視線が向けられた頻度と、の関係を表すヒートマップであってもよい。
本構成によれば、視線利用情報として、視線位置情報が示す位置と、視線位置情報が示す位置にユーザの視線が向けられた頻度と、の関係を表すヒートマップが出力される。このため、当該出力されたヒートマップの視認者は、同一の属性を有するユーザの視線がどの位置に向けられている頻度が高いのかを容易に把握することができる。
上記態様において、前記視線情報は、前記各ユーザの視線が向けられた位置を示す視線位置情報を含み、前記視線利用情報は、前記視線位置情報が示す位置と、前記視線位置情報が示す位置にユーザの視線が向けられた回数と、前記視線位置情報が示す位置へのユーザの視線の移動経路と、の関係を表すゲイズプロットであってもよい。
本構成によれば、視線利用情報として、視線位置情報が示す位置と、視線位置情報が示す位置にユーザの視線が向けられた回数と、視線位置情報が示す位置へのユーザの視線の移動経路と、の関係を表すゲイズプロットが出力される。このため、当該出力されたゲイズプロットの視認者は、同一の属性を有するユーザの視線がどのような移動経路でどの位置に向けられている回数が多いのかを容易に把握することができる。
上記態様において、前記視線情報の検出では、前記画像データから前記各ユーザの目を示す情報及び前記各ユーザの顔の向きを示す情報を検出し、検出した前記各ユーザの目を示す情報及び前記各ユーザの顔の向きを示す情報に基づき前記視線情報を検出してもよい。
本構成によれば、各ユーザの目を含む画像データから、各ユーザの目を示す情報及び各ユーザの顔の向きを示す情報が検出され、当該検出された情報に基づき視線情報が検出される。これにより、本構成は、画像データから得られる目と顔の向きとを示す情報から、各ユーザの視線を精度良く検出することができる。
上記態様において、前記各ユーザの個人認証では、前記画像データから前記各ユーザの目の虹彩を示す虹彩情報を検出し、検出した前記虹彩情報に基づき前記各ユーザを個人認証してもよい。
本構成によれば、各ユーザの目を含む画像データから、各ユーザの目の虹彩を示す虹彩情報が検出され、当該検出された虹彩情報に基づき各ユーザが個人認証される。これにより、本構成は、各ユーザ特有の虹彩に基づき、各ユーザを精度良く個人認証することができる。
上記態様において、前記一以上のユーザは、展示会の参加者であり、前記一以上の属性は、前記参加者の勤務先を含み、前記視線情報は、前記各ユーザの視線が向けられた位置に存在する前記展示会の展示物を示す展示物情報を含み、前記視線利用情報は、前記展示物情報が示す前記展示会の展示物と、当該展示会の展示物にユーザの視線が向けられた頻度と、の関係を表すヒートマップであってもよい。
本構成では、一以上のユーザは、展示会の参加者であり、各ユーザの属性には、参加者の勤務先が含まれる。また、視線利用情報として、展示物情報が示す展示会の展示物と、当該展示会の展示物にユーザの視線が向けられた頻度と、の関係を表すヒートマップが出力される。このため、当該出力されたヒートマップの視認者は、例えば、展示会において、どの勤務先の参加者が、どの展示物に視線を向けている頻度が高いのかを容易に把握することができる。
上記態様において、前記一以上のユーザは、製造現場の作業員であり、前記一以上の属性は、前記作業員の作業の熟練度を含み、前記視線情報は、前記各ユーザの視線が向けられた位置に存在する作業対象物を示す作業対象物情報を含み、前記視線利用情報は、前記作業対象物情報が示す前記作業対象物と、当該作業対象物にユーザの視線が向けられた頻度と、の関係を表すヒートマップであってもよい。
本構成では、一以上のユーザは、製造現場の作業員であり、各ユーザの属性には、作業員の作業の熟練度が含まれる。また、視線利用情報として、作業対象物情報が示す作業対象物と、当該作業対象物にユーザの視線が向けられた頻度と、の関係を表すヒートマップが出力される。このため、当該出力されたヒートマップの視認者は、例えば、製造現場において、熟練度の高い作業者が、どの作業対象物に視線を向けている頻度が高いのかを容易に把握することができる。
上記態様において、前記画像データは、赤外光カメラによって撮影されたものであってもよい。
赤外光カメラで撮影された画像データにおいては、瞳孔及び虹彩のそれぞれの外縁の輝度変化が明確に表れる傾向がある。また、本構成では、赤外光カメラによって撮影された画像データに含まれる各ユーザの目を示す情報に基づき、各ユーザが個人認証される。したがって、本構成によれば、画像データから、個人認証に用いる各ユーザの目を示す情報として、各ユーザの目の虹彩を示す虹彩情報を正確に検出することができる。その結果、本構成では、各ユーザの個人認証を正確に行うことができる。
本開示は、このような情報処理方法に含まれる特徴的な各構成をコンピュータに実行させる制御プログラム、或いはこの制御プログラムによって動作する情報処理装置として実現することもできる。また、このような制御プログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。
尚、以下で説明する実施の形態は、何れも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、全ての実施の形態において、各々の内容を組み合わせることもできる。
(実施の形態1)
図1は、本開示の実施の形態1に係る画像処理システム1の全体構成の一例を示す図である。画像処理システム1は、人物400を撮影し、得られた人物400の画像データから人物400の視線を示す視線情報を検出するシステムである。図1の例では、画像処理システム1は、表示装置300に表示された複数のオブジェクト301のうち、どのオブジェクト301を人物400が注視しているかを特定している。但し、これは一例であり、画像処理システム1は、表示装置300の表示画面上に表示されたオブジェクト301のみならず、実空間内において人物400が注視するオブジェクト301を特定してもよい。
図1の例では、画像処理システム1はデジタルサイネージシステムに適用されている。したがって、表示装置300に表示されるオブジェクト301は、広告等のサイネージの画像となる。また、画像処理システム1は、人物400の画像データに基づき得られた、当該人物400の視線を示す情報と当該人物400の個人情報とを対応付けた情報を生成して出力する。
画像処理システム1は、画像処理装置100(情報処理装置の一例)、カメラ200、及び表示装置300を含む。画像処理装置100は、カメラ200及び表示装置300と所定の通信路を介して接続されている。所定の通信路は、例えば、有線LAN等の有線の通信路、又は無線LAN及びブルートゥース(登録商標)等の無線の通信路である。画像処理装置100は、例えば表示装置300の周囲に設置されたコンピュータで構成されている。但し、これは一例であり、画像処理装置100は、クラウドサーバで構成されてもよい。この場合、画像処理装置100は、カメラ200及び表示装置300とインターネットを介して接続される。画像処理装置100は、カメラ200で撮像された人物400の画像データから、人物400の視線情報を検出し、表示装置300に出力する。また、画像処理装置100は、カメラ200又は表示装置300にハードウェアとして組み込まれてもよい。また、カメラ200又は表示装置300がプロセッサを備え、画像処理装置100がソフトウェアとして組み込まれていてもよい。
カメラ200は、例えば所定のフレームレートで表示装置300の周囲の環境を撮影することにより、表示装置300の周囲に位置する人物400の画像データを取得する。カメラ200は、取得した画像データを所定のフレームレートで順次に画像処理装置100に出力する。カメラ200は、可視光カメラであってもよいし、赤外光カメラであってもよい。
表示装置300は、例えば液晶パネル又は有機ELパネル等の表示装置で構成されている。図1の例では、表示装置300は、サイネージディスプレイである。尚、図1の例では、画像処理システム1は、表示装置300を含むとして説明したが、これは一例であり、表示装置300に代えて、別の機器が採用されてもよい。例えば、画像処理システム1が視線により機器への入力を受け付けるユーザインターフェースとして利用されるのであれば、画像処理システム1は例えば表示装置300に代えて、冷蔵庫、テレビ、及び洗濯機等の家電機器が採用されてもよい。例えば、画像処理システム1が車両に搭載されるのであれば、表示装置300に代えて、自動車等の車両が採用されてもよい。更に、表示装置300に代えてハードディスクドライブ、ソリッドステートドライブ等の記憶装置が採用されてもよい。
図2は、実施の形態1に係る画像処理システム1の詳細な構成の一例を示すブロック図である。画像処理装置100は、プロセッサ120、及びメモリ140を含む。
プロセッサ120は、CPU、FPGA等の電気回路である。プロセッサ120は、画像取得部121、目検出部122、虹彩認証部123(認証部の一例)、顔特徴検出部124、視線検出部125、管理情報生成部126(個人情報取得部の一部)、及び出力部127を含む。尚、プロセッサ120が備える各ブロックは、プロセッサ120がコンピュータを画像処理装置として機能させる制御プログラムを実行することで実現されてもよいし、専用の電気回路で構成されてもよい。
画像取得部121は、カメラ200が撮像した画像データを取得する。ここで、取得される画像データには、表示装置300の周囲の人物400(ユーザの一例)の顔が含まれる。尚、画像取得部121が取得する画像データは、例えばウェブサイトに掲載された画像データであってもよいし、外部の記憶装置が記憶する画像データであってもよい。
目検出部122は、画像取得部121が取得した画像データから人物400の目を含む目領域を検出する。詳細には、目検出部122は、目領域を検出するために予め作成された分類器を用いて目領域を検出すればよい。ここで用いられる分類器は、例えばオープンソースによる画像処理ライブラリにおいて目領域を検出するために予め作成されたハール(Haar)状のカスケード分類器である。
目領域は、目の大きさに所定のマージンを加えた程度のサイズを持つ矩形状の領域である。但し、これは一例であり、目領域の形状は矩形以外の、例えば、3角形、5角形、6角形、又は8角形等であってもよい。また、目領域の境界を目に対してどの位置に設定するのかは分類器の性能に依存する。
図3は、目領域50の一例を示す図である。図3に示すように、本実施の形態において、目とは、上瞼の境界53と下瞼の境界54とによって取り囲まれる、白目と、黒目等の有色の部分とを含む領域を指す。瞳とは、図3に示すように、瞳孔55と、瞳孔55を取り囲むドーナツ状の虹彩56とを含む有色の部分を指す。本実施の形態では、説明の便宜上、右目とは人物400を正面から見て右側にある目のことを指し、左目とは人物400を正面から見て左側にある目のことを指す。図3は、目検出部122が、右目を含む目領域50と左目を含む目領域50とを検出した例を示している。但し、これは一例であり、人物400から見て右側にある目を右目、人物400から見て左側にある目を左目としてもよい。また、本実施の形態では、紙面の右側の方向を右方、紙面の左側の方向を左方とする。
虹彩認証部123は、目検出部122により検出された目領域50において、人物400の目の虹彩56を示す虹彩情報を検出し、検出した虹彩情報及び認証情報記憶部141を用いて人物400の個人認証を行う。
虹彩情報には、例えば、虹彩56の外縁を示す座標データ又は虹彩56の外縁の半径若しくは直径等の長さ(例えばピクセル)を示す情報と、虹彩56の中心の座標データとが含まれる。ここで、座標データとは、画像取得部121が取得した画像データにおける2次元の座標データを指す。虹彩情報には、例えばドーグマンアルゴリズム等の所定のアルゴリズムで虹彩56の画像をコード化して得られた虹彩データが含まれる。ドーグマンアルゴリズムは、「High Confidence Visual Recognition of Persons by a Test of Statistical Independence: John G. Daugman(1993)」の文献にて開示されている。尚、虹彩データは、これに限らず、虹彩56の画像を所定のファイル形式(例えばPNG)で表した画像データ(バイナリデータ)であってもよい。
カメラ200として赤外光カメラが採用された場合、瞳孔55と虹彩56との輝度変化が明確に表れる。このため、虹彩認証部123は、カメラ200として赤外光カメラが採用された場合、更に、例えば瞳孔55の外縁を示す座標データ又は瞳孔55の外縁の半径若しくは直径等の長さ(例えば、ピクセル)示す情報と、瞳孔55の中心の座標データと、を虹彩情報として検出してもよい。一方、カメラ200として可視光カメラが採用された場合、瞳孔55と虹彩56との輝度変化が明確に表れない場合もあるため、瞳孔55と虹彩56とを区別することが困難となる。したがって、カメラ200として可視光カメラが採用された場合、虹彩認証部123は、上述した瞳孔55に関する座標データ及び情報を検出しなくてもよい。虹彩情報及び認証情報記憶部141を用いた人物400の個人認証の詳細については後述する。
顔特徴検出部124は、画像取得部121が取得した画像データから人物400の顔の特徴点を検出する。顔の特徴点とは、例えば目尻、目頭、顔の輪郭、鼻筋、口角、及び眉毛等の顔を構成する複数の部品のそれぞれにおいて、特徴的な位置にある1又は複数の点である。
具体的には、顔特徴検出部124は、まず、画像取得部121が取得した画像データから人物400の顔を示す顔領域を検出する。例えば、顔特徴検出部124は、顔領域を検出するために予め作成された分類器を用いて顔領域を検出すればよい。ここで用いられる分類器は、例えばオープンソースによる画像処理ライブラリにおいて顔領域を検出するために予め作成されたハール(Haar)状のカスケード分類器である。顔領域は、例えば顔の全体を含む程度のサイズを持つ矩形状の領域である。但し、これは一例であり、顔領域の形状は矩形以外の例えば、3角形、5角形、6角形、又は8角形等であってもよい。尚、顔特徴検出部124は、パターンマッチングにより顔領域を検出してもよい。
次に、顔特徴検出部124は、検出した顔領域から顔の特徴点を検出する。特徴点はランドマークとも呼ばれる。顔特徴検出部124は、例えば機械学習のフレームワークのモデルファイルを利用したランドマーク検出処理を実行することで顔の特徴点を検出すればよい。
視線検出部125は、顔特徴検出部124が検出した顔の特徴点と、目検出部122により検出された目領域50に含まれる人物400の目を示す情報と、に基づき、人物400の視線を示す情報(以降、視線情報)を検出する。
具体的には、視線検出部125は、公知の顔向き検出処理を行うことで、顔特徴検出部124が検出した顔の特徴点の配置パターンから人物400の顔の向きを示す顔向き情報を検出する。顔向き情報には、例えば、カメラ200の光軸に対する顔の正面方向を示す角度等が含まれる。
次に、視線検出部125は、3次元眼球モデルにより視線を検出する公知の視線検出処理を行うことで、上述の検出した顔向き情報と、目検出部122により検出された目領域50に含まれる人物400の目を示す情報と、に基づき、視線情報を検出する。目を示す情報には、例えば、瞳、目頭、目尻及び目の重心の位置が含まれる。また、目を示す情報には、例えば、虹彩認証部123によって目領域50から検出された虹彩情報等が含まれる。視線情報には、当該視線情報の検出に用いた画像データの撮影日時と、所定の対象面(例えば表示装置300)における注視点の座標データが含まれる。注視点は、人物400の視線が向けられた位置であり、例えば対象面と視線を示すベクトルとが交差する位置である。尚、視線情報には、注視点の座標データに代えて、又は、注視点の座標データに加えて、人物400の視線の方向を示すベクトルが含まれてもよい。当該ベクトルは、例えば、カメラ200の光軸方向等の基準方向に対する水平成分の角度と、当該基準方向に対する垂直方向の角度と、によって表せばよい。
管理情報生成部126は、カメラ200によって画像処理システム1のユーザが撮影され、虹彩認証部123によって当該ユーザが個人認証される度に、当該個人認証されたユーザを特定する個人情報を、ユーザ情報記憶部142から取得する。また、視線検出部125によって当該個人認証されたユーザを撮影した画像データから視線情報が検出されると、管理情報生成部126は、当該検出された視線情報と、当該取得した個人情報と、を対応付けた情報(以降、視線管理情報)を生成する。ユーザ情報記憶部142を用いた個人情報の取得及び視線管理情報の生成の詳細については、後述する。
出力部127は、視線検出部125によって検出された視線情報を表示装置300に出力する。出力部127は、表示装置300で表示されているオブジェクト301の情報を取得し、取得した情報と注視点の座標データとから人物400が注視するオブジェクト301(以降、注視オブジェクト)を特定し、特定結果を表示装置300に出力してもよい。
また、出力部127は、管理情報生成部126によって生成された、一以上のユーザについての視線管理情報を、プロセッサ120が備えるメモリ(図略)又は画像処理装置100が備えるハードディスクドライブ、ソリッドステートドライブ等の記憶装置(図略)に記憶する(出力するの一例)。尚、出力部127は、管理情報生成部126によって生成された、一以上のユーザについての視線管理情報を、表示装置300に出力してもよい。
メモリ140は、ハードディスクドライブ、ソリッドステートドライブ等の記憶装置である。メモリ140は、認証情報記憶部141、及びユーザ情報記憶部142を含む。
認証情報記憶部141は、認証情報テーブルを予め記憶している。認証情報テーブルは、虹彩認証部123が画像処理システム1のユーザの個人認証に用いる認証情報を記憶するテーブルである。
図4は、認証情報テーブルT1の一例を示す図である。具体的には、図4に示すように、認証情報テーブルT1が記憶する認証情報には、「ユーザID」、「虹彩ID」、「虹彩データ」、「瞳孔径サイズ」及び「虹彩径サイズ」が含まれる。「ユーザID」は、画像処理システム1のユーザに対して一意的に割り付けられた識別子である。「虹彩ID」は、「虹彩データ」に対して一意的に割り付けられた識別子である。「虹彩データ」は、例えばドーグマンアルゴリズム等の所定のアルゴリズムで、画像処理システム1のユーザの虹彩56の画像をコード化して得られるデータである。
「瞳孔径サイズ」は、画像処理システム1のユーザの瞳孔55の外縁の直径である。「虹彩径サイズ」は、画像処理システム1のユーザの虹彩56の外縁の直径である。尚、認証情報テーブルT1は、少なくとも「ユーザID」、「虹彩ID」及び「虹彩データ」を記憶する構成であればよく、「瞳孔径サイズ」及び「虹彩径サイズ」のうちの一以上を記憶しない構成であってもよい。
ユーザ情報記憶部142は、ユーザ情報テーブルを予め記憶している。ユーザ情報テーブルは、画像処理システム1のユーザの個人情報を記憶するテーブルである。
図5は、ユーザ情報テーブルT2の一例を示す図である。具体的には、図5に示すように、ユーザ情報テーブルT2が記憶する個人情報には、「ユーザID」、「プライバシー情報」、「属性情報」が含まれる。「ユーザID」は、画像処理システム1のユーザに対して一意的に割り付けられた識別子である。「プライバシー情報」は、画像処理システム1のユーザを一意に識別しうるプライバシーに関わる情報である。図5の例では、「プライバシー情報」には、「氏名」、「住所」、「電話番号」、「メールアドレス」が含まれる。「氏名」、「住所」、「電話番号」、「メールアドレス」は、それぞれ、画像処理システム1のユーザの氏名、住所、電話番号、メールアドレスである。「属性情報」は、画像処理システム1のユーザの性質または特徴を示す一以上の属性を示す情報である。図5の例では、「属性情報」には、「年齢」、「性別」、「勤務先」、「職種」等が含まれる。「年齢」、「性別」、「勤務先」、「職種」は、それぞれ、画像処理システム1のユーザの年齢、性別、勤務先、職種である。尚、「属性情報」は、これに限らず、「年齢」、「性別」、「勤務先」、「職種」のうちの一以上が含まれていればよい。
カメラ200は、図1で説明したため、ここでは説明を省略する。
表示装置300は、出力部127から出力された視線情報を示すマーカーを表示する。表示装置300は、出力部127から出力された人物400が注視するオブジェクト301を示すマーカーを表示してもよい。例えば、表示装置300に対して、視線情報として注視点の座標データが出力されたとする。この場合、表示装置300は、座標データに対応する位置に、視線位置を示すマーカーを表示中の画像に重畳して表示させるといった処理を行う。例えば、表示装置300に対して、注視オブジェクトの特定結果が出力されたとする。この場合、表示装置300は、注視オブジェクトを示すマーカーを表示中の画面に重畳して表示させるといった処理を行ってもよい。また、表示装置300は、出力部127から出力された一以上のユーザについての視線管理情報を表示してもよい。
尚、画像処理システム1が、表示装置300に代えて家電機器で構成される場合、家電機器は視線情報から人物400の入力を受け付ける。また、画像処理システム1が、表示装置300に代えて記憶装置で構成される場合、記憶装置は、視線情報を記憶する。この場合、記憶装置は視線情報にタイムスタンプを対応付けて記憶してもよい。
次に、画像処理装置100の動作について説明する。図6は、実施の形態1に係る画像処理装置100の動作の一例を示すフローチャートである。図6に示す画像処理装置100の動作は、定期的(例えば、1秒毎)に開始される。画像処理装置100の動作が開始され、画像取得部121によって、カメラ200から人物400の顔の画像データが取得されると(ステップS1)、目検出部122は、目領域50を検出するための分類器にステップS1で取得した画像データを入力することにより、当該画像データから目領域50を検出する(ステップS2)。
次に、虹彩認証部123は、ステップS2で検出された目領域50において、人物400の目の虹彩56を示す虹彩情報を検出し、検出した虹彩情報及び認証情報記憶部141を用いて人物400の個人認証を行う(ステップS3)。
具体的には、虹彩認証部123は、ステップS3において、認証情報記憶部141が記憶する認証情報テーブルT1(図4)を1レコードずつ参照する。次に、虹彩認証部123は、検出された虹彩情報に含まれる瞳孔55の外縁の直径の長さと、検出された虹彩情報に含まれる虹彩56の外縁の直径の長さと、の比率(以降、第一比率)を算出する。また、虹彩認証部123は、参照したレコードに含まれる「瞳孔径サイズ」と参照したレコードに含まれる「虹彩径サイズ」との比率(以降、第二比率)を算出する。
そして、虹彩認証部123は、第一比率と第二比率との差異が所定の第一閾値以下であるか否かを判定する。虹彩認証部123は、第一比率と第二比率との差異が第一閾値以下であると判定した場合、検出された虹彩情報に含まれる虹彩データと、参照したレコードの「虹彩データ」と、の類似度が所定の第二閾値以上であるか否かを判定する。虹彩認証部123は、前記類似度が第二閾値以上であると判定した場合、人物400が、当該参照したレコードに含まれる「ユーザID」によって識別される、画像処理システム1のユーザであると個人認証する。そして、虹彩認証部123は、当該参照したレコードの「ユーザID」を、当該個人認証したユーザのユーザIDとして出力する。
次に、管理情報生成部126は、ステップS3で個人認証された人物400の個人情報を取得する(ステップS4)。具体的には、ステップS4では、管理情報生成部126は、ユーザ情報記憶部142が予め記憶しているユーザ情報テーブルT2(図5)において、ステップS3で虹彩認証部123が出力した、個人認証されたユーザのユーザIDと一致する「ユーザID」を含むレコードを、当該人物400の個人情報として取得する。図5の例では、個人認証された人物400のユーザIDが「U001」の場合、管理情報生成部126は、当該ユーザIDと一致するユーザID「U001」を含み、「氏名」が「a山b太」である「プライバシー情報」と、「年齢」が「45」である「属性情報」と、を含む一行目のレコードを、当該人物400の個人情報として取得する。
次に、顔特徴検出部124は、ステップS1で画像取得部121が取得した画像データから人物400の顔の特徴点を検出する(ステップS5)。次に、視線検出部125は、ステップS5で検出された顔の特徴点と、ステップS2で検出された目領域50に含まれる人物400の目を示す情報と、に基づき、視線情報を検出する(ステップS6)。
具体的には、ステップS6では、視線検出部125は、ステップS5において顔特徴検出部124が公知の顔向き検出処理を行うことで検出した顔の特徴点の配置パターンから人物400の顔の向きを示す顔向き情報を検出する。次に、視線検出部125は、3次元眼球モデルにより視線を検出する公知の視線検出処理を行うことで、検出した顔向き情報と、ステップS2で検出された目領域50に含まれる人物400の目を示す情報と、に基づき、視線情報を検出する。本実施の形態では、ステップS6で検出される視線情報には、表示装置300における注視点の位置を示す座標データと、表示装置300において当該注視点の位置に表示されているオブジェクト301を識別する情報と、が含まれているものとする。
次に、管理情報生成部126は、ステップS6で検出された視線情報と、ステップS5で取得した個人情報と、を対応付けた視線管理情報を生成する(ステップS7)。出力部127は、ステップS7で生成された視線管理情報を管理情報テーブル(管理情報の一例)に記憶する(ステップS8)。管理情報テーブルは、管理情報生成部126によって生成した一以上の人物400についての視線管理情報を記憶するテーブルである。管理情報テーブルは、プロセッサ120が備えるメモリ(図略)又は画像処理装置100が備えるハードディスクドライブ、ソリッドステートドライブ等の記憶装置(図略)に記憶される。
図7は、管理情報テーブルT3の一例を示す図である。例えば、ステップS7では、図7に示すように、管理情報生成部126は、ステップS6で検出された視線情報に含まれる「画像撮影日時」、「視線位置X座標」、「視線位置Y座標」、「被注視体ID」と、ステップS5で取得した個人情報に含まれる「ユーザID」、「年齢」、「性別」、「勤務先」、「職種」と、を対応付けた視線管理情報を生成する。出力部127は、管理情報生成部126によって生成された視線管理情報を管理情報テーブルT3に記憶する。
「画像撮影日時」は、視線情報の検出に用いられた画像データの取得日時、つまり、ステップS1で画像データが取得された日時である。「視線位置X座標」は、表示装置300における注視点の位置を示す座標データの水平方向成分であり、「視線位置Y座標」は、当該注視点の位置を示す座標データの垂直方向成分である。「被注視体ID」は、表示装置300において注視点の位置に表示されているオブジェクト301を識別する情報である。「年齢」、「性別」、「勤務先」、「職種」は、ユーザ情報テーブルT2(図5)において属性情報として予め記憶されていた情報である。このように、本具体例では、個人情報に含まれる「プライバシー情報」を視線情報と対応付けずに、個人情報に含まれる「属性情報」と視線情報とを対応付けた視線管理情報が生成される。これにより、プライバシーが保護された内容の視線管理情報を生成することができる。
図7の例では、ステップS1において、日時が「2019/5/17 13:33:13」のときに「ユーザID」が「U001」であるユーザの顔の画像データが取得され、当該画像データから検出された「視線位置X座標」が「1080」である視線情報と、「ユーザID」が「U001」である個人情報と、を対応付けた視線管理情報が生成され、管理情報テーブルT3に記憶されている。このようにして、図7の例では、管理情報テーブルT3に、同一の人物400を含む、のべ11人の人物400についての視線管理情報が記憶されている。
尚、ステップS7で生成される視線管理情報は上記に限らない。図8は、管理情報テーブルT3の他の一例を示す図である。例えば、図8に示すように、管理情報生成部126は、ステップS6で検出された視線情報に含まれる「画像撮影日時」、「視線位置X座標」、「視線位置Y座標」、「被注視体ID」と、ステップS5で取得した個人情報から「プライバシー情報」(図5)及び「属性情報」(図5)を除いた情報(「ユーザID」)と、を対応付けた視線管理情報を生成してもよい。又は、ステップS4を省略し、ステップS7では、ステップS3で個人認証されたユーザの「ユーザID」を個人情報として、ステップS6で検出された視線情報と対応付けてもよい。
このように、視線情報に対応付ける個人情報から「プライバシー情報」(図5)及び「属性情報」(図5)を除くことで、視線管理情報の生成に要する時間をより短縮してもよい。また、当該視線管理情報の生成後、任意のタイミングで、当該視線管理情報に含まれる「ユーザID」を用いてステップS4を行うようにしてもよい。そして、当該ステップS4で取得された個人情報を、当該ステップS4で用いた「ユーザID」を含む視線管理情報に追加するようにしてもよい。このようにして、認証されたユーザの個人情報の詳細を事後的に視線管理情報として追加するようにしてもよい。
また、管理情報生成部126は、上述のように、人物400の視線の方向を示すベクトルを示す情報が視線情報に含まれている場合には、当該ベクトルを示す情報と個人情報とを対応付けた視線管理情報を生成してもよい。また、管理情報生成部126は、生成した視線管理情報に、当該視線管理情報を一意に特定するための識別子を含めるようにしてもよい。
以上説明したように、本実施の形態によれば、一以上の画像処理システム1のユーザのそれぞれについて、各ユーザの目を含む画像データに含まれる各ユーザの目を示す情報に基づき、視線情報の検出及び個人認証が行われ、各ユーザの個人情報が取得される。そして、本実施の形態では、このように取得された個人情報と視線情報とを対応付けた視線管理情報が生成される。このようにして、一以上のユーザについての視線管理情報が生成された結果が、管理情報テーブルT3に記憶される。
このため、本実施の形態では、各ユーザの視線情報と個人情報とを対応付けた視線管理情報の生成に用いる画像データを、各ユーザの目を含む画像データのみに制限することができる。これにより、本実施の形態では、各ユーザの視線情報と各ユーザの個人情報とを対応付けた情報をより簡易な構成で生成することができる。
また、本実施の形態では、各ユーザの視線情報及び個人情報の取得に用いる画像データが同一であるので、同一時点における各ユーザの目を示す情報に基づき、視線情報の検出及び個人認証を行うことができる。これにより、本構成は、当該個人認証されたユーザについての時間的に差異のない視線情報及び個人情報を取得して、これらを対応付けた視線管理情報を生成することができる。したがって、本構成は、互いに異なる時点における各ユーザの目を示す情報に基づき、視線情報の検出及び個人認証を行う場合よりも精度良く、各ユーザの視線情報と個人情報とを対応付けた情報を生成することができる。
(実施の形態2)
実施の形態2では、出力部127が、更に、管理情報生成部126によって生成された、一以上のユーザについての視線管理情報に基づいて、視線情報が一以上の属性毎に分類された視線利用情報を生成し、視線利用情報を出力する。
例えば、図7に示すように、管理情報テーブルT3に、ユーザIDが「U001」、「U002」、「U003」のユーザについての11個の視線管理情報が記憶されているものとする。この場合、出力部127は、例えば、当該11個の視線管理情報を「性別」によって分類し、「性別」が「男」である、「ユーザID」が「U001」及び「U003」の6個の視線管理情報を視線利用情報として生成する。そして、出力部127は、「性別」が「男」であることを示す情報とともに、当該6個の視線管理情報を視線利用情報として表示装置300に出力する。
これと同様にして、出力部127は、「性別」が「女」である、「ユーザID」が「U002」の5個の視線管理情報を視線利用情報として生成し、「性別」が「女」であることを示す情報とともに、当該5個の視線管理情報を視線利用情報として表示する。この場合、出力部127が、「性別」が「女」であることを示す情報を、「性別」が「男」であることを示す情報とは異なる色で表示する等して、表示対象の視線利用情報に対応する属性に応じて、視線利用情報の表示態様を異ならせてもよい。本実施の形態によれば、視線利用情報の視認者は、同一の一以上の属性を有するユーザの視線の傾向を容易に把握することができる。
(実施の形態3)
実施の形態3では、実施の形態2において、例えば図7に示すように、視線管理情報に含まれる視線情報に注視点の座標データが含まれている場合、出力部127が、視線情報に含まれている座標データが示す注視点と、当該注視点にユーザの視線が向けられた頻度と、の関係を表すヒートマップを、視線利用情報として、表示装置300に出力する。
以下、出力部127が上述のヒートマップを、視線利用情報として、表示装置300に出力する方法について、図7を用いて説明する。まず、出力部127は、図7に示す11個の視線管理情報を「性別」によって分類し、「性別」が「男」である「ユーザID」が「U001」及び「U003」の6個の視線管理情報を第一の視線利用情報として生成し、「性別」が「女」である「ユーザID」が「U002」の5個の視線管理情報を第二の視線利用情報として生成する。
次に、出力部127は、第一の視線利用情報と第二の視線利用情報のそれぞれについて、各視線利用情報に含まれる各視線管理情報内の視線情報を参照し、当該参照した視線情報に含まれている座標データが示す注視点(以降、対象注視点)に、ユーザの視線が向けられた頻度を算出する。
具体的には、出力部127は、対象注視点を含むオブジェクト301(以降、対象オブジェクト)にユーザの視線が向けられた頻度を、当該対象注視点にユーザの視線が向けられた頻度として算出する。
例えば、第一の視線利用情報には、6個の視線管理情報が含まれ、「被注視体ID」が「C001」の視線管理情報が4個あり、「被注視体ID」が「C002」の視線管理情報が1個あり、「被注視体ID」が「C003」の視線管理情報が1個存在する。この場合、出力部127は、「被注視体ID」が「C001」の対象オブジェクトにユーザの視線が向けられた頻度を「4/6」と算出する。そして、出力部127は、当該算出した頻度「4/6」を、「被注視体ID」が「C001」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:13」〜「2019/5/17 13:33:16」の4個の各対象注視点にユーザの視線が向けられた頻度とする。
同様にして、出力部127は、「被注視体ID」が「C002」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:20」の1個の対象注視点にユーザの視線が向けられた頻度を「1/6」と算出する。また、出力部127は、「被注視体ID」が「C003」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:22」の1個の対象注視点にユーザの視線が向けられた頻度を「1/6」と算出する。
同様にして、出力部127は、第二の視線利用情報について、「被注視体ID」が「C004」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:17」〜「2019/5/17 13:33:19」の3個の対象注視点に、ユーザの視線が向けられた頻度を「3/5」と算出する。また、出力部127は、「被注視体ID」が「C002」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:21」の1個の対象注視点にユーザの視線が向けられた頻度を「1/5」と算出する。また、出力部127は、「被注視体ID」が「C003」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:23」の1個の対象注視点にユーザの視線が向けられた頻度を「1/5」と算出する。
次に、出力部127は、第一の視線利用情報に含まれる各対象注視点を、当該各対象注視点にユーザの視線が向けられた頻度が高いほど強調して表示装置300に表示する。
例えば、出力部127は、前記頻度が「4/6」である、「画像撮影日時」が「2019/5/17 13:33:13」〜「2019/5/17 13:33:16」の4個の対象注視点を、前記頻度が「1/6」である、「画像撮影日時」が「2019/5/17 13:33:20」の1個の対象注視点及び「画像撮影日時」が「2019/5/17 13:33:22」の1個の対象注視点よりも強調して表示する。
これと同様にして、出力部127は、第二の視線利用情報に含まれる各対象注視点を、当該各対象注視点にユーザの視線が向けられた頻度が高いほど強調して表示装置300に表示する。例えば、出力部127は、前記頻度が「3/5」である、「画像撮影日時」が「2019/5/17 13:33:17」〜「2019/5/17 13:33:19」の3個の対象注視点を、前記頻度が「1/5」である、「画像撮影日時」が「2019/5/17 13:33:21」の1個の対象注視点及び「画像撮影日時」が「2019/5/17 13:33:23」の1個の対象注視点よりも強調して表示する。
本構成によれば、当該表示装置300の視認者は、同一の属性を有するユーザの視線がどの位置に向けられている頻度が高いのかを容易に把握することができる。
(実施の形態4)
実施の形態4では、実施の形態2において、例えば図7に示すように、視線管理情報に含まれる視線情報に注視点の座標データが含まれている場合、出力部127が、視線情報に含まれている座標データが示す注視点と、当該注視点にユーザの視線が向けられた回数と、当該注視点へのユーザの視線の移動経路と、の関係を表すゲイズプロットを、視線利用情報として、表示装置300に出力する。
以下、出力部127が上述のゲイズプロットを、視線利用情報として、表示装置300に出力する方法について、図7を用いて説明する。まず、出力部127は、実施の形態3と同様に、図7に示す11個の視線管理情報を「性別」によって分類し、「性別」が「男」である6個の視線管理情報を第一の視線利用情報として生成し、「性別」が「女」である5個の視線管理情報を第二の視線利用情報として生成する。
次に、出力部127は、第一の視線利用情報と第二の視線利用情報のそれぞれについて、各視線利用情報に含まれる各視線管理情報内の視線情報を参照し、当該参照した視線情報に含まれている座標データが示す対象注視点にユーザの視線が向けられた回数を算出する。
具体的には、出力部127は、対象注視点を含む対象オブジェクトにユーザの視線が向けられた回数を、当該対象注視点にユーザの視線が向けられた回数として算出する。
例えば、第一の視線利用情報には、6個の視線管理情報が含まれ、「被注視体ID」が「C001」の視線管理情報が4個あり、「被注視体ID」が「C002」の視線管理情報が1個あり、「被注視体ID」が「C003」の視線管理情報が1個存在する。この場合、出力部127は、「被注視体ID」が「C001」の対象オブジェクトにユーザの視線が向けられた回数を「4」と算出する。そして、出力部127は、当該算出した回数「4」を、「被注視体ID」が「C001」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:13」〜「2019/5/17 13:33:16」の4個の各対象注視点にユーザの視線が向けられた回数とする。
同様にして、出力部127は、「被注視体ID」が「C002」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:20」の1個の対象注視点にユーザの視線が向けられた回数を「1」と算出する。また、出力部127は、「被注視体ID」が「C003」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:22」の1個の対象注視点にユーザの視線が向けられた回数を「1」と算出する。
同様にして、出力部127は、第二の視線利用情報について、「被注視体ID」が「C004」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:17」〜「2019/5/17 13:33:19」の3個の対象注視点に、ユーザの視線が向けられた回数を「3」と算出する。また、出力部127は、「被注視体ID」が「C002」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:21」の1個の対象注視点にユーザの視線が向けられた回数を「1」と算出する。また、出力部127は、「被注視体ID」が「C003」の対象オブジェクトに含まれる、「画像撮影日時」が「2019/5/17 13:33:23」の1個の対象注視点にユーザの視線が向けられた回数を「1」と算出する。
次に、出力部127は、第一の視線利用情報と第二の視線利用情報のそれぞれについて、表示装置300において、各視線利用情報に含まれる各対象注視点を含む対象オブジェクトが表示されている領域に、当該各対象注視点にユーザの視線が向けられた回数を表示する。
例えば、出力部127は、表示装置300において、第一の視線利用情報に含まれる、「画像撮影日時」が「2019/5/17 13:33:13」〜「2019/5/17 13:33:16」の4個の対象注視点を含む、「被注視体ID」が「C001」の対象オブジェクトが表示されている領域に、当該4個の各対象注視点にユーザの視線が向けられた回数である「4」を表示する。
同様にして、出力部127は、表示装置300において、第一の視線利用情報に含まれる、「画像撮影日時」が「2019/5/17 13:33:20」の1個の対象注視点を含む、「被注視体ID」が「C002」の対象オブジェクトが表示されている領域に、当該1個の対象注視点にユーザの視線が向けられた回数である「1」を表示する。また、出力部127は、表示装置300において、第一の視線利用情報に含まれる、「画像撮影日時」が「2019/5/17 13:33:22」の1個の対象注視点を含む、「被注視体ID」が「C003」の対象オブジェクトが表示されている領域に、当該1個の対象注視点にユーザの視線が向けられた回数である「1」を表示する。
同様にして、出力部127は、表示装置300において、第二の視線利用情報に含まれる、「画像撮影日時」が「2019/5/17 13:33:17」〜「2019/5/17 13:33:19」の3個の対象注視点を含む、「被注視体ID」が「C004」の対象オブジェクトが表示されている領域に、当該3個の対象注視点にユーザの視線が向けられた回数である「3」を表示する。また、出力部127は、表示装置300において、第二の視線利用情報に含まれる、「画像撮影日時」が「2019/5/17 13:33:21」の1個の対象注視点を含む、「被注視体ID」が「C002」の対象オブジェクトが表示されている領域に、当該1個の対象注視点にユーザの視線が向けられた回数である「1」を表示する。また、出力部127は、表示装置300において、第二の視線利用情報に含まれる、「画像撮影日時」が「2019/5/17 13:33:23」の1個の対象注視点を含む、「被注視体ID」が「C003」の対象オブジェクトが表示されている領域に、当該1個の対象注視点にユーザの視線が向けられた回数である「1」を表示する。
次に、出力部127は、第一の視線利用情報及び第二の視線利用情報のそれぞれについて、各視線利用情報に含まれる各対象注視点を、当該各対象注視点に対応する「画像撮影日時」が古い順に参照する。そして、出力部127は、現在参照している対象注視点と、次に参照する対象注視点と、を接続する直線を、当該次に参照する対象注視点へのユーザの視線の移動経路として、表示装置300に出力する。
例えば、出力部127は、第一の視線利用情報に含まれる対象注視点のうち、「画像撮影日時」が最も古い「2019/5/17 13:33:13」である対象注視点と、「画像撮影日時」が次に古い「2019/5/17 13:33:14」である対象注視点と、を接続する直線を、表示装置300に出力する。同様にして、出力部127は、第一の視線利用情報に含まれる対象注視点のうち、「画像撮影日時」が「2019/5/17 13:33:14」である対象注視点と、「画像撮影日時」が次に古い「2019/5/17 13:33:15」である対象注視点と、を接続する直線を、表示装置300に出力する。以降、同様にして、出力部127は、前記直線を表示装置300に出力し、最後に、第一の視線利用情報に含まれる対象注視点のうち、「画像撮影日時」が最も新しい「2019/5/17 13:33:22」である対象注視点と、「画像撮影日時」が次に新しい「2019/5/17 13:33:20」である対象注視点と、を接続する直線を、表示装置300に出力する。
同様にして、出力部127は、第二の視線利用情報に含まれる対象注視点のうち、「画像撮影日時」が最も古い「2019/5/17 13:33:17」である対象注視点と、「画像撮影日時」が次に古い「2019/5/17 13:33:18」である対象注視点と、を接続する直線を、表示装置300に出力する。以降、同様にして、出力部127は、前記直線を表示装置300に出力し、最後に、第二の視線利用情報に含まれる対象注視点のうち、「画像撮影日時」が最も新しい「2019/5/17 13:33:23」である対象注視点と、「画像撮影日時」が次に新しい「2019/5/17 13:33:21」である対象注視点と、を接続する直線を、表示装置300に出力する。
本構成によれば、当該表示装置300の視認者は、同一の属性を有するユーザの視線がどのような移動経路でどの位置に向けられている回数が多いのかを容易に把握することができる。
(実施の形態5)
画像処理システム1のユーザが、例えば数千人等の大人数になると、認証情報テーブルT1(図4)に記憶されている認証情報のレコード数が多くなる。この場合、ステップS3(図6)における、虹彩認証部123による虹彩情報及び認証情報テーブルT1(図4)を用いた個人認証の処理において参照するレコード数が多くなり、当該処理に要する時間が長くなる。その結果、ステップS4(図6)以降の処理の開始が遅くなり、視線管理情報を迅速に生成できない虞がある。
実施の形態5では、このような問題を回避するため、虹彩認証部123は、ステップS3(図6)において虹彩情報を検出した後に行う、当該検出した虹彩情報及び認証情報記憶部141を用いた人物400の個人認証の処理を、視線情報の検出の処理とは別のタイミングで行う。そして、管理情報生成部126は、当該個人認証の処理後に個人認証された人物400の個人情報を取得し、当該取得した個人情報と、別のタイミングで検出した視線情報とを対応付けて視線管理情報を生成する。以下、実施の形態5における視線管理情報の生成方法について、図9乃至図11を用いて説明する。
図9及び図10は、実施の形態5に係る画像処理装置100の動作の一例を示すフローチャートである。具体的には、図9に示す画像処理装置100の動作は、図6に示す画像処理装置100の動作と同様、定期的(例えば、1秒毎)に開始される。画像処理装置100の動作が開始されると、上述したステップS1及びステップS2が行われる。
次に、虹彩認証部123は、ステップS3(図6)と同様にして、ステップS2で検出された目領域50から人物400の目の虹彩56を示す虹彩情報を検出する(ステップS31)。ステップS31の後、ステップS4(図6)を省略して、ステップS5及びステップS6が行われる。
次に、管理情報生成部126は、ステップS31で検出された虹彩情報と、ステップS6で検出された視線情報とを対応付けた仮視線管理情報を生成する(ステップS71)。出力部127は、ステップS71で生成された仮視線管理情報を仮管理情報テーブルに記憶する(ステップS81)。仮管理情報テーブルは、管理情報生成部126によって生成した一以上の人物400についての仮視線管理情報を記憶するテーブルである。仮管理情報テーブルは、プロセッサ120が備えるメモリ(図略)又は画像処理装置100が備えるハードディスクドライブ、ソリッドステートドライブ等の記憶装置(図略)に記憶される。
図11は、仮管理情報テーブルT4の一例を示す図である。例えば、ステップS71では、図11に示すように、ステップS6で検出された視線情報に含まれる「画像撮影日時」、「視線位置X座標」、「視線位置Y座標」、「被注視体ID」と、ステップS31で検出された虹彩情報に含まれる「虹彩データ」、「瞳孔径サイズ」、「虹彩径サイズ」と、を対応付けた仮視線管理情報が仮管理情報テーブルT4に記憶される。「虹彩データ」は、ステップS31で検出された虹彩情報に含まれる虹彩データである。「瞳孔径サイズ」は、ステップS31で検出された虹彩情報に含まれる瞳孔55の外縁の直径の長さである。「虹彩径サイズ」は、ステップS31で検出された虹彩情報に含まれる虹彩56の外縁の直径の長さである。
図10に示す画像処理装置100の動作は、仮管理情報テーブルT4に一以上の仮視線管理情報が記憶されている場合に、任意のタイミングで開始される。図10に示す画像処理装置100の動作が開始されると、虹彩認証部123は、仮管理情報テーブルT4に記憶されている一の仮視線管理情報を参照し、当該参照した仮視線管理情報に含まれる虹彩情報を用いて、ステップS3(図6)と同様に、人物400の個人認証を行う(ステップS32)。次に、管理情報生成部126は、ステップS4(図6)と同様にして、ステップS32で個人認証された人物400の個人情報を取得する(ステップS42)。
次に、管理情報生成部126は、ステップS7(図6)と同様にして、ステップS32で参照した一の仮視線管理情報に含まれる視線情報と、ステップS42で取得した個人情報と、を対応付けた視線管理情報を生成する(ステップS72)。次に、管理情報生成部126は、ステップS32で参照した一の仮視線管理情報を、仮管理情報テーブルT4から削除する(ステップS73)。次に、出力部127は、ステップS8(図6)と同様にして、ステップS72で生成された視線管理情報を管理情報テーブルT3(図7)に記憶する(ステップS82)。
本構成によれば、処理時間が長くなる虞がある個人認証の処理を、仮管理情報テーブルT4に一以上の仮視線管理情報が記憶されている場合の任意のタイミングで行うことができる。これにより、視線管理情報の生成に用いる視線情報の検出タイミングと、当該視線情報に対応付けられる個人情報の取得タイミングと、に大きな時間差が生じる虞を解消することができる。その結果、視線管理情報を迅速に生成することができる。
尚、ステップS42における個人情報の取得日時と、ステップS72で当該個人情報と対応付けられる視線情報に含まれる「画像撮影日時」と、の差が所定時間以上であるとする。この場合、当該取得した個人情報は、視線情報の検出に用いた画像データが取得されたときから、当該所定時間以上経過した時点でユーザ情報テーブルT2(図5)に記憶されていた個人情報である。このため、当該画像データが取得された時点におけるユーザの個人情報とは異なっている虞がある。そこで、ステップS42における個人情報の取得日時と、ステップS72で当該個人情報と対応付けられる視線情報に含まれる「画像撮影日時」との差が所定時間以上である場合には、当該ステップS72で視線管理情報を生成しないようにしてもよい。
(実施の形態6)
実施の形態6は、人物400の関心度を推定するものである。図12は、実施の形態6に係る画像処理システム1Aの詳細な構成の一例を示すブロック図である。尚、本実施の形態において上述の実施の形態と同一の構成要素には同一の符号を付し、説明を省略する。また、図12において、図2と名称が同一であるが機能が異なるブロックには末尾にAの符号が付されている。
プロセッサ120Aは、更に、関心度推定部128を含む。
関心度推定部128は、以下の処理により人物400の関心度を推定する。まず、関心度推定部128は、顔特徴検出部124により検出された顔の特徴点を用いて、顔領域からまゆげ及び口角を検出する。ここで、関心度推定部128は、顔特徴検出部124により検出された顔の特徴点において、まゆげ及び口角のそれぞれに対応するランドマーク点番号が付された特徴点を特定することで、まゆげ及び口角を検出すればよい。
次に、関心度推定部128は、視線検出部125により検出された視線情報と、検出したまゆげの位置及び口角の位置とに基づいて人物400の関心度を推定し、表示装置300に出力する。具体的には、関心度推定部128は、例えば、人が喜び、驚き、怒り、悲しみ、及び無表情等の各種表情をしている際のまゆげ及び口角の標準的な位置が予め記述されたパターンデータを例えばメモリ(図略)から取得する。そして、関心度推定部128は、検出した人物400のまゆげ及び口角の位置と、パターンデータとを照合し、人物400の表情を推定する。そして、関心度推定部128は、推定した人物400の表情と視線情報が示す視線とを用いて、人物400の視線がどの方向にある、又は人物400の注視点がどの位置にあるときに人物400がどのような表情を行ったかを特定する。すなわち、関心度推定部128は、視線情報と人物400の表情とを対応付けたデータを人物400の関心度として特定する。尚、ここでは、関心度推定部128は、まゆげ及び口角に基づいて関心度を推定するとして説明したが、これは一例であり、まゆげ及び口角の一方に基づいて関心度を推定してもよい。
以上説明したように、本実施の形態によれば、視線情報に加えてまゆげ及び口角を更に用いて人物400の関心度が推定されているため、視線情報のみに基づく関心度推定に比べてより高精度に関心度を推定できる。
(変形例)
(1)上述の実施の形態では、図6及び図9に示す画像処理装置100の動作が定期的(例えば、1秒毎)に開始される場合について説明した。しかし、これに代えて、カメラ200によって人物400の顔の画像データが撮影される度に、図6及び図9に示す画像処理装置100の動作が開始されるようにしてもよい。又は、カメラ200によって人物400の顔の画像データが所定回数撮影される度に、図6及び図9に示す画像処理装置100の動作が当該所定回数開始されるようにしてもよい。
(2)カメラ200として赤外光カメラが採用された場合、赤外光カメラは、太陽光のスペクトル強度が所定の第一波長よりも減衰した所定の第二波長の帯域の赤外光を用いる赤外光カメラで構成すればよい。所定の第一波長は、例えば850nmである。所定の第二波長は、例えば940nmである。第二波長の帯域は、例えば850nmを含まず、且つ940nmを基準(例えば中心)とする所定幅の帯域である。近赤外光を撮影する赤外光カメラとして、850nmの赤外光を用いるものが知られている。しかし、850nmでは太陽光のスペクトル強度が十分に減衰していないため、太陽光のスペクトル強度が強い屋外において高精度な視線情報の検出ができない可能性がある。そこで、本開示は、赤外光カメラとして例えば940nmの帯域の赤外光を用いるカメラを採用する。これにより、太陽光のスペクトル強度が強い屋外においても高精度な視線情報の検出を行うことができる。ここでは、所定の第二波長は940nmとしたが、これは一例であり、940nmから多少ずれた波長であってもよい。尚、第二波長の赤外光を用いる赤外光カメラは、例えば第二波長の赤外光を照射する投光器を備えるカメラである。
(3)上記実施の形態では、視線情報は注視点を示す座標データを含むとして説明したが、本開示はこれに限定されない。例えば、視線情報は、注視点を基準(例えば中心)とする所定サイズの所定形状(例えば円、四角形等)の領域である注視面を示す座標データを含んでいてもよい。これにより、人物400及び注視対象物間の距離又は注視対象物の大きさに依存することなく注視対象物を適切に判定できる。
(4)上述の実施の形態では、画像処理システム1がデジタルサイネージシステムに適用される例について説明したが、画像処理システム1は、例えば、展示会にも適用可能である。この場合、展示会の参加者が、画像処理システム1のユーザであるものとして、ユーザ情報テーブルT2に記憶するユーザの属性情報に、参加者の勤務先を含めればよい。また、視線情報には、各ユーザの視線が向けられた位置に存在する展示会の展示物を示す展示物情報が含まれるようにすればよい。展示物情報には、例えば、展示物の名称及び/又は展示物の識別子を含めればよい。そして、上述の実施の形態3と同様にして、出力部127が、展示物情報が示す前記展示会の展示物と、当該展示会の展示物にユーザの視線が向けられた頻度と、の関係を表すヒートマップを、表示装置300に表示するようにすればよい。この場合、当該出力されたヒートマップの視認者は、例えば、展示会において、どの勤務先の参加者が、どの展示物に視線を向けている頻度が高いのかを容易に把握することができる。
また、ユーザ情報テーブルT2に記憶するユーザの属性情報に、展示会の参加者の職種を含め、上述の実施の形態3と同様の処理を行うようにしてもよい。この場合、出力部127によって出力されたヒートマップの視認者は、展示会において、どの職種の参加者がどの展示物に視線を向けている頻度が高いのかを容易に把握することができる。
又は、画像処理システム1は、例えば、製造現場にも適用可能である。この場合、製造現場の作業員が、画像処理システム1のユーザであるものとして、ユーザ情報テーブルT2に記憶するユーザの属性情報に、作業員の作業の熟練度を含めてもよい。また、視線情報には、各ユーザの視線が向けられた位置に存在する作業対象物を示す作業対象物情報が含まれるようにすればよい。作業対象物情報には、例えば、作業対象物の名称及び/又は作業対象物の識別子を含めればよい。そして、上述の実施の形態3と同様にして、出力部127が、作業対象物情報が示す作業対象物と、当該作業対象物にユーザの視線が向けられた頻度と、の関係を表すヒートマップを、表示装置300に表示するようにすればよい。この場合、当該出力されたヒートマップの視認者は、例えば、製造現場において、熟練度の高い作業者が、どの作業対象物に視線を向けている頻度が高いのかを容易に把握することができる。
本開示は、ユーザの個人情報とユーザの視線を示す情報とを対応付けた情報を簡易な構成で高精度に生成できるため、視線情報を用いた人物の興味対象の推定、人物の状態推定、及び視線を用いたユーザインターフェース等において有用である。
56 :虹彩
100 :画像処理装置(情報処理装置)
121 :画像取得部
123 :虹彩認証部(認証部)
125 :視線検出部
126 :管理情報生成部(個人情報取得部)
127 :出力部
200 :カメラ

Claims (9)

  1. 情報処理装置における情報処理方法であって、
    一以上のユーザのそれぞれについて、
    各ユーザの目を含む画像データを取得し、
    前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザの視線を示す視線情報を検出し、
    前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザを個人認証し、
    前記個人認証された前記各ユーザを特定する個人情報を取得し、
    前記一以上のユーザの前記個人情報と前記一以上のユーザの前記視線情報とを対応付けた管理情報を生成し、
    前記管理情報を出力し、
    前記個人情報は、前記各ユーザの性質または特徴を示す一以上の属性を含み、
    前記管理情報の出力では、
    更に、前記管理情報に基づいて、前記視線情報が前記一以上の属性毎に分類された視線利用情報を生成し、前記視線利用情報を出力し、
    前記一以上のユーザは、製造現場の作業員であり、
    前記一以上の属性は、前記作業員の作業の熟練度を含み、
    前記視線情報は、前記各ユーザの視線が向けられた位置に存在する作業対象物を示す作業対象物情報を含み、
    前記視線利用情報は、前記作業対象物情報が示す前記作業対象物と、当該作業対象物にユーザの視線が向けられた頻度と、の関係を表すヒートマップである、
    情報処理方法。
  2. 前記一以上の属性は、年齢、性別、勤務先及び職種のうちの一以上を含む、
    請求項1に記載の情報処理方法。
  3. 前記視線情報は、前記各ユーザの視線が向けられた位置を示す視線位置情報を含み、
    前記視線利用情報は、前記視線位置情報が示す位置と、前記視線位置情報が示す位置にユーザの視線が向けられた頻度と、の関係を表すヒートマップである、
    請求項1又は2に記載の情報処理方法。
  4. 前記視線情報は、前記各ユーザの視線が向けられた位置を示す視線位置情報を含み、
    前記視線利用情報は、前記視線位置情報が示す位置と、前記視線位置情報が示す位置にユーザの視線が向けられた回数と、前記視線位置情報が示す位置へのユーザの視線の移動経路と、の関係を表すゲイズプロットである、
    請求項1又は2に記載の情報処理方法。
  5. 前記視線情報の検出では、
    前記画像データから前記各ユーザの目を示す情報及び前記各ユーザの顔の向きを示す情報を検出し、検出した前記各ユーザの目を示す情報及び前記各ユーザの顔の向きを示す情報に基づき前記視線情報を検出する、
    請求項1から4の何れか一項に記載の情報処理方法。
  6. 前記各ユーザの個人認証では、
    前記画像データから前記各ユーザの目の虹彩を示す虹彩情報を検出し、検出した前記虹彩情報に基づき前記各ユーザを個人認証する、
    請求項1から5の何れか一項に記載の情報処理方法。
  7. 前記画像データは、赤外光カメラによって撮影されたものである、
    請求項6に記載の情報処理方法。
  8. 一以上のユーザのそれぞれについて、各ユーザの目を含む画像データを取得する画像取得部と、
    前記一以上のユーザのそれぞれについて、前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザの視線を示す視線情報を検出する視線検出部と、
    前記一以上のユーザのそれぞれについて、前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザを個人認証する認証部と、
    前記一以上のユーザのそれぞれについて、前記個人認証された前記各ユーザを特定する個人情報を取得する個人情報取得部と、
    前記一以上のユーザの前記個人情報と前記一以上のユーザの前記視線情報とを対応付けた管理情報を生成する管理情報生成部と、
    前記管理情報を出力する出力部と、を備え、
    前記個人情報は、前記各ユーザの性質または特徴を示す一以上の属性を含み、
    前記出力部は、
    更に、前記管理情報に基づいて、前記視線情報が前記一以上の属性毎に分類された視線利用情報を生成し、前記視線利用情報を出力し、
    前記一以上のユーザは、製造現場の作業員であり、
    前記一以上の属性は、前記作業員の作業の熟練度を含み、
    前記視線情報は、前記各ユーザの視線が向けられた位置に存在する作業対象物を示す作業対象物情報を含み、
    前記視線利用情報は、前記作業対象物情報が示す前記作業対象物と、当該作業対象物にユーザの視線が向けられた頻度と、の関係を表すヒートマップである、
    情報処理装置。
  9. 情報処理装置の制御プログラムであって、
    前記情報処理装置が備えるコンピュータを、
    一以上のユーザのそれぞれについて、各ユーザの目を含む画像データを取得する画像取得部と、
    前記一以上のユーザのそれぞれについて、前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザの視線を示す視線情報を検出する視線検出部と、
    前記一以上のユーザのそれぞれについて、前記画像データに含まれる前記各ユーザの目を示す情報に基づき前記各ユーザを個人認証する認証部と、
    前記一以上のユーザのそれぞれについて、前記個人認証された前記各ユーザを特定する個人情報を取得する個人情報取得部と、
    前記一以上のユーザの前記個人情報と前記一以上のユーザの前記視線情報とを対応付けた管理情報を生成する管理情報生成部と、
    前記管理情報を出力する出力部として機能させ、
    前記個人情報は、前記各ユーザの性質または特徴を示す一以上の属性を含み、
    前記出力部は、
    更に、前記管理情報に基づいて、前記視線情報が前記一以上の属性毎に分類された視線利用情報を生成し、前記視線利用情報を出力し、
    前記一以上のユーザは、製造現場の作業員であり、
    前記一以上の属性は、前記作業員の作業の熟練度を含み、
    前記視線情報は、前記各ユーザの視線が向けられた位置に存在する作業対象物を示す作業対象物情報を含み、
    前記視線利用情報は、前記作業対象物情報が示す前記作業対象物と、当該作業対象物にユーザの視線が向けられた頻度と、の関係を表すヒートマップである、
    制御プログラム。
JP2020137602A 2020-08-17 2020-08-17 情報処理方法、情報処理装置、及び制御プログラム Active JP6802549B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020137602A JP6802549B1 (ja) 2020-08-17 2020-08-17 情報処理方法、情報処理装置、及び制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020137602A JP6802549B1 (ja) 2020-08-17 2020-08-17 情報処理方法、情報処理装置、及び制御プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019210364A Division JP6755529B1 (ja) 2019-11-21 2019-11-21 情報処理方法、情報処理装置、及び制御プログラム

Publications (2)

Publication Number Publication Date
JP6802549B1 true JP6802549B1 (ja) 2020-12-16
JP2021082249A JP2021082249A (ja) 2021-05-27

Family

ID=73741061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020137602A Active JP6802549B1 (ja) 2020-08-17 2020-08-17 情報処理方法、情報処理装置、及び制御プログラム

Country Status (1)

Country Link
JP (1) JP6802549B1 (ja)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293786A (ja) * 2005-04-12 2006-10-26 Biophilia Kenkyusho Kk 視線入力装置を備えた市場調査用機器
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
JP2009530071A (ja) * 2006-03-13 2009-08-27 アイモーションズ−エモーション テクノロジー エー/エス 視覚的注意および感情反応の検出表示システム
JP2012008746A (ja) * 2010-06-23 2012-01-12 Softbank Mobile Corp ユーザ端末装置及びショッピングシステム
JP2014056356A (ja) * 2012-09-11 2014-03-27 Toshiba Tec Corp 販売促進判定装置及び販売促進判定方法
EP2905678A1 (en) * 2014-02-06 2015-08-12 Université catholique de Louvain Method and system for displaying content to a user
JP2017041123A (ja) * 2015-08-20 2017-02-23 サッポロビール株式会社 視線情報処理システム及び視線情報処理方法
US20170213234A1 (en) * 2016-01-21 2017-07-27 International Business Machines Corporation Managing power, lighting, and advertising using gaze behavior data
JP2017191490A (ja) * 2016-04-14 2017-10-19 株式会社フジタ 技能伝承システム及び方法
JP2018067840A (ja) * 2016-10-20 2018-04-26 富士ゼロックス株式会社 情報処理装置及び画像処理装置
KR101887053B1 (ko) * 2018-02-22 2018-08-09 데이터킹주식회사 Vr영상 내의 관심도 분석 시스템
JP2019152734A (ja) * 2018-03-02 2019-09-12 合同会社アイキュベータ デジタル情報表示システム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006293786A (ja) * 2005-04-12 2006-10-26 Biophilia Kenkyusho Kk 視線入力装置を備えた市場調査用機器
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
JP2009530071A (ja) * 2006-03-13 2009-08-27 アイモーションズ−エモーション テクノロジー エー/エス 視覚的注意および感情反応の検出表示システム
JP2012008746A (ja) * 2010-06-23 2012-01-12 Softbank Mobile Corp ユーザ端末装置及びショッピングシステム
JP2014056356A (ja) * 2012-09-11 2014-03-27 Toshiba Tec Corp 販売促進判定装置及び販売促進判定方法
EP2905678A1 (en) * 2014-02-06 2015-08-12 Université catholique de Louvain Method and system for displaying content to a user
JP2017041123A (ja) * 2015-08-20 2017-02-23 サッポロビール株式会社 視線情報処理システム及び視線情報処理方法
US20170213234A1 (en) * 2016-01-21 2017-07-27 International Business Machines Corporation Managing power, lighting, and advertising using gaze behavior data
JP2017191490A (ja) * 2016-04-14 2017-10-19 株式会社フジタ 技能伝承システム及び方法
JP2018067840A (ja) * 2016-10-20 2018-04-26 富士ゼロックス株式会社 情報処理装置及び画像処理装置
KR101887053B1 (ko) * 2018-02-22 2018-08-09 데이터킹주식회사 Vr영상 내의 관심도 분석 시스템
JP2019152734A (ja) * 2018-03-02 2019-09-12 合同会社アイキュベータ デジタル情報表示システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中道 上: "感性と感情 −計測・評価・モデル化とその応用−", ヒューマンインタフェース学会 論文誌 2016 [CD−ROM], vol. Vol.18 No.1-4, JPN6020015648, 31 December 2016 (2016-12-31), JP, pages 385 - 393, ISSN: 0004384771 *

Also Published As

Publication number Publication date
JP2021082249A (ja) 2021-05-27

Similar Documents

Publication Publication Date Title
RU2668408C2 (ru) Устройства, системы и способы виртуализации зеркала
US11747898B2 (en) Method and apparatus with gaze estimation
Park et al. 3d social saliency from head-mounted cameras
Shreve et al. Macro-and micro-expression spotting in long videos using spatio-temporal strain
US20220270287A1 (en) Eye gaze detection method, eye gaze detection device, and non-transitory computer readable storage medium
EP3182362A1 (en) Method and sytem for evaluating fitness between eyeglasses wearer and eyeglasses worn thereby
WO2018076622A1 (zh) 图像处理方法、装置及终端
Zhang et al. Eye center localization and gaze gesture recognition for human–computer interaction
US20170365084A1 (en) Image generating apparatus and image generating method
Pires et al. Visible-spectrum gaze tracking for sports
Geuss et al. Effect of display technology on perceived scale of space
US20220276705A1 (en) Information processing method, information processing device, and non-transitory computer readable storage medium
US20220075983A1 (en) Image processing method, image processing device, and non-transitory computer readable storage medium
WO2020032254A1 (ja) 注意対象推定装置及び注意対象推定方法
US9501710B2 (en) Systems, methods, and media for identifying object characteristics based on fixation points
JP2021077333A (ja) 視線検出方法、視線検出装置、及び制御プログラム
JP6802549B1 (ja) 情報処理方法、情報処理装置、及び制御プログラム
JP6922768B2 (ja) 情報処理装置
JP2016111612A (ja) コンテンツ表示装置
CN110603508A (zh) 媒体内容跟踪
Bouma et al. Measuring cues for stand-off deception detection based on full-body nonverbal features in body-worn cameras
Li et al. A smart eye tracking system for virtual reality
US20220270407A1 (en) Image processing method, image processing device, and non-transitory computer readable storage medium
KR20210085270A (ko) 응시 대상 관심도 검출 장치 및 방법
Zhang et al. Gaze-driven interaction system for cognitive ability assessment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200817

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200817

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R150 Certificate of patent or registration of utility model

Ref document number: 6802549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250