JP7481398B2 - 判定装置、プログラム、及び判定方法 - Google Patents

判定装置、プログラム、及び判定方法 Download PDF

Info

Publication number
JP7481398B2
JP7481398B2 JP2022107635A JP2022107635A JP7481398B2 JP 7481398 B2 JP7481398 B2 JP 7481398B2 JP 2022107635 A JP2022107635 A JP 2022107635A JP 2022107635 A JP2022107635 A JP 2022107635A JP 7481398 B2 JP7481398 B2 JP 7481398B2
Authority
JP
Japan
Prior art keywords
face
person
facial organ
point
organ point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022107635A
Other languages
English (en)
Other versions
JP2024006591A (ja
Inventor
優太 下村
達大 内藤
正紀 錦見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2022107635A priority Critical patent/JP7481398B2/ja
Publication of JP2024006591A publication Critical patent/JP2024006591A/ja
Application granted granted Critical
Publication of JP7481398B2 publication Critical patent/JP7481398B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、判定装置、プログラム、及び判定方法に関する。
特許文献1には、カメラによって生成された画像データを受け、画像データに表されている人の目線を解析することにより、当該人がサイネージ装置に表示されたコンテンツを見ているか否かを判定する技術が記載されている。
[先行技術文献]
[特許文献]
[特許文献1]特開2018-032174号公報
本発明の一実施態様によれば、判定装置が提供される。前記判定装置は、人の顔を撮像した撮像画像から検出された複数の顔器官点に基づいて、前記人が対象物を見ているか否かを判定する判定部を備えてよい。
前記判定装置において、前記判定部は、前記複数の顔器官点のうち、前記人の顔の中央領域の前記顔器官点と、前記人の顔の左側領域の前記顔器官点と、前記人の顔の右側領域の前記顔器官点とに基づいて、前記人が対象物を見ているか否かを判定してよい。前記判定部は、前記中央領域の縦方向に位置する縦第1顔器官点、縦第2顔器官点、及び縦第3顔器官点と、前記左側領域の横第1顔器官点、前記中央領域の横第2顔器官点、及び前記右側領域の横第3顔器官点と、に基づいて、前記人が対象物を見ているか否かを判定してよい。前記縦第1顔器官点は、前記人の顔の眉間に相当する位置の前記顔器官点であってよく、前記縦第2顔器官点は、前記人の顔の鼻頭に相当する位置の前記顔器官点であってよく、前記縦第3顔器官点は、前記人の顔の顎先に相当する位置の前記顔器官点であってよい。前記横第2顔器官点は、前記人の顔の鼻根に相当する位置の前記顔器官点であってよい。前記横第1顔器官点は、前記人の顔の左端に相当する位置の前記顔器官点であってよい。前記横第3顔器官点は、前記人の顔の右端に相当する位置の前記顔器官点であってよい。
前記いずれかの判定装置において、前記判定部は、前記縦第1顔器官点と前記縦第2顔器官点とを結ぶ線分と、前記縦第2顔器官点と前記縦第3顔器官点とを結ぶ線分との第1比率と、前記横第1顔器官点と前記横第2顔器官点とを結ぶ線分と、前記横第2顔器官点と前記横第3顔器官点とを結ぶ線分との第2比率とに基づいて、前記人が対象物を見ているか否かを判定してよい。前記判定部は、前記第1比率が予め定められた縦方向比率範囲内であり、前記第2比率が予め定められた横方向比率範囲内である場合に、前記人が対象物を見ていると判定してよい。
前記いずれかの判定装置において、前記判定部は、前記複数の顔器官点のうち、前記人の顔の中央領域の前記顔器官点と、前記人の顔の左側領域の前記顔器官点と、前記人の顔の右側領域の前記顔器官点とに基づいて、前記人の顔の方向を判定し、前記複数の顔器官点のうち、前記人の目の位置に相当する複数の前記顔器官点と、前記撮像画像から抽出された前記人の黒目の位置とに基づいて、前記人の眼球の方向を判定し、前記人の顔の方向及び前記人の眼球の方向に基づいて、前記人が対象物を見ているか否かを判定してよい。
前記いずれかの判定装置において、前記判定部は、時系列に人の顔を撮像した複数の撮像画像のそれぞれから検出された複数の顔器官点に基づいて、前記人の生体判定を実行してよい。前記判定部は、時系列に人の顔を撮像した前記複数の撮像画像のそれぞれから検出された前記複数の顔器官点に基づいて、前記人が顔を振る動作、及び前記人が瞬きをする動作の少なくともいずれかを検出して、検出結果に基づいて、前記人の生体判定を実行してよい。
前記いずれかの判定装置は、前記撮像画像に対して顔器官点の検出処理を実行した処理装置から、前記複数の顔器官点の情報を受信する器官点情報受信部を備えてく、前記判定部は、前記情報受信部が受信した前記複数の顔器官点の情報に基づいて、前記人が対象物を見ているか否かを判定してよい。
前記いずれかの判定装置は、前記撮像画像を受信する撮像画像受信部と、前記撮像画像受信部が受信した前記撮像画像に対して顔器官点の検出処理を実行する検出処理実行部とを備えてよく、前記判定部は、前記抽出処理実行部によって抽出された前記複数の顔器官点に基づいて、前記人が対象物を見ているか否かを判定してよい。前記検出処理実行部は、機械学習によって生成された学習モデルを用いて、前記撮像画像から前記複数の顔器官点を検出してよい。
本発明の一実施形態によれば、コンピュータを、前記判定装置として機能させるためのプログラムが提供される。
本発明の一実施形態によれば、コンピュータによって実行される判定方法が提供される。前記判定方法は、人の顔を撮像した撮像画像から検出された複数の顔器官点に基づいて、前記人が対象物を見ているか否かを判定する判定段階を備えてよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
システム100の一例を概略的に示す。 複数の顔器官点の一例を概略的に示す。 代表点の一例を概略的に示す。 代表点を結んだ線分の一例を概略的に示す。 システム100による処理の流れの一例を概略的に示す。 眼球の方向の推定処理について説明するための説明図である。 眼球の方向の推定処理について説明するための説明図である。 眼球の方向の推定処理について説明するための説明図である。 判定装置200の機能構成の一例を概略的に示す。 判定装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、システム100の一例を概略的に示す。システム100は、人が対象物を見ているか否かを推定する機能を有する。対象物の例として、サイネージ等のコンテンツが挙げられるが、これに限らない。本実施形態では、対象物がコンテンツである場合を主に例に挙げて説明する。
例えば、システム100は、図1に例示する環境において、ディスプレイ120に表示されているコンテンツを人130が見ているか否かを推定する。人130に対する対象物の提示形態は、ディスプレイ120の表示に限らず、プロジェクタ等による投影であってもよく、看板及びポスター等の非電子媒体を用いたものであってもよい。
システム100は、判定装置200を備える。システム100は、処理装置300を備えてもよい。システム100は、カメラ400を備えてもよい。
カメラ400は、ディスプレイ120を閲覧可能な場所に位置する人130を撮像可能な位置に配置される。カメラ400は、人130がディスプレイ120を閲覧している場合に、人130を正面から撮像可能な位置に配置されることが望ましいが、それに限らず、人130の顔を撮像可能であれば、任意の位置に配置されてよい。
処理装置300は、カメラ400によって撮像された撮像画像をカメラ400から受信する。カメラ400は、ネットワーク110を介して処理装置300に撮像画像を送信してよい。
ネットワーク110は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、LTE(Long Term Evolution)通信方式、5G(5th Generation)通信方式、3G(3rd Generation)通信方式、及び6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。ネットワーク110は、インターネットを含んでよい。
カメラ400は、ネットワーク110に対して有線接続されてよい。カメラ400は、ネットワーク110に対して、無線接続されてもよい。例えば、カメラ400は、無線基地局、及びWi-Fi(登録商標)アクセスポイント等を介して、ネットワーク110に接続される。
処理装置300は、ネットワーク110に対して有線接続されてよい。処理装置300は、ネットワーク110に対して、無線接続されてもよい。例えば、処理装置300は、無線基地局、及びWi-Fiアクセスポイント等を介して、ネットワーク110に接続される。
処理装置300は、カメラ400から受信した、人130の顔を撮像した撮像画像から複数の顔器官点を検出する。処理装置300は、複数の顔器官点から、複数の代表点を抽出して、判定装置200に送信する。処理装置300は、ネットワーク110を介して、複数の代表点を判定装置200に送信してよい。
判定装置200は、ネットワーク110に対して有線接続されてよい。判定装置200は、ネットワーク110に対して、無線接続されてもよい。例えば、判定装置200は、無線基地局、及びWi-Fiアクセスポイント等を介して、ネットワーク110に接続される。判定装置200は、処理装置300から受信した複数の代表点に基づいて、人130がディスプレイ120のコンテンツを見ているか否かを判定してよい。
なお、処理装置300が、撮像画像から検出した複数の顔器官点を判定装置200に送信し、判定装置200が、複数の顔器官点から複数の代表点を抽出してもよい。
例えば、処理装置300がエッジ側に配置され、判定装置200がクラウド側に配置される。それに限らず、判定装置200と処理装置300とは一体であってもよい。すなわち、判定装置200が処理装置300の機能を備えてもよい。
図2は、複数の顔器官点の一例を概略的に示す。撮像画像から顔器官点を検出する方法は、既知の方法が用いられてよい。例えば、あるAI(Artificial Intelligence)モデルを用いた顔器官点の検出方法によれば、68箇所の顔器官点が検出される。図2は、当該検出方法を用いた場合に検出された顔器官点を、例示している。
当該検出方法において、68箇所の顔器官点は次のように定義されている。顔器官点1から顔器官点17は、人130の顔の輪郭に相当する。顔器官点18から顔器官点27は、人130の眉毛に相当する。顔器官点28から顔器官点36は、人130の鼻に相当する。顔器官点37から顔器官点48は、人130の目に相当する。顔器官点49から顔器官点68は、人130の口に相当する。他のAIモデルを用いたり、異なる検出方法を用いたりした場合、顔器官点の数が異なったり、定義が異なったりする。
処理装置300は、複数の顔器官点から代表点を抽出して、判定装置200に送信してよい。処理装置300は、複数の顔器官点のうち、人130の顔の中央領域の顔器官点と、人130の顔の左側領域の顔器官点と、人130の顔の右側領域の顔器官点とを代表点として抽出してよい。
処理装置300は、例えば、人130の顔の中央領域に位置する顔器官点28~顔器官点31、顔器官点34、顔器官点52、顔器官点63、顔器官点67、顔器官点58、顔器官点9から代表点を抽出する。処理装置300は、例えば、人130の顔の左側領域に位置する顔器官点1~顔器官点8から代表点を抽出する。処理装置300は、例えば、人130の顔の右側領域に位置する顔器官点10~17から代表点を抽出する。
図3は、代表点の一例を概略的に示す。ここでは、代表点が6点である場合を例示している。図3に示す例において、処理装置300は、人130の顔の中央領域の縦方向に位置する縦第1顔器官点501、縦第2顔器官点502、及び縦第3顔器官点503と、人130の顔の左側領域の横第1顔器官点601、中央領域の横第2顔器官点602、及び右側領域の横第3顔器官点603とを代表点として抽出している。
縦第1顔器官点501は、人130の顔の眉間に相当する位置の顔器官点であってよい。縦第2顔器官点502は、人130の顔の鼻頭に相当する位置の顔器官点であってよい。縦第3顔器官点503は、人130の顔の顎先に相当する位置の顔器官点であってよい。
横第1顔器官点601は、人130の顔の左端に相当する位置の顔器官点であってよい。横第2顔器官点602は、人130の顔の鼻根に相当する位置の顔器官点であってよい。横第3顔器官点603は、人130の顔の右端に相当する位置の顔器官点であってよい。
図4に示すように、処理装置300は、縦第1顔器官点501と縦第2顔器官点502とを結ぶ線分512の長さを算出する。処理装置300は、例えば、線分512の長さを、ユークリッド距離で算出する。
同様に、処理装置300は、縦第2顔器官点502と縦第3顔器官点503とを結ぶ線分523の長さと、横第1顔器官点601と横第2顔器官点602とを結ぶ線分612の長さと、横第2顔器官点602と横第3顔器官点603とを結ぶ線分623の長さとを算出する。
そして、処理装置300は、線分512の長さと線分523の長さとの比率(縦方向比率と記載する場合がある。)と、線分612の長さと線分623の長さとの比率(横方向比率と記載する場合がある。)とを算出する。例えば、処理装置300は、(線分512の長さ)/(線分523の長さ)を縦方向比率とし、(線分612の長さ)/(線分623の長さ)を横方向比率として算出する。
この場合において、人130の顔の方向が上下に偏らずに正面方向である場合、縦方向比率は1に近くなり、人130の顔の方向が上方向である場合、縦方向比率は1より小さくなり、人130の顔の方向が下方向である場合、縦方向比率は1より大きくなる。すなわち、縦方向比率によって、人130の顔の上下の方向が推定できる。
また、人130の顔の方向が左右に偏らずに正面方向である場合、横方向比率は1に近くなり、人130の顔の方向が右方向である場合、縦方向比率は1より小さくなり、人130の顔の方向が左方向である場合、横方向比率は1より大きくなる。すなわち、横方向比率によって、人130の顔の左右の方向が推定できる。
図5は、システム100による処理の流れの一例を概略的に示す。ここでは、まず、コンテンツの視聴範囲の設定が行われた上で、人130がディスプレイ120のコンテンツを視聴しているか否かを推定する処理の流れについて説明する。
ステップ(ステップをSと省略して記載する場合がある。)102では、判定装置200又は処理装置300が、コンテンツの視聴範囲を設定する。視聴範囲とは、人130がコンテンツを視聴しているときの、人130の顔器官点の代表点から算出した、縦方向比率及び横方向比率の範囲である。
例えば、設定を行うための実験者が、ディスプレイ120の前に位置して、顔を様々な方向に向ける。それぞれの顔の方向のときに撮像した撮像画像と、それぞれの顔の方向において、実験者がディスプレイ120のコンテンツを視聴しているか否かを合わせて記録する。
実験者が、顔を上方向に向けた場合にコンテンツが見えなくなる境界の方向に顔を向けたときの撮像画像、顔を下方向に向けた場合にコンテンツが見えなくなる境界の方向に顔を向けたときの撮像画像、顔を左方向に向けた場合にコンテンツが見えなくなる境界の方向に顔を向けたときの撮像画像、顔を右方向に向けた場合にコンテンツが見えなくなる境界の方向に顔を向けたときの撮像画像のみを記録するようにしてもよい。
処理装置300は、記録されたデータを用いて、実験者がコンテンツを見ることができる縦方向比率の範囲及び横方向比率の範囲を特定することによって、視聴範囲を設定する。S102によって、事前設定が完了する。
S104では、処理装置300が、実際にコンテンツを視聴しているか否かを判定する対象となる人130を撮像した撮像画像をカメラ400から取得する。S106では、処理装置300が、S104において取得した撮像画像に対して顔器官点の抽出処理を実行して、複数の顔器官点を検出する。処理装置300は、検出した複数の顔器官点から代表点を抽出して、判定装置200に送信する。
S108では、判定装置200が、S106において処理装置300から受信した代表点を用いて、縦方向比率及び横方向比率を算出する。S110では、判定装置200が、S108において算出した縦方向比率及び横方向比率が、S102において設定された市長範囲に含まれるか否かを判定する。含まれると判定した場合、S112に進み、含まれないと判定した場合、S114に進む。
S112では、判定装置200が、対象となる人130が、コンテンツを見ていたと判定する。S114では、判定装置200が、対象となる人130が、コンテンツを見ていないと判定する。S116では、判定装置200が、判定結果を出力する。
システム100は、人130の顔の方向に加えて、人130の眼球方向を推定し、推定した顔の方向及び眼球方向を用いて、人130がコンテンツを見ていたか否かを判定してもよい。
図6から図8は、眼球の方向の推定処理について説明するための説明図である。判定装置200は、人130の撮像画像から検出された目の位置に相当する複数の顔器官点と、人130の撮像画像から検出された人130の黒目の位置とに基づいて、人130の眼球の方向を判定してよい。
図6は、目の位置に相当する複数の顔器官点の一例を示す。図6に示す例においては、右目及び左目のそれぞれについて、6つの顔器官点が検出されている。顔器官点の数及び位置は、これらに限らず、他の数や位置であってもよい。図6に示す例では、右目器官点701、右目器官点702、右目器官点703、右目器官点704、右目器官点705、及び右目器官点706が、右目の位置に対応する顔器官点であり、左目器官点801、左目器官点802、左目器官点803、左目器官点804、左目器官点805、及び左目器官点806が、左目の位置に対応する顔器官点である。
図7は、目の位置に相当する複数の顔器官点に対して、人130の撮像画像から検出された人130の右黒目710及び右黒目中心712と、左黒目810及び左黒目中心812とを配置した状態を例示している。判定装置200は、右黒目中心712と右目の縦横比率、及び左黒目中心812と左目の縦横比率とを算出する。
判定装置200は、右目について、右黒目中心712と、右目の位置に相当する顔器官点、又は、隣接する顔器官点の中点とを結んだ線分の長さを特定して、縦横比率を算出してよい。
図8に示す例では、判定装置200は、6つの右目器官点のうち、上側に位置する右目器官点702及び右目器官点703の中点と右黒目中心712とを結ぶ線分721の長さと、下側に位置する右目器官点705及び右目器官点706の中点と右黒目中心712とを結ぶ線分722の長さとの比率を、右目の縦方向比率として算出する。判定装置200は、例えば、(線分721の長さ)/(線分722の長さ)を右目の縦方向比率として算出する。
また、判定装置200は、6つの右目器官点のうち、最も右に位置する右目器官点701と右黒目中心712とを結ぶ線分731の長さと、最も左に位置する右目器官点704と右黒目中心712とを結ぶ線分732の長さとの比率を、右目の横方向比率として算出する。判定装置200は、例えば、(線分731の長さ)/(線分732の長さ)を右目の横方向比率として算出する。
また、判定装置200は、6つの左目器官点のうち、上側に位置する左目器官点802及び左目器官点803の中点と左黒目中心812とを結ぶ線分821の長さと、下側に位置する左目器官点805及び左目器官点806の中点と左黒目中心812とを結ぶ線分822の長さとの比率を、左目の縦方向比率として算出する。判定装置200は、例えば、(線分821の長さ)/(線分822の長さ)を左目の縦方向比率として算出する。
また、判定装置200は、6つの左目器官点のうち、最も右に位置する左目器官点801と左黒目中心812とを結ぶ線分831の長さと、最も左に位置する左目器官点804と左黒目中心812とを結ぶ線分832の長さとの比率を、左目の横方向比率として算出する。判定装置200は、例えば、(線分831の長さ)/(線分832の長さ)を左目の横方向比率として算出する。
この場合において、人130の右目の方向が上下に偏らずに正面方向である場合、右目の縦方向比率は1に近くなり、人130の右目の方向が上方向である場合、右目の縦方向比率は1より小さくなり、人130の右目の方向が下方向である場合、右目の縦方向比率は1より大きくなる。すなわち、右目の縦方向比率によって、人130の右目の上下の方向が推定できる。
また、人130の左目の方向が上下に偏らずに正面方向である場合、左目の縦方向比率は1に近くなり、人130の左目の方向が上方向である場合、左目の縦方向比率は1より小さくなり、人130の左目の方向が下方向である場合、左目の縦方向比率は1より大きくなる。すなわち、左目の縦方向比率によって、人130の左目の上下の方向が推定できる。
また、人130の右目の方向が左右に偏らずに正面方向である場合、右目の横方向比率は1に近くなり、人130の右目の方向が右方向である場合、右目の縦方向比率は1より小さくなり、人130の右目の方向が左方向である場合、右目の縦方向比率は1より大きくなる。すなわち、右目の縦方向比率によって、人130の右目の左右の方向が推定できる。
また、人130の左目の方向が左右に偏らずに正面方向である場合、左目の縦方向比率は1に近くなり、人130の左目の方向が右方向である場合、左目の縦方向比率は1より小さくなり、人130の左目の方向が左方向である場合、左目の縦方向比率は1より大きくなる。すなわち、左目の縦方向比率によって、人130の左目の上下の方向が推定できる。
顔の方向に加えて眼球の方向を更に用いることによって、例えば、顔の方向はコンテンツに向いているが、眼球がコンテンツとは異なる方向に向いている場合に、人130がコンテンツを視聴していないと推定することができるようになり、推定精度を向上できる。
図9は、判定装置200の機能構成の一例を概略的に示す。判定装置200は、設定部202、設定情報受信部203、器官点情報取得部204、撮像画像受信部206、検出処理実行部208、判定部212、及び出力制御部214を備える。なお、判定装置200がこれらの全てを備えることは必須とは限らない。
設定部202は、対象物の視聴範囲を設定する。例えば、設定部202は、設定を行うための実験者が、対象物の前に位置して、顔を上方向に向けた場合に対象物が見えなくなる境界の方向に顔を向けたときの撮像画像から検出された複数の顔器官点、又はそこから抽出された複数の代表点を取得して、縦方向比率を算出する。
また、設定部202は、実験者が、対象物の前に位置して、顔を下方向に向けた場合に対象物が見えなくなる境界の方向に顔を向けたときの撮像画像から検出された複数の顔器官点、又はそこから抽出された複数の代表点を取得して、縦方向比率を算出する。
また、設定部202は、実験者が、対象物の前に位置して、顔を右方向に向けた場合に対象物が見えなくなる境界の方向に顔を向けたときの撮像画像から検出された複数の顔器官点、又はそこから抽出された複数の代表点を取得して、横方向比率を算出する。
また、設定部202は、実験者が、対象物の前に位置して、顔を左方向に向けた場合に対象物が見えなくなる境界の方向に顔を向けたときの撮像画像から検出された複数の顔器官点、又はそこから抽出された複数の代表点を取得して、横方向比率を算出する。
設定部202は、算出した縦方向比率及び横方向比率から、視聴範囲を設定してよい。設定部202は、代表点を処理装置300から受信してよい。設定部202は、複数の顔器官点を処理装置300から受信して、複数の顔器官点から複数の代表点を抽出してもよい。また、撮像画像から複数の顔器官点を検出する処理を、設定部202が行ってもよい。
視聴範囲の設定は、カメラ400及び対象物の組み合わせ毎に、設定を行うための実験をした結果を用いて、設定部202によって行われてよい。例えば、対象となるカメラ400と対象物が確定した後に、その環境において実験が行われ、実験結果を用いて、設定部202が視聴範囲を設定する。
また、設定部202は、実験ではなく、計算によって、視聴範囲を設定してもよい。設定部202は、例えば、対象物の位置、方向、及びサイズと、カメラ400による撮像範囲とから、人130の顔の方向がいずれの範囲であれば、人130の視線に対象物が含まれるかを計算したり、シミュレーションしたりすることによって、視聴範囲を設定してよい。また、設定部202は、一環境において、実験に基づいて設定した視聴範囲を元に、他の環境における視聴範囲を設定してもよい。
設定部202は、設定情報受信部203が外部から受信した視聴範囲を設定してもよい。設定情報受信部203は、例えば、処理装置300から視聴範囲を受信する。設定情報受信部203は、他の装置から視聴範囲を受信してもよい。
器官点情報取得部204は、対象物を見ているか否かを判定する対象となる人130を撮像した撮像画像から検出された複数の顔器官点を取得する。器官点情報取得部204は、例えば、処理装置300によって撮像画像から検出された複数の顔器官点を、処理装置300から受信する。器官点情報取得部204は、器官点情報受信部の一例であってよい。
撮像画像受信部206は、対象物を見ているか否かを判定する対象となる人130を撮像した撮像画像を受信する。撮像画像受信部206は処理装置300から撮像画像を受信してよい。
検出処理実行部208は、撮像画像受信部206が受信した撮像画像に対して、顔器官点の検出処理を実行する。検出処理実行部208は、機械学習によって生成された学習モデルを予め格納しておき、当該学習モデルを用いて、撮像画像から複数の顔器官点を検出してよい。器官点情報取得部204は、検出処理実行部208によって検出された複数の顔器官点を検出処理実行部208から取得してもよい。
判定部212は、器官点情報取得部204が取得した複数の顔器官点に基づいて、人130が対象物を見ているか否かを判定する。判定部212は、複数の顔器官点のうち、人130の顔の中央領域の顔器官点と、人130の顔の左側領域の顔器官点と、人130の顔の右側領域の顔器官点とに基づいて、人130が対象物を見ているか否かを判定してよい。判定部212は、当該中央領域の縦方向に位置する縦第1顔器官点、縦第2顔器官点、及び縦第3顔器官点と、当該左側領域の横第1顔器官点、当該中央領域の横第2顔器官点、及び当該右側領域の横第3顔器官点と、に基づいて、人130が対象物を見ているか否かを判定してよい。
縦顔第1器官点は、人130の顔の中央領域の上側に位置する顔器官点であってよく、縦顔第2器官点は、人130の顔の中央領域の中央側に位置する顔器官点であってよく、縦顔第3器官点は、人130の顔の中央領域の下側に位置する顔器官点であってよい。例えば、縦第1顔器官点は、人130の顔の眉間に相当する位置の顔器官点であってよい。縦第2顔器官点は、人130の顔の鼻頭に相当する位置の顔器官点であってよい。縦第3顔器官点は、人130の顔の顎先に相当する位置の顔器官点であってよい。
横第1顔器官点は、人130の顔の左端に位置する顔器官点であってよく、横第2顔器官点は、人130の顔の中央領域の複数の顔器官点のうち、人130の顔の左右方向の中心により近い顔器官点であってよく、横第3顔器官点は、人130の顔の右端に位置する顔器官点であってよい。例えば、横第2顔器官点は、人130の顔の鼻根に相当する位置の顔器官点であってよい。横第1顔器官点は、人130の顔の左端に相当する位置の顔器官点であってよい。横第3顔器官点は、人130の顔の右端に相当する位置の顔器官点であってよい。
判定部212は、縦第1顔器官点と縦第2顔器官点とを結ぶ線分と、縦第2顔器官点と縦第3顔器官点とを結ぶ線分との第1比率と、横第1顔器官点と横第2顔器官点とを結ぶ線分と、横第2顔器官点と横第3顔器官点とを結ぶ線分との第2比率とに基づいて、人130が対象物を見ているか否かを判定してよい。
判定部212は、第1比率が予め定められた縦方向比率範囲内であり、第2比率が予め定められた横方向比率範囲内である場合に、人130が対象物を見ていると判定してよい。判定部212は、第1比率が設定部202によって設定された視聴範囲内であり、かつ、第2比率が設定部202によって設定された視聴範囲内である場合に、人130が対象物を見ていると判定してよい。判定部212は、第1比率及び第2比率のうち、少なくともいずれかが設定部202によって設定された視聴範囲外である場合、人130が対象物を見ていないと判定してよい。
出力制御部214は、判定部212による判定結果を出力するよう制御する。出力制御部214は、例えば、判定装置200が備えるディスプレイに判定結果を表示出力させる。出力制御部214は、例えば、他の装置に対して判定結果を送信出力する。
設定部202は、人130の顔の方向に加えて、人130の眼球の方向を対象とした、視聴範囲を設定してもよい。設定部202は、実験によって得られたデータを用いて、視聴範囲を設定してよい。また、設定部202は、実験ではなく、計算によって、視聴範囲を設定してもよい。
例えば、設定を行うための実験者が、対象物の前に位置して、顔の方向を固定した状態で、眼球を様々な方向に向ける。それぞれの眼球の方向のときに撮像した撮像画像と、それぞれの眼球の方向において、実験者が対象物を見ているか否かを合わせて記録する。実験者が、眼球を上方向に向けた場合にコンテンツが見えなくなる境界の方向に眼球を向けたときの撮像画像、眼球を下方向に向けた場合にコンテンツが見えなくなる境界の方向に眼球を向けたときの撮像画像、眼球を左方向に向けた場合にコンテンツが見えなくなる境界の方向に眼球を向けたときの撮像画像、眼球を右方向に向けた場合にコンテンツが見えなくなる境界の方向に眼球を向けたときの撮像画像のみを記録してもよい。
設定部202は、記録されたデータを用いて、人130が対象物を見ることが出来る右目の縦方向比率、右目の横方向比率、左目の縦方向比率、及び左目の横方向比率を特定することによって、視聴範囲を設定する。設定部202は、複数の顔の方向のそれぞれについて、視聴範囲を設定してよい。
判定部212は、器官点情報取得部204が取得した複数の顔器官点のうち、人130の顔の中央領域の顔器官点と、人130の顔の左側領域の顔器官点と、人130の顔の右側領域の顔器官点とに基づいて、人130の顔の方向を判定し、複数の顔器官点のうち、人130の目の位置に相当する複数の顔器官点と、撮像画像から抽出された人130の黒目の位置とに基づいて、人130の眼球の方向を判定し、人130の顔の方向及び人130の眼球の方向に基づいて、人130が対象物を見ているか否かを判定してよい。判定部212は、判定した人130の顔の方向に対応する視聴範囲を参照して、判定した人130の眼球の方向が、視聴範囲に含まれている場合に、人130が対象物を見ていると判定し、含まれていない場合に、人130が対象物を見ていないと判定してよい。
判定部212は、人130が対象物を見ていると判定した場合において、時系列に人130の顔を撮像した複数の撮像画像のそれぞれから検出された複数の顔器官点に基づいて、対象物に対する人130の注視度合を判定してもよい。例えば、判定部212は、時系列の複数の撮像画像のそれぞれについて、顔の縦横比率及び傾きを特定することによって、人130の顔の揺らぎを推定する。そして、判定部212は、顔の揺らぎが予め定めらえた閾値より小さい場合、対象物に注視していると判定し、閾値より大きい場合、対象物に注視はしていないと判定する。
判定部212は、対象物に対して、複数の人130のそれぞれが、対象物を見ているか否かを判定することによって、対象物の視聴率を特定してもよい。判定部212は、さらに、対象物に対する注視度合も合わせて判定することによって、より詳細な視聴率の情報を分析してもよい。判定部212は、複数の人130のそれぞれの撮像画像を解析することによって、人130の性別及び年齢等の属性情報を特定することによって、対象物を視聴する視聴者の属性分析を行ってもよい。
判定部212は、時系列に人130の顔を撮像した複数の撮像画像のそれぞれから検出された複数の顔器官点に基づいて、人130の生体判定を実行してもよい。例えば、判定部212は、人130が顔を振る動作をしていることを特定する。例えば、判定部212は、人130が瞬きをしていることを判定する。人130が顔を振る動作をしていること、又は、人130が瞬きをしていることを判定した場合、当該人130が、生きている人間であり、ポスターや写真等に写っている人ではないことを特定できる。
図10は、判定装置200として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16、17、18、19、20、21、22、23、24、25、26、27、28、29、30
31、32、33、34、35、36、37、38、39、40、41、42、43、44、45、46、47、48、49、50、51、52、53、54、55、56、57、58、59、60、61、62、63、64、65、66、67、68、69 顔器官点、100 システム、110 ネットワーク、120 ディスプレイ、130 人、200 判定装置、202 設定部、203 設定情報受信部、204 器官点情報取得部、206 撮像画像受信部、208 検出処理実行部、212 判定部、214 出力制御部、300 処理装置、400 カメラ、501 縦第1顔器官点、502 縦第2顔器官点、503 縦第3顔器官点、512 線分、523 線分、601 横第1顔器官点、602 横第2顔器官点、603 横第3顔器官点、612 線分、623 線分、701、702、703、704、705、706 右目器官点、710 右黒目、712 右黒目中心、721、722、731、732 線分、801、802、803、804、805、806 左目器官点、810 左黒目、812 左黒目中心、821、822、831、832 線分、1200 コンピュータ、1210 ホストコントローラ、1212 CPU、1214 RAM、1216 グラフィックコントローラ、1218 ディスプレイデバイス、1220 入出力コントローラ、1222 通信インタフェース、1224 記憶装置、1230 ROM、1240 入出力チップ

Claims (18)

  1. 人の顔を撮像した撮像画像から検出された複数の顔器官点に基づいて、前記人が対象物を見ているか否かを判定し、前記人が前記対象物を見ていると判定した場合において、時系列に前記人の顔を撮像した複数の撮像画像のそれぞれから検出された複数の顔器官点に基づいて、前記対象物に対する前記人の注視度合を判定する判定部であって、時系列の前記複数の撮像画像のそれぞれについて、顔の縦横比率及び傾きを特定することによって、前記人の顔の揺らぎを推定し、推定した前記揺らぎに基づいて前記対象物に対する前記人の注視度合を判定する判定部
    を備える判定装置。
  2. 前記判定部は、前記複数の顔器官点のうち、前記人の顔の中央領域の前記顔器官点と、前記人の顔の左側領域の前記顔器官点と、前記人の顔の右側領域の前記顔器官点とに基づいて、前記人が対象物を見ているか否かを判定する、請求項1に記載の判定装置。
  3. 前記判定部は、前記中央領域の縦方向に位置する縦第1顔器官点、縦第2顔器官点、及び縦第3顔器官点と、前記左側領域の横第1顔器官点、前記中央領域の横第2顔器官点、及び前記右側領域の横第3顔器官点と、に基づいて、前記人が対象物を見ているか否かを判定する、請求項2に記載の判定装置。
  4. 前記縦第1顔器官点は、前記人の顔の眉間に相当する位置の前記顔器官点であり、
    前記縦第2顔器官点は、前記人の顔の鼻頭に相当する位置の前記顔器官点であり、
    前記縦第3顔器官点は、前記人の顔の顎先に相当する位置の前記顔器官点である、請求項3に記載の判定装置。
  5. 前記横第2顔器官点は、前記人の顔の鼻根に相当する位置の前記顔器官点である、請求項4に記載の判定装置。
  6. 前記横第1顔器官点は、前記人の顔の左端に相当する位置の前記顔器官点であり、
    前記横第3顔器官点は、前記人の顔の右端に相当する位置の前記顔器官点である、請求項5に記載の判定装置。
  7. 前記判定部は、前記縦第1顔器官点と前記縦第2顔器官点とを結ぶ線分と、前記縦第2顔器官点と前記縦第3顔器官点とを結ぶ線分との第1比率と、前記横第1顔器官点と前記横第2顔器官点とを結ぶ線分と、前記横第2顔器官点と前記横第3顔器官点とを結ぶ線分との第2比率とに基づいて、前記人が対象物を見ているか否かを判定する、請求項3に記載の判定装置。
  8. 前記判定部は、前記第1比率が予め定められた縦方向比率範囲内であり、前記第2比率が予め定められた横方向比率範囲内である場合に、前記人が対象物を見ていると判定する、請求項7に記載の判定装置。
  9. 前記判定部は、前記複数の顔器官点のうち、前記人の顔の中央領域の前記顔器官点と、前記人の顔の左側領域の前記顔器官点と、前記人の顔の右側領域の前記顔器官点とに基づいて、前記人の顔の方向を判定し、前記複数の顔器官点のうち、前記人の目の位置に相当する複数の前記顔器官点と、前記撮像画像から抽出された前記人の黒目の位置とに基づいて、前記人の眼球の方向を判定し、前記人の顔の方向及び前記人の眼球の方向に基づいて、前記人が対象物を見ているか否かを判定する、請求項1に記載の判定装置。
  10. 前記判定部は、時系列に人の顔を撮像した複数の撮像画像のそれぞれから検出された複数の顔器官点に基づいて、前記人の生体判定を実行する、請求項1に記載の判定装置。
  11. 前記判定部は、時系列に人の顔を撮像した前記複数の撮像画像のそれぞれから検出された前記複数の顔器官点に基づいて、前記人が顔を振る動作、及び前記人が瞬きをする動作の少なくともいずれかを検出して、検出結果に基づいて、前記人の生体判定を実行する、請求項10に記載の判定装置。
  12. 前記撮像画像に対して顔器官点の検出処理を実行した処理装置から、前記複数の顔器官点の情報を受信する器官点情報受信部
    を備え、
    前記判定部は、前記器官点情報受信部が受信した前記複数の顔器官点の情報に基づいて、前記人が対象物を見ているか否かを判定する、請求項1に記載の判定装置。
  13. 前記撮像画像を受信する撮像画像受信部と、
    前記撮像画像受信部が受信した前記撮像画像に対して顔器官点の検出処理を実行する検出処理実行部と
    を備え、
    前記判定部は、前記検出処理実行部によって検出された前記複数の顔器官点に基づいて、前記人が対象物を見ているか否かを判定する、請求項1に記載の判定装置。
  14. 前記検出処理実行部は、機械学習によって生成された学習モデルを用いて、前記撮像画像から前記複数の顔器官点を検出する、請求項13に記載の判定装置。
  15. 対象となるカメラと対象物とが決定した後に、実験者が前記対象物の前に位置して、顔を上方向に向けた場合に前記対象物が見えなくなる境界の方向に顔を向けたときに前記カメラによって撮像された撮像画像から検出された複数の顔器官点と、前記実験者が前記対象物の前に位置して、顔を下方向に向けた場合に前記対象物が見えなくなる境界の方向に顔を向けたときに前記カメラによって撮像された撮像画像から検出された複数の顔器官点とを取得して、縦方向比率を算出し、実験者が前記対象物の前に位置して、顔を右方向に向けた場合に前記対象物が見えなくなる境界の方向に顔を向けたときに前記カメラによって撮像された撮像画像から検出された複数の顔器官点と、前記実験者が前記対象物の前に位置して、顔を左方向に向けた場合に前記対象物が見えなくなる境界の方向に顔を向けたときに前記カメラによって撮像された撮像画像から検出された複数の顔器官点とを取得して、横方向比率を算出し、算出した前記縦方向比率及び前記横方向比率から、視聴範囲を設定する設定部と、
    人の顔を撮像した撮像画像から検出された複数の顔器官点に基づいて、前記人が対象物を見ているか否かを判定する判定部と
    を備え、
    前記判定部は、前記複数の顔器官点のうち、前記人の顔の中央領域の上側に位置する縦第1顔器官点と前記中央領域の中央側に位置する縦第2顔器官点とを結ぶ線分と、前記縦第2顔器官点と前記中央領域の下側に位置する縦第3顔器官点とを結ぶ線分との第1比率が前記設定部によって設定された前記視聴範囲内であり、かつ、前記人の顔の左端に位置する横第1顔器官点と前記人の顔の前記中央領域の複数の顔器官点のうち、前記人の顔の左右方向の中心により近い横第2顔器官点とを結ぶ線分と、前記横第2顔器官点と前記人の顔の右端に位置する横第3顔器官点とを結ぶ線分との第2比率が前記設定部によって設定された前記視聴範囲内である場合に、前記人が前記対象物を見ていると判定する、判定装置。
  16. コンピュータを、請求項1から15のいずれか一項に記載の判定装置として機能させるためのプログラム。
  17. コンピュータによって実行される判定方法であって、
    人の顔を撮像した撮像画像から検出された複数の顔器官点に基づいて、前記人が対象物を見ているか否かを判定し、前記人が前記対象物を見ていると判定した場合において、時系列に前記人の顔を撮像した複数の撮像画像のそれぞれから検出された複数の顔器官点に基づいて、前記対象物に対する前記人の注視度合を判定する判定段階であって、時系列の前記複数の撮像画像のそれぞれについて、顔の縦横比率及び傾きを特定することによって、前記人の顔の揺らぎを推定し、推定した前記揺らぎに基づいて前記対象物に対する前記人の注視度合を判定する判定段階
    を備える判定方法。
  18. コンピュータによって実行される判定方法であって、
    対象となるカメラと対象物とが決定した後に、実験者が前記対象物の前に位置して、顔を上方向に向けた場合に前記対象物が見えなくなる境界の方向に顔を向けたときに前記カメラによって撮像された撮像画像から検出された複数の顔器官点と、前記実験者が前記対象物の前に位置して、顔を下方向に向けた場合に前記対象物が見えなくなる境界の方向に顔を向けたときに前記カメラによって撮像された撮像画像から検出された複数の顔器官点とを取得して、縦方向比率を算出し、実験者が前記対象物の前に位置して、顔を右方向に向けた場合に前記対象物が見えなくなる境界の方向に顔を向けたときに前記カメラによって撮像された撮像画像から検出された複数の顔器官点と、前記実験者が前記対象物の前に位置して、顔を左方向に向けた場合に前記対象物が見えなくなる境界の方向に顔を向けたときに前記カメラによって撮像された撮像画像から検出された複数の顔器官点とを取得して、横方向比率を算出し、算出した前記縦方向比率及び前記横方向比率から、視聴範囲を設定する設定段階と、
    人の顔を撮像した撮像画像から検出された複数の顔器官点に基づいて、前記人が対象物を見ているか否かを判定する判定段階と
    を備え、
    前記判定段階は、前記複数の顔器官点のうち、前記人の顔の中央領域の上側に位置する縦第1顔器官点と前記中央領域の中央側に位置する縦第2顔器官点とを結ぶ線分と、前記縦第2顔器官点と前記中央領域の下側に位置する縦第3顔器官点とを結ぶ線分との第1比率が前記設定段階において設定された前記視聴範囲内であり、かつ、前記人の顔の左端に位置する横第1顔器官点と前記人の顔の前記中央領域の複数の顔器官点のうち、前記人の顔の左右方向の中心により近い横第2顔器官点とを結ぶ線分と、前記横第2顔器官点と前記人の顔の右端に位置する横第3顔器官点とを結ぶ線分との第2比率が前記設定段階において設定された前記視聴範囲内である場合に、前記人が前記対象物を見ていると判定する、判定方法。
JP2022107635A 2022-07-04 2022-07-04 判定装置、プログラム、及び判定方法 Active JP7481398B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022107635A JP7481398B2 (ja) 2022-07-04 2022-07-04 判定装置、プログラム、及び判定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022107635A JP7481398B2 (ja) 2022-07-04 2022-07-04 判定装置、プログラム、及び判定方法

Publications (2)

Publication Number Publication Date
JP2024006591A JP2024006591A (ja) 2024-01-17
JP7481398B2 true JP7481398B2 (ja) 2024-05-10

Family

ID=89540257

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022107635A Active JP7481398B2 (ja) 2022-07-04 2022-07-04 判定装置、プログラム、及び判定方法

Country Status (1)

Country Link
JP (1) JP7481398B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176005A (ja) 2008-01-24 2009-08-06 Toyota Motor Corp 顔画像の特徴点検出方法およびその装置
JP2009289236A (ja) 2008-06-02 2009-12-10 Hitachi Omron Terminal Solutions Corp 自動処理装置
WO2011042989A1 (ja) 2009-10-09 2011-04-14 Kikuchi Kouichi 視認情景に対する視認者情感判定装置
WO2012105196A1 (ja) 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
WO2015186519A1 (ja) 2014-06-06 2015-12-10 シャープ株式会社 画像処理装置及び画像表示装置
JP2018032174A (ja) 2016-08-23 2018-03-01 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2018537781A (ja) 2016-01-21 2018-12-20 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 人の顔の回転角を決定するための方法およびデバイス、ならびにコンピュータ記憶媒体
CN109086727A (zh) 2018-08-10 2018-12-25 北京奇艺世纪科技有限公司 一种确定人体头部的运动角度的方法、装置及电子设备
JP2020518051A (ja) 2017-08-17 2020-06-18 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co.,Ltd. 顔姿勢検出方法、装置及び記憶媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176005A (ja) 2008-01-24 2009-08-06 Toyota Motor Corp 顔画像の特徴点検出方法およびその装置
JP2009289236A (ja) 2008-06-02 2009-12-10 Hitachi Omron Terminal Solutions Corp 自動処理装置
WO2011042989A1 (ja) 2009-10-09 2011-04-14 Kikuchi Kouichi 視認情景に対する視認者情感判定装置
WO2012105196A1 (ja) 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
WO2015186519A1 (ja) 2014-06-06 2015-12-10 シャープ株式会社 画像処理装置及び画像表示装置
JP2018537781A (ja) 2016-01-21 2018-12-20 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 人の顔の回転角を決定するための方法およびデバイス、ならびにコンピュータ記憶媒体
JP2018032174A (ja) 2016-08-23 2018-03-01 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020518051A (ja) 2017-08-17 2020-06-18 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co.,Ltd. 顔姿勢検出方法、装置及び記憶媒体
CN109086727A (zh) 2018-08-10 2018-12-25 北京奇艺世纪科技有限公司 一种确定人体头部的运动角度的方法、装置及电子设备

Also Published As

Publication number Publication date
JP2024006591A (ja) 2024-01-17

Similar Documents

Publication Publication Date Title
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
US11227158B2 (en) Detailed eye shape model for robust biometric applications
JP6900516B2 (ja) 注視点判定方法および装置、電子機器ならびにコンピュータ記憶媒体
CN111212594B (zh) 电子设备和利用电子设备确定结膜充血程度的方法
KR102209595B1 (ko) 강건한 생체인식 애플리케이션들을 위한 세밀한 눈 형상 모델
US9489574B2 (en) Apparatus and method for enhancing user recognition
US11574424B2 (en) Augmented reality map curation
CN109635669B (zh) 图像分类方法、装置及分类模型的训练方法、装置
JP2013504114A (ja) 目状態検出装置及び方法
JP5776323B2 (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
KR101288447B1 (ko) 시선 추적 장치와 이를 이용하는 디스플레이 장치 및 그 방법
JP6351243B2 (ja) 画像処理装置、画像処理方法
JPWO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP2021077265A (ja) 視線検出方法、視線検出装置、及び制御プログラム
US10037479B2 (en) Human-assisted learning in eye tracking applications
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
JP2012118927A (ja) 画像処理プログラムおよび画像処理装置
JP7481398B2 (ja) 判定装置、プログラム、及び判定方法
US20190289202A1 (en) Image sensor
CN115376210B (zh) 泳池防溺水的溺水行为识别方法、装置、设备及介质
JP2021077333A (ja) 視線検出方法、視線検出装置、及び制御プログラム
CN114242243A (zh) 用户健康评估方法、装置、设备以及存储介质
Panicker et al. Identification of cardio-pulmonary resuscitation (CPR) scenes in medical simulation videos using spatio-temporal gradient orientations
US20170068848A1 (en) Display control apparatus, display control method, and computer program product
Hu et al. Using eye gaze to play mind card-game using neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240425

R150 Certificate of patent or registration of utility model

Ref document number: 7481398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150