JP6214334B2 - 電子機器、判定方法及びプログラム - Google Patents

電子機器、判定方法及びプログラム Download PDF

Info

Publication number
JP6214334B2
JP6214334B2 JP2013220486A JP2013220486A JP6214334B2 JP 6214334 B2 JP6214334 B2 JP 6214334B2 JP 2013220486 A JP2013220486 A JP 2013220486A JP 2013220486 A JP2013220486 A JP 2013220486A JP 6214334 B2 JP6214334 B2 JP 6214334B2
Authority
JP
Japan
Prior art keywords
face
user
unit
image data
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013220486A
Other languages
English (en)
Other versions
JP2015082247A (ja
Inventor
高橋 正樹
正樹 高橋
クリピングデル サイモン
クリピングデル サイモン
苗村 昌秀
昌秀 苗村
柴田 正啓
正啓 柴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2013220486A priority Critical patent/JP6214334B2/ja
Publication of JP2015082247A publication Critical patent/JP2015082247A/ja
Application granted granted Critical
Publication of JP6214334B2 publication Critical patent/JP6214334B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像データを処理する電子機器、判定方法及びプログラムに関する。
TVで放送される映像コンテンツを評価する指標として、従来から「世帯視聴率」が用いられている。しかし、この視聴率計測にあたっては、「電源のOn又はOff」及び「視聴チャンネル」の情報しか考慮されておらず、視聴者がどのように映像コンテンツを視聴したかの情報は不明である。そのため、集中して観た番組も、いわゆる「ながら視聴」で漫然と観た番組も、視聴時間が同じであれば同一の評価がなされてしまうという問題があった。
そのため、世帯視聴率に代わる映像コンテンツ評価指標として、映像コンテンツと視聴者の接触の質である「視聴質」の計測が期待されている。しかし、この視聴質計測については長年議論されているが、その定義や計測方法を確立できずに現在まで至っている。例えば、視聴者の脈拍や発汗、脳波等の生体信号を基に番組への興味や集中度を測る研究が行われており、視聴者の心的状態を計測するのに有効と考えられているが、接触型センサを一般家庭で用いることは現実的ではない。
また、近年ではカメラから得られる情報から視線やまばたき等の微細な情動を計測し、これらの特徴から番組への興味度を測る手法等も存在する。しかし、これら微細な情動と心的状態との因果関係を証明することは難しく、有効な指標とはなり得ていない。
特許文献1は、映像コンテンツの編集内容に基づいて生起すると期待される感情期待値と、視聴者の感情実測値の関係から視聴判定する手法である。しかし、人間の感情は、表情等に表出するものもあるが基本的には心的内部状態であり、それを安定して計測することは難しい。
特許文献2は、奥行き情報を用いて人物の姿勢や顔向きを推定する手法である。奥行き情報を用いているため、画像情報のみに依存した方法より高い精度で顔向きを推定できるが、奥行きセンサデバイス新たに必要となる。
特開2008−205861号公報 特開2012−215555号公報
ところで、ディスプレイを見ているか否かに基づく視聴質計測は、第三者による客観評価も可能であり妥当と考えられるが、一般家庭で安定して顔向きを推定できる手法は未だ存在しない。
そこで、本発明は、ユーザの注視状態を評価することにより、例えば、視聴質によるコンテンツの評価を行うことができる電子機器、判定方法及びプログラムを提供することを一つの目的とする。
本発明に係る電子機器は、第1撮像部により生成された画像データと、前記第1撮像部による撮像方向の奥行きを走査して奥行き画像データを生成する第2撮像部により生成された奥行き画像データとに基づいて、3次元顔モデルを生成し、ユーザの顔向きを三次元空間で推定する第1顔向き推定部と、前記3次元顔モデルが生成されている領域を前記画像データから抽出し、当該抽出した領域から顔色情報を算出する顔色算出部と、前記顔色算出部により算出された顔色情報に基づいて、前記第1撮像部により生成された画像データに含まれているユーザを特定し、当該ユーザの顔向きを推定する第2顔向き推定部と、前記第1顔向き推定部により推定した顔向きと、前記第2顔向き推定部により推定した顔向きとに基づいて、ユーザが所定の方向を向いているかどうかを判定する判定部とを備える構成である。
かかる構成によれば、電子機器は、ユーザの顔の向きを判定することができるので、例えば、顔の向きによってテレビのディスプレイを注視しているかどうかを判定でき、テレビの電源の状態と、チャンネル情報を取得することにより、視聴質によるコンテンツの評価を行うことができる。
電子機器では、前記判定部は、複数のユーザが存在する場合、ユーザごとに所定の方向を見ているかどうかを判定する構成でもよい。
かかる構成によれば、電子機器は、複数のユーザの顔の向きを同時に判定することができるので、例えば、顔の向きによってどのユーザがテレビのディスプレイを注視しているかを判定でき、テレビの電源の状態と、チャンネル情報を取得することにより、視聴質によるコンテンツの評価を行うことができる。
本発明に係る判定方法は、画像データと、奥行き画像データとに基づいて、3次元顔モデルを生成し、ユーザの顔向きを三次元空間で推定する第1顔向き推定工程と、前記3次元顔モデルが生成されている領域を前記画像データから抽出し、当該抽出した領域から顔色情報を算出する顔色算出工程と、前記顔色算出工程により算出された顔色情報に基づいて、前記画像データに含まれているユーザを特定し、当該ユーザの顔向きを推定する第2顔向き推定工程と、前記第1顔向き推定工程により推定した顔向きと、前記第2顔向き推定工程により推定した顔向きとに基づいて、ユーザが所定の方向を向いているかどうかを判定する判定工程とを備える構成である。
かかる構成によれば、判定方法は、ユーザの顔の向きを判定することができるので、例えば、顔の向きによってテレビのディスプレイを注視しているかどうかを判定でき、テレビの電源の状態と、チャンネル情報を取得することにより、視聴質によるコンテンツの評価を行うことができる。
本発明に係るプログラムは、画像データと、奥行き画像データとに基づいて、3次元顔モデルを生成し、ユーザの顔向きを三次元空間で推定する第1顔向き推定工程と、前記3次元顔モデルが生成されている領域を前記画像データから抽出し、当該抽出した領域から顔色情報を算出する顔色算出工程と、前記顔色算出工程により算出された顔色情報に基づいて、前記画像データに含まれているユーザを特定し、当該ユーザの顔向きを推定する第2顔向き推定工程と、前記第1顔向き推定工程により推定した顔向きと、前記第2顔向き推定工程により推定した顔向きとに基づいて、ユーザが所定の方向を向いているかどうかを判定する判定工程とをコンピュータに実行させるためのものである。
かかる構成によれば、プログラムは、ユーザの顔の向きを判定することができるので、例えば、顔の向きによってテレビのディスプレイを注視しているかどうかを判定でき、テレビの電源の状態と、チャンネル情報を取得することにより、視聴質によるコンテンツの評価を行うことができる。
本発明によれば、ユーザの注視状態を評価することができる。
ユーザの視聴状態についての説明に供する図である。 電子機器と撮像機器の構成を示すブロック図である。 第2撮像部の構成を示すブロック図である。 3次元顔モデルを模式的に示す図である。 3次元顔モデルを模式的に示す図である。 第2顔向き推定部の構成を示す図である。 第2顔向き推定部によりユーザの顔領域を検出したときの様子を模式的に示す図である。 各機器により注視又は非注視を判定した結果を示す図である。 第三者のアノテータによる映像コンテンツ評価に対する相関係数と、電子機器による映像コンテンツ評価に対する相関係数とを示す図である。
本発明に係る電子機器1は、一般家庭で利用可能なデバイス(後述する撮像機器2)から得られる情報を用いて、第三者の視点からでも判断可能な、ユーザの基本的な視聴状態から視聴質を計測することができる。
ユーザが映像コンテンツを再生しているディスプレイ(テレビ画面)を見ているか否かは、ユーザとコンテンツの関わりにおいて最も基本的な指標である。
図1に示すように、一般的にユーザは、興味を持ってテレビを視聴する場合には、テレビの方へ顔を向け(図1中のA)、興味を持っていない場合には、テレビから他の対象へ顔を向ける(図1中のB)。そのため、ユーザの顔向きを推定し、テレビを見ているか否かを判定することが視聴質計測には有益と考えられる。この「見ているか」又は「見ていないか」の2値状態を本願では「注視状態」と呼ぶ。また、本願では、映像コンテンツの時間尺に占める注視状態の時間率を視聴質の指標として用いる。
以下、電子機器1の具体的な構成と動作について説明する。
電子機器1は、図2に示すように、第1顔向き推定部11と、顔色算出部12と、第2顔向き推定部13と、判定部14と、を備える。
第1顔向き推定部11は、第1撮像部21により生成された画像データと、第1撮像部21による撮像方向の奥行きを走査して奥行き画像データを生成する第2撮像部22により生成された奥行き画像データとに基づいて、3次元顔モデルMを生成し、ユーザの顔向きを三次元空間で推定する。
顔色算出部12は、3次元顔モデルMが生成されている領域を画像データから抽出し、当該抽出した領域(顔領域)から顔色情報を算出する。
第2顔向き推定部13は、顔色算出部12により算出された顔色情報に基づいて、第1撮像部21により生成された画像データに含まれているユーザを特定し、当該ユーザの顔向きを推定する。
判定部14は、第1顔向き推定部11により推定した顔向きと、第2顔向き推定部13により推定した顔向きとに基づいて、ユーザが所定の方向を向いているかどうかを判定する。
ここで、第1撮像部21と第2撮像部22の構成と動作について説明する。なお、本実施例では、第1撮像部21と第2撮像部22とは、撮像機器2として一体化されているものを想定するが、別々に構成されていてもよい。また、撮像機器2は、第1撮像部21により生成される画像データと、第2撮像部22により生成される奥行き画像データをそれぞれ電子機器1に出力するように構成される。
第1撮像部21は、被写体を撮像し、画像データを生成する。第1撮像部21は、イメージセンサであり、例えば、静止画及び動画を撮像する機能を有しており、所定の画素数(例えば、500万画素)で被写体を撮像することができる。
第2撮像部22は、図3に示すように、出射部31と、受光部32と、奥行き画像生成部33とを備える。
出射部31は、第1撮像部21による撮影方向に対して、所定の波長を有する光を出射する。
受光部32は、出射部31により出射された光が反射した光を受光する。
奥行き画像生成部33は、第1撮像部21により生成された画像データと、出射部31により出射された光と、受光部32により受光された光とに基づいて、奥行き画像データを生成する。
また、第2撮像部22は、パターン照射方式又はTOF(Time Of Flight)方式により奥行き画像データを生成する。
パターン照射方式の場合には、出射部31は、所定のパターンを持ったレーザー光を第1撮像部21による撮影方向に対して出射する。受光部32は、その反射光を受光する。奥行き画像生成部33は、出射光と反射光を比較して、光のひずみに基づいて対象までの距離を測定し、奥行き画像データを生成する。
また、TOF方式の場合には、奥行き画像生成部33は、出射部31から出射された光と、受光部32で受光された光の位相差を測定し、当該位相差を時間差に変換して、対象までの距離を測定し、奥行き画像データを生成する。
このような構成によれば、電子機器1は、ユーザの顔の向きを判定することができる。例えば、撮像機器2の正面(第1撮像部21と第2撮像部22が露出している面)がテレビと同じ向きになるように撮像機器2を配置する。このように配置することにより、電子機器1は、ユーザがテレビの方向を見ているかどうかを判定することができる。
また、電子機器1は、テレビの電源の状態(オン状態又はオフ状態)と、選択されているチャンネル番号の情報を取得することにより、ユーザが視聴している番組(コンテンツ)について、顔がテレビに向いているかどうかを判定することにより、視聴質によるコンテンツの評価を行うことができる。
判定部14は、複数のユーザが存在する場合、ユーザごとに所定の方向を見ているかどうかを判定する構成でもよい。
かかる構成によれば、電子機器は、複数のユーザの顔の向きを同時に判定することができるので、例えば、顔の向きによってどのユーザがテレビのディスプレイを注視しているかを判定でき、テレビの電源の状態と、チャンネル情報を取得することにより、視聴質によるコンテンツの評価を行うことができる。
ここで、第1顔向き推定部11の具体的な構成について説明する。
第1顔向き推定部11は、第1撮像部21により生成された画像データと、第2撮像部22により生成された奥行き画像データを解析して、ユーザの顔向きに関する10特徴量(3次元の座標位置(X,Y,Z)、3次元角度(Yaw,Pitch,Roll)、2次元画像上の顔領域位置(x,y)、2次元画像上の顔領域幅と高さ(w,h))を取得し、3次元顔モデルMを生成することにより、ユーザの顔向きを3次元空間で推定する。3次元顔モデルMをユーザの顔に重ねた様子を図4及び図5に模式的に示す。
3次元顔モデルMは、図4及び図5に示すように、ユーザの顔の特徴(目、鼻及び口等の輪郭)を表している。第1顔向き推定部11は、特徴追跡機能により、ユーザの顔の動きを追従して3次元顔モデルMの向きを変化させるので、3次元顔モデルMの向きによりユーザの顔向きを推定することができる。
また、第1顔向き推定部11は、通常の生活に差支えない程度の一定量の明るさが確保できれば、どんな環境でも頑健に顔領域位置の検出を行うことができ、顔色情報等を必要としない。
顔色算出部12は、3次元顔モデルMが生成されている領域にユーザの顔が存在しているので、当該領域を顔領域として第1撮像部21により生成された画像データから抽出し、抽出した顔領域の平均色(以下、顔色情報という。)を算出する。顔色算出部12は、算出した顔色情報を第2顔向き推定部13に出力する。
つぎに、第2顔向き推定部13の具体的な構成について説明する。
第2顔向き推定部13は、顔色算出部12により算出された顔色情報と、第1撮像部21により生成した画像データを解析して、ユーザの顔向きに関する6特徴量(latitude(顔が上又は下を向いているか否かの情報)、longitude(顔が左又は右を向いているか否かの情報)、画像データ内の顔領域位置(x,y)、画像データ内の顔領域幅・高さ(w,h))を取得し、取得した6特徴量に基づいて画像データから顔領域を検出し、顔領域内の特徴点の位置関係からユーザの顔向きを推定する。
ここで、第2顔向き推定部13の構成について説明する。第2顔向き推定部13は、図6に示すように、顔色情報入力部41と、顔領域検出部42と、顔部品追跡部43と、可変テンプレートDB44とを有する構成である。
顔色情報入力部41は、顔色算出部12で算出した顔色情報が入力される。
顔領域検出部42は、顔色情報入力部41に入力された顔色情報に基づいて、人物の顔が写っている顔領域を抽出する。
顔部品追跡部43は、顔領域検出部42によって検出された顔領域の特徴を抽出し、抽出した特徴を可変テンプレートDB44に登録した可変テンプレート(Deformable template)と照合することにより、検出された各顔領域に、どの向きで誰の顔が映っているかを推定する。
可変テンプレート(Deformable template)とは、顔領域内の9点の特徴点におけるGabor−wavelet特徴を上下左右に角度を変えて取得したものであり、人物識別用の個人向けPerson−dependent deformable templates(PDDTs)と、多数の顔であらかじめ登録したPerson−independent deformable templates(PIDTs)がある。不特定人物に対しては、PIDTsを用いたマッチングにより、その顔向きを推定できる。
顔部品追跡部43は、顔領域検出部42によって検出された顔領域の特徴を抽出し、抽出した特徴を可変テンプレートDB44に登録した人物特定可変テンプレートと照合することにより、検出された各顔領域に誰の顔が映っているかを推定し、抽出した特徴を可変テンプレートDB44に登録した人物不特定可変テンプレートと照合することにより、検出された各顔領域に、どの向きで顔が映っているかを推定する。
顔部品追跡部43は、正面に近い向きで顔が写っている顔領域と人物特定可変テンプレートとの照合により人物の認識を行い、その後、顔が正面の向きから回転して離れても、正面以外の向きで顔が写っている顔領域と人物不特定可変テンプレートとの照合により顔を追跡することで、顔領域と対応付けて人物の認識結果を保持することができる。
第2顔向き推定部13は、図7に示すように、画像データに含まれているユーザの顔領域Xを検出し、かつ顔向きを検出することに成功している。第2顔向き推定部13は、顔色情報を顔色算出部12から入力されるので、頑健に画像データからユーザの顔を検出することができる。
このようにして、電子機器1は、撮像機器2を用いることにより、映像コンテンツを再生しているディスプレイの前の人物の顔向きを様々な視聴環境で頑健に推定できる。さらに、電子機器1は、得られた顔向き情報から判定した視聴状態を利用して、ユーザと映像コンテンツとの接触の質である視聴質を計測することができる。
ここで、一般家庭を模した環境において実施した9時間分(3人×3時間)の実験による検証結果を示す。各ユーザに3時間の間に15番組を視聴し、視聴後に各番組を5段階で評価してもらい、この評価結果を視聴質の正解データとした。
具体的には、テレビの視聴状況をシミュレートするため、ユーザには、PCや携帯操作を行ったり、飲食をしたり、部屋から退席する等、自分の家にいるように自由に行動してもらい、視聴中の行動には制約条件を一切設けなかった。
また、撮像機器2により撮影した映像を第三者のアノテータ(2名)が視聴し、1秒単位でユーザがテレビを「見ているか」又は「見ていないか」を2値判定した。このアノテーションデータを注視状態推定の正解データとした。
電子機器1の判定部14は、3人×2時間分のデータを学習し、3人×1時間分のデータを検証用に用いて3−foldクロスバリデーションで視聴質を評価した。
電子機器1により判定した結果R5を図8に示す。また、ベースラインとして、「注視又は非注視」をランダムに出力するランダム推定器を用いて判定した結果R1と、常に「注視」と判定するFixed推定器を用いて判定した結果R2を示し、さらに、第2顔向き推定部13のみを用いて判定した結果R3と、第1顔向き推定部11のみを用いて判定した結果R4も図8に示す。
R3〜R5は、ベースラインの結果を15%以上上回っており、高い精度で注視状態を推定できていることが分かる。また、電子機器1は、第2顔向き推定部13のみを用いて判定した場合、及び第1顔向き推定部11のみを用いて判定した場合に比べ、精度が高いことが分かる。
第1顔向き推定部11は、動きの少ないユーザに対して検出漏れが生じやすいデメリットがある。第2顔向き推定部13は、動きに影響されないというメリットがある。電子機器1は、このような両推定部の特徴を利用して、うまく補完した結果と言える。
また、第2顔向き推定部13は、顔色算出部12により算出された顔色情報を利用して顔向き推定を行っているので、単体でも精度よく顔向きの推定ができていると言える。
また、視聴状態に基づく視聴質の推定精度を示す。本願で定義する視聴質Rを(1)式で表す。
Figure 0006214334
また、第三者のアノテータにより2値判定した値と、ユーザ自身が各番組に対して5段階評価した値に基づいて算出した相関係数C1は、0.77であった(図9を参照)。このような高い相関が得られたということは、テレビを「見ているか」又は「見ていないか」という注視状態を視聴質として判定することは、映像コンテンツ評価に有効であることを示している。
また、電子機器1により判定した値と、ユーザ自身が各番組に対して5段階評価した値に基づいて算出した相関係数C2は、0.62であった(図9を参照)。よって、電子機器1により判定した値は、第三者のアノテータにより2値判定した値に近似していると言える。これにより、電子機器1の有効性が確認できた。
このようにして、電子機器1は、汎用的な奥行きセンサを有するデバイス(撮像機器2)から得られる情報を用いて、ユーザの顔向きを推定することができ、視聴質によるコンテンツ評価に利用することができる。
また、電子機器1は、奥行き情報を用いて3次元空間で推定した顔向きと、平面的な画像情報から推定した顔向きとを並行して処理することにより、互いの精度を補完し合い、高精度にユーザの顔向きを推定することができる。
また、上述したように、発明者等は、一般家庭を模した環境において行った実験により、電子機器1が高い精度で注視状態を判定でき、本人の自己評価と高い相関で映像コンテンツを評価できることを確認した。
また、電子機器1は、映像コンテンツ評価のみならず、VDT(Visual Display Terminals)作業における集中度や広告に対する関心度推定等、様々なサービスへ応用可能である。
また、本実施例では、主にユーザの注視状態を評価する電子機器の構成と動作について説明したが、これに限られず、各構成要素を備え、ユーザの注視状態を評価するための方法、及びプログラムとして構成されてもよい。
さらに、電子機器の機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。
ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータで読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1 電子機器
2 撮像機器
11 第1顔向き推定部
12 顔色算出部
13 第2顔向き推定部
14 判定部
21 第1撮像部
22 第2撮像部
31 出射部
32 受光部
33 奥行き画像生成部
41 顔色情報入力部
42 顔領域検出部
43 顔部品追跡部
44 可変テンプレートDB

Claims (4)

  1. 第1撮像部により生成された画像データと、前記第1撮像部による撮像方向の奥行きを走査して奥行き画像データを生成する第2撮像部により生成された奥行き画像データとに基づいて、3次元顔モデルを生成し、ユーザの顔向きを三次元空間で推定する第1顔向き推定部と、
    前記3次元顔モデルが生成されている領域を前記画像データから抽出し、当該抽出した領域から顔色情報を算出する顔色算出部と、
    記第1撮像部により生成された画像データに含まれているユーザを特定し、当該ユーザの顔向きを推定する第2顔向き推定部と、
    前記第1顔向き推定部により推定した顔向きと、前記第2顔向き推定部により推定した顔向きとに基づいて、ユーザが所定の方向を向いているかどうかを判定する判定部と、
    を備え、
    前記第2顔向き推定部は、さらに、
    前記顔色算出部により算出された顔色情報に基づいて、ユーザの顔が写っている顔領域を抽出する顔領域検出部と、
    前記顔領域検出部により検出された前記顔領域の特徴を抽出し前記抽出された特徴を、予め作成された、各人物の顔領域内の特徴量が登録された人物特定可変テンプレートと照合することにより、検出された前記顔領域に映っているユーザを推定し、
    前記抽出された特徴を、予め作成された、多数の顔に基づいて特徴量が登録された人物不特定可変テンプレートと照合することにより、検出された前記顔領域に映っている前記ユーザの顔向きを推定する顔部品追跡部と、を備える電子機器。
  2. 前記判定部は、複数のユーザが存在する場合、ユーザごとに所定の方向を見ているかどうかを判定する請求項1記載の電子機器。
  3. 第1撮像部により生成された画像データと、前記第1撮像部による撮像方向の奥行きを走査して奥行き画像データを生成する第2撮像部により生成された奥行き画像データとに基づいて、電子機器によりユーザの顔向きを判定する方法であって、
    前記電子機器が、
    前記第1撮像部により生成された画像データと、前記第2撮像部により生成された奥行き画像データとに基づいて、3次元顔モデルを生成し、ユーザの顔向きを三次元空間で推定する第1顔向き推定工程と、
    前記3次元顔モデルが生成されている領域を前記画像データから抽出し、当該抽出した領域から顔色情報を算出する顔色算出工程と、
    記画像データに含まれているユーザを特定し、当該ユーザの顔向きを推定する第2顔向き推定工程と、
    前記第1顔向き推定工程により推定した顔向きと、前記第2顔向き推定工程により推定した顔向きとに基づいて、ユーザが所定の方向を向いているかどうかを判定する判定工程とを備え、
    前記第2顔向き推定工程は、さらに、
    前記顔色算出工程において算出された顔色情報に基づいて、ユーザの顔が写っている顔領域を抽出する顔領域検出工程と、
    前記顔領域検出工程において検出された前記顔領域の特徴を抽出し前記抽出された特徴を、予め作成された、各人物の顔領域内の特徴量が登録された人物特定可変テンプレートと照合することにより、検出された前記顔領域に映っているユーザを推定し、
    前記抽出された特徴を、予め作成された、多数の顔に基づいて特徴量が登録された人物不特定可変テンプレートと照合することにより、検出された前記顔領域に映っている前記ユーザの顔向きを推定する顔部品追跡工程と、を備える判定方法。
  4. コンピュータを、請求項1又は請求項2に記載の電子機器として機能させるためのプログラム。
JP2013220486A 2013-10-23 2013-10-23 電子機器、判定方法及びプログラム Expired - Fee Related JP6214334B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013220486A JP6214334B2 (ja) 2013-10-23 2013-10-23 電子機器、判定方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013220486A JP6214334B2 (ja) 2013-10-23 2013-10-23 電子機器、判定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015082247A JP2015082247A (ja) 2015-04-27
JP6214334B2 true JP6214334B2 (ja) 2017-10-18

Family

ID=53012807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013220486A Expired - Fee Related JP6214334B2 (ja) 2013-10-23 2013-10-23 電子機器、判定方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6214334B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10318831B2 (en) * 2016-07-21 2019-06-11 Gestigon Gmbh Method and system for monitoring the status of the driver of a vehicle
CN108764069B (zh) * 2018-05-10 2022-01-14 北京市商汤科技开发有限公司 活体检测方法及装置
US10930010B2 (en) 2018-05-10 2021-02-23 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for detecting living body, system, electronic device, and storage medium
US20230215038A1 (en) * 2020-06-11 2023-07-06 Sony Group Corporation Image processing apparatus, image processing method, and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011071795A (ja) * 2009-09-28 2011-04-07 Hitachi Consumer Electronics Co Ltd 放送受信装置

Also Published As

Publication number Publication date
JP2015082247A (ja) 2015-04-27

Similar Documents

Publication Publication Date Title
US8667519B2 (en) Automatic passive and anonymous feedback system
US10885802B2 (en) System and method for validating honest test taking
US9202121B2 (en) Liveness detection
JP5024067B2 (ja) 顔認証システム、方法及びプログラム
US20150006281A1 (en) Information processor, information processing method, and computer-readable medium
US9750420B1 (en) Facial feature selection for heart rate detection
CN109891189B (zh) 策划的摄影测量
JP6267861B2 (ja) 対話型広告のための使用測定技法およびシステム
US9639770B2 (en) System and method for improving communication productivity
KR101766347B1 (ko) 집중도 평가시스템
WO2016107638A1 (en) An image face processing method and apparatus
KR20190020779A (ko) 인게이지먼트값 처리 시스템 및 인게이지먼트값 처리 장치
CN107851324B (zh) 信息处理系统、信息处理方法和记录介质
Lawanont et al. Neck posture monitoring system based on image detection and smartphone sensors using the prolonged usage classification concept
Chen et al. Statistical and structural information backed full-reference quality measure of compressed sonar images
JP6214334B2 (ja) 電子機器、判定方法及びプログラム
JP2007310454A (ja) 画像評価装置および被験者集中度算出装置、並びに、画像評価プログラムおよび被験者集中度算出プログラム
JP2012123727A (ja) 広告効果測定サーバ、広告効果測定装置、プログラム、広告効果測定システム
KR20190088478A (ko) 인게이지먼트 측정 시스템
JP6583996B2 (ja) 映像評価装置、及びプログラム
US9361705B2 (en) Methods and systems for measuring group behavior
JP2015015031A (ja) 広告効果測定サーバ、広告効果測定システム、プログラム
TWI384383B (zh) 視線察覺裝置及其方法
JP2009301242A (ja) 頭部候補抽出方法、頭部候補抽出装置、頭部候補抽出プログラムおよびそのプログラムを記録した記録媒体
US20230135997A1 (en) Ai monitoring and processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170919

R150 Certificate of patent or registration of utility model

Ref document number: 6214334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees