JP7107380B2 - 推定装置、推定方法、およびプログラム - Google Patents
推定装置、推定方法、およびプログラム Download PDFInfo
- Publication number
- JP7107380B2 JP7107380B2 JP2020547686A JP2020547686A JP7107380B2 JP 7107380 B2 JP7107380 B2 JP 7107380B2 JP 2020547686 A JP2020547686 A JP 2020547686A JP 2020547686 A JP2020547686 A JP 2020547686A JP 7107380 B2 JP7107380 B2 JP 7107380B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- perturbation
- region
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Description
図1は、第1実施形態に係る推定装置100の構成を示すブロック図である。推定装置100は、画像に含まれる人物の視線及び顔向きの少なくとも一方を推定するための装置である。本実施形態の説明では、人物の視線の方向と、人物の顔の方向(すなわち、上述の顔向き)を、まとめて、人物の方向とも表記する。また、人物の視線の方向を、単に、視線とも表記する。さらに、人物の顔の方向を、単に、顔向きとも表記する。図1に示すように、推定装置100は、取得部110と、検出部120と、摂動部130と、抽出部140と、推定部150と、統合部160と、出力部170とを含む。推定装置100は、他の構成要素を含んでもよい。
取得部110は、人物の顔を含む画像の画像データを取得する。取得部110は、例えば、通信ネットワークを介して推定装置100と接続され、画像データを出力する他の装置から、画像データを受け取ってもよい。取得部110は、例えば、通信ネットワークを介して推定装置100と接続され、画像データを記憶する他の装置から、画像データを読み出してもよい。他の装置は、撮影した画像の画像データを出力する、監視カメラ、または、電子機器に内蔵されるカメラ等の撮像装置であってもよい。他の装置は、例えばデータベース等として、画像データが格納された記憶装置であってもよい。取得部110は、検出部120へ、取得した画像データを送出する。
図2は、取得部110が入力画像から生成する顔画像の例(顔画像400)を示す。図2に示す顔画像400は、顔のパーツ(目、眉、鼻、および口)を含んでいる。顔画像は、推定部150が視線又は顔向きを推定するのに必要な情報を少なくとも含んでいれば良い。例えば、推定部150が視線を推定する場合は、顔画像の目の領域のみが使用される。従って、推定部150が視線を推定する場合、顔画像は、少なくとも目を含んでいればよい。以下の説明では、目の領域の画像を、目領域画像とも表記する。
検出部120は、取得部110から供給される顔画像(例えば、図2に示す顔画像400)を受け取り、受け取った顔画像から、顔の特徴点を検出する。顔の特徴点は、顔又は顔の部品において定められている特徴点である。
摂動部130は、検出部120から、検出部120が検出した特徴点(例えば、目の特徴点又は顔の特徴点)の情報を受け取る。摂動部130は、抽出部140によって抽出される部分画像の領域に加える摂動の量(以下では、「摂動量」と表記)を、受け取った特徴点の情報に基づいて計算する。摂動量の計算については、後で詳細に説明する。
摂動部130は、例えば、抽出部140によって抽出される部分画像の領域の位置に与える摂動の大きさを表す摂動量を、顔の大きさを表す値(以下、顔の大きさとも表記)に基づいて求める。摂動部130は、例えば、画像における両目の間隔を、顔の大きさに決定する。具体的には、摂動部130は、検出部120が検出した目の特徴点のうち、右目の瞳の位置(例えば、図3の部分画像410の点P1)と左目の瞳の位置(例えば、図3の部分画像420の点P2)との間の距離を、顔の大きさとして用いてもよい。本実施形態では、距離は、例えば、ユークリッド距離である。距離は、他の距離であってもよい。
ここで、iは、摂動が含む変動に付与された番号であり、uxiおよびuyiは、領域の位置に加える摂動の、i番目の変動の大きさを決定するために予め定められたパラメータであり、「×」は掛け算を表す演算子である。(dxi,dyi)は、i番目の変動を表す位置の摂動量である。パラメータuxiとuyiは、同じ値であってもよい。パラメータuxiとuyiは、別の値であってもよい。上述のように、摂動は、複数の変動を含んでいてもよい。その場合の複数のパラメータの例を、以下に示す。
(ux1,uy1)=(0.1,0.0)
(ux2,uy2)=(0.0,0.1)
(ux3,uy3)=(0.1,0.1)
なお、以上の例において、(ux0,uy0)が表す変動は、部分画像が抽出される領域の位置を変更しない。
摂動部130は、例えば、抽出部140で抽出する部分画像の大きさに加える摂動を表す摂動量を、顔の大きさに基づいて求めてもよい。顔の大きさの算出方法は、上述の算出方法と同じでよい。顔の大きさをSとしたとき、摂動部130は、部分画像の大きさに加える摂動を表す摂動量として、摂動が表す、領域のサイズのx軸方向の変化量sxとy軸方向の変化量syを、例えば以下の式により求めてもよい。
ここで、大きさの摂動量(sxi,syi)は、領域の大きさに加えられる摂動のi番目の変動の大きさを表す。vxiおよびvyiは、領域の大きさに加える摂動の、i番目の変動の大きさを決定するために予め定められたパラメータである。パラメータvxiとvyiは、同じ値であってもよい。パラメータvxiとvyiは、別の値であってもよい。上述のように、摂動は、複数の変動を含んでいてもよい。その場合の複数のパラメータの例を、以下に示す。
(vx1,vy1)=(0.1,0.0)
(vx2,vy2)=(0.0,0.1)
(vx3,vy3)=(0.1,0.1)
なお、領域の位置に加える摂動の大きさを決定するパラメータ(uxi,uyi)や、領域の大きさに加える摂動の大きさを決定するパラメータ(vxi,vyi)は、予め定められていてもよい。例えば摂動部130が、顔画像400の性質や、何らかの指標に基づいて、これらのパラメータを決定してもよい。
抽出部140は、取得部110から、顔画像(図2に顔画像400として例示)を受け取る。抽出部140は、摂動部130から、摂動量(具体的には、摂動量の情報)を受け取る。抽出部140は、検出部120から、特徴点の情報を受け取る。
推定部150が視線を推定する場合、上述のように、抽出部140が抽出する部分画像は、右目付近の領域の画像及び左目付近の領域の画像(以下、目領域画像とも表記する)である。
X0=Y0=S×k ・・・・ (1)
ここで、Sは顔の大きさを表し、kは所定の定数を表す。式(1)によれば、部分画像の幅X0および高さY0は、顔の大きさSに比例する。定数kは、適宜定められていてよい。定数kは、例えば0.75であってよい。定数kは、他の値であってもよい。また、X0及びY0を計算するための式は、式(1)に限られない。
この場合、特徴点P1と右目の部分領域が抽出される領域の基準座標A~Dとの間の相対位置は、4つのベクトル(-X0/2,Y0/2)、(X0/2,Y0/2)、(X0/2,-Y0/2)、(-X0/2,-Y0/2)によって表される。同様に、特徴点P2と左目の部分領域が抽出される領域の基準座標A~Dとの間の相対位置は、4つのベクトル(-X0/2,Y0/2)、(X0/2,Y0/2)、(X0/2,-Y0/2)、(-X0/2,-Y0/2)によって表される。
(B´xi,B´yi)=(Bx,By)+(dxi,dyi)
(C´xi,C´yi)=(Cx,Cy)+(dxi,dyi)
(D´xi,D´yi)=(Dx,Dy)+(dxi,dyi)
また、領域の大きさに摂動を加える場合は、抽出部140は、領域の中心が移動しないように基準座標A~Dに変動を加えることによって、領域の大きさを変化させる。具体的には、抽出部140は、例えば、以下のように、基準座標A~Dに、大きさの摂動量(sxi,syi)から計算される量を加算する。摂動が、複数の変動を表す値として、大きさの摂動量(dxi,dyi)を含む場合、抽出部140は、基準座標A~Dに、複数の大きさの摂動量(dxi,dyi)から計算される量の各々を加算する。
(B´xi,B´yi)=(Bx,By)+( 0.5×sxi,-0.5×syi)
(C´xi,C´yi)=(Cx,Cy)+( 0.5×sxi, 0.5×syi)
(D´xi,D´yi)=(Dx,Dy)+(-0.5×sxi, 0.5×syi)
上記式は、領域に摂動を加えることによる領域の大きさの変化が、大きさの摂動量(sxi,syi)によって表されることを示す。
推定部150が顔向きを推定する場合、抽出部140は部分画像として顔全体の領域の画像を抽出する。顔向きを推定する場合の部分画像の抽出は、式(1)におけるkの大きさ、及び、基準座標A~Dの中心位置、の二点において、視線を推定する場合の部分画像の抽出と異なる。
抽出部140が部分画像を抽出する領域を表す基準座標A~Dは、検出部120が検出する特徴点に基づいて計算される。例えば、撮影の条件が悪い場合、遮蔽物が存在する場合、及び、特徴点が抽出される顔画像の画質が低い場合等に、検出部120が顔の特徴点を精度よく検出できず、実際の特徴点の位置と検出された特徴点の位置との間に、ずれが生じることがある。検出された特徴点の位置にずれが生じた場合、部分画像が抽出される領域の位置や大きさに、特徴点の位置を正確に検出できた場合の領域の位置や大きさに対する乖離が生じることがある。このような場合、視線や顔向きの推定に必要な顔の部位が、部分画像に含まれない可能性がある。部分画像における、視線や顔向きの推定に必要な顔の部位の場所が、視線や顔向きの推定に適さない場所である可能性もある。言い換えると、特徴点を正確に検出できない場合、推定部150が正確に視線や顔方向を推定できる部分画像を得ることができるとは限らない。例えば、視線を推定する場合、部分画像における目の位置がずれることによって、推定部150が視線の推定を正しく行えるとは限らない。同様に、特徴点を精度よく検出できない場合、顔向きを正しく推定できるとは限らない。
推定部150は、顔画像に含まれる人物の方向(例えば、人物の視線、及び、人物の顔向きの少なくとも一方)を推定する。視線は、人物の目が見ている方向を表す。顔向きは、人物の顔が向いている方向を表す。具体的には、推定部150は、抽出部140が正規化した複数の部分画像(すなわち、抽出部140によって抽出された複数の画像)に基づいて、人物の方向を推定する。
推定器が視線を推定する場合、推定される視線が、ベクトル(gx,gy)によって表される。gxが水平方向の視線の角度であり、gyが垂直方向の視線の角度である。ベクトル(gx,gy)は、顔の正面に対する視線のずれの方向を表してもよい。この場合、視線が顔の正面を向いているならば、(gx,gy)=(0,0)である。視線が真上を向いているならば、(gx,gy)=(0,+90)である。視線が真下を向いているならば、(gx,gy)=(0,-90)である。また、視線が右真横を向いているならば、(gx,gy)=(-90,0)である。視線が左真横を向いているならば、(gx,gy)=(90,0)である。
推定器が顔向きを推定する場合、本実施形態では、推定される顔向きが、ベクトル(gx,gy)によって表される。gxが水平方向の顔向きの角度で、gyが垂直方向の顔向きの角度である。ベクトル(gx,gy)は、顔がカメラを真っ直ぐ向いている状態(すなわち、顔の正面の方向にカメラがある状態)における顔の正面の方向を基準とし、顔の正面の方向の、その基準からの角度を表してもよい。顔がカメラを真っ直ぐ向いているならば、(gx,gy)=(0,0)である。顔が真上を向いているならば、(gx,gy)=(0,+90)である。顔が真下を向いているならば、(gx,gy)=(0,-90)である。また、顔が右真横を向いているならば、(gx,gy)=(-90,0)である。顔が左真横を向いているならば、(gx,gy)=(90,0)である。
本実施形態では、例えば推定部150が、推定器を、教師あり学習の何れかの手法により、人物の方向(例えば、視線または顔向き)を推定するように、予め学習しておく。以下では、教師あり学習の方法として、一般化学習ベクトル量子化(GLVQ;Generalized Learning Vector Quantization)を使用して、視線又は顔向きの角度と、その信頼度とを推定する場合の学習の例について説明する。信頼度とは、推定器が推定する視線又は顔向きの角度が、どの程度信頼できるかを示す値である。使用する学習方法は、視線又は顔向きの角度と、その信頼度とを推定できる学習方法であれば、GLVQ以外の方法であってもよい。例えばサポートベクトルマシン(Support Vector Machine, SVM)を用いることも可能である。
例えば、ベクトル(gx,gy)が(-15,-15)である場合、そのベクトルが分類されるクラスは、水平方向の範囲が-20度から-10度であり、垂直方向の範囲が垂直-20度から-10度であるクラスである。そのクラスには、番号として8が割り当てられている。負例のクラスに割り当てられる番号は、例えば、0である。
推定器は、GLVQにより決定した参照ベクトルmを用いて、人物の方向(すなわち、視線又は顔向き)の角度を推定し、さらに式(2)に従って信頼度を推定する。
推定器は、GLVQにより決定した参照ベクトルmを用いて、後述の式(3)に従ってクラスごとの評価値Jkを計算し、計算した評価値Jkに基づいて、より詳細な角度を推定しても良い。
統合部160は、推定部150によって推定された人物の方向(すなわち、視線又は顔向き)と信頼度とを示すデータ(以下「推定データ」とも表記する)を、推定部150から受け取る。統合部160は、受け取った推定データに含まれる人物の方向を、推定データに含まれる信頼度に基づいて統合する。なお、上述のように、人物の方向は、角度によって表されている。統合部160は、推定部150から、視線の方向及び顔向きの両方を受け取ってもよい。その場合、統合部160は、視線の方向と、顔向きとを、別々に統合する。
出力部170は、統合部160によって統合された視線又は顔向きを示すデータ(以下「統合データ」とも表記する)を、統合部160から受け取る。出力部170は、統合データを出力する。推定データは、例えば、統合部160により統合された、人物の方向(すなわち、視線又は顔向き)を、所定のフォーマットに従って表すデータである。具体的には、出力部170は、推定データを、例えば、表示装置等の他の装置に出力してもよい。すなわち、出力部170は、推定データを、他の装置に供給してもよい。
図6は、本実施形態の推定装置100の動作の例を表すフローチャートである。言い換えると、図6は、本実施形態に係る推定装置100が実行する、人物の方向(視線及び顔向きの少なくとも一方)を推定する推定方法を示すフローチャートである。推定装置100は、例えば、図6に示す各ステップの処理を、図6に示すフローにしたがって順番に実行することにより、顔画像から人物の方向を推定してもよい。
第1実施形態は、例えば、以下の変形例のように変形できる。以下で説明する変形例の2つ以上を、適宜組み合わせることも可能である。
右目および左目の中心などの特徴点の位置や、部分画像が抽出される領域の位置を、ユーザが入力してもよい。この場合、推定装置100は、特徴点を検出する必要がなく、また部分画像を生成する必要がない。
部分画像の形状は、必ずしも矩形に限定されない。部分画像から、顔の一部(例えば、人物の方向の推定に直接的に影響しない、眉などの部分)が、除外されていてもよい。また、視線の推定に使用される部分画像は、片目(左目または右目)のみを含む部分画像ではなく、両目を含む部分画像であってもよい。
推定装置100により推定された視線や顔向きの用途は特に限定されない。例えば、推定装置100は、店舗に設置された監視カメラによって撮像された人物の視線を推定し、推定した視線から不審人物を判定するシステムに適用されてもよい。
推定装置100の具体的なハードウェア構成には、さまざまなバリエーションが含まれてよく、特定の構成に限定されない。例えば、推定装置100は、ソフトウェアを用いて実現されてもよい。推定装置100は、複数のハードウェアが、それぞれ、複数の処理のいずれかを分担するように構成されてもよい。なお、本変形例の構成に関して、後の他の実施形態の説明において詳細に説明する。
本実施形態に係る推定装置100は、部分画像が抽出される領域の位置や大きさなどに摂動を加えることによって得られる複数の領域から複数の部分画像を抽出する。推定装置100は、抽出した複数の部分画像から人物の方向(すなわち、視線又は顔向き)を推定する。推定装置100は、推定した人物の方向を信頼度に基づいて統合することで、人物の方向(例えば、視線又は顔向き)の推定の結果を得る。推定装置100は、このようにして、領域に摂動を加えることによって得られる領域から抽出された複数の部分画像に基づく推定結果を信頼度に応じて統合することによって、頑健(ロバスト)な推定結果を安定して得ることができる。
次に、本開示の第2実施形態について、図面を参照して詳細に説明する。
図7は、本実施形態の推定装置101の構成の例を表すブロック図である。
図8は、本実施形態の推定装置101の動作の例を表すフローチャートである。
本実施形態の推定装置101は、人物の画像における視線や顔向きを推定する精度の、画像の状態による低下を抑制することができる。
第1の実施形態の推定装置100は、プログラムがロードされたメモリと、そのプログラムを実行するプロセッサとを含む、コンピュータによって実現できる。推定装置100は、互いに通信可能に接続されている複数のコンピュータによっても実現できる。推定装置100は、専用のハードウェアによっても実現できる。推定装置100は、上述のコンピュータと専用のハードウェアとの組み合わせによっても実現できる。
顔画像から抽出された特徴点の位置に基づいて定まる部分画像の抽出領域に摂動を加えることにより、複数の抽出領域を生成する摂動手段と、
前記顔画像の複数の抽出領域における複数の部分画像に基づいて、顔及び視線の少なくとも一方の、複数の方向と、当該複数の方向の各々の信頼度とを推定する推定手段と、
推定された前記信頼度に基づいて、前記複数の方向が統合された統合方向を算出する統合手段と、
を備える推定装置。
前記摂動手段は、前記特徴点の位置に基づいて、当該特徴点の位置に基づいて定まる抽出領域に加える前記摂動を決定する
付記1に記載の推定装置。
前記摂動手段は、前記顔画像から前記顔の領域である顔領域を抽出し、当該顔領域から前記特徴点を抽出し、抽出した前記特徴点の位置に基づいて前記顔のサイズを推定し、推定した前記サイズに基づいて、前記摂動を決定する
付記1又は2に記載の推定装置。
前記摂動は、前記抽出領域の大きさの変更、前記抽出領域の位置の変更、前記抽出領域の角度の変更、及び、前記抽出領域から抽出される部分画像に対する画像処理の少なくともいずれかである
付記1乃至3のいずれか1項に記載の推定装置。
入力画像を取得し、当該入力画像から前記顔画像を抽出する取得手段と、
前記顔画像から前記特徴点を抽出する抽出手段と、
前記統合方向を出力する出力手段と、
をさらに備える付記1乃至4のいずれか1項に記載の推定装置。
前記推定手段は、前記顔の複数の方向と、前記視線の複数の方向とを推定し、
前記統合手段は、前記顔の複数の方向が統合された統合顔方向と、前記視線の複数の方向が統合された統合視線方向とを算出し、
前記出力手段は、前記統合顔方向を示す第1のマークと、前記統合視線方向を示す第2のマークとを、前記入力画像に重畳し、前記第1のマークと第2のマークとが重畳された前記入力画像を出力する
付記5に記載の推定装置。
顔画像から抽出された特徴点の位置に基づいて定まる部分画像の抽出領域に摂動を加えることにより、複数の抽出領域を生成し、
前記顔画像の複数の抽出領域における複数の部分画像に基づいて、顔及び視線の少なくとも一方の、複数の方向と、当該複数の方向の各々の信頼度とを推定し、
推定された前記信頼度に基づいて、前記複数の方向が統合された統合方向を算出する、
推定方法。
前記特徴点の位置に基づいて、当該特徴点の位置に基づいて定まる抽出領域に加える前記摂動を決定する
付記7に記載の推定方法。
前記顔画像から前記顔の領域である顔領域を抽出し、当該顔領域から前記特徴点を抽出し、抽出した前記特徴点の位置に基づいて前記顔のサイズを推定し、推定した前記サイズに基づいて、前記摂動を決定する
付記7又は8に記載の推定方法。
前記摂動は、前記抽出領域の大きさの変更、前記抽出領域の位置の変更、前記抽出領域の角度の変更、及び、前記抽出領域から抽出される部分画像に対する画像処理の少なくともいずれかである
付記7乃至9のいずれか1項に記載の推定方法。
入力画像を取得し、当該入力画像から前記顔画像を抽出する、
前記顔画像から前記特徴点を抽出し、
前記統合方向を出力する
付記7乃至10のいずれか1項に記載の推定方法。
前記顔の複数の方向と、前記視線の複数の方向とを推定し、
前記顔の複数の方向が統合された統合顔方向と、前記視線の複数の方向が統合された統合視線方向とを算出し、
前記統合顔方向を示す第1のマークと、前記統合視線方向を示す第2のマークとを、前記入力画像に重畳し、前記第1のマークと第2のマークとが重畳された前記入力画像を出力する
付記11に記載の推定方法。
コンピュータに、
顔画像から抽出された特徴点の位置に基づいて定まる部分画像の抽出領域に摂動を加えることにより、複数の抽出領域を生成する摂動処理と、
前記顔画像の複数の抽出領域における複数の部分画像に基づいて、顔及び視線の少なくとも一方の、複数の方向と、当該複数の方向の各々の信頼度とを推定する推定処理と、
推定された前記信頼度に基づいて、前記複数の方向が統合された統合方向を算出する統合処理と、
を実行させるプログラムを記憶する記憶媒体。
前記摂動処理は、前記特徴点の位置に基づいて、当該特徴点の位置に基づいて定まる抽出領域に加える前記摂動を決定する
付記13に記載の記憶媒体。
前記摂動処理は、前記顔画像から前記顔の領域である顔領域を抽出し、当該顔領域から前記特徴点を抽出し、抽出した前記特徴点の位置に基づいて前記顔のサイズを推定し、推定した前記サイズに基づいて、前記摂動を決定する
付記13又は14に記載の記憶媒体。
前記摂動は、前記抽出領域の大きさの変更、前記抽出領域の位置の変更、前記抽出領域の角度の変更、及び、前記抽出領域から抽出される部分画像に対する画像処理の少なくともいずれかである
付記13乃至15のいずれか1項に記載の記憶媒体。
コンピュータに、
入力画像を取得し、当該入力画像から前記顔画像を抽出する取得処理と、
前記顔画像から前記特徴点を抽出する抽出処理と、
前記統合方向を出力する出力処理と、
をさらに実行させる付記13乃至16のいずれか1項に記載の記憶媒体。
前記推定処理は、前記顔の複数の方向と、前記視線の複数の方向とを推定し、
前記統合処理は、前記顔の複数の方向が統合された統合顔方向と、前記視線の複数の方向が統合された統合視線方向とを算出し、
前記出力処理は、前記統合顔方向を示す第1のマークと、前記統合視線方向を示す第2のマークとを、前記入力画像に重畳し、前記第1のマークと第2のマークとが重畳された前記入力画像を出力する
付記17に記載の記憶媒体。
101 推定装置
110 取得部
120 検出部
130 摂動部
140 抽出部
150 推定部
160 統合部
170 出力部
300 コンピュータ
301 CPU
302 ROM
303 RAM
304 記憶装置
305 ドライブ装置
306 通信インタフェース
307 入出力インタフェース
308 プログラム
309 記憶媒体
310 通信ネットワーク
400 顔画像
410 部分画像
411 部分画像
420 部分画像
421 部分画像
430 部分画像
Claims (10)
- 顔画像から抽出された特徴点の位置に基づいて定まる部分画像が抽出される抽出領域に摂動を加えることにより、複数の抽出領域を生成する摂動手段と、
前記顔画像の複数の抽出領域における複数の部分画像に基づいて、顔及び視線の少なくとも一方の、複数の方向と、当該複数の方向の各々の信頼度とを推定する推定手段と、
推定された前記信頼度に基づいて、前記複数の方向が統合された統合方向を算出する統合手段と、
を備え、
前記摂動は、前記抽出領域の範囲への変動を含む
推定装置。 - 前記摂動手段は、前記特徴点の位置に基づいて、当該特徴点の位置に基づいて定まる抽出領域に加える前記摂動を決定する
請求項1に記載の推定装置。 - 前記摂動手段は、前記顔画像から前記顔の領域である顔領域を抽出し、当該顔領域から前記特徴点を抽出し、抽出した前記特徴点の位置に基づいて前記顔のサイズを推定し、推定した前記サイズに基づいて、前記摂動を決定する
請求項1又は2に記載の推定装置。 - 前記摂動は、前記抽出領域の大きさの変更、前記抽出領域の位置の変更、前記抽出領域の角度の変更、及び、前記抽出領域から抽出される部分画像に対する画像処理の少なくともいずれかを含む
請求項1乃至3のいずれか1項に記載の推定装置。 - 入力画像を取得し、当該入力画像から前記顔画像を抽出する取得手段と、
前記顔画像から前記特徴点を抽出する抽出手段と、
前記統合方向を出力する出力手段と、
をさらに備える請求項1乃至4のいずれか1項に記載の推定装置。 - 前記推定手段は、前記顔の複数の方向と、前記視線の複数の方向とを推定し、
前記統合手段は、前記顔の複数の方向が統合された統合顔方向と、前記視線の複数の方向が統合された統合視線方向とを算出し、
前記出力手段は、前記統合顔方向を示す第1のマークと、前記統合視線方向を示す第2のマークとを、前記入力画像に重畳し、前記第1のマークと第2のマークとが重畳された前記入力画像を出力する
請求項5に記載の推定装置。 - 顔画像から抽出された特徴点の位置に基づいて定まる部分画像が抽出される抽出領域に摂動を加えることにより、複数の抽出領域を生成し、
前記顔画像の複数の抽出領域における複数の部分画像に基づいて、顔及び視線の少なくとも一方の、複数の方向と、当該複数の方向の各々の信頼度とを推定し、
推定された前記信頼度に基づいて、前記複数の方向が統合された統合方向を算出し、
前記摂動は、前記抽出領域の範囲への変動を含む
推定方法。 - 前記特徴点の位置に基づいて、当該特徴点の位置に基づいて定まる抽出領域に加える前記摂動を決定する
請求項7に記載の推定方法。 - 前記顔画像から前記顔の領域である顔領域を抽出し、当該顔領域から前記特徴点を抽出し、抽出した前記特徴点の位置に基づいて前記顔のサイズを推定し、推定した前記サイズに基づいて、前記摂動を決定する
請求項7又は8に記載の推定方法。 - コンピュータに、
顔画像から抽出された特徴点の位置に基づいて定まる部分画像が抽出される抽出領域に摂動を加えることにより、複数の抽出領域を生成する摂動処理と、
前記顔画像の複数の抽出領域における複数の部分画像に基づいて、顔及び視線の少なくとも一方の、複数の方向と、当該複数の方向の各々の信頼度とを推定する推定処理と、
推定された前記信頼度に基づいて、前記複数の方向が統合された統合方向を算出する統合処理と、
を実行させ、
前記摂動は、前記抽出領域の範囲への変動を含む
プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/035785 WO2020065790A1 (ja) | 2018-09-26 | 2018-09-26 | 推定装置、推定方法、および記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020065790A1 JPWO2020065790A1 (ja) | 2021-09-24 |
JP7107380B2 true JP7107380B2 (ja) | 2022-07-27 |
Family
ID=69953429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020547686A Active JP7107380B2 (ja) | 2018-09-26 | 2018-09-26 | 推定装置、推定方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (5) | US20220036581A1 (ja) |
EP (1) | EP3858235A4 (ja) |
JP (1) | JP7107380B2 (ja) |
WO (1) | WO2020065790A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6760318B2 (ja) * | 2018-03-14 | 2020-09-23 | オムロン株式会社 | 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム |
TWI768852B (zh) | 2021-04-28 | 2022-06-21 | 緯創資通股份有限公司 | 人體方向之偵測裝置及人體方向之偵測方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008007781A1 (fr) | 2006-07-14 | 2008-01-17 | Panasonic Corporation | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle |
JP2010211613A (ja) | 2009-03-11 | 2010-09-24 | Omron Corp | 情報処理装置及び方法、プログラム、並びに情報処理システム |
JP2012037934A (ja) | 2010-08-03 | 2012-02-23 | Canon Inc | 視線検出装置、視線検出方法及びプログラム |
JP2012038106A (ja) | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
WO2016093459A1 (en) | 2014-12-11 | 2016-06-16 | Lg Electronics Inc. | Mobile terminal and control method thereof |
US20170293354A1 (en) | 2016-04-09 | 2017-10-12 | Beihang University | Calculation method of line-of-sight direction based on analysis and match of iris contour in human eye image |
WO2018008575A1 (ja) | 2016-07-05 | 2018-01-11 | 日本電気株式会社 | 不審者検出装置、不審者検出方法およびプログラム |
WO2018078857A1 (ja) | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 視線推定装置、視線推定方法及びプログラム記録媒体 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS4829141B1 (ja) | 1969-01-25 | 1973-09-07 | ||
JP3695990B2 (ja) | 1999-05-25 | 2005-09-14 | 三菱電機株式会社 | 顔画像処理装置 |
JP4826506B2 (ja) | 2007-02-27 | 2011-11-30 | 日産自動車株式会社 | 視線推定装置 |
JP2009059257A (ja) | 2007-09-03 | 2009-03-19 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
WO2010035472A1 (ja) * | 2008-09-26 | 2010-04-01 | パナソニック株式会社 | 視線方向判定装置及び視線方向判定方法 |
US8891880B2 (en) * | 2009-10-16 | 2014-11-18 | Nec Corporation | Person clothing feature extraction device, person search device, and processing method thereof |
JP5406705B2 (ja) | 2009-12-28 | 2014-02-05 | キヤノン株式会社 | データ補正装置及び方法 |
EP2579210A4 (en) | 2010-05-26 | 2018-01-17 | Nec Corporation | Face feature-point position correction device, face feature-point position correction method, and face feature-point position correction program |
JP5856100B2 (ja) | 2013-04-19 | 2016-02-09 | 株式会社ユニバーサルエンターテインメント | 遊技機および遊技機の管理方法 |
WO2015056466A1 (ja) * | 2013-10-16 | 2015-04-23 | オリンパスイメージング株式会社 | 表示装置、画像生成装置、表示方法およびプログラム |
US9760935B2 (en) * | 2014-05-20 | 2017-09-12 | Modiface Inc. | Method, system and computer program product for generating recommendations for products and treatments |
JP6874772B2 (ja) * | 2016-11-25 | 2021-05-19 | 日本電気株式会社 | 画像生成装置、画像生成方法、およびプログラム |
US10963675B2 (en) * | 2019-01-30 | 2021-03-30 | Realnetworks, Inc. | Method for selecting images in video of faces in the wild |
CN111192241B (zh) * | 2019-12-23 | 2024-02-13 | 深圳市优必选科技股份有限公司 | 一种人脸图像的质量评估方法、装置及计算机存储介质 |
-
2018
- 2018-09-26 JP JP2020547686A patent/JP7107380B2/ja active Active
- 2018-09-26 EP EP18935616.5A patent/EP3858235A4/en not_active Withdrawn
- 2018-09-26 WO PCT/JP2018/035785 patent/WO2020065790A1/ja unknown
- 2018-09-26 US US17/278,500 patent/US20220036581A1/en active Pending
-
2022
- 2022-02-25 US US17/680,829 patent/US20220180554A1/en active Pending
- 2022-02-25 US US17/680,853 patent/US20220180556A1/en active Pending
- 2022-02-25 US US17/680,844 patent/US20220180555A1/en active Pending
-
2023
- 2023-07-18 US US18/223,231 patent/US20230360433A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008007781A1 (fr) | 2006-07-14 | 2008-01-17 | Panasonic Corporation | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle |
JP2010211613A (ja) | 2009-03-11 | 2010-09-24 | Omron Corp | 情報処理装置及び方法、プログラム、並びに情報処理システム |
JP2012037934A (ja) | 2010-08-03 | 2012-02-23 | Canon Inc | 視線検出装置、視線検出方法及びプログラム |
JP2012038106A (ja) | 2010-08-06 | 2012-02-23 | Canon Inc | 情報処理装置、情報処理方法、およびプログラム |
WO2016093459A1 (en) | 2014-12-11 | 2016-06-16 | Lg Electronics Inc. | Mobile terminal and control method thereof |
US20170293354A1 (en) | 2016-04-09 | 2017-10-12 | Beihang University | Calculation method of line-of-sight direction based on analysis and match of iris contour in human eye image |
WO2018008575A1 (ja) | 2016-07-05 | 2018-01-11 | 日本電気株式会社 | 不審者検出装置、不審者検出方法およびプログラム |
WO2018078857A1 (ja) | 2016-10-31 | 2018-05-03 | 日本電気株式会社 | 視線推定装置、視線推定方法及びプログラム記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020065790A1 (ja) | 2021-09-24 |
US20220180554A1 (en) | 2022-06-09 |
EP3858235A1 (en) | 2021-08-04 |
US20220036581A1 (en) | 2022-02-03 |
US20230360433A1 (en) | 2023-11-09 |
EP3858235A4 (en) | 2021-09-08 |
US20220180555A1 (en) | 2022-06-09 |
WO2020065790A1 (ja) | 2020-04-02 |
US20220180556A1 (en) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3539054B1 (en) | Neural network image processing apparatus | |
US11775056B2 (en) | System and method using machine learning for iris tracking, measurement, and simulation | |
Shreve et al. | Macro-and micro-expression spotting in long videos using spatio-temporal strain | |
US9098760B2 (en) | Face recognizing apparatus and face recognizing method | |
TWI383325B (zh) | 臉部表情辨識 | |
US8761459B2 (en) | Estimating gaze direction | |
US9117111B2 (en) | Pattern processing apparatus and method, and program | |
US7912253B2 (en) | Object recognition method and apparatus therefor | |
US11232586B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
US20230360433A1 (en) | Estimation device, estimation method, and storage medium | |
US9858501B2 (en) | Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program | |
Xia et al. | SDM-based means of gradient for eye center localization | |
Dahmane et al. | Learning symmetrical model for head pose estimation | |
JP7040539B2 (ja) | 視線推定装置、視線推定方法、およびプログラム | |
Vezhnevets et al. | Automatic extraction of frontal facial features | |
Hong et al. | Lightweight, low-cost, side-mounted mobile eye tracking system | |
Rabba et al. | Discriminative robust gaze estimation using kernel-dmcca fusion | |
JP7255721B2 (ja) | 視線推定装置、視線推定方法、およびプログラム | |
Niese et al. | Robust facial expression recognition based on 3-d supported feature extraction and SVM classification | |
JP7103443B2 (ja) | 情報処理装置、情報処理方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210315 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210315 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20211020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220627 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7107380 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |