JPWO2018163404A1 - 顔向き推定装置および顔向き推定方法 - Google Patents

顔向き推定装置および顔向き推定方法 Download PDF

Info

Publication number
JPWO2018163404A1
JPWO2018163404A1 JP2019504268A JP2019504268A JPWO2018163404A1 JP WO2018163404 A1 JPWO2018163404 A1 JP WO2018163404A1 JP 2019504268 A JP2019504268 A JP 2019504268A JP 2019504268 A JP2019504268 A JP 2019504268A JP WO2018163404 A1 JPWO2018163404 A1 JP WO2018163404A1
Authority
JP
Japan
Prior art keywords
face
unit
facial
orientation
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019504268A
Other languages
English (en)
Other versions
JP6584717B2 (ja
Inventor
亮介 虎間
亮介 虎間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2018163404A1 publication Critical patent/JPWO2018163404A1/ja
Application granted granted Critical
Publication of JP6584717B2 publication Critical patent/JP6584717B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

顔向き推定装置(10)は、顔を撮像した顔画像を取得する顔画像取得部(11)と、顔画像取得部(11)により取得された顔画像から、顔の位置を検出する顔検出部(12)と、顔検出部(12)により検出された顔の位置から顔器官を検出する顔器官検出部(13)と、顔器官検出部(13)により検出された顔器官を評価し、評価結果に基づいて第一の顔向き推定手法と第二の顔向き推定手法とを切り替える切替判定部(14)と、切替判定部(14)により第一の顔向き推定手法に切り替えられた場合、顔器官検出部(13)により検出された顔器官の位置関係に基づいて顔の向きを推定する第一の顔向き推定部(15)と、切替判定部(14)により第二の顔向き推定手法に切り替えられた場合、顔検出部(12)により検出された顔の位置から顔の移動量を算出し、当該移動量に基づいて顔の向きを推定する第二の顔向き推定部(16)とを備える。

Description

この発明は、顔の撮像画像から顔の向きを推定する顔向き推定装置および顔向き推定方法に関するものである。
例えば、特許文献1に係る運転者状態監視装置は、運転者の顔画像を撮像して顔の位置を検出し、その顔検出位置から目頭、目尻、鼻、口、および耳などの顔器官を検出し、その顔器官の位置関係に基づいて顔の向きを推定する。
特開2014−218140号公報
しかしながら、上記特許文献1に記載された手法では、顔が手などで遮蔽されたり横を向いたりして顔全体を撮像できない場合、顔の向きを推定することが困難であるという課題があった。
この発明は、上記のような課題を解決するためになされたもので、顔全体を撮像できない場合であっても顔の向きを推定することを目的とする。
この発明に係る顔向き推定装置は、顔を撮像した顔画像を取得する顔画像取得部と、顔画像取得部により取得された顔画像から、顔の位置を検出する顔検出部と、顔検出部により検出された顔の位置から顔器官を検出する顔器官検出部と、顔器官検出部により検出された顔器官を評価し、評価結果に基づいて第一の顔向き推定手法と第二の顔向き推定手法とを切り替える切替判定部と、切替判定部により第一の顔向き推定手法に切り替えられた場合、顔器官検出部により検出された顔器官の位置関係に基づいて顔の向きを推定する第一の顔向き推定部と、切替判定部により第二の顔向き推定手法に切り替えられた場合、顔検出部により検出された顔の位置から顔の移動量を算出し、当該移動量に基づいて顔の向きを推定する第二の顔向き推定部とを備えるものである。
この発明によれば、通常は顔器官の位置関係に基づく高精度な第一の顔向き推定手法を用い、顔の一部が手などで遮蔽されたり横を向いたりして顔全体を撮像できず顔器官の検出が困難な場合には、顔の移動量に基づいて顔の向きを推定する第二の顔向き推定手法に切り替えることができるので、顔全体を撮像できない場合であっても顔の向きを推定することができる。
この発明の実施の形態1に係る顔向き推定装置の構成例を示すブロック図である。 この発明の実施の形態1に係る顔向き推定装置の動作例を示すフローチャートである。 図3Aおよび図3Bは、この発明の実施の形態1における第一の顔向き推定手法を説明する図であり、左右方向の顔の向きを示す。 図4Aおよび図4Bは、この発明の実施の形態1における第一の顔向き推定手法を説明する図であり、上下方向の顔の向きを示す。 この発明の実施の形態1における第二の顔向き推定手法を説明する図である。 この発明の実施の形態2に係る顔向き推定装置の動作例を示すフローチャートである。 図7A〜図7Eは、この発明の実施の形態2における顔器官の質の評価方法を説明する図である。 この発明の実施の形態3に係る顔向き推定装置の動作例を示すフローチャートである。 この発明の実施の形態4に係る顔向き推定装置の構成例を示すブロック図である。 この発明の実施の形態4に係る顔向き推定装置の動作例を示すフローチャートである。 この発明の実施の形態4における第三の顔向き推定手法を説明する図である。 この発明の各実施の形態に係る顔向き推定装置のハードウェア構成例を示す図である。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る顔向き推定装置10の構成例を示すブロック図である。顔向き推定装置10は、顔画像取得部11、顔検出部12、顔器官検出部13、切替判定部14、第一の顔向き推定部15、第二の顔向き推定部16、および制御部17を備える。また、顔向き推定装置10には撮像部1が接続され、撮像部1により撮像された画像が入力される。
ここでは、顔向き推定装置10が、車両に搭乗した搭乗者の顔の向きを推定する場合を例示する。
撮像部1は、搭乗者を撮像し、撮像した画像を顔向き推定装置10の顔画像取得部11へ入力する。この撮像部1は、可視光カメラ、または近赤外領域もしくは赤外領域のみを通すフィルタを用いたカメラである。撮像部1が近赤外領域もしくは赤外領域のみを通すフィルタを用いたカメラである場合、近赤外領域もしくは赤外領域の光を照射する照明装置を用いて搭乗者を照らした状態で撮像してもよい。搭乗者が運転者である場合、近赤外領域もしくは赤外領域の光を照射すれば運転者が眩惑されない。
図2は、この発明の実施の形態1に係る顔向き推定装置10の動作例を示すフローチャートである。
ステップST11において、顔画像取得部11は、撮像部1により撮像された、搭乗者の顔を含む画像を取得する。この画像には、搭乗者の顔だけでなく、搭乗者の上半身等が含まれていてもよい。以下、顔を含む画像を「顔画像」と呼ぶ。制御部17は、顔画像取得部11により取得された顔画像を、顔検出部12へ出力する。
ステップST12において、顔検出部12は、顔画像取得部11により取得された顔画像から、顔の位置を検出する。例えば、顔検出部12は、画像特徴量であるHaar−Like特徴量を用いた、AdaBoostおよびCascade等の一般的なアルゴリズムの識別機を利用して、顔画像における顔を含む領域を検出する。また、顔検出部12は、顔画像上の顔が手などで一部遮蔽された場合、Haar−Like特徴量を用いた物体追跡により検出した領域を顔検出結果としてもよい。あるいは、顔検出部12は、物体追跡に、パーティクルフィルタまたはテンプレートマッチングなどの一般的な物体追跡アルゴリズムを利用してもよい。制御部17は、顔検出部12により検出された顔位置情報を、顔器官検出部13へ出力する。
ステップST13において、顔器官検出部13は、顔画像取得部11により取得された顔画像における、顔検出部12により検出された顔の位置から、顔器官を検出する。例えば、顔器官検出部13は、目、鼻、および口などの顔器官の位置を検出する。また、顔器官検出部13は、検出した顔器官の尤もらしさを示す尤度を算出する。制御部17は、顔器官検出部13により検出された顔器官の位置および尤度の情報を、切替判定部14へ出力する。なお、顔器官の検出には周知の技術を用いればよいため、詳細な説明を省略する。
ステップST14において、切替判定部14は、顔器官検出部13により検出された顔器官を評価し、評価結果に基づいて第一の顔向き推定部15による推定手法と第二の顔向き推定部16による推定手法とを切り替える。
実施の形態1の切替判定部14は、顔器官検出部13により検出された顔器官の信頼性を、その顔器官の尤度を用いて評価する。切替判定部14は、予め定められた基準と顔器官検出部13により検出された顔器官の尤度とを比較し、尤度が基準以上の場合にその顔器官の信頼性が高いと判定し(ステップST14“YES”)、第一の顔向き推定部15による第一の顔向き推定手法に切り替える(ステップST15)。この場合、制御部17は、顔器官検出部13により検出された顔器官の位置情報を第一の顔向き推定部15へ出力する。詳細は後述するが、第一の顔向き推定手法は、顔器官の位置関係に基づいて顔の向きを推定するため、顔器官検出部13により顔器官が検出されなかった場合または顔器官の信頼性が低い場合等には顔の向きを高精度に推定することが困難である。そこで、切替判定部14が尤度と基準とを比較して信頼性を評価することによって、顔の一部が手などで遮蔽されたり横を向いたりして顔全体を撮像できなかったか否かを判定する。
一方、切替判定部14は、尤度が基準未満の場合にその顔器官の信頼性が低いと判定し(ステップST14“NO”)、第二の顔向き推定部16による第二の顔向き推定手法に切り替える(ステップST16)。この場合、制御部17は、顔検出部12により検出された顔位置情報を第二の顔向き推定部16へ出力する。詳細は後述するが、第二の顔向き推定手法は、顔器官検出部13が検出した顔器官の位置情報ではなく、顔検出部12が検出した顔の位置情報に基づいて顔の向きを推定する。そのため、第二の顔向き推定手法は、第一の顔向き推定手法に比べて精度は劣るが、顔の一部が手などで遮蔽されたり横を向いたりして顔全体を撮像できなかった場合であっても顔の向きを推定することが可能である。
ステップST15において、第一の顔向き推定部15は、顔器官検出部13により検出された顔器官の位置関係に基づいて顔の向きを推定する。ここで、図3A、図3B、図4A、および図4Bを用いて、第一の顔向き推定部15による顔向き推定手法を説明する。
図3Aおよび図3Bは、この発明の実施の形態1における第一の顔向き推定手法を説明する図であり、左右方向の顔の向きを示す。図3Aのように顔が正面を向いている場合、右目と左目との距離dのうち、右目と鼻との距離ddefwがある割合を占める。図3Bのように顔が左右いずれかの方向を向いた場合、右目と左目との距離dに対する右目と鼻との距離ddefwが占める割合が変化する。さらに、顔が右方向を向くほど距離ddefwが占める割合が小さくなり、顔が左方向を向くほど距離ddefwが占める割合が大きくなる。そこで、第一の顔向き推定部15は、顔の左右方向の向きYawを、下式(1)により推定する。offsetXは、搭乗者が座席に座って正面を向いたときの右目と左目との距離dに対する右目と鼻との距離ddefwが占める割合を調整するためのオフセットであり、搭乗席の位置に対する撮像部1の設置位置の関係性により定められる。
rx=ddefw/d+offsetX
Yaw=asin(rx)・180/π (1)
図4Aおよび図4Bは、この発明の実施の形態1における第一の顔向き推定手法を説明する図であり、上下方向の顔の向きを示す。図4Aのように顔が正面を向いている場合、両目と口との距離dのうち、両目と鼻との距離ddefhがある割合を占める。図4Bのように顔が上下いずれかの方向を向いた場合、両目と口との距離dに対する両目と鼻との距離ddefhが占める割合が変化する。さらに、顔が上方向を向くほど距離ddefhが占める割合が小さくなり、顔が下方向を向くほど距離ddefhが占める割合が大きくなる。そこで、第一の顔向き推定部15は、顔の上下方向を向きPitchを、下式(2)により推定する。offsetYは、搭乗者が座席に座って正面を向いたときの両目と口との距離dに対する両目と鼻との距離ddefhが占める割合を調整するためのオフセットであり、搭乗席の位置に対する撮像部1の設置位置の関係性により定められる。
ry=ddefh/d+offsetY
Pitch=asin(ry)・180/π (2)
ステップST16において、第二の顔向き推定部16は、顔検出部12により検出された顔の位置から顔の移動量を算出し、移動量に基づいて顔の向きを推定する。ここで、図5を用いて、第二の顔向き推定部16による顔向き推定手法を説明する。
図5は、この発明の実施の形態1における第二の顔向き推定手法を説明する図であり、左右方向の顔の向きを示す。第二の顔向き推定手法では、車室内環境における搭乗者の顔の移動量が顔向きの変化量と同じであると仮定し、前回の顔位置と今回の顔位置との差分から顔の移動量を算出し、式(3)および式(4)のような直線近似式により顔の向きを推定する。a、OFFSETyawおよびOFFSETpitchは、顔の移動量と顔の向きとを直線近似するためのパラメータであり、任意の値でよい。特に、OFFSETyawおよびOFFSETpitchは、搭乗者が座席に座って正面を向いたときの顔の角度であり、搭乗席の位置に対する撮像部1の設置位置の関係性により定められる。
fdYaw
=a・(fxt−1−fx)+OFFSETyaw (3)
fdPitch
=a・(fyt−1−fy)+OFFSETpitch (4)
第二の顔向き推定部16は、式(3)を用いて、前回撮像された顔画像から検出された顔の領域101のx座標fxt−1と、今回撮像された顔画像から検出された顔の領域102のx座標fxとの差分から左右方向の移動量を算出し、左右方向の顔の向きfdYaw を推定する。同様に、第二の顔向き推定部16は、式(4)を用いて、前回撮像された顔画像から検出された顔の領域101のy座標fyt−1と、今回撮像された顔画像から検出された顔の領域102のy座標fyとの差分から上下方向の移動量を算出し、上下方向の顔の向きfdPitch を推定する。なお、第二の顔向き推定部16は、例えば、顔検出部12が検出した顔の領域101の中心を座標(fxt−1,fyt−1)として選択し、次のフレームにおいても同様に顔の領域102の中心を座標(fx,fy)として選択する。
なお、上記説明では、式(3)および式(4)のような、移動量と顔向きとをモデル化した近似式を用いたが、これに限らず、例えば式(1)および式(2)のように三角関数を用いて移動量から顔の向きを推定してもよい。
また、搭乗者が座席に座って正面を向いたときの顔の向きには個人差があるため、式(3)および式(4)のようにOFFSETyawおよびOFFSETpitchを固定値にすると、推定結果に誤差が生じやすい。そこで、式(5)および式(6)のように、第一の顔向き推定手法から第二の顔向き推定手法に切り替わる直前に第一の顔向き推定手法で推定された顔向きを、PRE_FACE_OFFSETyawおよびPRE_FACE_OFFSETpitchとして利用してもよい。これにより、OFFSETyawおよびOFFSETpitchを用いる場合に比べて、誤差を小さくできる。
fdYaw =a・(fxt−1−fx
+PRE_FACE_OFFSETyaw (5)
fdPitch =a・(fyt−1−fy
+PRE_FACE_OFFSETpitch (6)
以上のように、実施の形態1に係る顔向き推定装置10は、顔を撮像した顔画像を取得する顔画像取得部11と、顔画像取得部11により取得された顔画像から、顔の位置を検出する顔検出部12と、顔検出部12により検出された顔の位置から顔器官を検出する顔器官検出部13と、顔器官検出部13により検出された顔器官を評価し、評価結果に基づいて第一の顔向き推定手法と第二の顔向き推定手法とを切り替える切替判定部14と、切替判定部14により第一の顔向き推定手法に切り替えられた場合、顔器官検出部13により検出された顔器官の位置関係に基づいて顔の向きを推定する第一の顔向き推定部15と、切替判定部14により第二の顔向き推定手法に切り替えられた場合、顔検出部12により検出された顔の位置から顔の移動量を算出し、当該移動量に基づいて顔の向きを推定する第二の顔向き推定部16とを備える構成である。この構成によれば、通常は顔器官の位置関係に基づく高精度な第一の顔向き推定手法を用い、顔の一部が手などで遮蔽されたり横を向いたりして顔全体を撮像できず顔器官の検出が困難な場合には、顔の移動量に基づいて顔の向きを推定する第二の顔向き推定手法に切り替えることができるので、顔全体を撮像できない場合であっても顔の向きを推定することができる。
実施の形態2.
図6は、この発明の実施の形態2に係る顔向き推定装置10の動作例を示すフローチャートである。実施の形態2に係る顔向き推定装置10の構成は、図1に示した実施の形態1に係る顔向き推定装置10の構成と同じであるため、ここでは図1を援用する。
実施の形態1では、図2のステップST14において切替判定部14が、顔器官の尤度に基づいて顔器官の信頼性を評価し、第一の顔向き推定手法に切り替えるか第二の顔向き推定手法に切り替えるかを判定していた。これに対し、実施の形態2では、図6のステップST21〜ST24において切替判定部14が、顔の位置と顔器官の位置関係に基づいて顔器官の質を評価し、第一の顔向き推定手法に切り替えるか第二の顔向き推定手法に切り替えるかを判定する。なお、図6におけるステップST11〜ST13,ST15,ST16の処理は、図2におけるステップST11〜ST13,ST15,ST16の処理と同じであるため説明を省略する。また、図7A〜図7Eは、この発明の実施の形態2における顔器官の質の評価方法を説明する図である。
実施の形態2の切替判定部14は、顔器官の質の評価として、顔検出部12により検出された顔位置と顔器官検出部13により検出された顔器官の位置関係に基づいて、人間の顔として不自然でないかどうかを評価する。図7Aに示すように、顔枠201は、顔検出部12が検出した顔の位置を示す領域である。右目尻202、右目頭203、左目頭204、左目尻205、鼻206、口右端207、および口左端208は、顔器官検出部13が検出した顔器官である。図7Aでは、顔枠201、右目尻202、右目頭203、左目頭204、左目尻205、鼻206、口右端207、および口左端208が正しく検出されており、これらの顔器官は質が高いと評価される。
ステップST21において、切替判定部14は、顔器官が顔枠内にあるか否かという観点で顔器官の質を評価する。切替判定部14は、顔器官が顔枠内にある場合(ステップST21“YES”)、ステップST22へ進み、顔器官が顔枠内にない場合に質が低いと判定し(ステップST22“NO”)、第二の顔向き推定部16による第二の顔向き推定手法に切り替える(ステップST16)。
図7Bのように、右目尻202と左目尻205が顔枠201内にない場合、顔器官の質が低いと評価される。
ステップST22において、切替判定部14は、顔器官が顔枠に対して極端に小さいか否かという観点で顔器官の質を評価する。切替判定部14は、顔器官を含む領域の大きさと顔枠の大きさのバランスが良い場合(ステップST22“YES”)、ステップST23へ進み、顔器官を含む領域が顔枠に対して極端に小さい場合に質が低いと判定し(ステップST22“NO”)、第二の顔向き推定部16による第二の顔向き推定手法に切り替える(ステップST16)。
図7Cのように、顔枠201の大きさに対して、右目尻202、右目頭203、左目頭204、左目尻205、鼻206、口右端207、および口左端208を含む領域の大きさが極端に小さい場合、顔器官の質が低いと評価される。なお、顔器官を含む領域の大きさがどの程度の場合に「極端に小さい」と評価するかという評価基準に関する情報は、予め切替判定部14に設定されているものとする。
ステップST23において、切替判定部14は、目と口の位置関係が不自然にいびつか否かという観点で顔器官の質を評価する。切替判定部14は、目と口のバランスが良い場合(ステップST23“YES”)、ステップST24へ進み、目と口のバランスが悪い場合に質が低いと判定し(ステップST23“NO”)、第二の顔向き推定部16による第二の顔向き推定手法に切り替える(ステップST16)。
図7Dのように、右目尻202、右目頭203、左目頭204、左目尻205、口右端207、および口左端208のバランスが悪い場合、顔器官の質が低いと評価される。なお、「バランスが良い」目と口の位置関係および「バランスが悪い」目と口の位置関係に関する情報は、予め切替判定部14に設定されているものとする。
ステップST24において、切替判定部14は、現在から所定時間前までの間に撮像された複数の顔画像において顔器官の位置が振動しているか否かという観点で顔器官の質を評価する。切替判定部14は、所定時間前に撮像された顔画像における顔器官の位置から、今回撮像された顔画像における顔器官の位置までの移動量が、予め定められた移動量未満である場合(ステップST24“YES”)、第一の顔向き推定部15による第一の顔向き推定手法に切り替える(ステップST15)。一方、切替判定部14は、所定時間前に撮像された顔画像における顔器官の位置から、今回撮像された顔画像における顔器官の位置までの移動量が、予め定められた移動量以上である場合(ステップST24“NO”)、顔器官の質が低いと判定して第二の顔向き推定部16による第二の顔向き推定手法に切り替える(ステップST16)。
図7Eのように、右目尻202の単位時間当たりの移動量dtまたは右目頭203の単位時間当たりの移動量dtが大きい場合、顔器官の位置が振動しており顔器官の質が低いと評価される。
なお、図6の例では、切替判定部14がステップST21〜ST24の四つの観点のうち一つでも質が低いと評価した場合に、ステップST16の第二の顔向き推定手法に切り替えるようにしたが、これに限らず、例えばステップST21〜ST24の四つの観点のうち過半数で質が低いと評価した場合にステップST16の第二の顔向き推定手法に切り替えるようにしてもよい。
また、切替判定部14がステップST21〜ST24の四つの観点で質を評価したが、これに限らず、ステップST21〜ST24のうちの少なくとも一つの観点で質を評価してもよい。
以上のように、実施の形態2における切替判定部14は、顔検出部12により検出された顔の位置と顔器官検出部13により検出された顔器官の位置関係に基づいて顔器官の質を評価し、質が高い場合に第一の顔向き推定部15による推定手法に切り替え、質が低い場合に第二の顔向き推定部16による推定手法に切り替えるので、人間の顔として不自然ではないかどうかという観点から顔器官を評価して推定手法を切り替えることができる。
実施の形態3.
図8は、この発明の実施の形態3に係る顔向き推定装置10の動作例を示すフローチャートである。実施の形態3に係る顔向き推定装置10の構成は、図1に示した実施の形態1に係る顔向き推定装置10の構成と同じであるため、ここでは図1を援用する。
実施の形態1では、図2のステップST14において切替判定部14が、顔器官の尤度に基づいて顔器官の信頼性を評価し、第一の顔向き推定手法に切り替えるか第二の顔向き推定手法に切り替えるかを判定していた。実施の形態2では、図6のステップST21〜ST24において切替判定部14が、顔の位置と顔器官の位置関係に基づいて顔器官の質を評価し、第一の顔向き推定手法に切り替えるか第二の顔向き推定手法に切り替えるかを判定していた。これに対し、実施の形態3では、切替判定部14が、実施の形態1による顔器官の尤度に基づく顔器官の信頼性の評価と、実施の形態2による顔の位置と顔器官の位置関係に基づく顔器官の質の評価とを組み合わせて、第一の顔向き推定手法に切り替えるか第二の顔向き推定手法に切り替えるかを判定する。なお、図8におけるステップST11〜ST13,ST15,ST16,ST21〜ST24の処理は、図2および図6におけるステップST11〜ST13,ST15,ST16,ST21〜ST24の処理と同じであるため説明を省略する。
ステップST31において、切替判定部14は、顔器官検出部13により検出された顔器官の信頼性を、その顔器官の尤度を用いて評価する。切替判定部14は、予め定められた第一の基準と顔器官検出部13により検出された顔器官の尤度とを比較し、尤度が第一の基準以上の場合にその顔器官の信頼性が高いと判定し(ステップST31“YES”)、第一の顔向き推定部15による第一の顔向き推定手法に切り替える(ステップST15)。一方、切替判定部14は、尤度が第一の基準未満の場合(ステップST31“NO”)、ステップST32へ進む。
ステップST32において、切替判定部14は、予め定められた第二の基準と顔器官検出部13により検出された顔器官の尤度とを比較し、尤度が第二の基準未満の場合にその顔器官の信頼性が低いと判定し(ステップST32“NO”)、第二の顔向き推定部16による第二の顔向き推定手法に切り替える(ステップST16)。一方、切替判定部14は、尤度が第二の基準以上の場合(ステップST32“YES”)、ステップST21へ進み顔器官の質を評価する。なお、第二の基準は、第一の基準より低い値である。
以上のように、実施の形態3における切替判定部14は、顔器官検出部13により検出された顔器官の信頼性を評価するとともに、顔検出部12により検出された顔の位置と顔器官検出部13により検出された顔器官の位置関係に基づいて顔器官の質を評価し、信頼性の評価結果と質の評価結果とに基づいて第一の顔向き推定手法と第二の顔向き推定手法とを切り替えるので、信頼性または質のいずれか一方のみを評価する場合に比べて正確に評価することができる。
実施の形態4.
図9は、この発明の実施の形態4に係る顔向き推定装置10の構成例を示すブロック図である。実施の形態4に係る顔向き推定装置10は、図1に示した実施の形態1の顔向き推定装置10に対して学習データ格納部41および第三の顔向き推定部42が追加された構成である。図9において図1と同一または相当する部分は、同一の符号を付し説明を省略する。
学習データ格納部41には、サンプル画像を用いて顔の向きを学習した学習データが格納されている。学習データは、例えば、Random Forestなどの識別機を用いて大量のサンプル画像を学習して作成された複数の決定木である。
第三の顔向き推定部42は、学習データ格納部41に格納されている学習データを用いて、顔画像取得部11により取得された顔画像から顔の向きを推定する。Random Forestの場合、一枚の顔画像に対して、複数の決定木によって複数の顔の向きが推定される。第三の顔向き推定部42は、学習データを用いて推定した顔の向きと、第二の顔向き推定部16により推定された顔の向きとに基づいて、一つの顔の向きを求める。この第三の顔向き推定部42は、第二の顔向き推定部16による顔向き推定手法の推定精度を高めるために追加された機能である。
図10は、この発明の実施の形態4に係る顔向き推定装置10の動作例を示すフローチャートである。図10におけるステップST11〜ST16の処理は、図2におけるステップST11〜ST16の処理と同じであるため説明を省略する。また、図10におけるステップST14の処理の代わりに、図6におけるステップST21〜ST24の処理、または図8におけるステップST31,ST32,ST21〜ST24の処理を行ってもよい。
ステップST41において、第三の顔向き推定部42は、顔画像取得部11により取得された顔画像と第二の顔向き推定部16により推定された顔の向きの情報とを、制御部17から受け取る。第三の顔向き推定部42は、学習データ格納部41に格納されている学習データを用いて、顔画像取得部11により取得された顔画像から顔の向きを一つ以上推定する。そして、第三の顔向き推定部42は、例えば学習データを用いて推定した一つ以上の顔の向きと、第二の顔向き推定部16により推定された顔の向きとの中から、多数決によって一つの顔の向きを決定する。あるいは、第三の顔向き推定部42は、学習データを用いて推定した一つ以上の顔の向きと、第二の顔向き推定部16により推定された顔の向きとの平均を求めてもよい。第三の顔向き推定部42が最終的に出力する一つの顔の向きの求め方は、多数決または平均値算出に限定されるものではない。
なお、第三の顔向き推定部42は、学習データを用いて推定した顔の向きを、第二の顔向き推定部16により推定された顔の向きに基づいて補正し、補正した顔の向きに基づいて一つの顔の向きを求めるようにしてもよい。ここで、図11を用いて、第三の顔向き推定部42による顔向き推定手法を説明する。
図11は、この発明の実施の形態4における第三の顔向き推定手法を説明する図であり、縦軸は上下方向の顔の向き、横軸は左右方向の顔の向きを示す。図11の例では、第三の顔向き推定部42が、学習データを用いて顔向きA,B,Cを推定するとともに、顔向きA,B,Cの尤度を算出する。これに対し、第二の顔向き推定部16は、顔向きDを推定したとする。この場合に、第三の顔向き推定部42は、顔向きA〜Cのうちの顔向きDに最も近い顔向きCの尤度に大きい重みを付け、顔向きDから離れるに従い重みが小さくなるようにしたのち、尤度の重みを考慮した多数決または平均値算出を行う。ここでの重みづけが、上記「補正」にあたる。これにより、学習データを用いて推定された一つ以上の顔向きのうち、第二の顔向き推定部16により推定された顔向きからかけ離れたものを除外することができる。
以上のように、実施の形態4に係る顔向き推定装置10は、サンプル画像を用いて顔の向きを学習した学習データを格納している学習データ格納部41と、学習データを用いて、顔画像取得部11により取得された顔画像から顔の向きを推定し、推定した顔の向きと、第二の顔向き推定部16により推定された顔の向きとに基づいて一つの顔の向きを求める第三の顔向き推定部42とを備える構成である。この構成により、第二の顔向き推定部16によって顔の向きを推定する場合の精度を高めることができる。
また、実施の形態4における第三の顔向き推定部42は、学習データを用いて推定した顔の向きを、第二の顔向き推定部16により推定された顔の向きに基づいて補正し、補正した顔の向きに基づいて一つの顔の向きを求める構成であってもよい。この構成により、学習データを用いた顔向き推定手法での誤推定を抑制することができる。
最後に、この発明の各実施の形態に係る顔向き推定装置10のハードウェア構成例を説明する。図12は、この発明の各実施の形態に係る顔向き推定装置10のハードウェア構成例を示す図である。
顔向き推定装置10における顔検出部12、顔器官検出部13、切替判定部14、第一の顔向き推定部15、第二の顔向き推定部16、制御部17、および第三の顔向き推定部42の各機能は、処理回路により実現される。処理回路は、ROM(Read Only Memory)3またはHDD(Hard Disk Drive)6に格納されるプログラムを実行するCPU(Central Processing Unit)2である。
顔検出部12、顔器官検出部13、切替判定部14、第一の顔向き推定部15、第二の顔向き推定部16、制御部17、および第三の顔向き推定部42の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、ROM3またはHDD6に格納される。CPU2は、ROM3またはHDD6に格納されたプログラムをRAM(Random Access Memory)4に読みだして実行することにより、各部の機能を実現する。すなわち、顔向き推定装置10は、CPU2により実行されるときに、図2等のフローチャートで示されたステップが結果的に実行されることになるプログラムを格納するためのROM3またはHDD6を備える。また、このプログラムは、顔検出部12、顔器官検出部13、切替判定部14、第一の顔向き推定部15、第二の顔向き推定部16、制御部17、および第三の顔向き推定部42の手順または方法をコンピュータに実行させるものであるとも言える。
CPU2、ROM3、RAM4、入力装置5、およびHDD6は、情報の授受が可能なように、バス8等により接続されている。顔向き推定装置10における顔画像取得部11は、撮像部1から顔画像が入力される入力装置5である。なお、撮像部1が撮像する際に顔を照らすための照明装置7が、バス8に接続されていてもよい。
顔向き推定装置10における学習データ格納部41は、ROM3またはHDD6である。
なお、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。
また、実施の形態1〜4では、顔向き推定装置10が車両に設置されている場合を例示したが、顔向き推定装置10のうちの一部の機能が車両に設置され、残りの機能が車両外に設置されてもよい。例えば、車載装置とサーバ装置とが無線通信可能に接続されている場合、車載装置は、撮像部1と顔画像取得部11を備え、顔画像をサーバ装置へ送信する。サーバ装置は、顔検出部12、顔器官検出部13、切替判定部14、第一の顔向き推定部15、第二の顔向き推定部16、学習データ格納部41および第三の顔向き推定部42を備え、車載装置から受信した顔画像を用いて顔の向きを推定し、推定結果を車載装置に返信する。なお、顔向きを推定する機能をサーバ装置が備える構成である必要はなく、この機能をスマートフォン等の携帯情報端末が備える構成であってもよい。あるいは、スマートフォン等が撮像部1と顔画像取得部11を備え、スマートフォンからサーバ装置へ顔画像を送信し、サーバ装置が顔の向きを推定した結果を車載装置へ送信する構成であってもよい。
この発明に係る顔向き推定装置は、顔全体を撮像できない場合であっても顔の向きを推定するようにしたので、車両、鉄道、船舶または航空機等を含む移動体に搭乗した搭乗者の顔の向きを推定する顔向き推定装置などに用いるのに適している。
1 撮像部、2 CPU、3 ROM、4 RAM、5 入力装置、6 HDD、7 照明装置、8 バス、10 顔向き推定装置、11 顔画像取得部、12 顔検出部、13 顔器官検出部、14 切替判定部、15 第一の顔向き推定部、16 第二の顔向き推定部、17 制御部、41 学習データ格納部、42 第三の顔向き推定部、101,102 顔の領域、201 顔枠、202 右目尻、203 右目頭、204 左目頭、205 左目尻、206 鼻、207 口右端、208 口左端。
この発明に係る顔向き推定装置は、顔を撮像した顔画像を取得する顔画像取得部と、顔画像取得部により取得された顔画像から、顔の位置を検出する顔検出部と、顔検出部により検出された顔の位置から顔器官を検出する顔器官検出部と、顔器官検出部により検出された顔器官を評価し、評価結果に基づいて第一の顔向き推定手法と第二の顔向き推定手法とを切り替える切替判定部と、切替判定部により第一の顔向き推定手法に切り替えられた場合、顔器官検出部により検出された顔器官の位置関係に基づいて顔の向きを推定する第一の顔向き推定部と、切替判定部により第二の顔向き推定手法に切り替えられた場合、顔検出部により検出された顔の位置から顔の移動量を算出し、当該移動量に基づいて顔の向きを推定する第二の顔向き推定部とを備え、切替判定部は、顔器官検出部により検出された顔器官の信頼性を評価するとともに、顔検出部により検出された顔の位置と顔器官検出部により検出された顔器官の位置関係に基づいて顔器官の質を評価し、信頼性の評価結果と質の評価結果とに基づいて第一の顔向き推定手法と第二の顔向き推定手法とを切り替えるものである。

Claims (7)

  1. 顔を撮像した顔画像を取得する顔画像取得部と、
    前記顔画像取得部により取得された顔画像から、顔の位置を検出する顔検出部と、
    前記顔検出部により検出された顔の位置から顔器官を検出する顔器官検出部と、
    前記顔器官検出部により検出された顔器官を評価し、評価結果に基づいて第一の顔向き推定手法と第二の顔向き推定手法とを切り替える切替判定部と、
    前記切替判定部により前記第一の顔向き推定手法に切り替えられた場合、前記顔器官検出部により検出された顔器官の位置関係に基づいて顔の向きを推定する第一の顔向き推定部と、
    前記切替判定部により前記第二の顔向き推定手法に切り替えられた場合、前記顔検出部により検出された顔の位置から顔の移動量を算出し、当該移動量に基づいて顔の向きを推定する第二の顔向き推定部とを備える顔向き推定装置。
  2. 前記切替判定部は、前記顔器官検出部により検出された顔器官の信頼性を評価し、信頼性が高い場合に前記第一の顔向き推定手法に切り替え、信頼性が低い場合に前記第二の顔向き推定手法に切り替えることを特徴とする請求項1記載の顔向き推定装置。
  3. 前記切替判定部は、前記顔検出部により検出された顔の位置と前記顔器官検出部により検出された顔器官の位置関係に基づいて顔器官の質を評価し、質が高い場合に前記第一の顔向き推定手法に切り替え、質が低い場合に前記第二の顔向き推定手法に切り替えることを特徴とする請求項1記載の顔向き推定装置。
  4. 前記切替判定部は、前記顔器官検出部により検出された顔器官の信頼性を評価するとともに、前記顔検出部により検出された顔の位置と前記顔器官検出部により検出された顔器官の位置関係に基づいて顔器官の質を評価し、前記信頼性の評価結果と前記質の評価結果とに基づいて前記第一の顔向き推定手法と前記第二の顔向き推定手法とを切り替えることを特徴とする請求項1記載の顔向き推定装置。
  5. サンプル画像を用いて顔の向きを学習した学習データを格納している学習データ格納部と、
    前記学習データを用いて、前記顔画像取得部により取得された顔画像から顔の向きを推定し、推定した顔の向きと、前記第二の顔向き推定部により推定された顔の向きとに基づいて一つの顔の向きを求める第三の顔向き推定部とを備えることを特徴とする請求項1記載の顔向き推定装置。
  6. 前記第三の顔向き推定部は、前記学習データを用いて推定した顔の向きを、前記第二の顔向き推定部により推定された顔の向きに基づいて補正し、補正した顔の向きに基づいて前記一つの顔の向きを求めることを特徴とする請求項5記載の顔向き推定装置。
  7. 顔画像取得部が、顔を撮像した顔画像を取得するステップと、
    顔検出部が、前記顔画像取得部により取得された顔画像から、顔の位置を検出するステップと、
    顔器官検出部が、前記顔検出部により検出された顔の位置から顔器官を検出するステップと、
    切替判定部が、前記顔器官検出部により検出された顔器官を評価し、評価結果に基づいて第一の顔向き推定手法と第二の顔向き推定手法とを切り替えるステップと、
    前記切替判定部により前記第一の顔向き推定手法に切り替えられた場合、第一の顔向き推定部が、前記顔器官検出部により検出された顔器官の位置関係に基づいて顔の向きを推定するステップと、
    前記切替判定部により前記第二の顔向き推定手法に切り替えられた場合、第二の顔向き推定部が、前記顔検出部により検出された顔の位置から顔の移動量を算出し、当該移動量に基づいて顔の向きを推定するステップとを備える顔向き推定方法。
JP2019504268A 2017-03-10 2017-03-10 顔向き推定装置および顔向き推定方法 Active JP6584717B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/009726 WO2018163404A1 (ja) 2017-03-10 2017-03-10 顔向き推定装置および顔向き推定方法

Publications (2)

Publication Number Publication Date
JPWO2018163404A1 true JPWO2018163404A1 (ja) 2019-08-08
JP6584717B2 JP6584717B2 (ja) 2019-10-02

Family

ID=63448415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019504268A Active JP6584717B2 (ja) 2017-03-10 2017-03-10 顔向き推定装置および顔向き推定方法

Country Status (5)

Country Link
US (1) US11216968B2 (ja)
JP (1) JP6584717B2 (ja)
CN (1) CN110537207B (ja)
DE (1) DE112017007011B4 (ja)
WO (1) WO2018163404A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10825196B2 (en) * 2019-02-15 2020-11-03 Universal City Studios Llc Object orientation detection system
TWI714318B (zh) * 2019-10-25 2020-12-21 緯創資通股份有限公司 人臉辨識方法及裝置
CN111028014A (zh) * 2019-12-11 2020-04-17 秒针信息技术有限公司 一种评估资源投放效果的方法及装置
WO2021192225A1 (ja) * 2020-03-27 2021-09-30 日本電気株式会社 教師データ変換装置、教師データ変換方法、及び、非一時的な記録媒体
CN117097982B (zh) * 2023-10-17 2024-04-02 北京钧雷科技有限公司 目标检测方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097676A (ja) * 1998-09-24 2000-04-07 Sanyo Electric Co Ltd 顔向き検出方法及びその装置
JP2003296712A (ja) * 2002-04-02 2003-10-17 Nissan Motor Co Ltd 顔状態検出装置及び方法
JP2009237993A (ja) * 2008-03-27 2009-10-15 Secom Co Ltd 画像監視装置
JP2010097379A (ja) * 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2012118927A (ja) * 2010-12-03 2012-06-21 Fujitsu Ltd 画像処理プログラムおよび画像処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7391888B2 (en) 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
EP1742169B1 (en) * 2005-07-05 2012-02-22 Omron Corporation Tracking apparatus
KR101169533B1 (ko) * 2008-01-16 2012-07-30 아사히 가세이 가부시키가이샤 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체
JP5176572B2 (ja) * 2008-02-05 2013-04-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
US20110199499A1 (en) * 2008-10-14 2011-08-18 Hiroto Tomita Face recognition apparatus and face recognition method
JP4748244B2 (ja) * 2009-03-31 2011-08-17 カシオ計算機株式会社 画像選択装置、画像選択方法及びプログラム
US8929598B2 (en) * 2011-06-29 2015-01-06 Olympus Imaging Corp. Tracking apparatus, tracking method, and storage medium to store tracking program
JP5450739B2 (ja) * 2012-08-30 2014-03-26 シャープ株式会社 画像処理装置及び画像表示装置
JP6013241B2 (ja) * 2013-03-18 2016-10-25 株式会社東芝 人物認識装置、及び方法
JP2014218140A (ja) 2013-05-07 2014-11-20 株式会社デンソー 運転者状態監視装置、および運転者状態監視方法
JP6304999B2 (ja) * 2013-10-09 2018-04-04 アイシン精機株式会社 顔検出装置、方法およびプログラム
JP6573193B2 (ja) 2015-07-03 2019-09-11 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
CN109310316B (zh) * 2016-04-28 2021-09-21 尼德克株式会社 眼科装置
US10332312B2 (en) * 2016-12-25 2019-06-25 Facebook, Inc. Shape prediction model compression for face alignment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000097676A (ja) * 1998-09-24 2000-04-07 Sanyo Electric Co Ltd 顔向き検出方法及びその装置
JP2003296712A (ja) * 2002-04-02 2003-10-17 Nissan Motor Co Ltd 顔状態検出装置及び方法
JP2009237993A (ja) * 2008-03-27 2009-10-15 Secom Co Ltd 画像監視装置
JP2010097379A (ja) * 2008-10-16 2010-04-30 Denso Corp ドライバモニタリング装置およびドライバモニタリング装置用のプログラム
JP2012118927A (ja) * 2010-12-03 2012-06-21 Fujitsu Ltd 画像処理プログラムおよび画像処理装置

Also Published As

Publication number Publication date
JP6584717B2 (ja) 2019-10-02
CN110537207A (zh) 2019-12-03
DE112017007011B4 (de) 2021-11-04
CN110537207B (zh) 2023-04-21
US11216968B2 (en) 2022-01-04
US20200034981A1 (en) 2020-01-30
WO2018163404A1 (ja) 2018-09-13
DE112017007011T5 (de) 2019-10-31

Similar Documents

Publication Publication Date Title
JP6584717B2 (ja) 顔向き推定装置および顔向き推定方法
JP6304999B2 (ja) 顔検出装置、方法およびプログラム
US9251400B2 (en) Learning apparatus, method for controlling learning apparatus, detection apparatus, method for controlling detection apparatus and storage medium
JP4928572B2 (ja) リアルタイムの頭部ポーズ検出において使用するためのデータベースシステム
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
US9405982B2 (en) Driver gaze detection system
JP6187817B2 (ja) 顔検出装置、方法およびプログラム
JP6739672B2 (ja) 体格推定装置および体格推定方法
JPWO2009091029A1 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP6277736B2 (ja) 状態認識方法及び状態認識装置
JP5111321B2 (ja) 瞼尤度演算装置、及びプログラム
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
JP5829155B2 (ja) 歩行者検出装置及びプログラム
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
JP2018173757A (ja) 検知装置、学習装置、検知方法、学習方法、およびプログラム
JP2021056968A (ja) 物体判定装置
CN111696312B (zh) 乘员观察装置
JP2021007717A (ja) 乗員観察装置、乗員観察方法、及びプログラム
JP2022123912A (ja) 視線検出装置、視線検出システム、及び視線検出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190515

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190515

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190903

R150 Certificate of patent or registration of utility model

Ref document number: 6584717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250