JP7301256B2 - 顔向き判定装置および顔向き判定方法 - Google Patents

顔向き判定装置および顔向き判定方法 Download PDF

Info

Publication number
JP7301256B2
JP7301256B2 JP2023524508A JP2023524508A JP7301256B2 JP 7301256 B2 JP7301256 B2 JP 7301256B2 JP 2023524508 A JP2023524508 A JP 2023524508A JP 2023524508 A JP2023524508 A JP 2023524508A JP 7301256 B2 JP7301256 B2 JP 7301256B2
Authority
JP
Japan
Prior art keywords
face
mask
unit
face orientation
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023524508A
Other languages
English (en)
Other versions
JPWO2022269653A5 (ja
JPWO2022269653A1 (ja
Inventor
克彦 松尾
太郎 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022269653A1 publication Critical patent/JPWO2022269653A1/ja
Publication of JPWO2022269653A5 publication Critical patent/JPWO2022269653A5/ja
Application granted granted Critical
Publication of JP7301256B2 publication Critical patent/JP7301256B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、人の顔向きを判定する顔向き判定装置および顔向き判定方法に関するものである。
従来、人の顔向きを判定する技術として、人の顔が撮像された画像に基づき、当該画像上の当該人の鼻または口の位置から当該人の顔向きを判定する技術がある。
しかし、顔向きを判定する対象となる人(以下「対象者」という。)がマスクを着用していた場合、当該対象者が撮像された画像上で当該対象者の鼻または口を検知することができず、当該対象者の顔向きの判定が困難になることがある。
そこで、対象者がマスクを着用している場合に、当該対象者が撮像された画像上で当該対象者の鼻または口の位置を推定し、推定した鼻または口の位置から当該対象者の顔向きを判定する技術が知られている。例えば、特許文献1には、車両のドライバの顔が撮像された顔画像中のマスクの外形線に基づいて鼻孔位置を推定し、推定した鼻孔位置に基づいてドライバの眼の位置を特定してドライバの顔の向きを認識する運転状態推定装置が開示されている。
特開2009-276848号公報
従来技術では、対象者がマスクを着用している場合、顔向きの判定に用いる画像上の鼻または口の位置が推定された位置であるため、顔向きの判定精度が低下するという課題があった。
本開示は上記のような課題を解決するためになされたもので、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定可能とした顔向き判定装置を提供することを目的とする。
本開示に係る顔向き判定装置は、顔向きを推定する対象となる対象者の顔が撮像された撮像画像を取得する画像取得部と、画像取得部が取得した撮像画像において、対象者が着用しているマスクの上端部の一点とマスクの下端部の一点との間のマスク距離を測定するマスク認識部と、マスク認識部が測定したマスク距離に基づいて、対象者の顔向きを判定する顔向き判定部とを備えたものである。
本開示によれば、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定することができる。
実施の形態1に係る顔向き判定装置の構成例を示す図である。 実施の形態1において、顔向き判定部がドライバの横方向の顔向きについて、左に顔向きを変更したか、右に顔向きを変更したかを判定する方法の一例を示した図である。 実施の形態1における、顔向き判定部によるドライバの縦方向の顔向きの判定について説明するための図であって、図3Bは、ドライバが顔を正面に向けた場合の撮像画像上のドライバの顔を示す図であり、図3Aは、ドライバが顔を正面に向けた状態から顔を上に向けた場合の撮像画像上のドライバの顔を示す図であり、図3Cは、ドライバが顔を正面に向けた状態から顔を下に向けた場合の撮像画像上のドライバの顔を示す図である。 実施の形態1において、顔向き判定部がドライバの縦方向の顔向きについて、上に顔向きを変更したか、下に顔向きを変更したかを判定する方法の一例を示した図である。 実施の形態1に係る顔向き判定装置の動作について説明するためのフローチャートである。 図6Aおよび図6Bは、実施の形態1に係る顔向き判定装置のハードウェア構成の一例を示す図である。 実施の形態2に係る顔向き判定装置の構成例を示す図である。 実施の形態2に係る顔向き判定装置の動作について説明するためのフローチャートである。 第2機械学習モデルに基づいてドライバの顔向きを判定するように構成された顔向き判定装置の構成例を示す図である。 第2機械学習モデルに基づいてドライバの顔向きを判定するように構成された顔向き判定装置の動作を説明するためのフローチャートである。
以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、実施の形態1に係る顔向き判定装置1の構成例を示す図である。
実施の形態1に係る顔向き判定装置1は、顔向きを判定する対象となる人(以下「対象者」という。)の顔向きを判定する。
以下の実施の形態1では、一例として、顔向き判定装置1は車両100に搭載され、車両100のドライバの顔向きを判定するものとする。すなわち、以下の実施の形態1において、対象者は、車両100のドライバとする。車両100のドライバは、マスクを着用している可能性がある。
顔向き判定装置1は、車両100に搭載されているカメラ2および出力装置3と接続され、顔向き判定装置1とカメラ2と出力装置3とで、いわゆるDMS(Driver Monitoring System)を構成する。
顔向き判定装置1は、カメラ2がドライバの顔を撮像した画像(以下「撮像画像」という。)に基づいて、ドライバの顔向きを判定する。顔向き判定装置1は、判定したドライバの顔向きに関する情報を、出力装置3に出力する。なお、顔向きの単位は度である。
実施の形態1では、顔向き判定装置1は、ドライバの顔向きについて、縦方向の顔向き、および、横方向の顔向きを判定するものとする。ドライバの顔向きは、例えば、ドライバの顔が正面を向いている場合を0度とし、正面を向いた状態からの回転角により示すことができる。ドライバの横方向の顔向きは水平方向の回転角であらわされ、ドライバの縦方向の顔向きは垂直方向の回転角により示すことができる。
カメラ2は、例えば、車両100のインストルメントパネルの中央部、メータパネル、ステアリングコラム、Aピラー、または、センターコンソール周辺に、車室内をモニタリングすることを目的に設置される。カメラ2は、少なくとも乗員の顔を撮像可能に設置されている。
実施の形態1では、一例として、カメラ2は、車両100の運転席の正面に設けられているメータパネルに設置されているものとする。
カメラ2は、可視光カメラ、または、赤外線カメラである。
なお、図1では、カメラ2は車両100に1台のみ設置されることとしているが、これは一例に過ぎない。カメラ2は、車両100に複数台設置されてもよい。
カメラ2は、撮像した撮像画像を、顔向き判定装置1に出力する。
出力装置3は、例えば、車両100の乗員を監視する乗員監視装置(図示省略)である。乗員監視装置は、例えば、顔向き判定装置1が判定したドライバの顔向きが予め設定された閾値(以下「顔向き判定用閾値」という。)以上である場合に、表示装置(図示省略)に、「前方不注意」等の警告メッセージを表示させる。また、例えば、乗員監視装置は、音声出力装置(図示省略)に、顔向き判定装置1が判定したドライバの顔向きに基づく音声または警告音を出力してもよい。具体的には、乗員監視装置は、顔向き判定装置1が判定したドライバの顔向きが顔向き判定用閾値以上である場合に、音声出力装置から、「前方不注意」である旨の音声または警告音を出力させる。
表示装置および音声出力装置は、例えば、車両100のインストルメントパネルの中央部、メータパネル、ステアリングコラム、Aピラー、または、センターコンソール周辺に設置される。
なお、例えば、出力装置3を表示装置または音声出力装置とし、表示装置または音声出力装置が、直接、顔向き判定装置1から当該顔向き判定装置1が判定したドライバの顔向きを取得し、ドライバの顔向きに関する情報を表示または音声出力してもよい。
なお、出力装置3は、乗員監視装置、表示装置または音声出力装置に限らず、例えば、振動を発生させる振動発生装置、または、風を出力する送風機としてもよい。
また、図1では、出力装置3は車両100に1台のみ設置されることとしているが、これは一例に過ぎない。出力装置3は、車両100に複数台設置されてもよい。
実施の形態1に係る顔向き判定装置1の詳細について説明する。
顔向き判定装置1は、画像取得部11、特徴点抽出部12、顔種別判定部13、顔器官認識部14、マスク認識部15、顔向き判定部16、および、出力部17を備える。
画像取得部11は、カメラ2からドライバの顔が撮像された撮像画像を取得する。
画像取得部11は、取得した撮像画像を特徴点抽出部12に出力する。
特徴点抽出部12は、画像取得部11が取得した撮像画像に基づき、撮像画像において、ドライバの顔のパーツを示す特徴点を抽出する。特徴点抽出部12は、Haar-Like特徴を用いた手法、または、パターンマッチング等、既知の技術を用いて、撮像画像におけるドライバの顔のパーツを示す特徴点を抽出すればよい。なお、特徴点抽出部12が顔のどのパーツを示す特徴点を抽出するかは、予め決められている。特徴点抽出部12は、複数の顔のパーツについて、それぞれ特徴点を抽出することができる。
実施の形態1では、特徴点抽出部12は、少なくとも、ドライバの目および鼻を示す特徴点を抽出するものとする。より詳細には、ドライバの目は、目頭および目尻であらわされる。また、ドライバの鼻は、鼻頭であらわされる。特徴点は、撮像画像上の座標であらわされる。
特徴点抽出部12は、抽出した特徴点に関する情報を、顔器官認識部14に出力する。
また、特徴点抽出部12は、鼻の特徴点を抽出できたか否かを示す情報を、顔種別判定部13に出力する。
上述のとおり、ドライバはマスクを着用していることがある。この場合、特徴点抽出部12は、鼻の特徴点を抽出できない。
顔種別判定部13は、ドライバがマスクを着用しているか否かを判定する。
具体的には、顔種別判定部13は、特徴点抽出部12から出力された、鼻の特徴点を抽出できたか否かを示す情報に基づき、ドライバがマスクを着用しているか否かを判定する。顔種別判定部13は、特徴点抽出部12から、鼻の特徴点を抽出できなかった旨の情報が出力された場合、ドライバがマスクを着用していると判定する。
顔種別判定部13は、ドライバがマスクを着用しているか否かの判定結果を、顔器官認識部14およびマスク認識部15に出力する。
顔器官認識部14は、特徴点抽出部12が抽出した複数の特徴点のうちの2点の距離(以下「特徴点間距離」という。)を測定する。
具体的には、顔器官認識部14は、撮像画像において、特徴点抽出部12が抽出した複数の特徴点のうちドライバの両目頭を結ぶ線分の長さを特徴点間距離として測定する。
実施の形態1において、顔器官認識部14が測定する上記特徴点間距離は、ドライバの横方向の顔向きを判定するのに用いられる。実施の形態1において、ドライバの横方向の顔向きを判定するための上記特徴点間距離を、「横方向判定用距離」ともいう。なお、ドライバの顔向きの判定は、顔向き判定部16が行う。
なお、実施の形態1では、両目頭を結ぶ線分の長さを横方向判定用距離とするが、これは一例に過ぎない。横方向判定用距離は、複数の特徴点のうちの適宜の2点を結ぶ線分の長さとすることができる。
また、顔器官認識部14は、顔種別判定部13からドライバがマスクを着用していない旨の判定結果が出力された場合は、撮像画像において、ドライバの両目中心と鼻頭を示す特徴点との距離(以下「目鼻距離」という。)を測定する。なお、顔器官認識部14は、ドライバの両眼中心を、ドライバの両目頭を結ぶ線分の中点とすればよい。ドライバの両目頭および鼻頭を示す特徴点は、特徴点抽出部12にて抽出されている。
実施の形態1において、顔器官認識部14が測定する上記目鼻距離は、ドライバの縦方向の顔向きを判定するのに用いられる。実施の形態1において、ドライバの縦方向の顔向きを判定するための上記目鼻距離を、「縦方向判定用距離」ともいう。なお、ドライバの顔向きの判定は、顔向き判定部16が行う。
顔器官認識部14は、特徴点間距離、言い換えれば、横方向判定用距離を、顔向き判定部16に出力する。また、顔器官認識部14は、目鼻距離を測定した場合は、当該目鼻距離、言い換えれば、縦方向判定用距離を、顔向き判定部16に出力する。
マスク認識部15は、顔種別判定部13からドライバがマスクを着用している旨の判定結果が出力された場合に、撮像画像において、ドライバが着用しているマスクの上端部の一点とマスクの下端部の一点との間の距離(以下「マスク距離」という。)を測定する。なお、マスク認識部15は、特徴点抽出部12および顔種別判定部13を介して、画像取得部11が取得した撮像画像を取得すればよい。
実施の形態1において、マスク認識部15が測定する上記マスク距離は、ドライバの縦方向の顔向きを判定するための縦方向判定用距離である。実施の形態1において、縦方向判定用距離には、顔器官認識部14が測定した目鼻距離と、マスク認識部15が測定したマスク距離が含まれる。
実施の形態1では、マスクの上端部の一点は、マスクの上端部のうちの最上部の点とする。また、実施の形態1では、ドライバが着用しているマスクの下端部の一点は、マスクの下端部のうちの最下部の点とする。
マスクの上端部のうちの最上部の点の検出方法について、マスク認識部15は、例えば、撮像画像において、ドライバの目のエリアの下の予め決められた範囲をエッジ検出し、エッジ強度が予め設定された閾値よりも高い最上部の点を、マスクの上端部のうち最上部の点として検出する。撮像画像におけるドライバの目のエリアの大きさは、例えば、目頭を示す特徴点および目尻を示す特徴点の幅に応じて設定される。なお、マスク認識部15は、例えば、顔種別判定部13を介して、特徴点抽出部12が抽出した特徴点に関する情報を取得すればよい。
また、マスクの下端部のうちの最下部の点の検出方法について、マスク認識部15は、例えば、撮像画像において、ドライバの顔の下部のエリアをエッジ検出し、エッジ強度が予め設定された閾値よりも高い最下部の点を、マスクの下端部のうち最下部の点として検出する。撮像画像におけるドライバの顔の下部のエリアの大きさは、例えば、ドライバの顔の大きさに応じて設定される。マスク認識部15は、ドライバの目の特徴点等の顔の特徴点から、ドライバの顔の大きさを推定できる。
マスク認識部15は、ソーベル法、ガウスのラプラシアン法、または、キャニー法等、既知の一般的なエッジ検出フィルタを用いてエッジ検出を行えばよい。
マスク認識部15は、例えば、既知の画像認識技術を用いて撮像画像上のマスクの領域を検出し、検出したマスクの領域の形状から、マスクの上端部のうちの最上部の点、および、マスクの下端部のうちの最下部の点を検出してもよい。
マスク認識部15は、検出したマスク距離、言い換えれば、縦方向判定用距離を、顔向き判定部16に出力する。
顔向き判定部16は、顔器官認識部14から出力された横方向判定距離、言い換えれば、特徴点間距離と、顔器官認識部14またはマスク認識部15から出力された縦方向判定距離、言い換えれば、目鼻距離またはマスク距離とに基づいて、ドライバの顔向きを判定する。
より詳細には、顔向き判定部16は、顔器官認識部14から出力された特徴点間距離に基づいて、ドライバの横方向の顔向きを判定する。また、顔向き判定部16は、顔器官認識部14から目鼻距離が出力された場合は、当該目鼻距離に基づいて、ドライバの縦方向の顔向きを判定する。顔向き判定部16は、マスク認識部15からマスク距離が出力された場合は、当該マスク距離に基づいて、ドライバの縦方向の顔向きを判定する。
ここで、顔向き判定部16がドライバの顔向きを判定する方法の一例について説明する。
顔向き判定部16は、例えば、特徴点間距離の基準値(以下「横方向基準値」という。)と、顔器官認識部14から出力された特徴点間距離との比較によって、ドライバの横方向の顔向きを判定する。横方向基準値は、ドライバが正面を向いていると想定される場合の、撮像画像における特徴点間距離とする。
また、顔向き判定部16は、例えば、目鼻距離の基準値と顔器官認識部14から出力された目鼻距離との比較、または、マスク距離の基準値とマスク認識部15から出力されたマスク距離との比較によって、ドライバの縦方向の顔向きを判定する。目鼻距離の基準値、および、マスク距離の基準値を、まとめて「縦方向基準値」ともいう。ただし、目鼻距離の基準値としての縦方向基準値と、マスク距離の基準値としての縦方向基準値は、同じ値でなくてよい。
例えば、顔向き判定装置1は、ドライバが乗車した際に、キャリブレーション処理を行って横方向基準値および縦方向基準値を設定し、設定した横方向基準値および縦方向基準値を顔向き判定部16に記憶している。
キャリブレーション処理において、例えば、まず、ドライバが、正面を向いた状態で着座し、表示装置に備えられているタッチパネル式ディスプレイ(図示省略)のタッチ操作を行って、正面を向いて着座している旨の情報(以下「正面着座情報」という。)を入力する。顔向き判定装置1の制御部(図示省略)は、ドライバによって入力された正面着座情報を受け付け、画像取得部11に正面着座情報を受け付けた旨を通知する。画像取得部11は、正面着座情報を受け付けた旨が通知されると、カメラ2から撮像画像を取得する。当該撮像画像には、正面を向いて着座しているドライバの顔が撮像されている。
特徴点抽出部12は、画像取得部11が撮像した撮像画像に基づいて特徴点を抽出し、顔種別判定部13はドライバがマスクを着用しているか否かを判定する。ドライバがマスクを着用していない場合、顔器官認識部14は、特徴点間距離および目鼻距離を測定する。ドライバがマスクを着用している場合、顔器官認識部14が特徴点間距離を測定し、マスク認識部15がマスク距離を測定する。
顔向き判定部16は、顔器官認識部14が測定した特徴点間距離を横方向基準値として記憶する。また、顔向き判定部16は、顔器官認識部14が目鼻距離を測定した場合は目鼻距離を縦方向基準値とし、マスク認識部15がマスク距離を測定した場合はマスク距離を縦方向基準値として、記憶する。
なお、以上のキャリブレーション処理において、例えば、ドライバが着座すると、顔向き判定装置1の制御部が、タッチパネル式ディスプレイにて、ドライバに対して、正面を向いて着座し正面着座情報を入力するよう促す表示を行うようにしてもよい。
以上のキャリブレーション処理では、ドライバが正面着座情報を入力するようにしたが、これは一例に過ぎない。例えば、顔向き判定装置1は、運転開始後一定時間はドライバが正面を向いているものとみなし、当該一定時間内の適宜のタイミングで、特徴点間距離と、目鼻距離またはマスク距離の測定とを行い、横方向基準値および縦方向基準値を設定するようにしてもよい。
このように、顔向き判定装置1は、キャリブレーション処理を行って、横方向基準値および縦方向基準値を設定し、顔向き判定部16に記憶させている。
そして、顔向き判定部16は、横方向基準値と、顔器官認識部14から出力された特徴点間距離との比較によって、ドライバの横方向の顔向きを判定する。
実施の形態1において、カメラ2は、車両100の運転席の正面に設けられているメータパネルに設置されているので、撮像画像上で、特徴点間距離は、ドライバが顔を正面に向けた状態において一番長く、ドライバが左または右に顔向きを変更するに従って短くなっていく。なお、ドライバが左または右に顔向きを変更すると、ある時点からは撮像画像上で片方の目しか撮像されなくなり、特徴点間距離は「0」になる。顔向き判定部16は、顔器官認識部14から出力された特徴点間距離が、横方向基準値に対してどれぐらい短くなったかに基づき、ドライバの横方向の顔向きを判定する。
例えば、カメラ2の設置位置および画角に応じて、横方向基準値に対して特徴点間距離がどれぐらい変化した場合に、ドライバが横方向にどれぐらいの角度顔向きを変えたと判定するかが、予め決められている。ここでは、カメラ2が運転席の正面に設けられるので、特徴点間距離はドライバが顔を正面に向けた状態において一番長いが、例えば、カメラ2の設置位置によっては、特徴点間距離は、ドライバが顔を正面に向けた状態において一番長いとは限らない。例えば、カメラ2が斜めからドライバの顔を撮像する場合、ドライバが顔を向けた状態の特徴点間距離よりも、顔を左または右に向けた状態の特徴点間距離の方が長くなることもある。
なお、顔向き判定部16は、ドライバの横方向の顔向きについて、左に顔向きを変更したか、右に顔向きを変更したかを判定できる。
顔向き判定部16による、ドライバが左右のどちらの向きに顔向きを変更したかを判定する方法について、具体例を挙げて説明する。
まず、顔向き判定部16は、ドライバの顔が存在する領域(以下「顔領域」という。)を検出する。実施の形態1において、顔領域とは、撮像画像において顔の輪郭で囲まれた領域とする。顔向き判定部16は、例えば、撮像画像に対して既知の画像認識処理を行って、顔領域を検出すればよい。顔向き判定部16は、特徴点抽出部12、顔種別判定部13、および、顔器官認識部14を介して、画像取得部11が取得した撮像画像を取得すればよい。また、顔向き判定部16は、例えば、顔種別判定部13および顔器官認識部14を介して、特徴点抽出部12が抽出した特徴点に関する情報を取得し、特徴点に関する情報から顔領域を検出してもよい。
次に、顔向き判定部16は、検出した顔領域に基づき、ドライバの右半分の顔の輪郭上の1点であって、かつ、撮像画像上で最も左側に撮像されている当該輪郭上の点(以下「顔輪郭右端点」という。)を検出する。また、顔向き判定部16は、検出した顔領域に基づき、ドライバの左半分の顔の輪郭上の1点であって、かつ、撮像画像上で最も右側に撮像されている当該輪郭上の点(以下「顔輪郭左端点」という。)を検出する。
続いて、顔向き判定部16は、撮像画像上で顔輪郭右端点を通り撮像画像の縦方向と平行な直線(以下「第1直線」という。)と、撮像画像上でドライバの右目尻を示す特徴点を通り撮像画像の縦方向と平行な直線(以下「第2直線」という。)との距離(以下「右側距離」という。)を算出する。また、顔向き判定部16は、撮像画像上で顔輪郭左端点を通り撮像画像の縦方向と平行な直線(以下「第3直線」という。)と、撮像画像上でドライバの左目尻を示す特徴点を通り撮像画像の縦方向と平行な直線(以下「第4直線」という。)との距離(以下「左側距離」という。)を算出する。なお、顔向き判定部16は、ドライバの目尻を示す特徴点に関する情報を、特徴点抽出部12が抽出した特徴点に関する情報から特定できる。実施の形態1において、「平行」とは、厳密に平行である必要はなく、「平行」は「略平行」も含む。
そして、顔向き判定部16は、算出した右側距離および左側距離と、以下の条件(以下「横向き判定用条件」という。)との比較によって、ドライバが左に顔向きを変更したか、右に顔向きを変更したかを判定する。なお、横向き判定用条件は、予め設定され、顔向き判定部16が記憶している。

<横向き判定用条件>
顔向きを右と判定する条件:左側距離>右側距離
顔向きを左と判定する条件:左側距離<右側距離
ここで、図2は、実施の形態1において、顔向き判定部16がドライバ(図2においてDRで示す)の横方向の顔向きについて、左に顔向きを変更したか、右に顔向きを変更したかを判定する方法の一例を示した図である。なお、図2では、説明の簡単のため、撮像画像上のドライバの顔のみ図示している。また、図2では、ドライバの顔のパーツは、目のみ図示するようにしている。
図2において、31は顔輪郭右端点を示し、32は顔輪郭左端点を示し、33はドライバの右目尻を示す特徴点を示し、34はドライバの左目尻を示す特徴点を示している。また、図2において、Lは第1直線を示し、Lは第2直線を示し、Lは第3直線を示し、Lは第4直線を示している。また、図2において、Dは右側距離を示し、Dは左側距離を示している。
図2の例でいうと、D<Dであるため、顔向きを右と判定する横向き判定用条件を満たすことになる。したがって、この場合、顔向き判定部16は、ドライバは右に顔向きを変更したと判定する。
なお、上述の、横方向の顔向きの判定方法は一例に過ぎず、顔向き判定部16は、撮像画像上の2点の特徴点の距離から顔向きを判定する既知の技術を用いてドライバの横方向の顔向きを判定すればよい。
また、顔向き判定部16は、キャリブレーション処理によって記憶された縦方向基準値と、顔器官認識部14から出力された目鼻距離またはマスク認識部15から出力されたマスク距離との比較によって、ドライバの縦方向の顔向きを判定する。
具体的には、顔種別判定部13にてドライバはマスクを着用していないと判定された場合、顔向き判定部16は、目鼻距離の基準値としての縦方向基準値と目鼻距離との比較によってドライバの顔向きを判定する。顔種別判定部13にてドライバはマスクを着用していると判定された場合、顔向き判定部16は、マスク距離の基準値としての縦方向基準値とマスク距離との比較によってドライバの顔向きを判定する。
ここで、図3は、実施の形態1における、顔向き判定部16によるドライバの縦方向の顔向きの判定について説明するための図である。
図3Bは、ドライバが顔を正面に向けた場合の撮像画像上のドライバの顔を示す図であり、図3Aは、ドライバが顔を正面に向けた状態から顔を上に向けた場合の撮像画像上のドライバの顔を示す図であり、図3Cは、ドライバが顔を正面に向けた状態から顔を下に向けた場合の撮像画像上のドライバの顔を示す図である。なお、図3では、説明の簡単のため、撮像画像上のドライバの顔のみ図示している。
図3において、E1~E3は、ドライバの両目中心を示す。また、図3において、N1~N3は、ドライバの鼻頭を示す。また、図3において、M11、M21、および、M31は、マスクの上端部のうちの最上部の点を示し、M12、M22、および、M32は、マスクの下端部のうちの最下部の点を示す。
なお、図3において、201a~201cは、ドライバの両目間距離、すなわち、特徴点間距離を示している。
例えば、ドライバがマスクを着用していない場合、実施の形態1において、カメラ2は、車両100の運転席の正面に設けられているメータパネルに設置されているので、撮像画像上で、目鼻距離は、ドライバが顔を正面に向けた状態において一番長く、ドライバが上または下に顔向きを変更するに従って短くなっていく(図3Bの左側の図の202b、図3Aの左側の図の202a、および、図3Cの左側の図の202c参照)。顔向き判定部16は、顔器官認識部14から出力された目鼻距離が、縦方向基準値に対してどれぐらい短くなったかに基づき、ドライバの縦方向の顔向きを判定する。
例えば、カメラ2の設置位置および画角に応じて、縦方向基準値に対して特徴点間距離がどれぐらい変化した場合に、ドライバが縦方向にどれぐらいの角度顔向きを変えたと判定するかが、予め決められている。ここでは、カメラ2が運転席の正面に設けられるので、目鼻距離はドライバが顔を正面に向けた状態において一番長いが、例えば、カメラ2の設置位置によっては、目鼻距離は、ドライバが顔を正面に向けた状態において一番長いとは限らない。
なお、顔向き判定部16は、ドライバがマスクを着用していない場合、ドライバの縦方向の顔向きについて、上に顔向きを変更したか、下に顔向きを変更したかを判定できる。
顔向き判定部16による、ドライバが上下のどちらの向きに顔向きを変更したかを判定する方法について、具体例を挙げて説明する。
まず、顔向き判定部16は、ドライバの顔領域を検出する。ドライバの顔領域については説明済みであるため、詳細な説明を省略する。
次に、顔向き判定部16は、検出した顔領域に基づき、ドライバの顔の輪郭上の1点であって、かつ、撮像画像上で最も上側に撮像されている当該輪郭上の点(以下「顔輪郭上端点」という。)を検出する。また、顔向き判定部16は、検出した顔領域に基づき、ドライバの顔の輪郭上の1点であって、かつ、撮像画像上で最も下側に撮像されている当該輪郭上の点(以下「顔輪郭下端点」という。)を検出する。
続いて、顔向き判定部16は、撮像画像上で顔輪郭上端点を通り撮像画像の横方向と平行な直線(以下「第5直線」という。)と、撮像画像上でドライバの目の高さを示す点を通り撮像画像の横方向と平行な直線(以下「第6直線」という。)との距離(以下「上側距離」という。)を算出する。また、顔向き判定部16は、撮像画像上で顔輪郭下端点を通り撮像画像の横方向と平行な直線(以下「第7直線」という。)と第6直線との距離(以下「下側距離」という。)を算出する。なお、顔向き判定部16は、撮像画像上でドライバの右目尻を示す特徴点、左目尻を示す特徴点、右目頭を示す特徴点、または、左目頭を示す特徴点を、ドライバの目の高さを示す点とすればよい。ここでは、顔向き判定部16は、ドライバの左目尻を示す特徴点をドライバの目の高さを示す点とする。
そして、顔向き判定部16は、算出した上側距離および下側距離と、以下の条件(以下「縦向き判定用条件」という。)との比較によって、ドライバが上に顔向きを変更したか、下に顔向きを変更したかを判定する。なお、縦向き判定用条件は、予め設定され、顔向き判定部16が記憶している。以下では、縦向き判定用条件を2つ(第1縦向き判定用条件および第2縦向き判定用条件)示す。顔向き判定部16は、第1縦向き判定用条件と第2縦向き判定用条件のいずれかを用いてドライバが上に顔向きを変更したか、下に顔向きを変更したかを判定してもよいし、第1縦向き判定用条件と第2縦向き判定用条件の両方を用いてドライバが上に顔向きを変更したか、下に顔向きを変更したかを判定してもよい。
以下の第1縦向き判定用条件における「第1基準距離」とは、縦方向判定用距離が最長となる場合のドライバの目の高さを示す点を高さ基準点として算出された、当該高さ基準点を通り撮像画像の横方向と平行な直線(以下「基準直線」という。)と上記第5直線との距離である。なお、ここでは、縦方向判定用距離は、目鼻距離である。縦方向判定用距離が最長となる場合は、ドライバが顔を正面に向けた場合と想定される。
また、以下の第2縦向き判定用条件における「第2基準距離」とは、上記基準直線と上記第7直線との距離である。

<第1縦向き判定用条件>
顔向きを上と判定する条件:上側距離<第1基準距離
顔向きを下と判定する条件:上側距離>第1基準距離

<第2縦向き判定用条件>
顔向きを上と判定する条件:下側距離>第2基準距離
顔向きを下と判定する条件:下側距離<第2基準距離
ここで、図4は、実施の形態1において、顔向き判定部16がドライバ(図4においてDRで示す)の縦方向の顔向きについて、上に顔向きを変更したか、下に顔向きを変更したかを判定する方法の一例を示した図である。なお、図4では、説明の簡単のため、撮像画像上のドライバの顔のみ図示している。また、図4では、ドライバの顔のパーツは、目のみ図示するようにしている。
図4において、34はドライバの左目尻を示す特徴点を示し、35は顔輪郭上端点を示し、36は顔輪郭下端点を示している。また、図4において、Lは第5直線を示し、Lは第6直線を示し、Lは第7直線を示している。また、図4において、Dは上側距離を示し、Dは下側距離を示している。
図4の例でいうと、例えば、顔向き判定部16は、D<第1基準距離である場合、または、D>第2基準距離である場合、ドライバは上に顔向きを変更したと判定する。また、例えば、顔向き判定部16は、D<第1基準距離であり、かつ、D>第2基準距離である場合に、ドライバは上に顔向きを変更したと判定してもよい。
また、例えば、ドライバがマスクを着用している場合、実施の形態1において、カメラ2は、車両100の運転席の正面に設けられているメータパネルに設置されているので、撮像画像上で、ドライバが顔を正面に向けた状態におけるマスク距離は、ドライバが下方向に顔向きを変更させた状態におけるマスク距離よりも長い(図3Bの右側の図の203b、および、図3Cの右側の図の203c参照)。逆に、ドライバが顔を正面に向けた状態におけるマスク距離は、ドライバが上方向に顔向きを変更させた状態におけるマスク距離よりも短い(図3Bの右側の図の203b、および、図3Aの右側の図の203a参照)。顔向き判定部16は、マスク認識部15から出力されたマスク距離が、縦方向基準値に対してどれぐらい長くなったか、または、短くなったかに基づき、ドライバの縦方向の顔向きを判定する。
例えば、カメラ2の設置位置および画角に応じて、縦方向基準値に対してマスク距離がどれぐらい変化した場合に、ドライバが縦方向にどれぐらいの角度顔向きを変えたと判定するかが、予め決められている。ここでは、カメラ2が運転席の正面に設けられるので、マスク距離は、ドライバが顔を下に向けた状態、ドライバが顔を正面に向けた状態、ドライバが顔を上に向けた状態の順で長くなるが、例えば、カメラ2の設置位置によっては、マスク距離がこの長さ関係になるとは限らない。
顔向き判定部16は、判定したドライバの顔向き、言い換えれば、ドライバの横方向の顔向き、および、ドライバの縦方向の顔向きを、出力部17に出力する。
出力部17は、顔向き判定部16から出力されたドライバの顔向きに関する情報を、出力装置3に出力する。
なお、出力部17の機能を、顔向き判定部16が備えるようにしてもよい。
実施の形態1に係る顔向き判定装置1の動作について説明する。
図5は、実施の形態1に係る顔向き判定装置1の動作について説明するためのフローチャートである。
画像取得部11は、カメラ2からドライバの顔が撮像された撮像画像を取得する(ステップST10)。
画像取得部11は、取得した撮像画像を特徴点抽出部12に出力する。
特徴点抽出部12は、ステップST10にて画像取得部11が取得した撮像画像に基づき、撮像画像において、ドライバの顔のパーツを示す特徴点を抽出する(ステップST20)。特徴点抽出部12は、抽出した特徴点に関する情報を、顔器官認識部14に出力する。
また、当該ステップST20において、特徴点抽出部12は、鼻の特徴点を抽出できたか否かを示す情報を、顔種別判定部13に出力する。
顔種別判定部13は、ドライバがマスクを着用しているか否かを判定する(ステップST30)。
顔種別判定部13は、ドライバがマスクを着用しているか否かの判定結果を、顔器官認識部14およびマスク認識部15に出力する。
顔器官認識部14は、ステップST20にて特徴点抽出部12が抽出した複数の特徴点のうちの2点の特徴点間距離を測定する(ステップST40)。また、当該ステップST40において、顔器官認識部14は、ステップST30にて顔種別判定部13からドライバがマスクを着用していない旨の判定結果が出力された場合は、撮像画像において、ドライバの目鼻距離を測定する。
顔器官認識部14は、特徴点間距離、言い換えれば、横方向判定用距離を、顔向き判定部16に出力する。また、顔器官認識部14は、目鼻距離を測定した場合は、当該目鼻距離、言い換えれば、縦方向判定用距離を、顔向き判定部16に出力する。
マスク認識部15は、ステップST30にて顔種別判定部13からドライバがマスクを着用している旨の判定結果が出力された場合に、ドライバが着用しているマスクのマスク距離を測定する(ステップST50)。
マスク認識部15は、検出したマスク距離、言い換えれば、縦方向判定用距離を、顔向き判定部16に出力する。
顔向き判定部16は、ステップST40にて顔器官認識部14から出力された横方向判定距離、言い換えれば、特徴点間距離と、ステップST40またはステップST50にて顔器官認識部14またはマスク認識部15から出力された縦方向判定距離、言い換えれば、目鼻距離またはマスク距離とに基づいて、ドライバの顔向きを判定する(ステップST60)。
顔向き判定部16は、判定したドライバの顔向き、言い換えれば、ドライバの横方向の顔向き、および、ドライバの縦方向の顔向きを、出力部17に出力する。そして、出力部17は、顔向き判定部16から出力されたドライバの顔向きに関する情報を、出力装置3に出力する。
図6Aおよび図6Bは、実施の形態1に係る顔向き判定装置1のハードウェア構成の一例を示す図である。
実施の形態1において、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部の機能は、処理回路401により実現される。すなわち、顔向き判定装置1は、カメラ2から取得した撮像画像に基づいて、対象者の顔向きを判定する制御を行うための処理回路401を備える。
処理回路401は、図6Aに示すように専用のハードウェアであっても、図6Bに示すようにメモリに格納されるプログラムを実行するプロセッサ404であってもよい。
処理回路401が専用のハードウェアである場合、処理回路401は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。
処理回路がプロセッサ404の場合、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ405に記憶される。プロセッサ404は、メモリ405に記憶されたプログラムを読み出して実行することにより、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部の機能を実行する。すなわち、顔向き判定装置1は、プロセッサ404により実行されるときに、上述の図5のステップST10~ステップST60が結果的に実行されることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部の処理の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ405とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。
なお、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、画像取得部11と出力部17については専用のハードウェアとしての処理回路401でその機能を実現し、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、図示しない制御部についてはプロセッサ404がメモリ405に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
また、顔向き判定装置1は、カメラ2または出力装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
以上の実施の形態1では、顔種別判定部13は、特徴点抽出部12が鼻の特徴点を抽出できたか否かによってドライバがマスクを着用しているか否かを判定するものとしたが、これは一例に過ぎない。例えば、ドライバは鼻を覆わないようにマスクを着用していることも考えられる。そこで、特徴点抽出部12は口の特徴点も抽出するようにし、顔種別判定部13は、特徴点抽出部12が口の特徴点を抽出できなかった場合に、ドライバはマスクを着用していると判定してもよい。この場合、特徴点抽出部12は、口の特徴点を抽出できたか否かの情報を顔種別判定部13に出力する。
また、以上の実施の形態1において、顔種別判定部13は、特徴点抽出部12から出力された、鼻の特徴点を抽出できたか否か、または、口の特徴点を抽出できたか否かの情報以外の情報に基づいて、ドライバがマスクを着用しているか否かを判定することもできる。例えば、ドライバは、乗車時に、車両100に搭載されているナビゲーション装置(図示省略)のタッチパネルを操作してマスクを着用しているか否かの情報を入力し、顔種別判定部13は、ドライバが入力した情報を受け付け、当該情報に基づいて、ドライバがマスクを着用しているかを判定してもよい。この場合、特徴点抽出部12は、鼻の特徴点を抽出できたか否かの情報、または、口の特徴点を抽出できたか否かの情報を顔種別判定部13に出力する必要はない。
また、以上の実施の形態1において、顔種別判定部13は、学習済みのモデル(以下「第1機械学習モデル」という。)を用いて、ドライバがマスクを着用しているか否かを判定してもよい。
第1機械学習モデルは、マスクを着用している顔、または、マスクを着用していない顔を含む人の顔が撮像された撮像画像を入力とし、人の顔の種別を示す情報を出力するよう学習しており、例えば、顔種別判定部13に記憶されている。第1機械学習モデルは、顔向き判定装置1の外部の、顔向き判定装置1が参照可能な場所に記憶されていてもよい。実施の形態1において、人の顔の種別とは、人の顔が、装着物を装着している顔か、装着物を装着している場合どのような装着物を装着している顔か、を分類分けした情報をいう。第1機械学習モデルが出力する人の顔の種別を示す情報には、マスクを装着している顔であることが判別可能な情報が含まれる。
なお、第1機械学習モデルは、マスクを着用している顔が撮像された撮像画像のみを学習データとして人の顔の種別を示す情報を出力するよう学習したモデル、または、マスクを着用していない顔が撮像された撮像画像のみを学習データとして人の顔の種別を示す情報を出力するよう学習したモデルではなく、マスクを着用している顔が撮像された撮像画像とマスクを着用していない顔が撮像された撮像画像とを学習データとして人の顔の種別を示す情報を出力するよう学習したモデルである。つまり、第1機械学習モデルは、マスクを着用した顔の撮像画像と、マスクを着用していない顔の撮像画像のいずれを入力としても、人の顔の種別を示す情報を出力可能に学習しているモデルである。
顔種別判定部13は、画像取得部11が取得した撮像画像と第1機械学習モデルとに基づき、ドライバの顔の種別がマスク着用顔を示す種別であるか否かによって、ドライバがマスクを着用しているか否かを判定する。
また、以上の実施の形態1では、顔向き判定部16は、ドライバの横方向の顔向き、および、ドライバの縦方向の顔向きを判定していたが、これは一例に過ぎない。顔向き判定部16は、ドライバの顔向きとして、少なくとも、ドライバの縦方向の顔向きを判定するようになっていればよく、ドライバの横方向の顔向きを判定することは必須ではない。
すなわち、顔向き判定部16は、マスク認識部15が測定したマスク距離に基づいて、ドライバの顔向きを判定するようになっていればよい。
また、以上の実施の形態1において、ドライバが、必ずマスクを着用しており、マスクを着用していないことが想定されない場合、顔向き判定装置1は、ドライバがマスクを着用しているか否かの判定機能を有することを必須としない。
この場合、顔向き判定装置1は、顔種別判定部13を備えない構成としてもよい。
さらに、顔向き判定装置1が、必ずマスクを着用しているドライバの縦方向の顔向きのみを判定する場合、顔向き判定装置1は、特徴点抽出部12および顔種別判定部13を備えない構成としてもよい。
また、以上の実施の形態1では、顔向き判定装置1は、車両100に搭載される車載装置とし、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部は、車載装置に備えられているものとした。
これに限らず、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで顔向き判定システムを構成するようにしてもよい。
また、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部が全部サーバに備えられてもよい。
また、以上の実施の形態1では、対象者はドライバとしたが、これは一例に過ぎない。対象者は、車両100内のドライバ以外の乗員としてもよい。
また、対象者は、車両100の乗員に限らない。例えば、居室等に存在する人を対象者としてもよい。
また、顔向き判定装置1は、カメラ2が撮像した撮像画像に複数の人の顔が撮像されている場合は、当該複数の人を対象者として、複数の対象者の顔向きをそれぞれ判定することもできる。
このように、顔向き判定装置1は、対象者の顔が撮像された撮像画像において、対象者が着用しているマスクのマスク距離に基づいて、対象者の顔向きを判定する。
上述したような従来技術では、対象者の顔向きの判定に画像上の鼻または口を用い、対象者がマスクを着用している場合には、画像上の鼻または口の位置を推定していた。そのため、マスクを着用している対象者の顔向きの判定精度が、マスクを着用していない対象者の顔向きの判定精度と比べて低下していた。
これに対し、実施の形態1に係る顔向き判定装置1は、対象者がマスクを着用している場合、撮像画像におけるマスクの上端部の一点とマスクの下端部の一点とに基づくマスク距離に基づいて対象者の顔向きを判定する。つまり、実際の撮像画像上の点を用いて対象者の顔向きを判定する。これにより、顔向き判定装置1は、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定することができる。
また、上述したような従来技術では、対象者がマスクを着用している場合、顔向きの判定に用いる画像上の鼻または口の位置を推定するプロセスが必要であり、顔向き判定全体のプロセスが複雑になる。その結果、顔向き判定処理の演算負荷が、高くなる。
これに対し、実施の形態1に係る顔向き判定装置1は、上述したような従来の顔向き判定方法に比べ、簡易な方法で、対象者の顔向きの判定を行うことができる。
以上のように、実施の形態1によれば、顔向き判定装置1は、顔向きを推定する対象となる対象者の顔が撮像された撮像画像を取得する画像取得部11と、画像取得部11が取得した撮像画像において、対象者が着用しているマスクの上端部の一点とマスクの下端部の一点との間のマスク距離を測定するマスク認識部15と、マスク認識部15が測定したマスク距離に基づいて、対象者の顔向きを判定する顔向き判定部16とを備えるように構成した。そのため、顔向き判定装置1は、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定することができる。
また、顔向き判定装置1は、対象者がマスクを着用しているか否かを判定する顔種別判定部13を備え、顔向き判定部16は、顔種別判定部13が対象者はマスクを着用していると判定した場合、マスク認識部15が測定したマスク距離に基づいて、対象者の顔向きを判定する。そのため、顔向き判定装置1は、対象者がマスクを着用している場合とマスクを着用していない場合の両方の場合が想定される場合においても、対象者がマスクを着用していることを判定し、当該対象者の顔向きを判定することができる。
また、顔向き判定装置1において、顔種別判定部13は、画像取得部11が取得した撮像画像と、マスクを着用している顔またはマスクを着用していない顔を含む人の顔が撮像された撮像画像を入力とし当該人の顔の種別を示す情報を出力する第1機械学習モデルとに基づき、対象者の顔の種別がマスク着用顔を示す種別であるか否かによって、対象者がマスクを着用しているか否かを判定する。そのため、顔向き判定装置1は、対象者がマスクを着用している場合とマスクを着用していない場合の両方の場合が想定される場合においても、対象者がマスクを着用していることを判定し、当該対象者の顔向きを判定することができる。
また、顔向き判定装置1において、顔向き判定部16がマスク距離に基づいて判定する対象者の顔向きは対象者の縦方向の顔向きであり、顔向き判定装置1は、画像取得部11が取得した撮像画像に基づき、撮像画像において、対象者の顔のパーツを示す複数の特徴点を抽出する特徴点抽出部12と、特徴点抽出部12が抽出した複数の特徴点のうちの2点の特徴点間距離を測定する顔器官認識部14を備え、顔向き判定部16は、顔器官認識部14が測定した特徴点間距離に基づいて、対象者の横方向の顔向きを判定する。このように、顔向き判定装置1は、マスクを着用している対象者の顔向きとして、縦方向の顔向きのみならず、横方向の顔向きを判定することができる。
実施の形態2.
実施の形態1では、顔向き判定装置は、対象者がマスクをずらす可能性があることを想定していなかった。しかし、対象者は、例えば、マスクを顎方向にずらす可能性もある。
実施の形態2では、顔向き判定装置が、対象者がマスクをずらす可能性があることを想定して、対象者の顔向きを判定する実施の形態について説明する。
なお、以下の実施の形態2でも、実施の形態1同様、顔向き判定装置は車両に搭載され、対象者は車両のドライバとする。しかし、これは一例に過ぎず、顔向き判定装置は、顔向きを判定する対象者を、車両のドライバ以外の乗員、または、車両外に存在する人とすることもできる。
図7は、実施の形態2に係る顔向き判定装置1aの構成例を示す図である。
実施の形態2に係る顔向き判定装置1aの構成について、実施の形態1にて図1を用いて説明した顔向き判定装置1と同じ構成には、同じ符号を付して重複した説明を省略する。
実施の形態2に係る顔向き判定装置1aは、実施の形態1に係る顔向き判定装置1とは、ずれ検知部18を備えた点が異なる。
また、実施の形態2に係る顔向き判定装置1aにおいて、顔向き判定部16aの具体的な動作が、実施の形態1に係る顔向き判定装置1における顔向き判定部16の具体的な動作と異なる。
ずれ検知部18は、特徴点抽出部12が抽出した特徴点の位置と、撮像画像におけるマスク上の一点とに基づいて、ドライバが着用しているマスクのずれ量を検知する。実施の形態1では、ずれ検知部18がマスクのずれ量を検知する際に用いる、撮像画像におけるマスク上の一点は、例えば、マスクの上端部の一点、言い換えれば、マスクの上端部のうちの最上部の点とする。
なお、実施の形態2において、特徴点抽出部12は、抽出した特徴点に関する情報をずれ検知部18に出力する。また、マスク認識部15は、マスクの上端部の一点に関する情報をずれ検知部18に出力する。
例えば、ずれ検知部18は、特徴点抽出部12およびマスク認識部15からそれぞれ特徴点に関する情報およびマスクの上端部の一点に関する情報を取得すると、ある特徴点(以下「ずれ検知用特徴点」という。)と、マスクの上端部のうちの最上部の点との距離(以下「ずれ検知用距離」という。)を測定し、記憶する。ずれ検知部18は、ずれ検知用距離が、予め設定された閾値(以下「ずれ検知用閾値」という。)以上変化したか否かを判定する。ずれ検知用距離がずれ検知用閾値以上変化した場合、ずれ検知部18は、ドライバのマスクにずれが発生したと判定し、マスクのずれ量を検知する。例えば、ずれ検知部18は、ずれ検知用距離の変化量を、マスクのずれ量とする。
ずれ検知用特徴点は、例えば、目頭または目尻を示す特徴点とする。
なお、実施の形態2では、ずれ検知部18がマスクのずれ量を検知する際に用いる、撮像画像におけるマスク上の一点は、マスクの上端部の一点としたが、これは一例に過ぎない。ずれ検知部18がマスクのずれ量を検知する際に用いる、撮像画像におけるマスク上の一点は、例えば、マスクの下端部の一点としてもよいし、撮像画像におけるマスク上の任意の一点としてもよい。ずれ検知部18は、例えば、マスク認識部15から撮像画像を取得し、既知の画像認識処理を行って、マスク上の任意の一点を選択すればよい。
また、例えば、ずれ検知部18は、複数のずれ検知用距離を設定し、複数のずれ検知用距離の比較によって、マスクのずれ量を検知してもよい。例えば、ずれ検知部18は、目尻を示す特徴点と眉毛を示す特徴点の距離を第1ずれ検知用距離とする。また、ずれ検知部18は、マスクの上端部のうちの最上部の点と目頭または目尻を示す特徴点との距離を第2ずれ検知用距離とする。そして、ずれ検知部18は、例えば、第1ずれ検知用距離が変化していないのに第2ずれ検知用距離が変化した場合、ドライバのマスクにずれが発生したと判定し、マスクのずれ量を検知する。例えば、ずれ検知部18は、第2ずれ検知用距離の変化量を、マスクのずれ量とする。
ずれ検知部18は、検知したマスクのずれ量を、顔向き判定部16aに出力する。
顔向き判定部16aは、顔器官認識部14から出力された横方向判定距離、言い換えれば、特徴点間距離と、顔器官認識部14またはマスク認識部15から出力された縦方向判定距離、言い換えれば、目鼻距離またはマスク距離と、ずれ検知部18が検知したマスクのずれ量とに基づいて、ドライバの顔向きを判定する。より詳細には、顔向き判定部16aは、顔器官認識部14から出力された特徴点間距離に基づいて、ドライバの横方向の顔向きを判定する。顔向き判定部16aによるドライバの横方向の顔向きの判定方法は、実施の形態1にて説明済みの、顔向き判定部16によるドライバの横方向の顔向きの判定方法と同様である。
また、顔向き判定部16aは、顔器官認識部14から目鼻距離が出力された場合は、当該目鼻距離に基づいて、ドライバの縦方向の顔向きを判定する。顔向き判定部16aによる、目鼻距離に基づくドライバの縦方向の顔向きの判定方法は、実施の形態1にて説明済みの、顔向き判定部16による、目鼻距離に基づくドライバの縦方向の顔向きの判定方法と同様である。
実施の形態2における顔向き判定部16aと、実施の形態1における顔向き判定部16は、マスク距離に基づくドライバの縦方向の顔向きの判定方法が異なる。
顔向き判定部16aは、マスク認識部15からマスク距離が出力された場合は、当該マスク距離に基づいて、ドライバの縦方向の顔向きを判定する。このとき、顔向き判定部16aは、マスク認識部15が測定したマスク距離とずれ検知部18が検知したマスクのずれ量とに基づいて、ドライバの縦方向の顔向きを判定する。
具体的には、顔向き判定部16aは、ずれ検知部18が検知したマスクのずれ量に応じて縦方向基準値を補正する。例えば、予め、マスクのずれ量がどれぐらいであった場合にどれぐらい縦方向基準値を補正するかが決められている。
そして、顔向き判定部16aは、補正後の縦方向基準値とマスク距離との比較によってドライバの顔向きを判定する。なお、顔向き判定部16aが補正後の縦方向基準値とマスク距離との比較によってドライバの顔向きを判定する方法は、実施の形態1にて説明済みの、顔向き判定部16が縦方向基準値とマスク距離との比較によってドライバの顔向きを判定する方法と同様である。
実施の形態2に係る顔向き判定装置1aの動作について説明する。
図8は、実施の形態2に係る顔向き判定装置1aの動作について説明するためのフローチャートである。
図8のステップST10~ステップST50における顔向き判定装置1aの具体的な動作は、実施の形態1にて説明済みの、図5のステップST10~ステップST50における顔向き判定装置1の具体的な動作と同様であるため、重複した説明を省略する。
ずれ検知部18は、ステップST20にて特徴点抽出部12が抽出した特徴点の位置と、撮像画像におけるマスク上の一点とに基づいて、ドライバが着用しているマスクのずれ量を検知する(ステップST55)。
ずれ検知部18は、検知したマスクのずれ量を、顔向き判定部16aに出力する。
顔向き判定部16aは、ステップST40にて顔器官認識部14から出力された横方向判定距離、言い換えれば、特徴点間距離と、ステップST40またはステップST50にて顔器官認識部14またはマスク認識部15から出力された縦方向判定距離、言い換えれば、目鼻距離またはマスク距離と、ステップST55にてずれ検知部18が検知したマスクのずれ量とに基づいて、ドライバの顔向きを判定する(ステップST60)。
実施の形態2に係る顔向き判定装置1aのハードウェア構成は、実施の形態1において図6Aおよび図6Bを用いて説明した顔向き判定装置1のハードウェア構成と同様であるため、図示を省略する。
実施の形態2において、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部の機能は、処理回路401により実現される。すなわち、顔向き判定装置1aは、カメラ2から取得した撮像画像に基づいて、ドライバのマスクがずれることを想定しつつドライバの顔向きを判定する制御を行うための処理回路401を備える。
処理回路401は、メモリ405に記憶されたプログラムを読み出して実行することにより、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部の機能を実行する。すなわち、顔向き判定装置1aは、処理回路401により実行されるときに、上述の図8のステップST10~ステップST60が結果的に実行されることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部の処理の手順または方法をコンピュータに実行させるものであるとも言える。
顔向き判定装置1aは、カメラ2または出力装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
なお、以上の実施の形態2でも、実施の形態1同様、顔種別判定部13は、特徴点抽出部12が口の特徴点を抽出できなかった場合に、ドライバはマスクを着用していると判定してもよい。
また、以上の実施の形態2でも、実施の形態1同様、顔種別判定部13は、特徴点抽出部12から出力された、鼻の特徴点を抽出できたか否か、または、口の特徴点を抽出できたか否かの情報以外の情報に基づいて、ドライバがマスクを着用しているか否かを判定することもできる。
また、以上の実施の形態2でも、実施の形態1同様、顔種別判定部13は、第1機械学習モデルを用いて、ドライバがマスクを着用しているか否かを判定してもよい。
また、以上の実施の形態2では、顔向き判定部16aは、ドライバの横方向の顔向き、および、ドライバの縦方向の顔向きを判定していたが、これは一例に過ぎない。顔向き判定部16aは、ドライバの顔向きとして、少なくとも、ドライバの縦方向の顔向きを判定するようになっていればよく、ドライバの横方向の顔向きを判定することは必須ではない。
すなわち、顔向き判定部16aは、マスク認識部15が測定したマスク距離とずれ検知部18が検知したマスクのずれ量とに基づいて、ドライバの顔向きを判定するようになっていればよい。
また、以上の実施の形態2において、ドライバが、必ずマスクを着用しており、マスクを着用していないことが想定されない場合、顔向き判定装置1aは、ドライバがマスクを着用しているか否かの判定機能を有することを必須としない。
また、以上の実施の形態2では、顔向き判定装置1aは、車両100に搭載される車載装置とし、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部は、車載装置に備えられているものとした。
これに限らず、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで顔向き判定システムを構成するようにしてもよい。
また、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部が全部サーバに備えられてもよい。
以上のように、実施の形態2によれば、顔向き判定装置1aは、実施の形態1に係る顔向き判定装置1の構成に加え、特徴点抽出部12が抽出した特徴点の位置と撮像画像におけるマスク上の一点とに基づいて、対象者が着用しているマスクのずれ量を検知するずれ検知部18を備え、顔向き判定部16aは、マスク認識部15が測定したマスク距離とずれ検知部18が検知したマスクのずれ量とに基づいて、対象者の顔向きを判定する。そのため、顔向き判定装置1aは、対象者のマスクにずれが発生することを想定しつつ、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定することができる。つまり、顔向き判定装置1aは、対象者が着用しているマスクにずれが発生した場合に、当該ずれを考慮して、対象者の顔向きを判定することができる。
以上の実施の形態1および実施の形態2では、顔向き判定装置1,1aにおいて、顔向き判定部16,16aは、横方向判定距離と縦方向判定距離とに基づいて、ドライバの顔向きを判定していた。しかし、これは一例に過ぎない。
顔向き判定装置は、例えば、学習済みのモデル(以下「第2機械学習モデル」という。)に基づいて、ドライバの顔向きを判定するように構成されてもよい。
第2機械学習モデルは、マスクを着用している顔、または、マスクを着用していない顔を含む人の顔が撮像された撮像画像を入力とし、人の顔向きに関する情報を出力するよう学習しており、顔向き判定装置が参照可能な場所に記憶されている。人の顔向きに関する情報には、人の顔向きと、当該人の顔がマスクを着用している顔かマスクを着用していない顔かを示す情報が含まれる。例えば、第2機械学習は、マスクを着用しているか否かの情報が付与された、マスクを着用している顔、マスクを着用していない顔、または、マスクをずらして当該マスクを着用している顔を含む人の顔が撮像された撮像画像を学習用データとした、いわゆる教師あり学習によって生成されている。なお、マスクを着用しているか否かの情報は、教師ラベルである。
なお、第2機械学習モデルは、マスクを着用している顔が撮像された撮像画像のみを学習データとして人の顔向きを出力するよう学習したモデル、または、マスクを着用していない顔が撮像された撮像画像のみを学習データとして人の顔向きを出力するよう学習したモデルではなく、マスクを着用している顔が撮像された撮像画像とマスクを着用していない顔が撮像された撮像画像とを学習データとして人の顔向きを出力するよう学習したモデルである。つまり、第2機械学習モデルは、マスクを着用した顔の撮像画像と、マスクを着用していない顔の撮像画像のいずれを入力としても、人の顔向きを出力可能に学習しているモデルである。
なお、ここでは、対象者はドライバを想定して説明しているが、これは一例に過ぎない。対象者は、ドライバ以外の車両100の乗員としてもよいし、車両100外に存在する人としてもよい。
ここで、図9は、第2機械学習モデルに基づいてドライバの顔向きを判定するように構成された顔向き判定装置1bの構成例を示す図である。
顔向き判定装置1bの構成について、実施の形態1において図1を用いて説明した顔向き判定装置1の構成と同様の構成については、同じ符号を付して重複した説明を省略する。
顔向き判定装置1bは、実施の形態1に係る顔向き判定装置1とは、特徴点抽出部12、顔種別判定部13、顔器官認識部14、マスク認識部15を備えない点が異なる。また、顔向き判定装置1bにおいて、顔向き判定部16bの具体的な動作が、実施の形態1に係る顔向き判定装置1における顔向き判定部16の具体的な動作と異なる。
顔向き判定部16bは、画像取得部11が取得した撮像画像と第2機械学習モデルとに基づき、ドライバの顔向きを判定する。
図10は、第2機械学習モデルに基づいてドライバの顔向きを判定するように構成された顔向き判定装置1bの動作を説明するためのフローチャートである。
画像取得部11は、カメラ2からドライバの顔が撮像された撮像画像を取得する(ステップST10)。
画像取得部11は、取得した撮像画像を顔向き判定部16bに出力する。
顔向き判定部16bは、ステップST10にて画像取得部11が取得した撮像画像と第2機械学習モデルとに基づき、ドライバの顔向きを判定する(ステップST60a)。
顔向き判定部16bは、判定したドライバの顔向きを出力部17に出力する。そして、出力部17は、顔向き判定部16aから取得したドライバの顔向きを出力装置3に出力する。なお、顔向き判定部16bが出力部17の機能を有してもよい。
また、顔向き判定装置1bは、学習済みのモデル(以下「第3機械学習モデル」という。)を用いて、ドライバが着用しているマスクにずれが発生することを想定しつつ、ドライバの顔向きを判定するよう構成されてもよい。
第3機械学習モデルは、マスクを着用している顔、マスクを着用していない顔、または、マスクをずらして当該マスクを着用している顔を含む人の顔が撮像された撮像画像を入力とし、人の顔向きに関する情報を出力するよう学習しており、顔向き判定装置が参照可能な場所に記憶されている。人の顔向きに関する情報には、人の顔向きと、当該人の顔がマスクを着用している顔かマスクを着用していない顔かを示す情報と、当該人の顔がマスクを着用している顔である場合のマスクのずれ量を示す情報が含まれる。例えば、第3機械学習モデルは、マスクを着用しているか否かの情報が付与された、マスクを着用している顔、マスクを着用していない顔、または、マスクをずらして当該マスクを着用している顔を含む人の顔が撮像された撮像画像と、マスクのずれ量を示す情報とを学習用データとした、いわゆる教師あり学習によって生成されている。なお、マスクを着用しているか否かの情報およびマスクのずれ量を示す情報は、教師ラベルである。
なお、第3機械学習モデルは、マスクを着用している顔が撮像された撮像画像のみを学習データとして人の顔向きを出力するよう学習したモデル、マスクを着用していない顔が撮像された撮像画像のみを学習データとして人の顔向きを出力するよう学習したモデル、または、マスクをずらして当該マスクを着用している顔が撮像された撮像画像のみを学習データとして人の顔向きを出力するよう学習したモデルではない。第3機械学習モデルは、マスクを着用している顔が撮像された撮像画像と、マスクを着用していない顔が撮像された撮像画像と、マスクをずらして当該マスクを着用している顔が撮像された撮像画像を学習データとして人の顔向きを出力するよう学習したモデルである。つまり、第3機械学習モデルは、マスクを着用した顔の撮像画像と、マスクを着用していない顔の撮像画像と、マスクをずらして当該マスクを着用している顔の撮像画像のいずれを入力としても、人の顔向きを出力可能に学習しているモデルである。
この場合、図10を用いて説明した顔向き判定装置1bの動作について、ステップST60aにおいて、顔向き判定部16bは、ステップST10にて画像取得部11が取得した撮像画像と第3機械学習モデルとに基づき、ドライバの顔向きを判定する(ステップST60a)。
顔向き判定装置1bのハードウェア構成は、実施の形態1において図6Aおよび図6Bを用いて説明した顔向き判定装置1のハードウェア構成と同様であるため、図示を省略する。
顔向き判定装置1bにおいて、画像取得部11と、顔向き判定部16bと、出力部17の機能は、処理回路401により実現される。すなわち、顔向き判定装置1bは、カメラ2から取得した撮像画像に基づいて、ドライバの顔向きを判定する制御を行うための処理回路401を備える。
処理回路401は、メモリ405に記憶されたプログラムを読み出して実行することにより、画像取得部11と、顔向き判定部16bと、出力部17の機能を実行する。すなわち、顔向き判定装置1bは、処理回路401により実行されるときに、上述の図10のステップST10~ステップST60aが結果的に実行されることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、画像取得部11と、顔向き判定部16bと、出力部17の処理の手順または方法をコンピュータに実行させるものであるとも言える。
顔向き判定装置1bは、カメラ2または出力装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
なお、画像取得部11と、顔向き判定部16bと、出力部17のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで顔向き判定システムを構成するようにしてもよい。
また、画像取得部11と、顔向き判定部16bと、出力部17が全部サーバに備えられてもよい。
以上のように、顔向き判定装置1bは、顔向きを判定する対象となる対象者の顔が撮像された撮像画像を取得する画像取得部11と、画像取得部11が取得した撮像画像と、マスクを着用している顔または前記マスクを着用していない顔が撮像された撮像画像を入力とし人の顔向きに関する情報を出力する第2機械学習モデルとに基づき、対象者の前記顔向きを判定する顔向き判定部とを備える構成とできる。これにより、顔向き判定装置1bは、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定することができる。
また、顔向き判定装置1bにおいて、顔向き判定部16bは、画像取得部11が取得した撮像画像と、マスクを着用している顔、マスクを着用していない顔、または、マスクをずらしてマスクを着用している顔が撮像された撮像画像を入力とし人の顔向きに関する情報を出力する第3機械学習モデルとに基づいて、対象者の顔向きを判定するようにしてもよい。これにより、顔向き判定装置1bは、対象者のマスクにずれが発生することを想定しつつ、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定することができる。
なお、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本開示の顔向き判定装置は、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定することができる。
1,1a,1b 顔向き判定装置、2 カメラ、3 出力装置、100 車両、11 画像取得部、12 特徴点抽出部、13 顔種別判定部、14 顔器官認識部、15 マスク認識部、16,16a,16b 顔向き判定部、17 出力部、18 ずれ検知部、401 処理回路、402 入力インタフェース装置、403 出力インタフェース装置、404 プロセッサ、405 メモリ。

Claims (7)

  1. 顔向きを推定する対象となる対象者の顔が撮像された撮像画像を取得する画像取得部と、
    前記画像取得部が取得した前記撮像画像において、前記対象者が着用しているマスクの上端部の一点と前記マスクの下端部の一点との間のマスク距離を測定するマスク認識部と、
    前記マスク認識部が測定した前記マスク距離に基づいて、前記対象者の前記顔向きを判定する顔向き判定部
    とを備えた顔向き判定装置。
  2. 前記顔向き判定部は、
    前記対象者が正面を向いていると想定される場合の前記マスク距離が設定された基準値と、前記マスク認識部が測定した前記マスク距離との比較によって、前記対象者の前記顔向きを判定する
    ことを特徴とする請求項1記載の顔向き判定装置。
  3. 前記対象者が前記マスクを着用しているか否かを判定する顔種別判定部を備え、
    前記顔向き判定部は、前記顔種別判定部が前記対象者は前記マスクを着用していると判定した場合、前記マスク認識部が測定した前記マスク距離に基づいて、前記対象者の前記顔向きを判定する
    ことを特徴とする請求項1記載の顔向き判定装置。
  4. 前記顔種別判定部は、前記画像取得部が取得した前記撮像画像と、前記マスクを着用している顔または前記マスクを着用していない顔を含む人の顔が撮像された前記撮像画像を入力とし当該人の顔の種別を示す情報を出力する第1機械学習モデルとに基づき、前記対象者の顔の種別がマスク着用顔を示す種別であるか否かによって、前記対象者が前記マスクを着用しているか否かを判定する
    ことを特徴とする請求項3記載の顔向き判定装置。
  5. 前記画像取得部が取得した前記撮像画像に基づき、前記撮像画像において、前記対象者の顔のパーツを示す特徴点を抽出する特徴点抽出部と、
    前記特徴点抽出部が抽出した前記特徴点の位置と、前記画像取得部が取得した前記撮像画像における前記マスク上の一点とに基づいて、前記対象者が着用している前記マスクのずれ量を検知するずれ検知部を備え、
    前記顔向き判定部は、前記マスク認識部が測定した前記マスク距離と前記ずれ検知部が検知した前記マスクの前記ずれ量とに基づいて、前記対象者の前記顔向きを判定する
    ことを特徴とする請求項1記載の顔向き判定装置。
  6. 前記顔向き判定部が前記マスク距離に基づいて判定する前記対象者の前記顔向きは前記対象者の縦方向の前記顔向きであり、
    前記画像取得部が取得した前記撮像画像に基づき、前記撮像画像において、前記対象者の顔のパーツを示す複数の特徴点を抽出する特徴点抽出部と、
    前記特徴点抽出部が抽出した複数の前記特徴点のうちの2点の特徴点間距離を測定する顔器官認識部を備え、
    前記顔向き判定部は、前記顔器官認識部が測定した前記特徴点間距離に基づいて、前記対象者の横方向の前記顔向きを判定する
    ことを特徴とする請求項1記載の顔向き判定装置。
  7. 画像取得部が、顔向きを推定する対象となる対象者の顔が撮像された撮像画像を取得するステップと、
    マスク認識部が、前記画像取得部が取得した前記撮像画像において、前記対象者が着用しているマスクの上端部の一点と前記マスクの下端部の一点との間のマスク距離を測定するステップと、
    顔向き判定部が、前記マスク認識部が測定した前記マスク距離に基づいて、前記対象者の前記顔向きを判定するステップ
    とを備えた顔向き判定方法。
JP2023524508A 2021-06-21 2021-06-21 顔向き判定装置および顔向き判定方法 Active JP7301256B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/023289 WO2022269653A1 (ja) 2021-06-21 2021-06-21 顔向き判定装置および顔向き判定方法

Publications (3)

Publication Number Publication Date
JPWO2022269653A1 JPWO2022269653A1 (ja) 2022-12-29
JPWO2022269653A5 JPWO2022269653A5 (ja) 2023-06-28
JP7301256B2 true JP7301256B2 (ja) 2023-06-30

Family

ID=84544264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023524508A Active JP7301256B2 (ja) 2021-06-21 2021-06-21 顔向き判定装置および顔向き判定方法

Country Status (2)

Country Link
JP (1) JP7301256B2 (ja)
WO (1) WO2022269653A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265722A (ja) 2008-04-22 2009-11-12 Calsonic Kansei Corp 顔向き検知装置
JP2016189135A (ja) 2015-03-30 2016-11-04 パイオニア株式会社 認識装置、認識方法及び認識プログラム
JP2018116589A (ja) 2017-01-20 2018-07-26 Kddi株式会社 対象画像の変更画像群を用いる状態識別装置、プログラム及び方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5109922B2 (ja) * 2008-10-16 2012-12-26 株式会社デンソー ドライバモニタリング装置およびドライバモニタリング装置用のプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265722A (ja) 2008-04-22 2009-11-12 Calsonic Kansei Corp 顔向き検知装置
JP2016189135A (ja) 2015-03-30 2016-11-04 パイオニア株式会社 認識装置、認識方法及び認識プログラム
JP2018116589A (ja) 2017-01-20 2018-07-26 Kddi株式会社 対象画像の変更画像群を用いる状態識別装置、プログラム及び方法

Also Published As

Publication number Publication date
WO2022269653A1 (ja) 2022-12-29
JPWO2022269653A1 (ja) 2022-12-29

Similar Documents

Publication Publication Date Title
EP2338416B1 (en) Line-of-sight direction determination device and line-of-sight direction determination method
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
JP5466610B2 (ja) 視線推定装置
EP3545818B1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
JP2008146356A (ja) 視線方向推定装置及び視線方向推定方法
JP2006293909A (ja) 運転者の視線方向検出装置
WO2013008304A1 (ja) 瞼検出装置
JP5034623B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP4840978B2 (ja) 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2018101212A (ja) 車載器および顔正面度算出方法
US10997861B2 (en) Luminance control device, luminance control system, and luminance control method
JP7301256B2 (ja) 顔向き判定装置および顔向き判定方法
JP7134364B2 (ja) 体格判定装置および体格判定方法
JP7267467B2 (ja) 注意方向判定装置および注意方向判定方法
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
JP6572841B2 (ja) 情報処理装置及びプログラム
JP2009080706A (ja) 個人認証装置
JP2005081101A (ja) 視線方向検出装置及び視線方向検出方法
JP7367637B2 (ja) 顔情報取得装置および顔情報取得方法
JP2007038859A (ja) 表示機器制御装置
CN111696312B (zh) 乘员观察装置
JP7374373B2 (ja) 体格判定装置および体格判定方法
JP2009110065A (ja) 運転支援装置
WO2023243069A1 (ja) 脇見判定装置および脇見判定方法
WO2023223442A1 (ja) 体格判定装置および体格判定方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230421

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230620

R150 Certificate of patent or registration of utility model

Ref document number: 7301256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150