JP7301256B2 - 顔向き判定装置および顔向き判定方法 - Google Patents
顔向き判定装置および顔向き判定方法 Download PDFInfo
- Publication number
- JP7301256B2 JP7301256B2 JP2023524508A JP2023524508A JP7301256B2 JP 7301256 B2 JP7301256 B2 JP 7301256B2 JP 2023524508 A JP2023524508 A JP 2023524508A JP 2023524508 A JP2023524508 A JP 2023524508A JP 7301256 B2 JP7301256 B2 JP 7301256B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- mask
- unit
- face orientation
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
しかし、顔向きを判定する対象となる人(以下「対象者」という。)がマスクを着用していた場合、当該対象者が撮像された画像上で当該対象者の鼻または口を検知することができず、当該対象者の顔向きの判定が困難になることがある。
そこで、対象者がマスクを着用している場合に、当該対象者が撮像された画像上で当該対象者の鼻または口の位置を推定し、推定した鼻または口の位置から当該対象者の顔向きを判定する技術が知られている。例えば、特許文献1には、車両のドライバの顔が撮像された顔画像中のマスクの外形線に基づいて鼻孔位置を推定し、推定した鼻孔位置に基づいてドライバの眼の位置を特定してドライバの顔の向きを認識する運転状態推定装置が開示されている。
実施の形態1.
図1は、実施の形態1に係る顔向き判定装置1の構成例を示す図である。
実施の形態1に係る顔向き判定装置1は、顔向きを判定する対象となる人(以下「対象者」という。)の顔向きを判定する。
以下の実施の形態1では、一例として、顔向き判定装置1は車両100に搭載され、車両100のドライバの顔向きを判定するものとする。すなわち、以下の実施の形態1において、対象者は、車両100のドライバとする。車両100のドライバは、マスクを着用している可能性がある。
顔向き判定装置1は、車両100に搭載されているカメラ2および出力装置3と接続され、顔向き判定装置1とカメラ2と出力装置3とで、いわゆるDMS(Driver Monitoring System)を構成する。
顔向き判定装置1は、カメラ2がドライバの顔を撮像した画像(以下「撮像画像」という。)に基づいて、ドライバの顔向きを判定する。顔向き判定装置1は、判定したドライバの顔向きに関する情報を、出力装置3に出力する。なお、顔向きの単位は度である。
実施の形態1では、顔向き判定装置1は、ドライバの顔向きについて、縦方向の顔向き、および、横方向の顔向きを判定するものとする。ドライバの顔向きは、例えば、ドライバの顔が正面を向いている場合を0度とし、正面を向いた状態からの回転角により示すことができる。ドライバの横方向の顔向きは水平方向の回転角であらわされ、ドライバの縦方向の顔向きは垂直方向の回転角により示すことができる。
実施の形態1では、一例として、カメラ2は、車両100の運転席の正面に設けられているメータパネルに設置されているものとする。
カメラ2は、可視光カメラ、または、赤外線カメラである。
なお、図1では、カメラ2は車両100に1台のみ設置されることとしているが、これは一例に過ぎない。カメラ2は、車両100に複数台設置されてもよい。
カメラ2は、撮像した撮像画像を、顔向き判定装置1に出力する。
表示装置および音声出力装置は、例えば、車両100のインストルメントパネルの中央部、メータパネル、ステアリングコラム、Aピラー、または、センターコンソール周辺に設置される。
なお、例えば、出力装置3を表示装置または音声出力装置とし、表示装置または音声出力装置が、直接、顔向き判定装置1から当該顔向き判定装置1が判定したドライバの顔向きを取得し、ドライバの顔向きに関する情報を表示または音声出力してもよい。
なお、出力装置3は、乗員監視装置、表示装置または音声出力装置に限らず、例えば、振動を発生させる振動発生装置、または、風を出力する送風機としてもよい。
また、図1では、出力装置3は車両100に1台のみ設置されることとしているが、これは一例に過ぎない。出力装置3は、車両100に複数台設置されてもよい。
顔向き判定装置1は、画像取得部11、特徴点抽出部12、顔種別判定部13、顔器官認識部14、マスク認識部15、顔向き判定部16、および、出力部17を備える。
画像取得部11は、取得した撮像画像を特徴点抽出部12に出力する。
実施の形態1では、特徴点抽出部12は、少なくとも、ドライバの目および鼻を示す特徴点を抽出するものとする。より詳細には、ドライバの目は、目頭および目尻であらわされる。また、ドライバの鼻は、鼻頭であらわされる。特徴点は、撮像画像上の座標であらわされる。
特徴点抽出部12は、抽出した特徴点に関する情報を、顔器官認識部14に出力する。
上述のとおり、ドライバはマスクを着用していることがある。この場合、特徴点抽出部12は、鼻の特徴点を抽出できない。
具体的には、顔種別判定部13は、特徴点抽出部12から出力された、鼻の特徴点を抽出できたか否かを示す情報に基づき、ドライバがマスクを着用しているか否かを判定する。顔種別判定部13は、特徴点抽出部12から、鼻の特徴点を抽出できなかった旨の情報が出力された場合、ドライバがマスクを着用していると判定する。
顔種別判定部13は、ドライバがマスクを着用しているか否かの判定結果を、顔器官認識部14およびマスク認識部15に出力する。
具体的には、顔器官認識部14は、撮像画像において、特徴点抽出部12が抽出した複数の特徴点のうちドライバの両目頭を結ぶ線分の長さを特徴点間距離として測定する。
実施の形態1において、顔器官認識部14が測定する上記特徴点間距離は、ドライバの横方向の顔向きを判定するのに用いられる。実施の形態1において、ドライバの横方向の顔向きを判定するための上記特徴点間距離を、「横方向判定用距離」ともいう。なお、ドライバの顔向きの判定は、顔向き判定部16が行う。
なお、実施の形態1では、両目頭を結ぶ線分の長さを横方向判定用距離とするが、これは一例に過ぎない。横方向判定用距離は、複数の特徴点のうちの適宜の2点を結ぶ線分の長さとすることができる。
実施の形態1において、顔器官認識部14が測定する上記目鼻距離は、ドライバの縦方向の顔向きを判定するのに用いられる。実施の形態1において、ドライバの縦方向の顔向きを判定するための上記目鼻距離を、「縦方向判定用距離」ともいう。なお、ドライバの顔向きの判定は、顔向き判定部16が行う。
実施の形態1において、マスク認識部15が測定する上記マスク距離は、ドライバの縦方向の顔向きを判定するための縦方向判定用距離である。実施の形態1において、縦方向判定用距離には、顔器官認識部14が測定した目鼻距離と、マスク認識部15が測定したマスク距離が含まれる。
マスクの上端部のうちの最上部の点の検出方法について、マスク認識部15は、例えば、撮像画像において、ドライバの目のエリアの下の予め決められた範囲をエッジ検出し、エッジ強度が予め設定された閾値よりも高い最上部の点を、マスクの上端部のうち最上部の点として検出する。撮像画像におけるドライバの目のエリアの大きさは、例えば、目頭を示す特徴点および目尻を示す特徴点の幅に応じて設定される。なお、マスク認識部15は、例えば、顔種別判定部13を介して、特徴点抽出部12が抽出した特徴点に関する情報を取得すればよい。
また、マスクの下端部のうちの最下部の点の検出方法について、マスク認識部15は、例えば、撮像画像において、ドライバの顔の下部のエリアをエッジ検出し、エッジ強度が予め設定された閾値よりも高い最下部の点を、マスクの下端部のうち最下部の点として検出する。撮像画像におけるドライバの顔の下部のエリアの大きさは、例えば、ドライバの顔の大きさに応じて設定される。マスク認識部15は、ドライバの目の特徴点等の顔の特徴点から、ドライバの顔の大きさを推定できる。
マスク認識部15は、ソーベル法、ガウスのラプラシアン法、または、キャニー法等、既知の一般的なエッジ検出フィルタを用いてエッジ検出を行えばよい。
より詳細には、顔向き判定部16は、顔器官認識部14から出力された特徴点間距離に基づいて、ドライバの横方向の顔向きを判定する。また、顔向き判定部16は、顔器官認識部14から目鼻距離が出力された場合は、当該目鼻距離に基づいて、ドライバの縦方向の顔向きを判定する。顔向き判定部16は、マスク認識部15からマスク距離が出力された場合は、当該マスク距離に基づいて、ドライバの縦方向の顔向きを判定する。
顔向き判定部16は、例えば、特徴点間距離の基準値(以下「横方向基準値」という。)と、顔器官認識部14から出力された特徴点間距離との比較によって、ドライバの横方向の顔向きを判定する。横方向基準値は、ドライバが正面を向いていると想定される場合の、撮像画像における特徴点間距離とする。
また、顔向き判定部16は、例えば、目鼻距離の基準値と顔器官認識部14から出力された目鼻距離との比較、または、マスク距離の基準値とマスク認識部15から出力されたマスク距離との比較によって、ドライバの縦方向の顔向きを判定する。目鼻距離の基準値、および、マスク距離の基準値を、まとめて「縦方向基準値」ともいう。ただし、目鼻距離の基準値としての縦方向基準値と、マスク距離の基準値としての縦方向基準値は、同じ値でなくてよい。
キャリブレーション処理において、例えば、まず、ドライバが、正面を向いた状態で着座し、表示装置に備えられているタッチパネル式ディスプレイ(図示省略)のタッチ操作を行って、正面を向いて着座している旨の情報(以下「正面着座情報」という。)を入力する。顔向き判定装置1の制御部(図示省略)は、ドライバによって入力された正面着座情報を受け付け、画像取得部11に正面着座情報を受け付けた旨を通知する。画像取得部11は、正面着座情報を受け付けた旨が通知されると、カメラ2から撮像画像を取得する。当該撮像画像には、正面を向いて着座しているドライバの顔が撮像されている。
特徴点抽出部12は、画像取得部11が撮像した撮像画像に基づいて特徴点を抽出し、顔種別判定部13はドライバがマスクを着用しているか否かを判定する。ドライバがマスクを着用していない場合、顔器官認識部14は、特徴点間距離および目鼻距離を測定する。ドライバがマスクを着用している場合、顔器官認識部14が特徴点間距離を測定し、マスク認識部15がマスク距離を測定する。
顔向き判定部16は、顔器官認識部14が測定した特徴点間距離を横方向基準値として記憶する。また、顔向き判定部16は、顔器官認識部14が目鼻距離を測定した場合は目鼻距離を縦方向基準値とし、マスク認識部15がマスク距離を測定した場合はマスク距離を縦方向基準値として、記憶する。
そして、顔向き判定部16は、横方向基準値と、顔器官認識部14から出力された特徴点間距離との比較によって、ドライバの横方向の顔向きを判定する。
実施の形態1において、カメラ2は、車両100の運転席の正面に設けられているメータパネルに設置されているので、撮像画像上で、特徴点間距離は、ドライバが顔を正面に向けた状態において一番長く、ドライバが左または右に顔向きを変更するに従って短くなっていく。なお、ドライバが左または右に顔向きを変更すると、ある時点からは撮像画像上で片方の目しか撮像されなくなり、特徴点間距離は「0」になる。顔向き判定部16は、顔器官認識部14から出力された特徴点間距離が、横方向基準値に対してどれぐらい短くなったかに基づき、ドライバの横方向の顔向きを判定する。
例えば、カメラ2の設置位置および画角に応じて、横方向基準値に対して特徴点間距離がどれぐらい変化した場合に、ドライバが横方向にどれぐらいの角度顔向きを変えたと判定するかが、予め決められている。ここでは、カメラ2が運転席の正面に設けられるので、特徴点間距離はドライバが顔を正面に向けた状態において一番長いが、例えば、カメラ2の設置位置によっては、特徴点間距離は、ドライバが顔を正面に向けた状態において一番長いとは限らない。例えば、カメラ2が斜めからドライバの顔を撮像する場合、ドライバが顔を向けた状態の特徴点間距離よりも、顔を左または右に向けた状態の特徴点間距離の方が長くなることもある。
顔向き判定部16による、ドライバが左右のどちらの向きに顔向きを変更したかを判定する方法について、具体例を挙げて説明する。
<横向き判定用条件>
顔向きを右と判定する条件:左側距離>右側距離
顔向きを左と判定する条件:左側距離<右側距離
図2において、31は顔輪郭右端点を示し、32は顔輪郭左端点を示し、33はドライバの右目尻を示す特徴点を示し、34はドライバの左目尻を示す特徴点を示している。また、図2において、L1は第1直線を示し、L2は第2直線を示し、L3は第3直線を示し、L4は第4直線を示している。また、図2において、D1は右側距離を示し、D2は左側距離を示している。
図2の例でいうと、D1<D2であるため、顔向きを右と判定する横向き判定用条件を満たすことになる。したがって、この場合、顔向き判定部16は、ドライバは右に顔向きを変更したと判定する。
具体的には、顔種別判定部13にてドライバはマスクを着用していないと判定された場合、顔向き判定部16は、目鼻距離の基準値としての縦方向基準値と目鼻距離との比較によってドライバの顔向きを判定する。顔種別判定部13にてドライバはマスクを着用していると判定された場合、顔向き判定部16は、マスク距離の基準値としての縦方向基準値とマスク距離との比較によってドライバの顔向きを判定する。
図3Bは、ドライバが顔を正面に向けた場合の撮像画像上のドライバの顔を示す図であり、図3Aは、ドライバが顔を正面に向けた状態から顔を上に向けた場合の撮像画像上のドライバの顔を示す図であり、図3Cは、ドライバが顔を正面に向けた状態から顔を下に向けた場合の撮像画像上のドライバの顔を示す図である。なお、図3では、説明の簡単のため、撮像画像上のドライバの顔のみ図示している。
図3において、E1~E3は、ドライバの両目中心を示す。また、図3において、N1~N3は、ドライバの鼻頭を示す。また、図3において、M11、M21、および、M31は、マスクの上端部のうちの最上部の点を示し、M12、M22、および、M32は、マスクの下端部のうちの最下部の点を示す。
なお、図3において、201a~201cは、ドライバの両目間距離、すなわち、特徴点間距離を示している。
例えば、カメラ2の設置位置および画角に応じて、縦方向基準値に対して特徴点間距離がどれぐらい変化した場合に、ドライバが縦方向にどれぐらいの角度顔向きを変えたと判定するかが、予め決められている。ここでは、カメラ2が運転席の正面に設けられるので、目鼻距離はドライバが顔を正面に向けた状態において一番長いが、例えば、カメラ2の設置位置によっては、目鼻距離は、ドライバが顔を正面に向けた状態において一番長いとは限らない。
顔向き判定部16による、ドライバが上下のどちらの向きに顔向きを変更したかを判定する方法について、具体例を挙げて説明する。
次に、顔向き判定部16は、検出した顔領域に基づき、ドライバの顔の輪郭上の1点であって、かつ、撮像画像上で最も上側に撮像されている当該輪郭上の点(以下「顔輪郭上端点」という。)を検出する。また、顔向き判定部16は、検出した顔領域に基づき、ドライバの顔の輪郭上の1点であって、かつ、撮像画像上で最も下側に撮像されている当該輪郭上の点(以下「顔輪郭下端点」という。)を検出する。
以下の第1縦向き判定用条件における「第1基準距離」とは、縦方向判定用距離が最長となる場合のドライバの目の高さを示す点を高さ基準点として算出された、当該高さ基準点を通り撮像画像の横方向と平行な直線(以下「基準直線」という。)と上記第5直線との距離である。なお、ここでは、縦方向判定用距離は、目鼻距離である。縦方向判定用距離が最長となる場合は、ドライバが顔を正面に向けた場合と想定される。
また、以下の第2縦向き判定用条件における「第2基準距離」とは、上記基準直線と上記第7直線との距離である。
<第1縦向き判定用条件>
顔向きを上と判定する条件:上側距離<第1基準距離
顔向きを下と判定する条件:上側距離>第1基準距離
<第2縦向き判定用条件>
顔向きを上と判定する条件:下側距離>第2基準距離
顔向きを下と判定する条件:下側距離<第2基準距離
図4において、34はドライバの左目尻を示す特徴点を示し、35は顔輪郭上端点を示し、36は顔輪郭下端点を示している。また、図4において、L5は第5直線を示し、L6は第6直線を示し、L7は第7直線を示している。また、図4において、D3は上側距離を示し、D4は下側距離を示している。
図4の例でいうと、例えば、顔向き判定部16は、D3<第1基準距離である場合、または、D4>第2基準距離である場合、ドライバは上に顔向きを変更したと判定する。また、例えば、顔向き判定部16は、D3<第1基準距離であり、かつ、D4>第2基準距離である場合に、ドライバは上に顔向きを変更したと判定してもよい。
例えば、カメラ2の設置位置および画角に応じて、縦方向基準値に対してマスク距離がどれぐらい変化した場合に、ドライバが縦方向にどれぐらいの角度顔向きを変えたと判定するかが、予め決められている。ここでは、カメラ2が運転席の正面に設けられるので、マスク距離は、ドライバが顔を下に向けた状態、ドライバが顔を正面に向けた状態、ドライバが顔を上に向けた状態の順で長くなるが、例えば、カメラ2の設置位置によっては、マスク距離がこの長さ関係になるとは限らない。
なお、出力部17の機能を、顔向き判定部16が備えるようにしてもよい。
図5は、実施の形態1に係る顔向き判定装置1の動作について説明するためのフローチャートである。
画像取得部11は、取得した撮像画像を特徴点抽出部12に出力する。
また、当該ステップST20において、特徴点抽出部12は、鼻の特徴点を抽出できたか否かを示す情報を、顔種別判定部13に出力する。
顔種別判定部13は、ドライバがマスクを着用しているか否かの判定結果を、顔器官認識部14およびマスク認識部15に出力する。
顔器官認識部14は、特徴点間距離、言い換えれば、横方向判定用距離を、顔向き判定部16に出力する。また、顔器官認識部14は、目鼻距離を測定した場合は、当該目鼻距離、言い換えれば、縦方向判定用距離を、顔向き判定部16に出力する。
マスク認識部15は、検出したマスク距離、言い換えれば、縦方向判定用距離を、顔向き判定部16に出力する。
顔向き判定部16は、判定したドライバの顔向き、言い換えれば、ドライバの横方向の顔向き、および、ドライバの縦方向の顔向きを、出力部17に出力する。そして、出力部17は、顔向き判定部16から出力されたドライバの顔向きに関する情報を、出力装置3に出力する。
実施の形態1において、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部の機能は、処理回路401により実現される。すなわち、顔向き判定装置1は、カメラ2から取得した撮像画像に基づいて、対象者の顔向きを判定する制御を行うための処理回路401を備える。
処理回路401は、図6Aに示すように専用のハードウェアであっても、図6Bに示すようにメモリに格納されるプログラムを実行するプロセッサ404であってもよい。
また、顔向き判定装置1は、カメラ2または出力装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
第1機械学習モデルは、マスクを着用している顔、または、マスクを着用していない顔を含む人の顔が撮像された撮像画像を入力とし、人の顔の種別を示す情報を出力するよう学習しており、例えば、顔種別判定部13に記憶されている。第1機械学習モデルは、顔向き判定装置1の外部の、顔向き判定装置1が参照可能な場所に記憶されていてもよい。実施の形態1において、人の顔の種別とは、人の顔が、装着物を装着している顔か、装着物を装着している場合どのような装着物を装着している顔か、を分類分けした情報をいう。第1機械学習モデルが出力する人の顔の種別を示す情報には、マスクを装着している顔であることが判別可能な情報が含まれる。
なお、第1機械学習モデルは、マスクを着用している顔が撮像された撮像画像のみを学習データとして人の顔の種別を示す情報を出力するよう学習したモデル、または、マスクを着用していない顔が撮像された撮像画像のみを学習データとして人の顔の種別を示す情報を出力するよう学習したモデルではなく、マスクを着用している顔が撮像された撮像画像とマスクを着用していない顔が撮像された撮像画像とを学習データとして人の顔の種別を示す情報を出力するよう学習したモデルである。つまり、第1機械学習モデルは、マスクを着用した顔の撮像画像と、マスクを着用していない顔の撮像画像のいずれを入力としても、人の顔の種別を示す情報を出力可能に学習しているモデルである。
顔種別判定部13は、画像取得部11が取得した撮像画像と第1機械学習モデルとに基づき、ドライバの顔の種別がマスク着用顔を示す種別であるか否かによって、ドライバがマスクを着用しているか否かを判定する。
すなわち、顔向き判定部16は、マスク認識部15が測定したマスク距離に基づいて、ドライバの顔向きを判定するようになっていればよい。
また、以上の実施の形態1において、ドライバが、必ずマスクを着用しており、マスクを着用していないことが想定されない場合、顔向き判定装置1は、ドライバがマスクを着用しているか否かの判定機能を有することを必須としない。
この場合、顔向き判定装置1は、顔種別判定部13を備えない構成としてもよい。
さらに、顔向き判定装置1が、必ずマスクを着用しているドライバの縦方向の顔向きのみを判定する場合、顔向き判定装置1は、特徴点抽出部12および顔種別判定部13を備えない構成としてもよい。
これに限らず、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで顔向き判定システムを構成するようにしてもよい。
また、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16と、出力部17と、図示しない制御部が全部サーバに備えられてもよい。
また、対象者は、車両100の乗員に限らない。例えば、居室等に存在する人を対象者としてもよい。
また、顔向き判定装置1は、カメラ2が撮像した撮像画像に複数の人の顔が撮像されている場合は、当該複数の人を対象者として、複数の対象者の顔向きをそれぞれ判定することもできる。
上述したような従来技術では、対象者の顔向きの判定に画像上の鼻または口を用い、対象者がマスクを着用している場合には、画像上の鼻または口の位置を推定していた。そのため、マスクを着用している対象者の顔向きの判定精度が、マスクを着用していない対象者の顔向きの判定精度と比べて低下していた。
これに対し、実施の形態1に係る顔向き判定装置1は、対象者がマスクを着用している場合、撮像画像におけるマスクの上端部の一点とマスクの下端部の一点とに基づくマスク距離に基づいて対象者の顔向きを判定する。つまり、実際の撮像画像上の点を用いて対象者の顔向きを判定する。これにより、顔向き判定装置1は、画像上の鼻または口の位置を推定して顔向きの判定を行う従来技術よりも精度高く、マスクを着用している対象者の顔向きを判定することができる。
これに対し、実施の形態1に係る顔向き判定装置1は、上述したような従来の顔向き判定方法に比べ、簡易な方法で、対象者の顔向きの判定を行うことができる。
実施の形態1では、顔向き判定装置は、対象者がマスクをずらす可能性があることを想定していなかった。しかし、対象者は、例えば、マスクを顎方向にずらす可能性もある。
実施の形態2では、顔向き判定装置が、対象者がマスクをずらす可能性があることを想定して、対象者の顔向きを判定する実施の形態について説明する。
なお、以下の実施の形態2でも、実施の形態1同様、顔向き判定装置は車両に搭載され、対象者は車両のドライバとする。しかし、これは一例に過ぎず、顔向き判定装置は、顔向きを判定する対象者を、車両のドライバ以外の乗員、または、車両外に存在する人とすることもできる。
実施の形態2に係る顔向き判定装置1aの構成について、実施の形態1にて図1を用いて説明した顔向き判定装置1と同じ構成には、同じ符号を付して重複した説明を省略する。
実施の形態2に係る顔向き判定装置1aは、実施の形態1に係る顔向き判定装置1とは、ずれ検知部18を備えた点が異なる。
また、実施の形態2に係る顔向き判定装置1aにおいて、顔向き判定部16aの具体的な動作が、実施の形態1に係る顔向き判定装置1における顔向き判定部16の具体的な動作と異なる。
なお、実施の形態2において、特徴点抽出部12は、抽出した特徴点に関する情報をずれ検知部18に出力する。また、マスク認識部15は、マスクの上端部の一点に関する情報をずれ検知部18に出力する。
例えば、ずれ検知部18は、特徴点抽出部12およびマスク認識部15からそれぞれ特徴点に関する情報およびマスクの上端部の一点に関する情報を取得すると、ある特徴点(以下「ずれ検知用特徴点」という。)と、マスクの上端部のうちの最上部の点との距離(以下「ずれ検知用距離」という。)を測定し、記憶する。ずれ検知部18は、ずれ検知用距離が、予め設定された閾値(以下「ずれ検知用閾値」という。)以上変化したか否かを判定する。ずれ検知用距離がずれ検知用閾値以上変化した場合、ずれ検知部18は、ドライバのマスクにずれが発生したと判定し、マスクのずれ量を検知する。例えば、ずれ検知部18は、ずれ検知用距離の変化量を、マスクのずれ量とする。
ずれ検知用特徴点は、例えば、目頭または目尻を示す特徴点とする。
なお、実施の形態2では、ずれ検知部18がマスクのずれ量を検知する際に用いる、撮像画像におけるマスク上の一点は、マスクの上端部の一点としたが、これは一例に過ぎない。ずれ検知部18がマスクのずれ量を検知する際に用いる、撮像画像におけるマスク上の一点は、例えば、マスクの下端部の一点としてもよいし、撮像画像におけるマスク上の任意の一点としてもよい。ずれ検知部18は、例えば、マスク認識部15から撮像画像を取得し、既知の画像認識処理を行って、マスク上の任意の一点を選択すればよい。
また、顔向き判定部16aは、顔器官認識部14から目鼻距離が出力された場合は、当該目鼻距離に基づいて、ドライバの縦方向の顔向きを判定する。顔向き判定部16aによる、目鼻距離に基づくドライバの縦方向の顔向きの判定方法は、実施の形態1にて説明済みの、顔向き判定部16による、目鼻距離に基づくドライバの縦方向の顔向きの判定方法と同様である。
顔向き判定部16aは、マスク認識部15からマスク距離が出力された場合は、当該マスク距離に基づいて、ドライバの縦方向の顔向きを判定する。このとき、顔向き判定部16aは、マスク認識部15が測定したマスク距離とずれ検知部18が検知したマスクのずれ量とに基づいて、ドライバの縦方向の顔向きを判定する。
具体的には、顔向き判定部16aは、ずれ検知部18が検知したマスクのずれ量に応じて縦方向基準値を補正する。例えば、予め、マスクのずれ量がどれぐらいであった場合にどれぐらい縦方向基準値を補正するかが決められている。
そして、顔向き判定部16aは、補正後の縦方向基準値とマスク距離との比較によってドライバの顔向きを判定する。なお、顔向き判定部16aが補正後の縦方向基準値とマスク距離との比較によってドライバの顔向きを判定する方法は、実施の形態1にて説明済みの、顔向き判定部16が縦方向基準値とマスク距離との比較によってドライバの顔向きを判定する方法と同様である。
図8は、実施の形態2に係る顔向き判定装置1aの動作について説明するためのフローチャートである。
図8のステップST10~ステップST50における顔向き判定装置1aの具体的な動作は、実施の形態1にて説明済みの、図5のステップST10~ステップST50における顔向き判定装置1の具体的な動作と同様であるため、重複した説明を省略する。
ずれ検知部18は、検知したマスクのずれ量を、顔向き判定部16aに出力する。
実施の形態2において、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部の機能は、処理回路401により実現される。すなわち、顔向き判定装置1aは、カメラ2から取得した撮像画像に基づいて、ドライバのマスクがずれることを想定しつつドライバの顔向きを判定する制御を行うための処理回路401を備える。
処理回路401は、メモリ405に記憶されたプログラムを読み出して実行することにより、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部の機能を実行する。すなわち、顔向き判定装置1aは、処理回路401により実行されるときに、上述の図8のステップST10~ステップST60が結果的に実行されることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部の処理の手順または方法をコンピュータに実行させるものであるとも言える。
顔向き判定装置1aは、カメラ2または出力装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
すなわち、顔向き判定部16aは、マスク認識部15が測定したマスク距離とずれ検知部18が検知したマスクのずれ量とに基づいて、ドライバの顔向きを判定するようになっていればよい。
また、以上の実施の形態2において、ドライバが、必ずマスクを着用しており、マスクを着用していないことが想定されない場合、顔向き判定装置1aは、ドライバがマスクを着用しているか否かの判定機能を有することを必須としない。
これに限らず、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで顔向き判定システムを構成するようにしてもよい。
また、画像取得部11と、特徴点抽出部12と、顔種別判定部13と、顔器官認識部14と、マスク認識部15と、顔向き判定部16aと、出力部17と、ずれ検知部18と、図示しない制御部が全部サーバに備えられてもよい。
第2機械学習モデルは、マスクを着用している顔、または、マスクを着用していない顔を含む人の顔が撮像された撮像画像を入力とし、人の顔向きに関する情報を出力するよう学習しており、顔向き判定装置が参照可能な場所に記憶されている。人の顔向きに関する情報には、人の顔向きと、当該人の顔がマスクを着用している顔かマスクを着用していない顔かを示す情報が含まれる。例えば、第2機械学習は、マスクを着用しているか否かの情報が付与された、マスクを着用している顔、マスクを着用していない顔、または、マスクをずらして当該マスクを着用している顔を含む人の顔が撮像された撮像画像を学習用データとした、いわゆる教師あり学習によって生成されている。なお、マスクを着用しているか否かの情報は、教師ラベルである。
なお、ここでは、対象者はドライバを想定して説明しているが、これは一例に過ぎない。対象者は、ドライバ以外の車両100の乗員としてもよいし、車両100外に存在する人としてもよい。
顔向き判定装置1bの構成について、実施の形態1において図1を用いて説明した顔向き判定装置1の構成と同様の構成については、同じ符号を付して重複した説明を省略する。
顔向き判定装置1bは、実施の形態1に係る顔向き判定装置1とは、特徴点抽出部12、顔種別判定部13、顔器官認識部14、マスク認識部15を備えない点が異なる。また、顔向き判定装置1bにおいて、顔向き判定部16bの具体的な動作が、実施の形態1に係る顔向き判定装置1における顔向き判定部16の具体的な動作と異なる。
画像取得部11は、取得した撮像画像を顔向き判定部16bに出力する。
顔向き判定部16bは、判定したドライバの顔向きを出力部17に出力する。そして、出力部17は、顔向き判定部16aから取得したドライバの顔向きを出力装置3に出力する。なお、顔向き判定部16bが出力部17の機能を有してもよい。
顔向き判定装置1bにおいて、画像取得部11と、顔向き判定部16bと、出力部17の機能は、処理回路401により実現される。すなわち、顔向き判定装置1bは、カメラ2から取得した撮像画像に基づいて、ドライバの顔向きを判定する制御を行うための処理回路401を備える。
処理回路401は、メモリ405に記憶されたプログラムを読み出して実行することにより、画像取得部11と、顔向き判定部16bと、出力部17の機能を実行する。すなわち、顔向き判定装置1bは、処理回路401により実行されるときに、上述の図10のステップST10~ステップST60aが結果的に実行されることになるプログラムを格納するためのメモリ405を備える。また、メモリ405に記憶されたプログラムは、画像取得部11と、顔向き判定部16bと、出力部17の処理の手順または方法をコンピュータに実行させるものであるとも言える。
顔向き判定装置1bは、カメラ2または出力装置3等の装置と、有線通信または無線通信を行う入力インタフェース装置402および出力インタフェース装置403を備える。
また、画像取得部11と、顔向き判定部16bと、出力部17が全部サーバに備えられてもよい。
Claims (7)
- 顔向きを推定する対象となる対象者の顔が撮像された撮像画像を取得する画像取得部と、
前記画像取得部が取得した前記撮像画像において、前記対象者が着用しているマスクの上端部の一点と前記マスクの下端部の一点との間のマスク距離を測定するマスク認識部と、
前記マスク認識部が測定した前記マスク距離に基づいて、前記対象者の前記顔向きを判定する顔向き判定部
とを備えた顔向き判定装置。 - 前記顔向き判定部は、
前記対象者が正面を向いていると想定される場合の前記マスク距離が設定された基準値と、前記マスク認識部が測定した前記マスク距離との比較によって、前記対象者の前記顔向きを判定する
ことを特徴とする請求項1記載の顔向き判定装置。 - 前記対象者が前記マスクを着用しているか否かを判定する顔種別判定部を備え、
前記顔向き判定部は、前記顔種別判定部が前記対象者は前記マスクを着用していると判定した場合、前記マスク認識部が測定した前記マスク距離に基づいて、前記対象者の前記顔向きを判定する
ことを特徴とする請求項1記載の顔向き判定装置。 - 前記顔種別判定部は、前記画像取得部が取得した前記撮像画像と、前記マスクを着用している顔または前記マスクを着用していない顔を含む人の顔が撮像された前記撮像画像を入力とし当該人の顔の種別を示す情報を出力する第1機械学習モデルとに基づき、前記対象者の顔の種別がマスク着用顔を示す種別であるか否かによって、前記対象者が前記マスクを着用しているか否かを判定する
ことを特徴とする請求項3記載の顔向き判定装置。 - 前記画像取得部が取得した前記撮像画像に基づき、前記撮像画像において、前記対象者の顔のパーツを示す特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部が抽出した前記特徴点の位置と、前記画像取得部が取得した前記撮像画像における前記マスク上の一点とに基づいて、前記対象者が着用している前記マスクのずれ量を検知するずれ検知部を備え、
前記顔向き判定部は、前記マスク認識部が測定した前記マスク距離と前記ずれ検知部が検知した前記マスクの前記ずれ量とに基づいて、前記対象者の前記顔向きを判定する
ことを特徴とする請求項1記載の顔向き判定装置。 - 前記顔向き判定部が前記マスク距離に基づいて判定する前記対象者の前記顔向きは前記対象者の縦方向の前記顔向きであり、
前記画像取得部が取得した前記撮像画像に基づき、前記撮像画像において、前記対象者の顔のパーツを示す複数の特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部が抽出した複数の前記特徴点のうちの2点の特徴点間距離を測定する顔器官認識部を備え、
前記顔向き判定部は、前記顔器官認識部が測定した前記特徴点間距離に基づいて、前記対象者の横方向の前記顔向きを判定する
ことを特徴とする請求項1記載の顔向き判定装置。 - 画像取得部が、顔向きを推定する対象となる対象者の顔が撮像された撮像画像を取得するステップと、
マスク認識部が、前記画像取得部が取得した前記撮像画像において、前記対象者が着用しているマスクの上端部の一点と前記マスクの下端部の一点との間のマスク距離を測定するステップと、
顔向き判定部が、前記マスク認識部が測定した前記マスク距離に基づいて、前記対象者の前記顔向きを判定するステップ
とを備えた顔向き判定方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/023289 WO2022269653A1 (ja) | 2021-06-21 | 2021-06-21 | 顔向き判定装置および顔向き判定方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022269653A1 JPWO2022269653A1 (ja) | 2022-12-29 |
JPWO2022269653A5 JPWO2022269653A5 (ja) | 2023-06-28 |
JP7301256B2 true JP7301256B2 (ja) | 2023-06-30 |
Family
ID=84544264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023524508A Active JP7301256B2 (ja) | 2021-06-21 | 2021-06-21 | 顔向き判定装置および顔向き判定方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7301256B2 (ja) |
WO (1) | WO2022269653A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009265722A (ja) | 2008-04-22 | 2009-11-12 | Calsonic Kansei Corp | 顔向き検知装置 |
JP2016189135A (ja) | 2015-03-30 | 2016-11-04 | パイオニア株式会社 | 認識装置、認識方法及び認識プログラム |
JP2018116589A (ja) | 2017-01-20 | 2018-07-26 | Kddi株式会社 | 対象画像の変更画像群を用いる状態識別装置、プログラム及び方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5109922B2 (ja) * | 2008-10-16 | 2012-12-26 | 株式会社デンソー | ドライバモニタリング装置およびドライバモニタリング装置用のプログラム |
-
2021
- 2021-06-21 JP JP2023524508A patent/JP7301256B2/ja active Active
- 2021-06-21 WO PCT/JP2021/023289 patent/WO2022269653A1/ja unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009265722A (ja) | 2008-04-22 | 2009-11-12 | Calsonic Kansei Corp | 顔向き検知装置 |
JP2016189135A (ja) | 2015-03-30 | 2016-11-04 | パイオニア株式会社 | 認識装置、認識方法及び認識プログラム |
JP2018116589A (ja) | 2017-01-20 | 2018-07-26 | Kddi株式会社 | 対象画像の変更画像群を用いる状態識別装置、プログラム及び方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2022269653A1 (ja) | 2022-12-29 |
JPWO2022269653A1 (ja) | 2022-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2338416B1 (en) | Line-of-sight direction determination device and line-of-sight direction determination method | |
US9928404B2 (en) | Determination device, determination method, and non-transitory storage medium | |
JP5466610B2 (ja) | 視線推定装置 | |
EP3545818B1 (en) | Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program | |
JP2008146356A (ja) | 視線方向推定装置及び視線方向推定方法 | |
JP2006293909A (ja) | 運転者の視線方向検出装置 | |
WO2013008304A1 (ja) | 瞼検出装置 | |
JP5034623B2 (ja) | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム | |
JP4840978B2 (ja) | 撮像装置及びその制御方法及びプログラム及び記憶媒体 | |
JP2018101212A (ja) | 車載器および顔正面度算出方法 | |
US10997861B2 (en) | Luminance control device, luminance control system, and luminance control method | |
JP7301256B2 (ja) | 顔向き判定装置および顔向き判定方法 | |
JP7134364B2 (ja) | 体格判定装置および体格判定方法 | |
JP7267467B2 (ja) | 注意方向判定装置および注意方向判定方法 | |
KR101976498B1 (ko) | 차량용 제스처 인식 시스템 및 그 방법 | |
JP6572841B2 (ja) | 情報処理装置及びプログラム | |
JP2009080706A (ja) | 個人認証装置 | |
JP2005081101A (ja) | 視線方向検出装置及び視線方向検出方法 | |
JP7367637B2 (ja) | 顔情報取得装置および顔情報取得方法 | |
JP2007038859A (ja) | 表示機器制御装置 | |
CN111696312B (zh) | 乘员观察装置 | |
JP7374373B2 (ja) | 体格判定装置および体格判定方法 | |
JP2009110065A (ja) | 運転支援装置 | |
WO2023243069A1 (ja) | 脇見判定装置および脇見判定方法 | |
WO2023223442A1 (ja) | 体格判定装置および体格判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230421 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230421 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230421 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230620 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7301256 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |