JP6573193B2 - 判定装置、判定方法、および判定プログラム - Google Patents

判定装置、判定方法、および判定プログラム Download PDF

Info

Publication number
JP6573193B2
JP6573193B2 JP2015134434A JP2015134434A JP6573193B2 JP 6573193 B2 JP6573193 B2 JP 6573193B2 JP 2015134434 A JP2015134434 A JP 2015134434A JP 2015134434 A JP2015134434 A JP 2015134434A JP 6573193 B2 JP6573193 B2 JP 6573193B2
Authority
JP
Japan
Prior art keywords
face
range
reliability
determination
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015134434A
Other languages
English (en)
Other versions
JP2017016512A (ja
Inventor
修蔵 乘冨
修蔵 乘冨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015134434A priority Critical patent/JP6573193B2/ja
Priority to US15/177,190 priority patent/US9928404B2/en
Priority to EP16174487.5A priority patent/EP3113073A1/en
Publication of JP2017016512A publication Critical patent/JP2017016512A/ja
Application granted granted Critical
Publication of JP6573193B2 publication Critical patent/JP6573193B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、顔の向きを判定する判定装置、判定方法、および判定プログラムに関する。
近年、カメラで撮影した画像に基づいて人物の顔向きを推定する技術が注目されている。例えば、テレビを視聴している人物、コンピュータ・ゲームをプレイする人物、または車両または電車を運転する人物などの顔向きを推定する技術の開発が盛んに行われている。
例えば、人物の顔が撮影された画像(以下、「顔画像」という)中の人物が正面を向いている顔(以下、「正面顔」という)、または、横を向いている顔(以下、「横向き顔」という)を検出するように予め学習させた複数の顔向き検出器を用いて、顔画像中の人物の顔が向いている方向(以下、「顔向き」という)を判定する従来技術が知られている(例えば、特許文献1参照)。この従来技術では、正面顔、横向き顔などに対応する複数の顔向き検出器による検出結果の信頼度に基づいて、顔向きを判定している。
特開2011−134045号公報
しかしながら、上記従来技術は、予め学習させた正面顔の画像に基づいて、顔向きが正面であることを判定するため、人物の正面顔の向きとカメラとの位置関係の自由度が低かった。
本発明の目的は、カメラの設置位置を変更した場合であっても、顔向き検出器に再度顔向きを学習させることなく、顔向きを判定できる判定装置、判定方法、および判定プログラムを提供することである。
本発明の一態様に係る判定装置は、基準方向に対して光軸が所定方向を向くカメラからユーザの顔画像を受け取る入力部と、人物の複数の顔向きを正解画像としてそれぞれ学習した学習モデルと前記顔画像とに基づいて算出された顔向きの信頼度が所定閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定する判定部と、を備え、前記判定部は、前記カメラの光軸が第1の方向を向く場合、前記信頼度が第1の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定し、前記光軸が前記第1の方向とは異なる第2の方向を向く場合、前記信頼度の算出に用いられた前記正解画像の顔向きと、前記信頼度が前記第1の閾値とは異なる第2の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定前記第1の閾値は、前記信頼度が前記第1の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定され、前記第2の閾値は、前記信頼度が前記第2の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定される
本発明の一態様に係る判定方法は、基準方向に対して光軸が所定方向を向くカメラからユーザの顔画像を受け取るステップと、人物の複数の顔向きを正解画像としてそれぞれ学習した学習モデルと前記顔画像とに基づいて顔向きの信頼度を算出するステップと、前記カメラの光軸が第1の方向を向く場合、前記信頼度が第1の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定し、前記光軸が前記第1の方向とは異なる第2の方向を向く場合、前記信頼度の算出に用いられた前記正解画像の顔向きと、前記信頼度が前記第1の閾値とは異なる第2の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定するステップと、を含前記第1の閾値は、前記信頼度が前記第1の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定され、前記第2の閾値は、前記信頼度が前記第2の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定される
本発明の一態様に係る判定プログラムは、基準方向に対して光軸が所定方向を向くカメラからユーザの顔画像を受け取る処理と、人物の複数の顔向きを正解画像としてそれぞれ学習した学習モデルと前記顔画像とに基づいて顔向きの信頼度を算出する処理と、前記カメラの光軸が第1の方向を向く場合、前記信頼度が第1の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定し、前記光軸が前記第1の方向とは異なる第2の方向を向く場合、前記信頼度の算出に用いられた前記正解画像の顔向きと、前記信頼度が前記第1の閾値とは異なる第2の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定する処理と、をコンピュータに実行させ、前記第1の閾値は、前記信頼度が前記第1の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定され、前記第2の閾値は、前記信頼度が前記第2の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定される
本発明によれば、カメラの設置位置を変更した場合であっても、顔向き検出器に再度顔向きを学習させることなく、顔向きを判定できる。
本発明の実施の形態に係る車両の車室内の一例を示す側面図 本発明の実施の形態に係る車両の車室内の一例を示す上面図 本発明の実施の形態に係る判定装置の構成の一例を示すブロック図 本発明の実施の形態に係る判定部の構成の一例を示す図 本発明の実施の形態に係る判定部の構成の一例を示す図 本発明の実施の形態に係る顔向き検出処理で用いられる検出範囲の一例を示す図 本発明の実施の形態に係る顔向き検出処理の第1の例を説明する図 本発明の実施の形態に係る顔向き検出処理の第2の例を説明する図 本発明の実施の形態に係る顔向き検出処理の第3の例を説明する図 本発明の実施の形態に係る判定装置の動作の一例を示すフローチャート 本発明の実施の形態に係る顔向きの角度と信頼度の関係の一例を示す図 本発明の実施の形態に係る顔向きの角度と信頼度の関係の一例を示す図 本発明の実施の形態に係る判定装置のハードウェア構成例を示すブロック図
(発明創出に至った経緯)
上記従来技術は、予め学習させた正面顔の画像に基づいて、顔向きが正面であることを判定する。そのため、カメラの設置位置が人物の顔に対して前後方向に変更される場合は学習させる画像を変更する必要はないが、人物の顔に対して上下方向、または横方向に変更される場合は、顔画像を顔向き検出器に再学習させる必要である。そのため、カメラが車両に用いられる場合において、運転者と同乗者との間の車両中央部にカメラを設置する場合には、車両ごとに運転席と設置位置との位置関係が異なるため、車両ごとに顔画像を顔向き検出器に学習させる必要があるという課題がある。本開示においては、車両中央部にカメラを設置する場合にも、車両ごとに人物の顔画像を顔向き検出器に学習させる必要のない判定装置、判定方法、および判定プログラムについて説明する。
本発明の実施の形態について、図面を参照して説明する。
まず、本実施の形態に係る車両1に備えられるカメラ10の設置位置について、図1、図2を用いて説明する。図1は、車両1の車室内の一例を示す側面図である。図2は、車両1の車室内の一例を示す上面図である。
図1、図2に示すように、カメラ10は、運転者席20よりも前方、かつ、車両1の車室内の天井に設置される。カメラ10は、基準方向(例えば、図6に示す基準方向302)に対して光軸A1が所定方向を向くように設置される。図1、図2では例として、光軸A1が運転者席20側を向くようにカメラ10が設置されている。カメラ10の光軸A1は、図2に示すように、車長方向の軸A2に対して運転者席20の方に傾いており、かつ、図1に示すように、下方に傾いている。車両1は、例えば、自動車である。
このように車室内に設置されたカメラ10は、運転者席20に座った運転者の顔を撮影し、顔画像を判定装置100(図3参照)に出力する。判定装置100は、車両1の所定の場所に設置され、カメラ10と接続される。カメラ10と判定装置100の接続方式は、有線、無線、または、有線と無線の組み合わせのいずれであってもよい。
次に、本実施の形態に係る判定装置100の構成について、図3を用いて説明する。図3は、判定装置100の構成の一例を示すブロック図である。
判定装置100は、カメラ10で撮影された顔画像に基づいて、運転者の顔向きを判定する装置である。図3に示すように、判定装置100は、入力部110、判定部120を有する。
入力部110は、カメラ10で撮影された顔画像を受け取る。この顔画像は、上述したとおり、車両1を運転する運転者(ユーザの一例)の顔が撮影された画像である。
判定部120は、人物の顔向きを学習した学習モデルと入力部110が受け取った顔画像とに基づいて顔向きの信頼度を算出し、その信頼度が所定の閾値より大きいか否かによって顔向きを判定する。
例えば、判定部120は、カメラ10の光軸A1が第1の方向を向く場合、算出した信頼度が第1の閾値(例えば、後述する閾値907)より大きいか否かによって顔向きを判定し、カメラ10の光軸A1が第1の方向とは異なる第2の方向を向く場合、信頼度が第1の閾値とは異なる第2の閾値(例えば、後述する閾値909)より大きいか否かによって顔向きを判定する。
そして、判定部120は、判定した顔向きを示す情報(以下、「顔向き情報」という)を脇見警告システム30へ出力する。
なお、本実施の形態では、判定部120により顔向きが判定される人物として自動車の運転者を例に挙げて説明するが、これに限定されない。顔向きが判定される人物は、自動車以外の移動体(例えば、二輪車、鉄道、航空機など)の乗員(操縦者または同乗者)でもよいし、移動体の乗員でなくてもよい。よって、判定装置100は、移動体に搭載されてもよいし、固定物(例えば、信号機、建物または部屋の壁面等)に搭載されてもよい。
脇見警告システム30は、判定装置100の判定部120から顔向き情報を受け取り、その顔向き情報に基づいて運転者が脇見をしているか否かを判定し、脇見をしている場合には、その旨の報知を行う装置である。脇見警告システム30は、例えば、脇見の判定を行うプロセッサなどの制御デバイス、脇見をしていると判定する顔向きの角度の情報を記憶するメモリなどの記憶デバイス、ディスプレイなどの表示デバイス、スピーカなどの音声出力デバイスなどで構成される。
脇見警告システム30は、車両1の所定の場所に設置され、判定装置100と接続される。判定装置100と脇見警告システム30の接続方式は、有線、無線、または、有線と無線の組み合わせのいずれであってもよい。
なお、本実施の形態では、判定装置100の顔向き情報の出力先を脇見警告システム30としたが、これに限定されない。判定装置100から出力された顔向き情報は、脇見の警告以外の処理に用いられてもよい。
次に、図3に示した判定部120の構成について、図4を用いて説明する。図4は、判定部120の構成の一例を示すブロック図である。
図4に示すように、判定部120は、第1の顔向き検出部121、第2の顔向き検出部122、顔向き判定部123を有する。以下、各部について説明する。
まず、第1の顔向き検出部121について説明する。第1の顔向き検出部121は、正面顔検出器121a、横向き顔検出器121bを有し、それらを用いて顔画像中の正面顔、または、横向き顔を検出する。
正面顔検出器121aは、入力部110が受け取った顔画像中の正面顔を検出する。正面顔とは、カメラ10に正対した顔である。
横向き顔検出器121bは、入力部110が受け取った顔画像中の横向き顔を検出する。横向き顔とは、正面顔を基準として右または左を向いた顔である。
正面顔検出器121aおよび横向き顔検出器121bでは、正面顔、または、横向き顔を検出するために、それぞれ予め学習が行われる。ここで、その学習の方法について説明する。
まず、大量の顔画像を用意する。一般的に、あらゆる人物の顔画像に対応するため、年齢、性別、人種などが異なる顔画像を数万〜数十万枚程度用意することが望ましい。
学習に用いられる顔画像は、正解画像および不正解画像がある。正解画像とは、顔向き検出器に正解を学習させるための画像であり、不正解画像とは、顔向き検出器に不正解を学習させるための画像である。例えば、正面顔検出器121aの学習の場合、正面顔が撮影された顔画像が正解画像として用いられ、正面顔が撮影されていない画像が不正解画像として用いられる。また、例えば、横向き顔検出器121bの学習の場合、横向き顔が撮影された顔画像が正解画像として用いられ、横向き顔が撮影されていない画像が不正解画像として用いられる。
次に、用意した正解画像と不正解画像から抽出された特徴量を用いて、正面顔検出器121a、横向き顔検出器121bのそれぞれに対して、正解と不正解を機械学習させる。特徴量の抽出方法としては、顔画像中の輝度勾配から算出されたヒストグラムを特徴量とするHOG(Histograms of Oriented Gradients)、画像領域間の明暗差を特徴量とするHaar-Likeなどの公知技術から、検出対象の画像における特徴に応じて適切なものを用いる。特徴量は一般的に多次元の特徴ベクトルによって表現される。
また、上述した機械学習としては、SVM(Support Vector Machine)、NN(Neural Networks)、Boostingなどの公知の技術を用いることができる。機械学習においては、用意された正解画像と不正解画像から抽出された特徴量の分布などに基づき、入力部110が受け取った顔画像から抽出された特徴量が正解画像と不正解画像のうちどちらの集合に含まれるのかを検出するための評価値の算出式などが、正面顔検出器121a、横向き顔検出器121bそれぞれについて出力される。
以上、正面顔検出器121a、横向き顔検出器121bの学習の方法について説明した。
上記学習が行われた正面顔検出器121aおよび横向き顔検出器121bは、入力部110が受け取った顔画像から抽出された特徴量に基づき、それぞれ、顔画像中の正面顔、または、横向き顔を検出する。例えば、まず、正面顔検出器121aおよび横向き顔検出器121bは、それぞれ、顔画像から抽出された特徴量に基づいて、機械学習時に出力された算出式を用いて評価値を算出する。
次に、正面顔検出器121aおよび横向き顔検出器121bは、それぞれ、算出した評価値に基づいて、顔画像中の正面顔、または、横向き顔を検出する(この具体例については図6〜図9を用いて後述する)。次に、正面顔検出器121aおよび横向き顔検出器121bは、それぞれ、検出した正面顔、または、横向き顔の信頼度を算出し、その信頼度を示す信頼度情報を顔向き判定部123へ出力する。
上述した信頼度の算出方法としては、評価値をそのまま信頼度とする方法が挙げられる。例えば、顔画像中の人物の顔の位置が特定されている場合、正面顔検出器121aは、顔画像中の顔を想定した大きさの窓を用いて顔画像から人物の顔が存在する画像領域を抽出する。そして、正面顔検出器121aは、機械学習によって出力された算出式を用いて、画像領域から抽出された特徴量に基づき算出した評価値をそのまま信頼度とする。
同様に、横向き顔検出器121bも、上記窓を用いて画像領域を抽出し、機械学習によって出力された算出式を用いて、画像領域から抽出された特徴量に基づき算出した評価値をそのまま信頼度とする。
一方、顔画像から検出した正面顔、もしくは横向き顔の検出数に応じて信頼度を算出する方法が挙げられる。例えば、顔画像中の人物の顔の位置が特定されていない場合、正面顔検出器121aは、上記窓を用いて顔画像を走査し、正面顔が存在する可能性のある画像領域を複数抽出しそれぞれの画像領域について、機械学習によって出力された算出式を用いて、抽出された特徴量に基づき評価値を算出する。そして、正面顔検出器121aは、評価値と所定の値との比較結果によって正面顔を含むと判定された画像領域の数(換言すれば、正面顔の検出数)を信頼度とする。
同様に、横向き顔検出器121bも、上記窓を用いて顔画像を走査し、横向き顔が存在する可能性のある画像領域を複数抽出し、それぞれの画像領域について、機械学習によって出力された算出式を用いて、抽出された特徴量に基づき評価値を算出する。そして、横向き顔検出器121bは、評価値と所定の値との比較結果によって横向き顔を含むと判定された画像領域の数を信頼度とする。
なお、顔画像中の人物の顔の位置が特定されていない場合、正面顔、または、横向き顔を含むと判定された画像領域の数ではなく、顔画像の走査によって抽出されたすべての画像領域の評価値の平均値を信頼度としてもよい。そして、算出部121cは、算出した各信頼度を示す信頼度情報を顔向き判定部123へ出力する。
ここで、正面顔検出器121aおよび横向き顔検出器121bが行う顔向き検出処理の具体例について、図6〜図9を用いて説明する。
まず、図6を用いて、顔向き検出処理で用いられる検出範囲について、説明する。図6は、顔向き検出処理で用いられる検出範囲の一例を示す図である。図6は、運転者の頭部を真上から見た状態を示している。
図6では、運転者300の顔が車両1の前進方向301を向いている。このときの運転者300の顔向きを基準方向302とし、その方向の角度を0度と定義する。
検出範囲303は、基準方向302を基準とした−30度〜+30度の範囲である。検出範囲304は、基準方向302を基準とした+30度〜+90度の範囲である。検出範囲305は、基準方向302を基準とした−30度〜−90度の範囲である。本実施の形態でいう顔向きの角度は、運転者300の頭部を真上から見たときに、運転者300の体の上下方向における軸(例えば、運転者300の体を真上から見たときの頭部の中心を通り、運転者300の体の上下方向に伸びる仮想軸)を中心として、運転者300の頭部が左方向(反時計回りの方向)または右方向(時計回りの方向)に回転する角度であるとする。
正面顔検出器121aは、機械学習によって出力された算出式を用いて、顔画像から抽出された特徴量に基づき評価値を算出する。そして、正面顔検出器121aは、評価値と所定の値との比較結果に基づいて、その顔画像が正解(正面顔を含む)であるのか不正解(正面顔を含まない)であるのかを検出する。一方、横向き顔検出器121bは、機械学習によって出力された算出式を用いて、顔画像から抽出された特徴量に基づき評価値を算出する。そして、横向き顔検出器121bは、評価値と所定の値との比較結果に基づいて、その顔画像が正解(横向き顔を含む)であるのか不正解(横向き顔を含まない)であるのかを検出する。
次に、図7を用いて、顔向き検出処理の第1の例について説明する。図7は、顔向き検出処理の第1の例を説明する図である。図7Aは、運転者の顔向きの一例を示す図であり、運転者の頭部を真上から見た状態を示している。図7Bは、図7Aに示した顔向きのときにカメラ10により撮影された顔画像の一例を示す図である。なお、図7Aにおいて、図1〜図3と同じ構成要素には同一の符号を付している。
図7Aにおいて、角度θは、カメラ10の光軸A1と、図3で説明した基準方向302とがなす角度である。すなわち、車両1の車室内を真上から見た場合、カメラ10は、基準方向302を基準として反時計回りの方向へ角度θずれて設置されている。
図7Aに示すように運転者300の顔向きが基準方向302である場合、カメラ10により撮影される顔画像は、図7Bに示す横向き顔(右横向き顔)の顔画像となる。
正面顔検出器121aは、図7Bに示した顔画像を入力部110から受け取った場合、顔画像を不正解(正面顔を含まない)と検出する。一方で、横向き顔検出器121bは、図7Bに示した顔画像を入力部110から受け取った場合、顔画像を正解(横向き顔を含む)と検出する。
なお、図7Aにおいて、検出範囲303と検出範囲304または検出範囲305とが重複している部分に運転者300の顔向きがある場合、正面顔検出器121aおよび横向き顔検出器121bのそれぞれによって、顔画像が正解と判定されるが、信頼度は低く算出されることになる(後述する図8A、図9Aの場合も同様)。
次に、図8を用いて、顔向き検出処理の第2の例について説明する。図8は、顔向き検出処理の第2の例を説明する図である。図8Aは、運転者の顔向きの一例を示す図であり、運転者の頭部を真上から見た状態を示している。図8Bは、図8Aに示した顔向きのときにカメラ10により撮影された顔画像の一例を示す図である。なお、図8Aにおいて、図1〜図3と同じ構成要素には同一の符号を付している。また、図8Aに示す角度θは、図7Aと同様である。
図8Aに示すように運転者300の顔向きがカメラ10の光軸A1の向きと同じである(換言すれば、運転者300の顔がカメラ10に正対している)顔向き306である場合、カメラ10により撮影される顔画像は、図8Bに示す正面顔の顔画像となる。
正面顔検出器121aは、図8Bに示した顔画像を入力部110から受け取った場合、顔画像を正解(正面顔を含む)と検出する。一方で、横向き顔検出器121bは、図8Bに示した顔画像を入力部110から受け取った場合、顔画像を不正解(横向き顔を含まない)と検出する。
次に、図9を用いて、顔向き検出処理の第3の例について説明する。図9は、顔向き検出処理の第3の例を説明する図である。図9Aは、運転者の顔向きの一例を示す図であり、運転者の頭部を真上から見た状態を示している。図9Bは、図9Aに示した顔向きのときにカメラ10により撮影された顔画像の一例を示す図である。なお、図9Aにおいて、図1〜図3と同じ構成要素には同一の符号を付している。また、図9に示す角度θは、図7Aと同様である。
図9Aに示すように運転者300の顔向きがカメラ10の光軸A1を基準として反時計回りの方向に回転した顔向き307である場合、カメラ10により撮影される顔画像は、図9Bに示す横向き顔(左横向き顔)の顔画像となる。
正面顔検出器121aは、図9Bに示した顔画像を入力部110から受け取った場合、顔画像を不正解(正面顔を含まない)と検出する。一方で、横向き顔検出器121bは、図9に示した顔画像を入力部110から受け取った場合、顔画像を正解(横向き顔を含む)と検出する。
以上、第1の顔向き検出部121について説明した。
次に、第2の顔向き検出部122について説明する。以下に説明する第2の顔向き検出部122の処理は、後述する顔向き判定部123から指示があった場合に行われる。
第2の顔向き検出部122は、入力部110が受け取った顔画像における目、鼻、口などの部位(以下、「顔部位」という)の位置関係に基づいて、顔画像中の顔向きを検出する。具体的には、第2の顔向き検出部122は、顔画像から顔部位に対応する特徴点を抽出し、その特徴点により示される顔部位の位置関係(例えば、右目と左目の中点の位置、両目に対する鼻、口の相対位置など)に基づいて、顔画像中の顔向きを検出する。例えば、顔画像中の右目と左目の中点が顔面の縦の中線上に位置する場合、第2の顔向き検出部122は、顔向きとして角度0°を検出する。また、例えば、人物の顔がカメラ10に正対している状態から回転するなどして、顔画像中の右目と左目の中点が顔面の縦の中線近辺から離れた位置にある場合、第2の顔向き検出部122は、第2の顔向き検出部122は、顔向きとして右目と左目の中点と顔面の縦の中線との距離に応じた角度を検出する。
第2の顔向き検出部122は、検出した顔向きの角度を示す顔向き角度情報を顔向き判定部123へ出力する。
以上、第2の顔向き検出部122について説明した。
次に、顔向き判定部123について説明する。
顔向き判定部123は、第1の顔向き検出部121から信頼度情報を受け取り、その信頼度情報の信頼度が閾値(詳細は後述)より大きいか否かを判定する。
信頼度が閾値より大きい場合、顔向き判定部123は、その信頼度に基づいて顔向きの角度の範囲を判定し(詳細は後述)、その判定結果を示す情報(以下、「第1の顔向き情報」という)を脇見警告システム30へ出力する。
一方、信頼度が閾値以下である場合、顔向き判定部123は、第2の顔向き検出部122に対して顔向きの検出を行うように指示する。この指示により、上述したように、第2の顔向き検出部122では、顔部位の位置関係に基づく顔向きの検出処理が行われる。その後、顔向き判定部123は、第2の顔向き検出部122から顔向き角度情報を受け取り、その顔向き角度情報(以下、「第2の顔向き情報」ともいう)を脇見警告システム30へ出力する。
以上、顔向き判定部123について説明した。
次に、本実施の形態に係る判定装置100の動作について、図10を用いて説明する。図10は、判定装置100の動作の一例を示すフローチャートである。
まず、第1の顔向き検出部121は、入力部110から顔画像(カメラ10により撮影された、運転者席20に座った運転者300の顔画像)を受け取り、正面顔検出器121aおよび横向き顔検出器121bを用いて、顔画像中の正面顔、または、横向き顔を検出し、検出した顔向きの信頼度を算出する(ステップS1)。
例えば、顔画像中の顔向きが図8Aに示した顔向き306である場合、正面顔検出器121aは、顔向きが正面顔である(正解)と検出し、その信頼度を算出し、また、横向き顔検出器121bは、顔向きが横向き顔ではない(不正解)と検出して、その信頼度を算出する。この場合、後述するように、正面顔検出器121aによって算出される信頼度は、横向き顔検出器121bによって算出される信頼度より大きい値となる。
そして、第1の顔向き検出部121は、正面顔検出器121aにより算出された信頼度を示す信頼度情報と、横向き顔検出器121bにより算出された信頼度を示す信頼度情報とを顔向き判定部123へ出力する。
次に、顔向き判定部123は、第1の顔向き検出部121から上述した信頼度情報を受け取り、各信頼度情報に含まれる信頼度(例えば、正面顔検出器121aにより算出された信頼度、および、横向き顔検出器121bにより算出された信頼度のいずれか)が閾値より大きいか否かを判定する(ステップS2)。閾値については後述する。
上記判定の結果、信頼度が閾値より大きい場合(ステップS2:YES)、フローはステップS3に進み、信頼度が閾値以下である場合(ステップS2:NO)、フローはステップS4に進む。
ここで、顔向きの角度と信頼度の関係の一例について、図11を用いて説明する。図11は、顔向きの角度と信頼度の関係の一例を示す図である。
図11において、横軸は顔向きの角度を示し、縦軸は信頼度を示す。また、図11の横軸に示す0度は、図3を用いて説明したとおり、運転者300の顔向きが車両1の前進方向301を向いているときの角度(基準方向の角度)である。また、図11の横軸に示す40度は、図6〜図9に示したカメラ10が設置される角度θである。
また、図11において、判定範囲905は、−30度〜+30度の範囲であり、運転者が車両の前進方向を向いている(運転者が脇見をしていない)と判定される範囲である。判定範囲906aは、−30度より小さい範囲であり、運転者が車両の前進方向を向いていない(運転者が脇見をしている)と判定される範囲である。判定範囲906bは、+30度より大きい範囲であり、運転者が車両の前進方向を向いていない(運転者が脇見をしている)と判定される範囲である。
また、図11において、波形901、902、903は、第1の顔向き検出部121によって検出される顔向きの信頼度を示す。波形901は、顔向きが図6等に示した検出範囲305にある場合に、横向き顔検出器121bによって正解として検出される横向き顔の信頼度を示す。波形902は、顔向きが図6等に示した検出範囲304にある場合に、横向き顔検出器121bによって正解として検出される横向き顔の信頼度を示す。波形903は、顔向きが図6等に示した検出範囲303にある場合に、正面顔検出器121aによって正解として検出される正面顔の信頼度を示す。
図11に示した波形901、902、903のそれぞれが最大になる角度(図11では、−35度、115度、40度)は、後述するように正面顔検出器121aおよび横向き顔検出器121bの学習に用いた画像に依存する。
また、図11において、範囲910aは、波形901が閾値907を超えた範囲である。範囲910bは、波形902が閾値907を超えた範囲である。範囲911は、波形903が閾値907を超えた範囲である。換言すれば、範囲910a、範囲910b、および範囲911は、第1の顔向き検出部121により算出された信頼度が閾値907より大きい場合における、第1の顔向き検出部121により検出された顔向きの角度の範囲である。
閾値907は、例えば、脇見警告システム30が判定したい顔向きの範囲(例えば、判定範囲905、判定範囲906a、判定範囲906b)に基づいて設定される(後述する閾値908、閾値909についても同様)。例えば、閾値907は、範囲910aが判定範囲906aに含まれ、かつ、範囲910bおよび範囲911が判定範囲906bに含まれるように設定される。ただし、閾値907は、範囲910a、910b、および範囲911のそれぞれが判定範囲906aと判定範囲905を跨がないように、かつ、判定範囲906bと判定範囲905を跨がないように設定される。
閾値907を設定する者は、例えば、判定装置100の製造者または販売者、車両1の製造者または販売者、判定装置100のユーザ(例えば、車両1の運転者)などが挙げられる(後述する閾値908、閾値909についても同様)。
なお、図11では、閾値907と閾値908の2つを図示しているが、いずれか一方が信頼度の判定(図10のステップS2参照)に用いられる。まず、閾値907(第1の閾値の一例)を用いる場合について説明し、閾値908を用いる場合については後述する。
例えば、正面顔検出器121aの学習時に人物の顔がカメラ10に正対した状態で撮影された顔画像を正解画像として用いた場合、カメラ10は40度の位置に設置されているため、正面顔検出器121aは、顔向きが40度のときに撮影された顔画像を正面顔であると検出する。上述したように、正面顔の学習においては、予め用意された正解画像(正面顔を含む顔画像)と不正解画像(正面顔を含まない画像)から抽出された特徴量の分布などに基づき、入力部110が受け取った顔画像から抽出された特徴量がどちらの集合に含まれるのかを判定するための評価値の算出式が出力される。すなわち、評価値の算出式は、学習に用いた正解画像と不正解画像に依存する。正解画像としては、上述したとおり、可能な限り年齢、性別、人種などが異なる多くの人物が撮影された顔画像が用意されるが、各人間が寸分のくるいもなくカメラに正対することは不可能である。そのため、左右前後に傾いた状態の顔、または、左右に回転した状態の顔が撮影されることになるが、なるべくカメラに正対した状態の顔画像が正解画像として選択される。すなわち、正解画像は、カメラに正対した状態に近い顔向きの顔画像が最も多く、カメラに正対した状態からずれた顔向きの顔画像は少なくなる。このような正解画像を学習した正面顔検出器121aでは、顔向きがカメラ10の設置位置である40度の方向に近いほど高い信頼度で正面顔が検出され、顔向きが40度から遠ざかるほど低い信頼度で正面顔が検出されることなる。
横向き顔検出器121bの学習においても、−35度または115度の方向を向いた、可能な限り年齢、性別、人種などが異なる多くの人物が撮影された顔画像が正解画像として用意される。このような正解画像を学習した横向き顔検出器121bでは、顔向きが−35度または115度に近いほど高い信頼度で横向き顔が検出され、顔向きが−35度または115度から遠ざかるほど低い信頼度で横向き顔が検出される。
以下、図10のフローチャートの説明に戻る。
信頼度が閾値より大きい場合(ステップS2:YES)、顔向き判定部123は、第1の顔向き検出部121が算出した信頼度に基づいて顔向きの角度を判定し、判定結果を示す第1の顔向き情報を脇見警告システム30へ出力する(ステップS3)。
例えば、図11に示すように閾値907として0.8が設定されており、第1の顔向き検出部121の横向き顔検出器121bが検出した横向き顔の信頼度が0.8より大きい場合、その横向き顔は図11に示した範囲910aまたは範囲910bにあることになる。範囲910aは、運転者が脇見をしていると判定すべき判定範囲906aに必ず含まれ、範囲910bも、運転者が脇見をしていると判定すべき判定範囲906bに必ず含まれる。よって、顔向き判定部123は、判定範囲906aの角度の範囲(図11では、−30度より小さい範囲)または判定範囲906bの角度の範囲(図11では、+30度より大きい範囲)を示す第1の顔向き情報を脇見警告システム30へ出力する。
また、例えば、図11に示すように閾値907として0.8が設定されており、第1の顔向き検出部121の正面顔検出器121aが検出した正面顔の信頼度が0.8より大きい場合、その正面顔は図11に示した範囲911にあることになる。範囲911は、運転者が脇見をしていると判定すべき判定範囲906bに必ず含まれる。よって、顔向き判定部123は、判定範囲906bの角度の範囲(図11では、+30度より大きい範囲)を示す第1の顔向き情報を脇見警告システム30へ出力する。
脇見警告システム30は、顔向き判定部123から受け取った第1の顔向き情報に基づいて、運転者が脇見をしていると判定し、その旨を示す警告画像または警告音声などを出力し、運転者に報知する。
信頼度が閾値以下である場合(ステップS2:NO)、顔向き判定部123は、第2の顔向き検出部122に対して顔向きの検出を行うように指示する。この指示により、第2の顔向き検出部122は、上述した顔部位の位置関係に基づく顔向きの検出処理を行う(ステップS4)。すなわち、第2の顔向き検出部122は、入力部110から顔画像を受け取り、その顔画像における目、鼻、口などの顔部位の位置関係に基づいて、顔画像中の顔向きを検出する。そして、第2の顔向き検出部122は、検出した顔向きの角度を示す顔向き角度情報を顔向き判定部123へ出力する。
顔向き判定部123は、第2の顔向き検出部122から顔向き角度情報を受け取り、その顔向き角度情報を第2の顔向き情報として脇見警告システム30へ出力する(ステップS5)。脇見警告システム30は、第2の顔向き情報の顔向きの角度が図11に示した判定範囲906aまたは判定範囲906bにある場合、運転者が脇見をしていると判定し、その旨を示す警告画像または警告音声などを出力し、運転者に報知する。
以上、判定装置100の動作の一例について説明した。このように、判定装置100は、第1の顔向き検出部121で算出された信頼度が閾値907より大きい場合、第2の顔向き検出部122よりも検出精度が高い第1の顔向き検出部121の検出結果を優先的に採用することができる。
なお、上記動作例の説明では閾値907(例えば、0.8)を用いる場合を例に挙げたが、例えば図11に示すように、閾値907よりも小さい閾値908(例えば、0.6)が用いられてもよい。例えば、閾値908は、閾値907と同様に、範囲910aが判定範囲906aに含まれ、かつ、範囲910bおよび範囲911が判定範囲906bに含まれるように設定される。また、閾値908は、範囲910a、910b、および範囲911のそれぞれが判定範囲906aと判定範囲905を跨がないように、かつ、判定範囲906bと判定範囲905を跨がないように設定される。
このような閾値908が設定された場合、顔向き判定部123は、正面顔検出器121aが算出した信頼度のみを用いて判定を行う。図11に示すように、正面顔検出器121aが算出した信頼度である波形903が閾値908より大きい場合、顔向きの範囲911は、運転者が脇見をしていると判定すべき判定範囲906bに必ず含まれる。その理由は、横向き顔検出器121bが算出した信頼度である波形902が閾値908より大きい場合、顔向きの範囲910bは、判定範囲906bに必ず含まれるが、横向き顔検出器121bが算出した信頼度である波形901が閾値908より大きい場合、顔向きの範囲910aは、判定範囲906aに必ず含まれるわけではないためである。
次に、図7〜図9に示したカメラ100の設置位置をθ=40度の位置から、θ=50度の位置に変更した場合について、図12を用いて説明する。図12は、図11と同様、顔向きの角度と信頼度の関係の一例を示す図である。図12において、図11と同一の構成要素には同一の符号を付している。
カメラ100の設置位置が40度から50度に変更された場合、図12に示すように、信頼度の波形901、902、903は、それぞれ、図11に示した位置から図中の右方向へ10度分ずれる。このとき、図12に示した波形901〜903の形状、大きさ等は、図11に示した形状、大きさ等と変わらない。
また、図12において、範囲913は、波形901が閾値909を超えた範囲である。範囲914は、波形902が閾値909を超えた範囲である。範囲915は、波形903が閾値909を超えた範囲である。換言すれば、範囲913〜915は、第1の顔向き検出部121により算出された信頼度が閾値909を超えた場合における、第1の顔向き検出部121により検出された顔向きの角度の範囲である。
また、図12に示すように、閾値909(例えば、0.7。第2の閾値の一例)が設定される。カメラ100の設置位置が40度から50度に変更された場合、閾値909は、例えば、範囲913が判定範囲905に含まれ、かつ、範囲914および範囲915が判定範囲906bに含まれるように設定される。また、閾値909は、範囲913〜915のそれぞれが判定範囲906aと判定範囲905を跨がないように、かつ、判定範囲906bと判定範囲905を跨がないように設定される。
このような場合における判定装置100の動作例について説明する。本動作例において、入力部110、第1の顔向き検出部121、第2の顔向き検出部122等の動作は、上記同様であるので、それらの説明は省略する。以下では、主に顔向き判定部123の動作例について説明する。
顔向き判定部123は、第1の顔向き検出部121から信頼度情報を受け取ると、その信頼度情報の信頼度である波形901〜903のいずれかが閾値909より大きいか否かを判定する。
上記判定の結果、波形901〜903が全て閾値909以下である場合、顔向き判定部123は、第2の顔向き検出部122に顔向き検出処理を行うように指示する。これ以降の動作は、上述したとおりであるので、その説明は省略する。
上記判定の結果、波形901〜903のいずれかが閾値909より大きい場合、顔向き判定部123は、閾値909を超えている範囲913〜915のいずれかを特定する。
次に、顔向き判定部123は、特定した範囲913〜915のいずれかを含む判定範囲905、906a、906bのいずれかを特定し、特定した範囲の角度(換言すれば、顔向きの角度の範囲)を示す第1の顔向き情報を脇見警告システム30へ出力する。
例えば、図12に示すように、正面顔検出器121aが算出した信頼度である波形903が閾値909より大きい場合、顔向きは、範囲915にあり、運転者が脇見をしていると判定すべき判定範囲906bに必ず含まれる。よって、顔向き判定部123は、判定範囲906bの角度の範囲(図12では、+30度より大きい範囲)を示す第1の顔向き情報を脇見警告システム30へ出力する。脇見警告システム30は、上述したとおり、第1の顔向き情報に基づいて、脇見をしている旨の報知を行う。
また、例えば、図12に示すように、横向き顔検出器121bが左横向き顔(例えば、カメラ10に正対した位置から顔を75度回転させ、125度の方向を向いた横向き顔)の顔画像を正解画像として学習しており、その横向き顔検出器121bが算出した信頼度である波形902が閾値909より大きい場合、顔向きは、範囲914にあり、運転者が脇見をしていると判定すべき判定範囲906bに必ず含まれる。よって、顔向き判定部123は、判定範囲906bの角度の範囲(図12では、+30度より大きい範囲)を示す第1の顔向き情報を脇見警告システム30へ出力する。脇見警告システム30は、上述したとおり、第1の顔向き情報に基づいて、脇見をしている旨の報知を行う。
また、例えば、図12に示すように、横向き顔検出器121bが右横向き顔(例えば、カメラ10に正対した位置から顔を−75度回転させ、−25度の方向を向いた横向き顔)の顔画像を正解画像として学習しており、その横向き顔検出器121bが算出した信頼度である波形901が閾値909より大きい場合、顔向きは、範囲913にあり、運転者が脇見をしていないと判定すべき判定範囲905に必ず含まれる。よって、顔向き判定部123は、判定範囲906aの角度の範囲(図12では、−30度〜+30度の範囲)を示す第1の顔向き情報を脇見警告システム30へ出力する。脇見警告システム30は、第1の顔向き情報に基づいて運転者が脇見をしていないと判定する。この場合、脇見警告システム30は、報知を行わない。
以上説明したように、本実施の形態の判定装置100によれば、第1の顔向き検出部121で算出された信頼度が閾値より大きい場合には、第1の顔向き検出部121で検出された顔向きの情報(第1の顔向き情報)を出力し、第1の顔向き検出部121で算出された信頼度が閾値以下である場合には、第2の顔向き検出部122で検出された顔向きの情報(第2の顔向き情報)を出力する。これにより、カメラ10の設置位置を変更した場合であっても、正面顔検出器121aおよび横向き顔検出器121bに再度顔向きを学習させることなく、顔向きを判定できる。
以上、本発明の実施の形態について図面を参照して詳述してきたが、上述した判定装置100の判定部122の各部の機能は、コンピュータプログラムにより実現され得る。
図13は、各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ1000は、入力ボタン、タッチパッドなどの入力装置1001、ディスプレイ、スピーカなどの出力装置1002、CPU(Central Processing Unit)1003、ROM(Read Only Memory)1004、RAM(Random Access Memory)1005、ハードディスク装置、SSD(Solid State Drive)などの記憶装置1006を備える。また、コンピュータ1000は、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1007、ネットワークを介して通信を行う送受信装置1008を備える。図13に示した各部は、バス1009により接続される。
そして、読取装置1007は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1006に記憶させる。あるいは、送受信装置1008が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置1006に記憶させる。
そして、CPU1003が、記憶装置1006に記憶されたプログラムをRAM1005にコピーし、そのプログラムに含まれる命令をRAM1005から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM1005または記憶装置1006には、実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。
本発明は、顔の向きを判定する判定装置、判定方法、および判定プログラムに有用である。
1 車両
10 カメラ
20 運転者席
30 脇見警告システム
100 判定装置
110 入力部
120 判定部
121 第1の顔向き検出部
121a 正面顔検出器
121b 横向き顔検出器
121c 算出部
122 第2の顔向き検出部
123 顔向き判定部
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 ROM
1005 RAM
1006 記憶装置
1007 読取装置
1008 送受信装置
1009 バス

Claims (4)

  1. 基準方向に対して光軸が所定方向を向くカメラからユーザの顔画像を受け取る入力部と、
    人物の複数の顔向きを正解画像としてそれぞれ学習した学習モデルと前記顔画像とに基づいて算出された顔向きの信頼度が所定閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定する判定部と、
    を備え、
    前記判定部は、前記カメラの光軸が第1の方向を向く場合、前記信頼度が第1の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定し、前記光軸が前記第1の方向とは異なる第2の方向を向く場合、前記信頼度の算出に用いられた前記正解画像の顔向きと、前記信頼度が前記第1の閾値とは異なる第2の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定
    前記第1の閾値は、
    前記信頼度が前記第1の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定され、
    前記第2の閾値は、
    前記信頼度が前記第2の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定される、
    判定装置。
  2. 前記判定部は、
    前記信頼度が前記第1の閾値または前記第2の閾値より大きくない場合、前記顔画像の顔部位の位置関係に基づいて前記ユーザが前記基準方向に対して脇見をしているか否かを判定する、
    請求項1に記載の判定装置。
  3. 基準方向に対して光軸が所定方向を向くカメラからユーザの顔画像を受け取るステップと、
    人物の複数の顔向きを正解画像としてそれぞれ学習した学習モデルと前記顔画像とに基づいて顔向きの信頼度を算出するステップと、
    前記カメラの光軸が第1の方向を向く場合、前記信頼度が第1の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定し、前記光軸が前記第1の方向とは異なる第2の方向を向く場合、前記信頼度の算出に用いられた前記正解画像の顔向きと、前記信頼度が前記第1の閾値とは異なる第2の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定するステップと、を含
    前記第1の閾値は、
    前記信頼度が前記第1の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定され、
    前記第2の閾値は、
    前記信頼度が前記第2の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定される、
    判定方法。
  4. 基準方向に対して光軸が所定方向を向くカメラからユーザの顔画像を受け取る処理と、
    人物の複数の顔向きを正解画像としてそれぞれ学習した学習モデルと前記顔画像とに基づいて顔向きの信頼度を算出する処理と、
    前記カメラの光軸が第1の方向を向く場合、前記信頼度が第1の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定し、前記光軸が前記第1の方向とは異なる第2の方向を向く場合、前記信頼度の算出に用いられた前記正解画像の顔向きと、前記信頼度が前記第1の閾値とは異なる第2の閾値より大きいか否かによって前記ユーザが前記基準方向に対して脇見をしているか否かを判定する処理と、をコンピュータに実行させ、
    前記第1の閾値は、
    前記信頼度が前記第1の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定され、
    前記第2の閾値は、
    前記信頼度が前記第2の閾値より大きい場合における前記顔画像の顔向きの角度の範囲が、前記基準方向を基準とした所定の角度の範囲である第1の判定範囲と、前記基準方向を基準とした前記第1の判定範囲と異なる所定の角度の範囲である第2の判定範囲とを跨がないように設定される、
    判定プログラム。
JP2015134434A 2015-07-03 2015-07-03 判定装置、判定方法、および判定プログラム Active JP6573193B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015134434A JP6573193B2 (ja) 2015-07-03 2015-07-03 判定装置、判定方法、および判定プログラム
US15/177,190 US9928404B2 (en) 2015-07-03 2016-06-08 Determination device, determination method, and non-transitory storage medium
EP16174487.5A EP3113073A1 (en) 2015-07-03 2016-06-15 Determination device, determination method, and non-transitory storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015134434A JP6573193B2 (ja) 2015-07-03 2015-07-03 判定装置、判定方法、および判定プログラム

Publications (2)

Publication Number Publication Date
JP2017016512A JP2017016512A (ja) 2017-01-19
JP6573193B2 true JP6573193B2 (ja) 2019-09-11

Family

ID=56617983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015134434A Active JP6573193B2 (ja) 2015-07-03 2015-07-03 判定装置、判定方法、および判定プログラム

Country Status (3)

Country Link
US (1) US9928404B2 (ja)
EP (1) EP3113073A1 (ja)
JP (1) JP6573193B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5867637B1 (ja) * 2015-02-23 2016-02-24 横浜ゴム株式会社 パンク修理液収容容器
JP6917708B2 (ja) * 2016-02-29 2021-08-11 株式会社デンソー 運転者監視システム
CN110537207B (zh) 2017-03-10 2023-04-21 三菱电机株式会社 脸部朝向推定装置及脸部朝向推定方法
JP2018149990A (ja) * 2017-03-14 2018-09-27 オムロン株式会社 運転者の着座判定装置
CN111052184A (zh) * 2017-06-15 2020-04-21 夏普株式会社 动态图像处理装置、显示装置、动态图像处理方法以及控制程序
JP6947099B2 (ja) * 2018-03-27 2021-10-13 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP7180228B2 (ja) * 2018-09-20 2022-11-30 いすゞ自動車株式会社 車両用監視装置
US10825196B2 (en) * 2019-02-15 2020-11-03 Universal City Studios Llc Object orientation detection system
JP2020166523A (ja) * 2019-03-29 2020-10-08 株式会社ネクスウェイ 興味度情報取得システム、情報処理装置、及び情報処理プログラム
WO2022107595A1 (ja) * 2020-11-17 2022-05-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
TWI768852B (zh) * 2021-04-28 2022-06-21 緯創資通股份有限公司 人體方向之偵測裝置及人體方向之偵測方法
JP7218397B2 (ja) * 2021-05-12 2023-02-06 レノボ・シンガポール・プライベート・リミテッド 電子機器、及び制御方法
JP2024006072A (ja) * 2022-06-30 2024-01-17 本田技研工業株式会社 画像処理装置、画像処理方法、画像処理システム、およびプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6819783B2 (en) * 1996-09-04 2004-11-16 Centerframe, Llc Obtaining person-specific images in a public venue
GB2333590A (en) * 1998-01-23 1999-07-28 Sharp Kk Detecting a face-like region
EP3358501B1 (en) * 2003-07-18 2020-01-01 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
US8135180B2 (en) * 2003-12-24 2012-03-13 Telecom Italia S.P.A. User authentication method based on the utilization of biometric identification techniques and related architecture
CN102231801B (zh) * 2005-11-25 2013-07-10 株式会社尼康 电子摄像机及图像处理装置
EP1968006B1 (en) * 2005-12-27 2020-03-25 Panasonic Intellectual Property Corporation of America Image processing apparatus
JP4532419B2 (ja) * 2006-02-22 2010-08-25 富士フイルム株式会社 特徴点検出方法および装置並びにプログラム
JP5219184B2 (ja) * 2007-04-24 2013-06-26 任天堂株式会社 トレーニングプログラム、トレーニング装置、トレーニングシステムおよびトレーニング方法
JP2009053914A (ja) * 2007-08-27 2009-03-12 Seiko Epson Corp 画像処理装置および画像処理方法
JP4973393B2 (ja) * 2007-08-30 2012-07-11 セイコーエプソン株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび画像処理システム
JP2009059257A (ja) * 2007-09-03 2009-03-19 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP5257157B2 (ja) * 2009-03-11 2013-08-07 ソニー株式会社 撮像装置、撮像装置の制御方法およびプログラム
JP2011134045A (ja) 2009-12-24 2011-07-07 Seiko Epson Corp 画像処理装置
JP5440573B2 (ja) * 2010-08-31 2014-03-12 カシオ計算機株式会社 画像処理システム、サーバー、画像処理方法並びに画像処理プログラム
JP4862955B1 (ja) * 2010-10-29 2012-01-25 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
US8908904B2 (en) * 2011-12-28 2014-12-09 Samsung Electrônica da Amazônia Ltda. Method and system for make-up simulation on portable devices having digital cameras
US8994558B2 (en) * 2012-02-01 2015-03-31 Electronics And Telecommunications Research Institute Automotive augmented reality head-up display apparatus and method
JP5978639B2 (ja) * 2012-02-06 2016-08-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び記録媒体
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
JP6036335B2 (ja) * 2013-01-24 2016-11-30 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
CN105210110A (zh) * 2013-02-01 2015-12-30 松下知识产权经营株式会社 美容辅助装置、美容辅助系统、美容辅助方法以及美容辅助程序
JP6292054B2 (ja) * 2013-11-29 2018-03-14 富士通株式会社 運転支援装置、方法、及びプログラム
US10248846B2 (en) * 2014-07-24 2019-04-02 Sony Interactive Entertainment Inc. Information processing device

Also Published As

Publication number Publication date
US20170004354A1 (en) 2017-01-05
EP3113073A1 (en) 2017-01-04
JP2017016512A (ja) 2017-01-19
US9928404B2 (en) 2018-03-27

Similar Documents

Publication Publication Date Title
JP6573193B2 (ja) 判定装置、判定方法、および判定プログラム
CN104573623B (zh) 人脸检测装置、方法
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
US7853051B2 (en) Recognizing apparatus and method, recording media, and program
EP3033999B1 (en) Apparatus and method for determining the state of a driver
EP2842075B1 (en) Three-dimensional face recognition for mobile devices
JP5790762B2 (ja) 瞼検出装置
WO2009091029A1 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
JP6584717B2 (ja) 顔向き推定装置および顔向き推定方法
US10964046B2 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program for estimating face orientation by using an omni-directional camera
US20210056291A1 (en) Method for analysis of an intrinsic facial feature of a face
KR20160062521A (ko) 목디스크 예방시스템 및 방법
US20220172493A1 (en) Information processing apparatus, and recording medium
CN110199318A (zh) 驾驶员状态推定装置以及驾驶员状态推定方法
JP4840638B2 (ja) 車両の乗員監視装置
JP6558388B2 (ja) 画像処理装置
US20230300290A1 (en) Information display system, information display method, and non-transitory recording medium
JP2018173757A (ja) 検知装置、学習装置、検知方法、学習方法、およびプログラム
JP2021129700A (ja) 基準値決定装置及び基準値決定方法
CN112926364A (zh) 头部姿态的识别方法及系统、行车记录仪和智能座舱
JPWO2020255238A1 (ja) 情報処理装置、プログラム及び情報処理方法
WO2022113275A1 (ja) 睡眠検出装置及び睡眠検出システム
KR20150067679A (ko) 차량용 제스처 인식 시스템 및 그 방법
KR101786579B1 (ko) 정면 얼굴 판단 방법 및 장치
JP2017146704A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190617

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190802

R150 Certificate of patent or registration of utility model

Ref document number: 6573193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150