JPWO2019163124A1 - 三次元位置推定装置及び三次元位置推定方法 - Google Patents

三次元位置推定装置及び三次元位置推定方法 Download PDF

Info

Publication number
JPWO2019163124A1
JPWO2019163124A1 JP2020501979A JP2020501979A JPWO2019163124A1 JP WO2019163124 A1 JPWO2019163124 A1 JP WO2019163124A1 JP 2020501979 A JP2020501979 A JP 2020501979A JP 2020501979 A JP2020501979 A JP 2020501979A JP WO2019163124 A1 JPWO2019163124 A1 JP WO2019163124A1
Authority
JP
Japan
Prior art keywords
distance
feature points
unit
head
passenger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020501979A
Other languages
English (en)
Inventor
佑介 中松
佑介 中松
朝子 重田
朝子 重田
信太郎 渡邉
信太郎 渡邉
亮介 虎間
亮介 虎間
敬 平野
敬 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019163124A1 publication Critical patent/JPWO2019163124A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/045Correction of measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Abstract

三次元位置推定装置(100)は、車室内撮像用のカメラ(2)による撮像画像のうちの搭乗者の顔に対応する領域を検出して、当該検出された領域における複数個の特徴点を抽出する特徴点抽出部(11)と、複数個の特徴点のうちの距離算出用特徴点間の距離である第1特徴点間距離を算出する特徴点間距離算出部(12)と、搭乗者の顔向きを検出する顔向き検出部(13)と、カメラ(2)の撮像軸に対する搭乗者の頭部の位置を示す頭部位置角度を算出する頭部位置角度算出部(14)と、顔向き検出部(13)による検出結果及び頭部位置角度を用いて、第1特徴点間距離を、頭部のうちの距離算出用特徴点に対応する部位がカメラ(2)の撮像面に対する平行面に沿うように配置された状態における距離算出用特徴点間の距離である第2特徴点間距離に補正する特徴点間距離補正部(15)と、頭部位置角度、第2特徴点間距離及び基準特徴点間距離を用いて、頭部の三次元位置を推定する三次元位置推定部(16)とを備える。

Description

本発明は、三次元位置推定装置及び三次元位置推定方法に関する。
従来、人間の頭部を含む領域が撮像された画像における特徴点を抽出し、当該抽出された特徴点に基づく特徴点間距離を算出し、当該算出された特徴点間距離を用いて頭部の三次元位置を推定する技術が開発されている。例えば、特許文献1には、頭髪部の水平幅を特徴点間距離に用いて頭部の三次元位置を推定する方法が開示されている。
特開平5−196425号公報
近年、いわゆる「ドライバーモニタリングシステム」などの車載用システムにおいて、搭乗者の頭部の三次元位置を高精度に推定することが求められている。
ここで、特徴点間距離を用いて頭部の三次元位置を推定する従来の技術においては、搭乗者の顔向きが変化したり、又は搭乗者の頭部が移動したりすることにより、算出される特徴点間距離の値が変動する。算出される特徴点間距離の値が変動することにより、三次元位置を正確に推定することができなくなるという問題があった。
本発明は、上記のような課題を解決するためになされたものであり、顔向きの変化及び頭部の移動などによる影響を低減して、三次元位置の推定精度を向上することを目的とする。
本発明の三次元位置推定装置は、車室内撮像用のカメラによる撮像画像のうちの搭乗者の顔に対応する領域を検出して、当該検出された領域における複数個の特徴点を抽出する特徴点抽出部と、複数個の特徴点のうちの距離算出用特徴点間の距離である第1特徴点間距離を算出する特徴点間距離算出部と、搭乗者の顔向きを検出する顔向き検出部と、カメラの撮像軸に対する搭乗者の頭部の位置を示す頭部位置角度を算出する頭部位置角度算出部と、顔向き検出部による検出結果及び頭部位置角度を用いて、第1特徴点間距離を、頭部のうちの距離算出用特徴点に対応する部位がカメラの撮像面に対する平行面に沿うように配置された状態における距離算出用特徴点間の距離である第2特徴点間距離に補正する特徴点間距離補正部と、頭部位置角度、第2特徴点間距離及び基準特徴点間距離を用いて、頭部の三次元位置を推定する三次元位置推定部とを備えるものである。
本発明によれば、上記のように構成したので、顔向きの変化及び頭部の移動などによる影響を低減して、三次元位置の推定精度を向上することができる。
本発明の実施の形態1に係る三次元位置推定装置の要部を示すブロック図である。 撮像画像における対象特徴点の位置座標の一例を示す説明図である。 図3Aは、水平方向に対する撮像画角及び頭部位置角度の一例を示す説明図である。図3Bは、鉛直方向に対する撮像画角及び頭部位置角度の一例を示す説明図である。 図4Aは、特徴点間距離補正部による補正前の特徴点間距離の一例を示す説明図である。図4Bは、特徴点間距離補正部による補正のイメージを示す説明図である。図4Cは、特徴点間距離補正部による補正後の特徴点間距離の一例を示す説明図である。 図5Aは、本発明の実施の形態1に係る三次元位置推定装置のハードウェア構成を示すブロック図である。図5Bは、本発明の実施の形態1に係る三次元位置推定装置の他のハードウェア構成を示すブロック図である。 本発明の実施の形態1に係る三次元位置推定装置の動作を示すフローチャートである。 本発明の実施の形態2に係る三次元位置推定装置の要部を示すブロック図である。 対象搭乗者の頭部が基準位置にある状態の一例を示す説明図である。 式(10)〜式(15)に含まれる各値に対応するものの位置関係の一例を示す説明図である。 本発明の実施の形態2に係る三次元位置推定装置の動作を示すフローチャートである。 本発明の実施の形態3に係る三次元位置推定装置の要部を示すブロック図である。 本発明の実施の形態3に係る三次元位置推定装置の動作を示すフローチャートである。
以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
図1は、実施の形態1に係る三次元位置推定装置の要部を示すブロック図である。図2は、撮像画像における対象特徴点の位置座標の一例を示す説明図である。図3Aは、水平方向に対する撮像画角及び頭部位置角度の一例を示す説明図である。図3Bは、鉛直方向に対する撮像画角及び頭部位置角度の一例を示す説明図である。図4Aは、特徴点間距離補正部による補正前の特徴点間距離の一例を示す説明図である。図4Bは、特徴点間距離補正部による補正のイメージを示す説明図である。図4Cは、特徴点間距離補正部による補正後の特徴点間距離の一例を示す説明図である。図1〜図4を参照して、実施の形態1の三次元位置推定装置100について説明する。
図中、1は車両である。車両1には、車室内撮像用のカメラ2が設けられている。カメラ2は、例えば、車両1のダッシュボードに取り付けられた可視光カメラ又は赤外線カメラにより構成されている。カメラ2は、車両1の運転席又は助手席のうちの少なくとも一方(以下「前部座席」という。)に着座している搭乗者の顔を含む範囲を撮像可能な撮像画角θ,φを有している。
ここで、θは水平方向(図中x軸及びz軸により規定される仮想的な平面に沿う方向)に対する撮像画角であり、φは鉛直方向(図中y軸及びz軸により規定される仮想的な平面に沿う方向)に対する撮像画角である。なお、撮像画角の単位は度(deg)である。
特徴点抽出部11は、カメラ2による撮像画像CIのうちの搭乗者の顔に対応する領域(以下「顔領域」という。)を検出するものである。具体的には、例えば、特徴点抽出部11は、Haar−Like特徴量を用いて、AdaBoost又はCascadeなどのアルゴリズムにより顔領域を検出する。なお、撮像画像CIにおいて搭乗者の手などにより搭乗者の顔の一部が遮蔽されている場合、特徴点抽出部11は、いわゆる「物体追跡」により顔領域を検出するものであっても良い。この物体追跡には、パーティクルフィルタ又はテンプレートマッチングなどのアルゴリズムを用いることができる。
また、特徴点抽出部11は、顔領域における複数個の特徴点を抽出するものである。具体的には、例えば、特徴点抽出部11は、搭乗者の右眼に対応する特徴点、搭乗者の左眼に対応する特徴点、搭乗者の両眼間の中心部に対応する特徴点、搭乗者の鼻先に対応する特徴点、及び搭乗者の口の中心部に対応する特徴点などを抽出する。
特徴点間距離算出部12は、特徴点抽出部11により抽出された複数個の特徴点のうちの任意の2個の特徴点(以下「距離算出用特徴点」という。)間の距離(以下「特徴点間距離」という。)を算出するものである。具体的には、例えば、特徴点間距離算出部12は、搭乗者の右眼に対応する特徴点と搭乗者の左眼に対応する特徴点との間の距離を算出する。または、例えば、特徴点間距離算出部12は、搭乗者の両眼間の中心部に対応する特徴点と搭乗者の口の中心部に対応する特徴点との間の距離を算出する。なお、特徴点間距離は撮像画像CIにおける距離であり、特徴点間距離の単位はピクセル(pixel)である。
顔向き検出部13は、搭乗者の顔向きを検出するものである。具体的には、例えば、顔向き検出部13は、特徴点抽出部11により抽出された複数個の特徴点の各々の位置座標を示す情報を取得して、これらの特徴点の位置関係に基づき顔向きを検出する。または、例えば、顔向き検出部13は、撮像画像CIを示す画像データを取得して、Random Forestなどのアルゴリズムによる機械学習の結果に基づき顔向きを検出する。後者の場合、図1における特徴点抽出部11と顔向き検出部13間の接続線は不要である。
頭部位置角度算出部14は、カメラ2の撮像軸IAに対する搭乗者の頭部の位置を示す角度(以下「頭部位置角度」という。)θ’,φ’を算出するものである。ここで、θ’は水平方向に対する頭部位置角度であり、φ’は鉛直方向に対する頭部位置角度である。なお、頭部位置角度の単位は度(deg)である。
具体的には、例えば、頭部位置角度算出部14には、撮像画角θ,φの値と、撮像画像CIにおける第1軸方向(図中x軸方向)に対する解像度mの値と、撮像画像CIにおける第2軸方向(図中y軸方向)に対する解像度nの値とが予め記憶されている。なお、解像度の単位はピクセル(pixel)である。頭部位置角度算出部14は、特徴点抽出部11により抽出された複数個の特徴点のうちの任意の1個の特徴点(以下「対象特徴点」という。)を選択して、撮像画像CIにおける対象特徴点の位置座標(x,y)を示す情報を特徴点抽出部11から取得する。頭部位置角度算出部14は、以下の式(1)及び式(2)により頭部位置角度θ’,φ’を算出する。
x:tanθ’=(m/2):tan(θ/2) (1)
y:tanφ’=(n/2):tan(φ/2) (2)
式(1)及び式(2)により算出される頭部位置角度θ’,φ’は、より厳密には、搭乗者の頭部のうちの対象特徴点に対応する部位(以下「対象部位」という。)の位置を示すものである。
図2に、搭乗者の両眼間の中心部に対応する特徴点cが対象特徴点として選択された場合における、対象特徴点の位置座標(x,y)の一例を示す。図2に示す如く、撮像画像CIにおいて撮像軸IAに対応する位置の座標、すなわち撮像画像CIにおける中心部の位置座標が(0,0)に設定されている。
図3に、撮像画角θ,φ及び頭部位置角度θ’,φ’の一例を示す。図3におけるHは、搭乗者の頭部を示している。また、図3におけるCLは、車両1の前後方向(図中z軸方向)に対して平行であり、かつ、車両1の左右方向(図中x軸方向)に対して搭乗者が着座している座席の中心部を通る仮想的な直線(以下「座席中心線」という。)を示している。
特徴点間距離補正部15は、顔向き検出部13による検出結果及び頭部位置角度算出部14により算出された頭部位置角度θ’,φ’を用いて、特徴点間距離算出部12により算出された特徴点間距離を補正するものである。
ここで、図4を参照して、特徴点間距離補正部15による補正方法の具体例について説明する。図4Aに示す如く、特徴点間距離算出部12により距離算出用特徴点a,b間の距離dが算出されている。これに対して、特徴点間距離補正部15は、顔向き検出部13による検出結果及び頭部位置角度θ’,φ’を用いて、撮像軸IAに対する搭乗者の顔向き角度ψを算出する(図4B参照)。図4BにおけるIA’は、撮像軸IAに対して平行であり、かつ、搭乗者の頭部のうちの距離算出用特徴点a,bに対応する部位A,B間の中心部を通る仮想的な軸を示している。
以下、カメラ2の撮像軸IAに対して直交しており、かつ、カメラ2の焦点を通る仮想的な平面を「撮像面」という。図4BにおけるIS’は、カメラ2の撮像面に対して平行であり、かつ、搭乗者の頭部のうちの距離算出用特徴点a,bに対応する部位A,B間の中心部を通る仮想的な平面(以下「平行面」という。)を示している。特徴点間距離補正部15は、顔向き角度ψに応じて部位A,B間の線分を回転させることにより(図中A→A’かつB→B’)、仮に部位A,Bが平行面IS’に沿うように配置された状態における部位A’,B’に対応する特徴点a’,b’間の距離d’を算出する(図4C参照)。特徴点間距離補正部15は、当該算出された距離d’を補正後の特徴点間距離とする。
三次元位置推定部16は、頭部位置角度算出部14により算出された頭部位置角度θ’,φ’と、特徴点間距離補正部15による補正後の特徴点間距離d’と、三次元位置推定部16に予め記憶されている基準特徴点間距離Dとを用いて、実空間における搭乗者の頭部の三次元位置を推定するものである。
より具体的には、三次元位置推定部16は、以下の式(3)及び式(4)と式(5)又は式(6)とにより三次元位置座標(X,Y,Z)を算出する。この三次元位置座標(X,Y,Z)は、実空間における対象部位の三次元位置、すなわち実空間における搭乗者の頭部の三次元位置を示すものである。
X=x*D/d’ (3)
Y=y*D/d’ (4)
Z=X/tаnθ’ (5)
Z=Y/tanφ’ (6)
ここで、基準特徴点間距離Dは、実空間における距離算出用特徴点に対応する部位間の幅の基準となる値であり、単位はミリメートル(mm)である。したがって、三次元位置座標(X,Y,Z)におけるX、Y及びZの各々の単位もミリメートル(mm)である。
実施の形態1において、基準特徴点間距離Dの値は、複数人の人間に対する実測値の統計値に基づき設定されたものである。具体的には、例えば、複数人の人間の各々について、距離算出用特徴点a,bに対応する部位A,B間の幅、すなわち両眼間の幅を実際に測定する。三次元位置推定部16には、当該測定された幅の平均値が基準特徴点間距離Dの値として予め記憶されている。
特徴点抽出部11、特徴点間距離算出部12、顔向き検出部13、頭部位置角度算出部14、特徴点間距離補正部15及び三次元位置推定部16により、三次元位置推定装置100の要部が構成されている。
次に、図5を参照して、三次元位置推定装置100の要部のハードウェア構成について説明する。
図5Aに示す如く、三次元位置推定装置100はコンピュータにより構成されており、プロセッサ31及びメモリ32を有している。メモリ32には、当該コンピュータを特徴点抽出部11、特徴点間距離算出部12、顔向き検出部13、頭部位置角度算出部14、特徴点間距離補正部15及び三次元位置推定部16として機能させるためのプログラムが記憶されている。メモリ32に記憶されたプログラムをプロセッサ31が読み出して実行することにより、特徴点抽出部11、特徴点間距離算出部12、顔向き検出部13、頭部位置角度算出部14、特徴点間距離補正部15及び三次元位置推定部16の機能が実現される。
プロセッサ31は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、マイクロプロセッサ、マイクロコントローラ又はDSP(Digital Signal Processor)などを用いたものである。メモリ32は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)若しくはEEPROM(Electrically Erasable Programmable Read−Only Memory)などの半導体メモリ、磁気ディスク、光ディスク又は光磁気ディスクなどを用いたものである。
または、図5Bに示す如く、特徴点抽出部11、特徴点間距離算出部12、顔向き検出部13、頭部位置角度算出部14、特徴点間距離補正部15及び三次元位置推定部16の機能が処理回路33により実現されるものであっても良い。処理回路33は、例えば、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field−Programmable Gate Array)、SoC(System−on−a−Chip)又はシステムLSI(Large−Scale Integration)などを用いたものである。
次に、図6のフローチャートを参照して、三次元位置推定装置100の動作について説明する。以下、特徴点間距離算出部12により算出された特徴点間距離、すなわち特徴点間距離補正部15による補正前の特徴点間距離を「第1特徴点間距離」という。また、特徴点間距離補正部15による補正後の特徴点間距離を「第2特徴点間距離」という。
まず、ステップST1にて、特徴点抽出部11は、カメラ2による撮像画像CIのうちの顔領域を検出して、顔領域における複数個の特徴点を抽出する。
次いで、ステップST2にて、顔向き検出部13は、搭乗者の顔向きを検出する。
次いで、ステップST3にて、頭部位置角度算出部14は、頭部位置角度θ’,φ’を算出する。
次いで、ステップST4にて、特徴点間距離算出部12は、特徴点抽出部11により抽出された複数個の特徴点のうちの距離算出用特徴点間の距離、すなわち第1特徴点間距離を算出する。
次いで、ステップST5にて、特徴点間距離補正部15は、顔向き検出部13による検出結果及び頭部位置角度算出部14により算出された頭部位置角度θ’,φ’を用いて、特徴点間距離算出部12により算出された第1特徴点間距離を第2特徴点間距離に補正する。
次いで、ステップST6にて、三次元位置推定部16は、頭部位置角度算出部14により算出された頭部位置角度θ’,φ’と、特徴点間距離補正部15による補正後の特徴点間距離(すなわち第2特徴点間距離)と、予め記憶されている基準特徴点間距離Dとを用いて、実空間における搭乗者の頭部の三次元位置を推定する。
顔向き検出部13による検出結果及び頭部位置角度θ’,φ’を用いて特徴点間距離dを補正するとともに、頭部位置角度θ’,φ’及び補正後の特徴点間距離d’を用いて三次元位置を推定することにより、搭乗者の顔が正面を向いていない場合、又は搭乗者の頭部が座席中心線CL上にない場合であっても、三次元位置推定部16により算出される三次元位置座標(X,Y,Z)を実空間における実際の頭部の位置(より厳密には実際の対象部位の位置)に近づけることができる。すなわち、顔向きの変化及び頭部の移動などによる影響を低減して、三次元位置の推定精度を向上することができる。
なお、カメラ2は三次元位置推定装置100と一体に構成されているものであっても良い。この場合、三次元位置推定装置100は、カメラ2による撮像用の照明装置を有するものであっても良い。
また、特徴点抽出部11、特徴点間距離算出部12、顔向き検出部13、頭部位置角度算出部14、特徴点間距離補正部15及び三次元位置推定部16の各々は、車両1に搭載されている車載情報機器、車両1に持ち込み自在な携帯情報端末、又は当該車載情報機器若しくは当該携帯情報端末と通信自在なサーバ装置のうちのいずれに設けられているものであっても良い。すなわち、当該車載情報機器、当該携帯情報端末又は当該サーバ装置のうちのいずれか二以上により、三次元位置推定システムが構成されているものであっても良い。
また、距離算出用特徴点は、特徴点抽出部11により抽出された複数個の特徴点のうちの任意の3個以上の特徴点であっても良い。この場合、特徴点間距離は、当該3個以上の特徴点のうちの各2個の特徴点間の距離であっても良い。
以上のように、実施の形態1の三次元位置推定装置100は、車室内撮像用のカメラ2による撮像画像CIのうちの搭乗者の顔に対応する領域を検出して、当該検出された領域における複数個の特徴点を抽出する特徴点抽出部11と、複数個の特徴点のうちの距離算出用特徴点間の距離である第1特徴点間距離dを算出する特徴点間距離算出部12と、搭乗者の顔向きを検出する顔向き検出部13と、カメラ2の撮像軸IAに対する搭乗者の頭部の位置を示す頭部位置角度θ’,φ’を算出する頭部位置角度算出部14と、顔向き検出部13による検出結果及び頭部位置角度θ’,φ’を用いて、第1特徴点間距離dを、頭部のうちの距離算出用特徴点に対応する部位がカメラ2の撮像面に対する平行面IS’に沿うように配置された状態における距離算出用特徴点間の距離である第2特徴点間距離d’に補正する特徴点間距離補正部15と、頭部位置角度θ’,φ’、第2特徴点間距離d’及び基準特徴点間距離Dを用いて、頭部の三次元位置を推定する三次元位置推定部16とを備える。これにより、顔向きの変化及び頭部の移動などによる影響を低減して、三次元位置の推定精度を向上することができる。
また、実施の形態1の三次元位置推定方法は、特徴点抽出部11が、車室内撮像用のカメラ2による撮像画像CIのうちの搭乗者の顔に対応する領域を検出して、当該検出された領域における複数個の特徴点を抽出するステップST1と、特徴点間距離算出部12が、複数個の特徴点のうちの距離算出用特徴点間の距離である第1特徴点間距離dを算出するステップST4と、顔向き検出部13が、搭乗者の顔向きを検出するステップST2と、頭部位置角度算出部14が、カメラ2の撮像軸IAに対する搭乗者の頭部の位置を示す頭部位置角度θ’,φ’を算出するステップST3と、特徴点間距離補正部15が、顔向き検出部13による検出結果及び頭部位置角度θ’,φ’を用いて、第1特徴点間距離dを、頭部のうちの距離算出用特徴点に対応する部位がカメラ2の撮像面ISに対する平行面IS’に沿うように配置された状態における距離算出用特徴点間の距離である第2特徴点間距離d’に補正するステップST5と、三次元位置推定部16が、頭部位置角度θ’,φ’、第2特徴点間距離d’及び基準特徴点間距離Dを用いて、頭部の三次元位置を推定するステップST6とを備える。これにより、顔向きの変化及び頭部の移動などによる影響を低減して、三次元位置の推定精度を向上することができる。
実施の形態2.
図7は、実施の形態2に係る三次元位置推定装置の要部を示すブロック図である。図8は、対象搭乗者の頭部が基準位置にある状態の一例を示す説明図である。図9は、式(10)〜式(15)に含まれる各値に対応するものの位置関係の一例を示す説明図である。図7〜図9を参照して、実施の形態2の三次元位置推定装置100aについて説明する。なお、図7において、図1に示すブロックと同様のブロックには同一符号を付して説明を省略する。
実施の形態1の三次元位置推定装置100は、複数人の人間に対する実測値の統計値を基準特徴点間距離Dに用いるものであった。これに対して、実施の形態2の三次元位置推定装置100aは、車両1の前部座席に現在着座している搭乗者(以下「対象搭乗者」という。)に対する個人認証処理を実行して、個人認証処理の結果に応じて対象搭乗者用の基準特徴点間距離Dの値を設定するものである。
個人認証処理部17は、対象搭乗者に対する個人認証処理を実行するものである。具体的には、例えば、個人認証処理部17は、撮像画像CIのうちの顔領域を検出して、顔領域における個人認証用の特徴量を抽出する。個人認証処理部17は、当該抽出された特徴量などを示す情報(以下「個人認証用情報」という。)と同一の個人認証用情報が記憶装置3に記憶されているか否かを判定する。
以下、個人認証用情報及び専用の基準特徴点間距離Dの値が記憶装置3に記憶されている搭乗者を「既登録搭乗者」という。また、個人認証用情報及び専用の基準特徴点間距離Dの値が記憶装置3に記憶されていない搭乗者を「未登録搭乗者」という。すなわち、個人認証処理部17による個人認証処理は、対象搭乗者が未登録搭乗者であるか既登録搭乗者であるかを判定するものである。
個人認証処理部17は、対象搭乗者が未登録搭乗者であると判定した場合、対象搭乗者の個人認証用情報を記憶装置3に記憶させる。記憶装置3は、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)などの補助記憶装置により構成されている。
誘導制御部18は、個人認証処理部17が個人認証処理を実行するとき、対象搭乗者の頭部を所定の位置(以下「基準位置」という。)に誘導する制御(以下「誘導制御」という。)を実行するものである。基準位置は、例えば、座席中心線CL上の位置である。
より具体的には、誘導制御部18は、対象搭乗者の頭部を基準位置に誘導する画像(以下「誘導画像」という。)を表示装置4に表示させたり、又は対象搭乗者の頭部を基準位置に誘導する音声(以下「誘導音声」という。)を音声出力装置5に出力させたりする。表示装置4は、例えば、三次元位置推定装置100aと一体型の液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイにより構成されている。音声出力装置5は、例えば、車両1に搭載されたスピーカーにより構成されている。誘導画像又は誘導音声による誘導に従い、対象搭乗者は頭部を基準位置に移動させる。
基準特徴点間距離設定部19は、個人認証処理部17により対象搭乗者が未登録搭乗者であると判定された場合、誘導制御部18による誘導後の状態にて、対象搭乗者用の基準特徴点間距離Dの値を算出するものである。基準特徴点間距離設定部19は、当該算出された値を三次元位置推定部16における基準特徴点間距離Dの値に設定するものである。また、基準特徴点間距離設定部19は、当該算出された値を対象搭乗者の個人認証用情報と関連付けて記憶装置3に記憶させるものである。これにより、未登録搭乗者であった対象搭乗者が既登録搭乗者となる。
すなわち、個人認証処理部17により対象搭乗者が既登録搭乗者であると判定された場合は、対象搭乗者用の基準特徴点間距離Dの値が記憶装置3に既に記憶されている。この場合、基準特徴点間距離設定部19は、記憶装置3に記憶されている対象搭乗者用の基準特徴点間距離Dの値を取得して、当該取得された値を三次元位置推定部16における基準特徴点間距離Dの値に設定する。
ここで、対象搭乗者用の基準特徴点間距離Dの値の算出方法について説明する。基準特徴点間距離設定部19は、例えば、以下のような幾何学式を用いて対象搭乗者用の基準特徴点間距離Dの値を算出する。
基準特徴点間距離設定部19は、誘導制御部18による誘導後の状態にて、特徴点抽出部11と同様の処理を実行することにより複数個の特徴点を抽出し、頭部位置角度算出部14と同様の処理を実行することにより頭部位置角度θ’,φ’を算出する。また、基準特徴点間距離設定部19には、撮像軸IAと座席中心線CL間の幅Xseatの値が予め記憶されている。基準特徴点間距離設定部19は、以下の式(7)〜式(9)により、誘導後の状態における対象搭乗者の頭部の三次元位置座標(X,Y,Z)を算出する。
X=Xseat (7)
Z=Xseat/tanθ’ (8)
Y=Z*tanφ’ (9)
図8に、Xseatと、誘導後の状態における頭部位置角度θ’と、誘導後の状態における対象搭乗者の頭部の三次元位置座標(X,Y,Z)のうちのZとの一例を示す。図8に示す如く、式(8)によりZを算出することができる。
基準特徴点間距離設定部19には、カメラ2の撮像画角θ,φの値及びカメラ2の焦点距離fの値が予め記憶されている。基準特徴点間距離設定部19は、誘導制御部18による誘導後の状態にて、顔向き検出部13と同様の処理を実行することにより対象搭乗者の顔向きを検出して、撮像面ISに対する対象搭乗者の顔向き角度γを算出する。基準特徴点間距離設定部19は、特徴点間距離算出部12と同様の処理を実行することにより、誘導後の状態にて抽出された複数個の特徴点のうちの任意の2個の特徴点間の距離dを算出する。
ここで、図9に示す如く、2個の特徴点のうちの一方の特徴点の撮像面ISにおける位置をa1とし、対象搭乗者の頭部のうちの当該特徴点に対応する部位(すなわち右眼)の実空間における位置をA1とする。また、2個の特徴点のうちの他方の特徴点の撮像面ISにおける位置をb2とし、対象搭乗者の頭部のうちの当該特徴点に対応する部位(すなわち左眼)の実空間における位置をB2とする。基準特徴点間距離設定部19は、以下の式(10)〜式(14)に基づく式(15)により、対象搭乗者用の基準特徴点間距離Dの値を算出する。
A1=(Ztаnθ’+D/2cosγ,Z+D/2sinγ) (10)
B2=(Ztаnθ’−D/2cosγ,Z−D/2sinγ) (11)
a1=(Ztаnθ’+D/2cosγ)/(Z+D/2sinγ)*f
(12)
b2=(Ztаnθ’−D/2cosγ)/(Z−D/2sinγ)*f
(13)
d=a1−b2
=(Ztаnθ’+D/2cosγ)/(Z+D/2sinγ)*f
−(Ztаnθ’−D/2cosγ)/(Z−D/2sinγ)*f
(14)
d*D^2+4*f*Z*sinγ(tаnθ’−tаnγ)*D
+4*d*Z^2*(sinγ)^2=0
(15)
なお、誘導後の状態における複数個の特徴点は、基準特徴点間距離設定部19に代えて特徴点抽出部11により抽出されるものであっても良い。誘導後の状態における頭部位置角度θ’,φ’は、基準特徴点間距離設定部19に代えて頭部位置角度算出部14により算出されるものであっても良い。誘導後の状態における顔向きは、基準特徴点間距離設定部19に代えて顔向き検出部13により検出されるものであっても良い。誘導後の状態における2個の特徴点間の距離dは、基準特徴点間距離設定部19に代えて特徴点間距離算出部12により算出されるものであっても良い。すなわち、これらのパラメータは、基準特徴点間距離Dの値を算出する処理と頭部の三次元位置を推定する処理とで共用されるものであっても良い。図7において、これらの場合におけるブロック間の接続線は図示を省略している。
特徴点抽出部11、特徴点間距離算出部12、顔向き検出部13、頭部位置角度算出部14、特徴点間距離補正部15、三次元位置推定部16、個人認証処理部17、誘導制御部18及び基準特徴点間距離設定部19により、三次元位置推定装置100aの要部が構成されている。
三次元位置推定装置100aの要部のハードウェア構成は、実施の形態1にて図5を参照して説明したものと同様であるため、詳細な説明は省略する。すなわち、個人認証処理部17、誘導制御部18及び基準特徴点間距離設定部19の機能を実現するためのプログラムがメモリ32に記憶されており、当該プログラムをプロセッサ31が読み出して実行することにより個人認証処理部17、誘導制御部18及び基準特徴点間距離設定部19の機能が実現される。または、処理回路33により個人認証処理部17、誘導制御部18及び基準特徴点間距離設定部19の機能が実現される。
次に、図10のフローチャートを参照して、三次元位置推定装置100aの動作について説明する。なお、ステップST1〜ST6の処理内容は実施の形態1にて図6を参照して説明したものと同様であるため、説明を省略する。
まず、特徴点抽出部11がステップST1の処理を実行する。
次いで、ステップST11にて、個人認証処理部17は、対象搭乗者に対する個人認証処理を実行する。すなわち、個人認証処理部17は、対象搭乗者が未登録搭乗者であるか既登録搭乗者であるかを判定して、判定結果を基準特徴点間距離設定部19に出力する。また、対象搭乗者が未登録搭乗者であると判定した場合、個人認証処理部17は、対象搭乗者の個人認証用情報を記憶装置3に記憶させる。
個人認証処理部17が個人認証処理を実行するとき、ステップST12にて、誘導制御部18は誘導制御を実行する。より具体的には、誘導制御部18は、表示装置4に誘導画像を表示させたり、又は音声出力装置5に誘導音声を出力させたりする。
次いで、顔向き検出部13がステップST2の処理を実行し、次いで、頭部位置角度算出部14がステップST3の処理を実行し、次いで、特徴点間距離算出部12がステップST4の処理を実行し、次いで、特徴点間距離補正部15がステップST5の処理を実行する。
個人認証処理部17により対象搭乗者が未登録搭乗者であると判定された場合(ステップST13“YES”)、ステップST14にて、基準特徴点間距離設定部19は、式(15)により対象搭乗者用の基準特徴点間距離Dの値を算出する。基準特徴点間距離設定部19は、当該算出された値を三次元位置推定部16における基準特徴点間距離Dの値に設定する。また、基準特徴点間距離設定部19は、当該算出された値を対象搭乗者の個人認証用情報と関連付けて記憶装置3に記憶させる。
他方、個人認証処理部17により対象搭乗者が既登録搭乗者であると判定された場合(ステップST13“NO”)、対象搭乗者用の基準特徴点間距離Dの値が記憶装置3に既に記憶されている。そこで、ステップST15にて、基準特徴点間距離設定部19は、記憶装置3に記憶されている対象搭乗者用の基準特徴点間距離Dの値を取得して、当該取得された値を三次元位置推定部16における基準特徴点間距離Dの値に設定する。
次いで、三次元位置推定部16がステップST6の処理を実行する。このとき、ステップST14又はステップST15にて基準特徴点間距離設定部19により設定された値が基準特徴点間距離Dに用いられる。
通常、頭部における距離算出用特徴点に対応する部位間の幅(例えば両眼間の幅)は、個々の人間毎に異なるものである。このため、三次元位置の推定精度を更に向上する観点から、基準特徴点間距離Dの値も個々の搭乗者毎に設定するのが好適である。すなわち、対象搭乗者に対する個人認証処理を実行して、個人認証処理の結果に応じて対象搭乗者用の基準特徴点間距離Dの値を設定することにより、頭部における距離算出用特徴点に対応する部位間の幅に係る個人差の影響を低減することができる。この結果、三次元位置の推定精度を更に向上することができる。
なお、基準特徴点間距離設定部19には、実施の形態1と同様の基準特徴点間距離Dの値、すなわち複数人の人間に対する実測値の統計値に基づき設定された基準特徴点間距離Dの値が予め記憶されているものであっても良い。基準特徴点間距離設定部19は、個人認証処理部17による個人認証処理が失敗した場合(すなわち対象搭乗者が未登録搭乗者であるか既登録搭乗者であるか不明である場合)、当該予め記憶されている値を三次元位置推定部16における基準特徴点間距離Dの値に設定するものであっても良い。
また、個人認証処理の内容又は精度などによっては、個人認証処理を実行するときの誘導制御が不要である場合もある。このような場合、誘導制御部18はステップST14の処理よりも先に誘導制御を実行するものであれば良く、誘導制御の実行タイミングは個人認証処理の実行タイミングと同じタイミングに限定されるものではない。例えば、図10に示すフローチャートにおいて、ステップST13“YES”の場合に誘導制御が実行されて、次いで、ステップST14の処理が実行されるものであっても良い。これにより、対象搭乗者が既登録搭乗者である場合は誘導制御の実行がキャンセルされるため、対象搭乗者が誘導に従う必要がなくなり、対象搭乗者の心理的負荷を低減することができる。
また、誘導制御は、対象搭乗者の頭部を基準位置に誘導するのに加えて、対象搭乗者の顔向きを所定の向きに誘導する制御(例えば搭乗者の顔が正面を向くように誘導する制御)であっても良い。すなわち、基準特徴点間距離設定部19は、対象搭乗者の頭部が基準位置にあり、かつ、対象搭乗者の顔向きが所定の向きである状態にて、対象搭乗者用の基準特徴点間距離Dの値を算出するものであっても良い。
また、対象搭乗者が未登録搭乗者であると判定された場合、誘導制御に代えて、対象搭乗者の頭部における距離算出用特徴点に対応する部位間の幅の実測値の入力を求める制御が実行されるものであっても良い。この場合、基準特徴点間距離設定部19は、タッチパネル又はハードウェアキーなどの操作入力装置により入力された実測値を三次元位置推定部16における基準特徴点間距離Dの値に設定するとともに、当該入力された実測値を対象搭乗者の個人認証用情報と関連付けて記憶装置3に記憶させるものであっても良い。
以上のように、実施の形態2の三次元位置推定装置100aは、対象搭乗者に対する個人認証処理を実行する個人認証処理部17と、個人認証処理の結果に応じて、三次元位置推定部16における基準特徴点間距離Dの値を設定する基準特徴点間距離設定部19とを備える。これにより、頭部における距離算出用特徴点に対応する部位間の幅に係る個人差の影響を低減して、三次元位置の推定精度を更に向上することができる。
また、基準特徴点間距離設定部19は、対象搭乗者用の基準特徴点間距離Dの値が記憶装置3に記憶されている場合、当該記憶されている値を三次元位置推定部16における基準特徴点間距離Dの値に設定する。これにより、対象搭乗者が既登録搭乗者である場合は誘導制御の実行がキャンセルされるため、対象搭乗者が誘導に従う必要がなくなり、対象搭乗者の心理的負荷を低減することができる。
また、三次元位置推定装置100aは、頭部を基準位置に誘導する制御を実行する誘導制御部18を備え、基準特徴点間距離設定部19は、対象搭乗者用の基準特徴点間距離Dの値が記憶装置3に記憶されていない場合、誘導制御部18による誘導後の状態にて対象搭乗者用の基準特徴点間距離Dの値を算出して、当該算出された値を三次元位置推定部16における基準特徴点間距離Dの値に設定する。これにより、対象搭乗者用の基準特徴点間距離Dの値を適切な状態にて算出することができる。
また、誘導制御部18は、個人認証処理部17が個人認証処理を実行するとき、頭部を基準位置に誘導する制御を実行する。これにより、ステップST14の処理よりも先に誘導制御を実行することができる。この結果、対象搭乗者の頭部が基準位置にある蓋然性の高い状態にてステップST14の処理を実行することができるため、対象搭乗者用の基準特徴点間距離Dの値を正確に算出することができる。
また、基準特徴点間距離設定部19は、対象搭乗者用の基準特徴点間距離Dの値を算出したとき、当該算出された値を対象搭乗者の個人認証用情報と関連付けて記憶装置3に記憶させる。これにより、未登録搭乗者であった対象搭乗者が既登録搭乗者となるため、次回以降の算出処理を不要とすることができる。
実施の形態3.
図11は、実施の形態3に係る三次元位置推定装置の要部を示すブロック図である。図11を参照して、実施の形態3の三次元位置推定装置100bについて説明する。なお、図11において、図7に示すブロックと同様のブロックには同一符号を付して説明を省略する。
実施の形態2の三次元位置推定装置100aは、対象搭乗者が未登録搭乗者である場合、対象搭乗者の頭部を基準位置に誘導して、誘導後の状態にて対象搭乗者用の基準特徴点間距離Dの値を算出するものであった。これに対して、実施の形態3の三次元位置推定装置100bは、対象搭乗者が未登録搭乗者である場合、対象搭乗者の頭部が基準位置にある蓋然性が高いタイミングを判定して、当該判定されたタイミングにて対象搭乗者用の基準特徴点間距離Dの値を算出するものである。
タイミング判定部20は、個人認証処理部17により対象搭乗者が未登録搭乗者であると判定された場合、対象搭乗者の頭部が基準位置にある蓋然性が他のタイミングよりも高いタイミングを判定するものである。基準特徴点間距離設定部19は、個人認証処理部17により対象搭乗者が未登録搭乗者であると判定された場合、タイミング判定部20により判定されたタイミングにて、対象搭乗者用の基準特徴点間距離Dの値を算出するようになっている。
すなわち、タイミング判定部20により判定されるタイミングは、対象搭乗者用の基準特徴点間距離Dの値を算出可能なタイミングである。以下、タイミング判定部20により判定されるタイミングを「算出可能タイミング」という。
ここで、タイミング判定部20による算出可能タイミングの判定方法の具体例について説明する。なお、対象搭乗者は車両1の運転者であるものとする。
タイミング判定部20は、車両1に設けられたECU(Electronic Control Unit)又は車輪速センサなどから、車両1の走行速度を示す情報(以下「車速情報」という。)を取得する。タイミング判定部20は、車速情報を用いて、車両1の走行速度が所定の閾値以上であるか否かを判定する。すなわち、タイミング判定部20は、車両1が高速走行中であるか否かを判定する。
また、タイミング判定部20は、車両1に設けられたECU又は操舵角センサなどから、車両1の操舵角を示す情報(以下「操舵角情報」という。)を取得する。タイミング判定部20は、操舵角情報を用いて、車両1の操舵角が0度を含む所定の角度範囲(以下「第1角度範囲」という。)内であるか否かを判定する。すなわち、タイミング判定部20は、車両1の操舵方向が直進方向であるか否かを判定する。
また、タイミング判定部20は、撮像画像CIを示す画像データを取得して、撮像画像CIに対する画像認識処理を実行する。タイミング判定部20は、画像認識処理により搭乗者の両肩間を繋ぐ直線(以下「第1直線」という。)を検出して、第1直線が略水平であるか否かを判定する。また、タイミング判定部20は、画像認識処理により搭乗者の頭部の中心部と搭乗者の腰の中心部とを繋ぐ直線(以下「第2直線」という。)を検出して、第1直線と第2直線間の角度が90度を含む所定の角度範囲(以下「第2角度範囲」という。)内であるか否かを判定する。
車両1の走行速度が閾値以上であり、かつ、車両1の操舵角が第1角度範囲内であり、かつ、第1直線が略水平であり、かつ、第1直線と第2直線間の角度が第2角度範囲内である場合、運転者の頭部が運転席の座席中心線CL上にある蓋然性が高い。そこで、タイミング判定部20は、これらの条件が満たされているとき、算出可能タイミングになったと判定する。
特徴点抽出部11、特徴点間距離算出部12、顔向き検出部13、頭部位置角度算出部14、特徴点間距離補正部15、三次元位置推定部16、個人認証処理部17、基準特徴点間距離設定部19及びタイミング判定部20により、三次元位置推定装置100bの要部が構成されている。
三次元位置推定装置100bの要部のハードウェア構成は、実施の形態1にて図5を参照して説明したものと同様であるため、詳細な説明は省略する。すなわち、個人認証処理部17、基準特徴点間距離設定部19及びタイミング判定部20の機能を実現するためのプログラムがメモリ32に記憶されており、当該プログラムをプロセッサ31が読み出して実行することにより個人認証処理部17、基準特徴点間距離設定部19及びタイミング判定部20の機能が実現される。または、処理回路33により個人認証処理部17、基準特徴点間距離設定部19及びタイミング判定部20の機能が実現される。
次に、図12のフローチャートを参照して、三次元位置推定装置100bの動作について説明する。なお、ステップST1〜ST6の処理内容は実施の形態1にて図6を参照して説明したものと同様であるため、説明を省略する。
まず、特徴点抽出部11がステップST1の処理を実行する。
次いで、ステップST21にて、個人認証処理部17は、対象搭乗者に対する個人認証処理を実行する。すなわち、個人認証処理部17は、対象搭乗者が未登録搭乗者であるか既登録搭乗者であるかを判定して、判定結果を基準特徴点間距離設定部19及びタイミング判定部20に出力する。また、対象搭乗者が未登録搭乗者であると判定した場合、個人認証処理部17は、対象搭乗者の個人認証用情報を記憶装置3に記憶させる。
次いで、顔向き検出部13がステップST2の処理を実行し、次いで、頭部位置角度算出部14がステップST3の処理を実行し、次いで、特徴点間距離算出部12がステップST4の処理を実行し、次いで、特徴点間距離補正部15がステップST5の処理を実行する。
個人認証処理部17により対象搭乗者が未登録搭乗者であると判定された場合(ステップST22“YES”)、ステップST23にて、タイミング判定部20は算出可能タイミングになったか否かを判定する。算出可能タイミングになったとき(ステップST23“YES”)、ステップST24にて、基準特徴点間距離設定部19は、式(15)により対象搭乗者用の基準特徴点間距離Dの値を算出する。基準特徴点間距離設定部19は、当該算出された値を三次元位置推定部16における基準特徴点間距離Dの値に設定する。また、基準特徴点間距離設定部19は、当該算出された値を対象搭乗者の個人認証用情報と関連付けて記憶装置3に記憶させる。
他方、個人認証処理部17により対象搭乗者が既登録搭乗者であると判定された場合(ステップST22“NO”)、対象搭乗者用の基準特徴点間距離Dの値が記憶装置3に既に記憶されている。そこで、ステップST25にて、基準特徴点間距離設定部19は、記憶装置3に記憶されている対象搭乗者用の基準特徴点間距離Dの値を取得して、当該取得された値を三次元位置推定部16における基準特徴点間距離Dの値に設定する。
次いで、三次元位置推定部16がステップST6の処理を実行する。このとき、ステップST24又はステップST25にて基準特徴点間距離設定部19により設定された値が基準特徴点間距離Dに用いられる。
このように、タイミング判定部20が算出可能タイミングを判定することにより、誘導制御を不要とすることができる。この結果、対象搭乗者が誘導制御に従い頭部を基準位置に移動させる必要がなくなり、対象搭乗者の心理的負荷を低減することができる。
なお、基準特徴点間距離設定部19には、実施の形態1と同様の基準特徴点間距離Dの値、すなわち複数人の人間に対する実測値の統計値に基づき設定された基準特徴点間距離Dの値が予め記憶されているものであっても良い。基準特徴点間距離設定部19は、個人認証処理部17による個人認証処理が失敗した場合(すなわち対象搭乗者が未登録搭乗者であるか既登録搭乗者であるか不明である場合)、当該予め記憶されている値を三次元位置推定部16における基準特徴点間距離Dの値に設定するものであっても良い。また、基準特徴点間距離設定部19は、タイミング判定部20がステップST23の処理を開始した後、算出可能タイミングになったと判定されることなく所定時間が経過した場合、当該予め記憶されている値を三次元位置推定部16における基準特徴点間距離Dの値に設定するものであっても良い。
また、タイミング判定部20は、車両1の走行速度が閾値以上であるか否かという条件、車両1の操舵角が第1角度範囲内であるか否かという条件、第1直線が略水平であるか否かという条件、又は第1直線と第2直線間の角度が第2角度範囲内であるか否かという条件のうちの少なくとも1個の条件を判定するものであれば良い。判定対象となる条件を減らすことにより、プロセッサ31又は処理回路33の処理負荷を低減することができる。他方、判定対象となる条件を増やすことにより、算出可能タイミングの判定精度を向上することができる。すなわち、対象搭乗者の頭部が基準位置にある蓋然性がより高いタイミングを判定することができる。
また、タイミング判定部20は、対象搭乗者の頭部が基準位置にある蓋然性が他のタイミングよりも高く、かつ、対象搭乗者の顔向きが所定の向きである(例えば対象搭乗者の顔が正面を向いている)蓋然性が他のタイミングよりも高いタイミングを判定するものであっても良い。
以上のように、実施の形態3の三次元位置推定装置100bは、頭部が基準位置にある蓋然性が他のタイミングよりも高いタイミングを判定するタイミング判定部20を備え、基準特徴点間距離設定部19は、対象搭乗者用の基準特徴点間距離Dの値が記憶装置3に記憶されていない場合、タイミング判定部20により判定されたタイミングにて対象搭乗者用の基準特徴点間距離Dの値を算出して、当該算出された値を三次元位置推定部16における基準特徴点間距離Dの値に設定する。これにより、対象搭乗者用の基準特徴点間距離Dの値を適切なタイミングにて算出することができる。また、誘導制御を不要とすることができ、対象搭乗者の心理的負荷を低減することができる。
また、タイミング判定部20は、対象搭乗者が搭乗している車両1の走行速度を示す情報及び車両1の操舵角を示す情報を用いて、対象搭乗者の頭部が基準位置にある蓋然性が他のタイミングよりも高いタイミングを判定する。対象搭乗者が車両1の運転者である場合において、車両1が高速走行中であり、かつ、車両1の操舵方向が直進方向であるとき、運転者の頭部が運転席の座席中心線CL上にある蓋然性が高い。これを利用して、算出可能タイミングを判定することができる。
なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
本発明の三次元位置推定装置は、例えば、ドライバーモニタリングシステムなどの車載用システムに応用することができる。
1 車両、2 カメラ、3 記憶装置、4 表示装置、5 音声出力装置、11 特徴点抽出部、12 特徴点間距離算出部、13 顔向き検出部、14 頭部位置角度算出部、15 特徴点間距離補正部、16 三次元位置推定部、17 個人認証処理部、18 誘導制御部、19 基準特徴点間距離設定部、20 タイミング判定部、31 プロセッサ、32 メモリ、33 処理回路、100,100a,100b 三次元位置推定装置。

Claims (9)

  1. 車室内撮像用のカメラによる撮像画像のうちの搭乗者の顔に対応する領域を検出して、当該検出された領域における複数個の特徴点を抽出する特徴点抽出部と、
    前記複数個の特徴点のうちの距離算出用特徴点間の距離である第1特徴点間距離を算出する特徴点間距離算出部と、
    前記搭乗者の顔向きを検出する顔向き検出部と、
    前記カメラの撮像軸に対する前記搭乗者の頭部の位置を示す頭部位置角度を算出する頭部位置角度算出部と、
    前記顔向き検出部による検出結果及び前記頭部位置角度を用いて、前記第1特徴点間距離を、前記頭部のうちの前記距離算出用特徴点に対応する部位が前記カメラの撮像面に対する平行面に沿うように配置された状態における前記距離算出用特徴点間の距離である第2特徴点間距離に補正する特徴点間距離補正部と、
    前記頭部位置角度、前記第2特徴点間距離及び基準特徴点間距離を用いて、前記頭部の三次元位置を推定する三次元位置推定部と、
    を備える三次元位置推定装置。
  2. 前記搭乗者に対する個人認証処理を実行する個人認証処理部と、
    前記個人認証処理の結果に応じて、前記三次元位置推定部における基準特徴点間距離の値を設定する基準特徴点間距離設定部と、
    を備えることを特徴とする請求項1記載の三次元位置推定装置。
  3. 前記基準特徴点間距離設定部は、前記搭乗者用の基準特徴点間距離の値が記憶装置に記憶されている場合、当該記憶されている値を前記三次元位置推定部における基準特徴点間距離の値に設定することを特徴とする請求項2記載の三次元位置推定装置。
  4. 前記頭部を基準位置に誘導する制御を実行する誘導制御部を備え、
    前記基準特徴点間距離設定部は、前記搭乗者用の基準特徴点間距離の値が記憶装置に記憶されていない場合、前記誘導制御部による誘導後の状態にて前記搭乗者用の基準特徴点間距離の値を算出して、当該算出された値を前記三次元位置推定部における基準特徴点間距離の値に設定する
    ことを特徴とする請求項2記載の三次元位置推定装置。
  5. 前記誘導制御部は、前記個人認証処理部が前記個人認証処理を実行するとき、前記頭部を前記基準位置に誘導する制御を実行することを特徴とする請求項4記載の三次元位置推定装置。
  6. 前記頭部が基準位置にある蓋然性が他のタイミングよりも高いタイミングを判定するタイミング判定部を備え、
    前記基準特徴点間距離設定部は、前記搭乗者用の基準特徴点間距離の値が記憶装置に記憶されていない場合、前記タイミング判定部により判定されたタイミングにて前記搭乗者用の基準特徴点間距離の値を算出して、当該算出された値を前記三次元位置推定部における基準特徴点間距離の値に設定する
    ことを特徴とする請求項2記載の三次元位置推定装置。
  7. 前記タイミング判定部は、前記搭乗者が搭乗している車両の走行速度を示す情報及び前記車両の操舵角を示す情報を用いて、前記頭部が前記基準位置にある蓋然性が他のタイミングよりも高いタイミングを判定することを特徴とする請求項6記載の三次元位置推定装置。
  8. 前記基準特徴点間距離設定部は、前記搭乗者用の基準特徴点間距離の値を算出したとき、当該算出された値を前記搭乗者の個人認証用情報と関連付けて前記記憶装置に記憶させることを特徴とする請求項4から請求項7のうちのいずれか1項記載の三次元位置推定装置。
  9. 特徴点抽出部が、車室内撮像用のカメラによる撮像画像のうちの搭乗者の顔に対応する領域を検出して、当該検出された領域における複数個の特徴点を抽出するステップと、
    特徴点間距離算出部が、前記複数個の特徴点のうちの距離算出用特徴点間の距離である第1特徴点間距離を算出するステップと、
    顔向き検出部が、前記搭乗者の顔向きを検出するステップと、
    頭部位置角度算出部が、前記カメラの撮像軸に対する前記搭乗者の頭部の位置を示す頭部位置角度を算出するステップと、
    特徴点間距離補正部が、前記顔向き検出部による検出結果及び前記頭部位置角度を用いて、前記第1特徴点間距離を、前記頭部のうちの前記距離算出用特徴点に対応する部位が前記カメラの撮像面に対する平行面に沿うように配置された状態における前記距離算出用特徴点間の距離である第2特徴点間距離に補正するステップと、
    三次元位置推定部が、前記頭部位置角度、前記第2特徴点間距離及び基準特徴点間距離を用いて、前記頭部の三次元位置を推定するステップと、
    を備える三次元位置推定方法。
JP2020501979A 2018-02-26 2018-02-26 三次元位置推定装置及び三次元位置推定方法 Pending JPWO2019163124A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/006931 WO2019163124A1 (ja) 2018-02-26 2018-02-26 三次元位置推定装置及び三次元位置推定方法

Publications (1)

Publication Number Publication Date
JPWO2019163124A1 true JPWO2019163124A1 (ja) 2020-12-03

Family

ID=67688268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020501979A Pending JPWO2019163124A1 (ja) 2018-02-26 2018-02-26 三次元位置推定装置及び三次元位置推定方法

Country Status (5)

Country Link
US (1) US11488319B2 (ja)
JP (1) JPWO2019163124A1 (ja)
CN (1) CN111742191B (ja)
DE (1) DE112018007158T5 (ja)
WO (1) WO2019163124A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7134364B2 (ja) * 2019-09-05 2022-09-09 三菱電機株式会社 体格判定装置および体格判定方法
JP6736751B1 (ja) * 2019-12-11 2020-08-05 株式会社Cygames 既知の画像を用いた画像撮影の安定化のための方法、プログラム、電子装置
JPWO2022239048A1 (ja) 2021-05-10 2022-11-17
JPWO2023281737A1 (ja) * 2021-07-09 2023-01-12
CN113723380B (zh) * 2021-11-03 2022-02-08 亿慧云智能科技(深圳)股份有限公司 基于雷达技术的人脸识别方法、装置、设备和存储介质
CN114117113B (zh) * 2022-01-28 2022-06-10 杭州宏景智驾科技有限公司 多特征点机动车定位方法和装置、电子设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008014825A (ja) * 2006-07-06 2008-01-24 Sogo Keibi Hosho Co Ltd 測定方法及び測定プログラム
JP2009287936A (ja) * 2008-05-27 2009-12-10 Toyota Industries Corp 運転者眼球位置検出装置
JP2011205321A (ja) * 2010-03-25 2011-10-13 Nissan Motor Co Ltd 撮像装置及び被写体検出方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4040738A (en) * 1975-03-20 1977-08-09 Gulton Industries, Inc. Railroad track profile spacing and alignment apparatus
JPH05196425A (ja) 1992-01-21 1993-08-06 Ezel Inc 人間の3次元位置検出方法
JP2004118627A (ja) * 2002-09-27 2004-04-15 Toshiba Corp 人物認証装置および人物認証方法
JP4552636B2 (ja) * 2004-12-08 2010-09-29 日産自動車株式会社 ドライバモニタシステムおよびその処理方法
AU2007351270B2 (en) * 2007-03-16 2011-03-17 Asahi Kasei Chemicals Corporation Method for inspecting defect of hollow fiber porous membrane, defect inspection equipment and production method
US7961952B2 (en) * 2007-09-27 2011-06-14 Mitsubishi Electric Research Laboratories, Inc. Method and system for detecting and tracking objects in images
JP2010027035A (ja) * 2008-06-16 2010-02-04 Canon Inc 個人認証装置及び個人認証方法
CN101762241A (zh) * 2009-12-25 2010-06-30 长安大学 基于线激光和单台相机的轮胎检测装置及其检测方法
US9046364B2 (en) * 2011-06-14 2015-06-02 Nissan Motor Co., Ltd. Distance measurement device and environment map generation apparatus
US20130036017A1 (en) * 2011-08-05 2013-02-07 Ivason Galloway Financial card for online fund transfer and method therefor
TWI531495B (zh) * 2012-12-11 2016-05-01 Automatic Calibration Method and System for Vehicle Display System
US20140313333A1 (en) * 2013-04-18 2014-10-23 Ford Global Technologies, Llc System and method for imaging a driver of a vehicle
WO2015052896A1 (ja) * 2013-10-09 2015-04-16 日本電気株式会社 乗車人数計測装置、乗車人数計測方法およびプログラム記録媒体
US9547798B2 (en) * 2014-05-20 2017-01-17 State Farm Mutual Automobile Insurance Company Gaze tracking for a vehicle operator
CN106462937B (zh) * 2014-06-06 2019-12-31 夏普株式会社 图像处理装置以及图像显示装置
WO2018006019A1 (en) * 2016-07-01 2018-01-04 Itay Katz System and method for driver monitoring
KR20180051977A (ko) * 2016-11-09 2018-05-17 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
JP6520905B2 (ja) * 2016-12-19 2019-05-29 トヨタ自動車株式会社 車両用運転支援装置
US10339401B2 (en) * 2017-11-11 2019-07-02 Bendix Commercial Vehicle Systems Llc System and methods of monitoring driver behavior for vehicular fleet management in a fleet of vehicles using driver-facing imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008014825A (ja) * 2006-07-06 2008-01-24 Sogo Keibi Hosho Co Ltd 測定方法及び測定プログラム
JP2009287936A (ja) * 2008-05-27 2009-12-10 Toyota Industries Corp 運転者眼球位置検出装置
JP2011205321A (ja) * 2010-03-25 2011-10-13 Nissan Motor Co Ltd 撮像装置及び被写体検出方法

Also Published As

Publication number Publication date
US11488319B2 (en) 2022-11-01
CN111742191B (zh) 2022-01-14
DE112018007158T5 (de) 2020-11-05
CN111742191A (zh) 2020-10-02
US20210217193A1 (en) 2021-07-15
WO2019163124A1 (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
JPWO2019163124A1 (ja) 三次元位置推定装置及び三次元位置推定方法
EP3033999B1 (en) Apparatus and method for determining the state of a driver
US9542606B2 (en) Lane line recognition apparatus
US20200293800A1 (en) Abnormality detection device and abnormality detection program
US9202106B2 (en) Eyelid detection device
JP4831442B2 (ja) 衝突判定装置
EP3545818B1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
JP2016115117A (ja) 判定装置および判定方法
JP2009009280A (ja) 3次元署名認証システム
US7599546B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
JP6342874B2 (ja) 画像認識装置
WO2018167995A1 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP6572538B2 (ja) 下方視判定装置および下方視判定方法
JP2016115120A (ja) 開閉眼判定装置および開閉眼判定方法
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
KR101976498B1 (ko) 차량용 제스처 인식 시스템 및 그 방법
JP2009297321A (ja) 視線方向認識エラー検出装置
JP6359866B2 (ja) 対象者存在範囲推定装置及び対象者存在範囲推定方法
JP7367637B2 (ja) 顔情報取得装置および顔情報取得方法
JP7418386B2 (ja) 顔向き判定システム
US20230123623A1 (en) Gesture detecting apparatus and gesture detecting method
WO2019188865A1 (ja) 身体向推定装置および身体向推定プログラム
JP2022166702A (ja) 顔認識装置
JP2009015656A (ja) 顔画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211221