JP2019105906A - 顔位置検出装置 - Google Patents

顔位置検出装置 Download PDF

Info

Publication number
JP2019105906A
JP2019105906A JP2017236658A JP2017236658A JP2019105906A JP 2019105906 A JP2019105906 A JP 2019105906A JP 2017236658 A JP2017236658 A JP 2017236658A JP 2017236658 A JP2017236658 A JP 2017236658A JP 2019105906 A JP2019105906 A JP 2019105906A
Authority
JP
Japan
Prior art keywords
face
unit
face position
position detection
approximate expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017236658A
Other languages
English (en)
Other versions
JP6791108B2 (ja
Inventor
義朗 松浦
Yoshiro Matsuura
義朗 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017236658A priority Critical patent/JP6791108B2/ja
Priority to CN201811503252.0A priority patent/CN110059530B/zh
Priority to DE102018131805.7A priority patent/DE102018131805A1/de
Priority to US16/216,612 priority patent/US10776944B2/en
Publication of JP2019105906A publication Critical patent/JP2019105906A/ja
Application granted granted Critical
Publication of JP6791108B2 publication Critical patent/JP6791108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】複雑な構成によらずに顔の空間上の位置を検出できる顔位置検出装置を実現する。【解決手段】顔位置検出装置100は、カメラ1と、画像解析部3と、タッチパネル11と、顔位置算出部13と、近似式生成部14とを備えている。画像解析部3は、カメラ1が撮像した顔の画像を解析して、目の間隔Δd、カメラ1に対する顔の角度θd、タッチパネル11を見る視線の角度θfを抽出する。顔位置算出部13は、タッチパネル11の操作時に、カメラ1からタッチパネル11の操作点までの距離Δxと、上記角度θd、θfとに基づいて、顔の空間上の位置(カメラ1から顔までの距離D)を幾何学的に算出する。近似式生成部14は、このときの距離Dと目の間隔Δdとを対応付けた統計データを収集し、これに基づいて、距離Dを算出するための近似式Fnを生成する。顔位置算出部13は、タッチパネル11の操作時以外は、近似式Fnを用いて顔位置を算出する。【選択図】図1

Description

本発明は、車両の運転者などの顔の位置を検出する装置に関する。
車両において、運転者がどこを見ているかを把握することによって、それに応じた所定の制御を行うアプリケーションのニーズがある。たとえば、運転者がルームミラーを見ている場合は、そのミラーにメッセージや画像を表示したり、運転者がメーターを確認すべきときにメーターを見ていない場合は、運転者に警告を発したりすることなどがその例である。このような視認箇所の判別にあたっては、運転者の視線の方向と、顔の空間上の位置(たとえば基準位置からの距離)とを検出する必要がある。
運転者の顔を検出する手段として、カメラを備えたドライバモニタがある。ドライバモニタは、カメラで撮像した運転者の顔画像に基づいて運転者の状態を監視し、運転者が居眠りや脇見運転をしている場合は、警報などの所定の制御を行う装置である。ドライバモニタで得られた顔画像からは、視線の方向に関する情報は得られるが、顔の空間上の位置に関する情報は得られない。このため、ドライバモニタの顔画像だけでは、運転者がどこを見ているかを把握することは不可能である。
特許文献1には、運転者の顔画像から顔の向き(角度)および視線の方向を検出し、それらに基づいて車載装置に対し所定の制御(スピーカの音量制御など)を行うことが示されているが、この方法では、顔の空間上の位置を検出できないため、運転者がどこを見ているかを判別することはできない。また、特許文献2、3には、利用者の顔とタッチパネルとの相対位置関係に基づいて、タッチパネルの押圧検出位置を補正することが示されているが、これらの文献でも、顔の空間上の位置を検出することはできない。
顔の空間上の位置を検出する方法として、カメラを複数設けたり、専用のセンサを設けたりすることが考えられるが、これらの方法では、部品点数が増えて構成が複雑になり、コストも高くなる。
特開2007−230369号公報 特開2012−208714号公報 特開2014−49023号公報
本発明は、複雑な構成によらずに顔の空間上の位置を検出できる顔位置検出装置を実現することを課題としている。
本発明に係る顔位置検出装置は、利用者の顔を撮像する撮像部と、利用者が操作画面を操作することで所定の入力が行われる操作部と、撮像部が撮像した顔の画像を解析して、当該顔における少なくとも2つの特徴点の位置関係を抽出する画像解析部と、撮像部が撮像した顔の位置を算出する顔位置算出部とを備えている。顔位置算出部は、操作画面の操作時に、撮像された顔と撮像部と操作部との位置関係に基づいて顔の空間上の位置を算出し、操作時以外は、撮像された顔から画像解析部が抽出した特徴点の位置関係と、各操作時に得られた複数の顔位置および各顔位置に対応する複数の特徴点の位置関係とに基づいて顔の空間上の位置を算出する。
このような顔位置検出装置によると、操作部の操作時に、顔画像から特徴点の位置関係(たとえば目と目の間隔)が抽出されるとともに、撮像された顔と撮像部と操作部との位置関係に基づいて、顔の空間上の位置が算出される。そして、操作部の操作時以外は、顔画像から抽出された特徴点の位置関係と、操作時に取得された複数の顔位置および特徴点の位置関係とに基づいて、顔の空間上の位置が算出される。このため、撮像部を複数設けたり、専用のセンサを設けたりすることなく、簡単な構成によって顔の空間上の位置を検出することができる。
本発明において、顔位置算出部は、操作画面の操作時に、撮像部に対する顔の角度と、操作画面を見る視線の角度と、撮像部から操作画面における操作点までの距離とに基づいて、顔の空間上の位置を幾何学的に算出してもよい。
本発明において、特徴点の位置関係から顔の位置を算出するための近似式を生成する近似式生成部を設けてもよい。近似式生成部は、操作画面の各操作時に画像解析部で抽出された特徴点の位置関係と、操作画面の各操作時に顔位置算出部で算出された顔の位置とを対応付けた統計データを収集し、当該統計データに基づいて近似式を生成する。
本発明において、近似式生成部は、操作画面が操作されるたびに、近似式を更新するようにしてもよい。
本発明において、顔位置算出部で算出された顔の空間上の位置と、画像解析部で抽出された利用者の視線の方向とに基づいて、利用者が視認している箇所を判定する視認箇所判定部をさらに設けてもよい。
本発明において、顔の空間上の位置は、撮像部から顔の所定部位までの距離であってもよい。
本発明において、操作部はタッチパネルから構成されていてもよい。このタッチパネルは、車両に搭載されたカーナビゲーション装置のタッチパネルであってもよい。
本発明において、撮像部は、車両に搭載され運転者の状態を監視するドライバモニタのカメラであってもよい。
本発明によれば、顔の空間上の位置を簡単な構成によって検出できる顔位置検出装置を提供することができる。
本発明の実施形態に係る顔位置検出装置のブロック図である。 運転者の顔の撮像を説明する図である。 運転者の視線の方向を説明する図である。 本発明による顔位置検出の原理を説明する図である。 顔位置を算出するための近似式を示したグラフである。 顔位置検出装置の動作を示したフローチャートである。 他の実施形態に係る顔位置検出装置のブロック図である。 他の実施形態の動作を示したフローチャートである。
本発明による顔位置検出装置の実施形態につき、図面を参照しながら説明する。以下では、車両に搭載されて運転者の顔の位置を検出する装置を例に挙げる。
まず、顔位置検出装置の構成を、図1を参照しながら説明する。図1において、顔位置検出装置100は、ドライバモニタ10、タッチパネル11、操作点検出部12、顔位置算出部13、近似式生成部14、および制御部30から構成されている。ドライバモニタ10は、運転者の顔を撮像しながら、運転者が正常な状態にあるか否かを監視する装置であって、カメラ1、信号処理部2、画像解析部3、および運転者状態検出部4を備えている。
カメラ1は、たとえば図2に示すように、車両Vの運転席のダッシュボード52に設けられており、シート51に着座した運転者50の顔50aを撮像できるように、取付位置や取付角度が調整されている。破線は、カメラ1の撮像範囲を示している。カメラ1は、本発明における「撮像部」を構成しており、CMOSイメージセンサのような撮像素子を有している。車両Vは、たとえば自動四輪車である。運転者50は、本発明における「利用者」の一例である。
信号処理部2は、カメラ1で撮像された顔の画像信号をデジタル信号へ変換するなどの処理を行う。画像解析部3は、信号処理部2から出力される画像信号に基づいて顔の画像を解析し、特徴点(たとえば目)を抽出するとともに、顔の角度、視線の方向、瞼の動きなどを検出する。運転者状態検出部4は、画像解析部3での解析結果に基づいて、運転者50の状態を検出する。たとえば、瞼が一定時間以上閉じた状態にある場合は、運転者50が居眠りをしていることを検出し、運転中にもかかわらず視線が横を向いている場合は、運転者50が脇見運転をしていることを検出する。運転者状態検出部4での検出結果は、CAN(Controller Area Network)通信部20を介して、車両に搭載されている図示しないECU(Electronic Control Unit)へ送られる。ECUは、この検出結果に応じて、車両に対して所定の制御(たとえば警報の出力)を行う。
タッチパネル11は、本発明における「操作部」の一例であり、本実施形態では、車両に搭載されたカーナビゲーション装置のタッチパネルである。図2および図3に示すように、タッチパネル11は、車両Vの運転席のダッシュボード52に、カメラ1と並んで設けられている。タッチパネル11は、図3に示すように操作画面11aを有しており、運転者50が操作画面11aを操作することで、所定の入力が行われる。
操作点検出部12は、操作画面11a上の操作点P(図3)、すなわち押圧操作が行われた位置を検出する回路である。操作点Pの位置は、マトリクス状に配列された図示しないスイッチ電極のXY座標により特定され、押圧操作された箇所のスイッチ電極が導通することで、操作点Pが検出される。
顔位置算出部13は、タッチパネル11の操作画面11aが操作されたときに、操作点検出部12での検出結果から得られるパラメータΔxと、画像解析部3での解析結果から得られるパラメータθ、θとに基づいて、カメラ1で撮像された顔50aの位置を算出する。これらのパラメータや顔位置の演算式については、後で詳しく説明する。本実施形態では、図2に示したカメラ1から顔50aまでの距離Dが、顔の空間上の位置(絶対位置)として算出される。カメラ1の空間上の位置はあらかじめ決まっているので、カメラ位置を基準として顔50aまでの距離Dがわかれば、顔50aの空間上の位置を特定することができる。顔位置算出部13での算出結果(距離D)は、CAN通信部20を介して、前述のECUへ送られる。また、顔位置算出部13は、画像解析部3から後述するパラメータΔdを取得する。距離DとパラメータΔdは、近似式生成部14へ送られる。
近似式生成部14は、操作画面11aの操作時の顔位置(距離D)とパラメータΔd(後述)とを対応付けた統計データを収集し、その統計データに基づいて、顔50aの空間上の位置を算出するための近似式Fnを生成する。顔位置算出部13は、操作画面11aの操作時以外は、この近似式Fnを用いて顔50aの位置を算出する。図5は、近似式Fnの一例を示しているが、その詳細については後述する。
制御部30は、CPUやメモリなどを含むマイクロコンピュータから構成されており、顔位置検出装置100の動作を統轄的に制御する。このため、制御部30は、顔位置検出装置100の各部と信号線で接続され(図示省略)、各部との間で通信を行う。
なお、画像解析部3、運転者状態検出部4、顔位置算出部13、および近似式生成部14の各機能は、実際にはソフトウェアによって実現される。
次に、上述した顔位置検出装置100により顔の空間上の位置を検出する原理について説明する。
図3に示すように、運転者50がタッチパネル11を操作する場合、運転者50は必ず操作画面11aを見るであろうから、運転者50の視線(矢印で示す)は、操作画面11aの操作点Pに向いている。本発明では、この習性を利用して顔位置を検出する。
図4に示すように、タッチパネル11の操作画面11aにおいて操作点Pが操作された場合、操作点検出部12の検出結果より、カメラ1から操作点Pまでの距離Δxが決まる。また、カメラ1で撮像された顔50aの画像から、カメラ1に対する顔50aの角度(以下「顔角度」という)θと、操作画面11aを見る視線の角度(以下「視線角度」という)θの2つのパラメータが取得される。さらに、顔50aの画像から、特徴点である目50b、50cの位置関係、すなわち目の間隔Δdが取得される。
図4において、顔50aの空間上の位置を表す距離Dと、各パラメータΔx、θ、θとの間には、幾何学的に次の関係が成立する。
D・sinθ+(D・cosθ)・tanθ=Δx
これより、距離Dは次の演算式によって算出することができる。
D=Δx/(sinθ+cosθ・tanθ) ・・・ (1)
なお、図4では、距離Dは、カメラ1の前面の中心から、顔50aにおける目50b、50cの中点までの距離となっている。顔角度θは、カメラ1の光軸と、距離Dを表す直線とのなす角度である。視線角度θは、操作点Pと顔の所定部位(ここでは、目50b、50cの中点)とを結ぶ直線と、当該部位におけるカメラ1の光軸と平行な垂線とのなす角度である。
顔位置算出部13は、操作画面11aが操作されるたびに、当該操作時におけるパラメータΔx、θ、θを用いて、上記演算式(1)により距離Dを演算することで、顔の空間上の位置を算出する。そして、顔位置算出部13は、算出した距離Dと、顔画像から取得した目の間隔Δdとを、近似式生成部14へ渡す。近似式生成部14は、操作画面11aの操作のたびに、顔位置算出部13から受け取った距離Dと目の間隔Δdとを対応付けて記憶する。この結果、近似式生成部14では、図5に示すような、DとΔdとを対応付けた離散的な統計データが収集される。近似式生成部14は、この統計データに基づいて、目の間隔Δdから距離D(顔の空間上の位置)を算出するための近似式Fnを生成する。この場合の近似の手法としては、補間法や最小二乗法のような公知の手法を用いることができる。なお、近似式Fnは、新たに算出されるたびに書き換えられて更新される。
前述したように、顔位置算出部13は、操作画面11aの操作時以外は、上記近似式Fnを用いて、顔の空間上の位置である距離Dを算出する。操作画面11aが操作されない間も、カメラ1は顔50aを連続的に撮像しているので、画像解析部3から目の間隔Δdをリアルタイムに取得することができる。したがって、取得したΔdを近似式Fnに当てはめることで、操作時以外の顔位置を算出することができる。
このようにして顔位置算出部13で算出された顔位置に関する情報(距離D)は、画像解析部3で抽出された視線の方向(視線角度θ)などの情報とともに、CAN通信部20を介して所定のECUへ送られる。当該ECUにおいては、顔位置や視線方向などの情報をもとに、運転者50が現在視認している箇所(たとえばダッシュボード52に備わるメーター)を判定する。
以上のように、本実施形態では、タッチパネル11の操作時に、顔画像から目の間隔Δdを抽出するとともに、操作点Pにより決まる距離Δxと、顔画像から得られる顔角度θおよび視線角度θとに基づいて、カメラ1から顔50aまでの距離D、つまり顔50aの空間上の位置を幾何学的に算出する(前記の演算式(1))。また、このときの目の間隔Δdと距離Dとを対応付けた統計データを収集し、当該統計データから近似式Fnを生成する。そして、タッチパネル11の操作時以外は、顔画像から抽出された目の間隔Δdと近似式Fnとに基づいて、距離Dを算出する。このため、カメラを複数設けたり、専用のセンサを設けたりすることなく、簡単な構成によって顔50aの空間上の位置を検出することができる。特に、カメラ1として車両に搭載されているドライバモニタ10のカメラを用い、タッチパネル11として同じく車両に搭載されているカーナビゲーション装置のタッチパネルを用いているので、余分な部品を追加せずにソフトウェアの変更で対応が可能である。
図6は、顔位置検出装置100の動作を表したフローチャートである。ステップS1〜S4はドライバモニタ10において実行され、ステップS5〜S11は顔位置算出部13において実行され、ステップS12〜S14は近似式生成部14において実行される。
ステップS1では、イグニッションスイッチ(図示省略)の操作などに基づいて、ドライバモニタ10が起動される。ステップS2では、カメラ1が運転者50の顔50aの撮像を開始する。この撮像は、ドライバモニタ10が動作している間、継続して行われる。ステップS3では、画像解析部3により、カメラ1で撮像した顔画像の解析が行われる。ステップS4では、顔画像から特徴点である目50b、50cの間隔Δd(図4)が抽出される。なお、ステップS3の解析結果に基づき、運転者状態検出部4において運転者の状態が検出されるが、これは本発明と直接関係しないため、図6ではこのステップを省略してある。
ステップS5では、ステップS4で抽出された目の間隔Δdと、近似式生成部14で算出済の近似式Fnとを用いて、顔50aの空間上の位置である距離D(図4)を算出する。ステップS6では、タッチパネル11の操作画面11aが操作されたか否かを、操作点検出部12からの検出信号の有無に基づいて判定する。操作画面11aが操作されない場合は(ステップS6;NO)、ステップS2に戻って、上述した動作が反復される。操作画面11aが操作された場合は(ステップS6;YES)、ステップS7に進む。
ステップS7では、操作点検出部12で検出された操作点Pの位置に基づいて、カメラ1から操作点Pまでの距離Δx(図4)が取得される。ステップS8では、顔画像から抽出された顔角度θ(図4)が取得される。ステップS9では、顔画像から抽出された視線角度θ(図4)が取得される。ステップS10では、顔画像から抽出された目50b、50cの間隔Δd(図4)が取得される。ステップS11では、ステップS7〜S9で取得されたΔx、θ、θを用いて、前記の演算式(1)により距離Dを演算し、顔50aの空間上の位置を幾何学的に算出する。
ステップS12では、ステップS11で算出された距離Dと、ステップS10で取得された目の間隔Δdとを対応付けて記憶する。ステップS13では、ステップS12で記憶されたDとΔdの統計データを用いて、距離Dを算出するための近似式Fnを生成する。ステップS14では、前回生成した近似式Fnを、ステップS13で生成した今回の近似式Fnに更新する。その後は、ステップS2へ戻って、上述した一連の処理が繰り返される。したがって、ステップS14における近似式Fnの更新は、タッチパネル11の操作画面11aが操作されるたびに行われる。
図7は、本発明の他の実施形態による顔位置検出装置200を示している。図7では、図1と同一部分に同一符号を付してある。
図7の顔位置検出装置200においては、図1の顔位置検出装置100の構成に、視認箇所判定部15が追加されている。図1の場合は、ECU側で運転者50の視認箇所を判定したが、図7の場合は、顔位置検出装置200側で運転者50の視認箇所を判定する。
図7において、視認箇所判定部15は、顔位置算出部13とCAN通信部20との間に設けられており、顔位置算出部13から顔の空間上の位置を表す距離Dを取得し、また画像解析部3から視線の方向を表す視線角度θを取得する。距離Dと視線角度θが決まれば、運転者50が視認している箇所を特定できるので、視認箇所判定部15は、Dとθとに基づいて視認箇所を判定する。判定結果は、CAN通信部20を介して、所定のECUへ送られる。その他の点については、図1の顔位置検出装置100と同じであるので、図1と重複する部分の説明は省略する。
図8は、図7の顔位置検出装置200の動作を表したフローチャートである。図8では、図6と同じステップに同一符号を付してある。図8のフローチャートにおいて図6と異なる点は、図6のステップS4がステップS4aに置き換わっていることと、ステップS5の次にステップS5aが追加されていることである。ステップS4aでは、顔画像から、目の間隔Δdに加えて視線角度θが抽出される。ステップS5aでは、ステップS4aで抽出された視線角度θと、ステップS5で算出された顔位置(距離D)とに基づいて、運転者50が視認している箇所を判定する。その他のステップについては、図6と同じであるので、図6と重複するステップの説明は省略する。
本発明では、上述した実施形態以外にも、以下のような種々の実施形態を採用することができる。
前記の実施形態では、操作画面11aの操作時における目の間隔Δd(特徴点の位置関係)と、顔までの距離D(顔の空間上の位置)とを対応付けた統計データから近似式Fnを生成し、操作画面11aの操作時以外は、この近似式Fnを用いて顔位置を算出する例を挙げたが、本発明はこれに限定されない。たとえば、操作画面11aの操作時における目の間隔Δdと顔までの距離Dとを対応付けたテーブルを設け、操作画面11aの操作時以外は、このテーブルを参照して、顔画像から得られた目の間隔Δdに対応する距離Dを抽出することにより、顔位置を算出するようにしてもよい。
前記の実施形態では、顔の特徴点の位置関係として、目50bと目50cの間隔Δdを例に挙げたが、これに限らず、たとえば耳と耳の間隔、眉と眉の間隔、目と耳の間隔、鼻と耳の間隔などを特徴点の位置関係としてもよい。また、特徴点は少なくとも2つあれば足りるが、3つ以上であってもよい。さらに、特徴点の位置関係は、間隔(距離)に限らず、角度であってもよい。
前記の実施形態では、顔の空間上の位置を表すパラメータとして、カメラ1から顔50aの所定部位までの距離Dを用いたが、これに限らず、カメラ1以外の箇所から顔50aの所定部位までの距離Dによって、顔の空間上の位置を表してもよい。また、顔の空間上の位置は、距離Dに限らず、座標値で表してもよい。
前記の実施形態では、タッチパネル11が操作されるたびに、演算式(1)によって距離Dを算出する例を挙げたが、これに限らず、たとえば2回の操作や3回の操作に対して1回、距離Dを算出してもよい。この場合、距離Dの算出されない回の操作時には、近似式Fnによって距離Dが算出される。
前記の実施形態では、操作部としてタッチパネル11を例に挙げたが、操作部は、たとえば押圧式のスイッチボタンが複数並んで配列されたボードなどであってもよい。
前記の実施形態では、画像解析部3、運転者状態検出部4、顔位置算出部13、および近似式生成部14と別に制御部30を設けた例を挙げたが、これらの各部3、4、13、14を制御部30に組み込んでもよい。
前記の実施形態では、車両の運転者の顔を検出するための顔位置検出装置を例に挙げたが、本発明は、他の用途の顔位置検出装置にも適用することができる。
1 カメラ(撮像部)
3 画像解析部
10 ドライバモニタ
11 タッチパネル(操作部)
11a 操作画面
12 操作点検出部
13 顔位置算出部
14 近似式生成部
15 視認箇所判定部
50 運転者(利用者)
50a 顔
50b、50c 目(特徴点)
100、200 顔位置検出装置
D カメラから顔までの距離(顔の空間上の位置)
Fn 近似式
P 操作点
V 車両
Δd 目の間隔(特徴点の位置関係)
Δx カメラから操作点までの距離(撮像部と操作部の位置関係)
θ 顔角度(撮像部に対する顔の角度)
θ 視線角度(操作画面を見る視線の角度)

Claims (9)

  1. 利用者の顔を撮像する撮像部と、
    操作画面を有し、前記利用者が前記操作画面を操作することで所定の入力が行われる操作部と、
    前記撮像部が撮像した顔の画像を解析して、当該顔における少なくとも2つの特徴点の位置関係を抽出する画像解析部と、
    前記撮像部が撮像した顔の位置を算出する顔位置算出部と、を備え、
    前記顔位置算出部は、
    前記操作画面の操作時に、撮像された顔と前記撮像部と前記操作部との位置関係に基づいて、顔の空間上の位置を算出し、
    前記操作時以外は、撮像された顔から前記画像解析部が抽出した前記特徴点の位置関係と、各操作時に得られた複数の顔位置および各顔位置に対応する複数の前記特徴点の位置関係とに基づいて、顔の空間上の位置を算出することを特徴とする顔位置検出装置。
  2. 請求項1に記載の顔位置検出装置において、
    前記顔位置算出部は、
    前記操作画面の操作時に、前記撮像部に対する顔の角度と、前記操作画面を見る視線の角度と、前記撮像部から前記操作画面における操作点までの距離とに基づいて、顔の空間上の位置を幾何学的に算出する、ことを特徴とする顔位置検出装置。
  3. 請求項1または請求項2に記載の顔位置検出装置において、
    前記特徴点の位置関係から顔の位置を算出するための近似式を生成する近似式生成部をさらに備え、
    前記近似式生成部は、前記操作画面の各操作時に前記画像解析部で抽出された前記特徴点の位置関係と、前記操作画面の各操作時に前記顔位置算出部で算出された顔の位置とを対応付けた統計データを収集し、当該統計データに基づいて前記近似式を生成する、ことを特徴とする顔位置検出装置。
  4. 請求項3に記載の顔位置検出装置において、
    前記近似式生成部は、前記操作画面が操作されるたびに前記近似式を更新する、ことを特徴とする顔位置検出装置。
  5. 請求項1ないし請求項4のいずれかに記載の顔位置検出装置において、
    前記顔位置算出部で算出された顔の空間上の位置と、前記画像解析部で抽出された利用者の視線の方向とに基づいて、利用者が視認している箇所を判定する視認箇所判定部をさらに備えた、ことを特徴とする顔位置検出装置。
  6. 請求項1ないし請求項5のいずれかに記載の顔位置検出装置において、
    前記顔の空間上の位置は、前記撮像部から前記顔の所定部位までの距離である、ことを特徴とする顔位置検出装置。
  7. 請求項1ないし請求項6のいずれかに記載の顔位置検出装置において、
    前記操作部は、タッチパネルから構成されていることを特徴とする顔位置検出装置。
  8. 請求項7に記載の顔位置検出装置において、
    前記タッチパネルは、車両に搭載されたカーナビゲーション装置のタッチパネルである、ことを特徴とする顔位置検出装置。
  9. 請求項1ないし請求項8のいずれかに記載の顔位置検出装置において、
    前記撮像部は、車両に搭載され運転者の状態を監視するドライバモニタのカメラである、ことを特徴とする顔位置検出装置
JP2017236658A 2017-12-11 2017-12-11 顔位置検出装置 Active JP6791108B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017236658A JP6791108B2 (ja) 2017-12-11 2017-12-11 顔位置検出装置
CN201811503252.0A CN110059530B (zh) 2017-12-11 2018-12-10 面部位置检测装置
DE102018131805.7A DE102018131805A1 (de) 2017-12-11 2018-12-11 Vorrichtung zum erfassen einer gesichtsposition
US16/216,612 US10776944B2 (en) 2017-12-11 2018-12-11 Face position detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017236658A JP6791108B2 (ja) 2017-12-11 2017-12-11 顔位置検出装置

Publications (2)

Publication Number Publication Date
JP2019105906A true JP2019105906A (ja) 2019-06-27
JP6791108B2 JP6791108B2 (ja) 2020-11-25

Family

ID=66629467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017236658A Active JP6791108B2 (ja) 2017-12-11 2017-12-11 顔位置検出装置

Country Status (4)

Country Link
US (1) US10776944B2 (ja)
JP (1) JP6791108B2 (ja)
CN (1) CN110059530B (ja)
DE (1) DE102018131805A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11370360B2 (en) 2019-12-25 2022-06-28 Panasonic Intellectual Property Management Co., Ltd. Display system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6822482B2 (ja) * 2016-10-31 2021-01-27 日本電気株式会社 視線推定装置、視線推定方法及びプログラム記録媒体
AU2019369206A1 (en) 2019-12-16 2021-07-01 Beijing Didi Infinity Technology And Development Co., Ltd. Systems and methods for distinguishing a driver and passengers in an image captured inside a vehicle
CN111709348A (zh) * 2020-06-11 2020-09-25 苏州百胜动力机器股份有限公司 一种基于驾驶员面部监视的舷外机安全驾驶控制系统
CN111950348A (zh) * 2020-06-29 2020-11-17 北京百度网讯科技有限公司 安全带的佩戴状态识别方法、装置、电子设备和存储介质

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004177315A (ja) * 2002-11-28 2004-06-24 Alpine Electronics Inc 視線方向判定装置及びそれを利用した対話システムならびに運転支援システム
JP4894300B2 (ja) 2006-03-01 2012-03-14 トヨタ自動車株式会社 車載装置調整装置
JP5251547B2 (ja) * 2008-06-06 2013-07-31 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
CN102265602A (zh) * 2008-12-26 2011-11-30 松下电器产业株式会社 图像拍摄装置
JP5865597B2 (ja) 2011-03-29 2016-02-17 京セラ株式会社 携帯電子機器
JP5472538B2 (ja) * 2011-06-14 2014-04-16 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP2014049023A (ja) 2012-09-03 2014-03-17 Sharp Corp 入力装置
JP6499583B2 (ja) * 2013-09-24 2019-04-10 シャープ株式会社 画像処理装置及び画像表示装置
JP2016110269A (ja) * 2014-12-03 2016-06-20 株式会社東海理化電機製作所 操作入力装置
US9877012B2 (en) * 2015-04-01 2018-01-23 Canon Kabushiki Kaisha Image processing apparatus for estimating three-dimensional position of object and method therefor
CN106991367B (zh) * 2016-01-21 2019-03-19 腾讯科技(深圳)有限公司 确定人脸转动角度的方法和装置
JP6702292B2 (ja) * 2017-11-15 2020-06-03 オムロン株式会社 警報制御装置、方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11370360B2 (en) 2019-12-25 2022-06-28 Panasonic Intellectual Property Management Co., Ltd. Display system

Also Published As

Publication number Publication date
US10776944B2 (en) 2020-09-15
DE102018131805A1 (de) 2019-06-13
JP6791108B2 (ja) 2020-11-25
CN110059530A (zh) 2019-07-26
CN110059530B (zh) 2023-07-04
US20190188878A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6791108B2 (ja) 顔位置検出装置
US11688162B2 (en) Drive assist device
US11741630B2 (en) Vehicle system with no-control operation
US10970572B2 (en) Driver condition detection system
US10604160B2 (en) Driver condition detection system
JP2016091055A (ja) 車載注意喚起システム、報知制御装置
EP3445610B1 (en) Trailer angle detection using rear camera
WO2018061413A1 (ja) ジェスチャ検出装置
JP2018039394A (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP6525345B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
WO2014103217A1 (ja) 操作装置、及び操作検出方法
US10525981B2 (en) Driver condition detection system
JP2019074944A (ja) 警報システム
US20180357498A1 (en) System and method for remote monitoring of a human
JP2018113622A (ja) 画像処理装置、画像処理システム、及び、画像処理方法
US11915339B2 (en) Remote operation instructing system, and mount type device
JP2015114682A (ja) タッチパネル装置
JP7001038B2 (ja) 運転状態判定方法
JP2018107574A (ja) 車両用視認装置
KR20210115800A (ko) 차선 변경시 hud를 이용한 충돌 경고 안내 장치 및 방법
JP2023097182A (ja) ドライバ挙動判定装置、ドライバ挙動判定方法及びドライバ挙動判定用コンピュータプログラム
KR20170078340A (ko) 다자간 적외선 입력장치 위치 인식을 위한 사용자 식별 시스템

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201019

R150 Certificate of patent or registration of utility model

Ref document number: 6791108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150