JP6737212B2 - 運転者状態推定装置、及び運転者状態推定方法 - Google Patents

運転者状態推定装置、及び運転者状態推定方法 Download PDF

Info

Publication number
JP6737212B2
JP6737212B2 JP2017048503A JP2017048503A JP6737212B2 JP 6737212 B2 JP6737212 B2 JP 6737212B2 JP 2017048503 A JP2017048503 A JP 2017048503A JP 2017048503 A JP2017048503 A JP 2017048503A JP 6737212 B2 JP6737212 B2 JP 6737212B2
Authority
JP
Japan
Prior art keywords
driver
head
distance
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017048503A
Other languages
English (en)
Other versions
JP2018151931A (ja
JP2018151931A5 (ja
Inventor
匡史 日向
匡史 日向
正樹 諏訪
正樹 諏訪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017048503A priority Critical patent/JP6737212B2/ja
Priority to DE112017007243.3T priority patent/DE112017007243T5/de
Priority to CN201780084001.0A priority patent/CN110199318B/zh
Priority to US16/481,846 priority patent/US20200065595A1/en
Priority to PCT/JP2017/027245 priority patent/WO2018167996A1/ja
Publication of JP2018151931A publication Critical patent/JP2018151931A/ja
Publication of JP2018151931A5 publication Critical patent/JP2018151931A5/ja
Application granted granted Critical
Publication of JP6737212B2 publication Critical patent/JP6737212B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Description

本発明は運転者状態推定装置、及び運転者状態推定方法に関し、より詳細には、撮像された画像を用いて運転者の状態を推定することのできる運転者状態推定装置、及び運転者状態推定方法に関する。
車室内カメラで撮影された運転者の画像から運転者の動作や視線などの状態を検知し、運転者に必要とされる情報の提示や警告などを行う技術が従来より開発されている。
また、近年開発が進められている自動運転システムでは、自動運転中においても、自動運転から手動運転への引き継ぎがスムーズに行えるように、運転者が運転操作可能な状態であるかどうかを推定しておく技術が必要になると考えられており、車室内カメラで撮像した画像を解析して、運転者の状態を推定する技術の開発が進められている。
運転者の状態を推定するためには、運転者の頭部位置を検出する技術が必要とされている。例えば、特許文献1には、車室内カメラで撮像された画像中における運転者の顔領域を検出し、検出した顔領域に基づいて、運転者の頭部位置を推定する技術が開示されている。
上記運転者の頭部位置の具体的な推定方法は、まず、車室内カメラに対する頭部位置の角度を検出する。該頭部位置の角度の検出方法は、画像上での顔領域の中心位置を検出し、該検出した顔領域の中心位置を頭部位置として、該顔領域の中心位置を通る頭部位置直線を求め、該頭部位置直線の角度(頭部位置の車室内カメラに対する角度)を決定する。
次に、頭部位置直線上の頭部位置を検出する。該頭部位置直線上の頭部位置の検出方法は、車室内カメラから所定距離に存在する場合の顔領域の標準大きさを記憶しておき、この標準大きさと実際に検出した顔領域の大きさとを比較して、車室内カメラから頭部位置までの距離を求める。そして、求めた距離だけ車室内カメラから離れた、頭部位置直線上の位置を頭部位置として推定するようになっている。
[発明が解決しようとする課題]
特許文献1記載の頭部位置の推定方法では、画像上での頭部位置を顔領域の中心位置を基準として検出しているが、顔領域の中心位置は顔の向きによって変わってしまう。そのため、頭の位置が同じ位置であっても、顔の向きの違いより、画像上で検出される顔領域の中心位置がそれぞれ異なる位置に検出される。そのため画像上における頭部位置が実世界の頭部位置とは異なる位置に検出されてしまい、実世界における頭部位置までの距離を精度よく推定できないという課題があった。
特開2014−218140号公報
Yalin Xiong, Steven A. Shafer, "Depth from Focusing and Defocusing", CMU-RI-TR-93-07, The Robotics Institute Carnegie Mellon University Pittsburgh, Pennsylvania 15213. March, 1993. D. B. Gennery,"Determination of optical transfer function by inspection of frequency-domain plot,"Journal of the Optical Society of America,vol.63,pp.1571-1577,1973. 電子情報通信学会論文誌 D Vol. J90-D,No.10,pp.2848-2857「対数振幅スペクトル上の輝度こう配ベクトル分布を利用したノイズに頑健な焦点ずれPSF推定」,坂野盛彦、末竹規哲、内野英治 A. P. Pentland, "A new sense for depth of field", IEEE Transaction on Pattern Analysis and Machine Intelligence, 9, 4, pp.523-531(1987). S.Zhou, T.Sim, "Defocus Map Estimation from a Single Image,"Pattern Recognition, Vol.44, No.9, pp.1852-1858, (2011). YOAV Y. SCHECHNER,NAHUM KIRYATI,"Depth from Defocus vs. Stereo: How Different Really Are They?" International Journal of Computer Vision 39(2), 141-162, (2000).
課題を解決するための手段及びその効果
本発明は上記課題に鑑みなされたものであって、画像中における運転者の顔領域の中心位置を検出することなく運転者の頭部までの距離を推定することができ、該推定された距離を前記運転者の状態判定に利用することができる運転者状態推定装置、及び運転者状態推定方法を提供することを目的としている。
上記目的を達成するために本発明に係る運転者状態推定装置(1)は、撮像された画像を用いて運転者の状態を推定する運転者状態推定装置であって、
運転席に着座している運転者を撮像可能な撮像部と、
少なくとも1つのハードウェアプロセッサとを備え、
該少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像中の運転者の頭部を検出する頭部検出部と、
該頭部検出部で検出された前記画像中の運転者の頭部のボケ量を検出するボケ量検出部と、
該ボケ量検出部で検出された前記ボケ量を用いて、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定する距離推定部とを備えていることを特徴としている。
上記運転者状態推定装置(1)によれば、前記撮像部により撮像された前記運転者の画像を用いて、該画像中の運転者の頭部を検出し、該検出した前記画像中の運転者の頭部のボケ量を検出し、該ボケ量を用いて、前記運転席に着座している運転者の頭部から前記撮像部までの距離が推定される。したがって、前記画像中の顔領域の中心位置を求めることなく、前記画像中の前記運転者の頭部のボケ量から前記距離を推定することができる。該推定された距離を用いて、前記運転席に着座している運転者の位置姿勢などの状態を推定することが可能となる。
また本発明に係る運転者状態推定装置(2)は、上記運転者状態推定装置(1)において、前記運転席に着座している運転者の頭部から前記撮像部までの距離と、前記撮像部で撮像される前記運転者の画像のボケ量との相関関係を示すテーブル情報を記憶するテーブル情報記憶部を備え、
前記距離推定部が、
前記ボケ量検出部で検出された前記ボケ量と、前記テーブル情報記憶部から読み出された前記テーブル情報とを照合して、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定するものであることを特徴としている。
上記運転者状態推定装置(2)によれば、前記テーブル情報記憶部に、前記撮像部で撮像される前記運転者の画像のボケ量と、前記運転者の頭部から前記撮像部までの距離との対応関係を示すテーブル情報が記憶され、前記ボケ量検出部で検出された前記ボケ量と、前記テーブル情報記憶部から読み出された前記テーブル情報とが照合されて、前記運転席に着座している運転者の頭部から前記撮像部までの距離が推定される。したがって、前記テーブル情報に前記ボケ量を当てはめることにより、前記運転席に着座している運転者の頭部から前記撮像部までの距離を、演算処理に負荷をかけることなく高速に推定することができる。
また本発明に係る運転者状態推定装置(3)は、上記運転者状態推定装置(1)又は(2)において、前記距離推定部が、前記撮像部により撮像された複数の画像から検出された前記運転者の顔領域の大きさの変化を考慮して、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定するものであることを特徴としている。
上記運転者状態推定装置(3)によれば、前記運転者の顔領域の大きさの変化を考慮することにより、前記撮像部のピントが合う焦点位置から前後いずれの方向に前記運転者が離れているのかを判定することができるので、前記距離の推定精度を高めることができる。
また本発明に係る運転者状態推定装置(4)は、上記運転者状態推定装置(1)〜(3)のいずれかにおいて、前記少なくとも1つのハードウェアプロセッサが、
前記距離推定部で推定された前記距離を用いて、前記運転席に着座している運転者が運転操作可能な状態であるか否かを判定する運転操作可否判定部を備えていることを特徴としている。
上記運転者状態推定装置(4)によれば、前記距離推定部で推定された前記距離を用いて、前記運転席に着座している運転者が運転操作可能な状態であるか否かを判定することができ、前記運転者の監視を適切に行うことができる。
また本発明に係る運転者状態推定装置(5)は、上記運転者状態推定装置(1)〜(4)のいずれかにおいて、前記撮像部が、前記運転席に着座している運転者の位置姿勢の変化に応じて前記運転者の頭部のボケ具合が異なる画像を撮像可能なものであることを特徴としている。
上記運転者状態推定装置(5)によれば、前記運転席という限られた空間であっても、前記運転者の頭部のボケ具合が異なる画像が撮像可能であるので、前記ボケ量から前記距離を確実に推定することができる。
また本発明に係る運転者状態推定方法は、運転席に着座している運転者を撮像可能な撮像部と、少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記運転席に着座している運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部により撮像された画像中の運転者の頭部を検出する頭部検出ステップと、
該頭部検出ステップで検出された前記画像中の運転者の頭部のボケ量を検出するボケ量検出ステップと、
該ボケ量検出ステップで検出された前記ボケ量を用いて、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定する距離推定ステップとを含んでいることを特徴としている。
上記運転者状態推定方法によれば、前記撮像部により撮像された前記運転者の画像を用いて、該画像中の運転者の頭部を検出し、該検出した前記画像中の運転者の頭部のボケ量を検出し、該ボケ量を用いて、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定する。したがって、前記画像中の顔領域の中心位置を求めることなく、前記画像中の前記運転者の頭部のボケ量から前記距離を推定することができる。該推定された距離を用いて、前記運転席に着座している運転者の位置姿勢などの状態を推定することが可能となる。
本発明の実施の形態に係る運転者状態推定装置を含む自動運転システムの要部を概略的に示したブロック図である。 実施の形態に係る運転者状態推定装置の構成を示すブロック図である。 運転席の座席位置と、撮像された画像中の運転者のボケ具合との関係について説明するためのイラスト図である。 実施の形態に係る運転者状態推定装置で検出されるボケ量と運転者までの距離との関係について説明するための図である。 運転者までの距離とボケ量の大きさとの相関関係を示すテーブル情報の一例を示したグラフ図である。 実施の形態に係る運転者状態推定装置におけるCPUの行う処理動作を示したフローチャートである。
以下、本発明に係る運転者状態推定装置、及び運転者状態推定方法の実施の形態を図面に基づいて説明する。なお、以下に述べる実施の形態は、本発明の好適な具体例であり、技術的に種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。
図1は、実施の形態に係る運転者状態推定装置を含む自動運転システムの要部を概略的に示したブロック図である。図2は、実施の形態に係る運転者状態推定装置の構成を示すブロック図である。
自動運転システム1は、車両を道路に沿って自動で走行させるためのシステムであり、運転者状態推定装置10、HMI(Human Machine Interface)40、及び自動運転制御装置50を含んで構成され、これら各装置が通信バス60を介して接続されている。なお、通信バス60には、自動運転や運転者による手動運転の制御に必要な各種センサや制御装置(図示せず)も接続されている。
運転者状態推定装置10は、撮像された画像から運転者の状態、具体的には、撮像された画像中の運転者の頭部のボケ量を検出し、単眼カメラ11から運転者の頭部(顔)までの距離を前記ボケ量から推定する処理、前記距離の推定結果に基づいて運転者が運転操作可能な状態であるか否かを判定し、その判定結果を出力する処理などを行う。
運転者状態推定装置10は、単眼カメラ11、CPU12、ROM13、RAM14、記憶部15、及び入出力インターフェース(I/F)16を含んで構成され、これら各部が通信バス17を介して接続されている。なお、単眼カメラ11は、装置本体とは別体のカメラユニットとして構成してもよい。
撮像部としての単眼カメラ11は、運転席に着座している運転者の頭部を含む画像を定期的(例えば、1秒間に30〜60回)に撮像可能な単眼カメラであり、1枚以上のレンズから構成されるレンズ系11a、被写体の撮像データを生成するCCD又はCMOSなどの撮像素子11b、撮像データをデジタルデータに変換するAD変換部(図示せず)、及び近赤外光を照射する近赤外LEDなどの赤外線照射器(図示せず)などを含んで構成されている。
また、単眼カメラ11のレンズ系11aには、運転席の可動範囲内のいずれかの位置で運転者にピントが合い、かつ被写界深度が浅く(ピントの合う範囲が狭く)なるように、レンズの焦点距離及び絞り(F値)などの光学パラメータが設定されているものが使用される。これら光学パラメータの設定により、運転席に着座している運転者の位置姿勢の変化、例えば、運転席の座面位置や背もたれの傾きの変化に応じて運転者の頭部のボケ具合が異なる画像(運転者にピントの合った画像から徐々にピントのずれたボケ具合の異なる画像)を撮像可能となっている。なお、前記被写界深度は、後述する頭部検出部23における処理性能、すなわち、画像中から運転者の頭部や顔器官を検出する性能を妨げないように、頭部検出部23における処理性能のボケ許容範囲内において極力浅くなるように設定にすることが好ましい。
CPU12は、ハードウェアプロセッサであり、ROM13に記憶されているプログラムを読み出し、該プログラムに基づいて単眼カメラ11で撮像された画像データの各種処理などを行う。CPU12は、画像処理や制御信号出力処理などの処理用途毎に複数装備してもよい。
ROM13には、図2に示す記憶指示部21、読み出し指示部22、頭部検出部23、ボケ量検出部24、距離推定部25、及び運転操作可否判定部26としての処理を、CPU12に実行させるためのプログラムなどが記憶されている。なお、CPU12で実行される前記プログラムの全部又は一部をROM13とは別の記憶部15や他の記憶媒体(図示せず)に記憶してもよい。
RAM14には、CPU12で実行される各種処理に必要なデータやROM13から読み出したプログラムなどが一時記憶される。
記憶部15は、単眼カメラ11で撮像された画像データが記憶される画像記憶部15aと、単眼カメラ11から被写体(運転者)までの距離と単眼カメラ11で撮像される被写体の画像のボケ量との相関関係を示すテーブル情報が記憶されるテーブル情報記憶部15bとを含んでいる。また、記憶部15には、単眼カメラ11の焦点距離や絞り(F値)、画角や画素数(幅×縦)などを含むパラメータ情報、単眼カメラ11の取付位置情報なども記憶されるようになっている。単眼カメラ11の取付位置情報などは、例えば、単眼カメラ11の設定メニューをHMI40で読み出せるように構成しておき、取付時に、前記設定メニューから入力設定できるようにすればよい。記憶部15は、例えば、EEPROM、フラッシュメモリなどの1つ以上の不揮発性の半導体メモリで構成されている。入出力インターフェース(I/F)16は、通信バス60を介して各種外部装置とのデータのやり取りを行うためのものである。
HMI40は、運転者状態推定装置10から送信されてきた信号に基づいて、運転者に運転姿勢等の状態を報知する処理、自動運転システム1の作動状況や自動運転の解除情報などを運転者に報知する処理、自動運転制御に関連する操作信号を自動運転制御装置50に出力する処理などを行う。HMI40は、例えば、運転者が視認しやすい位置に設けられた表示部41や音声出力部42の他、図示しない操作部や音声入力部などを含んで構成されている。
自動運転制御装置50は、図示しない動力源制御装置、操舵制御装置、制動制御装置、周辺監視センサ、ナビゲーションシステム、外部と通信を行う通信装置などにも接続され、これら各部から取得した情報に基づいて、自動運転を行うための制御信号を各制御装置へ出力して、車両の自動走行制御(自動操舵制御や自動速度調整制御など)を行う。
図2に示した運転者状態推定装置10の各部を説明する前に、図3を用いて、運転席の座席位置と、単眼カメラ11で撮像される画像中の運転者のボケ具合との関係について説明する。図3は、運転席の座席位置の違いによって画像中の運転者のボケ具合が変化することを説明するためのイラスト図である。
図3に示すように、運転者30が運転席31に着座しているとする。運転席31の正面前方にはハンドル32が設置されている。運転席31は、前後方向に位置調整可能となっており、座面の可動範囲がSに設定されている。単眼カメラ11は、ハンドル32の奥側(図示しないステアリングコラム、又はダッシュボードやインストルメントパネルの手前)に設けられており、運転者30Aの頭部(顔)を含む画像11cを撮像可能な箇所に設置されている。なお、単眼カメラ11の設置位置姿勢はこの形態に限定されるものではない。
図3では、単眼カメラ11から実世界における運転者30までの距離をZ(Zf、Zblur)、ハンドル32から運転者30までの距離をA、ハンドル32から単眼カメラ11までの距離をB、単眼カメラ11の画角をα、撮像面の中心をIで示している。
図3(b)は、運転席31を可動範囲Sの略中間位置Sにセットした状態を示している。この状態では、運転者30の頭部(頭部正面の顔)の位置が、単眼カメラ11のピントが合う焦点位置(距離Zf)になっており、画像11cには、運転者30Aがピントの合ったボケのない状態で写されている。
図3(a)は、運転席31を可動範囲Sの後方位置Sにセットした状態を示している。
運転者30の頭部の位置は、単眼カメラ11のピントが合う焦点位置(距離Zf)よりも遠い位置(ピントがずれた位置)(距離Zblur)にあるため、画像11cには、運転者30Aが中間位置Sよりも少し小さく、かつボケが生じた状態で写されている。
図3(c)は、運転席31を可動範囲Sの前方位置Sにセットした状態を示している。
運転者30の頭部の位置は、単眼カメラ11のピントが合う焦点位置(距離Zf)よりも近い位置(ピントがすれた位置)(距離Zblur)にあるため、画像11cには、運転者30Aが中間位置Sよりも少し大きく、かつボケが生じた状態で写されている。
このように単眼カメラ11は、運転席31を略中間位置Sにセットした状態で運転者30の頭部にピントが合う一方、略中間位置Sよりも前後に運転席31をセットした状態では、運転者30の頭部にピントが合わず、画像中の運転者30Aの頭部には、ピント位置からのずれ量に応じたボケが生じる設定になっている。
なお、上記形態では、運転席31を略中間位置Sにセットしたときの運転者30の頭部にピントが合うように単眼カメラ11の光学パラメータが設定されているが、単眼カメラ11のピントを合わせる位置は、この位置に限定されるものではない。運転席31を可動範囲Sのいずれかの位置にセットしたときの運転者30の頭部にピントが合うように、単眼カメラ11の光学パラメータを設定することができる。
次に、実施の形態に係る運転者状態推定装置10の具体的構成について図2に示したブロック図に基づいて説明する。
運転者状態推定装置10は、ROM13に記憶された各種のプログラムがRAM14に読み出され、CPU12で実行されることによって、記憶指示部21、読み出し指示部22、頭部検出部23、ボケ量検出部24、距離推定部25、及び運転操作可否判定部26としての処理を行う装置として成立する。
記憶指示部21は、単眼カメラ11で撮像された運転者30Aの頭部(顔)を含む画像データを記憶部15の一部である画像記憶部15aに記憶させる処理を行う。読み出し指示部22は画像記憶部15aから運転者30Aが撮像された画像11cを読み出す処理を行う。
頭部検出部23は、画像記憶部15aから読み出された画像11cから運転者30Aの頭部(顔)を検出する処理を行う。画像11cから頭部(顔)を検出する手法は特に限定されない。例えば、頭部(顔全体)の輪郭に対応した基準テンプレートを用いたテンプレートマッチング、頭部(顔)の構成要素(目、鼻、耳など)に基づくテンプレートマッチングによって頭部(顔)を検出するように構成してもよい。また、高速で高精度に頭部(顔)を検出する手法として、例えば、顔の局所的な領域、例えば、目の端点や口の端点、鼻の穴回りなどの顔器官の明暗差(輝度差)やエッジ強度、これら局所的領域間の関連性(共起性)を特徴量として捉え、これら多数の特徴量を組み合わせて学習することで検出器を作成し、階層的な構造(顔をおおまかにとらえる階層から顔の細部をとらえる階層構造)の検出器を用いる方法により、顔の領域検出を高速に行うことが可能となる。また、顔のボケ具合の違い、顔の向きや傾きに対応するために、顔のボケ具合、顔の向きや傾きごとに別々に学習させた複数の検出器を備えるようにしてもよい。
ボケ量検出部24は、頭部検出部23で検出された画像11c中の運転者30Aの頭部のボケ量を検出する処理を行う。画像中の運転者30A(被写体)のボケ量を検出する方法には、公知の手法が採用され得る。
例えば、撮像画像を分析することでボケ量を求める方法(非特許文献1参照)、画像の対数振幅スペクトル上に現れる暗い円環の半径から、ボケの特性を表現するPSF(Point Spread Function:点像分布関数)の推定を行う方法(非特許文献2参照)、画像の対数振幅スペクトル上の輝度こう配のベクトル分布を用いてボケの特性を表現し、PSFの推定を行う方法(非特許文献3)などを採用することができる。
また、撮像された画像を処理して被写体までの距離を測定する方法として、合焦位置に応じた画像ボケに着目するDFD(Depth from Defocus)法やDFF(Depth from Focus)法が知られている。DFD法は、焦点位置の異なる複数の画像を撮影して、光学ボケのモデル関数でボケ量をフィッティングし、ボケ量の変化から被写体に最もピントが合う位置を推定することで被写体までの距離を求める方法である。DFF法は、焦点位置をずらしながら撮影した多数の画像列の中で、最もピントの合った画像位置から距離を求める方法である。これら方法を利用してボケ量を推定することも可能である。
例えば、画像中のボケが薄レンズモデルに従うと仮定すると、ボケ量は上記点像分布関数(PSF)としてモデル化できる。一般にこのモデルとしてガウス関数が用いられる。これらを利用して、撮像された1枚又は2枚のボケを含んだ画像のエッジを解析しボケ量を推定する方法(非特許文献4)、撮像されたボケを含む画像(入力画像)と該入力画像を再度ぼかした平滑化画像とのエッジの潰れ方(エッジ強度の変化度合)を解析することによってボケ量を推定する方法(非特許文献5)などを採用することができる。また、非特許文献6には、DFD法がステレオ法と同じような仕組みで物体までの距離を測定できることが開示され、物体の画像が撮像素子面に投影されたときのブラー(ボケ)の円の半径を求める方法などが開示されている。これらDFD法などは、画像のボケ量と被写体距離との相関情報から距離を測定するものであり、単眼カメラ11を用いて実現可能である。これら方法を使用して、画像のボケ量を検出することができる。
図4は、ボケ量検出部24で検出されるボケ量dと運転者30までの距離との関係(DFD法又はDFF法の仕組み)について説明するための図である。
図4において、fはレンズ系11aと撮像素子11bとの距離、Zfはピントの合う焦点(フォーカス点)と撮像素子11bとの距離、Zblurはボケの生じている(デフォーカスされている)運転者30(被写体)と撮像素子11bとの距離、Fはレンズの焦点距離、Dはレンズ系11aの口径、dは被写体の画像が撮像素子に投影されたときのブラー(ボケ)の円(錯乱円)の半径であり、半径dがボケ量に相当する。
ボケ量dは、以下の式で示すことができる。
Figure 0006737212
なお、実線で示す光線L1は、ピントの合う焦点位置に運転者30がいるとき(図3(b)の状態)の光線を示している。一点鎖線で示す光線L2は、単眼カメラ11からの距離がピントの合う焦点位置よりも遠い位置に運転者30がいるとき(図3(a)の状態)の光線を示している。破線で示す光線L3は、単眼カメラ11からの距離がピントの合う焦点位置より近い位置に運転者30がいるとき(図3(c)状態)の光線を示している。
上記式は、ボケ量dと、ボケが生じているときの距離Zblurとが相関関係を有していることを示している。本実施の形態では、単眼カメラ11で撮像される被写体の画像のボケ量dと、単眼カメラ11から被写体までの距離Zとの相関関係を示すテーブル情報が予め作成されて、テーブル情報記憶部15bに記憶されている。
図5は、テーブル情報記憶部15bに記憶されているボケ量dと距離Zとの相関関係を示すテーブル情報の一例を示したグラフ図である。
ピントの合う焦点位置の距離Zfで、ボケ量dは略0となっている。運転者30までの距離Zがピントの合う焦点位置の距離Zfから外れる(距離Zblurに移動する)につれてボケ量dが大きくなる。運転席31の可動範囲Sで、ボケ量dが検出できるように、レンズ系11aの焦点距離や絞りの設定がなされている。なお、図5に破線で示すように、単眼カメラ11のレンズ系11aの焦点距離を大きく、又は絞りを開く(F値を小さくする)設定にすることで、ピント位置からのボケ量の変化を大きくすることができる。
距離推定部25は、ボケ量検出部24で検出されたボケ量dを用いて、運転席31に着座している運転者30の頭部から単眼カメラ11までの距離Z(奥行きに関する情報)を推定する処理を行う。すなわち、ボケ量検出部24で検出されたボケ量dを、上記したテーブル情報記憶部15bに記憶されたテーブル情報に当てはめて、運転席31に着座している運転者30の頭部から単眼カメラ11までの距離Zを推定する処理を行う。また、ボケ量検出部24において、頭部検出部23により検出された顔器官の特徴点部分、例えば、目の端点や口の端点、鼻の穴周りなどのコントラストがはっきりした特徴点部分のボケ量dを検出し、該ボケ量dを距離推定部25での推定処理に用いることにより、距離推定が容易になるとともに、距離推定の精度も高めることができる。
また、ボケ量dからでは、ピントの合う焦点位置(距離Zfの位置)から前後いずれの方向に外れているのかの判定が難しい場合は、時系列で取得した複数の画像中から運転者の顔領域の大きさを検出し、顔領域の大きさの変化(大きくなっていれば単眼カメラ11に近づいている一方、小さくなっていれば単眼カメラ11から離れている)を検出することによって、前記いずれの方向に外れているのかを判定することができる。また、前記テーブル情報の代わりに、ボケ量dと距離Zとの相関関係を示す式を用いて、ボケ量dから距離Zを求めてもよい。
運転操作可否判定部26は、距離推定部25で推定された距離Zを用いて、運転者30が運転操作可能な状態であるか否か、例えば、ROM13又は記憶部15に記憶された、ハンドルに手が届く範囲をRAM14に読み出し、比較演算を行うことにより、運転者30がハンドル32に手が届く範囲内にいるか否かを判定し、該判定結果を示す信号をHMI40や自動運転制御装置50へ出力する。また、距離Zから距離B(ハンドル32から単眼カメラ11までの距離)を引き、距離A(ハンドル32から運転者30までの距離)を求めて、上記判定を行ってもよい。
図6は、実施の形態に係る運転者状態推定装置10におけるCPU12の行う処理動作を示したフローチャートである。単眼カメラ11では、例えば、毎秒30〜60フレームの画像が撮像され、各フレーム、又は一定間隔のフレーム毎に本処理が行われる。
まず、ステップS1では、単眼カメラ11で撮像された1つ以上の画像データを画像記憶部15aから読み出し、ステップS2で、読み出した1つ以上の画像11cから運転者30Aの頭部(顔)領域を検出する処理を行う。
ステップS3では、画像11c中における運転者30Aの頭部のボケ量d、例えば、頭部領域の各画素のボケ量d、又は頭部のエッジ領域の各画素のボケ量dを検出する処理を行う。ボケ量dの検出処理は上記手法が採用され得る。
ステップS4では、画像11c中の運転者30Aの頭部のボケ量dを用いて、運転者30の頭部から単眼カメラ11までの距離Zを推定する。すなわち、テーブル情報記憶部15bから読み出した上記テーブル情報と、検出したボケ量dとを照合して、ボケ量dに対応する単眼カメラ11からの距離Zを決定する。また、距離Zを推定する際に、単眼カメラ11により撮像された複数の画像(時系列の画像)から運転者の顔領域の大きさの変化を検出し、単眼カメラ11のピントが合う焦点位置から前後いずれの方向に運転者が離れているのかを判定し、該判定結果とボケ量dとを用いて、距離Zを推定してもよい。
ステップS5では、距離Zを用いて、ハンドル32位置から運転者30の頭部までの距離Aを推定する。例えば、単眼カメラ11と運転者30との線分上にハンドル32がある場合、距離Zから単眼カメラ11とハンドル32との距離Bを引くことで、距離Aを推定する。
ステップS6では、RAM13又は記憶部15に記憶された、ハンドルに手が届く範囲を読み出し、比較演算を行うことにより、距離Aが、適切なハンドル操作が可能な範囲内(距離D<距離A<距離D)であるか否かを判定する。距離DからDの距離範囲は、運転者30が運転席31に着座した状態で、ハンドル32の操作が可能と推定される距離範囲、例えば、D1は40cm、距離D2は80cm程度の値に設定することができる。
ステップS6において、距離Aが適切なハンドル操作が可能な範囲内であると判断すれば、その後処理を終える一方、距離Aが適切なハンドル操作が可能な範囲内ではないと判断すればステップS7に進む。
ステップS7では、HMI40や自動運転制御装置50に運転操作不可信号を出力し、その後処理を終える。HMI40では、運転操作不可信号を入力した場合、例えば、表示部41に運転姿勢や座席位置を警告する表示や、音声出力部42より運転姿勢や座席位置を警告するアナウンスを実行する。また、自動運転制御装置50では、運転操作不可信号を入力した場合、例えば、減速制御などを実行する。
なお、上記ステップS5、S6の処理に代えて、RAM13又は記憶部15に記憶された、適切なハンドル操作が可能な範囲を読み出し、比較演算を行うことにより、距離Zが、適切なハンドル操作が可能と推定する範囲内(距離E<距離Z<距離E)であるか否かを判定する処理を行ってもよい。
この場合、距離E、Eは、例えば、上記した距離D、Dに、ハンドル32から単眼カメラ11までの距離Bを加算した値とすればよい。距離E、Eの距離範囲は、運転者30が運転席31に着座した状態で、ハンドル32の操作が可能と推定される距離範囲、例えば、距離Eは(40+距離B)cm、距離Eは(80+距離B)cm程度の値に設定することができる。
また、上記ステップS4、5、6に代えて、ボケ量検出部24で検出されたボケ量dが、所定範囲内のボケ量(ボケ量d<ボケ量d<ボケ量d)であるか否かにより、運転者が運転操作可能な位置にいるか否かを判断する処理を行ってもよい。
この場合、上記距離Z、又は距離Aがハンドル操作可能と推定される範囲内(上記距離Eから距離E、又は上記距離Dから距離D)でのボケ量(距離E、Dのときのボケ量d、距離E、Dときのボケ量dを含む)を予め作成したテーブル情報をテーブル情報記憶部15bに記憶しておき、上記判定時にボケ量のテーブル情報を読み出し、比較演算を行って判定するようにすればよい。
実施の形態に係る運転者状態推定装置10によれば、単眼カメラ11により撮像された運転者30の頭部のボケ具合の異なる画像を用いて、画像11c中の運転者30Aの頭部を検出し、該検出した画像11c中の運転者30Aの頭部のボケ量を検出し、該ボケ量を用いて、運転席31に着座している運転者30の頭部から単眼カメラ11までの距離Zが推定される。したがって、画像11c中の顔領域の中心位置を求めることなく、画像11c中の運転者30Aの頭部のボケ量dから距離Zを推定することができ、該推定された距離Zを用いて、運転席31に着座している運転者30の位置姿勢などの状態を推定することができる。
また、運転者状態推定装置10によれば、単眼カメラ11に加えて別のセンサを設けることなく、上記した運転者までの距離Zや距離Aを推定することができ、装置構成の簡素化を図ることができ、また、前記別のセンサを設ける必要がないため、それに伴う追加の処理も不要となり、CPU12にかかる負荷を低減させることができ、装置の小型化や低コスト化を図ることができる。
また、テーブル情報記憶部15bに、単眼カメラ11で撮像される運転者(被写体)の画像のボケ量と、運転者(被写体)から単眼カメラ11までの距離との対応関係を示すテーブル情報が記憶されており、ボケ量検出部24で検出されたボケ量dと、テーブル情報記憶部15bから読み出されたテーブル情報とが照合されて、運転席31に着座している運転者30の頭部から単眼カメラ11までの距離Zが推定されるので、テーブル情報にボケ量dを当てはめることにより、運転席31に着座している運転者30の頭部から単眼カメラ11までの距離Zを、演算処理に負荷をかけることなく高速に推定することができる。
また、距離推定部25で推定された距離Zを用いて、ハンドル32から運転者30までの距離Aを推定し、運転席31に着座している運転者30がハンドル操作可能な状態であるか否かを判定することができ、運転者30の監視を適切に行うことができる。
運転者状態推定装置10が自動運転システム1に搭載されることにより、運転者に自動運転の監視を適切に実行させることができ、自動運転での走行制御が困難状況になっても、手動運転への引き継ぎを迅速かつ安全に行うことができ、自動運転システム1の安全性を高めることができる。
(付記1)
撮像された画像を用いて運転者の状態を推定する運転者状態推定装置であって、
運転席に着座している運転者を撮像可能な撮像部と、
少なくとも1つの記憶部と、
少なくとも1つのハードウェアプロセッサとを備え、
前記少なくとも1つの記憶部が、
前記撮像部で撮像された画像を記憶する画像記憶部を備え、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像を前記画像記憶部に記憶させる記憶指示部と、
前記画像記憶部から前記運転者が撮像された画像を読み出す読み出し指示部と、
前記画像記憶部から読み出された前記画像中の運転者の頭部を検出する頭部検出部と、
該頭部検出部で検出された前記画像中の運転者の頭部のボケ量を検出するボケ量検出部と、
該ボケ量検出部で検出された前記ボケ量を用いて、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定する距離推定部とを備えている運転者状態推定装置。
(付記2)
運転席に着座している運転者を撮像可能な撮像部と、
少なくとも1つの記憶部と、
少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
前記運転席に着座している運転者の状態を推定する運転者状態推定方法であって、
前記少なくとも1つのハードウェアプロセッサが、
前記撮像部で撮像された画像を前記少なくとも1つの記憶部に含まれる画像記憶部に記憶させる記憶指示ステップと、
前記画像記憶部から前記運転者が撮像された画像を読み出す読み出し指示ステップと、
前記画像記憶部から読み出された前記画像中の運転者の頭部を検出する頭部検出ステップと、
該頭部検出ステップで検出された前記画像中の運転者の頭部のボケ量を検出するボケ量検出ステップと、
該ボケ量検出ステップで検出された前記ボケ量を用いて、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定する距離推定ステップとを含んでいる運転者状態推定方法。
1 自動運転システム
10 運転者状態推定装置
11 単眼カメラ
11a レンズ系
11b 撮像素子
11c 画像
12 CPU
13 ROM
14 RAM
15 記憶部
15a 画像記憶部
15b テーブル情報記憶部
16 I/F
17 通信バス
21 記憶指示部
22 読み出し指示部
23 頭部検出部
24 ボケ量検出部
25 距離推定部
26 運転操作可否判定部
30、30A 運転者
31 運転席
32 ハンドル
40 HMI
50 自動運転制御装置
60 通信バス

Claims (5)

  1. 撮像された画像を用いて運転者の状態を推定する運転者状態推定装置であって、
    運転席に着座している運転者を撮像可能な撮像部と、
    少なくとも1つのハードウェアプロセッサとを備え、
    該少なくとも1つのハードウェアプロセッサが、
    前記撮像部により撮像された画像中の運転者の頭部を検出する頭部検出部と、
    該頭部検出部で検出された前記画像中の運転者の頭部のボケ量を検出するボケ量検出部と、
    該ボケ量検出部で検出された前記ボケ量を用いて、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定する距離推定部とを備え
    該距離推定部が、
    前記撮像部により撮像された複数の画像から検出された前記運転者の顔領域の大きさの変化を考慮して、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定するものであることを特徴とする運転者状態推定装置。
  2. 前記運転席に着座している運転者の頭部から前記撮像部までの距離と、前記撮像部で撮像される前記運転者の画像のボケ量との相関関係を示すテーブル情報を記憶するテーブル情報記憶部を備え、
    前記距離推定部が、
    前記ボケ量検出部で検出された前記ボケ量と、前記テーブル情報記憶部から読み出された前記テーブル情報とを照合して、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定するものであることを特徴とする請求項1記載の運転者状態推定装置。
  3. 前記少なくとも1つのハードウェアプロセッサが、
    前記距離推定部で推定された前記距離を用いて、前記運転席に着座している運転者が運転操作可能な状態であるか否かを判定する運転操作可否判定部を備えていることを特徴とする請求項1又は請求項2記載の運転者状態推定装置。
  4. 前記撮像部が、前記運転席に着座している運転者の位置姿勢の変化に応じて前記運転者の頭部のボケ具合が異なる画像を撮像可能なものであることを特徴とする請求項1〜のいずれかの項に記載の運転者状態推定装置。
  5. 運転席に着座している運転者を撮像可能な撮像部と、
    少なくとも1つのハードウェアプロセッサとを備えた装置を用い、
    前記運転席に着座している運転者の状態を推定する運転者状態推定方法であって、
    前記少なくとも1つのハードウェアプロセッサが、
    前記撮像部により撮像された画像中の運転者の頭部を検出する頭部検出ステップと、
    該頭部検出ステップで検出された前記画像中の運転者の頭部のボケ量を検出するボケ量検出ステップと、
    該ボケ量検出ステップで検出された前記ボケ量を用いて、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定する距離推定ステップとを含み、
    該距離推定ステップが、
    前記撮像部により撮像された複数の画像から検出された前記運転者の顔領域の大きさの変化を考慮して、前記運転席に着座している運転者の頭部から前記撮像部までの距離を推定することを特徴とする運転者状態推定方法。
JP2017048503A 2017-03-14 2017-03-14 運転者状態推定装置、及び運転者状態推定方法 Expired - Fee Related JP6737212B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017048503A JP6737212B2 (ja) 2017-03-14 2017-03-14 運転者状態推定装置、及び運転者状態推定方法
DE112017007243.3T DE112017007243T5 (de) 2017-03-14 2017-07-27 Fahrerzustandsabschätzungsvorrichtung undfahrerzustandsabschätzungsverfahren
CN201780084001.0A CN110199318B (zh) 2017-03-14 2017-07-27 驾驶员状态推定装置以及驾驶员状态推定方法
US16/481,846 US20200065595A1 (en) 2017-03-14 2017-07-27 Driver state estimation device and driver state estimation method
PCT/JP2017/027245 WO2018167996A1 (ja) 2017-03-14 2017-07-27 運転者状態推定装置、及び運転者状態推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017048503A JP6737212B2 (ja) 2017-03-14 2017-03-14 運転者状態推定装置、及び運転者状態推定方法

Publications (3)

Publication Number Publication Date
JP2018151931A JP2018151931A (ja) 2018-09-27
JP2018151931A5 JP2018151931A5 (ja) 2019-04-18
JP6737212B2 true JP6737212B2 (ja) 2020-08-05

Family

ID=63522872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017048503A Expired - Fee Related JP6737212B2 (ja) 2017-03-14 2017-03-14 運転者状態推定装置、及び運転者状態推定方法

Country Status (5)

Country Link
US (1) US20200065595A1 (ja)
JP (1) JP6737212B2 (ja)
CN (1) CN110199318B (ja)
DE (1) DE112017007243T5 (ja)
WO (1) WO2018167996A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7313211B2 (ja) * 2019-07-03 2023-07-24 株式会社Fuji 組付機
JP7170609B2 (ja) * 2019-09-12 2022-11-14 株式会社東芝 画像処理装置、測距装置、方法及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7570785B2 (en) * 1995-06-07 2009-08-04 Automotive Technologies International, Inc. Face monitoring system and method for vehicular occupants
US7508979B2 (en) * 2003-11-21 2009-03-24 Siemens Corporate Research, Inc. System and method for detecting an occupant and head pose using stereo detectors
CN1937763A (zh) * 2005-09-19 2007-03-28 乐金电子(昆山)电脑有限公司 移动通讯终端机的困倦感知装置及其困倦驾驶感知方法
JP6140935B2 (ja) * 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US9530213B2 (en) * 2013-01-02 2016-12-27 California Institute Of Technology Single-sensor system for extracting depth information from image blur
JP2014218140A (ja) 2013-05-07 2014-11-20 株式会社デンソー 運転者状態監視装置、および運転者状態監視方法
JP2015036632A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法
JP6429444B2 (ja) * 2013-10-02 2018-11-28 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
JP6056746B2 (ja) * 2013-12-18 2017-01-11 株式会社デンソー 顔画像撮影装置、および運転者状態判定装置
JP6273921B2 (ja) * 2014-03-10 2018-02-07 サクサ株式会社 画像処理装置
JP2015194884A (ja) * 2014-03-31 2015-11-05 パナソニックIpマネジメント株式会社 運転者監視システム
CN103905735B (zh) * 2014-04-17 2017-10-27 深圳市世尊科技有限公司 具有动态追拍功能的移动终端及其动态追拍方法
TWI537872B (zh) * 2014-04-21 2016-06-11 楊祖立 辨識二維影像產生三維資訊之方法
JP6372388B2 (ja) * 2014-06-23 2018-08-15 株式会社デンソー ドライバの運転不能状態検出装置
JP6331875B2 (ja) * 2014-08-22 2018-05-30 株式会社デンソー 車載制御装置
US9338363B1 (en) * 2014-11-06 2016-05-10 General Electric Company Method and system for magnification correction from multiple focus planes
JP2016110374A (ja) * 2014-12-05 2016-06-20 富士通テン株式会社 情報処理装置、情報処理方法、および、情報処理システム
CN105227847B (zh) * 2015-10-30 2018-10-12 上海斐讯数据通信技术有限公司 一种手机的相机拍照方法和系统

Also Published As

Publication number Publication date
CN110199318A (zh) 2019-09-03
US20200065595A1 (en) 2020-02-27
DE112017007243T5 (de) 2019-12-12
WO2018167996A1 (ja) 2018-09-20
JP2018151931A (ja) 2018-09-27
CN110199318B (zh) 2023-03-07

Similar Documents

Publication Publication Date Title
EP2360638B1 (en) Method, system and computer program product for obtaining a point spread function using motion information
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
JP6700872B2 (ja) 像振れ補正装置及びその制御方法、撮像装置、プログラム、記憶媒体
JP6395506B2 (ja) 画像処理装置および方法、プログラム、並びに撮像装置
US20130223759A1 (en) Image processing method and device, and program
JP2009116742A (ja) 車載用画像処理装置、画像処理方法、および、プログラム
JP6479272B1 (ja) 視線方向較正装置、視線方向較正方法および視線方向較正プログラム
JP2015194884A (ja) 運転者監視システム
EP3545818A1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
JP2015118287A (ja) 顔画像撮影装置、および運転者状態判定装置
JP2018004918A5 (ja)
JP6737212B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
JP2007257333A (ja) 車両乗員顔向き検出装置および車両乗員顔向き検出方法
JP6971582B2 (ja) 状態検出装置、状態検出方法、及びプログラム
JP6708152B2 (ja) 運転者状態推定装置、及び運転者状態推定方法
US20210243361A1 (en) Image processing apparatus, image pickup apparatus, and control method of image processing apparatus
JP4668863B2 (ja) 撮像装置
JP2009244944A (ja) 画像回復装置および撮影装置
KR101610496B1 (ko) 시선 추적 방법 및 장치
JP6204844B2 (ja) 車両のステレオカメラシステム
JP6597467B2 (ja) 顔向き計測装置
KR101745260B1 (ko) 시선 추적기의 캘리브레이션 장치 및 그 방법
JP2019209380A5 (ja)
JP2014216694A (ja) 高解像度化処理付き追尾雲台装置
US20210082140A1 (en) Estimation device, estimation method, and computer program product

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R150 Certificate of patent or registration of utility model

Ref document number: 6737212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees