JP6939580B2 - 車両用画像合成装置 - Google Patents

車両用画像合成装置 Download PDF

Info

Publication number
JP6939580B2
JP6939580B2 JP2018001883A JP2018001883A JP6939580B2 JP 6939580 B2 JP6939580 B2 JP 6939580B2 JP 2018001883 A JP2018001883 A JP 2018001883A JP 2018001883 A JP2018001883 A JP 2018001883A JP 6939580 B2 JP6939580 B2 JP 6939580B2
Authority
JP
Japan
Prior art keywords
image
boundary
similarity
camera
compositing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018001883A
Other languages
English (en)
Other versions
JP2019121270A (ja
JP2019121270A5 (ja
Inventor
洋介 酒井
洋介 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2018001883A priority Critical patent/JP6939580B2/ja
Priority to PCT/JP2018/045894 priority patent/WO2019138771A1/ja
Priority to DE112018006812.9T priority patent/DE112018006812T5/de
Priority to CN201880085804.2A priority patent/CN111566698A/zh
Publication of JP2019121270A publication Critical patent/JP2019121270A/ja
Publication of JP2019121270A5 publication Critical patent/JP2019121270A5/ja
Priority to US16/921,311 priority patent/US11270440B2/en
Application granted granted Critical
Publication of JP6939580B2 publication Critical patent/JP6939580B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両用画像合成装置に関する。
近年、車両の運転中に、運転者の顔をカメラで撮影し、撮影した顔画像に基づいて運転者の状態として例えば居眠りや脇見などを検出し、安全運転ができる状態ではないと判断したときに、警報を行う装置が知られている。運転中、運転者は車両のインストルメントパネルのメータを視認することから、運転者の顔を撮影するカメラは、車両のメータ付近に設置されている。しかし、メータと運転者の間にはステアリングホイールが配設されており、特に、チルト機構によりステアリングホイールの位置を動かせる車両では、ステアリングホイールが運転者の顔を隠すため、カメラで運転者の顔を良好に撮影できないおそれがあった。
特開2007−069680号公報 特許第4989762号公報
本発明の目的は、カメラで運転者の顔を撮影したときに、運転者の顔を良好に撮影した画像を得ることができる車両用画像合成装置を提供することにある。
請求項1の発明は、車両に搭載され運転者を異なる位置から撮影する第1カメラ(2)および第2カメラ(3)と、前記第1および第2カメラで撮影された2つの画像を比較して合成に適した境界を検出する境界検出部(12)と、前記2つの画像を、運転者の画像の隠れた部分がなくなるように前記境界において合成する合成部(13)とを備え、ステアリングホイールのチルト位置に基づいて計算により境界を設定するように構成された車両用画像合成装置である。
第1実施形態を示す車両用画像合成装置のブロック図 ステアリング、メータ及びカメラ等を示す図 ステアリング、メータ、カメラ及びドライバ等を示す縦断側面図 上カメラ画像を示す図 下カメラ画像を示す図 合成画像を示す図 上カメラ画像の行領域画像を説明する図 下カメラ画像の行領域画像を説明する図 類似度が一番高い行領域画像で合成した合成画像を示す図 画像合成制御のフローチャート 合成判定制御のフローチャート 合成条件探索制御のフローチャート 第2実施形態を示すものであり、ステアリング、メータ及びカメラ等を示す図 カメラ及びドライバ等を示す上面図 上カメラ画像を示す図 下カメラ画像を示す図 下カメラ画像を回転移動させた画像を示す図 合成画像を示す図 第3実施形態を示すものであり、合成画像を示す図 第4実施形態を示す合成条件探索制御のフローチャート
(第1実施形態)
以下、第1実施形態の車両用画像合成装置について、図1ないし図12を参照して説明する。図1は、車両用画像合成装置1の電気的構成を示す。車両用画像合成装置1は、図1に示すように、上カメラ2と、下カメラ3と、チルト位置センサ4と、ステアリング角度センサ5と、制御装置6とを備えて構成されている。
上カメラ2は、第1カメラを構成するものであり、図2及び図3に示すように、車両のインストルメントパネルに設けられたメータ7における上辺部の中央部に配設されている。上カメラ2は、運転者の顔を連続的に撮影し、撮影した画像データを制御装置6に送信する。上カメラ2は、例えば30フレーム/s程度の速度で連続撮影する機能を有する。
下カメラ3は、第2カメラを構成するものであり、図2及び図3に示すように、車両のメータ7における下辺部の中央部に配設されている。上カメラ2と下カメラ3は、上下方向に、即ち、鉛直方向に設定距離離れて配設されている。上カメラ2及び下カメラ3は、運転者の顔の正面に対向するように配設されている。下カメラ3は、運転者の顔を連続的に撮影し、撮影した画像データを制御装置6に送信する。下カメラ3は、例えば30フレーム/s程度の速度で連続撮影する機能を有する。
図3に示すように、上カメラ2は、実線と破線で示す範囲の領域を撮影し、撮影された上カメラ画像は、図4に示すような画像となり、運転者の顔の上部がステアリングホイール8で隠れている。上カメラ2は、運転者の顔の中央部分から下部側を、即ち、実線で示す範囲の領域をステアリングホイール8で隠されることなく良好に撮影することが可能である。
そして、下カメラ3は、実線と破線で示す範囲の領域を撮影し、撮影された下カメラ画像は、図5に示すような画像となり、運転者の顔の下部がステアリングコラム9で隠れている。下カメラ3は、運転者の顔の中央部分から上部側を、即ち、実線で示す範囲の領域をステアリングコラム9で隠されることなく良好に撮影することが可能である。
チルト位置センサ4は、ステアリングコラム9のチルト機構によりステアリングホイール8が移動されたときに、ステアリングホイール8の位置を検出し、ステアリングホイール8の位置の検出信号を制御装置6に送信する。ステアリング角度センサ5は、ステアリングホイール8が回転操作されたときに、ステアリングホイール8の回転角度を検出し、ステアリングホイール8の回転角度の検出信号を制御装置6に送信する。
制御装置6は、車両用画像合成装置1全体を制御する機能を有しており、画像合成処理部10と、画像認識処理部11とを備えている。画像合成処理部10は、境界検出部12及び合成部13を備えている。画像合成処理部10は、上カメラ2及び下カメラ3からの画像データ、チルト位置センサ4及びステアリング角度センサ5からの検出信号、車両からの車両情報を入力する。
画像合成処理部10の境界検出部12は、上カメラ2で撮影された上カメラ画像(図4参照)と、下カメラ3で撮影された下カメラ画像(図5参照)を入力し、これら2つの画像をステアリングホイール8やステアリングコラム9等で隠される部分がなくなるように合成するのに適した境界を検出する機能を有する。そして、画像合成処理部10の合成部13は、上記検出された境界において上カメラ画像と下カメラ画像を合成することにより、図6に示すような合成画像を作成する機能を有する。
画像認識処理部11は、画像合成処理部10で合成された合成画像や、カメラ2、3で撮影されたカメラ画像を入力し、入力した画像、即ち、運転者の顔画像を画像認識処理する機能を有する。画像認識処理部11は、画像認識処理によって、運転者の状態として例えば居眠りや脇見などを判定したり、安全運転ができる状態であるかどうかなどを判定したりする機能を有する。
次に、上記構成の作用、即ち、上カメラ画像と下カメラ画像を合成する制御について、図7ないし図12を参照して説明する。まず、本合成制御の概略について述べる。上カメラ画像を、図7に示すように、上下方向に行単位で複数の行領域画像15に分割すると共に、下カメラ画像を、図8に示すように、上下方向に行単位で複数の行領域画像16に分割する。そして、上カメラ画像を分割した行領域画像15と、下カメラ画像を分割した行領域画像16を比較し、類似度を算出する。この類似度の算出は、上カメラ画像の全ての行領域画像15と、下カメラ画像の全ての行領域画像16とについて、それぞれ実行するように構成されている。
そして、類似度が一番高い行領域画像15、16を境界、即ち、境界領域または境界線とすることにより、境界を検出する構成となっている。続いて、上カメラ画像と上カメラ画像を上記境界において合成する。この場合、上カメラ画像については、類似度が一番高い行領域画像15よりも下の画像部分17と、下カメラ画像については、類似度が一番高い行領域画像16よりも上の画像部分18とを合成する。これにより、図9に示す合成画像が作成されるように構成されている。尚、類似度が一番高い行領域画像15、16については、いずれか一方を採用するようになっている。
次に、本合成制御の具体的内容について、図10ないし図12のフローチャートを参照して説明する。尚、図10ないし図12のフローチャートは、制御装置6、即ち、画像合成処理部10及び画像認識処理部11の制御の内容を示す。
まず、図10のステップS10においては、上カメラ2と下カメラ3により運転者の顔が撮影され、画像合成処理部10は、上カメラ2と下カメラ3で撮影された上カメラ画像と下カメラ画像を入力する。続いて、ステップS20へ進み、画像合成処理部10は、入力した上カメラ画像と下カメラ画像を合成するか否かを判定する合成判定処理を実行する。この合成判定処理については、後述する。
そして、ステップS30へ進み、合成判定がOKであるか否かを判断する。ここで、合成判定がOKでないときには(NO)、ステップS10へ戻るようになっている。また、上記ステップS30において、合成判定がOKであるときには(YES)、ステップS40へ進み、画像の合成条件を設定する、具体的には、上記ステップS20の合成判定処理において探索された合成条件例えば検出された境界領域の行領域画像15、16を設定する。
次いで、ステップS50へ進み、上カメラ2と下カメラ3により運転者の顔が撮影され、画像合成処理部10は、上カメラ2と下カメラ3で撮影された上カメラ画像と下カメラ画像を入力する。尚、ステップS10で撮影された画像の合成が行われていないときには、このステップS50の撮影は、1回飛ばすことが好ましい。
続いて、ステップS60へ進み、画像合成処理部10の合成部13により、上カメラ画像と下カメラ画像が、設定された境界領域の行領域画像15、16を境界にして合成される。これにより、図9に示す合成画像が作成され、作成された合成画像は制御装置6の内部のメモリに記憶される。そして、ステップS70へ進み、画像認識処理部11は、上記合成画像に写っている運転者の顔画像について、画像認識処理を実行し、運転者の状態を判断する。この顔画像認識処理については、周知構成の画像認識処理を用いることが好ましい。
次いで、ステップS80へ進み、合成条件を再設定するかどうかを判定する処理を実行する。この場合、チルト位置センサ4やステアリング角度センサ5からの検出信号により、ステアリングホイール8が移動したり、回転したりしたことが検知された場合、再設定が必要と判定される。また、合成条件が設定されてから、予め決められた設定時間が経過したときにも、再設定が必要と判定される。
続いて、ステップS90へ進み、合成条件を再設定するか否かを判断する。ここで、合成条件を再設定しないときには(NO)、ステップS50へ戻り、上述した処理、即ち、上カメラ2及び下カメラ3による撮影処理や、画像の合成処理等が繰り返し実行される。また、上記ステップS90において、合成条件を再設定するときには(YES)、ステップS10へ戻り、上述した処理、即ち、上カメラ2及び下カメラ3による撮影処理や、合成判定処理や、合成条件の再設定処理や、画像の合成処理等が繰り返し実行される。
次に、前記ステップS20の合成判定処理について、図11のフローチャートを参照して説明する。まず、図11のステップS110においては、上カメラ画像にステアリングホイール8等による隠れ部分がないかどうかを判断する。ここで、上カメラ画像に隠れ部分がないときには(YES)、ステップS120へ進み、合成条件として上カメラ画像のみと設定する。続いて、ステップS130へ進み、合成判定はOKと設定する。これにより、図11の制御を終了し、図10の制御へ戻り、ステップS30へ進む。
また、上記ステップS110において、上カメラ画像に隠れ部分があるときには(NO)、ステップS140へ進み、下カメラ画像にステアリングホイール8等による隠れ部分がないかどうかを判断する。ここで、下カメラ画像に隠れ部分がないときには(YES)、ステップS150へ進み、合成条件として下カメラ画像のみと設定する。続いて、ステップS160へ進み、合成判定はOKと設定する。これにより、図11の制御を終了し、図10の制御へ戻り、ステップS30へ進む。
また、上記ステップS140において、下カメラ画像に隠れ部分があるときには(NO)、ステップS170へ進み、合成条件を探索する処理を実行する。この合成条件探索処理については、後述する。そして、合成条件探索処理を完了すると、図11の制御を終了し、図10の制御へ戻り、ステップS30へ進む。
次に、上記ステップS170の合成条件探索処理について、図12のフローチャートを参照して説明する。この合成条件探索処理は、画像合成処理部10の境界検出部12によって実行される。ここで、合成条件探索処理の概略について述べる。まず、一方のカメラ画像である例えば上カメラ画像の最初の行領域画像を切り出し、この行領域画像と、他方のカメラ画像である例えば下カメラ画像の最初の行領域画像とを比較して類似度、即ち、類似スコアを算出する。そして、この比較及び類似度算出を、下カメラ画像の上記最初の行領域画像から最後の行領域画像まで全て実行する。その後、上カメラ画像の次の行領域画像を切り出し、この行領域画像についても、下カメラ画像の全ての行領域画像と比較して類似度を算出する。以下、このような比較及び類似度算出を、上カメラ画像の最後の行領域画像まで、順次実行する。そして、算出した類似度の中の最大値の類似度となった行領域画像を境界として選択する。尚、図12のフローチャートにおける変数や定数は、次のように定義されている。
iは上カメラ画像の切出行領域の変数
INIT_iは上カメラ画像の切出行領域の初期値
STEP_iは上カメラ画像の切出行領域の更新値
max_iは上カメラ画像の切出行領域の終了値
jは下カメラ画像の比較行領域の変数
INIT_jは下カメラ画像の比較行領域の初期値
STEP_jは下カメラ画像の比較行領域の更新値
max_jは下カメラ画像の比較行領域の終了値
である。
次に、合成条件探索処理について、具体的に説明する。まず、図12のステップS210においては、上カメラ画像の切出行領域の変数iに初期値INIT_iを入力する。続いて、ステップS220へ進み、上カメラ画像のi行領域画像を切り出す、即ち、読み出して取得する。そして、ステップS230へ進み、下カメラ画像の比較行領域の変数jに初期値INIT_jを入力する。続いて、ステップS240へ進み、上カメラ画像のi行領域画像と、下カメラ画像のj行領域画像とを比較し、類似度を算出する。次いで、ステップS250へ進み、算出された類似度を制御装置6内のメモリに保存する。この場合、類似度に、上カメラ画像のi行領域画像の変数iと下カメラ画像のj行領域画像の変数jを付加して保存する。
続いて、ステップS260へ進み、変数jを更新値STEP_jだけ更新する。そして、ステップS270へ進み、変数jが終了値max_jよりも大きくなったか否かを判断する。ここで、jがmax_jよりも大きくないときには(NO)、ステップS240へ戻り、上述した処理を繰り返し実行する。
また、上記ステップS270において、jがmax_jよりも大きくなったときには(YES)、ステップS280へ進み、変数iを更新値STEP_iだけ更新する。そして、ステップS290へ進み、変数iが終了値max_iよりも大きくなったか否かを判断する。ここで、iがmax_iよりも大きくないときには(NO)、ステップS220へ戻り、上述した処理を繰り返し実行する。
また、上記ステップS290において、iがmax_iよりも大きくなったときには(YES)、ステップS300へ進み、算出された類似度の最大値が、予め設定された合成判定用の閾値以上であるか否かを判断する。ここで、類似度の最大値が合成判定用の閾値以上であるときには(YES)、ステップS310へ進み、合成条件の境界領域として、類似度最大値の上カメラ画像の行領域画像と下カメラ画像の行領域画像の組み合わせを選択して設定する。そして、ステップS320へ進み、合成判定をOKと設定する。これにより、本制御を終了し、図11の制御ひいては図10の制御へ戻る。
また、上記ステップS300において、類似度の最大値が合成判定用の閾値以上でないときには(NO)、ステップS330へ進み、合成判定をNGと設定する。これにより、本制御を終了し、図11の制御ひいては図10の制御へ戻り、再度撮影し、再度合成判定を行うようになっている。
このような構成の本実施形態においては、カメラ2、3で撮影された2つのカメラ画像を比較して合成に適した境界、即ち、類似度が一番高い行領域画像15、16を検出し、前記2つのカメラ画像を、前記類似度が一番高い行領域画像15、16において合成するように構成した。この構成によれば、2つのカメラで撮影した2つの画像を、1つの画像に良好に合成することができる。従って、カメラ2、3で運転者の顔を撮影したときに、運転者の顔を良好に撮影した画像、即ち、良好な合成画像を得ることができる。
また、上記実施形態では、上カメラ2で撮影された上カメラ画像を複数の行領域に分割した行領域画像15と、下カメラ3で撮影された下カメラ画像を複数の行領域に分割した行領域画像16との類似度を算出し、類似度が一番高い行領域画像を前記境界として検出するように構成した。この構成によれば、画像合成の境界を、簡単な構成にて容易且つ確実に検出することができる。
また、上記実施形態では、上カメラ画像または下カメラ画像に、隠れた部分がない運転者が写っている場合、隠れた部分がない運転者が写っているカメラ画像を用いることにより、画像の合成を行なわないように構成した。この構成によれば、画像の合成を行なわないので、画像合成する場合に比べて、画像認識処理全体に要する時間を短くすることができる。
また、上記実施形態では、チルト機構によりステアリングホイールが移動されたとき、または、画像合成処理や画像認識処理が実行されてから設定時間が経過したときには、前記境界検出部により境界を検出する処理を再度実行するように構成した。この構成によれば、画像合成の境界を検出する処理を、必要最小限しか実行せず、画像合成処理時に毎回実行しない、即ち、設定時間程度の間は、画像合成処理時に境界の条件を固定しているので、多数の合成画像を合成する際に、合成に要する時間を大幅に短縮することができる。
尚、上記実施形態においては、上カメラ画像または下カメラ画像における類似度算出の範囲、即ち、INIT_i、max_i、INIT_j、max_jを、ステアリングホイール8の位置や角度等に応じて変更しても良いし、行領域画像の更新値STEP_i、STEP_jを適宜変更しても良い。このように構成すると、計算対象の画像が小さくなって、計算量を少なくすることが可能となるから、制御装置6の処理負荷を軽減することができる。
(第2実施形態)
図13ないし図18は、第2実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第2実施形態では、図13及び図14に示すように、2台のカメラ2、3が水平方向にずれて配設されている。具体的には、下カメラ3が、上カメラ2に対して水平方向に所定距離離れて配設されている。尚、上カメラ2は、ドライバの顔の正面に対向するように配設されている。この構成の場合、ずれをなくすように下カメラ画像を回転移動させた画像を生成してから、2つの画像を合成するように構成されている。制御装置6の画像合成処理部10は、画像生成部としての機能を有している。
第2実施形態において、上カメラ2により撮影された上カメラ画像は、図15に示すような画像となる。そして、下カメラ3により撮影された下カメラ画像は、図16に示すような画像となる。上カメラ画像の運転者の顔は正面を向いているが、下カメラ画像の運転者の顔はやや斜めを向いており、このままでは、両画像を合成すると、不自然な顔になってしまう。
そこで、第2実施形態では、制御装置6は、下カメラ画像を例えばアフィン変換等を行なうことにより回転移動させ、図17に示すような回転移動画像を作成し、この回転移動画像をメモリに記憶する。そして、制御装置6は、下カメラ画像の上記回転移動画像と上カメラ画像を第1実施形態の画像合成制御を用いて合成するように構成されている。これにより、図18に示すような良好な合成画像を得ることができる。
上述した以外の第2実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第2実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。特に、第2実施形態によれば、2台のカメラ2、3が水平方向にずれて配設されている場合に、ずれをなくすようにカメラ画像を回転移動させた画像を生成してから、2つの画像を合成するように構成したので、良好な合成画像を合成することができる。
(第3実施形態)
図19は、第3実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第3実施形態では、図19において破線の矩形領域で示すように、画像合成や画像認識処理に使用する画像データの大きさを小さくするように構成した。この構成の場合、制御装置6の画像合成処理部10は、画像縮小部としての機能を有する。
具体的には、最初に、第1実施形態の画像合成制御を用いて、上カメラ画像と下カメラ画像を合成し、図19に示すような合成画像21を作成する。この合成画像21について、運転者の顔の画像認識処理を行なうことにより、顔画像の大きさと位置を検出する。そして、この検出した顔画像の大きさと位置の情報に基づいて、画像合成や画像認識処理に必要な画像の大きさを、図19にて破線の矩形領域で示すように設定して、合成画像21よりも小さくする。
この後、上カメラ画像と下カメラ画像を合成する場合、上カメラ画像及び下カメラ画像それぞれについて、上記破線の矩形領域で示す部分に対応する部分画像またはこの部分画像よりも少し大きい程度の大きさの部分画像を用いて、第1実施形態の画像合成制御とほぼ同様の合成処理を実行する。そして、合成した画像に対して、画像認識処理を行なう場合も、上記破線の矩形領域で示す部分を用いて画像認識処理を実行するように構成されている。
上述した以外の第3実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第3実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。特に、第3実施形態によれば、画像合成や画像認識処理に使用する画像データを小さくするように構成したので、制御装置6の処理負荷を低減することができる。
(第4実施形態)
図20は、第4実施形態を示すものである。尚、第1実施形態と同一構成には、同一符号を付している。第4実施形態では、上カメラ画像の行領域画像と、下カメラ画像の行領域画像との類似度を算出しているときに、類似度が予め設定された境界判定用の閾値以上になったとき、類似度の算出を止めて、類似度が境界判定用の閾値以上になった行領域画像を境界として検出するように構成した。
具体的には、図20のステップS210〜S250は、第1実施形態と同様に実行し、ステップS250の後、ステップS410に進む。このステップS410では、算出された類似度が境界判定用の閾値以上であるか否かを判断する。ここで、類似度が境界判定用の閾値以上でないときには(NO)、ステップS260へ進み、これ以降ステップS330まで、第1実施形態と同様に実行する。
また、上記ステップS410において、類似度が境界判定用の閾値以上であるときには(YES)、ステップS420へ進み、合成条件の境界領域として、境界判定用の閾値以上となった類似度の上カメラ画像の行領域画像と下カメラ画像の行領域画像の組み合わせを選択して設定する。そして、ステップS320へ進み、合成判定をOKと設定し、本制御を終了する。
上述した以外の第4実施形態の構成は、第1実施形態の構成と同じ構成となっている。従って、第4実施形態においても、第1実施形態とほぼ同じ作用効果を得ることができる。特に、第4実施形態によれば、類似度を算出している途中で、類似度が境界判定用の閾値以上になったときに、類似度の算出を止めて、類似度が境界判定用の閾値以上になった行領域画像を境界として検出するように構成したので、境界検出処理に要する時間、ひいては、画像合成に要する時間を短縮することができる。
尚、上記各実施形態では、上カメラ画像の行領域画像と、下カメラ画像の行領域画像とを比較して類似度を算出するように構成したが、これに限られるものではなく、行領域画像に代えて列領域画像を比較するように構成しても良い。列領域画像は、カメラ画像を横方向に列単位で複数に分割した領域である。また、上カメラ画像及び下カメラ画像を複数の所定の大きさの矩形状の画像領域に分割し、分割した矩形状の画像領域を比較するように構成しても良い。
また、上記各実施形態では、2個のカメラ2、3を配設した構成に適用したが、これに限られるものではなく、3個以上のカメラを配設し、3個以上のカメラで撮影した3つ以上のカメラ画像を合成する構成に適用しても良い。
また、上記各実施形態では、類似度を算出し、類似度が一番高い行領域画像15、16を境界とするように構成したが、これに限られるものではなく、ステアリングホイールのチルト位置、ステアリング角度、車両情報に含まれる車両パラメータ、例えば、カメラ設置条件、ステアリング形状、ドライバポジション等の種々の車両パラメータ、画像認識処理部11の顔認識結果の情報などを用いて、境界を検出するために類似度を算出する上カメラ画像及び下カメラ画像の画像領域を狭くするように構成しても良い。このように構成すると、境界の検出時間や制御装置6の処理負荷を低減できる。
また、類似度の算出を止めて、ステアリングホイールのチルト位置やステアリング角度や車両パラメータに基づいて計算により合成に適した境界、即ち、合成に適した境界とする行領域画像を検出して設定するように構成しても良い。このように構成すると、類似度を算出しないので、境界を検出するのに要する時間を大幅に短縮することができる。
本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
図面中、1は車両用画像合成装置、2は上カメラ(第1カメラ)、3は下カメラ(第2カメラ)、4はチルト位置センサ、5はステアリング角度センサ、6は制御装置、8はステアリングホイール、9はステアリングコラム、10は画像合成処理部(境界検出部、合成部、画像生成部、画像縮小部)、11は画像認識処理部、15、16は行領域画像、21は合成画像である。

Claims (8)

  1. 車両に搭載され運転者を異なる位置から撮影する第1カメラ(2)および第2カメラ(3)と、
    前記第1および第2カメラで撮影された2つの画像を比較して合成に適した境界を検出する境界検出部(12)と、
    前記2つの画像を、運転者の画像の隠れた部分がなくなるように前記境界において合成する合成部(13)と
    を備え
    前記境界検出部は、ステアリングホイールのチルト位置に基づいて計算により境界を設定するように構成された車両用画像合成装置。
  2. 前記境界検出部は、前記第1カメラで撮影された第1画像を複数の行領域に分割した行領域画像と、前記第2カメラで撮影された第2画像を複数の行領域に分割した行領域画像との類似度を算出し、類似度が一番高い行領域画像を前記境界として検出するように構成された請求項1記載の車両用画像合成装置。
  3. 前記境界検出部は、前記第1画像の行領域画像と、前記第2画像の行領域画像との類似度を算出しているときに、類似度が予め設定された境界判定用の閾値以上になったとき、類似度の算出を止めて、類似度が閾値以上になった行領域画像を境界として検出するように構成された請求項2記載の車両用画像合成装置。
  4. 前記境界検出部は、両パラメータに基づいて計算により境界を設定するように構成された請求項1記載の車両用画像合成装置。
  5. 2台のカメラが水平方向または垂直方向にずれて配設されている場合、ずれをなくすように第1画像または第2画像を回転移動させた画像を生成する画像生成部(10)を備え、
    前記回転移動させた画像を用いて合成を行なうように構成された請求項2記載の車両用画像合成装置。
  6. 画像認識結果に基づいて、画像を小さくできると判定された場合、前記画像から顔認識に必要な領域を設定して画像を小さくする画像縮小部(10)を備え、
    前記画像を小さくした画像を用いて合成を行なうように構成された請求項2記載の車両用画像合成装置。
  7. 第1画像または第2画像に、隠れた部分がない運転者が写っている場合、隠れた部分がない運転者が写っている画像を用いることにより、画像の合成を行なわないように構成された請求項2記載の車両用画像合成装置。
  8. チルト機構によりステアリングホイールが移動されたときや、画像認識処理が実行されてから設定時間が経過したときには、前記境界検出部により境界を検出する処理を再度実行するように構成された請求項1記載の車両用画像合成装置。
JP2018001883A 2018-01-10 2018-01-10 車両用画像合成装置 Active JP6939580B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018001883A JP6939580B2 (ja) 2018-01-10 2018-01-10 車両用画像合成装置
PCT/JP2018/045894 WO2019138771A1 (ja) 2018-01-10 2018-12-13 車両用画像合成装置
DE112018006812.9T DE112018006812T5 (de) 2018-01-10 2018-12-13 Fahrzeugbildsynthesevorrichtung
CN201880085804.2A CN111566698A (zh) 2018-01-10 2018-12-13 车辆用图像合成装置
US16/921,311 US11270440B2 (en) 2018-01-10 2020-07-06 Vehicular image synthesis apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018001883A JP6939580B2 (ja) 2018-01-10 2018-01-10 車両用画像合成装置

Publications (3)

Publication Number Publication Date
JP2019121270A JP2019121270A (ja) 2019-07-22
JP2019121270A5 JP2019121270A5 (ja) 2020-05-28
JP6939580B2 true JP6939580B2 (ja) 2021-09-22

Family

ID=67218596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018001883A Active JP6939580B2 (ja) 2018-01-10 2018-01-10 車両用画像合成装置

Country Status (5)

Country Link
US (1) US11270440B2 (ja)
JP (1) JP6939580B2 (ja)
CN (1) CN111566698A (ja)
DE (1) DE112018006812T5 (ja)
WO (1) WO2019138771A1 (ja)

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3902473B2 (ja) * 2002-01-17 2007-04-04 富士通株式会社 生体情報を用いた本人認証方法
US7054857B2 (en) 2002-05-08 2006-05-30 Overture Services, Inc. Use of extensible markup language in a system and method for influencing a position on a search result list generated by a computer network search engine
JP2005202599A (ja) * 2004-01-14 2005-07-28 Advanced Telecommunication Research Institute International 居眠り防止装置
JP4380412B2 (ja) * 2004-05-10 2009-12-09 株式会社デンソー 撮像制御装置及びプログラム
JP2007069680A (ja) 2005-09-05 2007-03-22 Toyota Motor Corp 顔画像撮影カメラの搭載構造
JP4739870B2 (ja) 2005-09-05 2011-08-03 アイシン精機株式会社 サングラス検出装置及び顔中心位置検出装置
JP4606322B2 (ja) * 2005-12-27 2011-01-05 アルパイン株式会社 車両運転支援装置
JP2007328582A (ja) * 2006-06-08 2007-12-20 Matsushita Electric Ind Co Ltd 画像合成装置およびその方法
JP2008199515A (ja) * 2007-02-15 2008-08-28 Fujifilm Corp 同乗者着座姿勢検出・判定装置及び方法
JP2007234060A (ja) * 2007-05-31 2007-09-13 Advanced Telecommunication Research Institute International 居眠り防止装置
JP4981700B2 (ja) * 2008-01-29 2012-07-25 パナソニック株式会社 顔認証装置
WO2009116242A1 (ja) 2008-03-18 2009-09-24 パナソニック株式会社 運転者監視装置、運転者監視方法及び車両
JP2009011005A (ja) * 2008-10-10 2009-01-15 Panasonic Corp 画像処理装置
JP5256060B2 (ja) * 2009-01-23 2013-08-07 トヨタ自動車株式会社 撮像装置
EP2482557B1 (en) * 2009-09-24 2020-03-18 Panasonic Intellectual Property Management Co., Ltd. Driving support display device
JP5419757B2 (ja) 2010-03-09 2014-02-19 セコム株式会社 顔画像合成装置
WO2014033886A1 (ja) * 2012-08-30 2014-03-06 富士通株式会社 画像処理装置、画像処理方法、及びプログラム
JP6024581B2 (ja) * 2013-04-15 2016-11-16 株式会社デンソー 車両用画像処理装置
JP6452235B2 (ja) * 2014-11-20 2019-01-16 国立大学法人静岡大学 顔検出方法、顔検出装置、及び顔検出プログラム
CN104590130A (zh) * 2015-01-06 2015-05-06 上海交通大学 基于图像识别的后视镜自适应调节方法
KR101730321B1 (ko) * 2015-08-03 2017-04-27 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
JP6594180B2 (ja) * 2015-11-25 2019-10-23 キヤノン株式会社 撮像装置、撮像装置の制御方法及びプログラム
JP6289439B2 (ja) * 2015-12-16 2018-03-07 オムロンオートモーティブエレクトロニクス株式会社 画像処理装置
KR101949358B1 (ko) * 2016-04-04 2019-02-18 엘지전자 주식회사 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
JP6809262B2 (ja) * 2017-02-08 2021-01-06 トヨタ自動車株式会社 ドライバ状態検出装置

Also Published As

Publication number Publication date
CN111566698A (zh) 2020-08-21
US11270440B2 (en) 2022-03-08
WO2019138771A1 (ja) 2019-07-18
JP2019121270A (ja) 2019-07-22
US20200334822A1 (en) 2020-10-22
DE112018006812T5 (de) 2020-09-17

Similar Documents

Publication Publication Date Title
JP5421072B2 (ja) 接近物体検知システム
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
US20100066516A1 (en) Image displaying in-vehicle system, image displaying control in-vehicle apparatus and computer readable medium comprising program for the same
US10499014B2 (en) Image generation apparatus
US20200369207A1 (en) Image processing device, image display system, and image processing method
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
JP7000383B2 (ja) 画像処理装置および画像処理方法
WO2018042976A1 (ja) 画像生成装置、画像生成方法、記録媒体、および画像表示システム
JP2018074411A (ja) 物体検出装置及び物体検出方法
JP6939580B2 (ja) 車両用画像合成装置
JP2007221199A (ja) 車載カメラ表示装置及び画像処理装置
JP4529768B2 (ja) 車載物体検出装置、および物体検出方法
US10867400B2 (en) System for processing an image obtained by using stereo photography
JP2008128867A (ja) タイヤ向き特定装置
JP2017065351A (ja) 駐車支援装置及び駐車支援方法
US20200215977A1 (en) Vehicle periphery image display device and vehicle periphery image display method
EP2100772A2 (en) Imaging device and method thereof, as well as image processing device and method thereof
KR102429490B1 (ko) Bvm 영상 제공 기능을 가지는 svm 시스템 및 그 동작 방법
JP6935690B2 (ja) 検出プログラム、方法、及び装置
KR101659606B1 (ko) 뒷바퀴 위치 표시 차량 후진 영상 시스템의 영상 표시 방법
JP3858534B2 (ja) 眼の状態検出装置
US20230060049A1 (en) Face detection device
JP2004334784A (ja) 確認動作検出装置及び警報システム
JP6781010B2 (ja) 画像表示装置及び画像処理方法
JP3947117B2 (ja) 車両周辺画像処理システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R151 Written notification of patent or utility model registration

Ref document number: 6939580

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151