JP6289439B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6289439B2
JP6289439B2 JP2015245118A JP2015245118A JP6289439B2 JP 6289439 B2 JP6289439 B2 JP 6289439B2 JP 2015245118 A JP2015245118 A JP 2015245118A JP 2015245118 A JP2015245118 A JP 2015245118A JP 6289439 B2 JP6289439 B2 JP 6289439B2
Authority
JP
Japan
Prior art keywords
luminance value
image
value
corrected
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015245118A
Other languages
English (en)
Other versions
JP2017112486A (ja
Inventor
義朗 松浦
義朗 松浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Mobility Corp
Original Assignee
Omron Automotive Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Automotive Electronics Co Ltd filed Critical Omron Automotive Electronics Co Ltd
Priority to JP2015245118A priority Critical patent/JP6289439B2/ja
Priority to DE102016225311.5A priority patent/DE102016225311A1/de
Priority to US15/381,774 priority patent/US10089731B2/en
Publication of JP2017112486A publication Critical patent/JP2017112486A/ja
Application granted granted Critical
Publication of JP6289439B2 publication Critical patent/JP6289439B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/047Picture signal generators using solid-state devices having a single pick-up sensor using multispectral pick-up elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体を撮像してその画像を処理する画像処理装置に関し、特に、眼鏡等からの反射光の影響を軽減するための技術に関する。
車両には、運転者の脇見運転や居眠り運転を監視するための装置(以下、「ドライバーモニタ」という。)が搭載されているものがある。このようなドライバーモニタにおいては、カメラで撮像した運転者の顔画像から運転者の目が検出され、また、瞳の視線方向や瞼の閉じ具合などが検出される。しかし、運転者が眼鏡をかけていると、車室内の照明光、外部光、撮像用の照明光などが眼鏡のレンズやフレームで反射して、瞳や瞼を正確に検出できなくなる。特に、眼鏡からの反射光が瞳と重なった場合は、検出精度が著しく低下してしまう。この対策として、特許文献1、2に開示されている技術が知られている。
特許文献1においては、車載用カメラに2つの照明装置が設けられている。車載用カメラは、撮像のタイミングに同期して、2つの照明装置を交互に点灯させ、一方の照明装置が照射した被写体と、他方の照明装置が照射した被写体とをそれぞれ撮像する。そして、撮像した2つの画像について、相対位置が等しい画素ごとに輝度を比較し、輝度の低い方の画素を抽出して1つの合成画像を生成する。これにより、眼鏡からの反射光の写り込みが軽減され、目の検出が容易となる。
特許文献2においては、カメラで撮像された画像から顔領域の検出を行うにあたって、画像の各画素の輝度値が閾値より大きいか否かを判定する。そして、輝度値が閾値より大きい画素で構成される高輝度部位が検出された場合は、当該高輝度部位の各画素の輝度値を低輝度にすることで、高輝度部位を低輝度部位に変換する。これにより、眼鏡からの反射光による高輝度部位が除去されるため、目の検出が容易となる。
ところで、被写体の顔を右側から照射して撮像する場合は、顔の右側に比べて左側の照度が低下するため、顔の左側の画像が暗くなる。一方、被写体の顔を左側から照射して撮像する場合は、顔の左側に比べて右側の照度が低下するため、顔の右側の画像が暗くなる。したがって、特許文献1のように、2つの画像のうち輝度値の低い方の画素を使って合成画像を生成すると、画像全体が暗くなってしまう。このため、顔画像の輪郭を正確に検出したり、顔画像の中から瞳や瞼を正確に検出したりすることが困難になる可能性がある。
これに対して、特許文献2の技術では、画像全体が暗くなることは抑制できるが、高輝度部位が低輝度部位に変換されることで、白目の部分が黒っぽくなってしまう懸念がある。また、閾値を境として明るい部分が暗い部分に変換されるため、当該変換部分とこれに隣接する非変換部分とで明るさが不連続となり、その結果、画像が不自然なものとなる。また、特許文献2のように閾値を用いて高輝度部位を除去する方式では、画像処理のアルゴリズム中に処理の分岐が含まれるため、演算処理が煩雑になるという問題もある。
特開2008−123137号公報 特開2006−48328号公報
本発明の課題は、画像全体が暗くならないようにしつつ、眼鏡等からの反射光の影響を軽減することが可能な画像処理装置を提供することにある。本発明の他の課題は、簡単な演算処理によって連続性のある自然な画像が得られる画像処理装置を提供することにある。
本発明に係る画像処理装置は、被写体に照明光を投光する第1照明部と、第1照明部と異なる方向から被写体に照明光を投光する第2照明部と、第1照明部が被写体に照明光を投光した状態で、当該被写体の第1画像を撮像し、第2照明部が被写体に照明光を投光した状態で、当該被写体の第2画像を撮像する撮像部と、第1画像を構成する第1画素の第1輝度値と、第2画像を構成する第2画素の第2輝度値とを対応する画素ごとに比較し、その比較結果に基づいて、第1画像と第2画像の合成画像に対し所定の補正処理を行って補正画像を生成する画像補正部とを備える。画像補正部は、第1輝度値と第2輝度値との差分を算出し、この差分と、当該差分の増加とともに単調増加しかつ増加率が漸減する所定の関数とに基づいて補正輝度値を算出し、この補正輝度値を用いて補正画像を生成する。
このようにすると、被写体の眼鏡等からの反射があって第1輝度値と第2輝度値との差分が大きい場合は、増加率が漸減する関数により差分が圧縮されるので、相対的に小さくなった差分を補正輝度値に反映させることで、反射光の影響を抑制した補正画像を生成することができる。一方、被写体の眼鏡等からの反射がなく第1輝度値と第2輝度値との差分が小さい場合は、関数による差分の圧縮度合いが小さいので、この差分を補正輝度値に反映させることで、画像全体を明るくすることができる。また、閾値を用いずに関数による単一演算だけで補正を行うので、画像が不連続になることはなく、演算処理も簡単になる。
本発明において、2つの照明部と1つの撮像部を設けることに代えて、1つの照明部と2つの撮像部を設けてもよい。この場合、画像処理装置は、被写体に照明光を投光する照明部と、照明部が被写体に照明光を投光した状態で、当該被写体の第1画像を撮像する第1撮像部と、照明部が被写体に照明光を投光した状態で、第1撮像部と異なる方向から被写体の第2画像を撮像する第2撮像部とを備える。
本発明において、前記の関数として対数関数を用いることができる。この場合、画像補正部は、対数関数に基づいて、輝度値の差分の絶対値の対数である差分対数値を算出し、当該差分対数値を用いて補正輝度値を算出する。
本発明において、補正輝度値は、第1輝度値と第2輝度値のうち、小さい方の輝度値である低輝度値と、差分対数値とを加算した第1補正輝度値であってもよい。
本発明において、補正輝度値は、第1輝度値と第2輝度値のうち、小さい方の輝度値である低輝度値と差分対数値とを加算した値に第1係数αを乗じた値と、第1輝度値と第2輝度値の平均値に第2係数βを乗じた値とを加算した第2補正輝度値であってもよい。
本発明において、第1係数αは、第1輝度値および第2輝度値のうち、大きい方の輝度値である高輝度値に応じて、0≦α≦1の範囲で変化する係数であって、高輝度値が小さくなるに従って漸減し、第2係数βは、β=1−α(0≦β≦1)で与えられる係数であって、高輝度値が小さくなるに従って漸増する係数であってもよい。この場合、画像補正部は、高輝度値を検出して、当該高輝度値が所定値以上か否かを判別し、高輝度値が所定値以上である場合は、第1係数をα=1、第2係数をβ=0として、第2補正輝度値を算出する。また、高輝度値が所定値未満である場合は、当該高輝度値に応じた第1係数α(0≦α<1)および第2係数β(0<β≦1)を用いて、第2補正輝度値を算出する。
本発明において、対数関数は2を底とする対数関数であることが、演算を簡略化する上で好ましい。
本発明において、第1輝度値と第2輝度値とを対応する画素ごとに比較することに代えて、複数の画素を含むブロック単位で輝度値を比較してもよい。この場合、画像補正部は、複数の第1画素を含む複数の第1ブロックの第1輝度値と、複数の第2画素を含む複数の第2ブロックの第2輝度値とを、対応するブロックごとに比較する。
本発明によれば、画像全体が暗くならないようにしつつ、眼鏡等からの反射光の影響を軽減することが可能で、しかも、簡単な演算処理によって連続性のある自然な画像が得られる画像処理装置を提供することができる。
第1実施形態に係るドライバーモニタのブロック図である。 第1実施形態に係るドライバーモニタの外観図である。 ドライバーモニタの使用状態を示す図である。 ドライバーモニタで被写体を照射した状態を上から見た図である。 ドライバーモニタで照射された被写体の顔を示す図である。 被写体の右目部分の撮像画像を示す模式図である。 対数関数を表したグラフである。 第1実施形態による顔画像を従来方式による顔画像と対比して示した図である。 第1実施形態に係るドライバーモニタの全体的な動作を示すフローチャートである。 図9のステップS7の詳細を示すフローチャートである。 第2実施形態に係るドライバーモニタの外観図である。 第2実施形態に係るドライバーモニタのブロック図である。 第2実施形態に係るドライバーモニタの全体的な動作を示すフローチャートである。 図13のステップS45の詳細を示すフローチャートである。 左右の画素を幾何学的に対応付ける方法を説明する図である。 重み付け係数を示すグラフである。 眼鏡反射のある場合とない場合の顔画像を示した図である。 無理関数を表したグラフである。 双曲線関数を表したグラフである。 ブロック単位で輝度値を比較する例を説明する図である。
本発明の実施形態につき、図面を参照しながら説明する。各図において、同一の部分または対応する部分には、同一符号を付してある。以下では、本発明の画像処理装置の一例として、運転者の脇見運転や居眠り運転を監視するドライバーモニタを例に挙げる。
まず、図1および図2を参照しながら、第1実施形態のドライバーモニタの構成について説明する。図1において、ドライバーモニタ100は、車両に搭載されており、撮像部1、照明部2、記憶部3、画像補正部4、補正画像記憶部5、画像解析部6、制御部7、および外部出力部8を備えている。撮像部1は、カメラを構成する部分で、レンズや光学フィルタなどを含む光学系11と、この光学系11を通して被写体(運転者)を撮像する撮像装置12とからなる。照明部2は、被写体を照射する光源を構成する部分で、第1照明部21と第2照明部22とからなる。
撮像装置12は、格子状に配列された多数の撮像素子(図示省略)を有している。これらの撮像素子は、たとえばCCD(電荷結合素子)から構成されている。各照明部21、22は、それぞれ、格子状に配列された多数の発光素子21a、22a(図2)を有している。これらの発光素子21a、22aは、たとえば、近赤外光を発光するLED(発光ダイオード)から構成されている。
図2に示すように、撮像部1と、第1照明部21および第2照明部22は、ドライバーモニタ100の筐体101の前面に臨むように設けられている。撮像部1は、筐体101の前面中央に位置しており、2つの照明部21、22は、撮像部1を挟んで左右に設けられている。
図3に示すように、ドライバーモニタ100は、車両の運転席に設けられており、被写体である運転者Pの顔と対向する位置に設置されている。そして、図4(a)に示すように、ドライバーモニタ100の第1照明部21は、運転者Pの顔を右方向から照射する。また、図4(b)に示すように、ドライバーモニタ100の第2照明部22は、運転者Pの顔を左方向から照射する。すなわち、第2照明部22は、第1照明部21と異なる方向から運転者Pの顔に照明光を投光する。
図1において、撮像部1の撮像装置12は、第1照明部21が運転者Pに照明光を投光した状態で、運転者Pの顔の画像を撮像する。このときの撮像画像を「第1画像」と呼ぶ。また、撮像部1の撮像装置12は、第2照明部22が運転者Pに照明光を投光した状態で、運転者Pの顔の画像を撮像する。このときの撮像画像を「第2画像」と呼ぶ。第1照明部21と第2照明部22は、異なるタイミングで運転者Pの顔を照射し、撮像部1は、異なるタイミングで運転者Pの顔を撮像する。
記憶部3は、撮像部1で撮像された第1画像および第2画像を記憶する。画像補正部4は、第1画像と第2画像の合成画像に対して所定の補正処理を行い、補正画像を生成する。この補正処理については後で詳述する。補正画像記憶部5は、画像補正部4で生成された補正画像を記憶する。画像解析部6は、補正画像記憶部5に記憶された補正画像を解析して、目の位置や瞳・瞼の状態などを検出する。制御部7は、画像解析部6での検出結果に基づいて、運転者Pの脇見運転や居眠り運転の有無を判定し、その判定結果を出力する。詳しくは、脇見運転や居眠り運転の有無を表す信号を生成して外部出力部8へ与える。外部出力部8は、その信号を車両制御システム(図示省略)へ出力する。また、制御部7は、撮像部1の撮像のタイミングや、第1照明部21および第2照明部22の点灯のタイミングを制御するとともに、記憶部3、画像補正部4、画像解析部6に対して所定の制御を行う。
図5は、照明光で照射された被写体の顔の明暗状態を模式的に示している。図5(a)は、第1照明部21により照射された顔であって、被写体からみて左方向からの照射により、顔の右側(図では左側)が顔の左側(図では右側)に比べて暗くなっている。また、符号R1で示したように、眼鏡の左右のレンズにおいて、第1照明部21からの照明光が反射している。図5(b)は、第2照明部22により照射された顔であって、被写体からみて右方向からの照射により、顔の左側(図では右側)が顔の右側(図では左側)に比べて暗くなっている。また、符号R2で示したように、眼鏡の左右のレンズにおいて、第2照明部22からの照明光が反射している。
前述したように、眼鏡のレンズでの反射があると、目の正確な検出が困難となることから、従来は、図5(a)、(b)の顔を撮像したそれぞれの画像における、相対位置が等しい画素同士の輝度を比較し、輝度の低い方の画素を用いて合成画像を生成していた(特許文献1)。しかし、この方法では、レンズでの反射光の影響は軽減できるが、合成画像が輝度の低い画素で構成されるため、当該合成画像は、図8(a)に示すような全体として暗い画像になってしまう。
そこで、本発明では、図5(a)、(b)の顔を撮像したそれぞれの画像を合成するにあたり、単に輝度の低い方の画素を用いるのではなく、これにさらに独自の補正を加えることにより、図8(b)に示すような、従来に比べて明るい合成画像が得られるようにした。以下、本発明の補正処理について詳細に説明する。
図6は、被写体の右目部分(図5参照)の撮像画像を示す模式図である。図中、1つのマス目は1つの画素を表している。ここでは、簡略化のために、画素の数を実際より大幅に少なくしてある。画素の色が濃くなるほど、その部分の画像は暗い画像となり、画素の色が薄くなるほど、その部分の画像は明るい画像となる。
図6(a)は、第1照明部21から照明光が投光された状態(図5(a))で撮像した右目部分の画像である。以下、この画像を「第1画像」と呼び、第1画像を構成する画素G1を「第1画素」呼ぶ。この状態では、顔の右側の照度が不足するため、第1画素G1の多くは輝度が低くなる。このため、第1画像は全体的に暗いものとなるが、照明光が眼鏡で反射した反射部分R1(図5(a))に対応する箇所は、白色の画素で示されるように、際立って明るい画像となる。
図6(b)は、第2照明部22から照明光が投光された状態(図5(b))で撮像した右目部分の画像である。以下、この画像を「第2画像」と呼び、第2画像を構成する画素G2を「第2画素」呼ぶ。この状態では、顔の右側が照射されるため、第2画素G2の多くは第1画素G1よりも輝度が増加する。このため、第2画像は、第1画像に比べて全体的に明るくなる。また、照明光が眼鏡で反射した反射部分R2(図5(b))に対応する箇所は、白色の画素で示されるように、際立って明るい画像となる。
図6(a)、(b)において、第1画素G1と第2画素G2のそれぞれに、X座標(横方向)およびY座標(縦方向)を割り当てる。そして、座標値が同じである画素、すなわち画素G1、G2間で相対的に同じ位置にある画素(以下、「対応画素」という)ごとに輝度値を比較し、輝度の低い方の画素を合成した画像が、従来方式による図6(c)の画像である。図6(c)においては、図6(a)の眼鏡での反射による高輝度部分(白色画素)と、図6(b)の眼鏡での反射による高輝度部分(白色画素)は、ともに輝度が低くなっており、反射光の影響を軽減できることがわかる。しかし、その一方で、合成画像が輝度の低い方の画素で構成されることから、画像全体が暗いものとなる。
図6(d)は、図6(c)の画像に対して、画像補正部4により補正処理を行った後の合成画像、すなわち補正画像を表している。この補正処理では、まず、図6(a)の第1画像と図6(b)の第2画像の各対応画素ごとに、第1画素G1の輝度値Q1と第2画素G2の輝度値Q2との差分ΔQを、次式により算出する。
ΔQ=Q1−Q2 …(1)
次に、上記差分ΔQの絶対値を|ΔQ|を、次式により算出する。
|ΔQ|=|Q1−Q2| …(2)
さらに、上記差分の絶対値|ΔQ|の対数である差分対数値Aを、次式により算出する。
A=log|ΔQ|=log|Q1−Q2| …(3)
そして、各対応画素ごとに、輝度値Q1、Q2のうち小さい方の輝度値である低輝度値Min(Q1,Q2)に上記差分対数値Aを加算することによって、補正輝度値Qsを算出する。
Qs=Min(Q1,Q2)+A
=Min(Q1,Q2)+log|Q1−Q2| …(4)
これにより、合成画像の各対応画素の輝度値は、低い方の輝度値に差分対数値Aが加算された補正輝度値Qsとなるので、単に輝度の低い方の画素を用いて合成画像を作成する図6(c)の従来方式に比べて、図6(d)に示すような全体的に明るい画像を得ることができる。補正輝度値Qsは、本発明における「第1補正輝度値」に相当する。
図7は、差分対数値Aの算出に用いられる対数関数y=logxのグラフを表している。ここでは、演算をできるだけ簡略化するために、2を底とする対数関数を用いる。図7からわかるように、対数の値yは、変数xの増加とともに単調増加し、かつ増加率Δy/Δxが漸減する。したがって、たとえば、対応画素G1、G2の輝度値Q1、Q2をそれぞれQ1=19、Q=153とした場合、補正輝度値Qsは式(4)より、
Qs=Min(Q1,Q2)+log|Q1−Q2|
=19+log(153−19)
=19+7.06=26.06
となる。すなわち、輝度値Q1、Q2の差である153−19=134が、その対数である7.06に変換され、低い方の輝度値19に加算されて、補正輝度値Qsが算出される。
このように、輝度値Q1、Q2の差が大きい場合には、当該輝度差が対数変換によって大きく圧縮される。したがって、低輝度値Min(Q1,Q2)に差分対数値Aを加算しても、補正輝度値Qsが必要以上に大きな値になることはない。これにより、画像全体が暗くなるのを抑制しつつ、眼鏡の反射光の影響を軽減することができる。
たとえば、図6(a)、(b)において、座標(320,200)の画素に着目すると、眼鏡の反射光の影響により、対応画素間の輝度差は大きい。この場合、上述したように、大きな輝度差が圧縮されて補正輝度値Qsが算出される結果、図6(d)における座標(320,200)の画素は、図6(c)の同画素に比べて明るくなっているが、反射光の影響は軽減されている。
一方、たとえば、対応画素G1、G2の輝度値Q1、Q2をそれぞれQ1=63、Q=71とした場合、補正輝度値Qsは式(4)より、
Qs=Min(Q1,Q2)+log|Q1−Q2|
=63+log(71−63)
=63+3=66
となる。すなわち、輝度値Q1、Q2の差である71−63=8が、その対数である3に変換され、低い方の輝度値63に加算されて、補正輝度値Qsが算出される。このように、輝度値Q1、Q2の差が小さい場合には、当該輝度差を対数変換しても、圧縮の度合いは小さい。したがって、低輝度値Min(Q1,Q2)に差分対数値Aを加算すると、輝度値の小差を反映した補正輝度値Qsが得られる。
たとえば、図6(a)、(b)において、座標(320,202)の画素に着目すると、眼鏡の反射光の影響はなく、対応画素間の輝度差は比較的小さい。この場合、上述したように、輝度差が反映された補正輝度値Qsが算出される結果、図6(d)における座標(320,202)の画素は、図6(c)の同画素に輝度差に応じた明るさが加わったものになる。
以上述べた補正処理は、目の部分だけでなく顔全体に対して行われる。その結果、補正処理がされた顔の画像(補正画像)は、図8(b)に示すように、従来方式による図8(a)の画像に比べて、全体的に明るいものとなる。このため、顔画像の輪郭を正確に検出したり、顔画像の中から目の位置や、瞳・瞼の状態を正確に検出したりすることが容易となり、検出精度を高めることができる。なお、実際には、図8(a)、(b)の各画像の輝度は顔全体にわたって均一ではなく、顔の部位によって輝度差があるが、ここでは説明の便宜のために顔全体を均一の輝度としてある。
図9は、第1実施形態のドライバーモニタ100の全体的な動作を示すフローチャートである。
図9において、ステップS1では、第1照明部21を点灯させ、図4(a)のように被写体(運転者P)の顔を照明光で照射する。この状態で、ステップS2において、撮像部1により被写体の顔を撮像する。そして、ステップS3で、撮像した顔の画像を第1画像として記憶部3に記憶する。次に、ステップS4で、第2照明部22を点灯させ、図4(b)のように被写体(運転者P)の顔を照明光で照射する。この状態で、ステップS5において、撮像部1により被写体の顔を撮像する。そして、ステップS6で、撮像した顔の画像を第2画像として記憶部3に記憶する。その後、ステップS7において、第1画像および第2画像に基づき、前述したような画像補正処理を行う。このステップS7の詳細が図10に示されているが、これについては後述する。補正処理が行われた補正画像は、補正画像記憶部5に記憶される。
次に、ステップS8においては、画像解析部6が、補正画像記憶部5に記憶された補正画像を読み出し、当該補正画像から目を検出する。詳しくは、画像解析部6は、補正画像を解析して、目の位置を検出するとともに、瞳の視線方向や瞼の閉じ具合などを検出する。これらを検出する方法は公知であり、本発明の特徴とするところでもないので、検出方法の詳細については説明を省略する。続くステップS9では、制御部7が、ステップS8で検出された目の状態から、運転者Pが脇見運転または居眠り運転をしているか否かを判定する。この判定の手法も公知であり、本発明の特徴とするところでもないので、判定方法の詳細については説明を省略する。
ステップS9での判定の結果、運転者Pが脇見運転または居眠り運転をしている場合は(ステップS9;YES)、ステップS10において、制御部7は、脇見運転または居眠り運転であることを示す信号を、外部出力部8を介して、図示しない車両制御システムへ出力する。車両制御システムは、この信号に基づいて、警報を出力するなどの制御を行う。一方、ステップS9での判定の結果、運転者Pが脇見運転も居眠り運転もしていない場合は(ステップS9;NO)、ステップS11において、制御部7は、脇見運転または居眠り運転であることを示す信号の出力を停止する。
ステップS10またはステップS11の実行後、ステップS12において、休止時間が経過したか否かを判定する。休止時間とは、第1照明部21が次のタイミングで投光を行うまでの待ち時間である。ステップS12での判定の結果、休止時間が経過してなければ(ステップS12;NO)、そのまま待機し、休止時間が経過すれば(ステップS12;YES)、ステップS1に戻って、上述したS1〜S12の処理を繰り返す。
図10は、図9のステップS7の画像補正処理の詳細手順を示したフローチャートである。本フローチャートの各手順は、画像補正部4により実行される。
図10において、ステップS21では、読み出す画素の座標(X、Y)の初期値を(0,0)に設定する。X、Yは、それぞれ0≦X≦m、0≦Y≦nの範囲にある座標値である(mおよびnは整数)。したがって、画素の総数は、(m+1)×(n+1)である。
次に、ステップS22において、図9のステップS3で記憶された第1画像から、座標が(X、Y)の画素(以下、「画素(X、Y)」と表記)の輝度値Q1を読み出す。ステップS22の初回実行時には、第1画像の画素(0、0)の輝度値Q1が読み出される。続いて、ステップS23において、図9のステップS6で記憶された第2画像から、画素(X、Y)の輝度値Q2を読み出す。ステップS23の初回実行時には、第2画像の画素(0、0)の輝度値Q2が読み出される。
その後、ステップS24において、輝度値Q1と輝度値Q2のうち値の小さい方、すなわち低輝度値Min(Q1,Q2)を画素(X、Y)の輝度値Qとする(Q=Min(Q1,Q2))。次に、ステップS25において、輝度値Q1と輝度値Q2の差分ΔQを算出する(ΔQ=Q1−Q2)。続いて、ステップS26において、差分ΔQの絶対値の対数、つまり差分対数値Aを算出する(A=log|ΔQ|)。さらに、ステップS27において、輝度値Qに差分対数値Aを加算して輝度値Qを補正し、補正輝度値Qsを算出する(Qs=Q+A=Min(Q1,Q2)+A)。
ステップS27までの処理が終わると、ステップS28へ進んで、座標のXの値をインクリメントする。すなわち、X=X+1の演算を行う。そして、ステップS29において、X>mか否かを判定し、X>mでなければ(ステップS29;NO)、ステップS22へ戻って、第1画像の次の画素の輝度値Q1を読み出し、以下、ステップS22〜S29を繰り返す。また、X>mであれば(ステップS29;YES)、ステップS30へ進んで、座標のYの値をインクリメントする。すなわち、Y=Y+1の演算を行う。続いて、ステップS31において、Y>nか否かを判定し、Y>nでなければ(ステップS31;NO)、ステップS22へ戻って、第1画像の次の画素の輝度値Q1を読み出し、以下、ステップS22〜S31を繰り返す。そして、Y>nになると(ステップS31;YES)、全ての画素について補正処理が完了したと判断して、一連の処理を終了する。
上述した第1実施形態によると、輝度の低い方の画素の輝度値(低輝度値)に差分対数値を加算した補正輝度値を用いて合成画像を生成するので、眼鏡の反射光の影響を軽減しながら、全体的に明るい合成画像を得ることができる。また、特許文献2のような閾値を用いる方式では、前述したように画像が不連続なものとなり、演算処理も煩雑になるが、本実施形態では、閾値を用いずに前記の式(4)による単一演算だけで補正を行うので、画像が不連続になることはなく、演算処理も簡単になる。
次に、本発明の第2実施形態について説明する。前述の第1実施形態では、図2に示したように、ドライバーモニタ100は、筐体101の前面中央に設けられた1つの撮像部1と、この撮像部1の両側に設けられた2つの照明部21、22とを備えたものであった。これに対して、第2実施形態では、図11に示したように、ドライバーモニタ200は、筐体201の前面中央に設けられた1つの照明部30と、この照明部30の両側に設けられた第1撮像部1aおよび第2撮像部1bを備えている。すなわち、第2実施形態のドライバーモニタ200は、2つの撮像部を備えたステレオカメラ方式のドライバーモニタである。
図12は、第2実施形態によるドライバーモニタ200のブロック図を示している。第1撮像部1aは、レンズや光学フィルタなどを含む光学系11aと、この光学系11aを通して被写体(運転者)を撮像する撮像装置12aとからなる。第2撮像部1bは、レンズや光学フィルタなどを含む光学系11bと、この光学系11bを通して被写体(運転者)を撮像する撮像装置12bとからなり、第1撮像部1aと異なる方向から被写体を撮像する。
各撮像装置12a、12bは、それぞれ、格子状に配列された多数の撮像素子(図示省略)を有している。これらの撮像素子は、たとえばCCD(電荷結合素子)から構成されている。照明部30は、図11に示すように、格子状に配列された多数の発光素子30aを有している。これらの発光素子30aは、たとえば、近赤外光を発光するLED(発光ダイオード)から構成されている。
図12のその他の部分3〜8については、図1と同じであるので、重複説明は省略する。第2実施形態のドライバーモニタ200は、図3に示した第1実施形態のドライバーモニタ100と同様に、車両の運転席に設けられる。
図13は、第2実施形態のドライバーモニタ200の全体的な動作を示すフローチャートである。
図13において、ステップS41では、照明部30を点灯させ、被写体(運転者P)の顔を照明光で照射する。この状態で、ステップS42において、第1撮像部1aおよび第2撮像部1bにより、被写体の顔を異なる方向から同時に撮像する。そして、ステップS43において、第1撮像部1aで撮像した顔の画像を第1画像として記憶部3に記憶し、ステップS44において、第2撮像部1bで撮像した顔の画像を第2画像として記憶部3に記憶する。その後、ステップS45において、第1画像および第2画像に基づき、画像補正処理を行う。このステップS45の詳細が図14に示されているが、これについては後述する。補正処理が行われた補正画像は、補正画像記憶部5に記憶される。
以降のステップS46〜S50の処理は、図9のステップS8〜S12の処理と同様である。すなわち、ステップS46では、画像解析部6が、補正画像記憶部5の補正画像から、目の位置、瞳の視線方向、瞼の閉じ具合などを検出する。ステップS47では、制御部7が、脇見運転等の有無を判定する。脇見運転等がある場合は(ステップS47;YES)、ステップS48において、制御部7は、脇見運転等を示す信号を、外部出力部8を介して車両制御システムへ出力する。一方、脇見運転等がない場合は(ステップS47;NO)、ステップS49において、制御部7は、脇見運転等を示す信号の出力を停止する。そして、休止時間が経過するのを待って(ステップS50)、ステップS41に戻り、上述したS41〜S50の処理を繰り返す。
図14は、図13のステップS45の画像補正処理の詳細手順を示したフローチャートである。本フローチャートの各手順は、画像補正部4により実行される。図14の各ステップにおいて、図10と同じ処理を行うステップには、同じ符号を付してある。図14では、図10のステップS21がステップS21aに置き換わっているとともに、図10のステップS23がステップS23aに置き換わっている。
図14において、ステップS21aでは、第1画像において、読み出す画素の座標(X、Y)の初期値を(0,0)に設定する。X、Yは、それぞれ0≦X≦m、0≦Y≦nの範囲にある座標値である(mおよびnは整数)。したがって、画素の総数は、(m+1)×(n+1)である。
次に、ステップS22において、図13のステップS43で記憶された第1画像から、座標が(X、Y)の画素(以下、「画素(X、Y)」と表記)の輝度値Q1を読み出す。ステップS22の初回実行時には、第1画像の画素(0、0)の輝度値Q1が読み出される。
続くステップS23aでは、図13のステップS44で記憶された第2画像から、画素(X+W、Y)の輝度値Q2を読み出す。ステップS23aの初回実行時には、第2画像の画素(W、0)の輝度値Q2が読み出される。ここで、Wは、第1撮像部1aの画素と、第2撮像部1bの画素とを対応付けるための、視差に相当する値である。これを図15でさらに詳しく説明する。
図15は、ステレオカメラ方式における左右の画素の幾何学的な関係を示している。左側撮像素子は、第1撮像部1aの撮像装置12aに備わる撮像素子であり、右側撮像素子は、第2撮像部1bの撮像装置12bに備わる撮像素子である。Dは被写体とカメラ(撮像装置12a、12b)との距離である。被写体は座席に座っている運転者であり、カメラは車体に固定されているから、距離Dはほぼ一定値とみなすことができる。Fは焦点距離、Zはカメラ間距離であって、これらは既知の値である。2つの直線L1、L2は互いに平行になっている。
図15においては、左側撮像素子の画素に対応する右側撮像素子の画素のX座標の値は、左側撮像素子の画素のX座標の値よりWだけずれている。したがって、左側撮像素子の或る画素の座標を(X,Y)としたとき、この画素に対応する右側撮像素子の画素の座標は(X+W,Y)となる。ここで、幾何学的にW/F=Z/Dの関係が成立するから、図14のステップS23aにおけるWは、次式から算出することができる。
W=F・(Z/D) …(5)
図14のステップS24〜S31の処理は、図10の場合と同様である。すなわち、ステップS24では、輝度値Q1と輝度値Q2のうち、値の小さい方を画素(X、Y)の輝度値Qとし、ステップS25において、輝度値Q1と輝度値Q2の差分ΔQを算出し、ステップS26において、差分ΔQの絶対値の対数である差分対数値Aを算出する。そして、ステップS27において、輝度値Qに差分対数値Aを加算して輝度値Qを補正し、補正輝度値Qsを算出する。その後、ステップS28で座標のXの値をインクリメントし、ステップS29でX>mでなければステップS22へ戻り、X>mであればステップS30へ進んで、座標のYの値をインクリメントする。そして、ステップS31でY>nでなければステップS22へ戻り、Y>nになると一連の処理を終了する。
上述した第2実施形態においても、対応画素ごとに、小さい方の輝度値(低輝度値)に差分対数値を加算して輝度値を補正しているので、第1実施形態と同様の効果を得ることができる。さらに、第2実施形態では照明部30が1つであるので、第1実施形態のように2つの照明部21、22を異なるタイミングで発光させる必要がなく、照明部30の制御が簡単になる。また、2つの撮像部1a、1bにより、第1画像と第2画像を同じタイミングで一度に取得できるので、第1実施形態のように1つの撮像部1により第1画像と第2画像を異なるタイミングで取得する場合に比べて、フレームレート(単位時間あたりの処理画像数)が向上するという利点がある。
次に、補正輝度値を算出する他の方法について、図16を参照しながら説明する。図16は、補正輝度値の算出に用いる重み付け係数を示すグラフである。横軸は、第1画像と第2画像における2つの対応画素の輝度値Q1、Q2のうち、大きい方の輝度値である高輝度値Max(Q1,Q2)を階調で表した数字である。ここでは、画素の最も暗い状態から最も明るい状態までを、256階調(0〜255)の輝度値で表している。縦軸は、高輝度値Max(Q1,Q2)に応じて変化する重み付け係数を表している。ここでは、重み付け係数として、2つの係数α、βを用いる。
係数αは、高輝度値Max(Q1,Q2)に応じて0≦α≦1の範囲で変化する係数であって、Max(Q1,Q2)が128以上になるとα=1となり、Max(Q1,Q2)が128より小さくなるに従って漸減し、Max(Q1,Q2)が0ではα=0となる。この係数αは、本発明における「第1係数」に相当する。また、係数βは、β=1−αで与えられる係数であって、高輝度値Max(Q1,Q2)に応じて0≦β≦1の範囲で変化する。Max(Q1,Q2)が128以上になるとβ=0となり、Max(Q1,Q2)が128より小さくなるに従って漸増し、Max(Q1,Q2)が0ではβ=1となる。この係数βは、本発明における「第2係数」に相当する。
画像補正部4は、第1画像と第2画像の各対応画素について、第1輝度値Q1と第2輝度値Q2を検出するとともに、Q1とQ2を比較して、大きい方の高輝度値Max(Q1,Q2)と、小さい方の低輝度値Min(Q1,Q2)とを検出する。また、第1輝度値Q1と第2輝度値Q2の差分対数値A(前述)と、第1輝度値Q1と第2輝度値Q2の平均値である輝度平均値Bを、それぞれ次式により算出する。
差分対数値A=log|Q1−Q2|
輝度平均値B=(Q1+Q2)/2
さらに、高輝度値Max(Q1,Q2)に基づき、図16のグラフより係数α、βの値を決定する。そして、これらの差分対数値A、輝度平均値B、低輝度値Min(Q1,Q2)、および係数α、βを用いて、補正輝度値Qs’を次式により算出する。
補正輝度値Qs’=α・(Min(Q1,Q2)+A)+β・B
=α・(Min(Q1,Q2)+log|Q1−Q2|)
+β・(Q1+Q2)/2 …(6)
式(6)からわかるように、係数αは、低輝度値Min(Q1,Q2)と差分対数値Aとの和に対して重み付けを行う係数であり、係数βは、輝度平均値Bに対して重み付けを行う係数である。また、補正輝度値Qs’は、本発明における「第2補正輝度値」に相当する。
画像補正部4は、補正輝度値Qs’の算出にあたり、高輝度値Max(Q1,Q2)が所定値(ここでは128)以上か否かを判別する。そして、0<Max(Q1,Q2)<128であれば、当該Max(Q1,Q2)に応じた係数α、βの値を図16のグラフから決定し、式(6)により補正輝度値Qs’を算出する。また、128≦Max(Q1,Q2)である場合は、式(6)において、α=1、β=0として補正輝度値Qs’を算出する。このときの補正輝度値Qs’は、
Qs’=Min(Q1,Q2)+log|Q1−Q2| …(7)
であり、前記の式(4)の補正輝度値Qsと同じとなる。また、Max(Q1,Q2)=0の場合は、式(6)において、α=0、β=1として補正輝度値Qs’を算出する。このときの補正輝度値Qs’は、
Qs’=(Q1+Q2)/2 …(8)
であり、輝度平均値Bがそのまま補正輝度値Qs’ となる。
このように、低輝度値Min(Q1,Q2)と差分対数値Aとの和に対して係数αによる重み付けを行い、輝度平均値Bに対して係数βによる重み付けを行った補正輝度値Qs’を用いて画像の補正処理を行うことにより、眼鏡による反射の有無に応じた最適の合成画像を作成することができる。すなわち、眼鏡で反射があって高輝度値Max(Q1,Q2)が大きい場合は、大きな値の係数αと小さな値の係数βによって重み付けが行われる結果、補正輝度値Qs’は、輝度平均値Bよりも、低輝度値Min(Q1,Q2)および差分対数値Aが強調された値となる。このため、低輝度化と対数変換による差分の圧縮効果とが反映されて、図17(a)に示すような眼鏡反射に影響されない合成画像を得ることができる。一方、眼鏡で反射がなく高輝度値Max(Q1,Q2)が小さい場合は、小さな値の係数αと大きな値の係数βによって重み付けが行われる結果、補正輝度値Qs’は、低輝度値Min(Q1,Q2)や差分対数値Aよりも、輝度平均値Bが強調された値となる。このため、輝度の平均化により図17(b)に示すような、図17(a)よりも全体的に明るい合成画像を得ることができる。
上述した補正輝度値Qs’を用いて合成画像を作成する方法は、図1および図2に示したドライバーモニタ100と、図11および図12に示したドライバーモニタ200のいずれにおいても採用することができる。
本発明では、以上述べた実施形態以外にも、以下のような種々の実施形態を採用することができる。
前記の実施形態では、補正輝度値の算出にあたって、底が2である対数関数(図7)を用いたが、対数の底は2以外の値(たとえば3)であってもよい。また、本発明で用いる関数は、変数の増加とともに単調増加し、かつ増加率が漸減する関数であればよく、対数関数に限定されない。たとえば、図18に示す無理関数や、図19に示す双曲線関数を用いることも可能である。
前記の実施形態では、第1輝度値Q1と第2輝度値Q2とを対応画素ごとに比較したが、これに代えて、複数の画素を含むブロック単位で輝度値を比較してもよい。たとえば、図20に示すように、第1画像を複数の第1画素G1を含む複数の第1ブロックH1に分割するとともに、第2画像を複数の第2画素G2を含む複数の第2ブロックH2に分割する。そして、第1ブロックH1の第1輝度値Q1と、第2ブロックH2の第2輝度値Q2とを、対応するブロックごとに比較する。この場合、各ブロックH1、H2の輝度値Q1、Q2としては、1ブロックに含まれる各画素の輝度値の合計値、平均値、最大値などを用いることができる。
図15においては、左側撮像素子の画素の座標系を基準として、右側撮像素子の画素の座標を算出したが、これとは逆に、右側撮像素子の画素の座標系を基準として、左側撮像素子の画素の座標を算出してもよい。また、左右の画素の座標系以外に、第3の座標系を設定し、これを基準として左右の撮像素子の画素の座標を算出してもよい。
また、図15のような幾何学的方法によらずに、実験的方法によって画素の対応付けを行ってもよい。たとえば、2つの撮像装置(ステレオカメラ)により、あらかじめ所定の模様が描かれた図を異なる方向から撮像し、左右の画像を比較することで画素の対応付けを行い、その結果をテーブル化しておいてもよい。その他、ステレオカメラ方式における画素の対応付け方法としては、エピポーラ線(epipolar line)を用いる方法など、各種の公知の方法を採用することができる。
図16においては、重み付けの係数βを、β=1−αとした例を挙げたが、係数βは、係数αに依存しない係数であってもよい。
図1および図2においては、1つの撮像部1と2つの照明部21、22を備えたドライバーモニタ100を例に挙げ、図11および図12においては、2つの撮像部1a、1bと1つの照明部30を備えたドライバーモニタ200を例に挙げたが、本発明はこれらに限定されない。たとえば、ドライバーモニタは、2つの撮像部と2つの照明部を備えたものであってもよい。
図1および図12においては、画像補正部4と画像解析部6が制御部7と別に設けられているが、画像補正部4と画像解析部6は、制御部7の内部に備わっていてもよい。
前記の実施形態では、画像処理装置として車両に搭載されるドライバーモニタを例に挙げたが、本発明は、これ以外の用途に用いられる画像処理装置にも適用することができる。
1 撮像部
1a 第1撮像部
1b 第2撮像部
2 照明部
3 記憶部
4 画像補正部
5 補正画像記憶部
6 画像解析部
7 制御部
8 外部出力部
21 第1照明部
22 第2照明部
30 照明部
100、200 ドライバーモニタ(画像処理装置)
G1 第1画素
G2 第2画素
H1 第1ブロック
H2 第2ブロック
P 運転者(被写体)

Claims (8)

  1. 被写体に照明光を投光する第1照明部と、
    前記第1照明部と異なる方向から被写体に照明光を投光する第2照明部と、
    前記第1照明部が被写体に照明光を投光した状態で、当該被写体の第1画像を撮像し、前記第2照明部が被写体に照明光を投光した状態で、当該被写体の第2画像を撮像する撮像部と、
    前記第1画像を構成する第1画素の第1輝度値と、前記第2画像を構成する第2画素の第2輝度値とを対応する画素ごとに比較し、その比較結果に基づいて、前記第1画像と前記第2画像の合成画像に対し所定の補正処理を行って補正画像を生成する画像補正部と、を備え、
    前記画像補正部は、
    前記第1輝度値と前記第2輝度値との差分を算出し、
    前記差分と、当該差分の増加とともに単調増加しかつ増加率が漸減する所定の関数と、に基づいて補正輝度値を算出し、
    前記補正輝度値を用いて前記補正画像を生成する、ことを特徴とする画像処理装置。
  2. 被写体に照明光を投光する照明部と、
    前記照明部が被写体に照明光を投光した状態で、当該被写体の第1画像を撮像する第1撮像部と、
    前記照明部が被写体に照明光を投光した状態で、前記第1撮像部と異なる方向から被写体の第2画像を撮像する第2撮像部と、
    前記第1画像を構成する第1画素の第1輝度値と、前記第2画像を構成する第2画素の第2輝度値とを対応する画素ごとに比較し、その比較結果に基づいて、前記第1画像と前記第2画像の合成画像に対し所定の補正処理を行って補正画像を生成する画像補正部と、を備え、
    前記画像補正部は、
    前記第1輝度値と前記第2輝度値との差分を算出し、
    前記差分と、当該差分の増加とともに単調増加しかつ増加率が漸減する所定の関数と、に基づいて補正輝度値を算出し、
    前記補正輝度値を用いて前記補正画像を生成する、ことを特徴とする画像処理装置。
  3. 請求項1または請求項2に記載の画像処理装置において、
    前記関数は、対数関数であり、
    前記画像補正部は、前記対数関数に基づいて、前記差分の絶対値の対数である差分対数値を算出し、当該差分対数値を用いて前記補正輝度値を算出する、ことを特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記補正輝度値は、前記第1輝度値と前記第2輝度値のうち、小さい方の輝度値である低輝度値と、前記差分対数値とを加算した第1補正輝度値である、ことを特徴とする画像処理装置。
  5. 請求項3に記載の画像処理装置において、
    前記補正輝度値は、前記第1輝度値と前記第2輝度値のうち、小さい方の輝度値である低輝度値と前記差分対数値とを加算した値に第1係数αを乗じた値と、前記第1輝度値と前記第2輝度値の平均値に第2係数βを乗じた値とを加算した第2補正輝度値である、ことを特徴とする画像処理装置。
  6. 請求項5に記載の画像処理装置において、
    前記第1係数αは、前記第1輝度値と前記第2輝度値のうち、大きい方の輝度値である高輝度値に応じて、0≦α≦1の範囲で変化する係数であって、前記高輝度値が小さくなるに従って漸減し、
    前記第2係数βは、β=1−α(0≦β≦1)で与えられる係数であって、前記高輝度値が小さくなるに従って漸増し、
    前記画像補正部は、
    前記高輝度値を検出して、当該高輝度値が所定値以上か否かを判別し、
    前記高輝度値が所定値以上である場合は、前記第1係数をα=1、前記第2係数をβ=0として、前記第2補正輝度値を算出し、
    前記高輝度値が所定値未満である場合は、当該高輝度値に応じた前記第1係数α(0≦α<1)および前記第2係数β(0<β≦1)を用いて、前記第2補正輝度値を算出する、ことを特徴とする画像処理装置。
  7. 請求項3ないし請求項6のいずれかに記載の画像処理装置において、
    前記対数関数は、2を底とする対数関数である、ことを特徴とする画像処理装置。
  8. 請求項1ないし請求項7のいずれかに記載の画像処理装置において、
    前記画像補正部は、
    前記第1輝度値と前記第2輝度値とを対応する画素ごとに比較することに代えて、
    複数の第1画素を含む複数の第1ブロックの第1輝度値と、複数の第2画素を含む複数の第2ブロックの第2輝度値とを、対応するブロックごとに比較する、ことを特徴とする画像処理装置。
JP2015245118A 2015-12-16 2015-12-16 画像処理装置 Active JP6289439B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015245118A JP6289439B2 (ja) 2015-12-16 2015-12-16 画像処理装置
DE102016225311.5A DE102016225311A1 (de) 2015-12-16 2016-12-16 Bildverarbeitungseinrichtung
US15/381,774 US10089731B2 (en) 2015-12-16 2016-12-16 Image processing device to reduce an influence of reflected light for capturing and processing images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015245118A JP6289439B2 (ja) 2015-12-16 2015-12-16 画像処理装置

Publications (2)

Publication Number Publication Date
JP2017112486A JP2017112486A (ja) 2017-06-22
JP6289439B2 true JP6289439B2 (ja) 2018-03-07

Family

ID=58994298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015245118A Active JP6289439B2 (ja) 2015-12-16 2015-12-16 画像処理装置

Country Status (3)

Country Link
US (1) US10089731B2 (ja)
JP (1) JP6289439B2 (ja)
DE (1) DE102016225311A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046141A (ja) 2017-09-01 2019-03-22 アルパイン株式会社 運転者監視装置、運転者監視方法、及びプログラム
JP6939580B2 (ja) * 2018-01-10 2021-09-22 株式会社デンソー 車両用画像合成装置
DE102018216779A1 (de) * 2018-09-28 2020-04-02 Continental Automotive Gmbh Verfahren und System zum Ermitteln einer Position eines Nutzers eines Kraftfahrzeugs
KR20210015323A (ko) * 2019-08-01 2021-02-10 현대자동차주식회사 운전자 상태 경고 장치, 차량 및 운전자 상태 경고 방법

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4287410A (en) * 1979-02-28 1981-09-01 Sri International Double Purkinje eye tracker
US5185671A (en) * 1991-06-21 1993-02-09 Westinghouse Electric Corp. Adaptive control of an electronic imaging camera
JP2006048328A (ja) 2004-08-04 2006-02-16 Konica Minolta Holdings Inc 顔検出装置および顔検出方法
JP2006047767A (ja) * 2004-08-05 2006-02-16 Toshiba Corp 情報処理装置および映像データの輝度制御方法
US7777778B2 (en) * 2004-10-27 2010-08-17 Delphi Technologies, Inc. Illumination and imaging system and method
JP4068634B2 (ja) * 2005-09-26 2008-03-26 株式会社東芝 映像信号処理装置及び映像信号処理方法
US7630002B2 (en) * 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
US7646422B2 (en) * 2006-10-04 2010-01-12 Branislav Kisacanin Illumination and imaging system with glare reduction and method therefor
US7876474B2 (en) * 2006-10-31 2011-01-25 Brother Kogyo Kabushiki Kaisha Image processing device capable of suppressing over-correction in Retinex process
JP4356733B2 (ja) 2006-11-09 2009-11-04 アイシン精機株式会社 車載用画像処理装置とその制御方法
JP4798455B2 (ja) * 2007-03-13 2011-10-19 独立行政法人産業技術総合研究所 精神的疲労の測定機能を有する携帯端末装置及びそのプログラム
US7777897B1 (en) * 2007-08-03 2010-08-17 Ventek, Inc. Veneer roughness detection
JP5369851B2 (ja) * 2008-09-16 2013-12-18 株式会社リコー 画像処理装置、画像処理方法、コンピュータが実行可能なプログラム、およびコンピュータが読み取り可能な記録媒体
JP4666062B2 (ja) * 2008-11-17 2011-04-06 株式会社デンソー 画像撮影装置および方法
EP2472850B1 (en) * 2008-12-22 2013-11-20 Mitsubishi Electric Corporation Image processing apparatus
JP2013535022A (ja) * 2010-05-29 2013-09-09 ウェンユー・ジアーン 凝視距離および低電力凝視追跡によって動かされる適応レンズを有する眼鏡を製作し使用するためのシステム、方法および装置
JP6021465B2 (ja) * 2011-07-11 2016-11-09 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
KR20130010952A (ko) * 2011-07-20 2013-01-30 삼성전자주식회사 이중 에너지 엑스선 영상 장치 및 그 제어방법
JP5861924B2 (ja) * 2011-12-26 2016-02-16 株式会社リコー 撮像装置
US8964089B2 (en) * 2012-05-09 2015-02-24 Canon Kabushiki Kaisha Systems and methods for simulated preview for preferred image exposure
KR101958910B1 (ko) * 2012-10-26 2019-03-15 에스케이 텔레콤주식회사 영상보정의 가속화를 위한 영상보정 장치 및 그 방법
JP5918198B2 (ja) * 2013-11-26 2016-05-18 日立アロカメディカル株式会社 超音波診断装置
US9363445B2 (en) * 2014-06-30 2016-06-07 Qualcomm Incorporated Flash collision detection, compensation, and prevention
US10052015B2 (en) * 2014-09-30 2018-08-21 Fujifilm Corporation Endoscope system, processor device, and method for operating endoscope system
JP6623832B2 (ja) * 2016-02-26 2019-12-25 富士通株式会社 画像補正装置、画像補正方法及び画像補正用コンピュータプログラム

Also Published As

Publication number Publication date
JP2017112486A (ja) 2017-06-22
DE102016225311A1 (de) 2017-06-22
US20170178304A1 (en) 2017-06-22
US10089731B2 (en) 2018-10-02

Similar Documents

Publication Publication Date Title
JP5435307B2 (ja) 車載カメラ装置
JP5145555B2 (ja) 瞳孔検出方法
JP6168879B2 (ja) 内視鏡装置、内視鏡装置の作動方法及びプログラム
US9424462B2 (en) Object detection device and object detection method
JP6289439B2 (ja) 画像処理装置
JP7138168B2 (ja) 低照明光条件下での物体追跡における信号対雑音比を向上させるためのシステム及び方法
CN108111749B (zh) 图像处理方法和装置
JP2013005234A5 (ja)
JP4666062B2 (ja) 画像撮影装置および方法
US20100054548A1 (en) Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP2015194884A (ja) 運転者監視システム
CN108140244B (zh) 视线检测装置以及视线检测方法
US20160063334A1 (en) In-vehicle imaging device
CN107960989B (zh) 脉搏波计测装置以及脉搏波计测方法
JP6669053B2 (ja) ヘッドアップディスプレイシステム
JP2007004448A (ja) 視線検出装置
US20170156590A1 (en) Line-of-sight detection apparatus
JP6900994B2 (ja) 視線検出装置及び視線検出方法
JP6856017B2 (ja) 角膜反射位置検出装置、視線検出装置及び角膜反射位置検出方法
JP2016028669A (ja) 瞳孔検出装置、および瞳孔検出方法
CN109415020B (zh) 辉度控制装置、辉度控制系统以及辉度控制方法
JP2016051317A (ja) 視線検出装置
JP2013123180A (ja) モニタリング装置
JP2019204988A (ja) 画像処理装置及び画像処理方法
JP2017162233A (ja) 視線検出装置および視線検出方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R150 Certificate of patent or registration of utility model

Ref document number: 6289439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250