JP7412920B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP7412920B2
JP7412920B2 JP2019145945A JP2019145945A JP7412920B2 JP 7412920 B2 JP7412920 B2 JP 7412920B2 JP 2019145945 A JP2019145945 A JP 2019145945A JP 2019145945 A JP2019145945 A JP 2019145945A JP 7412920 B2 JP7412920 B2 JP 7412920B2
Authority
JP
Japan
Prior art keywords
image
brightness
area
infrared
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019145945A
Other languages
English (en)
Other versions
JP2021027535A5 (ja
JP2021027535A (ja
Inventor
成悟 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019145945A priority Critical patent/JP7412920B2/ja
Priority to US16/983,304 priority patent/US11457155B2/en
Publication of JP2021027535A publication Critical patent/JP2021027535A/ja
Publication of JP2021027535A5 publication Critical patent/JP2021027535A5/ja
Application granted granted Critical
Publication of JP7412920B2 publication Critical patent/JP7412920B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/90
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Description

本発明は、波長帯域の異なる複数の撮像画像を合成可能な画像処理装置、画像処理方法およびプログラムに関する。
被写体を可視光および赤外光によりそれぞれ撮像して得られる画像を合成して出力する撮像装置がある。この種の撮像装置は、例えば、低照度の下等で、より高感度なカラー画像を取得するために利用されている。
特許文献1は、可視光帯域の波長成分のみからなるカラー画像データと、可視光帯域の波長成分を含まず可視光帯域以外の波長成分のみからなるモノクロ画像データとを合成して合成画像データを生成する画像処理装置を開示する。
具体的には、特許文献1の画像処理装置は、カラー画像データから色情報を抽出するとともにモノクロ画像データから輝度情報を抽出し、カラー画像データの色情報とモノクロ画像データの輝度情報とを合成することにより、合成画像データを生成する。
特開2011-239259号公報
しかしながら、合成されるべきカラー画像データとモノクロ画像データとでは、撮像する光の波長帯域が異なる。このため、照明や被写体の反射率の分光特性等に起因して、カラー画像データとモノクロ画像データとの間で、画像内の輝度情報に乖離が発生する場合があった。例えば、カラー画像では明るく撮像できている画像内のある領域が、モノクロ画像では暗く撮像されてしまい、当該領域において、カラー画像とモノクロ画像とで輝度情報が乖離してしまうという現象があった。
ここで、特許文献1の画像処理装置が生成する合成画像では、上記のとおり、カラー画像データの色情報と合成されるのは、可視光帯域以外の波長成分と持つモノクロ画像データの輝度情報である。このため、合成画像においては、カラー画像の輝度情報とは乖離した輝度情報を持つ領域が発生しかねない。
このように、合成画像がカラー画像の輝度情報と乖離した輝度情報を持つ領域を含むことにより、当該領域では、人の視覚領域に近い可視画像であるカラー画像の輝度情報とは異なる輝度情報で画像が合成されてしまう。したがって、合成画像における色の再現性が低下し、合成画像を見るユーザに違和感を与えるおそれがあった。
本発明は上記課題を解決するためになされたものであり、その目的は、可視光画像と非可視光画像とを合成する際に、色の再現性の低下を抑制することが可能な画像処理装置を提供することにある。
上記課題を解決するため、本発明に係る画像処理装置は、可視光による像を撮像した第1の画像と非可視光による像を撮像した第2の画像とを取得する取得手段と、前記第1の画像の輝度に基づいて、前記第2の画像の輝度を、前記第1の画像の輝度と前記第2の画像の輝度との輝度差が低減されるように補正する補正手段と、前記補正手段により輝度が補正された前記第2の画像と、前記第1の画像の色情報とを合成して合成画像を生成する生成手段とを備える。
本発明によれば、可視光画像と非可視光画像とを合成する際に、色の再現性の低下を抑制することができる。
実施形態1に係る撮像装置のハードウエアおよび機能構成の一例を示すブロック図。 赤外画像と可視画像とのそれぞれの輝度の一例を示す図。 図2の赤外画像と可視画像とのそれぞれの輝度ヒストグラムの一例を示す図。 実施形態1に係る撮像装置が実行する領域別輝度補正および画像合成の処理手順の一例を示すフローチャート。 実施形態1における輝度補正後の赤外画像の輝度の一例を示す図。 図5に示す輝度補正後の赤外画像の輝度ヒストグラムの一例を示す図。 実施形態2に係る撮像装置が実行する領域別輝度補正および画像合成の処理手順の一例を示すフローチャート。 領域Cに赤外特有の情報を有する赤外画像および対応する可視画像のそれぞれの輝度の一例を示す図。 実施形態3に係る撮像装置が実行する領域別輝度補正および画像合成の処理手順の一例を示すフローチャート。 図8の赤外画像に対して輝度補正した後の赤外画像の輝度の一例を示す図。 領域Bに赤外特有の情報を有する赤外画像および対応する可視画像のそれぞれの輝度の一例を示す図。 実施形態4に係る撮像装置が実行する領域別輝度補正および画像合成の処理手順の一例を示すフローチャート。 図11の赤外画像に対して輝度補正した後の赤外画像の輝度の一例を示す図。 実施形態5に係る撮像装置が出力する合成画像および輝度補正前の赤外画像の並列表示の一例を示す図。 実施形態5に係る撮像装置が出力する合成画像および輝度補正前の切り出し赤外画像の並列表示の一例を示す図。 実施形態5に係る撮像装置が出力する合成モード選択表示の一例を示す図。 各実施形態に係る画像処理装置のハードウエア構成の一例を示すブロック図。
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
以下、本実施形態に係る画像処理装置が撮像装置に実装される例を説明するが、本実施形態はこれに限定されない。例えば、画像処理装置は、1つ以上の撮像装置により撮像された画像を取得して、合成画像を生成してもよい。
また、以下、画像処理機能を備える撮像装置が、可視光で撮像されたカラー画像データ(以下、「可視画像」ともいう)と赤外光で撮像されたモノクロ画像データ(以下、「赤外画像」ともいう)とを合成して合成画像を生成する例を説明する。しかしながら、本実施形態における撮像画像の波長帯域や帯域幅は特に限定されない。
(実施形態1)
<本実施形態のハードウエアおよび機能構成>
図1は、本実施形態に係る撮像装置のハードウエアおよび機能構成の一例を示す図である。
図1に示す撮像装置1は、少なくとも2つの異なる波長帯域による像を撮像することができる。以下、第1の波長帯域を可視光帯域、第2の波長帯域を赤外光帯域として説明する。
図1の撮像装置1は、レンズ11、ビームスプリッタ12、可視光用イメージセンサ13、赤外光用イメージセンサ14、色空間変換部15、領域別輝度算出部16、輝度補正部17、および映像信号合成部18を備える。
レンズ11は、可視光および赤外光を含む外光を透過させ、ビームスプリッタ12を介して、後段のイメージセンサへ入射させる。
ビームスプリッタ12は、可視光を透過させるとともに赤外光を垂直方向に反射させることで可視光と赤外光を分離し、可視光を可視光用イメージセンサ13に、赤外光を赤外光用イメージセンサ14へ、それぞれ入射させる。
可視光イメージセンサ13は、可視光成分(波長400nm~750nm)に、赤外光イメージセンサ14は、赤外光成分(波長750nm~1000nm)に、それぞれ感度を有している。可視光成分と赤外光成分との映像信号処理につき、以下それぞれ説明する。
可視光イメージセンサ13は、R(赤色)、G(緑色)、B(青色)のカラーフィルタを有し、ビームスプリッタ12を透過した可視光にこれらのカラーフィルタを透過させることにより、各波長成分(R,G,B)の可視映像信号を出力する。
色空間変換部15は、可視光イメージセンサ13から入射する可視光を、可視光の輝度情報(以下、「可視輝度情報」という)Yvrおよび色差情報Cvrに変換する色空間変換処理を実行する。色空間変換部15は、可視輝度情報Yvrを領域別輝度算出部16へ供給するとともに、色差情報Cvrを映像信号合成部18へ供給する。
領域別輝度算出部16は、色空間変換部15から供給される可視輝度情報Yvrに基づいて、赤外光用イメージセンサ14から供給される赤外光の輝度情報(以下、「赤外輝度情報」という)Yirを補正する補正値Xを画像の領域ごとに算出する。算出された補正値Xは、輝度補正部17へ供給される。
輝度補正部17は、領域別輝度算出部16から供給される領域別の輝度補正値Xに基づいて、赤外光用イメージセンサ14から供給される赤外輝度情報Yirを補正し、補正後の赤外輝度情報Yircを映像信号合成部18へ供給する。
映像信号合成部18は、色空間変換部15から供給される色差情報Cvrと、輝度補正部17から供給される補正後の赤外輝度情報Yircとを合成して、合成画像を出力する。上記の赤外光(赤外画像)の輝度情報の補正処理の詳細は、図2~図4を参照して後述する。
一方、赤外光用イメージセンサ14は、色差情報を取得する必要がないため、カラーフィルタを備えなくてよい。このため、ここでは、赤外光用イメージセンサ14がカラーフィルタを備えず、隣接する画素間で分光特性の差異がない場合を例として説明する。
赤外光用イメージセンサ14は、ビームスプリッタ12で反射された赤外光を入射させ、赤外映像信号IRを出力する。ここで出力される赤外映像信号IRは、輝度情報を持つが色差情報を持たないため、赤外輝度情報Yirとして出力される。
赤外光用イメージセンサ14は、赤外輝度情報Yirを、領域別輝度算出部16および輝度補正部17へ供給する。
輝度補正部17において、上記のとおり、赤外輝度情報Yirは、領域別輝度算出部16で算出された領域別輝度補正値Xに基づいて、画像の領域ごとにその輝度情報を補正され、補正された赤外輝度情報Yircとして映像信号合成部18に供給される。
映像信号合成部18において、色空間変換部15から供給される色差情報Cvrと、輝度補正部17から供給される補正後の赤外輝度情報Yircとが合成されることにより、合成画像が生成される。
なお、図1に示す色空間変換部15、領域別輝度算出部16、輝度補正部17、および映像信号合成部18の各機能部は、1つ以上のCPUが、記憶部に格納されたプログラムを実行することにより実現され得る。すなわち、後述する各フローチャートは、1つ以上のCPUが、記憶部に格納されたプログラムを実行し、情報の演算および加工並びに各ハードウェアの制御を実行することにより実現され得る。ただし、図1に示す各機能部の一部またはすべてが専用のハードウェアにより実現されてもよい。
なお、図1は、可視画像および赤外画像をそれぞれ取得するため、ビームスプリッタ12により可視光と赤外光とを分離する例を示すが、本実施形態で可視光と赤外光を分離する光学素子はビームスプリッタ12に限定されない。例えば、ビームスプリッタ12は、ダイクロイックミラー又はダイクロイックプリズム等に置き換えてもよい。
また、撮像装置1は、可視光用イメージセンサ13および赤外線用イメージセンサ14に替えて、可視光帯域及び赤外光帯域の両方に感度を有する1つのイメージセンサを備えるようにしてもよい。この1つのイメージセンサにレンズ11からの光を入射させ、当該イメージセンサの直前に配置されたフィルタの透過特性によって、イメージセンサの受光面において可視画像および赤外画像を分離して取得してもよい。あるいは、光路上にバンドパスフィルタ、ショートパスフィルタ、ロングパスフィルタ等を挿抜することにより可視画像および赤外画像を分離して取得するようにしてもよい。この場合、ビームスプリッタ12を設ける必要がない。
このようなイメージセンサにおいては、R,G,Bのベイヤ(Bayer)配列構成による三色分離のカラーフィルタに替えて、R,G,B,IRのベイヤ配列構成による三色+赤外のカラーフィルタを使用する。ここで、IRとは赤外光に感度を有するカラーフィルタを示す。
このように、1枚のイメージセンサであっても、R,G,B,IRのベイヤ構成によるカラーフィルタを使用することで、RGBから可視映像信号、IRから赤外映像信号を取得することができる。
また、上記では、撮像装置1の赤外光用イメージセンサ14がカラーフィルタを用いない例を説明したが、本実施形態はこれに限定されない。
赤外光用イメージセンサ14は、赤外光に感度を有していれば足りるため、可視光帯域だけでなく赤外光帯域にも感度があるRGBのカラーフィルタを用いてもよい。
また、上記では、可視画像と赤外画像を合成する例について説明したが、可視画像と合成すべき画像は赤外画像に限らず、変形が可能である。例えば、図1のイメージセンサは、他の非可視光帯域(例えば紫外光領域)や、可視光帯域内の狭帯域領域等に感度を有してもよい。このように波長帯域の区分や波長帯域の帯域幅に限定されずに変形が可能である。
<領域別輝度補正>
図2~図4を参照して、本実施形態における撮像装置1の領域別輝度算出部16および輝度補正部17が実行する画像の領域別輝度補正処理の詳細を説明する。
図2(a)は、赤外輝度情報Yirによって生成される赤外画像、図2(b)は、可視輝度情報Yvrによって生成される可視画像の一例をそれぞれ示す。
なお、図2(a)および図2(b)の画像は同一画角であり、領域Aおよび領域Bを撮像装置1の画角内に収めているものとする。
図2(a)において、赤外画像の領域Aの平均輝度をYir_a_av、赤外画像の領域Bの平均輝度をYir_b_avとする。図2(b)において、可視画像の領域Aの平均輝度をYvr_a_av、可視画像の領域Bの平均輝度をYvr_b_avとする。
ここでは、説明を簡単にするため、各領域の平均輝度(Yir_a_av, Yir_b_av, Yvr_a_av, Yvr_b_av)は全て異なるものとして説明する。また、図2(a)の赤外画像および図2(b)の可視画像の画像内における領域Aおよび領域Bの間のそれぞれの輝度差は、図2(a)の赤外画像および図2(b)の可視画像の画像間で異なるものとする。なお、このように撮像する光の波長帯域で輝度情報に差が発生する主な要因の1つに、被写体の反射率の分光特性(波長依存性)が挙げられる。
ただし、図2(a)の赤外画像および図2(b)の可視画像の画像間で、必ずしもすべての領域の平均輝度が異なる必要はなく、平均輝度が一致している領域があってもよい。
図3は、図2の画像の視覚的把握を容易にするため、画像の領域ごとヒストグラムに変換したものを示す。図3(a)は、図2(a)の赤外画像の輝度情報のヒストグラム、図3(b)は、図2(b)の可視画像の輝度情報のヒストグラムをそれぞれ示す。
本実施形態では、図3(a)に示す赤外画像の各領域における平均輝度(Yir_a_av,Yir_b_av)を、図3(b)に示す可視画像の各領域における平均輝度(Yvr_a_av,Yvr_b_av)に揃える。これにより、本実施形態では、赤外画像の輝度情報を基に合成される合成画像の領域ごとの輝度を、可視画像に近づけることになる。
<領域別輝度補正および画像合成処理>
図4は、本実施形態に係る撮像装置1が実行する領域別輝度補正および画像合成処理の処理手順の一例を示すフローチャートである。
なお、図4の各ステップは、撮像装置1の記憶部に記憶されたプログラムをCPUが読み出し、実行することで実現される。また、図1に示すフローチャートの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
S1で、撮像装置1の領域別輝度算出部16は、撮像画像中の領域を検出する。
本実施形態では、撮像装置1の領域別輝度算出部16は、色空間変換部15から出力される可視輝度情報Yvrに基づいて、画像から領域を検出する。具体的には、領域別輝度算出部16は、画像の画素ごとの輝度情報から輝度差の大きい段差(輪郭)を検出することにより、画像中の領域を切り分ける。これにより、図2および図3に示すように、可視画像および赤外画像の間で輝度差が異なり、それぞれ異なる平均輝度値を有する領域Aおよび領域Bをそれぞれ切り分けることができる。
S2で、撮像装置1の領域別輝度算出部16は、S1で検出された画像の領域別に、輝度を算出する。具体的には、領域別輝度算出部16は、可視輝度情報Yvrおよび赤外輝度情報Yirから、領域別に平均輝度を算出する(Yir_a_av,Yir_b_av,Yvr_a_av,Yvr_b_av)。なお、ここでは説明を簡単にするため、輝度の下限値および上限値は、赤外画像および可視画像でそれぞれ同一であるものとする。
ただし、輝度の下限値および上限値は、赤外画像および可視画像でそれぞれ同一でなくともよい。この場合、赤外画像と可視画像との間で、下限値から上限値の輝度幅を、デジタルゲイン処理によって揃えればよい。
S3で、撮像装置1の領域別輝度算出部16は、S1で検出された領域別に輝度補正値を算出する。具体的には、領域別輝度算出部16は、S2で算出された領域別の平均輝度に基づいて、領域ごとの輝度補正値Xを算出する。
輝度補正値Xは、赤外画像および可視画像の平均輝度の比によって算出することができる。ここで、輝度補正値は領域ごとに異なるため、領域Aの輝度補正値をXa、領域Bの輝度補正値をXbとすると、それぞれの輝度補正値は、以下の式1および式2でそれぞれ示される。
Xa=Yvr_a_av/Yir_a_av (式1)
Xb=Yvr_b_av/Yir_b_av (式2)
S4で、撮像装置1の輝度補正部17は、赤外光用イメージセンサ14から出力される赤外輝度情報Yirに対して、輝度補正を適用する。具体的には、輝度補正部17は、領域別輝度算出部16で算出された領域別の輝度補正値Xを、赤外輝度情報Yirに対して掛け合わせる。
ここで、輝度補正値Xは領域別に異なり、かつ赤外輝度情報Yirは画素ごとに異なる。輝度補正後の赤外輝度情報Yircは、領域Aおよび領域Bのそれぞれについて、以下の式3および式4でそれぞれ示される。式1および式2に示されるように、領域Aの輝度補正値をXa、領域Bの輝度補正値をXbとする。式3は、領域Aにおける輝度補正後の赤外輝度情報Yirc_aを、式4は、領域Bにおける輝度補正後の赤外輝度情報Yirc_bを示す。
Yirc_a=Yir*Xa (式3)
Yirc_b=Yir*Xb (式4)
上記のように、赤外輝度情報Yirに対して、領域別輝度補正値Xに基づいて輝度補正を適用することで、各領域の赤外画像の平均輝度を、可視画像の平均輝度に合わせることができる。なお、領域別に補正値を求めるのではなく、画素単位あるいは画素ブロック単位で補正値を求めてもよい。
本実施形態では、このように補正された赤外輝度情報Yircと可視画像の色差情報Cvrとを合成することにより、赤外の輝度情報を基にしつつも、領域別の平均輝度が可視画像に合った、色再現性の高いカラー合成画像を得ることができる。
S5で、撮像装置1の映像信号合成部18は、画像合成処理を実行する。本実施形態では、映像信号合成部18が、赤外画像の補正後の輝度情報Yircと可視画像の色差情報Cvrとを合成することで、領域ごとの輝度が可視画像に近いカラー合成画像を出力することができる。なお、赤外画像の補正後の輝度情報Yircと可視画像の輝度情報Yvrと可視画像の色差情報Cvrの3つを合成することにより合成画像を出力するようにしてもよい。
なお、上記では可視画像と赤外画像とを合成する例を説明したが、可視画像と合成すべき画像は赤外画像に限定されない。例えば、可視画像と合成すべき画像は、紫外光領域で撮像される画像であってもよく、あるいは、可視光帯域内の狭帯域領域で撮像される画像であってもよい。この場合、必要な波長帯域の光に感度を有するイメージセンサを撮像装置1が備えればよい。
また、図4のS1では、輝度情報を基に輝度の段差から輪郭(エッジ)を検出することにより、画像の領域を検出する例を説明したが、本実施形態はこれに限定されない。
例えば、輝度情報のヒストグラム上、輝度が分かれている領域を検出してもよい。あるいは、動体に着目するのであれば、輝度に変化がある動体を検出し、動体領域を切り分けてもよい。あるいは、輝度補正を適用したい領域が予め分かっている状態であれば、ユーザが領域を指定してもよい。
あるいはまた、画像認識を利用して、領域を切り分けてもよい。例えば、顔認識を利用して、顔とそれ以外の領域等、特定の領域とそれ以外の領域とを別の領域として切り分けてもよい。
また、上記の説明では、可視画像の輝度値から領域を検出したが、これに替えて、赤外画像の輝度値から、または可視画像および赤外画像の2つの画像の輝度値から、領域を検出してもよい。
また、図2、図3、図5、および図6では、領域が2つの場合の例を説明したが、領域が3つ以上の場合にも本実施形態は同様に適用することができる。なお、領域の最小サイズは設計者またはユーザが任意に設定すればよい。この場合、例えば、水平50画素×垂直50画素以上のように画素数で指定してもよい。
図5は、輝度補正後の赤外輝度情報Yircを画像化した一例を示す。
図6は、図5の輝度補正後の赤外輝度情報Yircのヒストグラムの一例を示す。図5および図6において、Yirc_a_avは、領域Aにおける輝度補正後の赤外輝度情報の平均輝度を示し、同様にYirc_b_avは、領域Bにおける輝度補正後の赤外輝度情報の平均輝度を示す。
図5および図6に示す領域別の平均輝度Yirc_a_avおよびYirc_b_avは、式1から式4の算出結果から、図2(b)および図3(b)に示す可視画像の領域別の平均輝度Yvr_a_avおよびYvr_b_avとそれぞれ一致する。したがって、領域別の平均輝度の観点から、図2(a)および図3(a)に示す赤外画像の輝度情報Yir_a_avおよびYir_b_avが、可視画像の輝度情報Yvr_a_avおよびYvr_b_avに近づいた(図5および図6では一致した)ことが分かる。
なお、上記では、赤外画像のすべての領域に対して輝度補正値を算出して輝度補正を適用する例を説明したが、本実施形態はこれに限定されない。例えば、図4のS1で画像から領域を検出した段階で領域数が多い場合等には、輝度補正処理の負荷を軽減するため、輝度補正を適用する領域を選択してもよく、この場合、例えば、サイズが小さい領域に対して輝度補正を適用しないようにしてもよい。
また、上記では、画像の各領域の基準を、当該領域中の画素の輝度の平均値として説明したが、本実施形態はこれに限定されない。例えば、画像の領域内における輝度の最小値と最大値との中間の値や、輝度のヒストグラムの最大頻度の値を基準としてもよい。
さらに、映像信号合成部18が合成する合成画像は、可視画像と赤外画像を合成するため、可視画像に近い画像として視認されることとなる。このため、合成画像であることをユーザに識別させるために、当該合成画像データに特定のデータを埋め込む、または対応付けてよい。合成画像データに埋め込まれる特定のデータは、例えば、画像上でユーザが視認可能な「合成画像」等の文字列や「01」等の数字であってよく、あるいは、画像上は視認できないようにデータ内に暗号化して埋め込まれてもよい。
以上説明したように、本実施形態によれば、撮像装置は、撮像画像の領域ごとに、赤外画像の輝度情報を、可視画像の輝度情報に基づいて補正する。そして、撮像装置は、可視画像の輝度情報に基づいて補正された赤外画像の輝度情報と、可視画像の色差情報とを合成して合成画像を生成する。
これにより、赤外画像について、可視画像との間の領域ごとの輝度差が低減され、合成画像の輝度分布を可視画像に近づけることができる。このため、合成画像における色の再現性を高め、合成画像がユーザに与える違和感を低減することができる。
さらに、赤外画像の輝度情報を使用しているため、赤外画像が持つ高いS/N比を維持することができ、また、赤外画像の領域内で同一の輝度補正が適用されるため、赤外画像で得られた当該領域内の濃淡が損なわれず、高解像度感を維持することもできる。
(実施形態2)
以下、図7を参照して、実施形態2を、実施形態1と異なる点についてのみ詳細に説明する。
実施形態1では、撮像装置1は、画像を領域ごとに分割して、赤外画像の各領域における平均輝度を可視画像に近づけるよう輝度補正した。これに対して本実施形態では、撮像装置1は、輝度補正を適用する前に、赤外画像と可視画像との間で露出調整を実行して、画像の領域を検出する際に輝度補正すべき領域を選択する。
画像の各領域に対してそれぞれ輝度補正を適用すると、輝度補正の処理負荷が増大してしまう可能性がある。そこで本実施形態では、赤外画像と可視画像とを比較し、輝度差が大きい領域のみについて輝度補正を適用する。そして、赤外画像と可視画像の双方の輝度値を直接比較するため、本実施形態では、輝度補正を適用する前に赤外画像と可視画像との間で露出調整を実行する。
実施形態2に係る撮像装置1のハードウエアおよび機能構成は、図1を参照して説明した実施形態1に係る撮像装置1とそれぞれ同様であるため、その説明を省略する。
図7は、実施形態2に係る撮像装置1が実行する領域別輝度補正処理および画像合成処理の処理手順の一例を示すフローチャートである。図4に示す実施形態1の処理と比較して、赤外画像と可視画像との間の露出調整処理、および輝度補正を適用すべき領域の選択処理が追加されている。
図7のS1およびS2は、図4に示す実施形態1のS1およびS2と同様であり、画像から領域を検出し、領域別に平均輝度値を算出する。
図7のS2に続き、S71で、撮像装置1の領域別輝度算出部16は、赤外画像と可視画像との間で露出調整を実行する。具体的には、領域別輝度算出部16は、赤外画像のある領域の平均輝度が可視画像の対応する領域の平均輝度と一致するように、赤外画像全体にデジタルゲインを掛けることにより、露出調整を実行する。
図2(a)の赤外画像および図2(b)の可視画像を参照して、図2(a)および図2(b)において、ともに領域Aおよび領域Bが検出されているものとする。ここで、露出調整の基準となる領域は、画像全体に占める割合が大きい領域が好ましい。そこで、領域別輝度算出部16は、赤外画像と可視画像のそれぞれの領域Aの平均輝度が一致するように、図2(a)の赤外画像全体に対して露出調整を適用する。
露出調整の調整値Zeは、上記式1と同様であり、以下の式5で表すことができる。以下、露出調整の基準となる領域を基準領域と称する。以下では、画像中で最もサイズの大きい領域Aを基準領域としている。
Ze=Yvr_a_av/Yir_a_av (式5)
上記式5の露出調整の調整値Zeに基づいて、図2(a)の赤外画像全体にデジタルゲインを掛けることにより補正する。補正後の輝度値Yireは、以下の式6で表すことができる。
Yire=Yir*Ze (式6)
このとき、S2で算出された赤外画像の領域別の平均輝度も調整値Ze倍されるため、領域Aの平均輝度Yir_a_avおよび領域Bの平均輝度Yir_b_avは、それぞれ以下の式7および式8のとおりとなる。
Yire_a_av=Yir_a_av*Ze (式7)
Yire_b_av=Yir_b_av*Ze (式8)
図7に戻り、S71に続き、S72で、領域別輝度算出部16は、S1で検出された領域のうち、輝度補正を適用すべき領域を選択する。具体的には、領域別輝度算出部16は、基準領域である領域Aを基準として、露出調整された赤外画像および可視画像の各領域における平均輝度を比較する。
領域Bにおいて、Yire_b_avおよびYvr_b_avの差が小さい場合、すなわち赤外画像および可視画像の間で輝度差が小さい領域の場合、輝度補正を適用しても可視画像の輝度に近づける効果が薄いため、輝度補正を適用する必要がない。一方、Yire_b_avおよびYvr_b_avの差が大きい場合、すなわち赤外画像および可視画像の間で輝度差が大きい領域の場合、輝度補正を適用することが好ましい。このように、各領域の輝度差を比較することで、輝度補正を適用すべき領域を選択することができる。輝度差が大きいまたは輝度差が小さいと決定するための閾値は、設計者もしくはユーザが任意に設定できてよい。
なお、可視画像の輝度分布(見た目)に近づけるためには、輝度差が大きい全ての領域に対して輝度補正を適用することが好ましい。しかしながら、赤外特有の情報を重視したい場合には、赤外画像および可視画像の輝度差の大小関係によって輝度補正の有無を切り替えてもよい。
例えば、赤外画像の輝度差が大きく、可視画像の輝度差が小さい場合には、赤外特有の情報が多いものと判定して、輝度補正を適用せずに赤外輝度情報をそのまま出力してよい。一方、赤外画像の輝度差が小さく、可視画像の輝度差が大きい場合には、赤外の情報量が少ないものと判定して、輝度補正を適用して輝度補正された赤外輝度情報を出力してよい。上記のように、輝度補正を適用すべき領域を選択することができる。
S72に続き、S3で、領域別輝度算出部16は、領域別輝度補正値Xeを算出する。本実施形態において、露出調整を適用した領域Aについては、赤外画像と可視画像の間で露出が一致しているため、輝度補正を適用する必要がない。そのため、S3では、領域Bに対する領域別輝度補正値Xebを算出すればよい。
領域Bに対する領域別輝度補正値Xebは、図4のS3、式1および式と同様に、以下の式9のとおり表すことができる。
Xeb=Yvr_b_av/Yire_b_av (式9)
S4で、輝度補正部17は、領域別輝度補正を行う。ここで、露出調整を適用した領域は赤外画像と可視画像との間で露出が一致しているため、輝度補正を適用する必要がない。このため、式9では、領域Bに対する領域別輝度補正の値が示されている。以下の式10は、輝度補正を適用した補正後の赤外画像の赤外輝度情報を示す。
Yirc=Yire*Xeb (式10)
上記式10を変形すると、下記式11のように表すことができる。露出調整を適用した式11は、露出調整を適用しない上記式4と結果が一致している。このことから、露出調整を適用した場合でも、領域Bに対して輝度補正が適用されていることがわかる。
Yirc=Yire*Yvr_b_av/Yire_b_av
=Yir*Ze*Yvr_b_av/(Yir_b_av*Ze)
=Yir*Yvr_b_av/Yir_b_av (式11)
なお、上記では、露出調整を適用するべき基準領域として、サイズが最も大きい領域を選択したが、本実施形態はこれに限定されない。例えば、中間輝度の領域を選択する等、当該領域の輝度で判断してもよいし、可視画像と赤外画像との間で平均輝度が最も近い領域を選択してもよい。また、AE(Automatic Exposure)の評価枠を基準領域に予め合わせておけば、撮影した段階で露出が赤外画像と可視画像との間で一致するため、図7のS71の露出調整のステップをスキップすることができる。
また、上記では、輝度補正を適用すべき領域を判定する際に、赤外画像と可視画像との間で平均輝度の輝度差を判定したが、本実施形態はこれに限定されない。例えば、領域内のコントラストを比較することで判定してもよい。例えば、赤外画像のコントラストが可視画像のコントラストよりも高い領域については、赤外画像の情報量が多いと判断し、輝度補正を適用せずに画像合成処理を実行してもよい。すなわち、赤外画像のコントラストが可視画像のコントラストを超えない領域についてのみ、輝度補正を適用して画像合成処理を実行してもよい。なお、このようなコントラストによる輝度補正を適用すべき領域の判定は、後述する実施形態3および実施形態4においても適用可能である。
以上説明したように、本実施形態によれば、撮像装置は、赤外画像に対する輝度補正を適用する前に、赤外画像と可視画像との間で露出調整を実行する。そして、撮像装置は、例えば、輝度差が大きい赤外画像の領域のみについて輝度補正を適用すべく、赤外画像の領域中で輝度補正すべき領域を選択する。
これにより、実施形態1と同様、合成画像における色の再現性を高め、合成画像がユーザに与える違和感を低減しつつ、さらに、輝度補正の処理負荷を低減することができる。
(実施形態3)
以下、図8ないし図10を参照して、実施形態3を、上記各実施形態と異なる点についてのみ詳細に説明する。
実施形態1では、撮像装置1は、画像を領域ごとに分割して、赤外画像の各領域における平均輝度を可視画像に近づけるよう輝度補正した。これに対して本実施形態では、撮像装置1は、画像の領域を検出する際に、赤外光帯域特有の情報が取得されたか否かに基づいて、画像の領域を検出する際に輝度補正すべき領域を選択する。
可視光と赤外光のように波長帯域が異なる場合、可視画像と赤外画像との間で取得される画像に差が生じることがある。ここでは画像がサングラスを含む例を説明する。サングラスの中には、可視光帯域の透過率が低く赤外光帯域の透過率が高いものがある。このような波長依存性を持つサングラスをそれぞれの波長帯域で撮像すると、可視光帯域では可視光がサングラスを透過しないため、サングラスのガラス面が撮像される。一方、赤外光帯域ではサングラスを赤外光がサングラスを透過するためサングラス越しの目を撮像することができる。
この場合、赤外輝度情報に対して輝度補正を同様に適用すると、赤外光帯域で得られたサングラス越しの目の赤外輝度情報が、可視光帯域で得られたサングラスのガラス面の平均輝度で補正されてしまう。この例のように、撮像されている対象物が異なるもの同士で輝度補正をしてしまうと、赤外光帯域特有の情報が減殺されてしまい、適切な合成画像を生成することができない。さらに、サングラス面の可視光帯域の輝度が極端に低い場合には、輝度補正後の赤外画像が黒潰れしてしまい、赤外光帯域特有の情報が失われてしまう。そのため、サングラス越しの目のような赤外光帯域特有の情報を重視したい場合には、輝度補正を適用せずに合成画像を生成することが好ましい。
実施形態3に係る撮像装置1のハードウエアおよび機能構成は、図1を参照して説明した実施形態1に係る撮像装置1とそれぞれ同様であるため、その説明を省略する。
図8は、領域A、領域B、領域Cを捉えた画像の一例を示す。図8(a)は赤外画像の例であり、領域A、領域B、領域Cのすべてで平均輝度が明確に異なるものとする。一方、図8(b)は可視画像の例であり、領域Bおよび領域Cの平均輝度に差がなく、領域Aは領域Bおよび領域Cと平均輝度に明確な差があるものとする。
図9は、実施形態3に係る撮像装置が実行する領域別輝度補正処理および画像合成処理の処理手順の一例を示すフローチャートである。図4に示す実施形態1の処理と比較して、輝度補正を適用すべき領域の選択処理が追加されている。
図9のS1は、図4に示す実施形態1のS1と同様であり、撮像装置1の領域別輝度算出部16は、画像から領域を検出する。ただし、本実施形態では、後続するS91で、赤外画像と可視画像とで検出された領域を比較するため、赤外画像および可視画像のそれぞれについて領域を検出する。ここでの領域の検出は、画像内の輝度の段差を検出することで実行する。こうして、図8(a)の赤外画像では、隣接領域と輝度に差がある領域A、領域B、領域Cが検出される。一方、図8(b)の可視画像では、他の隣接領域であると輝度に差がある領域Aは検出されるが、領域Bと領域Cを切り分けることができない。ここでは可視画像の領域Cが領域Bに内包されているものとして、領域Bおよび領域Cを領域Bとして扱う。すなわち、図8(b)の可視画像では、領域Aおよび領域Bが検出される。
S1に続き、S91で、領域別輝度算出部16は、輝度補正を適用すべき領域を選択する。本実施形態では、図9のS1で検出された領域のうち、赤外画像の領域の方が可視画像の領域よりも細かく区分された領域を、輝度補正を適用しない領域として決定してよい。すなわち、赤外画像と可視画像との双方で検出された領域のみにつき、輝度補正を適用する。
図8を参照して、領域Aは、領域の大きさおよび形状が赤外画像と可視画像との間で同一であるため、輝度補正を適用すべき領域となる。領域Bは、図8(a)の赤外画像では内側が領域Cによってくり抜かれた形状であるのに対して、図8(b)の可視画像では領域Cとの切り分けができないためくり抜きのない形状である。さらに領域Cは、図8(a)の赤外画像では領域Bと切り分けができているのに対して、図8(b)の可視画像では領域Bに埋もれてしまって切り分けができない。
したがって、図8(a)の赤外画像では、領域Bおよび領域Cが、赤外画像の領域の方が可視画像の領域よりも細かく区分された領域となるため、輝度補正を適用しない領域として決定される。一方、領域Aは、赤外画像の領域の方が可視画像の領域よりも細かく区分されない領域であるため、輝度補正を適用すべき領域として選択される。
図9に戻り、S2で、領域別輝度算出部16は、領域別に平均輝度を算出するが、S91で選択された領域Aについてのみ平均輝度を算出すればよく、輝度補正を適用しない領域(図8の領域B、領域C)に対しては、平均輝度を算出する必要はない。
図9のS3で、領域別輝度算出部16は、S91で選択された領域Aにつき、図4のS3と同様、輝度補正値を算出する。
S4で、輝度補正部17は、S91で選択された領域Aにつき、図4のS4と同様、輝度補正を適用する。
S5で、映像信号合成部18は、図4のS5と同様、赤外画像の補正された赤外輝度情報Yircと可視画像の色差情報Cvrとを合成して、合成画像を生成する。
図10は、本実施形態において、図8(a)の赤外画像中で輝度補正を適用すべき領域を選択し、選択された領域に対して輝度補正を実行して得られる画像の一例を示す。
図10の領域Aは、輝度補正が適用されているため、領域Aの平均輝度は図8(b)の可視画像の平均輝度と一致する。一方、図10の領域Bおよび領域Cは輝度補正が適用されていないため、領域Bおよび領域Cの平均輝度は変化せず、図8(a)の赤外画像の平均輝度と一致する。
以上説明したように、本実施形態によれば、撮像装置は、画像の領域を検出する際に、赤外光帯域特有の情報が取得されたか否かに基づいて、赤外画像の領域中で輝度補正すべき領域を選択する。
これにより、実施形態1と同様、合成画像における色の再現性を高め、合成画像がユーザに与える違和感を低減しつつ、さらに、赤外光帯域特有の情報を残したまま、輝度補正を適用して合成画像を生成することができる。
(実施形態4)
以下、図11ないし図13を参照して、実施形態4を、上記各実施形態と異なる点についてのみ詳細に説明する。
実施形態3では、撮像装置1は、画像の領域を検出する際に、赤外光帯域特有の情報が取得されたか否かに基づいて、画像の領域を検出する際に輝度補正すべき領域を選択した。これに対して、本実施形態は、領域ごとに輝度平均値を算出する際に、領域別に算出された輝度値に基づいて、輝度補正すべき領域を選択する。
可視画像の輝度が小さく黒潰れしている領域や、可視画像の輝度が大きく白飛びしている領域がある場合等に当該領域に対して輝度補正を適用すると、補正後の赤外輝度情報もまた黒潰れや白飛びしてしまう。このように赤外輝度情報が失われてしまう場合には、当該領域を輝度補正しないことが好ましい。そこで本実施形態では、領域別平均輝度算出時に、領域別に算出された輝度値に基づいて、輝度補正すべき領域を選択する。
実施形態4に係る撮像装置1のハードウエアおよび機能構成は、図1を参照して説明した実施形態1に係る撮像装置1とそれぞれ同様であるため、その説明を省略する。
図11は、図2と同様、領域Aおよび領域Bを捉えた画像の一例を示す。図11(a)は赤外画像の例であり、領域Aおよび領域Bはいずれも黒潰れも白飛びもしていないものとする。一方、図11(b)は可視画像の例であり、領域Aは黒潰れも白飛びもしていないが、領域Bは黒潰れしているものとする。
図12は、実施形態4に係る撮像装置が実行する領域別輝度補正値の算出処理および領域別輝度補正処理の処理手順の一例を示すフローチャートである。図4に示す実施形態1の処理と比較して、領域別に輝度補正値を算出した後に輝度補正を適用すべき領域の選択処理が追加されている。
図12のS1からS3は、実施形態1における図4のS1からS3の処理と同様である。
S3で画像の領域別に平均輝度値を算出した後、S121で、S3で算出された領域別の平均輝度値に基づいて、輝度補正部17は、輝度補正を適用すべき領域を選択する。
例えば、S3で算出された可視画像の領域別の輝度値が極端に低い場合や極端に高い場合には、当該領域が黒潰れや白飛びしていると推測することができる。この場合、赤外画像における同一領域が可視画像とは異なり黒潰れや白飛びをしていない場合には、可視画像の輝度情報で赤外画像の輝度情報を補正すると、赤外光帯域特有の情報が失われてしまう。このため、赤外光帯域特有の情報を合成画像に反映するためには、そのような領域は輝度補正を適用しないことが好ましい。すなわち、輝度補正部17は、可視画像中で、平均輝度値が所定の上限値および下限値の閾値内にある領域に対応する赤外画像の領域についてのみ、輝度補正を適用する。
図11を参照して、領域Aでは、図11(a)の赤外画像および図11(b)の可視画像でともに黒潰れも白飛びをしていないため、輝度補正することが好ましい。一方、領域Bでは、図11(a)の赤外画像では黒潰れも白飛びもしていないが、図11(b)の可視画像では黒潰れしているため、輝度補正を適用しないことが好ましい。図12のS121では、このように、黒潰れや白飛びが発生している領域の可視画像の輝度情報が合成画像に反映されないよう、輝度補正すべき領域を選択する。
図12のS121に続き、輝度補正部17は、S121で選択された領域Aにつき、図4のS4と同様、輝度補正を適用する。
S5で、映像信号合成部18は、図4のS5と同様、赤外画像の補正された赤外輝度情報Yircと可視画像の色差情報Cvrとを合成して、合成画像を生成する。
図13は、本実施形態において、図11(a)の赤外画像中で輝度補正を適用すべき領域を選択し、選択された領域に対して輝度補正を適用して得られる画像の一例を示す。
図13の領域Aは、輝度補正が適用されているため、領域Aの平均輝度は図11(b)の可視画像の平均輝度と一致する。一方、図13の領域Bは輝度補正を適用すべき領域として選択されず輝度補正が適用されていないため、輝度平均は変化せず、図11(a)の赤外画像の平均輝度と一致する。
なお、黒潰れおよび白飛びの判定基準は設計者もしくはユーザが任意に設定してよい。例えば、輝度の下限値を0%、輝度の上限値を100%として、10%以下を黒潰れ、90%以上を白飛びと見做すよう閾値を設定すればよい。
また、赤外画像が黒潰れして、可視画像が白飛びしている領域については、輝度補正を適用することが好ましい。同様に赤外画像が白飛びして、可視画像が黒潰れしている領域も輝度補正を適用することが好ましい。また、輝度補正を適用すべき領域の選択は、可視画像が黒潰れもしくは白飛びしているか否かのみで判定してもよい。
以上説明したように、本実施形態によれば、撮像装置は、輝度平均値を算出する際に、領域ごと算出された輝度平均値に基づいて、赤外画像の領域中で輝度補正すべき領域を選択する。
これにより、実施形態1と同様、合成画像における色の再現性を高め、合成画像がユーザに与える違和感を低減しつつ、さらに、可視画像の輝度の黒潰れや白飛び等が合成画像に反映されるのを有効に防止することができる。
(実施形態5)
以下、図14ないし図16を参照して、実施形態5を、上記各実施形態と異なる点についてのみ詳細に説明する。
実施形態3および実施形態4では、撮像装置1は、赤外光帯域特有の情報を有する赤外画像の領域に対して、輝度補正を適用しなかった。これに対して、本実施形態は、赤外画像が赤外光帯域特有の情報を含む場合に、輝度補正される前の赤外画像と、輝度補正された後の合成画像との2つの画像を表示装置上に並列表示するユーザインタフェースを提供する。
実施形態3および実施形態4と同様の構成で、輝度補正すべき領域を検出する際に、可視画像と赤外画像との比較を実行することで、赤外光帯域特有の情報を含む領域であるか否かを判定することができる。本実施形態では、この比較結果に依らず輝度補正は適用するが、赤外光帯域特有の情報を含む領域であると判定された場合、輝度補正前の赤外画像を、輝度補正適用後の赤外画像から合成された合成画像と並列して表示する。
図14は、領域Bに赤外光帯域特有の情報を含む図11の画像に基づいて、ディスプレイ5上で、合成された合成画像および輝度補正前の赤外画像を並列表示した例を示す。図14に示すように、映像信号合成部18は、同一のディスプレイ5上に輝度補正された合成画像51および輝度補正前の赤外画像52を並列表示するよう表示制御する。なお、画像のサイズは同じである必要はなく、どちらかを大きくまたは小さく表示してもよい。
また、赤外光帯域特有の情報を含む領域は既知であるため、画像全体ではなく、赤外光帯域特有の情報だけを切り出して表示してもよい。
図15は、このように、赤外光帯域特有の情報を切り出した輝度補正前の赤外画像を示す。図15は、領域Bに赤外光帯域特有の情報を含む図11の画像に基づいて、ディスプレイ5上で合成画像51と、赤外光帯域特有の情報を切り出した輝度補正前の赤外画像53とを並列表示した例を示す。図15のように並列表示し、また合成画像51側に切り出し枠を表示するよう表示制御することで、画像中どこに赤外光帯域特有の情報があるのかを容易に視認することができる。
あるいは、ユーザが赤外光帯域特有の情報を使用した合成画像を所望するのか、あるいは可視画像に近い合成画像を所望するのかを、ユーザに選択させてもよい。ユーザの選択に応じて、上記実施形態における輝度補正すべき領域の選択を実行すべきか否かを変更すればよい。赤外光帯域特有の情報を所望する場合には、赤外光帯域特有の情報を含む領域が輝度補正されないよう、領域の選択を実行すべきであり、一方、可視画像に近い画像を所望する場合には、領域の選択を実行すべきでない。
図16は、赤外特有の情報を重視するモード(赤外優先合成モード)と、可視画像を重視するモード(可視優先合成モード)とをユーザに選択的に指示入力させるユーザインタフェース54の例を示す。図16に示すように、映像信号合成部18は、赤外優先合成モードと可視優先合成モードのいずれかをユーザに選択入力させるよう入力制御する。
図16で、赤外優先合成モードが選択された場合、輝度補正すべき領域の選択を実行し、実施形態2ないし実施形態4のいずれかの輝度補正を適用する。一方、可視優先合成モードが選択された場合、輝度補正すべき領域の選択を実行せず、実施形態1の輝度補正を適用する。ただし、図16のモード表示は一例であり、適宜変更が可能である。また、図14、図15、および図16の表示例は適宜組み合わせてもよい。
以上説明したように、本実施形態によれば、撮像装置1は、輝度補正前の赤外画像と合成画像とを並列表示し、あるいは合成モードを選択させるユーザインタフェースを提供するので、ユーザが所望する用途に応じた適切な合成画像を生成することができる。
図17は、上記各実施形態における画像処理を、撮像装置、または外部から入力される画像を処理する情報処理装置に実装する場合のハードウエア構成の一例を示す図である。
図17に示す情報処理装置2は、CPU21と、ROM22と、RAM23と、外部メモリ24と、入力部25と、表示部26と、通信I/F27と、システムバス28とを備える。CPU21は、情報処理装置2における動作を統括的に制御するものであり、システムバス28を介して、各構成部(21~27)を制御する。ROM22は、CPU21が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ24や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM23は、CPU21の主メモリ、ワークエリア等として機能する。すなわち、CPU21は、処理の実行に際してROM22から必要なプログラム等をRAM23にロードし、当該プログラム等を実行することで各種の機能動作を実現する。
外部メモリ24は、例えば、CPU21がプログラムを用いた処理を行う際に必要な各種データや各種情報等を記憶している。また、外部メモリ24には、例えば、CPU21がプログラム等を用いた処理を行うことにより得られた各種データや各種情報等が記憶される。入力部25は、キーボードやマウス等のポインティングデバイスにより構成される。表示部26は、液晶ディスプレイ(LCD)等のモニタにより構成される。通信I/F27は、管理者端末装置2とネットワークカメラ1、サーバ3、NAS4、およびクラウドサーバ8との通信を制御するインタフェースである。
(他の実施形態)
本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、Webアプリケーション等)から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
また、本発明は、上述の実施形態の一部または1以上の機能を実現するプログラムによっても実現可能である。すなわち、そのプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)における1つ以上のプロセッサがプログラムを読出し実行する処理により実現可能である。また、そのプログラムをコンピュータ可読な記録媒体に記録して提供してもよい。
また、コンピュータが読みだしたプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
1…撮像装置、5…ディスプレイ、11…レンズ、12…ビームスプリッタ、13…可視光用イメージセンサ、14…赤外光用イメージセンサ、15…色空間変換部、16…領域別輝度算出部、17…輝度補正部、18…映像信号合成部、51…合成画像、52…輝度補正前の赤外画像、53…輝度補正前の赤外画像の切り出し画像、54…モード選択ユーザインタフェース

Claims (13)

  1. 可視光による像を撮像した第1の画像と非可視光による像を撮像した第2の画像とを取得する取得手段と、
    前記第1の画像の輝度に基づいて、前記第2の画像の輝度を、前記第1の画像の輝度と前記第2の画像の輝度との輝度差が低減されるように補正する補正手段と、
    前記補正手段により輝度が補正された前記第2の画像と、前記第1の画像の色情報とを合成して合成画像を生成する生成手段とを備え、
    前記生成手段は、前記第2の画像のコントラストが前記第1の画像のコントラストよりも高い場合に、前記補正手段による前記第2の画像の輝度補正を適用せずに前記合成画像を生成することを特徴とする画像処理装置。
  2. 前記第1の画像の輝度差に基づいて、前記第1の画像および前記第2の画像から複数の領域を検出し、前記第1の画像の輝度および前記第2の画像の輝度を前記複数の領域毎に算出する算出手段をさらに備え、
    前記補正手段は、前記第1の画像の輝度と前記第2の画像の輝度との輝度差が低減されるように前記第2の画像の輝度を前記複数の領域毎に補正する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記算出手段は、前記第1の画像と前記第2の画像との輝度の比に基づいて、前記複数の領域毎に補正値を算出し、
    前記補正手段は、前記補正値に基づいて前記第2の画像の輝度を前記複数の領域毎に補正する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記補正手段は、前記第2の画像の平均輝度を前記第1の画像の平均輝度に近付けるように、前記第2の画像の輝度を補正する
    ことを特徴とする請求項2に記載の画像処理装置。
  5. 前記補正手段は、前記第2の画像の所定の領域の輝度が、前記第1の画像における所定の領域に対応する領域の輝度に近づくように、前記第2の画像を露出調整し、露出調整された前記第2の画像の輝度を前記複数の領域毎に補正する
    ことを特徴とする請求項2に記載の画像処理装置。
  6. 前記補正手段は、前記複数の領域のうち、最もサイズの大きい領域を前記所定の領域に設定する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記補正手段は、前記複数の領域のうち、AE(Automatic Exposure)の評価枠が設定された領域を前記所定の領域に設定する
    ことを特徴とする請求項5に記載の画像処理装置。
  8. 前記複数の領域のうち、前記第2の画像のコントラストが前記第1の画像のコントラストを超えない領域を、前記第2の画像中で前記輝度を補正すべき領域として選択する選択手段をさらに備える
    ことを特徴とする請求項2から7のいずれか1項に記載の画像処理装置。
  9. 前記複数の領域のうち、前記第1の画像と前記第2の画像との双方で検出された領域を、前記第2の画像中で前記輝度を補正すべき領域として選択する選択手段をさらに備える
    ことを特徴とする請求項2から7のいずれか1項に記載の画像処理装置。
  10. 前記複数の領域のうち、前記第1の画像中で平均輝度が所定の閾値内にある領域に対応する前記第2の画像の領域を、前記第2の画像中で前記輝度を補正すべき領域として選択する選択手段をさらに備える
    ことを特徴とする請求項2から7のいずれか1項に記載の画像処理装置。
  11. 前記生成手段により生成された前記合成画像と、前記補正手段により輝度補正される前の前記第2の画像の少なくとも一部とを、表示装置上に並列表示させる表示制御手段をさらに備える
    ことを特徴とする請求項1から10のいずれか1項に記載の画像処理装置。
  12. 可視光による像を撮像した第1の画像と非可視光による像を撮像した第2の画像とを取得するステップと、
    前記第1の画像の輝度に基づいて、前記第2の画像の輝度を、前記第2の画像の輝度差が前記第1の画像の輝度差に近づくように補正するステップと、
    輝度が補正された前記第2の画像と、前記第1の画像の色情報とを合成して合成画像を生成するステップとを含み、
    前記生成するステップにおいては、前記第2の画像のコントラストが前記第1の画像のコントラストよりも高い場合に、前記補正するステップによる前記第2の画像の輝度補正を適用せずに前記合成画像が生成されることを特徴とする画像処理装置の制御方法。
  13. コンピュータを、請求項1から11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019145945A 2019-08-08 2019-08-08 画像処理装置、画像処理方法およびプログラム Active JP7412920B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019145945A JP7412920B2 (ja) 2019-08-08 2019-08-08 画像処理装置、画像処理方法およびプログラム
US16/983,304 US11457155B2 (en) 2019-08-08 2020-08-03 Apparatus, method for controlling, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145945A JP7412920B2 (ja) 2019-08-08 2019-08-08 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2021027535A JP2021027535A (ja) 2021-02-22
JP2021027535A5 JP2021027535A5 (ja) 2022-07-21
JP7412920B2 true JP7412920B2 (ja) 2024-01-15

Family

ID=74498805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145945A Active JP7412920B2 (ja) 2019-08-08 2019-08-08 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11457155B2 (ja)
JP (1) JP7412920B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4064673A1 (en) * 2021-03-22 2022-09-28 BHS Technologies GmbH Imaging device for a medical imaging system, medical imaging system and method for generating medical images
WO2022256109A1 (en) * 2021-05-31 2022-12-08 Microsoft Technology Licensing, Llc Glare removal using dual cameras
US11678068B2 (en) 2021-05-31 2023-06-13 Microsoft Technology Licensing, Llc Glare removal using dual cameras
JP2023090492A (ja) * 2021-12-17 2023-06-29 キヤノン株式会社 画像処理装置および画像処理方法、撮像装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276017A (ja) 2007-05-01 2008-11-13 Sony Corp 撮像装置および方法、並びにプログラム
JP2014135627A (ja) 2013-01-10 2014-07-24 Hitachi Ltd 撮像装置
JP2017011634A (ja) 2015-06-26 2017-01-12 キヤノン株式会社 撮像装置およびその制御方法、並びにプログラム
WO2018154965A1 (ja) 2017-02-24 2018-08-30 ソニー株式会社 画像処理装置及び撮像装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239259A (ja) 2010-05-12 2011-11-24 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2017005401A (ja) * 2015-06-08 2017-01-05 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム、並びに撮像装置
JP6341396B1 (ja) * 2017-02-28 2018-06-13 パナソニックIpマネジメント株式会社 動体監視装置、サーバ装置、および動体監視システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008276017A (ja) 2007-05-01 2008-11-13 Sony Corp 撮像装置および方法、並びにプログラム
JP2014135627A (ja) 2013-01-10 2014-07-24 Hitachi Ltd 撮像装置
JP2017011634A (ja) 2015-06-26 2017-01-12 キヤノン株式会社 撮像装置およびその制御方法、並びにプログラム
WO2018154965A1 (ja) 2017-02-24 2018-08-30 ソニー株式会社 画像処理装置及び撮像装置

Also Published As

Publication number Publication date
US11457155B2 (en) 2022-09-27
US20210044736A1 (en) 2021-02-11
JP2021027535A (ja) 2021-02-22

Similar Documents

Publication Publication Date Title
JP7412920B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR102557794B1 (ko) 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 비일시적인 컴퓨터 판독가능한 저장 매체
CN107451969B (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
JP6055681B2 (ja) 撮像装置
US10719704B2 (en) Information processing device, information processing method, and computer-readable storage medium storing a program that extracts and corrects facial features in an image
US20100201823A1 (en) Low-Light Imaging Augmented With Non-Intrusive Lighting
JP6415062B2 (ja) 画像処理装置、画像処理方法、制御プログラム、および記録媒体
CN104079908A (zh) 红外与可见光图像信号处理方法及其实现装置
US20100020192A1 (en) Method of controlling auto white balance
KR20130052515A (ko) 촬상장치, 그 제어 방법, 및 기록 매체
JP2010039758A (ja) 画像処理装置及び画像処理方法
JP2011135563A (ja) 撮像装置および画像処理方法
JP2019106045A (ja) 画像処理装置、方法及びプログラム
JP7403242B2 (ja) 画像処理システム、画像処理方法、及びプログラム
US20180350046A1 (en) Image processing apparatus adjusting skin color of person, image processing method, and storage medium
US9736394B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer-readable recording medium
JPWO2018154965A1 (ja) 画像処理装置及び撮像装置
JP2017011633A (ja) 撮像装置
JP7114335B2 (ja) 画像処理装置、画像処理装置の制御方法、及び、プログラム
US9692983B2 (en) Apparatus, method, and medium for correcting pixel switching pattern
JP6060552B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
US9838659B2 (en) Image processing device and image processing method
WO2020084894A1 (ja) マルチカメラシステム、制御値算出方法及び制御装置
JP5225491B2 (ja) 画像処理装置及び画像処理方法
JP7203441B2 (ja) 画像生成装置及び撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220712

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R151 Written notification of patent or utility model registration

Ref document number: 7412920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151