JP2019046277A - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents

画像処理装置、および画像処理方法、並びにプログラム Download PDF

Info

Publication number
JP2019046277A
JP2019046277A JP2017170035A JP2017170035A JP2019046277A JP 2019046277 A JP2019046277 A JP 2019046277A JP 2017170035 A JP2017170035 A JP 2017170035A JP 2017170035 A JP2017170035 A JP 2017170035A JP 2019046277 A JP2019046277 A JP 2019046277A
Authority
JP
Japan
Prior art keywords
blur
filter
image
unit
visible light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017170035A
Other languages
English (en)
Other versions
JP7027737B2 (ja
Inventor
卓 青木
Taku Aoki
卓 青木
竜太 佐藤
Ryuta Sato
竜太 佐藤
厚史 伊藤
Atsushi Ito
厚史 伊藤
小柳津 秀紀
Hidenori Koyaizu
秀紀 小柳津
丈士 上森
Takeshi Uemori
丈士 上森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2017170035A priority Critical patent/JP7027737B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to KR1020207005593A priority patent/KR20200050959A/ko
Priority to EP18770098.4A priority patent/EP3679545A1/en
Priority to PCT/JP2018/032077 priority patent/WO2019049763A1/en
Priority to US16/642,392 priority patent/US11288777B2/en
Priority to CN201880055672.9A priority patent/CN111052174A/zh
Publication of JP2019046277A publication Critical patent/JP2019046277A/ja
Priority to US17/679,026 priority patent/US20220180483A1/en
Application granted granted Critical
Publication of JP7027737B2 publication Critical patent/JP7027737B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】可視光画像のブラー(ぼけ)を除去または低減した高画質化処理を実行する装置、方法を提供する。【解決手段】同一被写体を同時に撮影した可視光画像と遠赤外画像、さらに、カメラの動き情報を入力し、カメラの動きに起因する可視光画像のブラー(ぼけ)であるカメラ動きベースブラーを推定し、可視光画像と遠赤外画像、およびカメラ動きベースブラーを利用して、可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定し、推定した統合フィルタと逆特性を持つ逆特性フィルタを可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する。【選択図】図9

Description

本開示は、画像処理装置、および画像処理方法、並びにプログラムに関する。特に、可視光画像と赤外線画像に併せてカメラの動き情報を入力して、可視光画像のブラー(ぼけ)を低減する画像処理装置、および画像処理方法、並びにプログラムに関する。
夜間等の暗い環境で可視光画像を撮影する場合、露光時間を長くする必要があり、その結果、カメラの動きや被写体の動きに起因するぼけであるブラーが発生しやすくなる。
この問題を解決する従来技術として、例えば特許文献1(特開2003−209735号公報)に開示された技術がある。
特許文献1は、可視光カメラによって連続的に撮影された複数の画像を利用して画像の動きを解析し、この動き解析結果に基づいてぼけ補正を行う技術を開示している。
しかし、上記特許文献1に記載の構成では、複数の連続撮影された画像が必要であり、静止画に対する処理は実行できないという問題がある。また、複数の連続撮影画像から画像の動きを解析する処理が必要であり、各画像対応の即時的処理ができないという問題がある。
さらに、上記特許文献1に記載の構成は、固定されたカメラによる撮影画像のぼけ補正を開示しており、カメラが動いた場合の処理についての開示はなく、例えば、車載カメラ等、カメラが動く場合のぼけ低減には効果が発揮されにくいという問題がある。
特開2003−209735号公報
本開示は、例えば、上記の問題点に鑑みてなされたものであり、複数の連続撮影画像を用いることなく、可視光画像と赤外線画像を用いて可視光画像のブラー(ぼけ)の解消または低減を実現する画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
さらに、本開示は、例えば、車載カメラ等、カメラが動く場合であってもカメラの動きを考慮した処理を行うことで、効果的な可視光画像のブラー(ぼけ)の解消または低減を実現する画像処理装置、および画像処理方法、並びにプログラムを提供することを目的とする。
本開示の第1の側面は、
同一被写体を同時に撮影した可視光画像と遠赤外画像を入力する画像入力部と、
前記可視光画像を撮影したカメラの動き情報を入力するカメラ動き情報入力部と、
前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するカメラ動きベースブラー推定部と、
前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定部と、
前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去部を有する画像処理装置にある。
さらに、本開示の第2の側面は、
画像処理装置において実行する画像処理方法であり、
画像入力部が、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力するステップと、
カメラ動き情報入力部が、前記可視光画像を撮影したカメラの動き情報を入力するステップと、
カメラ動きベースブラー推定部が、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するステップと、
ブラー推定部が、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定ステップと、
ブラー除去部が、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去ステップを実行する画像処理方法にある。
さらに、本開示の第3の側面は、
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力させるステップと、
カメラ動き情報入力部に、前記可視光画像を撮影したカメラの動き情報を入力させるステップと、
カメラ動きベースブラー推定部に、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定させるステップと、
ブラー推定部に、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定させるブラー推定ステップと、
ブラー除去部に、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成させるブラー除去ステップを実行させるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、可視光画像のブラー(ぼけ)を除去または低減した高画質化処理を実行する装置、方法が実現される。
具体的には、同一被写体を同時に撮影した可視光画像と遠赤外画像、さらに、カメラの動き情報を入力し、カメラの動きに起因する可視光画像のブラー(ぼけ)であるカメラ動きベースブラーを推定し、可視光画像と遠赤外画像、およびカメラ動きベースブラーを利用して、可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定し、推定した統合フィルタと逆特性を持つ逆特性フィルタを可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する。
これらの処理により、可視光画像のブラー(ぼけ)を除去または低減した高画質化処理を実行する装置、方法が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
本開示の画像処理装置の実行する処理の概要について説明する図である。 撮影画像の種類と光の波長との対応関係について説明する図である。 可視光画像と遠赤外画像の例について説明する図である。 カメラの動きによって発生する撮影画像中のブラーについて説明する図である。 カメラの動きによって発生する撮影画像中のブラーと被写体の動きの影響について説明する図である。 自動車に対するカメラの装着例とカメラの動き検出について説明する図である。 本開示の画像処理装置の構成例と処理例について説明する図である。 本開示の画像処理装置の構成例と処理例について説明する図である。 本開示の実施例1の画像処理装置の構成例と処理例について説明する図である。 カメラ動きブラーマップについて説明する図である。 本開示の実施例1の画像処理装置の構成例と処理例について説明する図である。 本開示の実施例1の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例1の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例1の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例2の画像処理装置の構成例と処理例について説明する図である。 フィルタバンクプールの格納データと、カメラ動きに基づくフィルタバンクの選択処理例について説明する図である。 本開示の実施例2の画像処理装置の構成例と処理例について説明する図である。 本開示の実施例2の画像処理装置の実行する処理の処理例について説明する図である。 本開示の実施例2の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例2の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例2の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例3の画像処理装置の構成例と処理例について説明する図である。 本開示の実施例3の画像処理装置の実行する処理の処理例について説明する図である。 本開示の実施例3の画像処理装置の構成例と処理例について説明する図である。 本開示の実施例3の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例3の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例4の画像処理装置の実行する処理の処理例について説明する図である。 本開示の実施例4の画像処理装置の実行する処理の処理例について説明する図である。 本開示の実施例4の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 本開示の実施例4の画像処理装置の実行する処理のシーケンスについて説明するフローチャートを示す図である。 画像処理装置のハードウェア構成例について説明する図である。 本開示の画像処理装置の機能を有する車両制御システムの構成例について説明する図である。
以下、図面を参照しながら本開示の画像処理装置、および画像処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
1.本開示の画像処理装置の構成と処理の概要について
2.カメラの動きに起因して発生するブラーの具体例について
3.車に対するカメラ装着例について
4.本開示の画像処理装置の構成と処理の概要について
5.(実施例1)構成A対応の画像処理装置の構成と処理について
6.(実施例2)構成B対応の画像処理装置の構成と処理について
7.(実施例3)構成A+C対応の画像処理装置の構成と処理について
8.(実施例4)構成B+C対応の画像処理装置の構成と処理について
9.画像処理装置のハードウェア構成例について
10.車両に本開示の画像処理装置を備えた車両制御システムの構成例について
11.本開示の構成のまとめ
[1.本開示の画像処理装置の構成と処理の概要について]
まず、図1以下を参照して本開示の画像処理装置の構成と処理の概要について説明する。
図1は、本開示の画像処理装置の実行する処理の概要を説明する図である。
本開示の画像処理装置は、同一被写体を撮影した可視光画像と赤外線画像を入力し、さらに、これらの画像を撮影したカメラのカメラ動き情報を入力して可視光画像のブラー(ぼけ)を低減させる処理を実行する。
夜間等の暗い環境で可視光画像を撮影する場合、露光時間を長くする必要があり、その結果、カメラの動きや被写体の動きに起因するブラーが発生しやすくなる。
本開示の画像処理装置は、例えば、このような環境下で撮影された可視光画像のブラーを低減させるため、同じ被写体を同時に撮影した遠赤外画像を利用する。
赤外線画像は、被写体から発せられる熱に応じた画素値が設定された画像であり、例えば人の体温を検出することができる。従って、例えば暗闇等において熱を発生する人物等を撮影することが可能であり、監視カメラ等に利用される。
赤外線の中でも波長の長い遠赤外線は、熱に対してより高感度であり、露光時間の短い撮影でも人等の熱を発生する被写体を比較的、明瞭に撮影することができる。
夜間等、暗闇での可視光画像の撮影合には、露光時間を長くすることが必要であり、カメラや被写体の動きに応じたブラー(ぼけ)が大きくなる。
しかし、遠赤外画像は、暗闇で露光時間を短く設定して撮影しても熱を発生させる被写体、例えば人等を明瞭に撮影できる。
本開示の画像処理装置は、これら可視光画像と、遠赤外画像の特性の違いを利用して、ブラーの大きな可視光画像の補正を行う。すなわち、ブラーの少ない赤外画像を参照画像として用いて補正(ブラー除去)処理を行って、ブラーを解消または低減した可視光画像を生成する。
図1を参照して本開示の画像処理装置の実行する処理の概要について説明する。
図1に示すように、本開示の画像処理装置は、同一被写体を同時に撮影したブラーあり可視光画像11と、ブラーなし遠赤外画像12を入力する。
さらに、これらの画像を撮影したカメラ動き情報13を入力する。
本開示の画像処理装置は、まず、ステップS20において、入力した2つの画像と、カメラ動き情報を利用して、可視光画像のブラー推定を行う。
具体的には、例えば、画像のぼけ量を示す関数である点広がり関数(PSF:Point Spread Function)の推定を行う。
PSFは、ある画素位置の画素値の周囲に対するひろがり具合、すなわちぼけ量やぼけ態様を示す関数である。
ステップS20では、ブラーなし遠赤外画像12に対して、様々な点広がり関数(PSF)対応のフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを適用して、故意にブラーを発生させた遠赤外画像を生成し、このフィルタ適用遠赤外画像と、ブラーあり可視光画像11を比較(相関算出)する。
この比較処理(相関算出)に基づいて、ブラーあり可視光画像11のブラー(ぼけ)と同様のブラー(ぼけ)を発生させる点広がり関数(PSF)対応のフィルタを選択する。
なお、このステップS20において選択しようとするフィルタは、ブラー(ぼけ)のない可視光画像に適用した場合、ブラーあり可視光画像11が生成されるフィルタに相当する。
しかし、撮影画像として、ブラー(ぼけ)のない可視光画像は取得できていないため、その代替画像として、ブラーなし遠赤外画像12を利用するものである。
すなわち、ブラーなし遠赤外画像12に適用することで、ブラーあり可視光画像11に存在するブラー(ぼけ)と同様のブラー(ぼけ)が発生するフィルタを選択、または点広がり関数(PSF)を算出する。
次に、ステップS40において、可視光画像のブラーを除去する処理を行う。
ブラー除去処理は、上記の点広がり関数:PSF=p(x,y)で示される特性を持つフィルタと逆の特性を持つ逆フィルタを生成して、生成した逆フィルタをブラーあり可視光画像11に適用する処理である。
この逆フィルタの適用処理により、ブラーあり可視光画像11から、ブラー(ぼけ)が除去され、ブラー低減可視光画像15が生成される。
なお、ステップS40の可視光画像ブラー除去処理は、デコンボリューション処理とよばれる周波数領域でのフィルタ処理が適用可能である。
ブラーあり可視光画像11の点広がり関数(PSF)=p(x,y)とし、
ブラーあり可視光画像11をb(x,y)、ブラーのない真の可視光画像をs(x,y)としたとき、それぞれのフーリエ変換を、P(u,v),B(u,v),S(u,v)とすると、以下の関係式が成立する。
b(x,y)=p(x,y)*s(x,y)
B(u,v)=P(u,v)・S(U,v)
なお、*はコンボリューション演算である。
さらに、フーリエ変換をFT[]としたとき、
B(u,v)=FT[b(x,y)]
P(u,v)=FT[p(x,y)]
S(u,v)=FT[s(x,y)]
上記関係式が成立する。
ブラーのない真の可視光画像:s(x,y)を算出する処理は、ブラーあり可視光画像11:b(x,y)から、ブラーのない真の可視光画像:s(x,y)を算出する処理(=B(u,v)からS(u,v)を算出する処理と同様)であり、この処理を行うフィルタを、デコンボリューションフィルタと呼び、このフィルタ適用処理をデコンボリューション処理と呼ぶ。
デコンボリューションフィルタは、PSF=p(x,y)で示される特性を持つフィルタと逆の特性を持つ逆フィルタである。
このように、ステップS40では、ステップS20で推定したブラーあり可視光画像11のブラー態様を示すPSF=p(x,y)で示される特性を持つフィルタと逆特性を持つ逆フィルタを生成して、生成した逆フィルタをブラーあり可視光画像11に適用する。すなわち、「デコンボリューション処理」を実行して、ブラーあり可視光画像11から、ブラー(ぼけ)を除去したブラー低減可視光画像15を生成する。
次に、図2を参照して可視光画像と、赤外線画像について説明する。
図2に示すように、可視光画像は、波長が約0.4μm〜0.7μmの範囲の画像であり、一般的なカメラで撮影されるRGB画像等のカラー画像である。
一方赤外線画像は、波長が.0.7μm以上の長波長光からなる画像である。赤外線画像を撮影する赤外画像撮影カメラは、例えば暗闇等において熱を発生する人物等を撮影することが可能であり、監視カメラ等に利用される。
なお、赤外線は、図2に示すように、
波長が約0.7〜1μmの近赤外線、
波長が約3〜5μmの中赤外線、
波長が約8〜14μmの遠赤外線、
このように区分される。
以下に説明する実施例では、主に波長が約8〜14μmの遠赤外線の撮影画像である遠赤外画像を利用した画像処理例について説明する。
ただし、本開示の処理は、遠赤外画像に限らず、その他の赤外画像を利用した処理にも適用可能である。
先に説明したように、夜間等の暗い環境で可視光画像を撮影する場合、露光時間を長くする必要があり、その結果、カメラの動きや被写体の動きに起因するブラーが発生しやすくなる。一方、遠赤外画像は、露光時間を短くした撮影を行っても、人等の熱を発生する被写体を明瞭に撮影することができる。
具体的な撮影画像の例を図3に示す。
図3には、夜間の交差点で撮影した可視光画像と遠赤外画像の撮影画像の例を示している。
これら2つの画像は、暗い環境での撮影画像であり、可視光画像は長時間露光を行っている。
(1)可視光画像、(2)遠赤外画像を比較すると、(1)可視光画像のブラー(ぼけ)が大きく、人の姿がほとんど認識できないが、(2)遠赤外画像には、人の姿が明瞭に示されている。
これは、遠赤外画像は、露光時間が短く、ほとんどブラー(ぼけ)が発生しないためである。
本開示の画像処理装置は、このように、ほとんどブラーが発生しない遠赤外画像を参照画像として用いて、ブラーの発生した可視光画像の補正を行い、ブラーを除去または低減した可視光画像を生成するものである。
[2.カメラの動きに起因して発生するブラーの具体例について]
次に、図4以下を参照して画像を撮影するカメラの動きに起因して発生するブラーの具体例について説明する。
本開示の構成は、例えば、車に可視光画像撮影カメラと、遠赤外画像撮影カメラを搭載し、これらのカメラ撮影画像からぼけのない可視光画像を生成してドライバに提示可能とする構成を実現するものである。
車は、高速で移動するため、カメラも高速で移動しながら画像を撮影することになり、撮影画像にはカメラの動きに応じたブラー(ぼけ)が発生する。
図4は、様々なカメラの動きの種類に応じたブラー態様を説明する図であり、以下の4種類のカメラ動きに対応して撮影画像に発生するブラーの方向と、大きさをベクトルで示している。
(1)カメラが前方に直進
(2)カメラが後方に直進
(3)カメラが右方向に回転
(4)カメラが上方向に回転
例えば、「(1)カメラが前方に直進」する場合、図4(1)に示すように撮影画像の中心部から周囲に向かう方向に画像が流れるようにブラーが発生する。ブラーの大きさは、画像中心では小さく、画像周囲に行くほど大きくなる。
また、「(2)カメラが後方に直進」する場合、図4(2)に示すように撮影画像の周囲から中心部に向かう方向に画像が流れるようにブラーが発生する。ブラーの大きさは、画像中心では小さく、画像周囲に行くほど大きくなる。
また、「(3)カメラが右方向に回転」する場合、図に示すように撮影画像の右から左に向かう方向に画像が流れるようにブラーが発生する。ブラーの大きさは、画像中においてほぼ均一となる。
また、「(4)カメラが上方向に回転」する場合、図に示すように撮影画像の上から下に向かう方向に画像が流れるようにブラーが発生する。ブラーの大きさは、画像中においてほぼ均一となる。
このように、撮影画像にはカメラの動きに応じたブラー(ぼけ)が発生する。
なお、図4に示す各画像のベクトルの設定例は、カメラによる撮影画像に動く被写体がない場合のブラーの方向と大きさを示すベクトルである。
カメラによる撮影画像に動く被写体がある場合は、被写体の動きに応じてブラーの方向と大きさを示すベクトルは変化することになる。
図5は、カメラが動き、さらに、カメラの撮影画像中の被写体が動く場合のブラーの方向と大きさを示すベクトルの例を示す図である。
図5には以下の2つの画像例を示している。
(1)カメラが前方に直進中、左前方の被写体が、カメラより高速で前方に移動、
(2)カメラが後方に直進中、左前方の被写体が、カメラより高速で後方に移動、
図5(1)の例は、例えば、車載カメラを搭載したカメラの前方左側からバイクが高速で追い抜いていく状況に相当する。
カメラが前方に直進し、動く被写体が無い場合のブラーの方向と大きさは、先に図4(1)を参照して説明した設定であるが、この中に動く被写体がある場合は、図5(1)に示す設定となる。
図5(1)に示す点線枠が、カメラより高速で前方に動く被写体によって発生するブラーの方向と大きさを示すベクトルに相当する。
このベクトルは、その他の領域のベクトルの逆方向を向いている。
また、図5(2)の例は、例えば、後方を撮影する車載カメラの撮影画像の例であり、車後方右側からバイクが高速で近づいてくる状況に相当する。
カメラが後方に直進し、動く被写体が無い場合のブラーの方向と大きさは、先に図4(2)を参照して説明した設定であるが、この中に動く被写体がある場合は、図5(2)に示す設定となる。
図5(2)に示す点線枠が、カメラより高速で前方に動く被写体によって発生するブラーの方向と大きさを示すベクトルに相当する。
このベクトルは、その他の領域のベクトルの逆方向を向いている。
このように、カメラが動き、さらに、カメラの撮影画像中の被写体が動く場合には、これらの動きに応じてブラーの方向と大きさが決定される。
従って、ブラーの解消、または低減を高精度に行うためには、カメラの動きや被写体の動きを考慮した処理を行うことが必要となる。
[3.車に対するカメラ装着例について]
次に、本開示の画像処理装置の一構成例として、車に装着したカメラの撮影画像を入力して処理を行う画像処理装置の例について説明する。
前述したように、本開示の画像処理装置の一構成例は、例えば、車に搭載した可視光画像撮影カメラと、遠赤外画像撮影カメラの撮影画像を入力して、ぼけのない可視光画像を生成してドライバに提示可能とする構成を実現する。
図6は、車へのカメラ搭載例の一例を示す図である。
図6(a)上面図に示すように、車には、可視光カメラ、遠赤外カメラ、これら2つのカメラが搭載される。これらのカメラの撮影画像は、車内部に備えられた画像処理装置に入力され、可視光画像のブラー(ぼけ)を除去または低減する処理が実行される。
ブラー(ぼけ)の除去、または低減された可視光画像は、運転席に備えられた表示部に表示される。また、自動運転制御部に出力され、自動運転のための情報、例えば障害物検出情報等として利用される。
なお、図6に示す例では、カメラは前方方向のみを撮影する設定として示しているが、これは一例であり、車の後方や側面方向にも、それぞれカメラを設定して、全ての方向の画像を撮影する設定としてもよい。
なお、前述したように、本開示の画像処理装置は、可視光画像と遠赤外画像を入力するとともに、カメラの動き情報を入力して、精度の高いブラー除去処理を実現する。
例えば、カメラは、車と一体で動く設定であり、カメラの動き情報は、カメラ、または車に装着されたセンサから取得する。
センサは、例えばジャイロ、IMU、加速度センサ、傾きセンサ等によって構成される。
なお、IMU(Inertial Measurement Unit)は、3軸方向の角度、または角速度、加速度を検出するセンサである。
センサは、図6(c)に示すように、例えばカメラの移動方向、移動速度、回転半径等を検出し、これらをカメラ動き情報として、画像処理装置のデータ処理部に入力する。
[4.本開示の画像処理装置の構成と処理の概要について]
次に、図7以下を参照して、本開示の画像処理装置の構成と処理の概要について説明する。
先に図1を参照して説明したように、本開示の画像処理装置は、同一被写体を同時に撮影した可視光画像と、遠赤外画像、さらに、これらの画像を撮影したカメラの動き情報を入力して、可視光画像のブラーを解消または低減する処理を実行する。
この処理を実行する画像処理装置の複数の構成例について、図7、図8を参照して説明する。
図7、図8には、本開示の画像処理装置の以下の複数の構成例を示している。
(構成A)可視光画像と遠赤外画像を用いた画像ベースブラー推定後に、カメラ動き情報に基づくカメラ動きベースブラー推定情報を利用して最終的な統合ブラー推定を実行する構成例
(構成B)可視光画像と遠赤外画像を用いた画像ベースブラー推定と、カメラ動き情報に基づくカメラ動きベースブラー推定を併せて実行して統合ブラー推定を実行する構成例
(構成A+C)構成A+フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成例
(構成B+C)構成B+フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成例
本開示の画像処理装置には、図5、図6に示すような様々な構成例がある。
後段で、これらの各構成例の具体的な構成と処理について説明するが、まず、これら4種類の構成に応じた処理の概要について説明する。
(構成A)可視光画像と遠赤外画像を用いた画像ベースブラー推定後に、カメラ動き情報に基づくカメラ動きベースブラー推定情報を利用して最終的な統合ブラー推定を実行する構成例
この構成Aは、図1を参照して説明した2つの処理ステップ、すなわち、ステップS20のブラー推定処理と、ステップS40におけるブラー除去処理を行う。
ただし、図7に示す構成Aでは、図1を参照して説明したステップS20のブラー推定処理を、以下の3つのステップによって構成している。
(ステップS21)画像ベースブラー推定(Et)
(ステップS22)カメラ動きベースブラー推定(Ec)
(ステップS23)統合ブラー推定(Eall)
図7他、以下の説明において使用する記号の意味について説明する。
Et:画像ベースブラーであり、可視光画像と遠赤外線画像に基づいて推定される可視光画像のブラー、具体的にはぼけ態様情報であり、例えば点広がり関数(PSF)である。
Ec:カメラ動きベースブラーであり、画像(可視光画像と遠赤外線画像)を撮影したカメラの動きに基づいて推定される可視光画像のブラー、具体的にはぼけ態様情報であり、例えばPSFである。
Eall:統合ブラーであり、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)を統合した可視光画像のブラー、具体的にはぼけ態様情報であり、例えばPSFである。
さらに、
画像ベースブラー(Et)と同様のブラー(ぼけ)を画像に発生させるフィルタ、またはフィルタを構成するフィルタ係数を画像ベースフィルタ(Etf)、
カメラ動きベースブラー(Ec)と同様のブラー(ぼけ)を画像に発生させるフィルタ、またはフィルタを構成するフィルタ係数をカメラ動きベースフィルタ(Ecf)、
統合ブラー(Eall)と同様のブラー(ぼけ)を画像に発生させるフィルタ、またはフィルタを構成するフィルタ係数を統合フィルタ(Eallf)、
とする。
なお、各ブラー、各フィルタは、画像の分割領域であるブロック単位で、取得、算出、適用可能である。
また、1つの態様のブラーから、そのブラーを発生させる1つのフィルタが一義的に決定される。
従って、例えば、ある1つの態様の画像ベースフィルタ(Etf)と、カメラ動きベースブラー(Ec)とを比較して、画像ベースフィルタ(Etf)の適用によって発生するブラー態様と、カメラ動きベースブラー(Ec)が一致、または類似するか否かを判定する処理も可能である。すなわち、ブラーとフィルタの類似性を判定する処理も行われる。
後段において説明する実施例では、このような処理も行われる。
図7に示す構成Aの実行する処理について説明する。
まず、ステップS21において、同一被写体を同時に撮影したブラーあり可視光画像11とブラーなし遠赤外画像12を入力し、これらの2つの画像を比較して、ブラーあり可視光画像11の画像ベースブラー(Et)の推定処理を行う。
具体的には、ブラーなし遠赤外画像12に対して、様々な点広がり関数(PSF)対応のフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを適用して、故意にブラーを発生させた遠赤外画像を生成し、このフィルタ適用遠赤外画像と、ブラーあり可視光画像11を比較(相関算出)する。
この比較処理(相関算出)に基づいて、ブラーあり可視光画像11のブラー(ぼけ)と同様のブラー(ぼけ)を発生させる点広がり関数(PSF)対応のフィルタを選択する。
すなわち、ブラーなし遠赤外画像12に様々なフィルタを適用してブラーを発生させて、ブラーあり可視光画像11と比較することで、ブラーあり可視光画像11のブラー態様と同じブラー(ぼけ)を発生させるフィルタを選択、または点広がり関数(PSF)を算出する。
なお、フィルタ選択は、例えば、所定の画素ブロック単位で実行される。
次に、ステップS22において、カメラ動きベースブラー(Ec)の推定処理を行う。
具体的には、例えばIMU等のセンサによって取得されたカメラの動きに応じて、撮影画像中に発生すると推定されるブラーを推定するる
例えば先に図4を参照して説明したブラーの方向と大きさを示すベクトルを推定する。すなわち、カメラの様々な動きに応じて画像内に発生するブラーを画像の各ブロック単位で推定する。
次に、ステップS23において、ステップS21で推定した画像ベースブラー(Et)と、ステップS22で推定したカメラ動きベースブラー(Ec)を統合した統合ブラー(Eall)を推定する。
これらの統合処理は、画像の分割領域であるブロック単位で実行する。
この統合処理により、カメラ動きも考慮した可視光画像11内のブロック単位のブラーが推定される。
これら、ステップS21〜S23の処理が修了すると、次にステップS40のブラー除去処理を実行する。
ステップS40では、ステップS23で推定したブラーあり可視光画像11のブラー態様(Eall)を示すPSF特性と同様の特性を持つフィルタと逆の特性を持つ「逆フィルタ」を算出、または、様々な逆フィルタを格納した逆フィルタバンクから選択し、算出または選択した逆フィルタをブラーあり可視光画像11に適用する。
なお、前述したように、この逆フィルタ適用処理は、デコンボリューション処理と呼ばれる。デコンボリューション処理を実行して、ブラーあり可視光画像11から、ブラー(ぼけ)を除去したブラー低減可視光画像15を生成する。
なお、逆フィルタの算出、または選択、および適用処理は、所定の画素ブロック単位で実行する。
(構成B)可視光画像と遠赤外画像を用いた画像ベースブラー推定と、カメラ動き情報に基づくカメラ動きベースブラー推定を併せて実行して統合ブラー推定を実行する構成例
次に、構成Bについて説明する。
この構成Bと前述した構成Aとの差異は、図1を参照して説明したステップS20のブラー推定処理が、以下の2つのステップで構成した点である。
(ステップS22)カメラ動きベースブラー推定(Ec)
(ステップS25)統合ブラー推定(Eall)
まず、ステップS22において、カメラ動きベースブラー(Ec)の推定処理を行う。
この処理は、上述した(構成A)におけるステップS22の処理と同様の処理である。すなわち、カメラの様々な動きに応じて画像内に発生するブラーを画像の各ブロック単位で推定する。
次に、ステップS25において、統合ブラー(Eall)の推定処理を実行する。
この処理は、同一被写体を同時に撮影したブラーあり可視光画像11とブラーなし遠赤外画像12に基づくブラーあり可視光画像11のブラー推定処理において、ステップS22において取得済みのカメラ動きベースブラー(Ec)を利用した処理を行うものである。
具体的な処理については後段で説明するが、例えば、以下の2つの処理のいずれかを実行する。
(1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、ステップS22において取得済みのカメラ動きベースブラー(Ec)に基づいて選択する処理。
(2)フィルタ適用遠赤外画像と、ブラーあり可視光画像11との相関値を、ステップS22において取得済みのカメラ動きベースブラー(Ec)に基づいて補正する処理。
例えばステップS25では、これら2つの処理のいずれかを実行して、統合ブラー(Eall)の推定処理を実行する。
具体的な処理については後段で説明する。
ステップS40では、ステップS25で推定したブラーあり可視光画像11のブラー態様(Eall)を示すPSF特性と同様の特性を持つフィルタと逆の特性を持つ「逆フィルタ」を算出、または、様々な逆フィルタを格納した逆フィルタバンクから選択し、算出または選択した逆フィルタをブラーあり可視光画像11に適用する。
(構成A+C)構成A+フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成例
次に、(構成A+C)について説明する。
この構成は、構成Aに追加して、「フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理」を行う構成例である。
この(構成A+C)は、図8の(A+C)の図に示すように、ステップS40におけるブラー除去処理の前に、ステップS31においてブラー推定信頼度算出処理を実行することが特徴である。
その他の構成は、構成Aと同様である。
ステップS31におけるブラー推定信頼度算出処理は、ステップS21の画像ベースブラー推定結果(Et)と、ステップS22のカメラ動きベースブラー推定結果(Ec)とを比較し、2つのブラー推定結果の一致度が高いほど、ステップS23で生成された統合ブラー(Eall)の推定結果の信頼度が高いと判定する。
ステップS31で生成した信頼度情報は、ステップS40におけるブラー除去処理において利用される。
すなわち、ステップS40におけるブラー除去処理において適用する逆フィルタの強度が、ステップS31で計算された信頼度情報によって調整される。
具体的には、ステップS23で生成された統合ブラー(Eall)の推定結果の信頼度が低い場合は、ステップS40におけるブラー除去処理において適用する逆フィルタの強度を弱める処理を行う。なお、信頼度の算出は、例えば、所定の画素ブロック単位で実行される。
このような処理を行うことで、フィルタ(ブラー)推定結果の信頼度に応じた逆フィルタの適用が可能となる。
(構成B+C)構成B+フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成例
次に、(構成B+C)について説明する。
この構成は、構成Bに追加して、「フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理」を行う構成例である。
この(構成B+C)は、図8の(B+C)の図に示すように、ステップS40におけるブラー除去処理の前に、ステップS32においてブラー推定信頼度算出処理を実行することが特徴である。
その他の構成は、構成Bと同様である。
ステップS32におけるブラー推定信頼度算出処理は、ステップS22のカメラ動きベースブラー推定結果(Ec)と、ステップS25の統合ブラー推定結果(Eall)とを比較し、2つのブラー推定結果の一致度が高いほど、ステップS23で生成された統合ブラー(Eall)の推定結果の信頼度が高いと判定する。
ステップS32で生成した信頼度情報は、ステップS40におけるブラー除去処理において利用される。
すなわち、ステップS40におけるブラー除去処理において適用する逆フィルタの強度が、ステップS32で計算された信頼度情報によって調整される。
具体的には、ステップS23で生成された統合ブラー(Eall)の推定結果の信頼度が低い場合は、ステップS40におけるブラー除去処理において適用する逆フィルタの強度を弱める処理を行う。なお、信頼度の算出は、例えば、所定の画素ブロック単位で実行される。
このような処理を行うことで、フィルタ(ブラー)推定結果の信頼度に応じた逆フィルタの適用が可能となる。
なお、具体的な構成例や処理例については後段で説明する。
[5.(実施例1)構成A対応の画像処理装置の構成と処理について]
次に、本開示の画像処理装置の実施例1として、図7を参照して説明した構成A対応の画像処理装置の具体的な構成と処理について説明する。
先に図7を参照して説明したように、構成Aは、可視光画像と遠赤外画像を用いた画像ベースブラー推定後に、カメラ動き情報に基づくカメラ動きベースブラー推定情報を利用して最終的な統合ブラー推定を実行する構成である。
なお、この構成Aの統合ブラー(Eall)推定処理の処理態様として、以下の2種類がある。
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
カメラ動きベースブラー(Ec)は、先に図4を参照して説明したように、カメラの動きのみに基づいて、画像内のブラー態様を推定するものであり、先に図5を参照して説明したように、撮影画像中内の被写体に動きがある場合は、画像に発生するブラーは、被写体の動きに依存する設定となる。
従って、撮影画像中内の被写体の動きが多い場合は、カメラ動きベースブラー(Ec)をそのまま適用してしまうと、誤ったブラー推定がなされる。
上記の(A1),(A2)は、このような問題を解決する2種類の方法である。
なお、被写体の動きが多いか少ないかについては、例えば、以下の環境情報を入力して判定する。
(a)地図情報:予め記憶部に格納してある地図情報、あるいはネットワークを介して地図情報を入力し、市街地等、車両、歩行者の多いエリアでは被写体動きが多いと判定し、山間部等では被写体動きが少ないと判定する。
(b)時間情報:画像処理装置内、または外部装置、あるいはネット経由で時間情報を取得し、時間帯、例えば昼は被写体動きが多いと判定し、深夜は被写体動きが少ないと判定する。
(c)交通情報:ネットワーク経由で交通情報を入力し、道路が混雑している状況であれば、被写体動きが多いと判定し、混雑していない状況では被写体動きが少ないと判定する。
(d)画像上の位置(ブロック):画像上の領域単位(ブロック単位)で、被写体動きの多い少ないを予め規定しておく。例えば、水平方向のブロックは、被写体動きが多く、上下方向は被写体動きが少ないと判定する。
構成Aの画像処理装置は、例えば、上記(a)〜(d)の環境情報を入力して、統合ブラー(Eall)推定処理を実行する。
上述した(A1)の構成では、例えば、上記(a)〜(d)の環境情報を入力して、被写体の動きの量を判定し、被写体動きが既定のしきい値以上であると判定した場合は、統合ブラー(Eall)として、画像ベースブラー(Et)を適用し、しきい値未満である場合は、カメラ動きベースブラー(Ec)を選択する。
また、上述した(A2)の構成では、例えば、上記(a)〜(d)の環境情報を入力して、被写体の動きの量を判定し、判定した被写体動き量に応じて、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均態様を変更して、加重平均結果を、統合ブラー(Eall)とする。
以下、これら2種類の処理を実行する画像処理装置の構成について、順次、説明する。
まず、図9を参照して、
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
上記(A1)の構成について説明する。
図9は、構成A1対応の画像処理装置の構成と処理を説明する図である。
図9に示す画像処理装置A1,20−A1は、可視光画像入力部21、遠赤外画像入力部22、カメラ動き情報入力部23、画像ベースブラー推定部30、カメラ動きベースブラー推定部40、統合ブラー推定部50、ブラー除去部60、フィルタバンク35、カメラ動きブラーマップ記憶部45、環境情報記憶部/入力部55を有する。
さらに、画像ベースブラー推定部30は、フィルタ処理部31、相関演算部32、画像ベースフィルタ(Etf)決定部33を有する。
カメラ動きベースブラー推定40は、カメラ動きブラーマップ取得部41を有する。
統合ブラー推定部50は、被写体動き判定部51、統合フィルタ(Eallf)決定部52を有する。
また、ブラー除去部60は、逆フィルタ算出部61、逆フィルタ処理部62を有する。
可視光画像入力部21は、補正前可視光画像25を画像ベースブラー推定部30と、ブラー除去部60に入力する。
また、遠赤外画像入力部22は、遠赤外画像26を、画像ベースブラー推定部30に入力する。
さらに、カメラ動き情報入力部23は、例えばIMU等の動きセンサの取得したカメラ動き情報をカメラ動きベースブラー推定部40に入力する。
可視光画像入力部21と遠赤外画像入力部22が入力する補正前可視光画像25と、遠赤外画像26は、同一被写体を同時に撮影した画像である。
これらの画像は、例えば暗闇で撮影された画像であり、可視光画像入力部21の入力する補正前可視光画像25は、長時間露光によるブラー(ぼけ)が発生している。
一方、遠赤外画像入力部22の入力する遠赤外画像26は短時間露光画像であり、ブラー(ぼけ)のほとんどない画像である。
なお、補正前可視光画像25と、遠赤外画像26は、いずれも横=W画素、縦=H画素のW×H画素の画像である。図には補正前可視光画像[W*H]25と、遠赤外画像[W*H]26として示している。
また、図中に示す[W*H]は、画像の区分領域である1つのブロック領域を示す。
1枚の画像フレームのブロック数はNとする。
次に、画像ベースブラー推定部30の実行する処理について説明する。
画像ベースブラー推定部30のフィルタ処理部31は、遠赤外画像26に対して、フィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用する。すなわち、遠赤外画像26に様々な態様のブラーを故意に発生させる。
フィルタバンク35には、ブラー(ぼけ)の大きさや方向の異なる多数のブラー発生用フィルタが格納されている。すなわち様々なPSF対応の多数のフィルタが格納されている。
画像ベースブラー推定部30のフィルタ処理部31が、遠赤外画像26にフィルタを適用して生成したブラーを故意に発生させた遠赤外画像は、相関運算部32に出力される。
相関演算部32は、フィルタ適用によりブラーを故意に発生させた遠赤外画像と、補正前可視光画像25との相関を算出する。
なお、このフィルタ処理部31と、相関演算部32の実行するフィルタ適用処理、および相関算出処理は、補正前可視光画像25のN個のブロック領域と、遠赤外画像26のN個のブロック領域の対応ブロック単位で実行する。
フィルタ処理部31は、遠赤外画像26のN個のブロックの各々について、フィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用する。
相関演算部32は、遠赤外画像26のN個のブロックの各々について、フィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用した結果と、補正前可視光画像25との相関を算出し、N個のブロック各々についての各フィルタ対応の相関値を画像ベースフィルタ(Etf)決定部33に出力する。
画像ベースフィルタ(Etf)決定部33は、相関演算部32からの入力データ、すなわち、
N個のブロック各々についての各フィルタ対応の相関値の中から、
各ブロックについて、最も相関の高いブロック対応のフィルタを選択する。
画像ベースフィルタ(Etf)決定部33が選択したN個のブロック各々についてのN個のフィルタは、統合ブラー推定部50の統合フィルタ(Eallf)決定部52に入力される。
統合ブラー推定部50の統合フィルタ(Eallf)決定部52は、
画像ベースフィルタ(Etf)決定部33から、最も相関の高いブロック対応の画像ベースフィルタ(Etf)を入力し、さらに、
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力する。
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41は、カメラ動き情報入力部23から入力するカメラ動き情報に基づいて、カメラ動きブラーマップ記憶部45に格納された様々なカメラ動きに対応するブラーマップから、1つのカメラ動きブラーマップを取得して、統合ブラー推定部50の統合フィルタ(Eallf)決定部52に入力する。
カメラ動きブラーマップ記憶部45に格納された様々なカメラ動きに対応するブラーマップの例を図10に示す。
図10には、先に図4を参照して説明したと同様のカメラの動きに応じて撮影画像内に発生するブラーの方向と大きさを示すベクトルを設定した図を示している。
各画像は、所定の大きさのブロックに分割されている。なお、図では、簡略化して示しているが、各ブロック単位でブラーの方向と大きさを示すベクトルが設定されている。
このように、画像の分割領域であるブロック単位でカメラ動きに応じたブラーの方向と大きさを示すベクトルを設定したデータをカメラ動きブラーマップと呼ぶ。
なお、ブロックは、画像ベースブラー推定部30の相関演算部32における相関算出処理が実行されるブロックと同じブロックであり、統合ブラー推定部50において生成される統合フィルタ(Eall)の生成単位でもある。
図10には、以下の4種類のカメラ動きに対応するブラーマップの例を示している。
(1)カメラが前方に直進する場合のカメラ動きブラーマップ
(2)カメラが後方に直進する場合のカメラ動きブラーマップ
(3)カメラが右方向に回転する場合のカメラ動きブラーマップ
(4)カメラが上方向に回転する場合のカメラ動きブラーマップ
なお、カメラ動きブラーマップ記憶部45には、これらの他にも、様々なカメラ動きに応じたブラーマップが格納されている。
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41は、カメラ動き情報入力部23から入力するカメラ動き情報に基づいて、検出されたカメラの動きに一致、または最も近い設定のカメラ動き対応のブラーマップを選択して、統合ブラー推定部50の統合フィルタ(Eallf)決定部52に入力する。
統合ブラー推定部50の統合フィルタ(Eallf)決定部52は、被写体動き判定部51から入力する被写体動き量の判定情報、すなわち被写体動きが多いか少ないかの判定情報に基づいて、統合フィルタ(Eallf)を画像ベースフィルタ(Etf)に設定するか、カメラ動きベースブラー(Ec)に基づくカメラ動きベースフィルタ(Ecf)にするかを決定する。
なお、この決定処理は、ブロック単位で実行する。
被写体動き判定部51は、環境情報記憶部/入力部55から、環境情報を取得して、画像内の各ブロックについて、被写体動きが多いブロックか少ないブロックかを判定する。
環境情報は、先に説明したように、地図情報、時間情報、交通情報、画像上のブロック位置情報等である。
被写体動き判定部51は、予め規定されたアルゴリズムを実行して、上記各種の環境情報基づいて各ブロック単位で、被写体動きが多いブロックであるか少ないブロックであるかを判定し、このブロック単位の判定情報を統合フィルタ(Eallf)決定部52に出力する。
統合フィルタ(Eallf)決定部52は、被写体動き判定部51から入力するブロック単位の判定情報、すなわち、
被写体動きの多いブロックであるか、
被写体動きの少ないブロックであるか、
これらの判定情報に基づいて、以下の処理を行う。
被写体動きの多いブロックについては、画像ベースブラー推定部30から入力する画像ベースフィルタ(Etf)を統合フィルタ(Eallf)に設定する。
一方、被写体動きの少ないブロックについては、カメラ動きベースブラー推定部40から入力するカメラ動きブラーマップに含まれるブロック単位のカメラ動きベースブラー(Ec)に基づいて決定されるカメラ動きベースフィルタ(Ecf)を統合フィルタ(Eallf)に設定する。
統合フィルタ(Eallf)決定部52は、上記のようにブロック単位で、画像ベースフィルタ(Etf)、または、カメラ動きベースフィルタ(Ecf)のいずれかを、統合フィルタ(Eallf)とするフィルタ選択処理を行う。
統合フィルタ(Eallf)決定部52の決定したブロック単位の統合フィルタ(Eallf)は、ブラー除去部60の逆フィルタ算出部61に入力される。
ブラー除去部60の逆フィルタ算出部61は、統合フィルタ(Eallf)決定部52の決定したブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを生成する。
すなわち、デコンボリューションフィルタを生成して、逆フィルタ処理部62に出力する。
デコンボリューションフィルタは、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つフィルタである。
ブラー除去部60の逆フィルタ処理部62は、各ブロック対応の逆フィルタを逆フィルタ算出部61から入力し、入力した逆フィルタを、可視光画像入力部21から入力する補正前可視光画像25の該当ブロックに適用する。
すなわち、逆フィルタ処理部62は、統合ブラー推定部50の統合フィルタ(Eallf)決定部52の決定したブロック単位のフィルタである画像ベースフィルタ(Etf)、または、カメラ動きベースフィルタ(Ecf)のいずれかと逆の特性を持つ逆フィルタを補正前可視光画像25の該当ブロックに適用する。
可視光画像入力部21から入力する補正前可視光画像25のN個のすべてのブロックに対する逆フィルタ適用処理が完了すると、この完了画像を補正後可視光画像27として出力する。
これらの処理により、補正前可視光画像25から、ブラー(ぼけ)が除去または低減された補正後可視光画像27が生成され出力される。
次に、図11を参照して、
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
上記(A2)の構成について説明する。
図11は、構成A2対応の画像処理装置の構成と処理を説明する図である。
図11に示す画像処理装置A2,20−A2は、可視光画像入力部21、遠赤外画像入力部22、カメラ動き情報入力部23、画像ベースブラー推定部30、カメラ動きベースブラー推定部40、統合ブラー推定部50、ブラー除去部60、フィルタバンク35、カメラ動きブラーマップ記憶部45、環境情報記憶部/入力部55を有する。
さらに、画像ベースブラー推定部30は、フィルタ処理部31、相関演算部32、画像ベースフィルタ(Etf)決定部33を有する。
カメラ動きベース推定部41は、カメラ動きブラーマップ取得部41を有する。
統合ブラー推定部50は、重み算出部53、統合フィルタ(Eallf)算出部54を有する。
また、ブラー除去部60は、逆フィルタ算出部61、逆フィルタ処理部62を有する。
先に図9を参照して説明した構成A1対応の画像処理装置A1,20−A1との差異は、統合ブラー推定部50の構成のみであり、統合ブラー推定部50が重み算出部53と、統合フィルタ(Eallf)算出部54を有する点である。
その他の構成は、先に図9を参照して説明した構成A1対応の画像処理装置A1,20−A1と同様の構成であり、処理も同様の処理となる。
以下では、図11に示す画像処理装置A2,20−A2における統合ブラー推定部50の重み算出部53と、統合フィルタ(Eallf)算出部54の処理について説明する。
統合ブラー推定部50の統合フィルタ(Eallf)算出部54は、
画像ベースフィルタ(Etf)決定部33から、最も相関の高いブロック対応の画像ベースフィルタ(Etf)を入力し、さらに、
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力する。
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41は、カメラ動き情報入力部23から入力するカメラ動き情報に基づいて、カメラ動きブラーマップ記憶部45に格納された様々なカメラ動きに対応するブラーマップから、1つのカメラ動きブラーマップを取得して、統合ブラー推定部50の統合フィルタ(Eallf)算出部54に入力する。
統合フィルタ(Eallf)算出部54は、カメラ動きブラーマップから取得されるブロック単位のカメラ動きブラー(Ec)から、そのブラーに対応するフィルタ、すなわち、そのブラーを発生させるフィルタであるカメラ動きフィルタ(Ecf)を算出する。
さらに、統合フィルタ(Eallf)算出部54は、重み算出部53から入力する重み情報を用いて、画像ベースフィルタ(Etf)と、カメラ動きベースフィルタ(Ecf)の加重平均を行い、統合フィルタ(Eallf)を算出する。
具体的には、例えば、重み係数α、βを用いて、統合ブラー(Eallf)を以下の算出式に従って算出する。
Eallf=α(Etf)+β(Ecf)
なお、上記式は、各フィルタのフィルタ係数の算出式に相当する。
また、この統合ブラー(Eallf)算出処理は、ブロック単位で実行する。
重み係数α、βは、0〜1の値であり、重み算出部53から入力される。
重み算出部53は、環境情報記憶部/入力部55から、環境情報を取得して、画像内の各ブロックについて、重み係数α、βを算出する。
環境情報は、先に説明したように、地図情報、時間情報、交通情報、画像上のブロック位置情報等である。
重み算出部53は、予め規定されたアルゴリズムを実行して、上記各種の環境情報基づいて各ブロック単位で、重み係数α、βを算出する。
具体的には、被写体動きの多いブロックについては、重み係数αをより大きな値に設定する。すなわち、画像ベースフィルタ(Etf)の寄与率を高く設定した統合ブラー(Eallf)算出を可能とする重み係数の設定を行う。
一方、被写体動きの少ないブロックについては、重み係数βをより大きな値に設定する。すなわち、カメラ動きベースフィルタ(Ecf)の寄与率を高く設定した統合ブラー(Eallf)算出を可能とした重み係数の設定を行う。
統合フィルタ(Eallf)算出部54は、重み算出部53から入力するブロック単位の重み情報、すなわち上述した各ブロック単位の重み係数α、βを用いて、画像ベースフィルタ(Etf)と、カメラ動きベースフィルタ(Ecf)の加重平均を行い、統合フィルタ(Eallf)を算出する。
この結果、被写体動きの多いブロックについては、画像ベースブラー推定部30から入力する画像ベースフィルタ(Etf)の寄与率の高い統合フィルタ(Eallf)が算出される。
一方、被写体動きの少ないブロックについては、カメラ動きベースブラー推定部40から入力するカメラ動きブラーマップに含まれるブロック単位のカメラ動きベースブラー(Ec)に基づいて決定されるカメラ動きベースフィルタ(Ecf)の寄与率の高い統合フィルタ(Eallf)が算出される。
統合フィルタ(Eallf)算出部54は、上記のようにブロック単位で、画像ベースフィルタ(Etf)と、カメラ動きベースフィルタ(Ecf)の加重平均を算出して、統合フィルタ(Eallf)の算出処理を行う。
統合フィルタ(Eallf)算出部54の算出したブロック単位の統合フィルタ(Eallf)は、ブラー除去部60の逆フィルタ算出部61に入力される。
ブラー除去部60の逆フィルタ算出部61は、統合フィルタ(Eallf)決定部52の決定したブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを生成する。
ブラー除去部60の逆フィルタ処理部62は、各ブロック対応の逆フィルタを逆フィルタ算出部61から入力し、入力した逆フィルタを、可視光画像入力部21から入力する補正前可視光画像25の該当ブロックに適用する。
これらの処理により、補正前可視光画像25から、ブラー(ぼけ)が除去または低減された補正後可視光画像27が生成され出力される。
次に、図12以下に示すフローチャートを参照して、図9、図11を参照して説明した構成A対応の画像処理装置の実行する処理のシーケンスについて説明する。
なお、図12以下に示すフローチャートに従った処理は、例えば、画像処理装置の記憶部に格納されたプログラムに従って実行可能な処理であり、プログラム実行機能を有するCPU等を備えた制御部(データ処理部)の制御の下で実行することができる。
まず、図12に示すフローチャートを参照して、図9を参照して説明した、
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える画像処理装置−A1の実行する処理のシーケンスについて説明する。
以下、図12に示すフローの各ステップの処理について、順次、説明する。
(ステップS101)
まず、ステップS101において、補正対象とする可視光画像を取得する。
この処理は、図9に示す画像処理装置における可視光画像入力部21によって行われる。具体的には、例えば可視光画像撮影カメラの撮影画像の取得処理である。
(ステップS102)
次に、ステップS102において、参照画像として利用される遠赤外画像を取得する。
この処理は、図9に示す画像処理装置における遠赤外画像入力部22によって行われる。具体的には、例えば遠赤外画像撮影カメラの撮影画像の取得処理である。
なお、ステップS101、およびステップS102において取得する可視光画像と、遠赤外画像は、同一被写体を同時に撮影した画像である。
これらの画像は、例えば暗闇で撮影された画像であり、可視光画像は、長時間露光によるブラー(ぼけ)が発生している。一方、遠赤外画像は短時間露光画像であり、ブラー(ぼけ)のほとんどない画像である。
(ステップS103)
次に、ステップS103において、カメラの動き情報を取得する。
この処理は、図9に示す画像処理装置におけるカメラ動き情報入力部23によって行われる。具体的には、例えばIMU等のセンサによって、カメラの動き情報が取得され入力される。
(ステップS104)
次に、ステップS104において、ステップS103で入力したカメラの動き情報に基づいて、カメラ動きブラーマッブが取得される。
この処理は、図9に示す画像処理装置におけるカメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41の実行する処理である。
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41は、カメラ動き情報入力部23から入力するカメラ動き情報に基づいて、カメラ動きブラーマップ記憶部45に格納された様々なカメラ動きに対応するブラーマップから、1つのカメラ動きブラーマップを取得して、統合ブラー推定部50の統合フィルタ(Eallf)決定部52に入力する。
(ステップS105)
次のステップS105から、ステップS107の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ1)である。
なお、ブロック数はNとする。
(ステップS106)
ステップS106において、各ブロック単位で画像ベースフィルタ(Etf)を取得する。
この処理は、図9に示す画像処理装置における画像ベースブラー推定部30の実行する処理である。
このステップS106の処理の詳細について、図13に示すフローを参照して説明する。
このステップS106における各ブロック単位の画像ベースフィルタ(Etf)の取得処理には、ステップS101で取得した可視光画像と、ステップS102で取得した遠赤外画像を利用するので、図13には、ステップS101、S102も併せて示している。
ステップS106の詳細処理は、図13に示すステップS121〜S126の処理である。
以下、この処理について、順次、説明する。
(ステップS121)
ステップS121から、ステップS125の処理は、フィルタバンク35に格納された全てのフィルタに対応付けられたフィルタIDの全てについて、順次、繰り返し実行されるループ処理(ループ1b)である。
(ステップS122)
ステップS122において、フィルタ(係数)を取得する。
ステップS122〜S123の処理は、図9に示す画像ベースブラー推定部30のフィルタ処理部31の実行する処理である。フィルタ処理部31は、遠赤外画像の各ブロックに適用するなフィルタ(ブラー(ぼけ)発生フィルタ)をフィルタバンク35から、順次、取得する。
なお、フィルタバンク35から、順次、取得するデータはフィルタ自体、またはフィルタの構成データであるフィルタ係数のいずれでもよい。
(ステップS123)
次に、ステップS123において、ステップS122で取得したフィルタを遠赤外画像の1つのブロック、すなわち現在、処理対象として選択されているブロックに適用する。
この処理は、遠赤外画像にブラーを故意に発生させるためのフィルタ処理である。
(ステップS124)
次に、ステップS124において、ステップS123でのフィルタ適用結果の遠赤外画像のブロックと、可視光画像の対応ブロックとの相関値を算出する。
この処理は、図9に示す画像ベースブラー推定部30の相関演算部32の実行する処理である。
相関演算部32は、フィルタ適用によりブラーを故意に発生させた遠赤外画像と、可視光画像との相関を算出する。
(ステップS125)
ステップS125は、ステップS121〜S125のループ1bの終了位置である。
すなわち、ステップS122〜S124の処理を、フィルタバンク35に格納された全てのフィルタに対応付けられたフィルタIDの全てについて、順次、繰り返し実行する。
(ステップS126)
1つのブロックについてのステップS121〜S125のループ1bの処理が完了すると、ステップS126に進む。
すなわち、1つのブロックについて、フィルタバンク35に格納された全てのフィルタ対応の相関値算出処理が修了するとステップS126に進む。
ステップS126の処理は、図9に示す画像ベースブラー推定部30の画像ベースフィルタ(Etf)決定部33の実行する処理である。
画像ベースフィルタ(Etf)決定部33は、ステップS126において、ステップS121〜S125のループ1bの処理が完了したブロックについて、フィルタバンク35に格納された全てのフィルタ対応の相関値中、最も高い相関値を持つフィルタのIDを選択する。
図12に示すフローのステップS106の処理は、これらステップS121〜S126の処理によって構成される。
図12に戻り、ステップS106の処理後の処理について説明する。
(ステップS107)
ステップS107は、ステップS105〜S107のループ1の終了位置である。
すなわち、ステップS106の処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
このループ処理(ループ1)が完了すると、
N個のブロック全てについて、最も高い相関値を持つ画像ベースフィルタ(Etf)が決定することになる。
(ステップS108)
次に、ステップS108において、画像撮影時の環境情報を取得する。
この処理は、図9に示す画像処理装置の環境情報記憶部/入力部55を利用して実行される。
環境情報は、先に説明したように、地図情報、時間情報、交通情報、画像上のブロック位置情報等である。
(ステップS109)
次のステップS109からステップS112の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ2)である。
なお、ブロック数はNとする。
(ステップS110)
ステップS110〜S111の処理は、図9に示す統合ブラー推定部50の実行する処理である。
まず、ステップS110において、統合ブラー推定部50の被写体動き判定部51が、予め規定されたアルゴリズムを実行して、上記各種の環境情報基づいて各ブロック単位で、被写体動きが多いブロックであるか少ないブロックであるかを判定する。判定されたブロック単位の判定情報は、統合フィルタ(Eallf)決定部52に出力される。
(ステップS111)
次に、ステップS111において、統合フィルタ(Eallf)決定部52が、各ブロック単位で、画像ベースフィルタ(Etf)、または、カメラ動きベースフィルタ(Ecf)のいずれかを、統合フィルタ(Eallf)とするフィルタ選択処理を行う。
具体的には、被写体動きの多いブロックについては、画像ベースブラー推定部30から入力する画像ベースフィルタ(Etf)を統合フィルタ(Eallf)に設定する。
一方、被写体動きの少ないブロックについては、カメラ動きベースブラー推定部40から入力するカメラ動きブラーマップに含まれるブロック単位のカメラ動きベースブラー(Ec)に基づいて決定されるカメラ動きベースフィルタ(Ecf)を統合フィルタ(Eallf)に設定する。
(ステップS112)
ステップS112は、ステップS109〜S112のループ2の終了位置である。
すなわち、ステップS110〜S111の処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
このループ処理(ループ2)が完了すると、
N個のブロック全てについて、統合フィルタ(Eallf)が決定することになる。
(ステップS113)
次のステップS113からステップS116の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ3)である。
なお、ブロック数はNとする。
(ステップS114)
ステップS114〜S115の処理は、図9に示すブラー除去部60の実行する処理である。
まず、ステップS114において、ブラー除去部60の逆フィルタ算出部61が、統合フィルタ(Eallf)決定部52の決定したブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを算出する。
(ステップS115)
次に、ステップS115において、ブラー除去部60の逆フィルタ処理部62が、ステップS114で算出された逆フィルタを、処理対象の可視光画像のブロックに適用する。
(ステップS116)
ステップS116は、ステップS113〜S116のループ3の終了位置である。
すなわち、ステップS114〜S115の処理を、補正対象画像である可視光画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
可視光画像のN個のすべてのブロックに対する逆フィルタ適用処理が完了すると、その完了画像を補正後可視光画像として出力する。
これらの処理により、ステップS101における入力画像である可視光画像、すなわち図9に示す補正前可視光画像25から、ブラー(ぼけ)が除去または低減され、図9に示す補正後可視光画像27が生成されて出力される。
次に、図14に示すフローチャートを参照して、図11を参照して説明した、
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する画像処理装置−A2の実行する処理のシーケンスについて説明する。
なお、図14に示すフローと、構成A1対応の処理を説明した図12に示すフローとの差異は、図14に示すフロー中のステップS110b〜S111bのみである。すなわち、
図12に示すフローのステップS110を、図14に示すフローのステップS110bに置き換え、
図12に示すフローのステップS111を、図14に示すフローのステップS111bに置き換えた点が異なる。
その他の処理は、図12に示すフローの各処理と同様の処理であるので説明を省略し、以下、上記のステップS110b〜S111bの処理について説明する。
(ステップS110b)
次のステップS109からステップS112の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ2)である。
なお、ブロック数はNとする。
ステップS110b〜S111bの処理は、図11に示す統合ブラー推定部50の実行する処理である。
まず、ステップS110bにおいて、統合ブラー推定部50の重み算出部53が、環境情報記憶部/入力部55から、環境情報を取得して、画像内の各ブロックについて、重み情報を算出する。
環境情報は、先に説明したように、地図情報、時間情報、交通情報、画像上のブロック位置情報等である。
重み情報とは、例えば、、画像ベースフィルタ(Etf)と、カメラ動きベースフィルタ(Ecf)の加重平均算出式、すなわち、以下に示す重み係数α、βを用いた統合ブラー(Eallf)の算出式、
Eallf=α(Etf)+β(Ecf)
上記式における重み係数α、βの各値である。
統合ブラー推定部50の重み算出部53は、予め規定されたアルゴリズムを実行して、上記各種の環境情報基づいて各ブロック単位で、重み係数α、βを算出する。
具体的には、被写体動きの多いブロックについては、重み係数αをより大きな値に設定する。
一方、被写体動きの少ないブロックについては、重み係数βをより大きな値に設定する。
(ステップS111b)
次に、ステップS111bにおいて、統合フィルタ(Eallf)算出部54が、重み算出部53から入力するブロック単位の重み情報、すなわち上述した各ブロック単位の重み係数α、βを用いて、画像ベースフィルタ(Etf)と、カメラ動きベースフィルタ(Ecf)の加重平均を行い、統合フィルタ(Eallf)を算出する。
具体的には、被写体動きの多いブロックについては、画像ベースフィルタ(Etf)の寄与率を高く設定した統合ブラー(Eallf)を算出する。
一方、被写体動きの少ないブロックについては、カメラ動きベースフィルタ(Ecf)の寄与率を高く設定した統合ブラー(Eallf)を算出する。
ステップS109〜S112では、ステップS110b〜S111bの処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
このループ処理(ループ2)が完了すると、
N個のブロック全てについて、統合フィルタ(Eallf)が決定することになる。
以下のステップS113以下では、ブラー除去部60において、統合ブラー(Eallf)の逆フィルタの算出と、補正対象可視光画像に対する適用処理が行われる。
これらの処理により、ステップS101における入力画像である可視光画像、すなわち図11に示す補正前可視光画像25から、ブラー(ぼけ)が除去または低減され、図11に示す補正後可視光画像27が生成されて出力される。
[6.(実施例2)構成B対応の画像処理装置の構成と処理について]
次に、本開示の画像処理装置の実施例2として、図7を参照して説明した構成B対応の画像処理装置の具体的な構成と処理について説明する。
先に図7を参照して説明したように、構成Bは、可視光画像と遠赤外画像を用いた画像ベースブラー推定と、カメラ動き情報に基づくカメラ動きベースブラー推定を併せて実行して統合ブラー推定を実行する構成である。
なお、この構成Bにおける統合ブラー(Eall)生成処理では、以下の2種類の処理のいずれかを実行する。
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理。
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理。
まず、図15を参照して、
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理。
上記処理を実行する画像処理装置−B1の構成について説明する。
図15は、画像処理装置−B1の構成と処理を説明する図である。
図15に示す画像処理装置B1,20−B1は、可視光画像入力部21、遠赤外画像入力部22、カメラ動き情報入力部23、ブラー推定部30b、カメラ動きベースブラー推定部40、ブラー除去部60、フィルタバンクプール36、カメラ動きブラーマップ記憶部45を有する。
さらに、ブラー推定部30bは、フィルタ処理部31、相関演算部32、フィルタバンク選択部34、統合フィルタ(Eallf)決定部37を有する。
カメラ動きベースブラー推定40は、カメラ動きブラーマップ取得部41を有する。
また、ブラー除去部60は、逆フィルタ算出部61、逆フィルタ処理部62を有する。
可視光画像入力部21は、補正前可視光画像25をブラー推定部30bと、ブラー除去部60に入力する。
また、遠赤外画像入力部22は、遠赤外画像26を、ブラー推定部30bに入力する。
さらに、カメラ動き情報入力部23は、例えばIMU等の動きセンサの取得したカメラ動き情報をカメラ動きベースブラー推定部40に入力する。
可視光画像入力部21と遠赤外画像入力部22が入力する補正前可視光画像25と、遠赤外画像26は、同一被写体を同時に撮影した画像である。
これらの画像は、例えば暗闇で撮影された画像であり、可視光画像入力部21の入力する補正前可視光画像25は、長時間露光によるブラー(ぼけ)が発生している。
一方、遠赤外画像入力部22の入力する遠赤外画像26は短時間露光画像であり、ブラー(ぼけ)のほとんどない画像である。
なお、補正前可視光画像25と、遠赤外画像26は、いずれも横=W画素、縦=H画素のW×H画素の画像である。図には補正前可視光画像[W*H]25と、遠赤外画像[W*H]26として示している。
また、図中に示す[W*H]は、画像の区分領域である1つのブロック領域を示す。
1枚の画像フレームのブロック数はNとする。
次に、ブラー推定部30bの実行する処理について説明する。
ブラー推定部30bのフィルタ処理部31は、遠赤外画像26に対して、フィルタバンク選択部34が、フィルタバンクプール36から選択したフィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用する。すなわち、遠赤外画像26に様々な態様のブラーを故意に発生させる。
フィルタバンク35には、ある特定の範囲の大きさや方向を有する複数の異なるブラー(ぼけ)発生用フィルタが格納されている。すなわち様々なPSF対応の多数のフィルタが格納されている。
フィルタバンク35は、フィルタバンク選択部34が、フィルタバンクプール36から選択した1つのフィルタバンクである。
フィルタバンク選択部34は、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力し、入力したカメラ動きブラーマップに設定されたブラーの方向や大きさに類似するブラー対応のフィルタを格納したフィルタバンクを、フィルタバンクプール36から選択する。
なお、このフィルタバンク選択処理は、画像の分割領域であるブロック単位で実行する。
フィルタバンクプール36に格納されるフィルタバンクの例と、カメラ動きブラーマップに基づくフィルタバンクの選択処理例について図16を参照して説明する。
図16(1)は、フィルタバンクプール36に格納されるフィルタバンクの例を示している。
フィルタバンクプール36に格納されるフィルタバンクには、図16(1)に示すように、例えば以下のようなフィルタバンクがある。
(a1)横ブラー対応フィルタバンク
(a2)長い横ブラー対応フィルタバンク
(b1)縦ブラー対応フィルタバンク
(c)右上斜めブラー対応フィルタバンク
フィルタバンクプール36には、このように、類似する設定の複数のブラーに対応する複数のフィルタ、すなわち類似するブラーを発生させる類似する係数設定を持つフィルタを複数格納したフィルタバンクが多数、格納されている。
フィルタバンク選択部34は、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力し、入力したカメラ動きブラーマップに設定されたブラーの方向や大きさに類似するブラー対応のフィルタを格納したフィルタバンクを、フィルタバンクプール36から選択する。
図16(2)は、フィルタバンク選択部34が、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から入力したカメラ動きに対応したカメラ動きブラーマップの一例である。
このカメラ動きブラーマップは、カメラが前方向に直進しているとの判定に基づいて取得されるブラーマップである。
フィルタバンク選択部34は、このカメラ動きブラーマップを入力し、入力したカメラ動きブラーマップの各ブロック各々について、ブロックに設定されたブラーの方向や大きさに類似するブラー対応のフィルタを格納したフィルタバンクを、フィルタバンクプール36から選択する。
図16に示す例では、4つの太い点線枠で示すブロックについて、それぞれ選択されるフィルタバンクを示している。
左端部中央のブロックは、横方向に長いカメラ動きベースブラー(Ec)の設定されたブロックである。
フィルタバンク選択部34は、このブロックに対するフィルタバンクとして、この横長ブラーに類似するブラーを発生させるフィルタを格納した、
(a2)長い横ブラー対応フィルタバンク
を選択する。
左から3番目の中央のブロックは、横方向のカメラ動きベースブラー(Ec)の設定されたブロックである。
フィルタバンク選択部34は、このブロックに対するフィルタバンクとして、この横ブラーに類似するブラーを発生させるフィルタを格納した、
(a1)横ブラー対応フィルタバンク
を選択する。
左から5番目、上から2番目のブロックは、縦方向のカメラ動きベースブラー(Ec)の設定されたブロックである。
フィルタバンク選択部34は、このブロックに対するフィルタバンクとして、この縦ブラーに類似するブラーを発生させるフィルタを格納した、
(b1)縦ブラー対応フィルタバンク
を選択する。
右から4番目、上から3番目のブロックは、右上斜め方向のカメラ動きベースブラー(Ec)の設定されたブロックである。
フィルタバンク選択部34は、このブロックに対するフィルタバンクとして、この右上斜めブラーに類似するブラーを発生させるフィルタを格納した、
(c)右上斜めブラー対応フィルタバンク
を選択する。
フィルタバンク選択部34は、このように、カメラ動きブラーマップ取得部41から、カメラの動きに応じたカメラ動きブラーマップを入力し、入力したカメラ動きブラーマップの各ブロック各々について、ブロックに設定されたブラーの方向や大きさに類似するブラー対応のフィルタを格納したフィルタバンクを、フィルタバンクプール36から選択する。
図15に示すフィルタバンクn,35が、あるブロックに対して選択されたフィルタバンクである。
選択されたフィルタバンク35は、フィルタ処理部31に入力される。
ブラー推定部30bのフィルタ処理部31は、遠赤外画像26の各ブロックに対して、フィルタバンク選択部34の選択したフィルタバンク35に格納されたふぃるたを順次、適用する。
フィルタを適用して生成したブラーを故意に発生させた遠赤外画像は、相関運算部32に出力される。
相関演算部32は、フィルタ適用によりブラーを故意に発生させた遠赤外画像と、補正前可視光画像25との相関を算出する。
なお、このフィルタ処理部31と、相関演算部32の実行するフィルタ適用処理、および相関算出処理は、補正前可視光画像25のN個のブロック領域と、遠赤外画像26のN個のブロック領域の対応ブロック単位で実行する。
フィルタ処理部31は、遠赤外画像26のN個のブロックの各々について、フィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用する。
相関演算部32は、遠赤外画像26のN個のブロックの各々について、フィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用した結果と、補正前可視光画像25との相関を算出し、N個のブロック各々についての各フィルタ対応の相関値を統合フィルタ(Eallf)決定部37に出力する。
統合フィルタ(Eallf)決定部37は、相関演算部32からの入力データ、すなわち、
N個のブロック各々についての各フィルタ対応の相関値の中から、
各ブロックについて、最も相関の高いブロック対応のフィルタを選択する。
統合フィルタ(Eallf)決定部37が選択したN個のブロック各々についてのN個のフィルタは、ブラー除去部60の逆フィルタ算出部61に入力される。
ブラー除去部60の逆フィルタ算出部61は、統合フィルタ(Eallf)決定部37の決定したブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを生成する。
すなわち、デコンボリューションフィルタを生成して、逆フィルタ処理部62に出力する。
デコンボリューションフィルタは、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つフィルタである。
ブラー除去部60の逆フィルタ処理部62は、各ブロック対応の逆フィルタを逆フィルタ算出部61から入力し、入力した逆フィルタを、可視光画像入力部21から入力する補正前可視光画像25の該当ブロックに適用する。
すなわち、逆フィルタ処理部62は、統合フィルタ(Eallf)決定部37の決定したブロック単位の統合フィルタ(Eallf)と逆の特性を持つ逆フィルタを補正前可視光画像25の該当ブロックに適用する。
可視光画像入力部21から入力する補正前可視光画像25のN個のすべてのブロックに対する逆フィルタ適用処理が完了すると、この完了画像を補正後可視光画像27として出力する。
これらの処理により、補正前可視光画像25から、ブラー(ぼけ)が除去または低減された補正後可視光画像27が生成され出力される。
次に、図17を参照して、
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理。
上記処理を実行する画像処理装置−B2の構成について説明する。
図17は、画像処理装置−B2の構成と処理を説明する図である。
図17に示す画像処理装置B2,20−B2は、可視光画像入力部21、遠赤外画像入力部22、カメラ動き情報入力部23、ブラー推定部30b、カメラ動きベースブラー推定部40、ブラー除去部60、カメラ動きブラーマップ記憶部45を有する。
さらに、ブラー推定部30bは、フィルタ処理部31、相関演算部32、統合フィルタ(Eallf)決定部37、フィルタ(ブラー)比較部38、相関補正部39を有する。
カメラ動きベースブラー推定40は、カメラ動きブラーマップ取得部41を有する。
また、ブラー除去部60は、逆フィルタ算出部61、逆フィルタ処理部62を有する。
先に図15を参照して説明した画像処理装置B1,20−B1との差異は、フィルタバンクプール36を有していない点と、ブラー推定部30bの構成である。
図17に示す画像処理装置B2,20−B2のブラー推定部30bは、先に図15を参照して説明したフィルタバンク選択部34を有しておらず、フィルタ(ブラー)比較部38と、相関補正部39を有する。
以下、これら、フィルタ(ブラー)比較部38と、相関補正部39の実行する処理を中心に説明する。
フィルタ(ブラー)比較部38は、以下の各情報を入力する。
フィルタ処理部31において遠赤外画像26に適用するためのブラー(ぼけ)発生用のフィルタをフィルタバンク35から入力する。
さらに、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力する。
フィルタ(ブラー)比較部38は、これらの2つのフィルタ(ブラー)の類似度を判定して、類似度に応じた補正係数(0〜1)を算出して相関補正部39に出力する。
2つのフィルタ(ブラー)の類似度が大きいほど、補正係数は、大きく(1に近く)。類似度が小さいほど補正係数は小さく(0に近く)設定される。
相関補正部39は、フィルタ(ブラー)比較部38から入力する補正係数を、相関演算部32から入力する相関値(補正前可視光画像25と、フィルタ適用遠赤外画像の対応ブロックの相関値)に乗算して、補正相関値を算出して、統合フィルタ決定部37に出力する。
これらの一連の処理の具体例について、図18を参照して説明する。
図18には、以下の各情報を示している。
(1)フィルタバンク35からの取得フィルタF1
(2)相関演算部32の算出する相関値
(3)カメラ動きベースブラー
(4)フィルタ(ブラー)の類似度に基づく算出補正係数
(5)相関補正部39の算出する補正相関値
図18に示す(1)フィルタバンク35からの取得フィルタF1は、図17に示すブラー推定部30bのフィルタ処理部31において遠赤外画像26に適用するためのブラー(ぼけ)発生用のフィルタである。
フィルタ(ブラー)比較部38は、このフィルタを入力する。
図18には3種類のみ示しているが、この他、多数のフィルタがフィルタ処理部31において遠赤外画像26に、順次、適用される。
なお、このフィルタ適用処理は、ブロック単位で実行される。
図18に示す(2)相関演算部32の算出する相関値は、図17に示すブラー推定部30bの相関演算部32において算出される相関値である。
すなわち、補正前可視光画像25と、フィルタ適用遠赤外画像の対応ブロックの相関値である。
図には、上から、遠赤外画像26に適用された3種類の各フィルタに対応した3種類の相関値として、
相関値=0.5,
相関値=0.4,
相関値=0.1、
これらの相関値が算出された例を示している。
図18(3)カメラ動きベースブラーは、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から入力する、カメラ動きに対応したカメラ動きブラーマップから取得されるブラーである。
相関演算部32における相関値算出対象となったブロックに対応するブロックのカメラ動きベースブラーであり、カメラ動きブラーマップから取得される。
図18(3)に示す例では、右斜め下がりのカメラ動きベースブラー(Ec)を示している。
フィルタ(ブラー)比較部38は、
図18(1)に示すフィルタバンク35からの取得フィルタF1、
図18(3)に示すカメラ動きベースブラー(Ec)、
これらの2つのフィルタ(ブラー)を比較する。
なお、フィルタF1は、ブラーを発生させるフィルタであり、図18(1)に示すフィルタバンク35から取得するフィルタF1によって発生するブラーが、図18(3)に示すカメラ動きベースブラー(Ec)に類似するか否かを判定する。
フィルタ(ブラー)比較部38は、これらの2つのフィルタ(ブラー)の類似度を判定して、類似度に応じた補正係数(0〜1)を算出して相関補正部39に出力する。
図18(4)に示すフィルタ(ブラー)の類似度に基づく算出補正係数が、この補正係数である。
図18に示す例では、上から、遠赤外画像26に適用された3種類の各フィルタに対応した3種類の補正係数として、
補正係数=0.3,
補正係数=0.9,
補正係数=0.9、
これらの補正係数が算出された例を示している。
補正係数は、2つのフィルタ(ブラー)の類似度が大きいほど大きい値(1に近い値)となる。
図18に示す例では、図18(3)に示すカメラ動きベースブラー(Ec)が右下斜め方向のブラーである。
図18(1)フィルタバンク35からの取得フィルタF1として示す3種類のフィルタ中、一番目の横方向のブラー対応のフィルタは、右下斜め方向のカメラ動きベースブラー(Ec)との類似度が低いと判定され、補正係数=0.3の算出がなされる。
一方、2番目の右下方向のブラー、および3番目の縦方向のブラー対応のフィルタは、図18(3)に示す右下斜め方向のカメラ動きベースブラー(Ec)との類似度が高いと判定され、補正係数=0.9の算出がなされる。
フィルタ(ブラー)比較部38は、これらの補正係数を相関補正部39に出力する。
相関補正部39は、フィルタ(ブラー)比較部38から入力する補正係数を、相関演算部32から入力する相関値、すなわち、図18に示す(2)相関演算部32の算出する相関値に乗算して、補正相関値を算出する。
図18(5)に示す補正相関値である。
図18(5)に示す例では、上から、遠赤外画像26に適用された3種類の各フィルタに対応した3種類の補正相関値として、
補正相関値=0.5×0.3=0.15,
補正相関値=0.4×0.9=0.36,
補正相関値=0.1×0.9=0.09,
これらの補正相関値が算出された例を示している。
相関補正部39の算出した補正相関値は、統合フィルタ決定部37に出力される。
統合フィルタ決定部37は、相関補正部39からの入力データ、すなわち、
N個のブロック各々についての各フィルタ対応の補正相関値の中から、
各ブロックについて、最も相関の高いブロック対応のフィルタを選択する。
統合フィルタ(Eallf)決定部37が選択したN個のブロック各々についてのN個のフィルタは、ブラー除去部60の逆フィルタ算出部61に入力される。
図18に示す例では、図18(5)に示すように、2番目のエントリが最も補正相関値の高いエントリとなる。
この場合、2番目のエントリのフィルタ、すなわち、図18(1)フィルタバンクからの取得フィルタF1に示す2番目のフィルタが統合フィルタ(Eallf)として決定される。
統合フィルタ(Eallf)決定部37が決定した統合フィルタ(Eallf)は、ブラー除去部60の逆フィルタ算出部61に入力される。
ブラー除去部60の逆フィルタ算出部61は、ブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを生成する。
すなわち、デコンボリューションフィルタを生成して、逆フィルタ処理部62に出力する。
デコンボリューションフィルタは、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つフィルタである。
ブラー除去部60の逆フィルタ処理部62は、各ブロック対応の逆フィルタを逆フィルタ算出部61から入力し、入力した逆フィルタを、可視光画像入力部21から入力する補正前可視光画像25の該当ブロックに適用する。
すなわち、逆フィルタ処理部62は、統合フィルタ(Eallf)決定部37の決定したブロック単位の統合フィルタ(Eallf)と逆の特性を持つ逆フィルタを補正前可視光画像25の該当ブロックに適用する。
可視光画像入力部21から入力する補正前可視光画像25のN個のすべてのブロックに対する逆フィルタ適用処理が完了すると、この完了画像を補正後可視光画像27として出力する。
これらの処理により、補正前可視光画像25から、ブラー(ぼけ)が除去または低減された補正後可視光画像27が生成され出力される。
次に、図19以下に示すフローチャートを参照して、図15、図17を参照して説明した構成B対応の画像処理装置の実行する処理のシーケンスについて説明する。
まず、図19に示すフローチャートを参照して、図15を参照して説明した、
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理。
上記処理を実行する画像処理装置−B1の実行する処理のシーケンスについて説明する。
なお、図19に示すフロー中、先に図12を参照して説明した構成A対応の画像処理装置−A1の実行する処理と同様の処理を実行するステップについては、同一のステップ番号を示している。
以下、図19に示すフローの各ステップの処理について、順次、説明する。
(ステップS101)
まず、ステップS101において、補正対象とする可視光画像を取得する。
この処理は、図15に示す画像処理装置における可視光画像入力部21によって行われる。具体的には、例えば可視光画像撮影カメラの撮影画像の取得処理である。
(ステップS102)
次に、ステップS102において、参照画像として利用される遠赤外画像を取得する。
この処理は、図15に示す画像処理装置における遠赤外画像入力部22によって行われる。具体的には、例えば遠赤外画像撮影カメラの撮影画像の取得処理である。
なお、ステップS101、およびステップS102において取得する可視光画像と、遠赤外画像は、同一被写体を同時に撮影した画像である。
これらの画像は、例えば暗闇で撮影された画像であり、可視光画像は、長時間露光によるブラー(ぼけ)が発生している。一方、遠赤外画像は短時間露光画像であり、ブラー(ぼけ)のほとんどない画像である。
(ステップS103)
次に、ステップS103において、カメラの動き情報を取得する。
この処理は、図15に示す画像処理装置におけるカメラ動き情報入力部23によって行われる。具体的には、例えばIMU等のセンサによって、カメラの動き情報が取得され入力される。
(ステップS104)
次に、ステップS104において、ステップS103で入力したカメラの動き情報に基づいて、カメラ動きブラーマッブが取得される。
この処理は、図15に示す画像処理装置におけるカメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41の実行する処理である。
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41は、カメラ動き情報入力部23から入力するカメラ動き情報に基づいて、カメラ動きブラーマップ記憶部45に格納された様々なカメラ動きに対応するブラーマップから、1つのカメラ動きブラーマップを取得して、ブラー推定部30bのフィルタバンク選択部34に入力する。
(ステップS105)
次のステップS105から、ステップS107の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ1)である。
なお、ブロック数はNとする。
(ステップS105b)
ステップS105bの処理は、図15に示すブラー推定部30bのフィルタバンク選択部34の実行する処理である。
フィルタバンク選択部34は、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力し、入力したカメラ動きブラーマップに設定されたブラーの方向や大きさに類似するブラー対応のフィルタを格納したフィルタバンクを、フィルタバンクプール36から選択する。
なお、このフィルタバンク選択処理は、画像の分割領域であるブロック単位で実行する。
(ステップS106b)
次に、ステップS106bにおいて、統号フィルタ(Eallf)の決定処理を実行する。
このステップS106bの処理は、図15に示すブラー推定部20bのフィルタ処理部31、相関演算部32、統合フィルタ決定部37において実行する処理であ。
このステップS106bの処理シーケンスは、先に図13を参照して説明したステップS106の処理、すなわち、図13に示すステップS121〜S126の処理と同一である。
ただし、図13を参照して説明したステップS121〜S126の処理では、出力するフィルタは、画像ベースフィルタ(Etf)であるが、図19のフローのステップS106bは、図13に示すステップS126において、図15に示す統合フィルタ決定部37が、相関値最大のフィルタを統合フィルタ(Eallf)として選択する処理を行う。
(ステップS107)
ステップS107は、ステップS105〜S107のループ1の終了位置である。
すなわち、ステップS105b〜106bの処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
このループ処理(ループ1)が完了すると、
N個のブロック全てについて、最も高い相関値を持つ統合フィルタ(Eallf)が決定することになる。
(ステップS113)
次のステップS113からステップS116の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ3)である。
なお、ブロック数はNとする。
(ステップS114)
ステップS114〜S115の処理は、図15に示すブラー除去部60の実行する処理である。
まず、ステップS114において、ブラー除去部60の逆フィルタ算出部61が、統合フィルタ(Eallf)決定部37の決定したブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを算出する。
(ステップS115)
次に、ステップS115において、ブラー除去部60の逆フィルタ処理部62が、ステップS114で算出された逆フィルタを、処理対象の可視光画像のブロックに適用する。
(ステップS116)
ステップS116は、ステップS113〜S116のループ3の終了位置である。
すなわち、ステップS114〜S115の処理を、補正対象画像である可視光画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
可視光画像のN個のすべてのブロックに対する逆フィルタ適用処理が完了すると、その完了画像を補正後可視光画像として出力する。
これらの処理により、ステップS101における入力画像である可視光画像、すなわち図15に示す補正前可視光画像25から、ブラー(ぼけ)が除去または低減され、図15に示す補正後可視光画像27が生成されて出力される。
次に、図20に示すフローチャートを参照して、図17を参照して説明した、
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理。
上記処理を実行する画像処理装置−B2の実行する処理シーケンスについて説明する。
図20に示すフローは、図19を参照して説明した図19のフロー中のステップS105b〜S106bの処理を、図20のフローに示すステップS106cに置き換えた点のみが異なる。
その他の処理は図19に示すフローを参照して説明した処理と同様であるので、説明を省略し、図20のフローに示すステップS106cの処理を中心として説明する。
(ステップS106c)
このステップS106cは、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ1)として実行される。
ステップS106は、図17に示すブラー推定部30bの実行するブロック単位の統合フィルタ(Eallf)算出処理である。
このステップS106cの処理の詳細シーケンスについて、図21に示すフローを参照して説明する。
ステップS106cにおける各ブロック単位の統合フィルタ(Eallf)の算出処理には、ステップS101で取得した可視光画像と、ステップS102で取得した遠赤外画像、さらに、ステップS103〜S104で取得されるカメラ動きブラーマップを利用するので、図21には、ステップS101〜S104も併せて示している。
ステップS106cの詳細処理は、図21に示すステップS121〜S126の処理である。
以下、この処理について、順次、説明する。
(ステップS121)
ステップS121から、ステップS125の処理は、フィルタバンク35に格納された全てのフィルタに対応付けられたフィルタIDの全てについて、順次、繰り返し実行されるループ処理(ループ1b)である。
(ステップS122)
ステップS122において、フィルタ(係数)を取得する。
ステップS122〜S123の処理は、図17に示すブラー推定部30bのフィルタ処理部31の実行する処理である。フィルタ処理部31は、遠赤外画像の各ブロックに適用するなフィルタ(ブラー(ぼけ)発生フィルタ)をフィルタバンク35から、順次、取得する。
なお、フィルタバンク35から、順次、取得するデータはフィルタ自体、またはフィルタの構成データであるフィルタ係数のいずれでもよい。
(ステップS123)
次に、ステップS123において、ステップS122で取得したフィルタを遠赤外画像の1つのブロック、すなわち現在、処理対象として選択されているブロックに適用する。
この処理は、遠赤外画像にブラーを故意に発生させるためのフィルタ処理である。
(ステップS124)
次に、ステップS124において、ステップS123でのフィルタ適用結果の遠赤外画像のブロックと、可視光画像の対応ブロックとの相関値を算出する。
この処理は、図17に示すブラー推定部30bの相関演算部32の実行する処理である。
相関演算部32は、フィルタ適用によりブラーを故意に発生させた遠赤外画像と、可視光画像との相関を算出する。
(ステップS125)
ステップS125は、ステップS121〜S125のループ1bの終了位置である。
すなわち、ステップS122〜S124の処理を、フィルタバンク35に格納された全てのフィルタに対応付けられたフィルタIDの全てについて、順次、繰り返し実行する。
(ステップS125c)
1つのブロックについてのステップS121〜S125のループ1bの処理が完了すると、ステップS125cに進む。
すなわち、1つのブロックについて、フィルタバンク35に格納された全てのフィルタ対応の相関値算出処理が修了するとステップS125cに進む。
ステップS125cの処理は、図17に示すブラー推定部30bのフィルタ(ブラー)比較部38と、相関補正部39の実行する処理である。
フィルタ(ブラー)比較部38は、以下の各情報を入力する。
フィルタ処理部31において遠赤外画像26に適用するためのブラー(ぼけ)発生用のフィルタをフィルタバンク35から入力する。
さらに、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力する。
フィルタ(ブラー)比較部38は、これらの2つのフィルタ(ブラー)の類似度を判定して、類似度に応じた補正係数(0〜1)を算出して相関補正部39に出力する。
2つのフィルタ(ブラー)の類似度が大きいほど、補正係数は、大きく(1に近く)。類似度が小さいほど補正係数は小さく(0に近く)設定される。
相関補正部39は、フィルタ(ブラー)比較部38から入力する補正係数を、相関演算部32から入力する相関値(補正前可視光画像25と、フィルタ適用遠赤外画像の対応ブロックの相関値)に乗算して、補正相関値を算出して、統合フィルタ決定部37に出力する。
(ステップS126)
ステップS126の処理は、図17に示すブラー推定部30bの統合フィルタ(Eallf)決定部37の実行する処理である。
統合フィルタ(Eallf)決定部37は、ステップS126において、ステップS125bで相関補正部39の算出したブロック対応の補正相関値中、最も高い相関値を持つフィルタを、ブロック対応の統合フィルタ(Eallf)として決定する。
統合フィルタ(Eallf)決定部37の決定したブロック対応の統合フィルタ(Eallf)は、図17に示すブラー除去部60の逆フィルタ算出部61に入力される。
(ステップS107)
ステップS107は、ステップS105〜S107のループ1の終了位置である。
すなわち、ステップS105b〜106bの処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
このループ処理(ループ1)が完了すると、
N個のブロック全てについて、統合フィルタ(Eallf)が決定することになる。
次に、図20に示すステップS113〜S116の処理が実行される。
すなわち、ブラー除去部60の逆フィルタ算出部61が、統合フィルタ(Eallf)決定部37の決定したブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを算出し、ブラー除去部60の逆フィルタ処理部62が、逆フィルタを、処理対象の可視光画像のブロックに適用する。
可視光画像のN個のすべてのブロックに対する逆フィルタ適用処理が完了すると、その完了画像を補正後可視光画像として出力する。
これらの処理により、ステップS101における入力画像である可視光画像、すなわち図17に示す補正前可視光画像25から、ブラー(ぼけ)が除去または低減され、図17に示す補正後可視光画像27が生成されて出力される。
[7.(実施例3)構成A+C対応の画像処理装置の構成と処理について]
次に、本開示の画像処理装置の実施例3として、図8を参照して説明した構成(A+C)、すなわち、構成Aを基本構成として、さらにフィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成と処理について説明する。
構成Aは、画像ベースフィルタ(Etf)と、カメラ動きベースフィルタ(Ecf)を統合した統合フィルタ(Eallf)を推定して、この統合フィルタ(Eallf)の逆特性を持つ逆フィルタを、ブラーを有する可視光画像に適用する構成である。
以下に説明する実施例3としての構成A+Cは、この構成Aにおいて推定される画像ベースフィルタ(Etf)や、カメラ動きベースフィルタ(Ecf)の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成である。
なお、構成Aについては、先に図9〜図14を参照して説明したように、統合ブラー(Eall)推定処理の処理態様として、以下の2種類がある。
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
以下、これら構成A1,A2の各々に対して、構成C、すなわち、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成と処理について説明する。すなわち、
構成A1+C、
構成A2+C、
これらの2つの構成例と処理について、図22以下を参照して説明する。
まず、図22を参照して、構成A1+C、すなわち、
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
上記構成に、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成について説明する。
図22に示す画像処理装置A1+C,20−A1Cは、先に図9を参照して説明した画像処理装置A1,20−A1の構成に、信頼度算出部70を追加し、さらに、ブラー除去部60内に逆フィルタ補正部63を追加した構成である。
その他の構成は、図9に示す画像処理装置A1,20−A1と同一である。
信頼度算出部70と、逆フィルタ補正部63の実行する処理について説明する。
信頼度算出部70は、フィルタ(ブラー)比較部71を有する。
信頼度算出部70のフィルタ(ブラー)比較部71は、以下の2つのデータを入力する。
(1)画像ベースブラー推定部30の生成した画像ベースフィルタ(Etf)
(2)カメラ動きベースブラー推定部40が取得したカメラ動きブラーマップ
画像ベースブラー推定部30の生成した画像ベースフィルタ(Etf)は画像の分割領域であるブロック単位のフィルタである。
カメラ動きベースブラー推定部40が取得したカメラ動きブラーマップは、先に図10を参照して説明したようにカメラ動きに応じたブラー情報をブロック単位で有するデータである。
信頼度算出部70のフィルタ(ブラー)比較部71は、画像ベースブラー推定部30の生成したブロック単位の画像ベースフィルタ(Etf)と、そのブロックに対応するカメラ動きブラーマップ内のブロックのカメラ動きベースブラー(Ec)を比較する。
なお、ここで比較対象となるフィルタは、ブラーを発生させるフィルタであり、例えば、フィルタの係数とブラーを示す関数(PSF)とを直接比較することが可能であり、この比較により、フィルタとブラーとの類似性を判定することができる。
なお、カメラ動きベースブラー(Ec)をカメラ動きベースフィルタ(Ecf)に変換して、画像ベースフィルタ(Etf)と比較する処理を行ってもよいし、あるいは、画像ベースフィルタ(Etf)を画像ベースブラー(Ec)に変換して、カメラ動きベースブラー(Ec)と比較する処理を行ってもよい。
いずれにおいても、画像内の同一位置にある対応するブロック間で、画像ベースブラー(Et)、または画像ベースフィルタ(Etf)と、カメラ動きベースブラー(Ec)、またはカメラ動きベースフィルタ(Ecf)との比較処理を行う。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定する。
一方、2つのフィルタ(ブラー)の類似度が低い場合は、信頼度の値を低く設定する。
なお、信頼度は、例えば信頼度=0〜1の値とする。
図23に信頼度算出部70のフィルタ(ブラー)比較部71の実行する信頼度算出処理例を示す。
図23には、フィルタ(ブラー)比較部71の実行する信頼度算出処理例として2つの例を示している。
(例1)は、画像ベースブラー推定部30の生成した画像ベースフィルタ(ブラー)が、横長のフィルタ(ブラー)であり、カメラ動きブラーマップ内のブロックから取得したカメラ動きベースフィルタ(ブラー)が、右下斜め方向のフィルタ(ブラー)である例である。
この場合、これら2つのフィルタ(ブラー)の類似度は低いと判定し、信頼度を低い値、例えば0.1に設定する。
(例2)は、画像ベースブラー推定部30の生成した画像ベースフィルタ(ブラー)が、右下斜め方向のフィルタ(ブラー)であり、カメラ動きブラーマップ内のブロックから取得したカメラ動きベースフィルタ(ブラー)が、右下斜め方向のフィルタ(ブラー)である例である。
この場合、これら2つのフィルタ(ブラー)の類似度は高いと判定し、信頼度を高い値、例えば0.9に設定する。
信頼度算出部70のフィルタ(ブラー)比較部71は、算出した信頼度を、ブラー除去部60の逆フィルタ補正部63に出力する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
一方、信頼度算出部70から入力する信頼度が低い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱める。すなわち、逆フィルタ算出部61の算出した逆フィルタに設定された係数を調整して、逆フィルタの適用効果を小さくする。
具体的には、例えば、信頼度算出部70の算出する相関値信頼度が、
相関値信頼度α=1(高信頼度)〜0(縦い信頼度)の設定である場合、
逆フィルタ補正部63は、逆フィルタ算出部61の算出した逆フィルタに設定された係数に対して信頼度αを乗算して補正逆フィルタを生成して、逆フィルタ処理部62に出力する。
逆フィルタ処理部62は、逆フィルタ補正部63から入力する補正逆フィルタを、補正前可視光画像25の処理対象ブロックに対して適用する。
なお、信頼度算出部70の信頼度算出処理や、逆フィルタ補正部63の逆フィルタ補正処理、さらに、逆フィルタ処理部62における逆フィルタ適用処理はブロック単位の処理として実行される。
このように、本実施例では、推定されたフィルタ(ブラー)の信頼度に応じた逆フィルタ適用処理が実現されることになり、信頼度の高いブロックは逆フィルタの適用効果を高め、信頼度の低いブロックは逆フィルタの適用効果を低く抑えた処理が可能となり、信頼度に応じた効果的なブラー解消処理が可能となる。
次に、図24を参照して、構成A2+C、すなわち、
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
上記構成に、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成について説明する。
図24に示す画像処理装置A2+C,20−A2Cは、先に図11を参照して説明した画像処理装置A2,20−A2の構成に、信頼度算出部70を追加し、さらに、ブラー除去部60内に逆フィルタ補正部63を追加した構成である。
その他の構成は、図11に示す画像処理装置A2,20−A2と同一である。
信頼度算出部70と、逆フィルタ補正部63の実行する処理は、上述した画像処理装置A1+C,20−A1Cについて、図22、図23を参照して説明した処理と同様の処理である。
すなわち、信頼度算出部70は、画像内の同一位置にある対応するブロック間で、画像ベースブラー(Et)、または画像ベースフィルタ(Etf)と、カメラ動きベースブラー(Ec)、またはカメラ動きベースフィルタ(Ecf)との比較処理を行う。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
信頼度算出部70のフィルタ(ブラー)比較部71は、算出した信頼度を、ブラー除去部60の逆フィルタ補正部63に出力する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
一方、信頼度算出部70から入力する信頼度が低い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱める。すなわち、逆フィルタ算出部61の算出した逆フィルタに設定された係数を調整して、逆フィルタの適用効果を小さくする。
このように、本実施例でも、推定されたフィルタ(ブラー)の信頼度に応じた逆フィルタ適用処理が実現されることになり、信頼度の高いブロックは逆フィルタの適用効果を高め、信頼度の低いブロックは逆フィルタの適用効果を低く抑えた処理が可能となり、信頼度に応じた効果的なブラー解消処理が可能となる。
次に、図22〜図24を参照して説明した本実施例3、すなわち、構成(A1+C)、および構成(A2+C)の画像処理装置における処理シーケンスについて、図25以下に示すフローチャートを参照して説明する。
図25に示すフローチャートは、先に図22を参照して説明した構成A1+C、すなわち、
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
上記構成に、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の実行する処理シーケンスを説明するフローチャートである。
この図25に示すフローチャートは、先に、図12を参照して説明した図9の「構成A1」対応の画像処理装置の実行する処理フローのステップS101〜S116の処理に、ステップS112bと、ステップS114bの処理を追加したフローチャートである。
追加処理であるステップS112bと、ステップS114b以外の処理は、図12を参照して説明したフローのステップS101〜S116の処理と同様であるので、説明を省略し、追加処理であるステップS112bと、ステップS114bの処理についてのみ説明する。
(ステップS112b)
ステップS112bは、信頼度算出処理であり、ブロック単位で繰り返し実行される。
図22に示す信頼度算出部70のフィルタ(ブラー)比較部71は、画像内の同一位置にある対応するブロック間で、画像ベースブラー(Et)、または画像ベースフィルタ(Etf)と、カメラ動きベースブラー(Ec)、またはカメラ動きベースフィルタ(Ecf)との比較処理を行い、比較処理結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
全てのブロックについての信頼度算出処理を完了すると、ステップS113に進む。
(ステップS114b)
次に、図25に示すフローのもう一つの追加ステップの処理であるステップS114bの処理について説明する。
ステップS114bは、図22に示すブラー除去部60の逆フィルタ補正部63において実行する処理である。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
一方、信頼度算出部70から入力する信頼度が低い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱める。すなわち、逆フィルタ算出部61の算出した逆フィルタに設定された係数を調整して、逆フィルタの適用効果を小さくする。
次に、図26に示すフローチャートを参照して、先に図24を参照して説明した構成A2+C、すなわち、
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
上記構成に、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の実行する処理シーケンスについて説明する。
この図26に示すフローチャートは、先に、図14を参照して説明した図11の「構成A2」対応の画像処理装置の実行する処理フローのステップS101〜S116の処理に、ステップS112bと、ステップS114bの処理を追加したフローチャートである。
追加処理であるステップS112bと、ステップS114b以外の処理は、図14を参照して説明したフローのステップS101〜S116の処理と同様である。
また、追加処理であるステップS112bと、ステップS114bの処理は、図25のフローチャートを参照して説明した構成A1+Cの画像処理装置の処理であるステップS112bと、ステップS114bの処理と同様の処理である。
すなわち、ステップS112bでは、画像ベースフィルタ(ブラー)と、カメラ動きベースフィルタ(ブラー)との類似度に基づく信頼度を算出する。
さらに、ステップS114bでは、信頼度に応じて逆フィルタの適用強度を制御するための逆フィルタ補正処理を実行する。
これらの処理によって、推定されたフィルタ(ブラー)の信頼度に応じた逆フィルタ適用処理が実現されることになり、信頼度の高いブロックは逆フィルタの適用効果を高め、信頼度の低いブロックは逆フィルタの適用効果を低く抑えた処理が可能となり、信頼度に応じた効果的なブラー解消処理が可能となる。
[8.(実施例4)構成B+C対応の画像処理装置の構成と処理について]
次に、本開示の画像処理装置の実施例4として、図8を参照して説明した構成(B+C)、すなわち、構成Bを基本構成として、さらにフィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成と処理について説明する。
構成Bは、先に図15〜図21を参照して説明した構成であり、可視光画像と遠赤外画像を用いた画像ベースブラー推定と、カメラ動き情報に基づくカメラ動きベースブラー推定を併せて実行して統合ブラー推定を実行する構成である。
以下に説明する実施例4としての構成B+Cは、この構成Bにおいて推定される画像ベースフィルタ(Etf)や、カメラ動きベースフィルタ(Ecf)の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成である。
なお、先に、図15〜図21を参照して説明したように、構成Bの統合ブラー(Eall)生成処理においては、以下の2種類の処理のいずれかを実行する。
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理(図15)。
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理(図17)。
以下、これら構成B1,B2の各々に対して、構成C、すなわち、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成と処理について説明する。すなわち、
構成B1+C、
構成B2+C、
これらの2つの構成例と処理について、図27以下を参照して説明する。
まず、図27を参照して、構成B1+C、すなわち、
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理を行う装置において、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成について説明する。
図27に示す画像処理装置B1+C,20−B1Cは、先に図15を参照して説明した画像処理装置B1,20−B1の構成に、信頼度算出部70を追加し、さらに、ブラー除去部60内に逆フィルタ補正部63を追加した構成である。
その他の構成は、図15に示す画像処理装置B1,20−B1と同一である。
信頼度算出部70と、逆フィルタ補正部63の実行する処理は、先に図22、図23を参照して説明した画像処理装置A1+C,20−A1Cの実行する処理とほぼ同様の処理である。
ただし、先に図22、図23を参照して説明した画像処理装置A1+C,20−A1Cの信頼度算出部70は、画像ベースフィルタ(ブラー)と、カメラ動きベースフィルタ(ブラー)との比較処理を実行していたが、図27に示す画像処理装置B1+C,20−B1Cの信頼度算出部70は、統合フィルタ(ブラー)と、カメラ動きベースフィルタ(ブラー)との比較処理を実行する。
図27に示すように、信頼度算出部70は、ブラー推定部30bの生成する統合フィルタと、カメラ動きベースブラー推定部40の出力するカメラ動きブラーマップを入力して、これらのフィルタ(ブラー)の類似性を判定する。
すなわち、信頼度算出部70は、画像内の同一位置にある対応するブロック間で、統合フィルタ(ブラー)、と、カメラ動きベースフィルタ(ブラー)との比較処理を行う。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
信頼度算出部70のフィルタ(ブラー)比較部71は、算出した信頼度を、ブラー除去部60の逆フィルタ補正部63に出力する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
一方、信頼度算出部70から入力する信頼度が低い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱める。すなわち、逆フィルタ算出部61の算出した逆フィルタに設定された係数を調整して、逆フィルタの適用効果を小さくする。
このように、本実施例でも、推定されたフィルタ(ブラー)の信頼度に応じた逆フィルタ適用処理が実現されることになり、信頼度の高いブロックは逆フィルタの適用効果を高め、信頼度の低いブロックは逆フィルタの適用効果を低く抑えた処理が可能となり、信頼度に応じた効果的なブラー解消処理が可能となる。
次に、図28を参照して、構成B2+C、すなわち、
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理を行う装置において、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成について説明する。
図28に示す画像処理装置B2+C,20−B2Cは、先に図17を参照して説明した画像処理装置B2,20−B2の構成に、信頼度算出部70を追加し、さらに、ブラー除去部60内に逆フィルタ補正部63を追加した構成である。
その他の構成は、図17に示す画像処理装置B2,20−B2と同一である。
信頼度算出部70と、逆フィルタ補正部63の実行する処理は、上述の図27を参照して説明した画像処理装置B1+C,20−B1Cの実行する処理と同様の処理である。
すなわち、図28に示す画像処理装置B2+C,20−B2Cの信頼度算出部70は画像内の同一位置にある対応するブロック間で、統合フィルタ(ブラー)、と、カメラ動きベースフィルタ(ブラー)との比較処理を行う。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
図28に示す信頼度算出部70のフィルタ(ブラー)比較部71は、算出した信頼度を、ブラー除去部60の逆フィルタ補正部63に出力する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
一方、信頼度算出部70から入力する信頼度が低い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱める。すなわち、逆フィルタ算出部61の算出した逆フィルタに設定された係数を調整して、逆フィルタの適用効果を小さくする。
このように、本実施例でも、推定されたフィルタ(ブラー)の信頼度に応じた逆フィルタ適用処理が実現されることになり、信頼度の高いブロックは逆フィルタの適用効果を高め、信頼度の低いブロックは逆フィルタの適用効果を低く抑えた処理が可能となり、信頼度に応じた効果的なブラー解消処理が可能となる。
次に、図27〜図28を参照して説明した本実施例4、すなわち、構成(B1+C)、および構成(B2+C)の画像処理装置における処理シーケンスについて、図29以下に示すフローチャートを参照して説明する。
図29に示すフローチャートは、先に図27を参照して説明した構成B1+C、すなわち、
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理を行う装置において、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の実行する処理シーケンスを説明するフローチャートである。
この図29に示すフローチャートは、先に、図19を参照して説明した図15の「構成B1」対応の画像処理装置の実行する処理フローのステップS101〜S116の処理に、ステップS112bと、ステップS114bの処理を追加したフローチャートである。
追加処理であるステップS112bと、ステップS114b以外の処理は、図19を参照して説明したフローのステップS101〜S116の処理と同様である。
また、追加処理であるステップS112bと、ステップS114bの処理は、図25のフローチャートを参照して説明した構成A1+Cの画像処理装置の処理であるステップS112bと、ステップS114bの処理と同様の処理である。
ただし、図25のフローチャートを参照して説明した構成A1+Cの画像処理装置の処理であるステップS112bでは信頼度算出に際して比較対象となるデータは画像ベースフィルタ(ブラー)とカメラ動きベースフィルタ(ブラー)であったが、本構成B1+Cでは、ステップS112bでの信頼度算出に際して比較対象となるデータは統合フィルタ(ブラー)とカメラ動きベースフィルタ(ブラー)となる。
この点のみが異なる。
図29に示すフローのステップS112bでは、画像内の同一位置にある対応するブロック間で、統合フィルタ(ブラー)、と、カメラ動きベースフィルタ(ブラー)との比較処理を行う。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
信頼度算出部70のフィルタ(ブラー)比較部71は、算出した信頼度を、ブラー除去部60の逆フィルタ補正部63に出力する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
一方、信頼度算出部70から入力する信頼度が低い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱める。すなわち、逆フィルタ算出部61の算出した逆フィルタに設定された係数を調整して、逆フィルタの適用効果を小さくする。
このように、本実施例でも、推定されたフィルタ(ブラー)の信頼度に応じた逆フィルタ適用処理が実現されることになり、信頼度の高いブロックは逆フィルタの適用効果を高め、信頼度の低いブロックは逆フィルタの適用効果を低く抑えた処理が可能となり、信頼度に応じた効果的なブラー解消処理が可能となる。
次に、図30に示すフローチャートを参照して図28を参照して説明した構成B2+C、すなわち、
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理を行う装置において、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の実行する処理シーケンスについてを説明する。
この図30に示すフローチャートは、先に、図20を参照して説明した図17の「構成B2」対応の画像処理装置の実行する処理フローのステップS101〜S116の処理に、ステップS112bと、ステップS114bの処理を追加したフローチャートである。
追加処理であるステップS112bと、ステップS114b以外の処理は、図20を参照して説明したフローのステップS101〜S116の処理と同様である。
また、追加処理であるステップS112bと、ステップS114bの処理は、前述の図29の構成B1+Cの画像処理装置の処理であるステップS112bと、ステップS114bの処理と同様の処理である。
図30に示すフローのステップS112bでは、画像内の同一位置にある対応するブロック間で、統合フィルタ(ブラー)、と、カメラ動きベースフィルタ(ブラー)との比較処理を行う。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
信頼度算出部70のフィルタ(ブラー)比較部71は、算出した信頼度を、ブラー除去部60の逆フィルタ補正部63に出力する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
一方、信頼度算出部70から入力する信頼度が低い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱める。すなわち、逆フィルタ算出部61の算出した逆フィルタに設定された係数を調整して、逆フィルタの適用効果を小さくする。
このように、本実施例でも、推定されたフィルタ(ブラー)の信頼度に応じた逆フィルタ適用処理が実現されることになり、信頼度の高いブロックは逆フィルタの適用効果を高め、信頼度の低いブロックは逆フィルタの適用効果を低く抑えた処理が可能となり、信頼度に応じた効果的なブラー解消処理が可能となる。
[9.画像処理装置のハードウェア構成例について]
次に、図31を参照して画像処理装置のハードウェア構成例について説明する。
図31は、本開示の処理を実行する画像処理装置のハードウェア構成例を示す図である。
CPU(Central Processing Unit)81は、ROM(Read Only Memory)82、または記憶部88に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)83には、CPU81が実行するプログラムやデータなどが記憶される。これらのCPU81、ROM82、およびRAM83は、バス84により相互に接続されている。
CPU81はバス84を介して入出力インタフェース85に接続され、入出力インタフェース85には、可視光カメラや(遠)赤外カメラ等によって構成される撮像部95の撮影画像の入力を行うとともに、ユーザ入力可能な各種スイッチ、キーボード、マウス、マイクロフォンなどよりなる入力部86、表示部96やスピーカなどに対するデータ出力を実行する出力部87が接続されている。CPU81は、入力部86から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部87に出力する。
入出力インタフェース85に接続されている記憶部88は、例えばハードディスク等からなり、CPU81が実行するプログラムや各種のデータを記憶する。通信部89は、Wi−Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース85に接続されているドライブ90は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア91を駆動し、データの記録あるいは読み取りを実行する。
[10.車両に本開示の画像処理装置を備えた車両制御システムの構成例について]
次に、上述した本開示の画像処理装置を、車両に備え付けた車両制御システムの一構成例について説明する。
図32は、上述した処理を実行する画像処理装置を含む車両制御システム100の概略的な機能の構成例を示すブロック図である。
なお、上述した本開示の画像処理装置は、図32に示す車両制御システム100の検出部131、データ取得部102、出力制御部105、出力部106の構成の一部に対応する。
上述した本開示の画像処理装置が実行する処理は、主に図32に示す車両制御システム100の検出部131の車外情報検出部141によって実行される。
図32に示す車両制御システム100のデータ取得部102は、可視光カメラと(遠)赤外カメラ、さらにIMU等のセンサを含み、検出部131は、これらのカメラの撮影画像、車両の動き情報(=カメラの動き情報)を入力して上述した処理を実行する。
なお、処理結果は、例えば、図32に示す車両制御システム100の出力部106を構成する表示部に表示され、ユーザ(ドライバ)によって確認される。
以下、図32に示す車両制御システム100の構成について説明する。
なお、以下、車両制御システム100が設けられている車両を他の車両と区別する場合、自車又は自車両と称する。
車両制御システム100は、入力部101、データ取得部102、通信部103、車内機器104、出力制御部105、出力部106、駆動系制御部107、駆動系システム108、ボディ系制御部109、ボディ系システム110、記憶部111、及び、自動運転制御部112を備える。入力部101、データ取得部102、通信部103、出力制御部105、駆動系制御部107、ボディ系制御部109、記憶部111、及び、自動運転制御部112は、通信ネットワーク121を介して、相互に接続されている。通信ネットワーク121は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、又は、FlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークやバス等からなる。なお、車両制御システム100の各部は、通信ネットワーク121を介さずに、直接接続される場合もある。
なお、以下、車両制御システム100の各部が、通信ネットワーク121を介して通信を行う場合、通信ネットワーク121の記載を省略するものとする。例えば、入力部101と自動運転制御部112が、通信ネットワーク121を介して通信を行う場合、単に入力部101と自動運転制御部112が通信を行うと記載する。
入力部101は、搭乗者が各種のデータや指示等の入力に用いる装置を備える。例えば、入力部101は、タッチパネル、ボタン、マイクロフォン、スイッチ、及び、レバー等の操作デバイス、並びに、音声やジェスチャ等により手動操作以外の方法で入力可能な操作デバイス等を備える。また、例えば、入力部101は、赤外線若しくはその他の電波を利用したリモートコントロール装置、又は、車両制御システム100の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器であってもよい。入力部101は、搭乗者により入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム100の各部に供給する。
データ取得部102は、車両制御システム100の処理に用いるデータを取得する各種のセンサ等を備え、取得したデータを、車両制御システム100の各部に供給する。
例えば、データ取得部102は、自車の状態等を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ジャイロセンサ、加速度センサ、慣性計測装置(IMU)、及び、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数、モータ回転数、若しくは、車輪の回転速度等を検出するためのセンサ等を備える。
また、例えば、データ取得部102は、自車の外部の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、ToF(Time Of Flight)カメラ、可視光カメラ、ステレオカメラ、単眼カメラ、(遠)赤外線カメラ、及び、その他のカメラ等の撮像装置を備える。また、例えば、データ取得部102は、天候又は気象等を検出するための環境センサ、及び、自車の周囲の物体を検出するための周囲情報検出センサを備える。環境センサは、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ等からなる。周囲情報検出センサは、例えば、超音波センサ、レーダ、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、ソナー等からなる。
さらに、例えば、データ取得部102は、自車の現在位置を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、GNSS(Global Navigation Satellite System)衛星からのGNSS信号を受信するGNSS受信機等を備える。
また、例えば、データ取得部102は、車内の情報を検出するための各種のセンサを備える。具体的には、例えば、データ取得部102は、運転者を撮像する撮像装置、運転者の生体情報を検出する生体センサ、及び、車室内の音声を集音するマイクロフォン等を備える。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座っている搭乗者又はステアリングホイールを握っている運転者の生体情報を検出する。
通信部103は、車内機器104、並びに、車外の様々な機器、サーバ、基地局等と通信を行い、車両制御システム100の各部から供給されるデータを送信したり、受信したデータを車両制御システム100の各部に供給したりする。なお、通信部103がサポートする通信プロトコルは、特に限定されるものではなく、また、通信部103が、複数の種類の通信プロトコルをサポートすることも可能である
例えば、通信部103は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)、又は、WUSB(Wireless USB)等により、車内機器104と無線通信を行う。また、例えば、通信部103は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、又は、MHL(Mobile High−definition Link)等により、車内機器104と有線通信を行う。
さらに、例えば、通信部103は、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)との通信を行う。また、例えば、通信部103は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末(例えば、歩行者若しくは店舗の端末、又は、MTC(Machine Type Communication)端末)との通信を行う。さらに、例えば、通信部103は、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、自車と家との間(Vehicle to Home)の通信、及び、歩車間(Vehicle to Pedestrian)通信等のV2X通信を行う。また、例えば、通信部103は、ビーコン受信部を備え、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行規制又は所要時間等の情報を取得する。
車内機器104は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、自車に搬入され若しくは取り付けられる情報機器、及び、任意の目的地までの経路探索を行うナビゲーション装置等を含む。
出力制御部105は、自車の搭乗者又は車外に対する各種の情報の出力を制御する。例えば、出力制御部105は、視覚情報(例えば、画像データ)及び聴覚情報(例えば、音声データ)のうちの少なくとも1つを含む出力信号を生成し、出力部106に供給することにより、出力部106からの視覚情報及び聴覚情報の出力を制御する。具体的には、例えば、出力制御部105は、データ取得部102の異なる撮像装置により撮像された画像データを合成して、俯瞰画像又はパノラマ画像等を生成し、生成した画像を含む出力信号を出力部106に供給する。また、例えば、出力制御部105は、衝突、接触、危険地帯への進入等の危険に対する警告音又は警告メッセージ等を含む音声データを生成し、生成した音声データを含む出力信号を出力部106に供給する。
出力部106は、自車の搭乗者又は車外に対して、視覚情報又は聴覚情報を出力することが可能な装置を備える。例えば、出力部106は、表示装置、インストルメントパネル、オーディオスピーカ、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ、ランプ等を備える。出力部106が備える表示装置は、通常のディスプレイを有する装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)表示機能を有する装置等の運転者の視野内に視覚情報を表示する装置であってもよい。
駆動系制御部107は、各種の制御信号を生成し、駆動系システム108に供給することにより、駆動系システム108の制御を行う。また、駆動系制御部107は、必要に応じて、駆動系システム108以外の各部に制御信号を供給し、駆動系システム108の制御状態の通知等を行う。
駆動系システム108は、自車の駆動系に関わる各種の装置を備える。例えば、駆動系システム108は、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、舵角を調節するステアリング機構、制動力を発生させる制動装置、ABS(Antilock Brake System)、ESC(Electronic Stability Control)、並びに、電動パワーステアリング装置等を備える。
ボディ系制御部109は、各種の制御信号を生成し、ボディ系システム110に供給することにより、ボディ系システム110の制御を行う。また、ボディ系制御部109は、必要に応じて、ボディ系システム110以外の各部に制御信号を供給し、ボディ系システム110の制御状態の通知等を行う。
ボディ系システム110は、車体に装備されたボディ系の各種の装置を備える。例えば、ボディ系システム110は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、パワーシート、ステアリングホイール、空調装置、及び、各種ランプ(例えば、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカ、フォグランプ等)等を備える。
記憶部111は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイス等を備える。記憶部111は、車両制御システム100の各部が用いる各種プログラムやデータ等を記憶する。例えば、記憶部111は、ダイナミックマップ等の3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ、及び、自車の周囲の情報を含むローカルマップ等の地図データを記憶する。
自動運転制御部112は、自律走行又は運転支援等の自動運転に関する制御を行う。具体的には、例えば、自動運転制御部112は、自車の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、自車の衝突警告、又は、自車のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行う。また、例えば、自動運転制御部112は、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行う。自動運転制御部112は、検出部131、自己位置推定部132、状況分析部133、計画部134、及び、動作制御部135を備える。
検出部131は、自動運転の制御に必要な各種の情報の検出を行う。検出部131は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143を備える。
車外情報検出部141は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の外部の情報の検出処理を行う。例えば、車外情報検出部141は、自車の周囲の物体の検出処理、認識処理、及び、追跡処理、並びに、物体までの距離の検出処理を行う。検出対象となる物体には、例えば、車両、人、障害物、構造物、道路、信号機、交通標識、道路標示等が含まれる。また、例えば、車外情報検出部141は、自車の周囲の環境の検出処理を行う。検出対象となる周囲の環境には、例えば、天候、気温、湿度、明るさ、及び、路面の状態等が含まれる。車外情報検出部141は、検出処理の結果を示すデータを自己位置推定部132、状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153、並びに、動作制御部135の緊急事態回避部171等に供給する。
車内情報検出部142は、車両制御システム100の各部からのデータ又は信号に基づいて、車内の情報の検出処理を行う。例えば、車内情報検出部142は、運転者の認証処理及び認識処理、運転者の状態の検出処理、搭乗者の検出処理、及び、車内の環境の検出処理等を行う。検出対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線方向等が含まれる。検出対象となる車内の環境には、例えば、気温、湿度、明るさ、臭い等が含まれる。車内情報検出部142は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
車両状態検出部143は、車両制御システム100の各部からのデータ又は信号に基づいて、自車の状態の検出処理を行う。検出対象となる自車の状態には、例えば、速度、加速度、舵角、異常の有無及び内容、運転操作の状態、パワーシートの位置及び傾き、ドアロックの状態、並びに、その他の車載機器の状態等が含まれる。車両状態検出部143は、検出処理の結果を示すデータを状況分析部133の状況認識部153、及び、動作制御部135の緊急事態回避部171等に供給する。
自己位置推定部132は、車外情報検出部141、及び、状況分析部133の状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の位置及び姿勢等の推定処理を行う。また、自己位置推定部132は、必要に応じて、自己位置の推定に用いるローカルマップ(以下、自己位置推定用マップと称する)を生成する。自己位置推定用マップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いた高精度なマップとされる。自己位置推定部132は、推定処理の結果を示すデータを状況分析部133のマップ解析部151、交通ルール認識部152、及び、状況認識部153等に供給する。また、自己位置推定部132は、自己位置推定用マップを記憶部111に記憶させる。
状況分析部133は、自車及び周囲の状況の分析処理を行う。状況分析部133は、マップ解析部151、交通ルール認識部152、状況認識部153、及び、状況予測部154を備える。
マップ解析部151は、自己位置推定部132及び車外情報検出部141等の車両制御システム100の各部からのデータ又は信号を必要に応じて用いながら、記憶部111に記憶されている各種のマップの解析処理を行い、自動運転の処理に必要な情報を含むマップを構築する。マップ解析部151は、構築したマップを、交通ルール認識部152、状況認識部153、状況予測部154、並びに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
交通ルール認識部152は、自己位置推定部132、車外情報検出部141、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車の周囲の交通ルールの認識処理を行う。この認識処理により、例えば、自車の周囲の信号の位置及び状態、自車の周囲の交通規制の内容、並びに、走行可能な車線等が認識される。交通ルール認識部152は、認識処理の結果を示すデータを状況予測部154等に供給する。
状況認識部153は、自己位置推定部132、車外情報検出部141、車内情報検出部142、車両状態検出部143、及び、マップ解析部151等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の認識処理を行う。例えば、状況認識部153は、自車の状況、自車の周囲の状況、及び、自車の運転者の状況等の認識処理を行う。また、状況認識部153は、必要に応じて、自車の周囲の状況の認識に用いるローカルマップ(以下、状況認識用マップと称する)を生成する。状況認識用マップは、例えば、占有格子地図(Occupancy Grid Map)とされる。
認識対象となる自車の状況には、例えば、自車の位置、姿勢、動き(例えば、速度、加速度、移動方向等)、並びに、異常の有無及び内容等が含まれる。認識対象となる自車の周囲の状況には、例えば、周囲の静止物体の種類及び位置、周囲の動物体の種類、位置及び動き(例えば、速度、加速度、移動方向等)、周囲の道路の構成及び路面の状態、並びに、周囲の天候、気温、湿度、及び、明るさ等が含まれる。認識対象となる運転者の状態には、例えば、体調、覚醒度、集中度、疲労度、視線の動き、並びに、運転操作等が含まれる。
状況認識部153は、認識処理の結果を示すデータ(必要に応じて、状況認識用マップを含む)を自己位置推定部132及び状況予測部154等に供給する。また、状況認識部153は、状況認識用マップを記憶部111に記憶させる。
状況予測部154は、マップ解析部151、交通ルール認識部152及び状況認識部153等の車両制御システム100の各部からのデータ又は信号に基づいて、自車に関する状況の予測処理を行う。例えば、状況予測部154は、自車の状況、自車の周囲の状況、及び、運転者の状況等の予測処理を行う。
予測対象となる自車の状況には、例えば、自車の挙動、異常の発生、及び、走行可能距離等が含まれる。予測対象となる自車の周囲の状況には、例えば、自車の周囲の動物体の挙動、信号の状態の変化、及び、天候等の環境の変化等が含まれる。予測対象となる運転者の状況には、例えば、運転者の挙動及び体調等が含まれる。
状況予測部154は、予測処理の結果を示すデータを、交通ルール認識部152及び状況認識部153からのデータとともに、計画部134のルート計画部161、行動計画部162、及び、動作計画部163等に供給する。
ルート計画部161は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、目的地までのルートを計画する。例えば、ルート計画部161は、グローバルマップに基づいて、現在位置から指定された目的地までのルートを設定する。また、例えば、ルート計画部161は、渋滞、事故、通行規制、工事等の状況、及び、運転者の体調等に基づいて、適宜ルートを変更する。ルート計画部161は、計画したルートを示すデータを行動計画部162等に供給する。
行動計画部162は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、ルート計画部161により計画されたルートを計画された時間内で安全に走行するための自車の行動を計画する。例えば、行動計画部162は、発進、停止、進行方向(例えば、前進、後退、左折、右折、方向転換等)、走行車線、走行速度、及び、追い越し等の計画を行う。行動計画部162は、計画した自車の行動を示すデータを動作計画部163等に供給する
動作計画部163は、マップ解析部151及び状況予測部154等の車両制御システム100の各部からのデータ又は信号に基づいて、行動計画部162により計画された行動を実現するための自車の動作を計画する。例えば、動作計画部163は、加速、減速、及び、走行軌道等の計画を行う。動作計画部163は、計画した自車の動作を示すデータを、動作制御部135の加減速制御部172及び方向制御部173等に供給する。
動作制御部135は、自車の動作の制御を行う。動作制御部135は、緊急事態回避部171、加減速制御部172、及び、方向制御部173を備える。
緊急事態回避部171は、車外情報検出部141、車内情報検出部142、及び、車両状態検出部143の検出結果に基づいて、衝突、接触、危険地帯への進入、運転者の異常、車両の異常等の緊急事態の検出処理を行う。緊急事態回避部171は、緊急事態の発生を検出した場合、急停車や急旋回等の緊急事態を回避するための自車の動作を計画する。緊急事態回避部171は、計画した自車の動作を示すデータを加減速制御部172及び方向制御部173等に供給する。
加減速制御部172は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための加減速制御を行う。例えば、加減速制御部172は、計画された加速、減速、又は、急停車を実現するための駆動力発生装置又は制動装置の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
方向制御部173は、動作計画部163又は緊急事態回避部171により計画された自車の動作を実現するための方向制御を行う。例えば、方向制御部173は、動作計画部163又は緊急事態回避部171により計画された走行軌道又は急旋回を実現するためのステアリング機構の制御目標値を演算し、演算した制御目標値を示す制御指令を駆動系制御部107に供給する。
[11.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) 同一被写体を同時に撮影した可視光画像と遠赤外画像を入力する画像入力部と、
前記可視光画像を撮影したカメラの動き情報を入力するカメラ動き情報入力部と、
前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するカメラ動きベースブラー推定部と、
前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定部と、
前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去部を有する画像処理装置。
(2) 前記カメラ動きベースブラー推定部は、
前記可視光画像の画像ブロック領域単位で、前記カメラ動きベースブラーを推定し、
前記ブラー推定部は、
前記可視光画像の画像ブロック領域単位で、前記統合フィルタを推定し、
前記ブラー除去部は、
前記可視光画像の画像ブロック領域単位で、前記逆特性フィルタを適用する(1)に記載の画像処理装置。
(3) 前記ブラー推定部は、
異なる多数の点広がり関数対応のフィルタを保持するフィルタバンクから、異なるフィルタを順次、取得して前記遠赤外画像に適用するフィルタ処理部と、
前記フィルタ処理部の生成したフィルタ適用遠赤外画像と、前記可視光画像との相関を、画像の分割領域であるブロック単位で算出する相関演算部を有する(1)または(2)1に記載の画像処理装置。
(4) 前記ブラー推定部は、
前記遠赤外画像にフィルタを適用したフィルタ適用遠赤外画像と、前記可視光画像との相関を算出し、相関の最も高くなるフィルタを画像ベースフィルタとして決定する画像ベースブラー推定部と、
カメラ動きベースブラー相当のブラーを発生させるフィルタであるカメラ動きベースフィルタと、前記画像ベースフィルタのいずれかを選択、あるいは加重平均することで、前記統合フィルタを算出する統合ブラー推定部を有する構成である(1)〜(3)いずれかに記載の画像処理装置。
(5) 前記統合フィルタ推定部は、
環境情報を利用した動き量判定アルゴリズムに従った画像ブロック領域単位の動き量判定処理によって、被写体動き量が多いと判定された画像ブロック領域については、前記画像ベースフィルタを前記統合フィルタとし、
被写体動き量が少ないと判定された画像ブロック領域については、前記カメラ動きベースフィルタを前記統合フィルタとする処理を実行する(4)に記載の画像処理装置。
(6) 前記環境情報は、地図情報、時間情報、交通情報、画像ブロック領域情報の少なくともいずれかの情報を含む(5)に記載の画像処理装置。
(7) 前記統合フィルタ推定部は、
環境情報を利用した重み係数決定アルゴリズムに従って決定される重み係数を利用して、前記画像ベースフィルタと、前記カメラ動きベースフィルタとの加重平均処理を実行して、前記統合フィルタを算出する(4)に記載の画像処理装置。
(8) 前記環境情報は、地図情報、時間情報、交通情報、画像ブロック領域情報の少なくともいずれかの情報を含む(7)に記載の画像処理装置。
(9) 前記画像処理装置は、さらに、
フィルタ特性の類似する複数のフィルタを格納したフィルタバンクを複数格納したフィルタバンクプールを有し、
前記ブラー推定部は、
前記カメラ動きベースブラー相当のブラーを発生させるフィルタに類似するフィルタ特性を有するフィルタを格納したフィルタバンクを、前記フィルタバンクプールから選択するフィルタバンク選択部と、
前記フィルタバンク選択部の選択したフィルタバンクに格納されたフィルタを、前記遠赤外画像に適用したフィルタ適用遠赤外画像と、前記可視光画像との相関を算出する相関算出部と、
相関の最も高くなるフィルタを統合フィルタとして決定する統合フィルタ決定部を有する(1)〜(3)いずれかに記載の画像処理装置。
(10) 前記ブラー推定部は、
前記遠赤外画像にフィルタを適用したフィルタ適用遠赤外画像と、前記可視光画像との相関値を算出する相関算出部と、
前記遠赤外画像に適用したフィルタと、前記カメラ動きベースブラーとの比較処理を実行するフィルタ比較部と、
前記フィルタ比較部における比較結果に応じて、前記相関算出部の算出した相関値を補正する相関補正部と、
前記相関補正部の補正した補正相関値の最も高くなるフィルタを統合フィルタとして決定する統合フィルタ決定部を有する(1)〜(3)いずれかに記載の画像処理装置。
(11) 前記相関補正部は、
前記遠赤外画像に適用したフィルタと、前記カメラ動きベースブラーとが類似度が低いほど、前記相関算出部の算出した相関値を低下させる相関値補正を行う(10)に記載の画像処理装置。
(12) 前記画像処理装置は、
前記ブラー推定部における推定結果の信頼度を算出する信頼度算出部を有し、
前記ブラー除去部は、
前記信頼度算出部の算出した信頼度が低い場合は、前記可視光画像に対する逆フィルタの適用強度を弱める処理を行う(1)〜(11)いずれかに記載の画像処理装置。
(13) 前記信頼度算出部は、
前記ブラー推定部において推定された前記画像ベースブラー相当のブラーを発生させる画像ベースブラーフィルタ、または前記統合フィルタの信頼度を算出する(12)に記載の画像処理装置。
(14) 前記信頼度算出部は、
前記カメラ動きベースブラーと、
前記画像ベースブラーフィルタ、または前記統合フィルタを比較して、類似度が高いほど高い信頼度を算出する(13)に記載の画像処理装置。
(15) 前記ブラー除去部は、
前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを算出する逆フィルタ算出部と、
前記信頼度算出部の算出した信頼度を入力して、前記信頼度が低い場合は、前記逆フィルタの適用強度を弱めた補正逆フィルタを生成する逆フィルタ補正部と、
前記逆フィルタ補正部の生成した補正逆フィルタを、前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する(12)〜(14)いずれかに記載の画像処理装置。
(16) 画像処理装置において実行する画像処理方法であり、
画像入力部が、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力するステップと、
カメラ動き情報入力部が、前記可視光画像を撮影したカメラの動き情報を入力するステップと、
カメラ動きベースブラー推定部が、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するステップと、
ブラー推定部が、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定ステップと、
ブラー除去部が、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去ステップを実行する画像処理方法。
(17) 画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力させるステップと、
カメラ動き情報入力部に、前記可視光画像を撮影したカメラの動き情報を入力させるステップと、
カメラ動きベースブラー推定部に、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定させるステップと、
ブラー推定部に、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定させるブラー推定ステップと、
ブラー除去部に、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成させるブラー除去ステップを実行させるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、可視光画像のブラー(ぼけ)を除去または低減した高画質化処理を実行する装置、方法が実現される。
具体的には、同一被写体を同時に撮影した可視光画像と遠赤外画像、さらに、カメラの動き情報を入力し、カメラの動きに起因する可視光画像のブラー(ぼけ)であるカメラ動きベースブラーを推定し、可視光画像と遠赤外画像、およびカメラ動きベースブラーを利用して、可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定し、推定した統合フィルタと逆特性を持つ逆特性フィルタを可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する。
これらの処理により、可視光画像のブラー(ぼけ)を除去または低減した高画質化処理を実行する装置、方法が実現される。
11・・ブラーあり可視光画像、12・・ブラーなし遠赤外画像、13・・カメラ動き情報、15・・ブラー低減可視光画像、21・・可視光画像入力部、22・・遠赤外画像入力部、23・・カメラ動き情報入力部、25・・補正前可視光画像、26・・遠赤外画像、27・・補正後可視光画像、30・・画像ベースブラー推定部、30b・・ブラー推定部、31・・フィルタ処理部、32・・相関演算部、33・・画像ベースフィルタ決定部、34・・フィルタバンク選択部、35・・フィルタバンク、37・・統合フィルタ決定部、38・・フィルタ(ブラー)比較部、39・・相関補正部、40・・カメラ動きベースブラー推定部、41・・カメラ動きブラーマップ取得部、45・・カメラ動きブラーマップ記憶部、50・・統合ブラー推定部、51・・被写体動き判定部、52・・統合フィルタ決定部、55・・環境情報記憶部/入力部、60・・ブラー除去部、61・・逆フィルタ算出部、62・・逆フィルタ処理部、63・・逆フィルタ補正部、70・・信頼度算出部、71・・フィルタ(ブラー)比較部、81・・CPU、82・・ROM、83・・RAM、84・・バス、85・・入出力インタフェース、86・・入力部、87・・出力部、88・・記憶部、89・・通信部、90・・ドライブ、91・・リムーバブルメディア、95・・撮像部(カメラ)、96・・表示部、100・・車両走行制御装置、101・・入力部、102・・データ取得部、103・・通信部、104・・車内機器、105・・出力制御部、106・・出力部、107・・駆動系制御部、108・・駆動系システム、109・・ボディ系制御部、110・・ボディ系システム、111・・記憶部、112・・自動運転制御部、131・・検出部、132・・自己位置推定部、133・・状況分析部、134・・計画部、135・・動作制御部、141・・車外情報検出部、142・・車内情報検出部、143・・車両状態検出部、151・・マップ解析部、152・・交通ルール認識部、153・・状況認識部、154・・状況予測部、161・・ルート計画部、162・・行動計画部、163・・動作計画部、171・・緊急事態回避部、172・・加減速制御部、173・・方向制御部、201・・表示部、

Claims (17)

  1. 同一被写体を同時に撮影した可視光画像と遠赤外画像を入力する画像入力部と、
    前記可視光画像を撮影したカメラの動き情報を入力するカメラ動き情報入力部と、
    前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するカメラ動きベースブラー推定部と、
    前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定部と、
    前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去部を有する画像処理装置。
  2. 前記カメラ動きベースブラー推定部は、
    前記可視光画像の画像ブロック領域単位で、前記カメラ動きベースブラーを推定し、
    前記ブラー推定部は、
    前記可視光画像の画像ブロック領域単位で、前記統合フィルタを推定し、
    前記ブラー除去部は、
    前記可視光画像の画像ブロック領域単位で、前記逆特性フィルタを適用する請求項1に記載の画像処理装置。
  3. 前記ブラー推定部は、
    異なる多数の点広がり関数対応のフィルタを保持するフィルタバンクから、異なるフィルタを順次、取得して前記遠赤外画像に適用するフィルタ処理部と、
    前記フィルタ処理部の生成したフィルタ適用遠赤外画像と、前記可視光画像との相関を、画像の分割領域であるブロック単位で算出する相関演算部を有する請求項1に記載の画像処理装置。
  4. 前記ブラー推定部は、
    前記遠赤外画像にフィルタを適用したフィルタ適用遠赤外画像と、前記可視光画像との相関を算出し、相関の最も高くなるフィルタを画像ベースフィルタとして決定する画像ベースブラー推定部と、
    カメラ動きベースブラー相当のブラーを発生させるフィルタであるカメラ動きベースフィルタと、前記画像ベースフィルタのいずれかを選択、あるいは加重平均することで、前記統合フィルタを算出する統合ブラー推定部を有する構成である請求項1に記載の画像処理装置。
  5. 前記統合フィルタ推定部は、
    環境情報を利用した動き量判定アルゴリズムに従った画像ブロック領域単位の動き量判定処理によって、被写体動き量が多いと判定された画像ブロック領域については、前記画像ベースフィルタを前記統合フィルタとし、
    被写体動き量が少ないと判定された画像ブロック領域については、前記カメラ動きベースフィルタを前記統合フィルタとする処理を実行する請求項4に記載の画像処理装置。
  6. 前記環境情報は、地図情報、時間情報、交通情報、画像ブロック領域情報の少なくともいずれかの情報を含む請求項5に記載の画像処理装置。
  7. 前記統合フィルタ推定部は、
    環境情報を利用した重み係数決定アルゴリズムに従って決定される重み係数を利用して、前記画像ベースフィルタと、前記カメラ動きベースフィルタとの加重平均処理を実行して、前記統合フィルタを算出する請求項4に記載の画像処理装置。
  8. 前記環境情報は、地図情報、時間情報、交通情報、画像ブロック領域情報の少なくともいずれかの情報を含む請求項7に記載の画像処理装置。
  9. 前記画像処理装置は、さらに、
    フィルタ特性の類似する複数のフィルタを格納したフィルタバンクを複数格納したフィルタバンクプールを有し、
    前記ブラー推定部は、
    前記カメラ動きベースブラー相当のブラーを発生させるフィルタに類似するフィルタ特性を有するフィルタを格納したフィルタバンクを、前記フィルタバンクプールから選択するフィルタバンク選択部と、
    前記フィルタバンク選択部の選択したフィルタバンクに格納されたフィルタを、前記遠赤外画像に適用したフィルタ適用遠赤外画像と、前記可視光画像との相関を算出する相関算出部と、
    相関の最も高くなるフィルタを統合フィルタとして決定する統合フィルタ決定部を有する請求項1に記載の画像処理装置。
  10. 前記ブラー推定部は、
    前記遠赤外画像にフィルタを適用したフィルタ適用遠赤外画像と、前記可視光画像との相関値を算出する相関算出部と、
    前記遠赤外画像に適用したフィルタと、前記カメラ動きベースブラーとの比較処理を実行するフィルタ比較部と、
    前記フィルタ比較部における比較結果に応じて、前記相関算出部の算出した相関値を補正する相関補正部と、
    前記相関補正部の補正した補正相関値の最も高くなるフィルタを統合フィルタとして決定する統合フィルタ決定部を有する請求項1に記載の画像処理装置。
  11. 前記相関補正部は、
    前記遠赤外画像に適用したフィルタと、前記カメラ動きベースブラーとが類似度が低いほど、前記相関算出部の算出した相関値を低下させる相関値補正を行う請求項10に記載の画像処理装置。
  12. 前記画像処理装置は、
    前記ブラー推定部における推定結果の信頼度を算出する信頼度算出部を有し、
    前記ブラー除去部は、
    前記信頼度算出部の算出した信頼度が低い場合は、前記可視光画像に対する逆フィルタの適用強度を弱める処理を行う請求項1に記載の画像処理装置。
  13. 前記信頼度算出部は、
    前記ブラー推定部において推定された前記画像ベースブラー相当のブラーを発生させる画像ベースブラーフィルタ、または前記統合フィルタの信頼度を算出する請求項12に記載の画像処理装置。
  14. 前記信頼度算出部は、
    前記カメラ動きベースブラーと、
    前記画像ベースブラーフィルタ、または前記統合フィルタを比較して、類似度が高いほど高い信頼度を算出する請求項13に記載の画像処理装置。
  15. 前記ブラー除去部は、
    前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを算出する逆フィルタ算出部と、
    前記信頼度算出部の算出した信頼度を入力して、前記信頼度が低い場合は、前記逆フィルタの適用強度を弱めた補正逆フィルタを生成する逆フィルタ補正部と、
    前記逆フィルタ補正部の生成した補正逆フィルタを、前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する請求項12に記載の画像処理装置。
  16. 画像処理装置において実行する画像処理方法であり、
    画像入力部が、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力するステップと、
    カメラ動き情報入力部が、前記可視光画像を撮影したカメラの動き情報を入力するステップと、
    カメラ動きベースブラー推定部が、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するステップと、
    ブラー推定部が、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定ステップと、
    ブラー除去部が、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去ステップを実行する画像処理方法。
  17. 画像処理装置において画像処理を実行させるプログラムであり、
    画像入力部に、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力させるステップと、
    カメラ動き情報入力部に、前記可視光画像を撮影したカメラの動き情報を入力させるステップと、
    カメラ動きベースブラー推定部に、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定させるステップと、
    ブラー推定部に、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定させるブラー推定ステップと、
    ブラー除去部に、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成させるブラー除去ステップを実行させるプログラム。
JP2017170035A 2017-09-05 2017-09-05 画像処理装置、および画像処理方法、並びにプログラム Active JP7027737B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2017170035A JP7027737B2 (ja) 2017-09-05 2017-09-05 画像処理装置、および画像処理方法、並びにプログラム
EP18770098.4A EP3679545A1 (en) 2017-09-05 2018-08-30 Image processing device, image processing method, and program
PCT/JP2018/032077 WO2019049763A1 (en) 2017-09-05 2018-08-30 IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM
US16/642,392 US11288777B2 (en) 2017-09-05 2018-08-30 Image processing device, image processing method, and program
KR1020207005593A KR20200050959A (ko) 2017-09-05 2018-08-30 화상 처리 디바이스, 화상 처리 방법, 및 프로그램
CN201880055672.9A CN111052174A (zh) 2017-09-05 2018-08-30 图像处理设备、图像处理方法和程序
US17/679,026 US20220180483A1 (en) 2017-09-05 2022-02-23 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017170035A JP7027737B2 (ja) 2017-09-05 2017-09-05 画像処理装置、および画像処理方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2019046277A true JP2019046277A (ja) 2019-03-22
JP7027737B2 JP7027737B2 (ja) 2022-03-02

Family

ID=63592773

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017170035A Active JP7027737B2 (ja) 2017-09-05 2017-09-05 画像処理装置、および画像処理方法、並びにプログラム

Country Status (6)

Country Link
US (2) US11288777B2 (ja)
EP (1) EP3679545A1 (ja)
JP (1) JP7027737B2 (ja)
KR (1) KR20200050959A (ja)
CN (1) CN111052174A (ja)
WO (1) WO2019049763A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018200980A (ja) 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 撮像装置および固体撮像素子、並びに電子機器
JP6939283B2 (ja) 2017-09-05 2021-09-22 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
US11039122B2 (en) * 2018-09-04 2021-06-15 Google Llc Dark flash photography with a stereo camera
US11954866B2 (en) 2019-08-20 2024-04-09 Sony Interactive Entertainment Inc. Image processing apparatus using movement estimation, imaging apparatus, system, image processing method, and program
US11645747B2 (en) * 2020-02-25 2023-05-09 GE Precision Healthcare LLC Methods and systems for digital mammography imaging
WO2022019513A1 (ko) * 2020-07-24 2022-01-27 삼성전자 주식회사 오토포커스를 보상하는 방법 및 오토포커스를 보상하는 전자 장치
US11798139B2 (en) * 2020-11-17 2023-10-24 GM Global Technology Operations LLC Noise-adaptive non-blind image deblurring
JP2022142932A (ja) * 2021-03-17 2022-10-03 ラピステクノロジー株式会社 ヘッドアップディスプレイ、映像補正方法及び映像補正プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209735A (ja) * 2002-01-15 2003-07-25 Hitachi Ltd 監視装置及びブレ補正機能付蓄積型カメラ
CN103544681A (zh) * 2013-08-27 2014-01-29 清华大学 非均一运动模糊图像的恢复方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3659914B2 (ja) 2000-10-31 2005-06-15 松下電器産業株式会社 物体認識装置、物体を認識する方法、プログラムおよび記録媒体
JP4799428B2 (ja) 2007-01-22 2011-10-26 株式会社東芝 画像処理装置及び方法
JP2009111596A (ja) 2007-10-29 2009-05-21 Sanyo Electric Co Ltd 撮像装置
KR101574733B1 (ko) 2008-11-19 2015-12-04 삼성전자 주식회사 고화질 컬러 영상을 획득하기 위한 영상 처리 장치 및 방법
US9235876B2 (en) * 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US8229244B2 (en) 2009-03-30 2012-07-24 Mitsubishi Electric Research Laboratories, Inc. Multi-image deblurring
US8803984B2 (en) 2010-02-10 2014-08-12 Dolby International Ab Image processing device and method for producing a restored image using a candidate point spread function
JP2012003233A (ja) * 2010-05-17 2012-01-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
CN102254309B (zh) * 2011-07-27 2016-03-23 清华大学 一种基于近红外图像的运动模糊图像去模糊方法和装置
KR101705605B1 (ko) * 2011-11-14 2017-02-23 삼성전자주식회사 코드화된 조명을 이용하는 촬상 장치 및 이미지 처리 장치와 그 방법
JP2013175003A (ja) 2012-02-24 2013-09-05 Osaka Prefecture Univ Psf推定方法とそれを用いた劣化画像の復元方法およびこれらを記録したプログラムとそれを実行するコンピュータ装置
US8867856B2 (en) * 2012-11-12 2014-10-21 Adobe Systems Incorporated De-noising image content using directional filters for image de-blurring
CN103049906B (zh) * 2012-12-07 2015-09-30 清华大学深圳研究生院 一种图像深度提取方法
JP5991224B2 (ja) 2013-02-15 2016-09-14 オムロン株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JPWO2016194177A1 (ja) 2015-06-03 2018-06-14 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理方法
JP6939283B2 (ja) 2017-09-05 2021-09-22 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209735A (ja) * 2002-01-15 2003-07-25 Hitachi Ltd 監視装置及びブレ補正機能付蓄積型カメラ
CN103544681A (zh) * 2013-08-27 2014-01-29 清华大学 非均一运动模糊图像的恢复方法

Also Published As

Publication number Publication date
KR20200050959A (ko) 2020-05-12
US11288777B2 (en) 2022-03-29
US20200193570A1 (en) 2020-06-18
EP3679545A1 (en) 2020-07-15
JP7027737B2 (ja) 2022-03-02
US20220180483A1 (en) 2022-06-09
WO2019049763A1 (en) 2019-03-14
CN111052174A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
JP7027737B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP6939283B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
KR102613792B1 (ko) 촬상 장치, 화상 처리 장치 및 화상 처리 방법
WO2019116784A1 (ja) 情報処理装置、移動体、制御システム、情報処理方法及びプログラム
US11978261B2 (en) Information processing apparatus and information processing method
JPWO2019082669A1 (ja) 情報処理装置、情報処理方法、プログラム、及び、移動体
WO2019044571A1 (ja) 画像処理装置、および画像処理方法、プログラム、並びに移動体
CN112534487A (zh) 信息处理设备、移动体、信息处理方法和程序
JP2019045364A (ja) 情報処理装置、自己位置推定方法、及び、プログラム
CN111886854A (zh) 曝光控制装置、曝光控制方法、程序、成像装置和移动体
US20220319013A1 (en) Image processing device, image processing method, and program
WO2022153896A1 (ja) 撮像装置、画像処理方法及び画像処理プログラム
WO2020036044A1 (ja) 画像処理装置と画像処理方法およびプログラム
WO2020090320A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7371679B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7483627B2 (ja) 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
KR20200119790A (ko) 인식 장치와 인식 방법 그리고 프로그램
KR20220031561A (ko) 이상 검출 장치와 이상 검출 방법 및 프로그램과 정보 처리 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220131

R151 Written notification of patent or utility model registration

Ref document number: 7027737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151