JP2019046277A - 画像処理装置、および画像処理方法、並びにプログラム - Google Patents
画像処理装置、および画像処理方法、並びにプログラム Download PDFInfo
- Publication number
- JP2019046277A JP2019046277A JP2017170035A JP2017170035A JP2019046277A JP 2019046277 A JP2019046277 A JP 2019046277A JP 2017170035 A JP2017170035 A JP 2017170035A JP 2017170035 A JP2017170035 A JP 2017170035A JP 2019046277 A JP2019046277 A JP 2019046277A
- Authority
- JP
- Japan
- Prior art keywords
- blur
- filter
- image
- unit
- visible light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 532
- 238000003672 processing method Methods 0.000 title claims description 12
- 230000033001 locomotion Effects 0.000 claims abstract description 482
- 238000000034 method Methods 0.000 claims abstract description 264
- 230000008569 process Effects 0.000 claims description 254
- 238000004364 calculation method Methods 0.000 claims description 167
- 238000012937 correction Methods 0.000 claims description 118
- 230000006870 function Effects 0.000 claims description 20
- 230000007613 environmental effect Effects 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 6
- 230000007423 decrease Effects 0.000 claims description 2
- 230000003313 weakening effect Effects 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 abstract description 8
- 230000006872 improvement Effects 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 description 50
- 238000004891 communication Methods 0.000 description 38
- 230000000694 effects Effects 0.000 description 23
- 238000004458 analytical method Methods 0.000 description 21
- 230000001133 acceleration Effects 0.000 description 15
- 239000013598 vector Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000010391 action planning Effects 0.000 description 7
- 238000003379 elimination reaction Methods 0.000 description 7
- 230000005856 abnormality Effects 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000003331 infrared imaging Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 229920013655 poly(bisphenol-A sulfone) Polymers 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 230000036626 alertness Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
特許文献1は、可視光カメラによって連続的に撮影された複数の画像を利用して画像の動きを解析し、この動き解析結果に基づいてぼけ補正を行う技術を開示している。
同一被写体を同時に撮影した可視光画像と遠赤外画像を入力する画像入力部と、
前記可視光画像を撮影したカメラの動き情報を入力するカメラ動き情報入力部と、
前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するカメラ動きベースブラー推定部と、
前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定部と、
前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去部を有する画像処理装置にある。
画像処理装置において実行する画像処理方法であり、
画像入力部が、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力するステップと、
カメラ動き情報入力部が、前記可視光画像を撮影したカメラの動き情報を入力するステップと、
カメラ動きベースブラー推定部が、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するステップと、
ブラー推定部が、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定ステップと、
ブラー除去部が、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去ステップを実行する画像処理方法にある。
画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力させるステップと、
カメラ動き情報入力部に、前記可視光画像を撮影したカメラの動き情報を入力させるステップと、
カメラ動きベースブラー推定部に、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定させるステップと、
ブラー推定部に、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定させるブラー推定ステップと、
ブラー除去部に、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成させるブラー除去ステップを実行させるプログラムにある。
具体的には、同一被写体を同時に撮影した可視光画像と遠赤外画像、さらに、カメラの動き情報を入力し、カメラの動きに起因する可視光画像のブラー(ぼけ)であるカメラ動きベースブラーを推定し、可視光画像と遠赤外画像、およびカメラ動きベースブラーを利用して、可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定し、推定した統合フィルタと逆特性を持つ逆特性フィルタを可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する。
これらの処理により、可視光画像のブラー(ぼけ)を除去または低減した高画質化処理を実行する装置、方法が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
1.本開示の画像処理装置の構成と処理の概要について
2.カメラの動きに起因して発生するブラーの具体例について
3.車に対するカメラ装着例について
4.本開示の画像処理装置の構成と処理の概要について
5.(実施例1)構成A対応の画像処理装置の構成と処理について
6.(実施例2)構成B対応の画像処理装置の構成と処理について
7.(実施例3)構成A+C対応の画像処理装置の構成と処理について
8.(実施例4)構成B+C対応の画像処理装置の構成と処理について
9.画像処理装置のハードウェア構成例について
10.車両に本開示の画像処理装置を備えた車両制御システムの構成例について
11.本開示の構成のまとめ
まず、図1以下を参照して本開示の画像処理装置の構成と処理の概要について説明する。
図1は、本開示の画像処理装置の実行する処理の概要を説明する図である。
本開示の画像処理装置は、同一被写体を撮影した可視光画像と赤外線画像を入力し、さらに、これらの画像を撮影したカメラのカメラ動き情報を入力して可視光画像のブラー(ぼけ)を低減させる処理を実行する。
本開示の画像処理装置は、例えば、このような環境下で撮影された可視光画像のブラーを低減させるため、同じ被写体を同時に撮影した遠赤外画像を利用する。
赤外線の中でも波長の長い遠赤外線は、熱に対してより高感度であり、露光時間の短い撮影でも人等の熱を発生する被写体を比較的、明瞭に撮影することができる。
しかし、遠赤外画像は、暗闇で露光時間を短く設定して撮影しても熱を発生させる被写体、例えば人等を明瞭に撮影できる。
本開示の画像処理装置は、これら可視光画像と、遠赤外画像の特性の違いを利用して、ブラーの大きな可視光画像の補正を行う。すなわち、ブラーの少ない赤外画像を参照画像として用いて補正(ブラー除去)処理を行って、ブラーを解消または低減した可視光画像を生成する。
図1に示すように、本開示の画像処理装置は、同一被写体を同時に撮影したブラーあり可視光画像11と、ブラーなし遠赤外画像12を入力する。
さらに、これらの画像を撮影したカメラ動き情報13を入力する。
具体的には、例えば、画像のぼけ量を示す関数である点広がり関数(PSF:Point Spread Function)の推定を行う。
PSFは、ある画素位置の画素値の周囲に対するひろがり具合、すなわちぼけ量やぼけ態様を示す関数である。
この比較処理(相関算出)に基づいて、ブラーあり可視光画像11のブラー(ぼけ)と同様のブラー(ぼけ)を発生させる点広がり関数(PSF)対応のフィルタを選択する。
しかし、撮影画像として、ブラー(ぼけ)のない可視光画像は取得できていないため、その代替画像として、ブラーなし遠赤外画像12を利用するものである。
すなわち、ブラーなし遠赤外画像12に適用することで、ブラーあり可視光画像11に存在するブラー(ぼけ)と同様のブラー(ぼけ)が発生するフィルタを選択、または点広がり関数(PSF)を算出する。
ブラー除去処理は、上記の点広がり関数:PSF=p(x,y)で示される特性を持つフィルタと逆の特性を持つ逆フィルタを生成して、生成した逆フィルタをブラーあり可視光画像11に適用する処理である。
この逆フィルタの適用処理により、ブラーあり可視光画像11から、ブラー(ぼけ)が除去され、ブラー低減可視光画像15が生成される。
ブラーあり可視光画像11の点広がり関数(PSF)=p(x,y)とし、
ブラーあり可視光画像11をb(x,y)、ブラーのない真の可視光画像をs(x,y)としたとき、それぞれのフーリエ変換を、P(u,v),B(u,v),S(u,v)とすると、以下の関係式が成立する。
b(x,y)=p(x,y)*s(x,y)
B(u,v)=P(u,v)・S(U,v)
なお、*はコンボリューション演算である。
B(u,v)=FT[b(x,y)]
P(u,v)=FT[p(x,y)]
S(u,v)=FT[s(x,y)]
上記関係式が成立する。
デコンボリューションフィルタは、PSF=p(x,y)で示される特性を持つフィルタと逆の特性を持つ逆フィルタである。
図2に示すように、可視光画像は、波長が約0.4μm〜0.7μmの範囲の画像であり、一般的なカメラで撮影されるRGB画像等のカラー画像である。
一方赤外線画像は、波長が.0.7μm以上の長波長光からなる画像である。赤外線画像を撮影する赤外画像撮影カメラは、例えば暗闇等において熱を発生する人物等を撮影することが可能であり、監視カメラ等に利用される。
なお、赤外線は、図2に示すように、
波長が約0.7〜1μmの近赤外線、
波長が約3〜5μmの中赤外線、
波長が約8〜14μmの遠赤外線、
このように区分される。
ただし、本開示の処理は、遠赤外画像に限らず、その他の赤外画像を利用した処理にも適用可能である。
具体的な撮影画像の例を図3に示す。
これら2つの画像は、暗い環境での撮影画像であり、可視光画像は長時間露光を行っている。
(1)可視光画像、(2)遠赤外画像を比較すると、(1)可視光画像のブラー(ぼけ)が大きく、人の姿がほとんど認識できないが、(2)遠赤外画像には、人の姿が明瞭に示されている。
これは、遠赤外画像は、露光時間が短く、ほとんどブラー(ぼけ)が発生しないためである。
次に、図4以下を参照して画像を撮影するカメラの動きに起因して発生するブラーの具体例について説明する。
図4は、様々なカメラの動きの種類に応じたブラー態様を説明する図であり、以下の4種類のカメラ動きに対応して撮影画像に発生するブラーの方向と、大きさをベクトルで示している。
(1)カメラが前方に直進
(2)カメラが後方に直進
(3)カメラが右方向に回転
(4)カメラが上方向に回転
また、「(2)カメラが後方に直進」する場合、図4(2)に示すように撮影画像の周囲から中心部に向かう方向に画像が流れるようにブラーが発生する。ブラーの大きさは、画像中心では小さく、画像周囲に行くほど大きくなる。
また、「(4)カメラが上方向に回転」する場合、図に示すように撮影画像の上から下に向かう方向に画像が流れるようにブラーが発生する。ブラーの大きさは、画像中においてほぼ均一となる。
このように、撮影画像にはカメラの動きに応じたブラー(ぼけ)が発生する。
カメラによる撮影画像に動く被写体がある場合は、被写体の動きに応じてブラーの方向と大きさを示すベクトルは変化することになる。
図5には以下の2つの画像例を示している。
(1)カメラが前方に直進中、左前方の被写体が、カメラより高速で前方に移動、
(2)カメラが後方に直進中、左前方の被写体が、カメラより高速で後方に移動、
カメラが前方に直進し、動く被写体が無い場合のブラーの方向と大きさは、先に図4(1)を参照して説明した設定であるが、この中に動く被写体がある場合は、図5(1)に示す設定となる。
このベクトルは、その他の領域のベクトルの逆方向を向いている。
カメラが後方に直進し、動く被写体が無い場合のブラーの方向と大きさは、先に図4(2)を参照して説明した設定であるが、この中に動く被写体がある場合は、図5(2)に示す設定となる。
このベクトルは、その他の領域のベクトルの逆方向を向いている。
従って、ブラーの解消、または低減を高精度に行うためには、カメラの動きや被写体の動きを考慮した処理を行うことが必要となる。
次に、本開示の画像処理装置の一構成例として、車に装着したカメラの撮影画像を入力して処理を行う画像処理装置の例について説明する。
図6(a)上面図に示すように、車には、可視光カメラ、遠赤外カメラ、これら2つのカメラが搭載される。これらのカメラの撮影画像は、車内部に備えられた画像処理装置に入力され、可視光画像のブラー(ぼけ)を除去または低減する処理が実行される。
ブラー(ぼけ)の除去、または低減された可視光画像は、運転席に備えられた表示部に表示される。また、自動運転制御部に出力され、自動運転のための情報、例えば障害物検出情報等として利用される。
例えば、カメラは、車と一体で動く設定であり、カメラの動き情報は、カメラ、または車に装着されたセンサから取得する。
センサは、例えばジャイロ、IMU、加速度センサ、傾きセンサ等によって構成される。
なお、IMU(Inertial Measurement Unit)は、3軸方向の角度、または角速度、加速度を検出するセンサである。
センサは、図6(c)に示すように、例えばカメラの移動方向、移動速度、回転半径等を検出し、これらをカメラ動き情報として、画像処理装置のデータ処理部に入力する。
次に、図7以下を参照して、本開示の画像処理装置の構成と処理の概要について説明する。
この処理を実行する画像処理装置の複数の構成例について、図7、図8を参照して説明する。
(構成A)可視光画像と遠赤外画像を用いた画像ベースブラー推定後に、カメラ動き情報に基づくカメラ動きベースブラー推定情報を利用して最終的な統合ブラー推定を実行する構成例
(構成B)可視光画像と遠赤外画像を用いた画像ベースブラー推定と、カメラ動き情報に基づくカメラ動きベースブラー推定を併せて実行して統合ブラー推定を実行する構成例
(構成A+C)構成A+フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成例
(構成B+C)構成B+フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成例
後段で、これらの各構成例の具体的な構成と処理について説明するが、まず、これら4種類の構成に応じた処理の概要について説明する。
ただし、図7に示す構成Aでは、図1を参照して説明したステップS20のブラー推定処理を、以下の3つのステップによって構成している。
(ステップS21)画像ベースブラー推定(Et)
(ステップS22)カメラ動きベースブラー推定(Ec)
(ステップS23)統合ブラー推定(Eall)
Et:画像ベースブラーであり、可視光画像と遠赤外線画像に基づいて推定される可視光画像のブラー、具体的にはぼけ態様情報であり、例えば点広がり関数(PSF)である。
Ec:カメラ動きベースブラーであり、画像(可視光画像と遠赤外線画像)を撮影したカメラの動きに基づいて推定される可視光画像のブラー、具体的にはぼけ態様情報であり、例えばPSFである。
Eall:統合ブラーであり、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)を統合した可視光画像のブラー、具体的にはぼけ態様情報であり、例えばPSFである。
画像ベースブラー(Et)と同様のブラー(ぼけ)を画像に発生させるフィルタ、またはフィルタを構成するフィルタ係数を画像ベースフィルタ(Etf)、
カメラ動きベースブラー(Ec)と同様のブラー(ぼけ)を画像に発生させるフィルタ、またはフィルタを構成するフィルタ係数をカメラ動きベースフィルタ(Ecf)、
統合ブラー(Eall)と同様のブラー(ぼけ)を画像に発生させるフィルタ、またはフィルタを構成するフィルタ係数を統合フィルタ(Eallf)、
とする。
また、1つの態様のブラーから、そのブラーを発生させる1つのフィルタが一義的に決定される。
従って、例えば、ある1つの態様の画像ベースフィルタ(Etf)と、カメラ動きベースブラー(Ec)とを比較して、画像ベースフィルタ(Etf)の適用によって発生するブラー態様と、カメラ動きベースブラー(Ec)が一致、または類似するか否かを判定する処理も可能である。すなわち、ブラーとフィルタの類似性を判定する処理も行われる。
後段において説明する実施例では、このような処理も行われる。
まず、ステップS21において、同一被写体を同時に撮影したブラーあり可視光画像11とブラーなし遠赤外画像12を入力し、これらの2つの画像を比較して、ブラーあり可視光画像11の画像ベースブラー(Et)の推定処理を行う。
この比較処理(相関算出)に基づいて、ブラーあり可視光画像11のブラー(ぼけ)と同様のブラー(ぼけ)を発生させる点広がり関数(PSF)対応のフィルタを選択する。
なお、フィルタ選択は、例えば、所定の画素ブロック単位で実行される。
具体的には、例えばIMU等のセンサによって取得されたカメラの動きに応じて、撮影画像中に発生すると推定されるブラーを推定するる
例えば先に図4を参照して説明したブラーの方向と大きさを示すベクトルを推定する。すなわち、カメラの様々な動きに応じて画像内に発生するブラーを画像の各ブロック単位で推定する。
これらの統合処理は、画像の分割領域であるブロック単位で実行する。
この統合処理により、カメラ動きも考慮した可視光画像11内のブロック単位のブラーが推定される。
ステップS40では、ステップS23で推定したブラーあり可視光画像11のブラー態様(Eall)を示すPSF特性と同様の特性を持つフィルタと逆の特性を持つ「逆フィルタ」を算出、または、様々な逆フィルタを格納した逆フィルタバンクから選択し、算出または選択した逆フィルタをブラーあり可視光画像11に適用する。
なお、逆フィルタの算出、または選択、および適用処理は、所定の画素ブロック単位で実行する。
次に、構成Bについて説明する。
この構成Bと前述した構成Aとの差異は、図1を参照して説明したステップS20のブラー推定処理が、以下の2つのステップで構成した点である。
(ステップS22)カメラ動きベースブラー推定(Ec)
(ステップS25)統合ブラー推定(Eall)
この処理は、上述した(構成A)におけるステップS22の処理と同様の処理である。すなわち、カメラの様々な動きに応じて画像内に発生するブラーを画像の各ブロック単位で推定する。
この処理は、同一被写体を同時に撮影したブラーあり可視光画像11とブラーなし遠赤外画像12に基づくブラーあり可視光画像11のブラー推定処理において、ステップS22において取得済みのカメラ動きベースブラー(Ec)を利用した処理を行うものである。
(1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、ステップS22において取得済みのカメラ動きベースブラー(Ec)に基づいて選択する処理。
(2)フィルタ適用遠赤外画像と、ブラーあり可視光画像11との相関値を、ステップS22において取得済みのカメラ動きベースブラー(Ec)に基づいて補正する処理。
例えばステップS25では、これら2つの処理のいずれかを実行して、統合ブラー(Eall)の推定処理を実行する。
具体的な処理については後段で説明する。
次に、(構成A+C)について説明する。
この構成は、構成Aに追加して、「フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理」を行う構成例である。
その他の構成は、構成Aと同様である。
すなわち、ステップS40におけるブラー除去処理において適用する逆フィルタの強度が、ステップS31で計算された信頼度情報によって調整される。
このような処理を行うことで、フィルタ(ブラー)推定結果の信頼度に応じた逆フィルタの適用が可能となる。
次に、(構成B+C)について説明する。
この構成は、構成Bに追加して、「フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理」を行う構成例である。
その他の構成は、構成Bと同様である。
すなわち、ステップS40におけるブラー除去処理において適用する逆フィルタの強度が、ステップS32で計算された信頼度情報によって調整される。
このような処理を行うことで、フィルタ(ブラー)推定結果の信頼度に応じた逆フィルタの適用が可能となる。
なお、具体的な構成例や処理例については後段で説明する。
次に、本開示の画像処理装置の実施例1として、図7を参照して説明した構成A対応の画像処理装置の具体的な構成と処理について説明する。
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
従って、撮影画像中内の被写体の動きが多い場合は、カメラ動きベースブラー(Ec)をそのまま適用してしまうと、誤ったブラー推定がなされる。
上記の(A1),(A2)は、このような問題を解決する2種類の方法である。
(a)地図情報:予め記憶部に格納してある地図情報、あるいはネットワークを介して地図情報を入力し、市街地等、車両、歩行者の多いエリアでは被写体動きが多いと判定し、山間部等では被写体動きが少ないと判定する。
(b)時間情報:画像処理装置内、または外部装置、あるいはネット経由で時間情報を取得し、時間帯、例えば昼は被写体動きが多いと判定し、深夜は被写体動きが少ないと判定する。
(d)画像上の位置(ブロック):画像上の領域単位(ブロック単位)で、被写体動きの多い少ないを予め規定しておく。例えば、水平方向のブロックは、被写体動きが多く、上下方向は被写体動きが少ないと判定する。
上述した(A1)の構成では、例えば、上記(a)〜(d)の環境情報を入力して、被写体の動きの量を判定し、被写体動きが既定のしきい値以上であると判定した場合は、統合ブラー(Eall)として、画像ベースブラー(Et)を適用し、しきい値未満である場合は、カメラ動きベースブラー(Ec)を選択する。
以下、これら2種類の処理を実行する画像処理装置の構成について、順次、説明する。
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
上記(A1)の構成について説明する。
図9に示す画像処理装置A1,20−A1は、可視光画像入力部21、遠赤外画像入力部22、カメラ動き情報入力部23、画像ベースブラー推定部30、カメラ動きベースブラー推定部40、統合ブラー推定部50、ブラー除去部60、フィルタバンク35、カメラ動きブラーマップ記憶部45、環境情報記憶部/入力部55を有する。
カメラ動きベースブラー推定40は、カメラ動きブラーマップ取得部41を有する。
統合ブラー推定部50は、被写体動き判定部51、統合フィルタ(Eallf)決定部52を有する。
また、ブラー除去部60は、逆フィルタ算出部61、逆フィルタ処理部62を有する。
また、遠赤外画像入力部22は、遠赤外画像26を、画像ベースブラー推定部30に入力する。
さらに、カメラ動き情報入力部23は、例えばIMU等の動きセンサの取得したカメラ動き情報をカメラ動きベースブラー推定部40に入力する。
これらの画像は、例えば暗闇で撮影された画像であり、可視光画像入力部21の入力する補正前可視光画像25は、長時間露光によるブラー(ぼけ)が発生している。
一方、遠赤外画像入力部22の入力する遠赤外画像26は短時間露光画像であり、ブラー(ぼけ)のほとんどない画像である。
また、図中に示す[WB*HB]は、画像の区分領域である1つのブロック領域を示す。
1枚の画像フレームのブロック数はNとする。
画像ベースブラー推定部30のフィルタ処理部31は、遠赤外画像26に対して、フィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用する。すなわち、遠赤外画像26に様々な態様のブラーを故意に発生させる。
相関演算部32は、フィルタ適用によりブラーを故意に発生させた遠赤外画像と、補正前可視光画像25との相関を算出する。
相関演算部32は、遠赤外画像26のN個のブロックの各々について、フィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用した結果と、補正前可視光画像25との相関を算出し、N個のブロック各々についての各フィルタ対応の相関値を画像ベースフィルタ(Etf)決定部33に出力する。
N個のブロック各々についての各フィルタ対応の相関値の中から、
各ブロックについて、最も相関の高いブロック対応のフィルタを選択する。
画像ベースフィルタ(Etf)決定部33が選択したN個のブロック各々についてのN個のフィルタは、統合ブラー推定部50の統合フィルタ(Eallf)決定部52に入力される。
画像ベースフィルタ(Etf)決定部33から、最も相関の高いブロック対応の画像ベースフィルタ(Etf)を入力し、さらに、
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力する。
図10には、先に図4を参照して説明したと同様のカメラの動きに応じて撮影画像内に発生するブラーの方向と大きさを示すベクトルを設定した図を示している。
各画像は、所定の大きさのブロックに分割されている。なお、図では、簡略化して示しているが、各ブロック単位でブラーの方向と大きさを示すベクトルが設定されている。
なお、ブロックは、画像ベースブラー推定部30の相関演算部32における相関算出処理が実行されるブロックと同じブロックであり、統合ブラー推定部50において生成される統合フィルタ(Eall)の生成単位でもある。
(1)カメラが前方に直進する場合のカメラ動きブラーマップ
(2)カメラが後方に直進する場合のカメラ動きブラーマップ
(3)カメラが右方向に回転する場合のカメラ動きブラーマップ
(4)カメラが上方向に回転する場合のカメラ動きブラーマップ
なお、カメラ動きブラーマップ記憶部45には、これらの他にも、様々なカメラ動きに応じたブラーマップが格納されている。
なお、この決定処理は、ブロック単位で実行する。
環境情報は、先に説明したように、地図情報、時間情報、交通情報、画像上のブロック位置情報等である。
被写体動きの多いブロックであるか、
被写体動きの少ないブロックであるか、
これらの判定情報に基づいて、以下の処理を行う。
一方、被写体動きの少ないブロックについては、カメラ動きベースブラー推定部40から入力するカメラ動きブラーマップに含まれるブロック単位のカメラ動きベースブラー(Ec)に基づいて決定されるカメラ動きベースフィルタ(Ecf)を統合フィルタ(Eallf)に設定する。
すなわち、デコンボリューションフィルタを生成して、逆フィルタ処理部62に出力する。
デコンボリューションフィルタは、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つフィルタである。
これらの処理により、補正前可視光画像25から、ブラー(ぼけ)が除去または低減された補正後可視光画像27が生成され出力される。
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
上記(A2)の構成について説明する。
図11に示す画像処理装置A2,20−A2は、可視光画像入力部21、遠赤外画像入力部22、カメラ動き情報入力部23、画像ベースブラー推定部30、カメラ動きベースブラー推定部40、統合ブラー推定部50、ブラー除去部60、フィルタバンク35、カメラ動きブラーマップ記憶部45、環境情報記憶部/入力部55を有する。
カメラ動きベース推定部41は、カメラ動きブラーマップ取得部41を有する。
統合ブラー推定部50は、重み算出部53、統合フィルタ(Eallf)算出部54を有する。
また、ブラー除去部60は、逆フィルタ算出部61、逆フィルタ処理部62を有する。
以下では、図11に示す画像処理装置A2,20−A2における統合ブラー推定部50の重み算出部53と、統合フィルタ(Eallf)算出部54の処理について説明する。
画像ベースフィルタ(Etf)決定部33から、最も相関の高いブロック対応の画像ベースフィルタ(Etf)を入力し、さらに、
カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力する。
Eallf=α(Etf)+β(Ecf)
なお、上記式は、各フィルタのフィルタ係数の算出式に相当する。
また、この統合ブラー(Eallf)算出処理は、ブロック単位で実行する。
重み算出部53は、環境情報記憶部/入力部55から、環境情報を取得して、画像内の各ブロックについて、重み係数α、βを算出する。
環境情報は、先に説明したように、地図情報、時間情報、交通情報、画像上のブロック位置情報等である。
具体的には、被写体動きの多いブロックについては、重み係数αをより大きな値に設定する。すなわち、画像ベースフィルタ(Etf)の寄与率を高く設定した統合ブラー(Eallf)算出を可能とする重み係数の設定を行う。
一方、被写体動きの少ないブロックについては、重み係数βをより大きな値に設定する。すなわち、カメラ動きベースフィルタ(Ecf)の寄与率を高く設定した統合ブラー(Eallf)算出を可能とした重み係数の設定を行う。
一方、被写体動きの少ないブロックについては、カメラ動きベースブラー推定部40から入力するカメラ動きブラーマップに含まれるブロック単位のカメラ動きベースブラー(Ec)に基づいて決定されるカメラ動きベースフィルタ(Ecf)の寄与率の高い統合フィルタ(Eallf)が算出される。
なお、図12以下に示すフローチャートに従った処理は、例えば、画像処理装置の記憶部に格納されたプログラムに従って実行可能な処理であり、プログラム実行機能を有するCPU等を備えた制御部(データ処理部)の制御の下で実行することができる。
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える画像処理装置−A1の実行する処理のシーケンスについて説明する。
以下、図12に示すフローの各ステップの処理について、順次、説明する。
まず、ステップS101において、補正対象とする可視光画像を取得する。
この処理は、図9に示す画像処理装置における可視光画像入力部21によって行われる。具体的には、例えば可視光画像撮影カメラの撮影画像の取得処理である。
次に、ステップS102において、参照画像として利用される遠赤外画像を取得する。
この処理は、図9に示す画像処理装置における遠赤外画像入力部22によって行われる。具体的には、例えば遠赤外画像撮影カメラの撮影画像の取得処理である。
これらの画像は、例えば暗闇で撮影された画像であり、可視光画像は、長時間露光によるブラー(ぼけ)が発生している。一方、遠赤外画像は短時間露光画像であり、ブラー(ぼけ)のほとんどない画像である。
次に、ステップS103において、カメラの動き情報を取得する。
この処理は、図9に示す画像処理装置におけるカメラ動き情報入力部23によって行われる。具体的には、例えばIMU等のセンサによって、カメラの動き情報が取得され入力される。
次に、ステップS104において、ステップS103で入力したカメラの動き情報に基づいて、カメラ動きブラーマッブが取得される。
この処理は、図9に示す画像処理装置におけるカメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41の実行する処理である。
次のステップS105から、ステップS107の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ1)である。
なお、ブロック数はNとする。
ステップS106において、各ブロック単位で画像ベースフィルタ(Etf)を取得する。
この処理は、図9に示す画像処理装置における画像ベースブラー推定部30の実行する処理である。
このステップS106における各ブロック単位の画像ベースフィルタ(Etf)の取得処理には、ステップS101で取得した可視光画像と、ステップS102で取得した遠赤外画像を利用するので、図13には、ステップS101、S102も併せて示している。
以下、この処理について、順次、説明する。
ステップS121から、ステップS125の処理は、フィルタバンク35に格納された全てのフィルタに対応付けられたフィルタIDの全てについて、順次、繰り返し実行されるループ処理(ループ1b)である。
ステップS122において、フィルタ(係数)を取得する。
ステップS122〜S123の処理は、図9に示す画像ベースブラー推定部30のフィルタ処理部31の実行する処理である。フィルタ処理部31は、遠赤外画像の各ブロックに適用するなフィルタ(ブラー(ぼけ)発生フィルタ)をフィルタバンク35から、順次、取得する。
なお、フィルタバンク35から、順次、取得するデータはフィルタ自体、またはフィルタの構成データであるフィルタ係数のいずれでもよい。
次に、ステップS123において、ステップS122で取得したフィルタを遠赤外画像の1つのブロック、すなわち現在、処理対象として選択されているブロックに適用する。
この処理は、遠赤外画像にブラーを故意に発生させるためのフィルタ処理である。
次に、ステップS124において、ステップS123でのフィルタ適用結果の遠赤外画像のブロックと、可視光画像の対応ブロックとの相関値を算出する。
この処理は、図9に示す画像ベースブラー推定部30の相関演算部32の実行する処理である。
相関演算部32は、フィルタ適用によりブラーを故意に発生させた遠赤外画像と、可視光画像との相関を算出する。
ステップS125は、ステップS121〜S125のループ1bの終了位置である。
すなわち、ステップS122〜S124の処理を、フィルタバンク35に格納された全てのフィルタに対応付けられたフィルタIDの全てについて、順次、繰り返し実行する。
1つのブロックについてのステップS121〜S125のループ1bの処理が完了すると、ステップS126に進む。
すなわち、1つのブロックについて、フィルタバンク35に格納された全てのフィルタ対応の相関値算出処理が修了するとステップS126に進む。
画像ベースフィルタ(Etf)決定部33は、ステップS126において、ステップS121〜S125のループ1bの処理が完了したブロックについて、フィルタバンク35に格納された全てのフィルタ対応の相関値中、最も高い相関値を持つフィルタのIDを選択する。
図12に戻り、ステップS106の処理後の処理について説明する。
ステップS107は、ステップS105〜S107のループ1の終了位置である。
すなわち、ステップS106の処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
N個のブロック全てについて、最も高い相関値を持つ画像ベースフィルタ(Etf)が決定することになる。
次に、ステップS108において、画像撮影時の環境情報を取得する。
この処理は、図9に示す画像処理装置の環境情報記憶部/入力部55を利用して実行される。
環境情報は、先に説明したように、地図情報、時間情報、交通情報、画像上のブロック位置情報等である。
次のステップS109からステップS112の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ2)である。
なお、ブロック数はNとする。
ステップS110〜S111の処理は、図9に示す統合ブラー推定部50の実行する処理である。
まず、ステップS110において、統合ブラー推定部50の被写体動き判定部51が、予め規定されたアルゴリズムを実行して、上記各種の環境情報基づいて各ブロック単位で、被写体動きが多いブロックであるか少ないブロックであるかを判定する。判定されたブロック単位の判定情報は、統合フィルタ(Eallf)決定部52に出力される。
次に、ステップS111において、統合フィルタ(Eallf)決定部52が、各ブロック単位で、画像ベースフィルタ(Etf)、または、カメラ動きベースフィルタ(Ecf)のいずれかを、統合フィルタ(Eallf)とするフィルタ選択処理を行う。
一方、被写体動きの少ないブロックについては、カメラ動きベースブラー推定部40から入力するカメラ動きブラーマップに含まれるブロック単位のカメラ動きベースブラー(Ec)に基づいて決定されるカメラ動きベースフィルタ(Ecf)を統合フィルタ(Eallf)に設定する。
ステップS112は、ステップS109〜S112のループ2の終了位置である。
すなわち、ステップS110〜S111の処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
N個のブロック全てについて、統合フィルタ(Eallf)が決定することになる。
次のステップS113からステップS116の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ3)である。
なお、ブロック数はNとする。
ステップS114〜S115の処理は、図9に示すブラー除去部60の実行する処理である。
次に、ステップS115において、ブラー除去部60の逆フィルタ処理部62が、ステップS114で算出された逆フィルタを、処理対象の可視光画像のブロックに適用する。
ステップS116は、ステップS113〜S116のループ3の終了位置である。
すなわち、ステップS114〜S115の処理を、補正対象画像である可視光画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
これらの処理により、ステップS101における入力画像である可視光画像、すなわち図9に示す補正前可視光画像25から、ブラー(ぼけ)が除去または低減され、図9に示す補正後可視光画像27が生成されて出力される。
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する画像処理装置−A2の実行する処理のシーケンスについて説明する。
図12に示すフローのステップS110を、図14に示すフローのステップS110bに置き換え、
図12に示すフローのステップS111を、図14に示すフローのステップS111bに置き換えた点が異なる。
次のステップS109からステップS112の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ2)である。
なお、ブロック数はNとする。
まず、ステップS110bにおいて、統合ブラー推定部50の重み算出部53が、環境情報記憶部/入力部55から、環境情報を取得して、画像内の各ブロックについて、重み情報を算出する。
環境情報は、先に説明したように、地図情報、時間情報、交通情報、画像上のブロック位置情報等である。
Eallf=α(Etf)+β(Ecf)
上記式における重み係数α、βの各値である。
具体的には、被写体動きの多いブロックについては、重み係数αをより大きな値に設定する。
一方、被写体動きの少ないブロックについては、重み係数βをより大きな値に設定する。
次に、ステップS111bにおいて、統合フィルタ(Eallf)算出部54が、重み算出部53から入力するブロック単位の重み情報、すなわち上述した各ブロック単位の重み係数α、βを用いて、画像ベースフィルタ(Etf)と、カメラ動きベースフィルタ(Ecf)の加重平均を行い、統合フィルタ(Eallf)を算出する。
一方、被写体動きの少ないブロックについては、カメラ動きベースフィルタ(Ecf)の寄与率を高く設定した統合ブラー(Eallf)を算出する。
N個のブロック全てについて、統合フィルタ(Eallf)が決定することになる。
以下のステップS113以下では、ブラー除去部60において、統合ブラー(Eallf)の逆フィルタの算出と、補正対象可視光画像に対する適用処理が行われる。
次に、本開示の画像処理装置の実施例2として、図7を参照して説明した構成B対応の画像処理装置の具体的な構成と処理について説明する。
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理。
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理。
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理。
上記処理を実行する画像処理装置−B1の構成について説明する。
図15に示す画像処理装置B1,20−B1は、可視光画像入力部21、遠赤外画像入力部22、カメラ動き情報入力部23、ブラー推定部30b、カメラ動きベースブラー推定部40、ブラー除去部60、フィルタバンクプール36、カメラ動きブラーマップ記憶部45を有する。
カメラ動きベースブラー推定40は、カメラ動きブラーマップ取得部41を有する。
また、ブラー除去部60は、逆フィルタ算出部61、逆フィルタ処理部62を有する。
また、遠赤外画像入力部22は、遠赤外画像26を、ブラー推定部30bに入力する。
さらに、カメラ動き情報入力部23は、例えばIMU等の動きセンサの取得したカメラ動き情報をカメラ動きベースブラー推定部40に入力する。
これらの画像は、例えば暗闇で撮影された画像であり、可視光画像入力部21の入力する補正前可視光画像25は、長時間露光によるブラー(ぼけ)が発生している。
一方、遠赤外画像入力部22の入力する遠赤外画像26は短時間露光画像であり、ブラー(ぼけ)のほとんどない画像である。
また、図中に示す[WB*HB]は、画像の区分領域である1つのブロック領域を示す。
1枚の画像フレームのブロック数はNとする。
ブラー推定部30bのフィルタ処理部31は、遠赤外画像26に対して、フィルタバンク選択部34が、フィルタバンクプール36から選択したフィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用する。すなわち、遠赤外画像26に様々な態様のブラーを故意に発生させる。
フィルタバンク選択部34は、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力し、入力したカメラ動きブラーマップに設定されたブラーの方向や大きさに類似するブラー対応のフィルタを格納したフィルタバンクを、フィルタバンクプール36から選択する。
なお、このフィルタバンク選択処理は、画像の分割領域であるブロック単位で実行する。
フィルタバンクプール36に格納されるフィルタバンクには、図16(1)に示すように、例えば以下のようなフィルタバンクがある。
(a1)横ブラー対応フィルタバンク
(a2)長い横ブラー対応フィルタバンク
(b1)縦ブラー対応フィルタバンク
(c)右上斜めブラー対応フィルタバンク
このカメラ動きブラーマップは、カメラが前方向に直進しているとの判定に基づいて取得されるブラーマップである。
左端部中央のブロックは、横方向に長いカメラ動きベースブラー(Ec)の設定されたブロックである。
フィルタバンク選択部34は、このブロックに対するフィルタバンクとして、この横長ブラーに類似するブラーを発生させるフィルタを格納した、
(a2)長い横ブラー対応フィルタバンク
を選択する。
フィルタバンク選択部34は、このブロックに対するフィルタバンクとして、この横ブラーに類似するブラーを発生させるフィルタを格納した、
(a1)横ブラー対応フィルタバンク
を選択する。
フィルタバンク選択部34は、このブロックに対するフィルタバンクとして、この縦ブラーに類似するブラーを発生させるフィルタを格納した、
(b1)縦ブラー対応フィルタバンク
を選択する。
フィルタバンク選択部34は、このブロックに対するフィルタバンクとして、この右上斜めブラーに類似するブラーを発生させるフィルタを格納した、
(c)右上斜めブラー対応フィルタバンク
を選択する。
選択されたフィルタバンク35は、フィルタ処理部31に入力される。
フィルタを適用して生成したブラーを故意に発生させた遠赤外画像は、相関運算部32に出力される。
相関演算部32は、フィルタ適用によりブラーを故意に発生させた遠赤外画像と、補正前可視光画像25との相関を算出する。
相関演算部32は、遠赤外画像26のN個のブロックの各々について、フィルタバンク35に格納された様々なフィルタ(ブラー(ぼけ)発生フィルタ)を、順次、適用した結果と、補正前可視光画像25との相関を算出し、N個のブロック各々についての各フィルタ対応の相関値を統合フィルタ(Eallf)決定部37に出力する。
N個のブロック各々についての各フィルタ対応の相関値の中から、
各ブロックについて、最も相関の高いブロック対応のフィルタを選択する。
統合フィルタ(Eallf)決定部37が選択したN個のブロック各々についてのN個のフィルタは、ブラー除去部60の逆フィルタ算出部61に入力される。
すなわち、デコンボリューションフィルタを生成して、逆フィルタ処理部62に出力する。
デコンボリューションフィルタは、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つフィルタである。
これらの処理により、補正前可視光画像25から、ブラー(ぼけ)が除去または低減された補正後可視光画像27が生成され出力される。
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理。
上記処理を実行する画像処理装置−B2の構成について説明する。
図17に示す画像処理装置B2,20−B2は、可視光画像入力部21、遠赤外画像入力部22、カメラ動き情報入力部23、ブラー推定部30b、カメラ動きベースブラー推定部40、ブラー除去部60、カメラ動きブラーマップ記憶部45を有する。
カメラ動きベースブラー推定40は、カメラ動きブラーマップ取得部41を有する。
また、ブラー除去部60は、逆フィルタ算出部61、逆フィルタ処理部62を有する。
図17に示す画像処理装置B2,20−B2のブラー推定部30bは、先に図15を参照して説明したフィルタバンク選択部34を有しておらず、フィルタ(ブラー)比較部38と、相関補正部39を有する。
フィルタ処理部31において遠赤外画像26に適用するためのブラー(ぼけ)発生用のフィルタをフィルタバンク35から入力する。
さらに、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力する。
2つのフィルタ(ブラー)の類似度が大きいほど、補正係数は、大きく(1に近く)。類似度が小さいほど補正係数は小さく(0に近く)設定される。
図18には、以下の各情報を示している。
(1)フィルタバンク35からの取得フィルタF1
(2)相関演算部32の算出する相関値
(3)カメラ動きベースブラー
(4)フィルタ(ブラー)の類似度に基づく算出補正係数
(5)相関補正部39の算出する補正相関値
フィルタ(ブラー)比較部38は、このフィルタを入力する。
図18には3種類のみ示しているが、この他、多数のフィルタがフィルタ処理部31において遠赤外画像26に、順次、適用される。
なお、このフィルタ適用処理は、ブロック単位で実行される。
すなわち、補正前可視光画像25と、フィルタ適用遠赤外画像の対応ブロックの相関値である。
図には、上から、遠赤外画像26に適用された3種類の各フィルタに対応した3種類の相関値として、
相関値=0.5,
相関値=0.4,
相関値=0.1、
これらの相関値が算出された例を示している。
相関演算部32における相関値算出対象となったブロックに対応するブロックのカメラ動きベースブラーであり、カメラ動きブラーマップから取得される。
図18(3)に示す例では、右斜め下がりのカメラ動きベースブラー(Ec)を示している。
図18(1)に示すフィルタバンク35からの取得フィルタF1、
図18(3)に示すカメラ動きベースブラー(Ec)、
これらの2つのフィルタ(ブラー)を比較する。
なお、フィルタF1は、ブラーを発生させるフィルタであり、図18(1)に示すフィルタバンク35から取得するフィルタF1によって発生するブラーが、図18(3)に示すカメラ動きベースブラー(Ec)に類似するか否かを判定する。
図18(4)に示すフィルタ(ブラー)の類似度に基づく算出補正係数が、この補正係数である。
図18に示す例では、上から、遠赤外画像26に適用された3種類の各フィルタに対応した3種類の補正係数として、
補正係数=0.3,
補正係数=0.9,
補正係数=0.9、
これらの補正係数が算出された例を示している。
図18に示す例では、図18(3)に示すカメラ動きベースブラー(Ec)が右下斜め方向のブラーである。
図18(1)フィルタバンク35からの取得フィルタF1として示す3種類のフィルタ中、一番目の横方向のブラー対応のフィルタは、右下斜め方向のカメラ動きベースブラー(Ec)との類似度が低いと判定され、補正係数=0.3の算出がなされる。
相関補正部39は、フィルタ(ブラー)比較部38から入力する補正係数を、相関演算部32から入力する相関値、すなわち、図18に示す(2)相関演算部32の算出する相関値に乗算して、補正相関値を算出する。
図18(5)に示す補正相関値である。
補正相関値=0.5×0.3=0.15,
補正相関値=0.4×0.9=0.36,
補正相関値=0.1×0.9=0.09,
これらの補正相関値が算出された例を示している。
統合フィルタ決定部37は、相関補正部39からの入力データ、すなわち、
N個のブロック各々についての各フィルタ対応の補正相関値の中から、
各ブロックについて、最も相関の高いブロック対応のフィルタを選択する。
統合フィルタ(Eallf)決定部37が選択したN個のブロック各々についてのN個のフィルタは、ブラー除去部60の逆フィルタ算出部61に入力される。
この場合、2番目のエントリのフィルタ、すなわち、図18(1)フィルタバンクからの取得フィルタF1に示す2番目のフィルタが統合フィルタ(Eallf)として決定される。
ブラー除去部60の逆フィルタ算出部61は、ブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを生成する。
すなわち、デコンボリューションフィルタを生成して、逆フィルタ処理部62に出力する。
デコンボリューションフィルタは、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つフィルタである。
これらの処理により、補正前可視光画像25から、ブラー(ぼけ)が除去または低減された補正後可視光画像27が生成され出力される。
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理。
上記処理を実行する画像処理装置−B1の実行する処理のシーケンスについて説明する。
以下、図19に示すフローの各ステップの処理について、順次、説明する。
まず、ステップS101において、補正対象とする可視光画像を取得する。
この処理は、図15に示す画像処理装置における可視光画像入力部21によって行われる。具体的には、例えば可視光画像撮影カメラの撮影画像の取得処理である。
次に、ステップS102において、参照画像として利用される遠赤外画像を取得する。
この処理は、図15に示す画像処理装置における遠赤外画像入力部22によって行われる。具体的には、例えば遠赤外画像撮影カメラの撮影画像の取得処理である。
これらの画像は、例えば暗闇で撮影された画像であり、可視光画像は、長時間露光によるブラー(ぼけ)が発生している。一方、遠赤外画像は短時間露光画像であり、ブラー(ぼけ)のほとんどない画像である。
次に、ステップS103において、カメラの動き情報を取得する。
この処理は、図15に示す画像処理装置におけるカメラ動き情報入力部23によって行われる。具体的には、例えばIMU等のセンサによって、カメラの動き情報が取得され入力される。
次に、ステップS104において、ステップS103で入力したカメラの動き情報に基づいて、カメラ動きブラーマッブが取得される。
この処理は、図15に示す画像処理装置におけるカメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41の実行する処理である。
次のステップS105から、ステップS107の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ1)である。
なお、ブロック数はNとする。
ステップS105bの処理は、図15に示すブラー推定部30bのフィルタバンク選択部34の実行する処理である。
フィルタバンク選択部34は、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力し、入力したカメラ動きブラーマップに設定されたブラーの方向や大きさに類似するブラー対応のフィルタを格納したフィルタバンクを、フィルタバンクプール36から選択する。
なお、このフィルタバンク選択処理は、画像の分割領域であるブロック単位で実行する。
次に、ステップS106bにおいて、統号フィルタ(Eallf)の決定処理を実行する。
このステップS106bの処理は、図15に示すブラー推定部20bのフィルタ処理部31、相関演算部32、統合フィルタ決定部37において実行する処理であ。
ただし、図13を参照して説明したステップS121〜S126の処理では、出力するフィルタは、画像ベースフィルタ(Etf)であるが、図19のフローのステップS106bは、図13に示すステップS126において、図15に示す統合フィルタ決定部37が、相関値最大のフィルタを統合フィルタ(Eallf)として選択する処理を行う。
ステップS107は、ステップS105〜S107のループ1の終了位置である。
すなわち、ステップS105b〜106bの処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
N個のブロック全てについて、最も高い相関値を持つ統合フィルタ(Eallf)が決定することになる。
次のステップS113からステップS116の処理は、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ3)である。
なお、ブロック数はNとする。
ステップS114〜S115の処理は、図15に示すブラー除去部60の実行する処理である。
次に、ステップS115において、ブラー除去部60の逆フィルタ処理部62が、ステップS114で算出された逆フィルタを、処理対象の可視光画像のブロックに適用する。
ステップS116は、ステップS113〜S116のループ3の終了位置である。
すなわち、ステップS114〜S115の処理を、補正対象画像である可視光画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
これらの処理により、ステップS101における入力画像である可視光画像、すなわち図15に示す補正前可視光画像25から、ブラー(ぼけ)が除去または低減され、図15に示す補正後可視光画像27が生成されて出力される。
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理。
上記処理を実行する画像処理装置−B2の実行する処理シーケンスについて説明する。
その他の処理は図19に示すフローを参照して説明した処理と同様であるので、説明を省略し、図20のフローに示すステップS106cの処理を中心として説明する。
このステップS106cは、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行されるループ処理(ループ1)として実行される。
このステップS106cの処理の詳細シーケンスについて、図21に示すフローを参照して説明する。
以下、この処理について、順次、説明する。
ステップS121から、ステップS125の処理は、フィルタバンク35に格納された全てのフィルタに対応付けられたフィルタIDの全てについて、順次、繰り返し実行されるループ処理(ループ1b)である。
ステップS122において、フィルタ(係数)を取得する。
ステップS122〜S123の処理は、図17に示すブラー推定部30bのフィルタ処理部31の実行する処理である。フィルタ処理部31は、遠赤外画像の各ブロックに適用するなフィルタ(ブラー(ぼけ)発生フィルタ)をフィルタバンク35から、順次、取得する。
なお、フィルタバンク35から、順次、取得するデータはフィルタ自体、またはフィルタの構成データであるフィルタ係数のいずれでもよい。
次に、ステップS123において、ステップS122で取得したフィルタを遠赤外画像の1つのブロック、すなわち現在、処理対象として選択されているブロックに適用する。
この処理は、遠赤外画像にブラーを故意に発生させるためのフィルタ処理である。
次に、ステップS124において、ステップS123でのフィルタ適用結果の遠赤外画像のブロックと、可視光画像の対応ブロックとの相関値を算出する。
この処理は、図17に示すブラー推定部30bの相関演算部32の実行する処理である。
相関演算部32は、フィルタ適用によりブラーを故意に発生させた遠赤外画像と、可視光画像との相関を算出する。
ステップS125は、ステップS121〜S125のループ1bの終了位置である。
すなわち、ステップS122〜S124の処理を、フィルタバンク35に格納された全てのフィルタに対応付けられたフィルタIDの全てについて、順次、繰り返し実行する。
1つのブロックについてのステップS121〜S125のループ1bの処理が完了すると、ステップS125cに進む。
すなわち、1つのブロックについて、フィルタバンク35に格納された全てのフィルタ対応の相関値算出処理が修了するとステップS125cに進む。
フィルタ(ブラー)比較部38は、以下の各情報を入力する。
フィルタ処理部31において遠赤外画像26に適用するためのブラー(ぼけ)発生用のフィルタをフィルタバンク35から入力する。
さらに、カメラ動きベースブラー推定部40のカメラ動きブラーマップ取得部41から、カメラ動きに対応したカメラ動きブラーマップを入力する。
2つのフィルタ(ブラー)の類似度が大きいほど、補正係数は、大きく(1に近く)。類似度が小さいほど補正係数は小さく(0に近く)設定される。
ステップS126の処理は、図17に示すブラー推定部30bの統合フィルタ(Eallf)決定部37の実行する処理である。
統合フィルタ(Eallf)決定部37の決定したブロック対応の統合フィルタ(Eallf)は、図17に示すブラー除去部60の逆フィルタ算出部61に入力される。
ステップS107は、ステップS105〜S107のループ1の終了位置である。
すなわち、ステップS105b〜106bの処理を、可視光画像、および遠赤外画像に設定された分割領域であるブロックの全てについて、順次、繰り返し実行する。
N個のブロック全てについて、統合フィルタ(Eallf)が決定することになる。
すなわち、ブラー除去部60の逆フィルタ算出部61が、統合フィルタ(Eallf)決定部37の決定したブロック単位の統合フィルタ(Eallf)を入力し、各ブロック単位の統合フィルタ(Eallf)の逆の特性を持つ逆フィルタを算出し、ブラー除去部60の逆フィルタ処理部62が、逆フィルタを、処理対象の可視光画像のブロックに適用する。
これらの処理により、ステップS101における入力画像である可視光画像、すなわち図17に示す補正前可視光画像25から、ブラー(ぼけ)が除去または低減され、図17に示す補正後可視光画像27が生成されて出力される。
次に、本開示の画像処理装置の実施例3として、図8を参照して説明した構成(A+C)、すなわち、構成Aを基本構成として、さらにフィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成と処理について説明する。
以下に説明する実施例3としての構成A+Cは、この構成Aにおいて推定される画像ベースフィルタ(Etf)や、カメラ動きベースフィルタ(Ecf)の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成である。
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
構成A1+C、
構成A2+C、
これらの2つの構成例と処理について、図22以下を参照して説明する。
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
上記構成に、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成について説明する。
その他の構成は、図9に示す画像処理装置A1,20−A1と同一である。
信頼度算出部70は、フィルタ(ブラー)比較部71を有する。
(1)画像ベースブラー推定部30の生成した画像ベースフィルタ(Etf)
(2)カメラ動きベースブラー推定部40が取得したカメラ動きブラーマップ
カメラ動きベースブラー推定部40が取得したカメラ動きブラーマップは、先に図10を参照して説明したようにカメラ動きに応じたブラー情報をブロック単位で有するデータである。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定する。
一方、2つのフィルタ(ブラー)の類似度が低い場合は、信頼度の値を低く設定する。
なお、信頼度は、例えば信頼度=0〜1の値とする。
図23には、フィルタ(ブラー)比較部71の実行する信頼度算出処理例として2つの例を示している。
この場合、これら2つのフィルタ(ブラー)の類似度は低いと判定し、信頼度を低い値、例えば0.1に設定する。
この場合、これら2つのフィルタ(ブラー)の類似度は高いと判定し、信頼度を高い値、例えば0.9に設定する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
相関値信頼度α=1(高信頼度)〜0(縦い信頼度)の設定である場合、
逆フィルタ補正部63は、逆フィルタ算出部61の算出した逆フィルタに設定された係数に対して信頼度αを乗算して補正逆フィルタを生成して、逆フィルタ処理部62に出力する。
なお、信頼度算出部70の信頼度算出処理や、逆フィルタ補正部63の逆フィルタ補正処理、さらに、逆フィルタ処理部62における逆フィルタ適用処理はブロック単位の処理として実行される。
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
上記構成に、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成について説明する。
その他の構成は、図11に示す画像処理装置A2,20−A2と同一である。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
(A1)被写体の動きの量に応じて、統合ブラー(Eall)として、画像ベースブラー(Et)を適用するか、カメラ動きベースブラー(Ec)を選択するかを切り換える構成。
上記構成に、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の実行する処理シーケンスを説明するフローチャートである。
ステップS112bは、信頼度算出処理であり、ブロック単位で繰り返し実行される。
図22に示す信頼度算出部70のフィルタ(ブラー)比較部71は、画像内の同一位置にある対応するブロック間で、画像ベースブラー(Et)、または画像ベースフィルタ(Etf)と、カメラ動きベースブラー(Ec)、またはカメラ動きベースフィルタ(Ecf)との比較処理を行い、比較処理結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
全てのブロックについての信頼度算出処理を完了すると、ステップS113に進む。
次に、図25に示すフローのもう一つの追加ステップの処理であるステップS114bの処理について説明する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
(A2)統合ブラー(Eall)として、画像ベースブラー(Et)と、カメラ動きベースブラー(Ec)の加重平均を利用し、被写体の動きの量に応じて加重平均態様を変更する構成。
上記構成に、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の実行する処理シーケンスについて説明する。
また、追加処理であるステップS112bと、ステップS114bの処理は、図25のフローチャートを参照して説明した構成A1+Cの画像処理装置の処理であるステップS112bと、ステップS114bの処理と同様の処理である。
さらに、ステップS114bでは、信頼度に応じて逆フィルタの適用強度を制御するための逆フィルタ補正処理を実行する。
次に、本開示の画像処理装置の実施例4として、図8を参照して説明した構成(B+C)、すなわち、構成Bを基本構成として、さらにフィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成と処理について説明する。
以下に説明する実施例4としての構成B+Cは、この構成Bにおいて推定される画像ベースフィルタ(Etf)や、カメラ動きベースフィルタ(Ecf)の信頼度を算出して、信頼度に応じたブラー除去処理を行う構成である。
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理(図15)。
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理(図17)。
構成B1+C、
構成B2+C、
これらの2つの構成例と処理について、図27以下を参照して説明する。
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理を行う装置において、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成について説明する。
その他の構成は、図15に示す画像処理装置B1,20−B1と同一である。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理を行う装置において、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の構成について説明する。
その他の構成は、図17に示す画像処理装置B2,20−B2と同一である。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
(B1)遠赤外画像に適用するフィルタ、すなわちブラー(ぼけ)を発生させるフィルタを、カメラ動きベースブラー(Ec)に基づいて選択する処理を行う装置において、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の実行する処理シーケンスを説明するフローチャートである。
また、追加処理であるステップS112bと、ステップS114bの処理は、図25のフローチャートを参照して説明した構成A1+Cの画像処理装置の処理であるステップS112bと、ステップS114bの処理と同様の処理である。
この点のみが異なる。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
(B2)フィルタ適用遠赤外画像と、ブラーあり可視光画像との相関値を、カメラ動きベースブラー(Ec)に基づいて補正する処理を行う装置において、フィルタ(ブラー)推定結果の信頼度を算出して、信頼度に応じたブラー除去処理を行う画像処理装置の実行する処理シーケンスについてを説明する。
また、追加処理であるステップS112bと、ステップS114bの処理は、前述の図29の構成B1+Cの画像処理装置の処理であるステップS112bと、ステップS114bの処理と同様の処理である。
この比較処理の結果として、2つのフィルタ(ブラー)の類似度が高い場合は、信頼度の値を高く設定し、類似度が低い場合は、信頼度の値を低く設定する。
逆フィルタ補正部63は、信頼度算出部70から入力する信頼度に応じて、逆フィルタ処理部62において適用する逆フィルタの強度を調整する。
例えば、信頼度算出部70から入力する信頼度が高い場合は、逆フィルタ処理部62において適用する逆フィルタの強度を弱めることなく、逆フィルタ算出部61の算出した逆フィルタに設定された係数をそのまま利用する。すなわち、補正前可視光画像25の処理対象ブロックに対して逆フィルタ算出部61の算出した逆フィルタをそのまま適用する。
次に、図31を参照して画像処理装置のハードウェア構成例について説明する。
図31は、本開示の処理を実行する画像処理装置のハードウェア構成例を示す図である。
次に、上述した本開示の画像処理装置を、車両に備え付けた車両制御システムの一構成例について説明する。
図32は、上述した処理を実行する画像処理装置を含む車両制御システム100の概略的な機能の構成例を示すブロック図である。
図32に示す車両制御システム100のデータ取得部102は、可視光カメラと(遠)赤外カメラ、さらにIMU等のセンサを含み、検出部131は、これらのカメラの撮影画像、車両の動き情報(=カメラの動き情報)を入力して上述した処理を実行する。
なお、処理結果は、例えば、図32に示す車両制御システム100の出力部106を構成する表示部に表示され、ユーザ(ドライバ)によって確認される。
以下、図32に示す車両制御システム100の構成について説明する。
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
(1) 同一被写体を同時に撮影した可視光画像と遠赤外画像を入力する画像入力部と、
前記可視光画像を撮影したカメラの動き情報を入力するカメラ動き情報入力部と、
前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するカメラ動きベースブラー推定部と、
前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定部と、
前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去部を有する画像処理装置。
前記可視光画像の画像ブロック領域単位で、前記カメラ動きベースブラーを推定し、
前記ブラー推定部は、
前記可視光画像の画像ブロック領域単位で、前記統合フィルタを推定し、
前記ブラー除去部は、
前記可視光画像の画像ブロック領域単位で、前記逆特性フィルタを適用する(1)に記載の画像処理装置。
異なる多数の点広がり関数対応のフィルタを保持するフィルタバンクから、異なるフィルタを順次、取得して前記遠赤外画像に適用するフィルタ処理部と、
前記フィルタ処理部の生成したフィルタ適用遠赤外画像と、前記可視光画像との相関を、画像の分割領域であるブロック単位で算出する相関演算部を有する(1)または(2)1に記載の画像処理装置。
前記遠赤外画像にフィルタを適用したフィルタ適用遠赤外画像と、前記可視光画像との相関を算出し、相関の最も高くなるフィルタを画像ベースフィルタとして決定する画像ベースブラー推定部と、
カメラ動きベースブラー相当のブラーを発生させるフィルタであるカメラ動きベースフィルタと、前記画像ベースフィルタのいずれかを選択、あるいは加重平均することで、前記統合フィルタを算出する統合ブラー推定部を有する構成である(1)〜(3)いずれかに記載の画像処理装置。
環境情報を利用した動き量判定アルゴリズムに従った画像ブロック領域単位の動き量判定処理によって、被写体動き量が多いと判定された画像ブロック領域については、前記画像ベースフィルタを前記統合フィルタとし、
被写体動き量が少ないと判定された画像ブロック領域については、前記カメラ動きベースフィルタを前記統合フィルタとする処理を実行する(4)に記載の画像処理装置。
環境情報を利用した重み係数決定アルゴリズムに従って決定される重み係数を利用して、前記画像ベースフィルタと、前記カメラ動きベースフィルタとの加重平均処理を実行して、前記統合フィルタを算出する(4)に記載の画像処理装置。
フィルタ特性の類似する複数のフィルタを格納したフィルタバンクを複数格納したフィルタバンクプールを有し、
前記ブラー推定部は、
前記カメラ動きベースブラー相当のブラーを発生させるフィルタに類似するフィルタ特性を有するフィルタを格納したフィルタバンクを、前記フィルタバンクプールから選択するフィルタバンク選択部と、
前記フィルタバンク選択部の選択したフィルタバンクに格納されたフィルタを、前記遠赤外画像に適用したフィルタ適用遠赤外画像と、前記可視光画像との相関を算出する相関算出部と、
相関の最も高くなるフィルタを統合フィルタとして決定する統合フィルタ決定部を有する(1)〜(3)いずれかに記載の画像処理装置。
前記遠赤外画像にフィルタを適用したフィルタ適用遠赤外画像と、前記可視光画像との相関値を算出する相関算出部と、
前記遠赤外画像に適用したフィルタと、前記カメラ動きベースブラーとの比較処理を実行するフィルタ比較部と、
前記フィルタ比較部における比較結果に応じて、前記相関算出部の算出した相関値を補正する相関補正部と、
前記相関補正部の補正した補正相関値の最も高くなるフィルタを統合フィルタとして決定する統合フィルタ決定部を有する(1)〜(3)いずれかに記載の画像処理装置。
前記遠赤外画像に適用したフィルタと、前記カメラ動きベースブラーとが類似度が低いほど、前記相関算出部の算出した相関値を低下させる相関値補正を行う(10)に記載の画像処理装置。
前記ブラー推定部における推定結果の信頼度を算出する信頼度算出部を有し、
前記ブラー除去部は、
前記信頼度算出部の算出した信頼度が低い場合は、前記可視光画像に対する逆フィルタの適用強度を弱める処理を行う(1)〜(11)いずれかに記載の画像処理装置。
前記ブラー推定部において推定された前記画像ベースブラー相当のブラーを発生させる画像ベースブラーフィルタ、または前記統合フィルタの信頼度を算出する(12)に記載の画像処理装置。
前記カメラ動きベースブラーと、
前記画像ベースブラーフィルタ、または前記統合フィルタを比較して、類似度が高いほど高い信頼度を算出する(13)に記載の画像処理装置。
前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを算出する逆フィルタ算出部と、
前記信頼度算出部の算出した信頼度を入力して、前記信頼度が低い場合は、前記逆フィルタの適用強度を弱めた補正逆フィルタを生成する逆フィルタ補正部と、
前記逆フィルタ補正部の生成した補正逆フィルタを、前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する(12)〜(14)いずれかに記載の画像処理装置。
画像入力部が、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力するステップと、
カメラ動き情報入力部が、前記可視光画像を撮影したカメラの動き情報を入力するステップと、
カメラ動きベースブラー推定部が、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するステップと、
ブラー推定部が、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定ステップと、
ブラー除去部が、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去ステップを実行する画像処理方法。
画像入力部に、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力させるステップと、
カメラ動き情報入力部に、前記可視光画像を撮影したカメラの動き情報を入力させるステップと、
カメラ動きベースブラー推定部に、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定させるステップと、
ブラー推定部に、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定させるブラー推定ステップと、
ブラー除去部に、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成させるブラー除去ステップを実行させるプログラム。
具体的には、同一被写体を同時に撮影した可視光画像と遠赤外画像、さらに、カメラの動き情報を入力し、カメラの動きに起因する可視光画像のブラー(ぼけ)であるカメラ動きベースブラーを推定し、可視光画像と遠赤外画像、およびカメラ動きベースブラーを利用して、可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定し、推定した統合フィルタと逆特性を持つ逆特性フィルタを可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する。
これらの処理により、可視光画像のブラー(ぼけ)を除去または低減した高画質化処理を実行する装置、方法が実現される。
Claims (17)
- 同一被写体を同時に撮影した可視光画像と遠赤外画像を入力する画像入力部と、
前記可視光画像を撮影したカメラの動き情報を入力するカメラ動き情報入力部と、
前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するカメラ動きベースブラー推定部と、
前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定部と、
前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去部を有する画像処理装置。 - 前記カメラ動きベースブラー推定部は、
前記可視光画像の画像ブロック領域単位で、前記カメラ動きベースブラーを推定し、
前記ブラー推定部は、
前記可視光画像の画像ブロック領域単位で、前記統合フィルタを推定し、
前記ブラー除去部は、
前記可視光画像の画像ブロック領域単位で、前記逆特性フィルタを適用する請求項1に記載の画像処理装置。 - 前記ブラー推定部は、
異なる多数の点広がり関数対応のフィルタを保持するフィルタバンクから、異なるフィルタを順次、取得して前記遠赤外画像に適用するフィルタ処理部と、
前記フィルタ処理部の生成したフィルタ適用遠赤外画像と、前記可視光画像との相関を、画像の分割領域であるブロック単位で算出する相関演算部を有する請求項1に記載の画像処理装置。 - 前記ブラー推定部は、
前記遠赤外画像にフィルタを適用したフィルタ適用遠赤外画像と、前記可視光画像との相関を算出し、相関の最も高くなるフィルタを画像ベースフィルタとして決定する画像ベースブラー推定部と、
カメラ動きベースブラー相当のブラーを発生させるフィルタであるカメラ動きベースフィルタと、前記画像ベースフィルタのいずれかを選択、あるいは加重平均することで、前記統合フィルタを算出する統合ブラー推定部を有する構成である請求項1に記載の画像処理装置。 - 前記統合フィルタ推定部は、
環境情報を利用した動き量判定アルゴリズムに従った画像ブロック領域単位の動き量判定処理によって、被写体動き量が多いと判定された画像ブロック領域については、前記画像ベースフィルタを前記統合フィルタとし、
被写体動き量が少ないと判定された画像ブロック領域については、前記カメラ動きベースフィルタを前記統合フィルタとする処理を実行する請求項4に記載の画像処理装置。 - 前記環境情報は、地図情報、時間情報、交通情報、画像ブロック領域情報の少なくともいずれかの情報を含む請求項5に記載の画像処理装置。
- 前記統合フィルタ推定部は、
環境情報を利用した重み係数決定アルゴリズムに従って決定される重み係数を利用して、前記画像ベースフィルタと、前記カメラ動きベースフィルタとの加重平均処理を実行して、前記統合フィルタを算出する請求項4に記載の画像処理装置。 - 前記環境情報は、地図情報、時間情報、交通情報、画像ブロック領域情報の少なくともいずれかの情報を含む請求項7に記載の画像処理装置。
- 前記画像処理装置は、さらに、
フィルタ特性の類似する複数のフィルタを格納したフィルタバンクを複数格納したフィルタバンクプールを有し、
前記ブラー推定部は、
前記カメラ動きベースブラー相当のブラーを発生させるフィルタに類似するフィルタ特性を有するフィルタを格納したフィルタバンクを、前記フィルタバンクプールから選択するフィルタバンク選択部と、
前記フィルタバンク選択部の選択したフィルタバンクに格納されたフィルタを、前記遠赤外画像に適用したフィルタ適用遠赤外画像と、前記可視光画像との相関を算出する相関算出部と、
相関の最も高くなるフィルタを統合フィルタとして決定する統合フィルタ決定部を有する請求項1に記載の画像処理装置。 - 前記ブラー推定部は、
前記遠赤外画像にフィルタを適用したフィルタ適用遠赤外画像と、前記可視光画像との相関値を算出する相関算出部と、
前記遠赤外画像に適用したフィルタと、前記カメラ動きベースブラーとの比較処理を実行するフィルタ比較部と、
前記フィルタ比較部における比較結果に応じて、前記相関算出部の算出した相関値を補正する相関補正部と、
前記相関補正部の補正した補正相関値の最も高くなるフィルタを統合フィルタとして決定する統合フィルタ決定部を有する請求項1に記載の画像処理装置。 - 前記相関補正部は、
前記遠赤外画像に適用したフィルタと、前記カメラ動きベースブラーとが類似度が低いほど、前記相関算出部の算出した相関値を低下させる相関値補正を行う請求項10に記載の画像処理装置。 - 前記画像処理装置は、
前記ブラー推定部における推定結果の信頼度を算出する信頼度算出部を有し、
前記ブラー除去部は、
前記信頼度算出部の算出した信頼度が低い場合は、前記可視光画像に対する逆フィルタの適用強度を弱める処理を行う請求項1に記載の画像処理装置。 - 前記信頼度算出部は、
前記ブラー推定部において推定された前記画像ベースブラー相当のブラーを発生させる画像ベースブラーフィルタ、または前記統合フィルタの信頼度を算出する請求項12に記載の画像処理装置。 - 前記信頼度算出部は、
前記カメラ動きベースブラーと、
前記画像ベースブラーフィルタ、または前記統合フィルタを比較して、類似度が高いほど高い信頼度を算出する請求項13に記載の画像処理装置。 - 前記ブラー除去部は、
前記ブラー推定部の推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを算出する逆フィルタ算出部と、
前記信頼度算出部の算出した信頼度を入力して、前記信頼度が低い場合は、前記逆フィルタの適用強度を弱めた補正逆フィルタを生成する逆フィルタ補正部と、
前記逆フィルタ補正部の生成した補正逆フィルタを、前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成する請求項12に記載の画像処理装置。 - 画像処理装置において実行する画像処理方法であり、
画像入力部が、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力するステップと、
カメラ動き情報入力部が、前記可視光画像を撮影したカメラの動き情報を入力するステップと、
カメラ動きベースブラー推定部が、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定するステップと、
ブラー推定部が、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定するブラー推定ステップと、
ブラー除去部が、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成するブラー除去ステップを実行する画像処理方法。 - 画像処理装置において画像処理を実行させるプログラムであり、
画像入力部に、同一被写体を同時に撮影した可視光画像と遠赤外画像を入力させるステップと、
カメラ動き情報入力部に、前記可視光画像を撮影したカメラの動き情報を入力させるステップと、
カメラ動きベースブラー推定部に、前記カメラの動きに起因する前記可視光画像のブラーであるカメラ動きベースブラーを推定させるステップと、
ブラー推定部に、前記可視光画像と前記遠赤外画像、および前記カメラ動きベースブラーを利用して、前記可視光画像の画像ベースブラーと、カメラ動きベースブラーを統合した統合ブラー相当のブラーを発生させるフィルタである統合フィルタを推定させるブラー推定ステップと、
ブラー除去部に、前記ブラー推定ステップにおいて推定した統合フィルタを入力し、前記統合フィルタと逆特性を持つ逆特性フィルタを前記可視光画像に適用してブラーを除去または低減した補正可視光画像を生成させるブラー除去ステップを実行させるプログラム。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170035A JP7027737B2 (ja) | 2017-09-05 | 2017-09-05 | 画像処理装置、および画像処理方法、並びにプログラム |
EP18770098.4A EP3679545A1 (en) | 2017-09-05 | 2018-08-30 | Image processing device, image processing method, and program |
PCT/JP2018/032077 WO2019049763A1 (en) | 2017-09-05 | 2018-08-30 | IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND PROGRAM |
US16/642,392 US11288777B2 (en) | 2017-09-05 | 2018-08-30 | Image processing device, image processing method, and program |
KR1020207005593A KR20200050959A (ko) | 2017-09-05 | 2018-08-30 | 화상 처리 디바이스, 화상 처리 방법, 및 프로그램 |
CN201880055672.9A CN111052174A (zh) | 2017-09-05 | 2018-08-30 | 图像处理设备、图像处理方法和程序 |
US17/679,026 US20220180483A1 (en) | 2017-09-05 | 2022-02-23 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017170035A JP7027737B2 (ja) | 2017-09-05 | 2017-09-05 | 画像処理装置、および画像処理方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019046277A true JP2019046277A (ja) | 2019-03-22 |
JP7027737B2 JP7027737B2 (ja) | 2022-03-02 |
Family
ID=63592773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017170035A Active JP7027737B2 (ja) | 2017-09-05 | 2017-09-05 | 画像処理装置、および画像処理方法、並びにプログラム |
Country Status (6)
Country | Link |
---|---|
US (2) | US11288777B2 (ja) |
EP (1) | EP3679545A1 (ja) |
JP (1) | JP7027737B2 (ja) |
KR (1) | KR20200050959A (ja) |
CN (1) | CN111052174A (ja) |
WO (1) | WO2019049763A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018200980A (ja) | 2017-05-29 | 2018-12-20 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置および固体撮像素子、並びに電子機器 |
JP6939283B2 (ja) | 2017-09-05 | 2021-09-22 | ソニーグループ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
US11039122B2 (en) * | 2018-09-04 | 2021-06-15 | Google Llc | Dark flash photography with a stereo camera |
US11954866B2 (en) | 2019-08-20 | 2024-04-09 | Sony Interactive Entertainment Inc. | Image processing apparatus using movement estimation, imaging apparatus, system, image processing method, and program |
US11645747B2 (en) * | 2020-02-25 | 2023-05-09 | GE Precision Healthcare LLC | Methods and systems for digital mammography imaging |
WO2022019513A1 (ko) * | 2020-07-24 | 2022-01-27 | 삼성전자 주식회사 | 오토포커스를 보상하는 방법 및 오토포커스를 보상하는 전자 장치 |
US11798139B2 (en) * | 2020-11-17 | 2023-10-24 | GM Global Technology Operations LLC | Noise-adaptive non-blind image deblurring |
JP2022142932A (ja) * | 2021-03-17 | 2022-10-03 | ラピステクノロジー株式会社 | ヘッドアップディスプレイ、映像補正方法及び映像補正プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003209735A (ja) * | 2002-01-15 | 2003-07-25 | Hitachi Ltd | 監視装置及びブレ補正機能付蓄積型カメラ |
CN103544681A (zh) * | 2013-08-27 | 2014-01-29 | 清华大学 | 非均一运动模糊图像的恢复方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3659914B2 (ja) | 2000-10-31 | 2005-06-15 | 松下電器産業株式会社 | 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 |
JP4799428B2 (ja) | 2007-01-22 | 2011-10-26 | 株式会社東芝 | 画像処理装置及び方法 |
JP2009111596A (ja) | 2007-10-29 | 2009-05-21 | Sanyo Electric Co Ltd | 撮像装置 |
KR101574733B1 (ko) | 2008-11-19 | 2015-12-04 | 삼성전자 주식회사 | 고화질 컬러 영상을 획득하기 위한 영상 처리 장치 및 방법 |
US9235876B2 (en) * | 2009-03-02 | 2016-01-12 | Flir Systems, Inc. | Row and column noise reduction in thermal images |
US8229244B2 (en) | 2009-03-30 | 2012-07-24 | Mitsubishi Electric Research Laboratories, Inc. | Multi-image deblurring |
US8803984B2 (en) | 2010-02-10 | 2014-08-12 | Dolby International Ab | Image processing device and method for producing a restored image using a candidate point spread function |
JP2012003233A (ja) * | 2010-05-17 | 2012-01-05 | Sony Corp | 画像処理装置、画像処理方法およびプログラム |
CN102254309B (zh) * | 2011-07-27 | 2016-03-23 | 清华大学 | 一种基于近红外图像的运动模糊图像去模糊方法和装置 |
KR101705605B1 (ko) * | 2011-11-14 | 2017-02-23 | 삼성전자주식회사 | 코드화된 조명을 이용하는 촬상 장치 및 이미지 처리 장치와 그 방법 |
JP2013175003A (ja) | 2012-02-24 | 2013-09-05 | Osaka Prefecture Univ | Psf推定方法とそれを用いた劣化画像の復元方法およびこれらを記録したプログラムとそれを実行するコンピュータ装置 |
US8867856B2 (en) * | 2012-11-12 | 2014-10-21 | Adobe Systems Incorporated | De-noising image content using directional filters for image de-blurring |
CN103049906B (zh) * | 2012-12-07 | 2015-09-30 | 清华大学深圳研究生院 | 一种图像深度提取方法 |
JP5991224B2 (ja) | 2013-02-15 | 2016-09-14 | オムロン株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JPWO2016194177A1 (ja) | 2015-06-03 | 2018-06-14 | オリンパス株式会社 | 画像処理装置、内視鏡装置及び画像処理方法 |
JP6939283B2 (ja) | 2017-09-05 | 2021-09-22 | ソニーグループ株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
-
2017
- 2017-09-05 JP JP2017170035A patent/JP7027737B2/ja active Active
-
2018
- 2018-08-30 KR KR1020207005593A patent/KR20200050959A/ko active IP Right Grant
- 2018-08-30 CN CN201880055672.9A patent/CN111052174A/zh not_active Withdrawn
- 2018-08-30 US US16/642,392 patent/US11288777B2/en active Active
- 2018-08-30 EP EP18770098.4A patent/EP3679545A1/en active Pending
- 2018-08-30 WO PCT/JP2018/032077 patent/WO2019049763A1/en unknown
-
2022
- 2022-02-23 US US17/679,026 patent/US20220180483A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003209735A (ja) * | 2002-01-15 | 2003-07-25 | Hitachi Ltd | 監視装置及びブレ補正機能付蓄積型カメラ |
CN103544681A (zh) * | 2013-08-27 | 2014-01-29 | 清华大学 | 非均一运动模糊图像的恢复方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20200050959A (ko) | 2020-05-12 |
US11288777B2 (en) | 2022-03-29 |
US20200193570A1 (en) | 2020-06-18 |
EP3679545A1 (en) | 2020-07-15 |
JP7027737B2 (ja) | 2022-03-02 |
US20220180483A1 (en) | 2022-06-09 |
WO2019049763A1 (en) | 2019-03-14 |
CN111052174A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7027737B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP6939283B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
KR102613792B1 (ko) | 촬상 장치, 화상 처리 장치 및 화상 처리 방법 | |
WO2019116784A1 (ja) | 情報処理装置、移動体、制御システム、情報処理方法及びプログラム | |
US11978261B2 (en) | Information processing apparatus and information processing method | |
JPWO2019082669A1 (ja) | 情報処理装置、情報処理方法、プログラム、及び、移動体 | |
WO2019044571A1 (ja) | 画像処理装置、および画像処理方法、プログラム、並びに移動体 | |
CN112534487A (zh) | 信息处理设备、移动体、信息处理方法和程序 | |
JP2019045364A (ja) | 情報処理装置、自己位置推定方法、及び、プログラム | |
CN111886854A (zh) | 曝光控制装置、曝光控制方法、程序、成像装置和移动体 | |
US20220319013A1 (en) | Image processing device, image processing method, and program | |
WO2022153896A1 (ja) | 撮像装置、画像処理方法及び画像処理プログラム | |
WO2020036044A1 (ja) | 画像処理装置と画像処理方法およびプログラム | |
WO2020090320A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP7371679B2 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
JP7483627B2 (ja) | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 | |
KR20200119790A (ko) | 인식 장치와 인식 방법 그리고 프로그램 | |
KR20220031561A (ko) | 이상 검출 장치와 이상 검출 방법 및 프로그램과 정보 처리 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220131 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7027737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |