JP2012168936A - 動画処理装置及び動画処理方法 - Google Patents
動画処理装置及び動画処理方法 Download PDFInfo
- Publication number
- JP2012168936A JP2012168936A JP2012012013A JP2012012013A JP2012168936A JP 2012168936 A JP2012168936 A JP 2012168936A JP 2012012013 A JP2012012013 A JP 2012012013A JP 2012012013 A JP2012012013 A JP 2012012013A JP 2012168936 A JP2012168936 A JP 2012168936A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- subframe
- image processing
- change
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】大気モデルに基づいて霧の天候のビデオを明瞭化させ、画面の視程を拡大し、かつ、画像のリアルタイム処理の要求を充分に満たす動画処理装置及び動画処理方法を提供する。
【解決手段】本発明の動画処理装置は、ビデオの霧除去過程において、ビデオを、メーンフレームとなるキーフレームと、サブフレームとなるノーマルフレームとに区分する。キーフレームに対し、距離パラメータとなるt(X)と天空点パラメータAとを改めて算出し、ノーマルフレームに対し、Aを算出せずキーフレームのAを利用する。ノーマルフレームの背景部分に対し、キーフレームに対応する領域のt(X)を利用し、ノーマルフレームの前景部分に対し、t(X)を改めて算出する。
【選択図】図2
【解決手段】本発明の動画処理装置は、ビデオの霧除去過程において、ビデオを、メーンフレームとなるキーフレームと、サブフレームとなるノーマルフレームとに区分する。キーフレームに対し、距離パラメータとなるt(X)と天空点パラメータAとを改めて算出し、ノーマルフレームに対し、Aを算出せずキーフレームのAを利用する。ノーマルフレームの背景部分に対し、キーフレームに対応する領域のt(X)を利用し、ノーマルフレームの前景部分に対し、t(X)を改めて算出する。
【選択図】図2
Description
本発明は、霧、砂塵などの天候下で撮像した動画(以下、「霧の天候のビデオ」という)を明瞭化させる動画処理装置及び動画処理方法に関する。
屋外のビデオ監視の品質は、常に濃霧、砂嵐などの悪天候から影響を受け、視程が非常に制限されるため、ビデオの詳細や遠隔監視シーン情報が失われてしまう。かつ、屋外では、監視が適用されるシーンが多く、天候の変化が複雑であり、霧や砂塵の天候が常に発生し、特に、市内の道路や高速道路の環境において、その発生はより頻繁でひどくなる。従って、霧や砂塵の天候下で、ビデオの明瞭度を向上することは、ビデオ監視の分野における切実なニーズとなっている。従来のビデオ撮像装置製品は、ビデオを明瞭化させるための機能である霧除去機能を持っているが、従来の技術では、通常、簡単な画像増強処理技術、例えば画像ヒストグラムの拡張などを用いているので、効果が不充分である。
2002年、NARASIMAHANらは、「Vision and the Atmosphere」という論文において、はじめて大気モデルに基づく霧除去明瞭化方法を提案した。しかし、NARASIMAHANらにより提案されている大気モデルに基づく霧除去明瞭化方法は、その効果が理想的ではない。かつ、当該霧除去明瞭化方法においては、二つの異なる天候シーン下での画像を入力して現在シーンの関係情報を取得することが、霧除去明瞭化処理を達成する前提条件となっている。
2008〜2009年、Fattal, Kaiming Heらは、大気モデルに基づく新規の霧除去明瞭化方法を提案した。この方法では、複数の画像を入力する必要がなく、現在の画像情報を利用するだけでも霧除去明瞭化処理を達成することができ、かつ、霧除去明瞭化の効果は、従来の簡単な画像増強処理技術等を用いた霧除去明瞭化方法より大きい。これら新規の霧除去明瞭化方法は、何れも大気モデルに基づいたものである。いわゆる「大気モデル」とは、大気中に浮遊粒子がある場合に、撮像機で画像を撮像し又は肉眼で物体を観察する光学原理をいう。
大気モデルは、下記式(1)で示される。
I(X)=J(X)t(X)+A(1−t(X)) (1)
式(1)は、画像のRGBの三つの色チャネルに作用する。
式(1)中、I(X)は撮像装置で撮像した霧付き画像、又は肉眼で観察した霧付き画像を示し、入力画像である。X=(x,y)は画像画素の座標を示す。
J(X)は、物体からの反射光であり、霧のない画像を示し、霧除去処理の結果得られる画像である。
I(X)=J(X)t(X)+A(1−t(X)) (1)
式(1)は、画像のRGBの三つの色チャネルに作用する。
式(1)中、I(X)は撮像装置で撮像した霧付き画像、又は肉眼で観察した霧付き画像を示し、入力画像である。X=(x,y)は画像画素の座標を示す。
J(X)は、物体からの反射光であり、霧のない画像を示し、霧除去処理の結果得られる画像である。
Aは、天空の点のパラメータを示し、天空中の何れか1点(以下、「天空点」という)の画像RGB値のベクトルデータである。現在入力画像に天空がない場合に、画像における霧の濃度が最も大きい点を天空点とみなし、一つの画像における全ての画素は、一つの天空点のパラメータを共用する。I(X)及びJ(X)は、Aと同様に、何れも画像RGB値のベクトルデータである。
t(X)は、空気媒体の伝達関数である。当該伝達関数は、空中の浮遊粒子により散乱された後においても残存して撮像装置に到達する、物体からの反射光を記述する。すなわち、当該伝達関数t(X)は、物体からの反射光が大気によりどの程度減衰された後に撮像装置又は肉眼に到達できるかを示す0超1未満のスカラデータであり、画像における画素ごとに一つの値を有する。
以下、図9を参照しながら上記式(1)を説明する。
図9は、大気モデルの式の概念図である。図9の左側の画像は、肉眼又は撮像装置で観察した画像I(X)である。当該画像I(X)は、物体からの反射光が空中の浮遊粒子により散乱された後においても残存する部分J(X)t(X)と、太陽光が空中の浮遊粒子により散乱された結果である大気環境光A(1−t(X))との二つの部分からなる。
そのうち、式(1)における、空気媒体の伝達関数であるt(X)は、被写体(物体)と撮像装置(肉眼)との距離を示す関数であり、具体的には下記式(2)で示される。
t(X)=e−βd(X) (2)
図9は、大気モデルの式の概念図である。図9の左側の画像は、肉眼又は撮像装置で観察した画像I(X)である。当該画像I(X)は、物体からの反射光が空中の浮遊粒子により散乱された後においても残存する部分J(X)t(X)と、太陽光が空中の浮遊粒子により散乱された結果である大気環境光A(1−t(X))との二つの部分からなる。
そのうち、式(1)における、空気媒体の伝達関数であるt(X)は、被写体(物体)と撮像装置(肉眼)との距離を示す関数であり、具体的には下記式(2)で示される。
t(X)=e−βd(X) (2)
そのうち、d(X)は、画像における一つの物体点Xと撮像装置との距離を示すため、t(X)を「距離パラメータ」とも称する。βは、大気散乱係数を示す定数である。式(1)及び式(2)から分かるように、物体からの反射光が撮像装置に到達する強さJ(X)t(X)は、物体と撮像装置との距離d(X)と反比例し、距離が遠いほど光線の減衰がひどくなる。大気環境光が撮像装置に到達する強さA(1−t(X))は、距離d(X)と正比例し、距離が遠いほど光線が強くなるので、無限遠のところが白色をなす。
次に、図10を参照しながら大気モデルに基づく霧除去明瞭化方法を説明する。図10に示すように、図10(A)は入力画像I(X)であり、図10(B)は霧除去明瞭化処理を行った出力画像J(X)であり、図10(C)は算出した天空点パラメータAであり、図10(D)は算出したt(X)である。図10によれば、大気モデルに基づく霧除去アルゴリズムは、単独の霧付き画像である入力画像I(X)を得た場合に、t(X)と天空点パラメータAを求めた後、式(1)により霧除去した結果画像J(X)を得る。かつ、従来のシングルフレーム霧除去明瞭化方法では、どのようにしてt(X)とAを求めるかに応じて、異なるアルゴリズムが挙げられる。そして、これらのアルゴリズムは、現在、良好な霧除去効果を奏することができ、簡単な画像増強に基づく霧除去アルゴリズムよりもはるかに良好な効果を奏する。以下、表1では、t(X)とAを求める方法が三つ挙げられる。
これらの方法は、従来の簡単な画像増強による霧除去明瞭化の処理方法に比べ、より良好な霧除去効果を奏する。しかし、これらの方法は、アルゴリズムの速度が非常に遅く、リアルタイム性が悪いという欠点がある。ビデオ監視の分野において、霧除去は、ビデオの前処理に属する。そこで、霧除去明瞭化処理は、ビデオ圧縮又はビデオ内容の解析に比べ、できるだけ短い時間内で最も少ないシステム負担で完成する必要がある。表2では、従来のアルゴリズムに基づく霧除去明瞭化の処理時間が幾つか挙げられる。
実際のビデオ監視又はビデオ圧縮の分野は、常にマルチフレームの場合を対象にしている。従来の技術では、主に、シングルフレームの場合に霧除去明瞭化の効果をどのように高めるかを研究するに留まり、シングルフレーム霧除去アルゴリズムを、マルチフレームビデオの場合に応用することをさらに研究することはない。表2の1行目から分かるように、シングルフレーム600×400の画像に対し、少なくとも10秒を必要とするため、従来の技術のシングルフレームに対する霧除去明瞭化方法をビデオなどの動画に直接応用すれば、リアルタイム性に悪影響を及ぼす。
また、特許文献1には、ヒストグラム均等化補正過剰復元に基づく霧の天候のビデオ明瞭化方法が開示されている。具体的には、ヒストグラム均等化による霧除去明瞭化方法をビデオに対し応用することについて、ビデオの前後フレームにヒストグラム均等化のマッピングテーブルを再利用して処理速度を高める加速方法が提案されている。
しかし、当該特許文献1におけるシングルフレーム霧除去アルゴリズムは、簡単なヒストグラム均等化画像増強方法であり、この方法は、霧除去の環境に対して設計されたものではなく、その効果は理想的ではない。
そこで、本発明は、大気モデルに基づいて霧の天候のビデオを明瞭化させ、画面の視程を拡大し、かつ、画像のリアルタイム処理の要求を充分に満たす動画処理装置及び動画処理方法を提供することを目的とする。
特許文献1の発明と本発明とは、以下の点で相違する。即ち、
(1)特許文献1の発明のシングルフレーム霧除去アルゴリズムは、簡単なヒストグラム均等化画像増強方法であり、この方法は、霧除去の環境に対して設計されたものではなく、その効果は特に理想的というほどではない。本発明のシングルフレーム霧除去アルゴリズムは、大気モデルに基づく最新の霧除去明瞭化処理専用アルゴリズムであり、この方法は、霧除去の環境に対して設計されたものであり、従来の画像増強アルゴリズムよりも効果が良好である。
(2)特許文献1の発明では、マルチフレーム間にヒストグラム均等化のマッピングテーブルを再利用している。本発明では、マルチフレーム間に、現在の被写界深度及び大気環境の不変かつグローバルな物理特徴に基づいて、不変なt(X)部分を再利用し、よりよい霧除去効果を有する。
(1)特許文献1の発明のシングルフレーム霧除去アルゴリズムは、簡単なヒストグラム均等化画像増強方法であり、この方法は、霧除去の環境に対して設計されたものではなく、その効果は特に理想的というほどではない。本発明のシングルフレーム霧除去アルゴリズムは、大気モデルに基づく最新の霧除去明瞭化処理専用アルゴリズムであり、この方法は、霧除去の環境に対して設計されたものであり、従来の画像増強アルゴリズムよりも効果が良好である。
(2)特許文献1の発明では、マルチフレーム間にヒストグラム均等化のマッピングテーブルを再利用している。本発明では、マルチフレーム間に、現在の被写界深度及び大気環境の不変かつグローバルな物理特徴に基づいて、不変なt(X)部分を再利用し、よりよい霧除去効果を有する。
本発明の発明者は、従来の各種のシングルフレーム霧除去アルゴリズムを、効果的かつ速やかにマルチフレームビデオ監視又は一般のビデオ処理の分野に適用することに着目した。本発明の発明者らは、t(X)の物理意義から解析したように、t(X)が現在の被写界深度及び大気環境のみに関連すること、そして、t(X)は、前後フレーム間で画像のほとんどの領域において大きな変化を生じず、画像における物体の動きを有する前景部分のみにおいて変化を生じることに着目した。それは、物体の動きが、物体から撮像装置までの直線的な距離の変化をもたらす可能性があるためである。天空点パラメータAは、画像における天空点又は霧の最濃点のRGB値を示し、当該パラメータも同様に前後フレーム間で変化を生じない。
即ち、式(1)におけるキーとなるパラメータt(X)及びAは、現在の被写界深度及び大気環境に関連し、画像全体としては、これらのパラメータは局部のみに遅く更新している。そこで、本発明では、このt(X)及びAの特性を利用して、大気モデルに基づくビデオ霧除去明瞭化方法において、前後フレーム間でt(X)及びAという部分を再利用(新たに算出することなく既に算出されたものをそのまま流用)している。画像の背景については、前後フレーム間で変化を生じない部分にt(X)を再利用し、画像の前景については、前後フレーム間で変化を生じない部分においてt(X)を改めて算出する。背景部分と前景部分は、同時に天空点パラメータAを再利用する。
上述の目的に達するために、本発明に係る動画処理装置は、入力した動画から、出力する動画を生成する動画処理装置であって、外部又は内蔵の撮像装置により被写体を撮像して作成される動画を入力する入力手段と、当該入力した動画に対し画像処理を行う処理手段と、画像処理を行った動画を出力する出力手段と、を備え、前記処理手段は、前記入力した動画における複数のフレームを解析し、各フレームにシーンの変更があるか否かを判定し、シーンの変更があるフレームをメーンフレーム、シーンの変更がないフレームをサブフレームとし、前記サブフレームとその前のメーンフレームとを比較し、前記サブフレームを、変化のある前景部分と変化のない背景部分とに区分し、前記メーンフレームに対し、当該メーンフレーム中の前記撮像装置と被写体との距離に関する距離パラメータに基づいて画像処理を行い、前記サブフレームの背景部分に対し、前記サブフレームの前のメーンフレームの前記距離パラメータに基づいて画像処理を行い、前記サブフレームの前景部分に対し、当該サブフレーム中の変化に基づいて算出された距離パラメータに基づいて画像処理を行うことを特徴とする。
本発明に係る動画処理装置及び動画処理方法は、霧除去環境に対して設計されたものであり、従来の画像増強アルゴリズムよりも効果が良好である。かつ、マルチフレーム間で現在の被写界深度、大気環境の不変かつグローバルな物理特徴に基づいて、不変なt(X)部分を再利用し、よりよい霧除去効果を奏する。よって、本発明は、従来の大気モデルに基づくシングルフレーム画像霧除去明瞭化方法をビデオに応用すると速度が遅くなるとの問題を克服する。さらに、それだけでなく、本発明は、画面の視程を拡大するとともに、画像のリアルタイム処理の要求を満たすことができるため、特にビデオ監視の分野に適用され、当然ながら、一般のビデオ処理にも同様に適用される。
以下、図1を参照しながら本発明に係る動画処理装置を説明する。図1は本発明に係る動画処理装置を有するシステムの構造を示す構成図である。図1に示すように、本発明に係る動画処理装置は、入力手段100、処理手段200、出力手段300、及び共用メモリ90を含む。入力手段100は、外部又は内蔵の撮像装置(図示せず)により被写体を撮像して作成されるビデオなどの動画を入力する。処理手段200は、入力手段100から入力されたビデオに対し画像処理を行う。出力手段300は、例えばディスプレイであり、処理手段200により処理されたビデオを表示する。共用メモリ90は、各種のデータを記憶する。
処理手段200は、フレーム分離手段10、キーフレームパラメータ算出手段20、キーフレームパラメータ記憶手段30、ノーマルフレームパラメータ再利用手段40、画像霧除去手段50、及びグローバル制御手段60を含む。
フレーム分離手段10は、入力手段100から入力されたビデオの各フレームを解析し、各フレームにシーンの変更があるか否かを判定し、シーンの変更があるフレームをメーンフレームとし、シーンの変更がないフレームをサブフレームとする。
フレーム分離手段10は、入力手段100から入力されたビデオの各フレームを解析し、各フレームにシーンの変更があるか否かを判定し、シーンの変更があるフレームをメーンフレームとし、シーンの変更がないフレームをサブフレームとする。
なお、「メーンフレーム」はキーフレームパラメータ算出手段20の処理対象となる。「サブフレーム」はノーマルフレームパラメータ再利用手段40の処理対象となる。その意味で、本明細書は、「メーンフレーム」は「キーフレーム」と同義であり、「サブフレーム」は、「ノーマルフレーム」と同義であるものとして説明を行っている。
キーフレームパラメータ算出手段20は、入力したキーフレームについて当該キーフレームの各種のパラメータを算出する。これらのパラメータは、距離パラメータとなる伝達関数t(X)と天空点パラメータAとを含み、シングルフレームの大気モデルに基づく霧除去アルゴリズムに関する従来の技術により算出されればよい。
キーフレームパラメータ記憶手段30は、キーフレームパラメータ算出手段20により算出されたキーフレームの各種のパラメータを記憶する。
キーフレームパラメータ記憶手段30は、キーフレームパラメータ算出手段20により算出されたキーフレームの各種のパラメータを記憶する。
ノーマルフレームパラメータ再利用手段40は、ノーマルフレームを、変化のある前景部分と変化のない背景部分とに区分し、かつ、ノーマルフレームの前景部分のパラメータと背景部分のパラメータをそれぞれ確定する。例を挙げると、ノーマルフレームにおける変化のある前景部分について、ノーマルフレームパラメータ再利用手段40は、伝達関数t(X)及び天空点パラメータAを新たに算出する。一方、ノーマルフレームパラメータ再利用手段40は、ノーマルフレームにおける変化のない背景部分について、伝達関数t(X)及び天空点パラメータAを新たに算出することはない。その代わり、キーフレームパラメータ記憶手段30に記憶されているキーフレーム(通常、当該ノーマルフレームの直前のキーフレームである)の伝達関数t(X)及び天空点パラメータAを、それぞれ、当該ノーマルフレームの伝達関数t(X)及び天空点パラメータAに流用する。
画像霧除去手段50は、キーフレームパラメータ算出手段20により算出された各パラメータを用いて、キーフレームに対し霧除去明瞭化などの画像処理を行うとともに、ノーマルフレームパラメータ再利用手段40により得られた各パラメータを用いて、ノーマルフレームに対し霧除去明瞭化などの画像処理を行う。これら霧除去明瞭化などの画像処理は、従来の技術を用いればよい。
グローバル制御手段60は、処理手段200の各構成手段又はモジュールに対しグローバル制御を行う。
グローバル制御手段60は、処理手段200の各構成手段又はモジュールに対しグローバル制御を行う。
以上、本発明に係る動画処理装置の一例を説明したが、当然ながら、本発明はこれに限られず、本発明の主旨の範囲内で、各種の変更を行うことができる。例えば、図1の処理手段200は、複数の手段からなるが、当然ながら、複数の手段を一体化して一つのモジュールとして実現されてもよい。
以下、図2及び図3を参照しながら本発明の実施例1を説明する。図2はフローチャートであり、図3はビデオ中の各フレームをキーフレームとノーマルフレームに区分した概略図である。本発明に係る動画処理装置が大気モデルに基づきビデオの霧除去明瞭化を行うフローでは、図2に示されるように、まず、入力手段100により、外部又は内蔵の撮像装置から当該撮像装置により被写体を撮像して作成されるビデオが入力される。以下、当該ビデオを入力画像I(X)と称する(ステップS0)。
次に、フレーム分離手段10は、入力したビデオ中の現在フレームにシーンの変換があるか否かを判定する(ステップS1)。当該シーンの変換があるか否かを判定する方法は、従来のアルゴリズムにより実現することができる。ステップS1では、フレーム分離手段10は、シーンの変換がある場合は、現在フレームがキーフレームであると判定し、その後ステップS2を実行する。フレーム分離手段10は、シーンの変換がない場合は、現在フレームがノーマルフレームであると判定し、その後ステップS3を実行する。
以下、図3を参照しながら図2中のステップS1をさらに詳しく説明する。図3に示すように、ビデオは、フレーム1、2、……、N+2を含み、そのうち、太い実線で示されるフレーム1及びフレームNはキーフレームであり、その他のフレームはノーマルフレームである。キーフレームとノーマルフレームに対しては、異なる霧除去アルゴリズムが用いられる。キーフレームとノーマルフレームの区分は、下記2種の方式を用いて行うことができる。
第1の方式は、ビデオにおいて固定の間隔でキーフレームを選択し、例えば、300フレーム毎に1フレームをキーフレームとして選択し、その他のフレームはノーマルフレームとする。第2の方式は、ビデオにおいてシーンの切替えが発生すると、現在フレームをキーフレームとして選択し、シーンの切替えが発生しないフレームは、ノーマルフレームとする。いわゆる「シーンの切替え」とは、現在のシーンが変化する、すなわち、環境としての背景が変化することをいう。シーンの切替えに対する検出については、現在、成熟した技術及び方法が多くある。
次に、図2に戻る。ステップS2では、キーフレームパラメータ算出手段20は、従来のシングルフレームの大気モデルに基づく霧除去アルゴリズムを用いて、当該キーフレームの伝達関数t(X)及び天空点パラメータAを算出する。次に、式(1)に基づき、キーフレームに対し霧除去明瞭化処理を行って画像J(X)を得る(ステップS7)。最後に、出力手段300は、処理された画像J(X)を出力する(ステップS8)。
ステップS3では、ノーマルフレームパラメータ再利用手段40は、ノーマルフレームを、変化のない背景部分(つまり静止部分)と変化のある前景部分(つまり動き領域)との二つの部分に分割する。背景部分と前景部分の分割は、従来の動き検出技術により実現される。比較的簡単な方法は、前後フレームの減算により現在フレームの動き変化部分を見つけることである。
ノーマルフレームパラメータ再利用手段40は、ノーマルフレームの背景部分に対し、ステップS4を実行し、背景部分を処理し、その直前のキーフレームに対応する領域のt(X)を当該背景部分の伝達関数として再利用する。ここでの背景部分の伝達関数を、t1(X)と記する。また、ノーマルフレームパラメータ再利用手段40は、ノーマルフレームの前景部分に対し、ステップS5を実行し、当該前景部分の伝達関数t(X)を改めて算出する。ここでの前景部分の伝達関数を、t2(X)と記し、算出方法は、同様に従来のシングルフレームの大気モデルに基づく霧除去アルゴリズムを用いる。
ステップS4、ステップS5を実行した後、ステップS6を実行し、ステップS4で得られた背景部分の伝達関数t1(X)とステップS5で得られた前景部分の伝達関数t2(X)に基づいて、現在ノーマルフレーム全体についての伝達関数t(X)を取得する。そして、キーフレームの天空点パラメータを、当該ノーマルフレームの天空点パラメータAとして用いる。次に、大気モデル式(1)に基づき、当該ノーマルフレームに対し霧除去明瞭化処理を行って画像J(X)を取得する(ステップS7)。最後に、出力手段300は、処理された画像J(X)を出力する(ステップS8)。
次に、表3に基づき、図1に示す本発明に係る動画処理装置の処理速度を説明する。
次に、表3に基づき、図1に示す本発明に係る動画処理装置の処理速度を説明する。
表3に記載のデータは推定データである。「従来の技術」の行において、《Single image haze remove using dark channel prior》という論文の方法を用いると仮定し、600×400のシングル画像に対する処理時間は10秒である。
「本発明」の行において、ビデオ監視領域のシーンの切替えが発生する頻度が高くないので、ここで、10秒毎に1回のシーン切替えが発生すると仮定する。さらに、ビデオの採集レートが30フレーム/秒であると仮定する。これらの仮定によれば、この300フレームには1個のキーフレームと299個のノーマルフレームがあることになる(実際の監視シーンの切替え間隔は10秒より大きく、キーフレームが現れる回数はそれより少ない)。フレーム毎にシングルフレームの大気モデルに基づく霧除去アルゴリズムを用いると、フレーム毎に10秒を要する。即ち、本発明においては、キーフレームの処理時間が10秒であること、ノーマルフレームは、ビデオ監視における一部の領域が静止しており、多くの場合に動き物体がないことを考慮している。したがって、各ノーマルフレームにおいて、画像面積に対して動き物体の面積が占める平均割合が5%であると仮定すれば、ノーマルフレームの処理時間が10×5%=0.5秒となり、300フレームに対する平均処理時間は(1×10+299×0.5)/300=0.53秒である。実際のビデオ監視の場合に、シーンの切替え回数の平均と画像面積に対して動き物体の面積が占める平均割合は比較的に小さいことを考慮したので、本発明の速度向上の優位は一層向上する。
表3に示すように、本発明に係る動画処理装置は、シングルフレームの大気モデルに基づく霧除去明瞭化方法がビデオに応用される処理速度を向上させる。次に、図4を参照しながら、図1に示す本発明に係る動画処理装置の画像処理品質を説明する。
図4は、図1に示す本発明に係る動画処理装置の処理中の各画像である。そのうち、図4(a)はキーフレームであって、霧付きの最初画像つまり入力画像I(X)である。図4(b)はノーマルフレームであり、キーフレームから数えて8個目のフレームであると仮定する。また、当該ノーマルフレーム内の下方の黒色の四角枠領域内の部分は、当該ノーマルフレームが図4(a)に示すキーフレームに対して変化した前景部分である。そして、当該四角枠以外のその他の領域は、変化のない背景部分である。図4(c)は、図4(b)に示す当該ノーマルフレームに対し、従来のシングルフレームの霧除去アルゴリズムを用いて得られた結果画像である。図4(d)は、図1に示す本発明に係る動画処理装置を用いて、図2に示すフローにより得られた結果画像である。
従来の技術により処理された図4(c)と本発明により処理された図4(d)とを対比すると、視覚的に効果が類似している。かつ、図4(c)と図4(d)のPSNR(ピーク信号対雑音比peak signal-to-noise ratio)パラメータを算出することにより、PSNR=31.365が得られる。PSNRパラメータは、通常、画像処理又はビデオ圧縮の領域において最初画像と処理された画像との相違を示す。ビデオ圧縮の領域において、PSNRの値が30〜50の範囲内にあると、ビデオの品質が比較的良好である。即ち、霧除去の品質の面で、本発明に係る動画処理装置は、シングルフレームの霧除去アルゴリズムに対して低下しないことは明らかである。
上述のように、本発明の実施例1に係る動画処理装置は、画面の視程を向上するだけでなく、画像のリアルタイム処理の要求を充分に満たすことができる。
上述のように、本発明の実施例1に係る動画処理装置は、画面の視程を向上するだけでなく、画像のリアルタイム処理の要求を充分に満たすことができる。
以下、図5及び図6を参照しながら本発明の実施例を説明する。図5(a)はキーフレームの被写界深度図であり、図5(b)は、ノーマルフレームの被写界深度図であり、図6は本発明の実施例2のフローチャートである。
当該実施例2は、実施例1を改善したものであり、実施例1に比してノーマルフレームの前景部分の処理に相違がある。実施例1においては、ノーマルフレームの前景部分に対し当該部分のt(X)を改めて算出している。一方、実施例2においては、ノーマルフレームの前景部分に対し、所定の条件(詳細後記)を満たす場合はt(X)を改めて算出し、満たしていない場合は、キーフレームにおける同一の対応領域のt(X)を再利用するという、背景部分についてと同一の処理を行う。
上記のような所定の条件とは、具体的には、物体の動きが当該物体の画像における被写界深度(つまり物体から撮像装置までの距離)の変化を引き起しているか否かということである。ある物体が、撮像装置から遠い領域を起点とし、撮像装置から近い領域を終点として移動すると、当該物体の動きが物体の画像における被写界深度の変化を引き起こす。この場合、この部分の領域に対しt(X)を改めて算出する。当該物体の動きが物体の画像における被写界深度の変化を引き起こしていない場合は、この部分の領域に対し、キーフレームにおける対応領域のt(X)を再利用する。その原理は、上述の式(2)に基づくものである。
上述の式(2)において、伝達関数t(X)は、被写界深度d(X)と大気散乱係数βとの関数であり、画像における画素は異なるd(X)を有し、大気散乱係数βは、大気環境に関する定数である。霧除去過程において求めたt(X)により、現在シーンの相対的深度情報−βd(x)が得られ、画像における物体から撮像装置又は肉眼までの具体的な距離の値が分からなくても、相対的深度情報−βd(x)が得られる。霧除去明瞭化処理は、画像の明瞭度を増強することに加え、画像の相対的被写界深度を得ることもできる。従って、キーフレームの霧除去により得られた現在シーンの相対的被写界深度に基づいて、現在ノーマルフレームの物体の動きによる深度の変化があるか否かを判定して、対応の処理を行う。
図5(a)において、左側から数えて第1の図面は、キーフレームの最初の霧付きの図面であり、第2の図面は、キーフレームの霧除去過程において得られた伝達関数t(X)であり、第3の図面は、t(X)と式(2)により得られた相対的被写界深度図となる−βd(x)である。第4の図面は、第3の図面の画素値を5つの領域130、131、132、133、134に分割して得られたシーンの相対的被写界深度分割図である(「被写界深度図」と略称する)。第4の図面では、この5つの領域の輝度は、浅い奥行から深い奥行まで変化し、距離が遠くから近くまで変化することを示す。本発明の実施例2では、ノーマルフレームに対し画像処理を行うとき、キーフレームに基づいてシーンの相対的被写界深度図が得られる。
図5(b)において、左側の第1の図面は、ノーマルフレームであり、四角枠140は当該ノーマルフレームにおける前景部分の動き物体を示す。図5(b)の右側の第2の図面には、四角枠140に対応する位置(白色領域)が表記されている。四角枠140が、同一の被写界深度領域133内を移動する場合、つまり、黒色矢印の方向に移動する場合、深度の変化は生じない。このとき、四角枠140に示す前景部分の伝達関数t(X)を改めて算出せず、それを背景部分とみなす処理が行われる。四角枠104が、白色矢印の方向に移動する場合、つまり被写界深度図の領域133から領域134まで移動する場合、深度の変化が生じる。このとき、依然として四角枠140に示す部分を前景部分とし、伝達関数t(X)を改めて算出する処理が行われる。
図6は、本発明の実施例2のフローチャートである。図2のフローチャートに比べた相違点は、図2のステップS2の代わりにステップS2−1を用いることと、図2のステップS5の代わりにステップS5−1〜ステップS5−3を用いることとの二つである。したがって、その他の同一のステップの説明を省略し、ステップS2−1、ステップS5−1〜ステップS5−3のみを説明する。
図6に示すように、ステップS2−1において、図2のステップS2のように全図のt(X)と天空点パラメータAを算出するのに加え、現在シーンの被写界深度図を算出する。
ステップS5−1において、ノーマルフレームパラメータ再利用手段40は、ノーマルフレームの前景部分の動きによる深度の変化があるか否かを判定する。変化があると判定する場合は(ステップS5−1において「YES」)、次にステップS5−2を実行し、ノーマルフレームにおける深度の変化が生じた前景部分のt(X)を改めて算出してt2(X)を取得する。変化がないと判定する場合は(ステップS5−1において「NO」)、次にステップS5−3を実行し、ノーマルフレームにおける深度の変化が生じない前景部分に対し、キーフレームの伝達関数t(X)を再利用してt2(X)を取得する。
ステップS5−1において、ノーマルフレームパラメータ再利用手段40は、ノーマルフレームの前景部分の動きによる深度の変化があるか否かを判定する。変化があると判定する場合は(ステップS5−1において「YES」)、次にステップS5−2を実行し、ノーマルフレームにおける深度の変化が生じた前景部分のt(X)を改めて算出してt2(X)を取得する。変化がないと判定する場合は(ステップS5−1において「NO」)、次にステップS5−3を実行し、ノーマルフレームにおける深度の変化が生じない前景部分に対し、キーフレームの伝達関数t(X)を再利用してt2(X)を取得する。
本発明の実施例1に比べ、実施例2によれば、処理速度を一層向上できる。しかしながら、図1に示す動画処理装置において、追加的なメモリを増加することにより現在シーンの被写界深度図情報を記憶する必要がある。かつ、被写界深度に対し分割処理を行い、前景部分の動きが被写界深度図において異なる領域を跨ることを、ノーマルフレームのt(X)を改めて算出するか否かの基準とする必要があるので、ノーマルフレームでは、最終的に得られたt(X)は、精度が僅かに低下している。
以下、図7及び図8を参照しながら本発明の実施例3を説明する。図7(a)及び図7(b)は、ノーマルフレームの前景部分の前景動き領域を示す図であり、図8は本発明の実施例3のフローチャートである。実際の応用では、ビデオの霧除去は前処理過程としてのみ行われ、霧除去後、ビデオ圧縮、ネットワーク伝送などの、より重要なシステムタスクを常に伴う。このようなマルチタスクのシステムでは、部分毎に経過することを許される算出時間は制限される。従って、ノーマルフレームにおける、その都度t(X)を改めて算出する領域も制限される。マルチタスクシステムにおいて、ノーマルフレームに割り当てる霧除去明瞭化処理のアルゴリズムの時間は、T(budget)パラメータであり、当該パラメータによって最大の更新可能なt(X)の画素面積(つまり最大更新面積)が得られる。即ち、当該最大更新面積が、パラメータMax_Update_Sizeである(0≦Max_Update_Size≦Image Size)。ノーマルフレームにおける前景動き領域の全面積がMax_Update_Sizeより大きい場合は、動き領域内の、面積が大きい幾つかの領域のみを、大きい順に選択する。そして、Max_Update_Sizeの制限を満たすような選択された領域のみに対しt(X)を改めて算出し更新する。面積の小さい動き領域に対しては、t(X)を改めて算出せず、キーフレームの対応部分のt(X)を再利用する。
図7(a)に示すように、当該ノーマルフレームの前景部分には、白色四角枠で示される二つの大きい動き領域がある。Max_Update_Sizeの要求を満たすために、図7(b)に示すように二つの動き領域のうち面積の大きい左側の領域の伝達関数t(X)のみを改めて算出し、右側の面積の小さい動き領域は背景部分とみなして処理され、キーフレームの対応部分の伝達関数t(X)を再利用する。また、極端な例ではあるがよくある場合においては、Max_Update_Size=0であり、このように、霧除去明瞭化処理において、キーフレームに対しt(X)と天空点パラメータAを一回のみ算出し、その他の全てのノーマルフレームについては、キーフレームのt(X)とAを再利用する。
図8に示すように、当該実施例3のフローチャートは、実施例1のフローチャート(図2)に比べ、ステップS5の代わりにステップS5−4、S5−5、S5−6を用いるという一点だけが相違する。したがって、その他の同一のステップの説明を省略し、ステップS5−4〜ステップS5−6のみを説明する。
ステップS5−4において、前景部分における異なる動き領域の面積の大きさに応じ、選択された領域の和がパラメータMax_Update_Size以上になるまで、異なる領域を大きい順に選択する。次に、ステップS5−5を実行し、ステップS5−4において選択されたこれら面積の大きい領域の伝達関数t(X)を改めて算出し、これら領域に対応するt2(X)を得る。次に、ステップS5−6を実行し、ステップS5−4において選択されていない面積の小さい領域に対し、キーフレームの伝達関数t(X)を再利用し、これら領域に対応するt2(X)を得る。
本実施例3は、ノーマルフレームの前景部分における各々の部分の処理時間を制御でき、高い実用価値を有する。
本実施例3は、ノーマルフレームの前景部分における各々の部分の処理時間を制御でき、高い実用価値を有する。
本発明に係る動画処理装置及び動画処理方法は、特に、ビデオ監視分野に適用され、また、画像、ビデオに関する何れの装置、例えば一般の撮像装置、デコーダ、カメラなどに適用されてもよい。
10 フレーム分離手段
20 キーフレームパラメータ算出手段
30 キーフレームパラメータ記憶手段
40 ノーマルフレームパラメータ再利用手段
50 画像霧除去手段
60 グローバル制御手段
90 共用メモリ
100 入力手段
200 処理手段
20 キーフレームパラメータ算出手段
30 キーフレームパラメータ記憶手段
40 ノーマルフレームパラメータ再利用手段
50 画像霧除去手段
60 グローバル制御手段
90 共用メモリ
100 入力手段
200 処理手段
Claims (8)
- 入力した動画に対し画像処理を行って出力する動画処理装置であって、
外部又は内蔵の撮像装置により被写体を撮像して作成される動画を入力する入力手段と、
前記入力した動画に対し画像処理を行う処理手段と、
前記画像処理を行った動画を出力する出力手段と、
を備え、
前記処理手段は、
前記入力した動画における複数のフレームを解析し、各フレームにシーンの変更があるか否かを判定し、シーンの変更があるフレームをメーンフレーム、シーンの変更がないフレームをサブフレームとし、
前記サブフレームとその前のメーンフレームとを比較し、前記サブフレームを、変化のある前景部分と変化のない背景部分とに区分し、
前記メーンフレームに対し、当該メーンフレーム中の前記撮像装置と前記被写体との距離に関する距離パラメータに基づいて画像処理を行い、
前記サブフレームの背景部分に対し、当該サブフレームの前のメーンフレームの前記距離パラメータに基づいて画像処理を行い、前記サブフレームの前景部分に対し、当該サブフレーム中の変化に基づいて算出された距離パラメータに基づいて画像処理を行うこと、
を特徴とする動画処理装置。 - 前記処理手段は、
前記サブフレームの前景部分における変化のある部分に対し、複数の領域を有する被写界深度図に基づいて、前記サブフレームの前景部分中の被写体の移動が、前記被写界深度図における一つの領域から当該一つの領域以外の領域への移動であるか否かを判定し、
前記被写体の移動が、前記被写界深度図における一つの領域から当該一つの領域以外の領域への移動である場合、前記サブフレームの前景部分の距離パラメータを改めて算出し、
前記被写体の移動が、同一の領域内の移動である場合、前記サブフレームの前のメーンフレームの距離パラメータと同一の距離パラメータを利用し、
前記被写界深度図は、
前記撮像装置から前記被写体までの距離の深度に従って前記サブフレームの前景部分を分割して作成されること、
を特徴とする請求項1に記載の動画処理装置。 - 前記処理手段は、
前記サブフレームの前景部分における変化のある部分が複数存在する場合、複数の変化のある部分のうち面積の最大な部分を選択し、当該面積の最大な部分を優先して前記距離パラメータを算出すること、
を特徴とする請求項2に記載の動画処理装置。 - 前記処理手段は、
前記サブフレームの前景部分における、前記距離パラメータを算出可能な面積の最大値である最大更新面積を予め設定した場合、前記前景部分における変化のある部分の面積が前記最大更新面積を超えたときに、前記最大更新面積を超えた前記前景部分における変化のある部分に対し、前記サブフレームの前のメーンフレームの距離パラメータと同一の距離パラメータを利用すること、
を特徴とする請求項3に記載の動画処理装置。 - 入力した動画に対し画像処理を行って出力する動画処理装置を用いた動画処理方法であって、
前記動画処理装置は、
入力した動画における複数のフレームを解析し、各フレームにシーンの変更があるか否かを判定し、シーンの変更があるフレームをメーンフレーム、シーンの変更がないフレームをサブフレームとするステップと、
前記サブフレームとその前のメーンフレームとを比較し、前記サブフレームを、変化のある前景部分と変化のない背景部分とに区分するステップと、
前記メーンフレームに対し、当該メーンフレーム中の撮像装置と被写体との距離に関する距離パラメータに基づいて画像処理を行うステップと、
前記サブフレームの背景部分に対し、前記サブフレームの前のメーンフレームの前記距離パラメータに基づいて画像処理を行い、前記サブフレームの前景部分に対し、当該サブフレーム中の変化に基づいて算出された距離パラメータに基づいて画像処理を行うステップと、
を実行することを特徴とする動画処理方法。 - 前記動画処理装置は、
前記サブフレームの前景部分における変化のある部分に対し、複数の領域を有する被写界深度図に基づいて、前記サブフレームの前景部分中の被写体の移動が、前記被写界深度図における一つの領域から当該一つの領域以外の領域への移動であるか否かを判定し、
前記被写体の移動が、前記被写界深度図における一つの領域から当該一つの領域以外の領域への移動である場合、前記サブフレームの前景部分の距離パラメータを改めて算出し、
前記被写体の移動が同一の領域内の移動である場合、前記サブフレームの前のメーンフレームの距離パラメータと同一の距離パラメータを利用し、
前記被写界深度図は、
前記撮像装置から前記被写体までの距離の深度に従って前記サブフレームの前景部分を分割して作成されること、
を特徴とする請求項5に記載の動画処理方法。 - 前記動画処理装置は、
前記サブフレームの前景部分における変化のある部分が複数存在する場合、複数の変化のある部分のうち面積の最大な部分を選択し、当該面積の最大な部分を優先して前記距離パラメータを算出すること、
を特徴とする請求項6に記載の動画処理方法。 - 前記動画処理装置は、
前記サブフレームの前景部分における、前記距離パラメータを算出可能な面積の最大値である最大更新面積を予め設定した場合、前記前景部分における変化のある部分の面積が前記最大更新面積を超えたときに、前記最大更新面積を超えた前記前景部分における変化のある部分に対し、前記サブフレームの前のメーンフレームの距離パラメータと同一の距離パラメータを利用すること、
を特徴とする請求項7に記載の動画処理方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110037718.4A CN102637293B (zh) | 2011-02-12 | 2011-02-12 | 运动图像处理装置及运动图像处理方法 |
CN201110037718.4 | 2011-02-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012168936A true JP2012168936A (ja) | 2012-09-06 |
Family
ID=46621679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012012013A Pending JP2012168936A (ja) | 2011-02-12 | 2012-01-24 | 動画処理装置及び動画処理方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2012168936A (ja) |
CN (1) | CN102637293B (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013156983A (ja) * | 2012-01-31 | 2013-08-15 | Hitachi Ltd | 画像霧除去装置、画像霧除去方法及び画像処理システム |
KR101394361B1 (ko) | 2012-11-21 | 2014-05-14 | 중앙대학교 산학협력단 | 알파매트 추정과 영상 합성을 이용한 단일 영상의 안개 제거 장치 및 방법 |
JP2015211341A (ja) * | 2014-04-25 | 2015-11-24 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法及びプログラム |
CN107808368A (zh) * | 2017-11-30 | 2018-03-16 | 中国电子科技集团公司第三研究所 | 一种海天背景下的彩色图像去雾方法 |
CN107945546A (zh) * | 2017-11-17 | 2018-04-20 | 嘉兴四维智城信息科技有限公司 | 用于交通视频自动识别的高速公路能见度预警系统及方法 |
US9972074B2 (en) | 2014-06-12 | 2018-05-15 | Eizo Corporation | Image processing system and computer-readable recording medium |
CN109166081A (zh) * | 2018-08-21 | 2019-01-08 | 安徽超远信息技术有限公司 | 一种视频能见度检测过程中目标亮度调节方法 |
JP2020181399A (ja) * | 2019-04-25 | 2020-11-05 | キヤノン株式会社 | 画像処理装置及びその制御方法及びプログラム |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103077500B (zh) * | 2012-12-30 | 2016-03-30 | 贺江涛 | 图像数据的去雾方法及装置 |
CN104112251A (zh) * | 2013-04-18 | 2014-10-22 | 信帧电子技术(北京)有限公司 | 视频图像数据的去雾方法及装置 |
CN105550999A (zh) * | 2015-12-09 | 2016-05-04 | 西安邮电大学 | 一种基于背景复用的视频图像增强处理方法 |
CN107451969B (zh) * | 2017-07-27 | 2020-01-10 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
CN107845078B (zh) * | 2017-11-07 | 2020-04-14 | 北京航空航天大学 | 一种元数据辅助的无人机图像多线程清晰化方法 |
CN110866486B (zh) * | 2019-11-12 | 2022-06-10 | Oppo广东移动通信有限公司 | 主体检测方法和装置、电子设备、计算机可读存储介质 |
CN116249018B (zh) * | 2023-05-11 | 2023-09-08 | 深圳比特微电子科技有限公司 | 图像的动态范围压缩方法、装置、电子设备和存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7403202B1 (en) * | 2005-07-12 | 2008-07-22 | Electronic Arts, Inc. | Computer animation of simulated characters using combinations of motion-capture data and external force modelling or other physics models |
JP2007042040A (ja) * | 2005-07-29 | 2007-02-15 | Hexagon:Kk | 3次元立体映像ジェネレータ |
US20090251468A1 (en) * | 2008-04-03 | 2009-10-08 | Peled Nachshon | Animating of an input-image to create personal worlds |
CN101290680B (zh) * | 2008-05-20 | 2011-07-06 | 西安理工大学 | 基于直方图均衡化过校正恢复的雾天视频图像清晰化方法 |
CN101699509B (zh) * | 2009-11-11 | 2012-10-03 | 耿则勋 | 一种利用气象数据进行大气模糊遥感影像恢复的方法 |
-
2011
- 2011-02-12 CN CN201110037718.4A patent/CN102637293B/zh not_active Expired - Fee Related
-
2012
- 2012-01-24 JP JP2012012013A patent/JP2012168936A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013156983A (ja) * | 2012-01-31 | 2013-08-15 | Hitachi Ltd | 画像霧除去装置、画像霧除去方法及び画像処理システム |
KR101394361B1 (ko) | 2012-11-21 | 2014-05-14 | 중앙대학교 산학협력단 | 알파매트 추정과 영상 합성을 이용한 단일 영상의 안개 제거 장치 및 방법 |
WO2014081199A1 (ko) * | 2012-11-21 | 2014-05-30 | 중앙대학교 산학협력단 | 알파매트 추정과 영상 합성을 이용한 단일 영상의 안개 제거 장치 및 방법 |
JP2015211341A (ja) * | 2014-04-25 | 2015-11-24 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法及びプログラム |
US10157451B2 (en) | 2014-06-12 | 2018-12-18 | Eizo Corporation | Image processing system and computer-readable recording medium |
US9972074B2 (en) | 2014-06-12 | 2018-05-15 | Eizo Corporation | Image processing system and computer-readable recording medium |
RU2654159C1 (ru) * | 2014-06-12 | 2018-05-16 | ЭЙЗО Корпорайшн | Система обработки изображений и машиночитаемый записывающий носитель |
RU2658874C1 (ru) * | 2014-06-12 | 2018-06-25 | ЭЙЗО Корпорайшн | Устройство удаления тумана и способ формирования изображений |
RU2664415C2 (ru) * | 2014-06-12 | 2018-08-17 | ЭЙЗО Корпорайшн | Система обработки изображений и машиночитаемый записывающий носитель |
US10096092B2 (en) | 2014-06-12 | 2018-10-09 | Eizo Corporation | Image processing system and computer-readable recording medium |
US10102614B2 (en) | 2014-06-12 | 2018-10-16 | Eizo Corporation | Fog removing device and image generating method |
CN107945546A (zh) * | 2017-11-17 | 2018-04-20 | 嘉兴四维智城信息科技有限公司 | 用于交通视频自动识别的高速公路能见度预警系统及方法 |
CN107808368A (zh) * | 2017-11-30 | 2018-03-16 | 中国电子科技集团公司第三研究所 | 一种海天背景下的彩色图像去雾方法 |
CN109166081A (zh) * | 2018-08-21 | 2019-01-08 | 安徽超远信息技术有限公司 | 一种视频能见度检测过程中目标亮度调节方法 |
CN109166081B (zh) * | 2018-08-21 | 2020-09-04 | 安徽超远信息技术有限公司 | 一种视频能见度检测过程中目标亮度调节方法 |
JP2020181399A (ja) * | 2019-04-25 | 2020-11-05 | キヤノン株式会社 | 画像処理装置及びその制御方法及びプログラム |
JP7421273B2 (ja) | 2019-04-25 | 2024-01-24 | キヤノン株式会社 | 画像処理装置及びその制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN102637293A (zh) | 2012-08-15 |
CN102637293B (zh) | 2015-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012168936A (ja) | 動画処理装置及び動画処理方法 | |
US9197789B2 (en) | Method and system for removal of fog, mist, or haze from images and videos | |
Tripathi et al. | Single image fog removal using bilateral filter | |
CN102750674B (zh) | 基于自适应容差的视频图像去雾方法 | |
JP5954063B2 (ja) | 画像の霧除去方法及びシステム | |
KR101582479B1 (ko) | 동영상에 포함된 헤이즈 제거를 위한 영상 처리 장치 및 그 방법 | |
Xu et al. | An improved guidance image based method to remove rain and snow in a single image | |
JP5982719B2 (ja) | 画像霧除去装置、画像霧除去方法及び画像処理システム | |
KR101470831B1 (ko) | 사용자 제어가 가능한 거듭제곱근 연산자를 이용한 안개영상 개선 장치 | |
CN103218778B (zh) | 一种图像和视频的处理方法及装置 | |
CN105631831B (zh) | 一种雾霾条件下视频图像增强方法 | |
CN110544213A (zh) | 一种基于全局和局部特征融合的图像去雾方法 | |
KR101917094B1 (ko) | 매핑테이블을 이용한 고속 스모그/저조도 영상 개선 방법 및 장치 | |
JP5927728B2 (ja) | 画像霧除去装置、画像霧除去方法及び画像処理システム | |
Khan et al. | Recent advancement in haze removal approaches | |
Gadnayak et al. | A survey on image dehazing methods | |
Senthilkumar et al. | A review on haze removal techniques | |
Toka et al. | A fast method of fog and haze removal | |
Al-Zubaidy et al. | Removal of atmospheric particles in poor visibility outdoor images | |
Menon et al. | An enhanced digital image processing based dehazing techniques for haze removal | |
KR102136716B1 (ko) | 관심영역 기반의 화질개선 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체 | |
CN114897720A (zh) | 一种图像增强装置及其方法 | |
CN111028184B (zh) | 一种图像增强方法及系统 | |
Kumari et al. | Improved single image and video dehazing using morphological operation | |
KR102141122B1 (ko) | 안개 제거 방법 및 그 장치 |