JP2022069197A - 画像処理装置及びその制御方法及びプログラム - Google Patents

画像処理装置及びその制御方法及びプログラム Download PDF

Info

Publication number
JP2022069197A
JP2022069197A JP2020178247A JP2020178247A JP2022069197A JP 2022069197 A JP2022069197 A JP 2022069197A JP 2020178247 A JP2020178247 A JP 2020178247A JP 2020178247 A JP2020178247 A JP 2020178247A JP 2022069197 A JP2022069197 A JP 2022069197A
Authority
JP
Japan
Prior art keywords
image
image processing
fine particle
image data
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020178247A
Other languages
English (en)
Inventor
靖浩 伊藤
Yasuhiro Ito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020178247A priority Critical patent/JP2022069197A/ja
Publication of JP2022069197A publication Critical patent/JP2022069197A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

【課題】撮影シーンの状況や、視認性の上げたいオブジェクトに合わせて、映像中の霧霞の影響を除去する画像処理装置を提供する。【解決手段】撮像手段による撮像で得られた画像データを処理する画像処理装置であって、画像データにおける第一の領域に、第一の微粒子除去の処理を行う第一の画像処理手段と、画像データにおける第一の領域と異なる第二の領域に、第一の微粒子除去の処理と異なる第二の微粒子除去の処理を行う第二の画像処理手段と、第一の画像処理手段による第一の微粒子除去の処理と第二の画像処理手段による第二の微粒子除去の処理とが行われた画像データを、第一の領域もしくは第二の領域を示す情報とともに、表示させる表示手段と、を有する。【選択図】図4

Description

本発明は、大気中の微粒子の影響による、画像の視認性低下を改善する技術に関するものである。
監視カメラなどの分野において、カメラから被写体までの間に存在する微小粒子成分(例えば、霧)によって視認性が低下し、撮像画像の画質が劣化することが問題となっている。 霧などによって視認性が低下した画像を補正する技術(霧霞除去技術)として、特許文献1が提案されている。特許文献1では、着目画素ごとに周囲の所定範囲におけるRGBチャンネル内での最小値を算出し、この最小値画像を用いて、コントラストを補正することで視認性の改善を行う。また、特許文献2では、入力映像からヒストグラムを求め、そのヒストグラムの尤度や尖度もとに、霧霞除去処理のパラメータを決定している。
米国公開2011/0188775号公報 米国公開2016/0328832号公報
Guided Image Filtering, Kaiming He, Jian Sun, and Xiaoou Tang, in ECCV 2010(Oral)
特許文献1に記載の技術では、画像処理を行う際のパラメータは画像全体に対して一意に保持している。しかしながら、比較的近い距離にある被写体に対して霧霞除去技術を適用する場合と、遠い距離にある被写体に対して霧霞除去技術を適用する場合では、パラメータを変えたほうが良い場合がある。このときに、遠い距離にある被写体向けのパラメータで処理を行うと、近い距離にある被写体に対しては効果が強くなりすぎてしまい、不自然な画像となる可能性があった。
また、特許文献2に記載の技術では、画像全体のヒストグラムをもとにパラメータを決定してしまう。このため、ユーザーが画像中の特定のオブジェクト(例えば人物)の視認性を向上させたい場合でも、画像全体で視認性を向上させるよう処理が行われるため、特に霧の強い場所にいる人物は視認性が上がらなかった。また、霧の強い場所にいる人物の視認性を向上させようとした場合、すでに視認性が確保されている人物に対して、過剰に霧霞除去処理を適用してしまい、不自然な画像となってしまう可能性があった。
本発明では、撮影シーンの状況や、視認性の上げたいオブジェクトに合わせて、映像中の霧霞の影響を除去する技術を提供する。
この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、撮像手段による撮像で得られた画像データを処理する画像処理装置であって、前記画像データにおける第一の領域に、第一の微粒子除去の処理を行う第一の画像処理手段と、前記画像データにおける前記第一の領域と異なる第二の領域に、前記第一の微粒子除去の処理と異なる第二の微粒子除去の処理を行う第二の画像処理手段と、前記第一の画像処理手段による前記第一の微粒子除去の処理と前記第二の画像処理手段による前記第二の微粒子除去の処理とが行われた前記画像データを、前記第一の領域もしくは前記第二の領域を示す情報とともに、表示させる表示手段と、を有することを特徴とする。
本発明によれば、撮影シーンの状況や、視認性の上げたいオブジェクトに合わせて、映像中の霧霞の影響を除去する。
実施形態における画像処理装置のブロック構成図。 実施形態に示す画像処理装置の機能ブロック図。 実施形態に示す微粒子除去処理部の内部構成を示す図。 実施形態の画像処理装置における処理を示すフローチャート。 実施形態の微粒子除去処理を示すフローチャート。 実施形態の下位画素画像生成の過程を示す模式図。 実施形態の大気光推定処理を示すフローチャート。 実施形態の下位画素補正画像生成処理を示すフローチャート。 実施形態のRGB下位画素値補正画像の生成処理を示すフローチャート。 実施形態のRGB下位画像生成処理におけるフィルタ処理を示す模式図。 実施形態のミー散乱成分生成処理を示すフローチャート。 実施形態のレイリー散乱成分生成処理を示すフローチャート。 実施例2における処理結果を表示するユーザーインターフェース 実施例2における処理のフローチャート 実施例3における処理結果を表示するユーザーインターフェース
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
(実施例1)
[概要]
本実施形態では、霧などの微小粒子成分(以下、微粒子)が発生している状況下で、撮影した入力画像に対して、まず微小粒子成分の影響除去処理を行う。次に、人物検出などのオブジェクト検出処理を行うことで、微小粒子成分の影響を除去した画像から人物などのオブジェクトを抽出する。この抽出結果に基づいて、除去画像を生成する際の入力画像のミー散乱成分とレイリー散乱成分の比率を変えることで、微小粒子成分の影響の出方を変えた画像を作る。これらの画像を合成することで、よりオブジェクトの視認性の高い画像得る。
[実施形態の装置構成]
図1は、本実施形態が適用する画像処理装置100のブロック構成図である。本実施形態の画像処理装置100は、CPU101、RAM102、ROM103、HDD I/F104、HDD105、入力I/F106、出力I/F107、システムバス108を有する。CPU101は、以下に述べる各構成を統括的に制御するプロセッサである。RAM102はCPU101の主メモリ、ワークエリアとして機能するメモリであり、ROM103は、画像処理装置100内での処理を司るプログラムや各種パラメータを格納するメモリである。
HDD I/F104は、例えばシリアルATA(SATA)等のインタフェースであり、二次記憶装置としてのHDD105をシステムバス108に接続する。CPU101は、HDD I/F104を介してHDD105からのデータ読み出し、およびHDD105へのデータ書き込みが可能である。さらにCPU101は、HDD105に格納されたデータをRAM102に展開し、同様に、RAM102に展開されたデータをHDD105に保存することが可能である。そしてCPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。なお、二次記憶装置はHDDの他、光ディスクドライブ等の記憶デバイスでもよい。入力I/F106は、例えばUSBやIEEE1394等のシリアルバスインタフェースである。
画像処理装置100は、入力I/F106を介して、外部メモリ109および撮像部111に接続されている。CPU101は、入力I/F106を介して、外部メモリ109や撮像部111から撮像画像データを取得することができる。出力I/F107は、例えばDVIやHDMI(登録商標)等の映像出力インタフェースである。画像処理装置100は出力I/F107を介して表示部110と接続されている。CPU101は、出力I/F107を介して表示部110に画像を出力することで、その画像を表示部110に表示することができる。
システムバス108は、各種データの転送経路であり、画像処理装置100内の各構成部はシステムバス108を介して相互に接続されている。
外部メモリ109はハードディスク、メモリカード、CFカード、SDカード、USBメモリなどの記憶媒体であり、画像処理装置100で処理された画像データなどを保存することができる。
表示部110は、ディスプレイなどの表示装置であり、画像処理装置100で処理された画像などを表示することができる。
撮像部111は、被写体の光学像をイメージセンサで受光し、取得した光学像をデジタルの画像データとして出力するカメラである。本実施形態の画像処理装置100は、撮像部111では霧等の微粒子による散乱光によりコントラストが低下した画像データを撮像により取得し、画像処理装置100では以下に説明する画像処理を施すことで、微粒子の影響が低減された画像を生成する。
操作部112は、例えばマウスやキーボードなどの入力機器で構成され、口述する切霞除去範囲の指定を行う際に利用する。
図2は、実施形態に示す画像処理装置の機能ブロック図である。図2に示すように、実施形態の画像処理装置は、入力画像データ取得部201、微粒子除去処理部202、微粒子除去画像データ出力部203、入力画像データ記憶部204、微粒子除去画像データ記憶部205、オブジェクト抽出処理部206を有する。オブジェクト抽出処理部206は、公知の人物検出技術や顔検出技術などで構成され、入力画像に対して人物の形や人の顔等を検出し、その領域を検出結果としてオブジェクトデータ記憶部207に記憶する。なお、図2に示す各処理部は、CPU101がROM103に格納されたプログラムをRAM102に展開し実行することで実現するものとするが、処理部のいくつかはハードウェアでもって実現しても良い。
図3は実施形態における微粒子除去処理部202の内部構成図である。微粒子除去処理部202は、大気光算出部301、下位画素画像算出部302、下位画素画像による補正処理部304、RGB下位画像による補正処理部305を持つ。また、微粒子除去処理部202は、散乱成分の制御用にミー散乱成分算出部306、レイリー散乱成分算出部307、合成処理部308を持つ。さらに、微粒子除去処理部202は、これら各種処理のデータ格納場所として、大気光データ記憶部309、下位画素画像データ記憶部310、下位画素補正データ記憶部312、RGB下位画素値補正データ記憶部313を持つ。微粒子除去処理部202は、散乱成分の制御用としてミー散乱成分データ記憶部314、レイリー散乱成分データ記憶部315を持つ。さらに、微粒子除去処理部202は、微粒子除去処理の処理範囲を決定する画像処理範囲データ記憶部316を持つ。これらの構成ブロックは、CPU101が、データ保持領域として、ROM103やHDD105、RAM102内に保持されたプログラムを、必要に応じてCPU101で実行することで実現するものとする。しかし、そのいくつかはハードウェアでもって実現しても構わない。
[全体処理の流れ]
実施形態の画像処理装置100における処理の流れを図2のブロック図、および図4のフローチャートを用いて説明する。
S401にて、CPU101は、入力画像データ取得部201を制御し、撮像部211による撮像して得た画像データを取得させ、その画像データを入力画像データ記憶部204に記憶させる。
S402にて、CPU101は、入力画像データに対して、微小粒子成分の除去処理を行うためのパラメータ設定を行う。S403にて、CPU101は、S402で設定したパラメータに基づいて、微小粒子の影響除去処理を行う(詳細後述)。
S404にて、CPU101は、S403で微小粒子除去処理を行った画像に対して、公知のオブジェクト検出処理を使って、オブジェクトの検出を行う。ここで、対象となるオブジェクトは、ユーザーが視認性を高めたいオブジェクトを指す。例えば、ユーザーが人物の視認性を高めたい場合は、CPU101は公知の人物検出処理を適用し、画像データ中から人物を抽出する。CPU101は、抽出された結果となる人物領域は、その周囲を矩形で囲み、矩形領域の位置情報としてオブジェクト検出結果記憶部207に格納する。なお、本実施形態においてオブジェクト検出結果は矩形領域とするが、その形状に特に制限はなく、矩形以外の形状であっても構わない。なお、例えば矩形領域でない場合、各画素についてオブジェクトが検出された画素かどうかを判定すればよい。
S405にて、CPU101は、微小粒子の影響除去処理を行った後の画像データとオブジェクト検出結果とを比較し、画像データ上のどの領域でオブジェクト検出されたかを判断し、その結果によって処理を変える。具体的には、CPU101は、画像データ上でオブジェクトが検出されたと判断された領域に該当する画素についてはS408の処理、オブジェクトが検出されなかったと判断される領域に該当する画素はS406の処理に移行する。S406にて、CPU101は、オブジェクトが検出されなかった領域に対して、さらにオブジェクト検出精度が向上するよう、後続のS407で行う微小粒子除去処理のパラメータ設定を行う。具体的には、微小粒子除去の効果がより強くなるように設定する。例えば、後述するミー散乱強度係数mと、レイリー散乱強度係数rを、一回目のパラメータに比べて、二回目のパラメータでは少なくなるようにパラメータ設定する。特に、mについては、二回目のパラメータのほうを少なくする、または、0に設定するなどが想定される。S407にて、CPU101はS406で設定された二回目の微小粒子除去処理向けのパラメータを基づいて、微小粒子除去処理を再び行う。この時の処理対象の画像データは、S403で処理後の画像データではなく、S401で得られたオリジナルの入力画像データとする。
そして、S408にて、CPU101は、S405でオブジェクト検出されたと判定された第一のパラメータでの処理結果の画像と、S407で行った第二のパラメータでの処理結果の画像との合成を行う。具体的には、S404にてオブジェクトが検出されたと判定されている検出領域(画素)については第一のパラメータでの処理結果画像を、非検出領域については第二のパラメータでの処理結果の画像を用いて一つの出力画像を生成する。このようにして、オブジェクト検出の結果によって領域設定を行い、領域ごとに効果の異なる微小粒子成分の除去処理画像が生成される。
[微粒子の影響除去処理の流れ]
ここで、図4のS404、S407の微粒子除去処理について、図2、図3の処理ブロック図、及び、図5のフローチャートを用いて詳細に説明する。なお、S404,S407の違いは、処理に用いるパラメータが異なる点である点に注意されたい。
S501にて、下位画素画像算出部302は、入力画像データ記憶部204に記憶している入力画像データから下位画素画像を算出し(詳細は後述)、下位画素値画像データ記憶部310に記憶する。
S502にて、大気光算出部301は、入力画像データ記憶部204に記憶している入力画像データ、及び、下位画素画像データ記憶部310に記憶している下位画素画像データを用いて大気光成分を算出(詳細は後述)する。そして、大気光算出部301は、算出した大気光データは大気光データ記憶部309に記憶する。
S503にて、下位画素画像による補正処理部304は、大気光データ記憶部309に記憶している大気光データ、下位画素画像データ記憶部310に記憶している下位画素画像データを読み込む。さらに、この補正処理部304は、画像処理範囲データ記憶部316に記憶している画像処理範囲データも読み込む。そして、補正処理部304は、入力画像データ記憶部204に記憶している入力画像データの補正を行う(詳細は後述)。補正処理部304は、補正後の画像データは、下位画素補正画像データ記憶部312に記憶する。
S504にて、RGB下位画素画像による補正処理部305は、大気光データ記憶部309に記憶している大気光データ、入力画像データ記憶部204に記憶している入力画像、画像処理範囲データ記憶部316に記憶している画像処理範囲データを読み込む。そして、この補正処理部305は、入力画像データの補正を行う(詳細は後述)。補正処理部305は、補正後の画像データを、RGB下位画素補正画像データ記憶部313に記憶する。
S505にて、ミー散乱成分算出部306は、入力画像データ記憶部204に記憶している入力画像データ、及び、下位画素補正画像データ記憶部312に記憶している下位画素補正画像データを読み込む。そして、ミー散乱成分算出部306は、ミー散乱成分の算出を行う(詳細は後述)。ミー散乱成分算出部306は、算出されたミー散乱成分データをミー散乱成分データ記憶部314に記憶する。
S506にて、レイリー散乱成分算出部307は、入力画像データ記憶部204に記憶している入力画像データを読み込む。さらに、レイリー散乱成分算出部307は、下位画素補正画像データ記憶部310に記憶している下位画素補正画像データ、及び、RGB下位画素値補正画像データ記憶部311に記憶しているRGB下位画素値補正画像データも読み込む。そして、レイリー散乱成分算出部307は、レイリー散乱成分の算出を行い(詳細は後述)、算出したレイリー散乱成分をレイリー散乱成分データ記憶部314に記憶する。
S507にて、合成処理部308は、RGB下位画素値補正画像データ記憶部313に記憶しているRGB下位画素値補正画像データを読み込む。さらに、合成処理部308は、ミー散乱成分データ記憶部314に記憶しているミー散乱成分データ、及び、レイリー散乱成分データ記憶部315に記憶しているレイリー散乱成分データを読み込む。その後、合成処理部308は、画像合成を行い(詳細は後述)、合成後の画像データを微粒子除去画像データ記憶部205に記憶する。
以上説明した処理により、S402の微小粒子除去処理が完了する。
[大気光推定]
次に、S502の大気光算出の処理について説明する。大気光算出部301は、まず入力画像をRGB画像から輝度画像(Y画像)へ変換する。次に、大気光算出部301は、変換したY画像からヒストグラムを生成し、上位1%の値を閾値とし、閾値以上の画素値を持つ画素の位置の中から、ロバスト推定処理を行い、大気光を推定するための画素を決定する。そして、決定された画素の画素値をもとに大気光を推定する。
以下、図7のフローチャートを参照し、実施形態における大気光算出部301の詳細を説明する。
S701にて、大気光算出部301は、入力画像データ記憶部204から入力画像データを読み込む。
S702にて、大気光算出部301は、読み込んだ入力画像データをRGB画像からY画像へと変換する。この時、変換式には一般的なRGB→Y色変換式を適用して構わない。
S703にて、大気光算出部301は、S702で変換されたY画像(輝度画像)から、大気光推定を行うための大気光位置情報の候補(以下、画素位置候補)を生成する。具体的には、大気光算出部301は、読み込まれたY画像のヒストグラムを求め、その最大値から上位1%の値を閾値とし、閾値以上の値を持つ画素の位置を、参照画素位置候補として決定する。なお、本実施形態では、閾値を上位1%としたが、実施形態では、これに限らず、異なる比率でも構わない。
S704にて、大気光算出部301は、大気光を実際に計算するための参照画素位置情報(以下、画素位置)を決定する。具体的には、S703で決定した画素位置候補をもとにして、その候補をもとにRANSAC法などのロバスト推定を用いて大気光位置情報生成を行う。これは、大気光として選択されるべき画素位置は、本来は空部分の画素位置が望ましく、画像上で空以外の高輝度部分を画素位置候補からは除外したいためである。一般的には空以外の高輝度部分は画像上に占める割合は少なく、かつ、空の色とは輝度が異なる傾向にあるため、それを外れ値として扱い、除外することができるロバスト推定を行う。また、この時、画素位置の数を制限することもできる。これは、画像上で空の色がグラデーションになっていたりする場合、同じ空でも画素値が異なるため、あまり多くの画素を参照すると、色が変わった空部分まで推定の対象としてしまうことを避けるためである。
S705にて、大気光算出部301は、大気光計算を行うため、S704で決定した画素位置のなかで、初めに大気光成分を抽出する画素位置を決定する。これは、S704で決定した画素位置のうち、ラスタースキャン順の最初の画素位置(たとえば最も左上の画素位置)とすれば良い。
S706にて、大気光算出部301は、S705で初期化、またはS708で決定した参照画素位置の画素値(R,G,B)を、それぞれの色ごとに加算し、RAM102などに保持する。
S707にて、大気光算出部301は、S704で決定した画素位置を全て検索したか否かを判定する。大気光算出部301は、検索していると判定した場合は処理をS709へ、未完であると判定した場合は処理をS708へ進める。
S708にて、大気光算出部301は、S704で決定した画素位置を次の位置へ移動させる。具体的には、S704で決定した画素位置のうち、現在参照している画素位置に対してラスタースキャン順に最も近い画素位置とする。
S709にて、大気光算出部301は、S706で加算され、RAM102などに保持された加算画素値を平均化し、大気光成分を計算する。具体的には、大気光算出部301は、次式に基づき大気光成分ARGBを計算する。
RGB=(ΣA/n,ΣAG/n,ΣAB/n) …(1)
=(ΣA/n+ΣA/n+ΣA/n)/3 …(2)
ここで、A、A、A、Aはそれぞれ、Rチャンネル、Gチャンネル、Bチャンネル、下位画素画像の大気光成分の値を示す。また、nはS704で決定した参照画素の総数、ΣはS704で決定した画素の数の和を示す。なお、ここで示した式(1)、(2)はあくまで一例であり、実施形態における大気光推定のための計算式は、他の式であっても構わない。たとえば、式(2)を、ΣA/n,ΣA/n,ΣA/nの中で最も小さい値としてもよい。
以上のようにして、大気光成分を推定できる。大気光算出部301は、推定された大気光成分を大気光データ記憶部309に格納する。
[下位画素画像作成]
次に、S501の下位画素画像算出部302による下位画素画像生成処理を、図6(a),(b)を用いて説明する。図6(a)のように、入力画像中のある注目画素P5を中心にして、周囲ピクセルの画素をP1~P4,P6~P9と表す。また、画素P1~P9が有するR,G,Bの成分値を、P1(R1,G1,B1)~P9(R9,G9,B9)と表現する。
そして、これらの成分値順が、R5>B3>R2>・・・>R4>B1>G9>G7であったとする。この時、注目画素P5の下位画素をT1としたとき、T1は式(3)に示すように、最下位の成分値G7を除いた下位3つの成分値の加重平均とする。最小値ではなく、加重平均を取ることで、下位画素画像がセンサノイズの影響を強く受けることを抑制する。つまり、最小値を取る場合に比べ、処理後の画像にセンサノイズの影響を強く受けた画素が生成されてしまうことを抑制できる。
T1=(2×R4+4×B1+2×G9)/8 …(3)
下位画素画像算出部302は以上の処理を全画素に対して行うことで、下位画素画像を生成することになる。そして、下位画素画像算出部302は、生成した下位画素画像を下位画素画像データ記憶部310に保存する。なお、上記で挙げた計算方法は下位画素画像を求める際の計算式の例であり、この計算式に沿っている必要はない。たとえば、下位2番目から下位4つの画素を平均することで求めてもよい。また、また、本実施形態では注目画素から1画素分の距離にある周囲画素を参照し下位画素を生成したが、もちろん2画素分の距離になる周囲画素を参照して下位画素を求めてもよいし、更なる距離にある周囲画素を参照しても構わない。図6(a),(b)は、あくまで例示であると理解されたい。
[下位画素画像による補正画像生成]
次に、補正処理部304による下位画素画像による補正画像生成処理(図5のS503)を、図8のフローチャートを参照して説明する。
S801にて、補正処理部304は、下位画素画像、大気光データ、および入力画像を大気光データ記憶部309、下位画素画像データ記憶部310、入力画像データ記憶部204から読み出す。
S802にて、補正処理部304は、大気光データで下位画素画像を補正し、補正後下位画素画像lower_Aを算出する。具体的には、補正処理部304は、次式(4)に従って、下位画素画像を大気光データに基づき補正する。
lower_A=Tin_lower/A …(4)
ここで、Tin_lowerは、S502で生成した下位画素画像を示す。
S803にて、補正処理部304は、S802で求めた補正後下位画素画像lower_Aをもとに、透過率分布tlower (x,y)を生成する。具体的には、S802で生成したlower_A(x、y)に対して、以下の式を適用する。
lower=1.0-ω×lower_A(x,y) …(5)
ここで、ωは調整のための係数で、例えば“0.9”とする。また、x、yは、画像の水平方向及び垂直方向の座標である。係数ωは、対象の画素の透過光が霧などの微小粒子による散乱光のみで構成されていた場合に透過率が0になり、微小粒子除去処理後の画素値が0になるのを避けるために設けられた値であって、上で挙げた“0.9”でなくても良い。
S804にて、補正処理部304は、S803で生成した透過率分布を、入力画像と、UIから入力された画像処理範囲データに合わせて整形する。これは、透過率分布tlower(x,y)を、撮像データに含まれる構造物等、被写体形状に合わせる必要があることと、UIにより指定された透過率分布範囲に処理範囲を限定するためである。S803までの処理で、透過率分布t(x,y)は、撮像データ内の大まかな被写体形状情報のみが含まれている状態にあり、被写体形状を精度よく分離する必要があるためである。具体的には、非特許文献1に記載されるような公知のエッジキープ型フィルタを用いればよい。
次に、UIにより指定された透過率分布範囲以外の画素部分については、微小粒子の影響除去処理を行わないようにする。透過率分布tlower(x,y)に対して、UIで指定したt_th_maxを超える値、およびt_th_min未満の値については、tlower(x,y)=1を代入する。
なお、本実施形態ではフィルタ処理後にUIでの設定値の適用を行っているが、もちろん先にUIでの設定値の適用を行っても構わない。
S805にて、補正処理部304は、Aと、透過率分布tlower(x,y)から、下位画素画像による補正画像を計算する。具体的には、次式(6)に基づく。
Figure 2022069197000002
ここで、Jlowerは下位画素画像による補正画像、Iは入力画像、tは調整のための係数で、例えば“0.1”とする。これは、tlowerが限りなく小さい値であった場合、Jlowerの値は、入力画像Iとわずかな差、つまり、撮像時のショットノイズ等によって値が大きく変動してしまうのを防ぐために設けられた値であって、上で挙げた“0.1”でなくても構わない。また、max(…)は、括弧内に並ぶ数値群の中の最大値を返す関数である。
S806にて、補正処理部304は、S805で計算した下位画素補正画像Jlowerを下位画素補正データ記憶部312へ格納する。
以上の処理を行うことで、下位画素画像による微粒子成分の影響を補正した画像を作成することができる。
[RGB下位画素値画像による補正画像生成]
次に、RGB下位画素画像による補正処理部305の補正画像生成処理(図5のS504)を、図9のフローチャートを参照して説明する。
S901にて、補正処理部305は、入力画像データ記憶部204から入力画像、大気光データ記憶部309から大気光データを読み出す。
S902にて、補正処理部305は、大気光データを用いて、入力画像をRGB各プレーンごとに補正(フィルタ処理)を行うことで、大気光による補正後のRGB下位画素値画像patch_RGB_Aを算出する。
まず、補正処理部305は、次式(7)に従って、RGB下位画素値画像を大気光データで補正し、大気光で補正したRGB下位画素画像RGB_Aを計算する。
RGB_A(x、y、c)=Tin_RGB(x、y、c)/ARGB …(7)
ここで、Tin_RGBは、補正前のRGB下位画素値画像データを示し、RGB_Aは補正後のRGB下位画素値画像データを示す。また、x、yは画像の水平、垂直方向の座標を示し、cは色プレーン(R,G,Bのいずれか)である。
次に、補正処理部305は、先に求めたRGB_Aに対してフィルタ処理を行い、大気光で補正したRGB下位画素画像patch_RGB_Aを計算する。S903以降の処理では、大気光で補正したRGB下位画素画像は、全てこのpatch_RGB_Aを計算に用いる。
ここで、本処理におけるフィルタ処理の詳細を、図10(a)乃至(d)を参照して説明する。
図10(a)乃至(d)は、ある注目画素T3における、フィルタ処理の過程を模式図にしたものである。図10(a)は、RGB_Aを示している。図10(b)~(d)は、図10(a)をRGB各プレーンに分けて表したものである。T3はフィルタの処理対象となる注目画素、T3,T3,T3は、それぞれは、注目画素T3のRGB各プレーンにおける成分値を示している。また、同図(b)~(d)におけるR1、G1、B1~R4、G4、B4は、それぞれRGB各プレーンにおける注目画素から5x5の範囲内における最小値から下位4つを示しているものとし、画素値の大きさはR4>R3>R2>R1(G,Bも同じ)とする。
補正後のRGB下位画素値画像データRGB_Aに対してフィルタ処理を行う場合、注目画素T3を中心位置とする5×5画素の範囲内におけるRGB各プレーンの下位画素は、図10(b)~(d)で示すように、各色で異なっている。このため、同図(b)に示すようなRチャンネルの下位画素フィルタ処理結果T3は次式(8)に従って求める。
T3=(2×R2+4×R3+2×R4)/8 …(8)
同様に、Gチャンネルの最小値T3を求める場合は、上式(8)にG2,G3,G4を代入した結果となる。Bチャンネルの最小値T3も同様である。これらの値は、それぞれ注目画素のプレーンと同じプレーンの画素値を採用することが、下位画素画像との違いである。下位画素画像は、RGB下位画素画像とは異なり、注目画素周辺の全プレーンの画素を対象に行われる。このため、採用される画素は、RGBいずれのプレーンの画素からも採用される可能性があるが、RGB下位画素値の場合は、各色プレーンからのみ採用される。この違いにより、光の散乱の波長による影響を考慮することができる。
以下、本処理をRGB_Aの全画素に適用することで、大気光で補正したRGB下位画素値画像patch_RGB_Aが算出される。
S903にて、補正処理部305は、S902で求めた大気光で補正したRGB下位画素値画像をもとに、透過率分布tRGB(x,y,c)を作成する。S902で生成したpatch_RGB_Aに対して、以下の式を適用する。
RGB=1.0-ω×patch_RGB_A(x,y,c) …(9)
ここで、ωは調整のための係数で、例えば0.9とする。ωは、対象の画素の透過光が霧などの微小粒子による散乱光のみで構成されていた場合透過率が0になり、微小粒子除去処理後の画素値が0になるのを避けるために設けられた値であって、上で挙げた0.9でなくても構わない。
S904にて、補正処理部305は、S903で生成した透過率分布を、入力画像に合わせて整形し、UIによって指定された透過率分布範囲以外の部分については処理を行わないようにする。具体的な手順はS804と同じだが、RGB下位画素値画像の場合は、透過率分布tRGB(x,y,c)のそれぞれの色プレーンに対してS804の処理を行う。
S905にて、補正処理部305は、大気光ARGBと、透過率分布tRGB(x,y,c)から、RGB下位画素値画像による補正画像を計算する。具体的には、次式(10)に基づく。
Figure 2022069197000003
ここで、JRGBは、RGB下位画素値画像による補正画像、Iは入力画像である。また、t0は調整のための係数で、例えば0.1とする。これは、tRGBが限りなく小さい値であった場合、JRGBの値は、入力画像Iとのわずかな差、つまり、撮像時のショットノイズ等によって値が大きく変動してしまうのを防ぐために設けられた値であって、上で挙げた0.1でなくても良い。
S906にて、補正処理部305は、S905で計算したJRGBをRGB下位画素値画像補正データ記憶部313へ格納する。
以上の処理を行うことで、RGB下位画素値画像を補正した画像を作成することができる。
[ミー散乱成分算出]
次に、ミー散乱成分算出部306による、下位画素補正画像データ、および入力画像から、ミー散乱による光の散乱成分の算出処理(S505)を、図11のフローチャートを参照して説明する。
S1101にて、ミー散乱成分算出部306は、下位画素補正データ記憶部312から下位画素補正データ、および入力画像データ記憶部204から入力画像を読み込む。
S1102にて、ミー散乱成分算出部306は、ミー散乱成分を取り出すために、画像の画素ごとに、画素値の減算を行う。具体的には、ミー散乱成分算出部306は次式(11)に従ってミー散乱成分画像を求める。
・I(x,y,c)-Jlower(x,y,c)≧0のとき:
M(x,y,c)=I(x,y,c)-Jlower(x,y,c)
・I(x,y,c)-Jlower(x,y,c)<0のとき:
M(x,y,c)=0
ここで、M(x,y,c)はミー散乱成分画像である。この計算によって、ミー散乱成分を画像から取り出すことができる。
S1103にて、ミー散乱成分算出部306は、S1102で計算したミー散乱成分画像を、ミー散乱成分データ記憶部314へ格納する。
以上のように処理を行うことで、画像中のミー散乱成分を算出することができる。
[レイリー散乱成分算出]
次に、レイリー散乱成分算出部307による、レイリー散乱成分の算出処理(S506」)を、図12のフローチャートを参照して説明する。
S1201にて、レイリー散乱成分算出部307は、RGB下位画素値補正データ記憶部313からRGB下位画素値補正画像データ、ミー散乱成分記憶部314からミー散乱成分画像、入力画像データ記憶部204から入力画像を読み込む。
S1202にて、レイリー散乱成分算出部307は、レイリー散乱成分画像を得るため、画像の画素ごとに画素値の減算を行う。具体的には、次式(12)に従って求める。
・I(x,y,c)-JRGB(x,y,c)-M(x,y,c)≧0のとき: R(x,y,c)=I(x,y,c)-JRGB(x,y,c)-M(x,y,c)
・I(x,y,c)-JRGB(x,y,c)-M(x,y,c)<0のとき:
R(x,y,c)=0 …(12)
ここで、R(x,y,c)はレイリー散乱成分画像である。この計算によって、レイリー散乱成分を画像から取り出すことができる。
S1203にて、レイリー散乱成分算出部307は、S1302で計算したミー散乱成分画像を、レイリー散乱成分データ記憶部315へ格納する。
以上のように処理を行うことで、画像中のレイリー散乱成分を算出することができる。
[合成処理]
次に、合成処理部308の合成処理(S507)を説明する。
合成処理部308は、合成画像Jout(x,y,c)を次式(13)に従って算出する。
out(x,y,c)=JRGB(x,y,c)+m・M(x,y,c)+r・R(x,y,c) …(13)
ここで、mはミー散乱強度係数、rはレイリー散乱強度係数である。本実施形態では、第一、第二のパラメータでそれぞれ、0~1の間を取ることが望ましいが、もちろんそれ以外の値を用いてもかまわない。
以上説明したように、本発明によれば、画像中の微粒子成分の影響の除去処理をする際に、オブジェクト検出の結果に基づいて除去処理の効果を変えることができる。これにより、よりオブジェクトの視認性が高い画像を得ることができる。
例えば、検出対象(オブジェクト)として人物を設定した場合には、その人物に特化した微粒子成分の影響の除去後の画像を得ることができる。
なお、上記微粒子除去に係る構成は、デジタルカメラに代表される撮像装置に実装するようにしても良い。例えば、霧の中で人物を被写体とする撮像する場合の撮像モードとして実装しても良い。この場合、図1の撮像部111を画像処理装置100の構成の一部とすれば良い。
(実施例2)
次に、処理結果を表示するユーザーインターフェースを交えた例(UI例)を、図13、このときの処理フローを図14に示す。
まず、本実施例における霧霞除去処理の流れを示すフローチャートを図14に示す。ここでは、先の実施例と異なる点のみを説明する。
ステップS1405では、ステップS404でのオブジェクト検出処理の結果、オブジェクトが検出された場合にはステップS406へ、また、検出されなかった場合にはステップS408へ移行する。
ステップS1407では、ステップS404でオブジェクトが検出された領域に対して、ステップS406で設定した第二のパラメータを用いて霧霞除去を行う。
ステップS1409では、ステップS408で合成した霧霞除去結果をUIを用いて表示する。
次に、結果の表示例を図13に示す。図13(a)は、本実施例における結果表示UI例のうち、1枚の画像で処理結果を表示する一例であり、第一のパラメータを用いて霧霞除去処理を行い、オブジェクト検出処理までを行った結果を表示した例である。
1301は表示用ウィンドウで、第一のパラメータを用いて霧霞除去処理を行った結果、および、第二のパラメータを用いて霧霞除去を行った結果の画像を表示する。例えば、表示部210を用いて1301を表示する。
1302は霧霞除去処理結果画像で、第一のパラメータを用いて霧霞除去処理を行った結果を表示する。
1303は、オブジェクト検出結果表示枠で、ステップS404の処理結果を表示する。
図13(b)は、図13(a)で検出されたオブジェクトに対して、第二のパラメータを用いて霧霞除去処理を行った結果を表示する例である。
1304は、第二のパラメータを用いた霧霞除去処理結果画像である。ここでは、検出されたすべてのオブジェクトに対して第二のパラメータを用いて霧霞除去処理を行っているが、例えば、1303を操作部112を用いて選択し、選択した部分に対してのみ第二のパラメータを用いた霧霞除去処理を行う場合も考えられる。
以上説明したように、本発明によれば、画像中の微粒子成分の影響の除去処理をする際に、オブジェクト検出の結果を表示し、ユーザーの指定などに基づいて除去処理の効果を変えることができる。これにより、よりオブジェクトの視認性が高い画像を得ることができる。
(実施例3)
次に、実施例2とは異なるUI例の場合について説明する。処理の流れは実施例2と同じであるが、表示例が異なる。
図15に、本実施例における結果の表示例を示す。図15(a)は、本実施例における結果表示UI例のうち、1枚の画像で処理結果を表示する一例であり、第一のパラメータを用いて霧霞除去処理を行い、オブジェクト検出処理までを行った結果を表示した例である。
1501は表示用ウィンドウで、第一のパラメータを用いて霧霞除去処理を行った結果、および第二のパラメータを用いて霧霞除去を行った結果の画像を表示する。例えば、表示部210を用いて1501を表示する。
1502は霧霞除去処理結果画像で、第一のパラメータを用いて霧霞除去処理を行った結果を表示する。
図15(b)は、オブジェクト検出を行い、第二のパラメータを用いた霧霞除去処理の結果を表示した例である。
1503は、第一、および第二のパラメータを用いた霧霞除去処理結果を表示するウィンドウである。
1504は、オブジェクト検出結果を表示する枠である。
そして1505は、1504で検出されたオブジェクトにあたる領域について、第二のパラメータを用いて霧霞除去処理を行った結果を切り出し、拡大表示したものである。同様に、1506にあたるオブジェクトには、第二のパラメータを用いた霧霞除去処理結果を1507に表示している。
ここでは、複数のオブジェクト検出結果をすべて見られるよう、並べて表示しているが、本実施例はこれに制限されず、拡大表示結果をいずれか一つだけとしても良いし、複数個表示しても構わない。また、すべての検出結果を表示せず、ユーザーが操作部112を用いて表示したいオブジェクトを指定してもよい。
以上説明したように、本発明によれば、画像中の微粒子成分の影響の除去処理をする際に、オブジェクト検出の結果を表示し、ユーザーの指定などに基づいて除去処理の効果を変えることができる。これにより、よりオブジェクトの視認性が高い画像を得ることができる。
(その他の実施例)
なお、上述した各処理部のうち、オブジェクト抽出処理部206、微粒子除去処理部等については、その代わりとして、機械学習された学習済みモデルを代わりに用いて処理しても良い。その場合には、例えば、その処理部への入力データと出力データとの組合せを学習データとして複数個準備する。複数の学習データから機械学習によって知識を獲得し、獲得した知識に基づいて入力データに対する出力データを結果を出力する学習済みモデルを生成する。学習済みモデルは、例えばニューラルネットワークモデルにより構成可能である。そして、その学習済みモデルは、前記処理部と同等の処理をするためのプログラムとして、CPUあるいはGPUなどと協働で動作することにより、前記処理部の処理を行う。なお、上記学習済みモデルは、必要に応じて一定の処理後に更新しても良い。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
201 入力画像データ取得部
202 微粒子除去処理部
203 微粒子除去画像データ出力部

Claims (8)

  1. 撮像手段による撮像で得られた画像データを処理する画像処理装置であって、
    前記画像データにおける第一の領域に、第一の微粒子除去の処理を行う第一の画像処理手段と、
    前記画像データにおける前記第一の領域と異なる第二の領域に、前記第一の微粒子除去の処理と異なる第二の微粒子除去の処理を行う第二の画像処理手段と、
    前記第一の画像処理手段による前記第一の微粒子除去の処理と前記第二の画像処理手段による前記第二の微粒子除去の処理とが行われた前記画像データを、前記第一の領域もしくは前記第二の領域を示す情報とともに、表示させる表示手段と、
    を有することを特徴とする画像処理装置。
  2. 前記第一の領域もしくは前記第二の領域を示す情報は、前記第一の領域もしくは前記第二の領域を示す表示枠であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第一の領域もしくは前記第二の領域は、ユーザの指定に基づき設定されることを特徴とする請求項1に記載の画像処理装置。
  4. 前記第一の画像処理手段は、第一のパラメータにより、前記第一の領域に前記第一の微粒子除去の処理を行い、前記第二の画像処理手段は、前記第一のパラメータと異なる第二のパラメータにより、前記第二の領域に前記第二の微粒子除去の処理を行うことを特徴とする請求項1に記載の画像処理装置。
  5. 前記表示手段は、前記第一の画像処理手段による前記第一の微粒子除去の処理と前記第二の画像処理手段による前記第二の微粒子除去の処理とが行われた前記画像データを、前記第一の領域もしくは前記第二の領域の拡大表示の画像とともに、表示させることを特徴とする請求項1に記載の画像処理装置。
  6. 前記第一の領域もしくは前記第二の領域それぞれは、複数の領域であることを特徴とする請求項1に記載の前記画像処理装置。
  7. 撮像手段による撮像で得られた画像データを処理する画像処理方法であって、
    第一の画像処理手段が、前記画像データにおける第一の領域に、第一の微粒子除去の処理を行う第一の画像処理工程と、
    第二の画像処理手段が、前記画像データにおける前記第一の領域と異なる第二の領域に、前記第一の微粒子除去の処理と異なる第二の微粒子除去の処理を行う第二の画像処理工程と、
    表示手段が、前記第一の画像処理工程による前記第一の微粒子除去の処理と前記第二の画像処理工程による前記第二の微粒子除去の処理とが行われた前記画像データを、前記第一の領域もしくは前記第二の領域を示す情報とともに、表示させる表示工程と、
    を有することを特徴とする画像処理方法。
  8. コンピュータを、
    撮像手段による撮像で得られた画像データを処理する画像処理装置であって、
    前記画像データにおける第一の領域に、第一の微粒子除去の処理を行う第一の画像処理手段と、
    前記画像データにおける前記第一の領域と異なる第二の領域に、前記第一の微粒子除去の処理と異なる第二の微粒子除去の処理を行う第二の画像処理手段と、
    前記第一の画像処理手段による前記第一の微粒子除去の処理と前記第二の画像処理手段による前記第二の微粒子除去の処理とが行われた前記画像データを、前記第一の領域もしくは前記第二の領域を示す情報とともに、表示させる表示手段と、
    を有することを特徴とする画像処理装置として機能させるためのプログラム。
JP2020178247A 2020-10-23 2020-10-23 画像処理装置及びその制御方法及びプログラム Pending JP2022069197A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020178247A JP2022069197A (ja) 2020-10-23 2020-10-23 画像処理装置及びその制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020178247A JP2022069197A (ja) 2020-10-23 2020-10-23 画像処理装置及びその制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2022069197A true JP2022069197A (ja) 2022-05-11

Family

ID=81521913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020178247A Pending JP2022069197A (ja) 2020-10-23 2020-10-23 画像処理装置及びその制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2022069197A (ja)

Similar Documents

Publication Publication Date Title
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
JP6635799B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP6579868B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6818463B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2013168618A1 (ja) 画像処理装置及び画像処理方法
JP6282095B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP6576083B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6320115B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2014232938A (ja) 画像処理装置、画像処理方法及びプログラム
JPWO2014069103A1 (ja) 画像処理装置
JP2020061080A (ja) 画像処理装置、撮像装置、画像処理方法
US20230274398A1 (en) Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium
JP2013026933A (ja) 画像処理装置、画像処理方法、およびプログラム
KR101468433B1 (ko) 결합된 색상 채널 변환 맵을 이용한 다이나믹 레인지 확장 장치 및 방법
JP2019205205A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2022069197A (ja) 画像処理装置及びその制御方法及びプログラム
JP6661268B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2018160024A (ja) 画像処理装置、画像処理方法及びプログラム
JP5178933B1 (ja) 画像処理装置
JP7034690B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP7227785B2 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
JP2019086969A (ja) 画像処理装置、画像処理方法、及びプログラム
KR101631023B1 (ko) 이웃 기반의 강도 보정 장치, 백그라운드 획득 장치 및 그 방법
JP6494817B2 (ja) 画像処理装置、画像処理方法およびプログラム。

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231020

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241015