JP2016126724A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2016126724A
JP2016126724A JP2015002523A JP2015002523A JP2016126724A JP 2016126724 A JP2016126724 A JP 2016126724A JP 2015002523 A JP2015002523 A JP 2015002523A JP 2015002523 A JP2015002523 A JP 2015002523A JP 2016126724 A JP2016126724 A JP 2016126724A
Authority
JP
Japan
Prior art keywords
image
pixel
pixel value
scattered light
infrared light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015002523A
Other languages
English (en)
Other versions
JP6661268B2 (ja
Inventor
靖浩 伊藤
Yasuhiro Ito
靖浩 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015002523A priority Critical patent/JP6661268B2/ja
Publication of JP2016126724A publication Critical patent/JP2016126724A/ja
Application granted granted Critical
Publication of JP6661268B2 publication Critical patent/JP6661268B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

【課題】 大気中の微小粒子の濃度が高い場合であっても、微小粒子による散乱光の影響を低減した画像を提供する。
【解決手段】 画像処理装置が、散乱光に由来する成分を画素値に含むカラー画像から、前記散乱光に由来する成分の少なくとも一部を除去した補正画像を生成する画像処理装置であって、前記カラー画像を取得する第一の取得手段と、前記カラー画像と同じ被写体からの、可視光よりも波長の短い電磁波による信号を含む補助画像を取得する第二の取得手段と、前記第二の取得手段により取得された前記補助画像に基づいて、前記補正画像を生成する生成手段とを有する。
【選択図】 図4

Description

本発明は、画像データにおける散乱光の影響を低減する画像処理に関する。
監視カメラなどの分野において、カメラから被写体までの間に存在する微小粒子(例えば、霧)によって被写体の視認性が低下し、撮像画像の画質が劣化することが問題となっている。例えば、被写体とカメラとの相対的な距離が遠くなるにつれて、微小粒子による光散乱の影響でコントラストの低下が発生する。このような微小粒子の影響による画質の劣化を低減するとして、特許文献1に記載の技術が提案されている。特許文献1に記載の技術では、各画素のRGBチャンネルの画素値のうち最も値が小さいチャンネルの画素値に基づいて、各画素に届く光の微小粒子に対する透過率を算出し、透過率に応じて各画素の画素値を補正することで霧等を除去している。
米国特許第8340461号公報
しかしながら、特許文献1に記載の技術を用いた場合であっても、微小粒子の濃度によっては、画像上で被写体が微小粒子の影響により埋もれてしまい、元の被写体由来の情報を回復しきれない場合がある。そこで本発明では、大気中の微小粒子の濃度が高い場合であっても、微小粒子による散乱光の影響を低減した画像を提供することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置は、散乱光に由来する成分を画素値に含むカラー画像から、前記散乱光に由来する成分の少なくとも一部を除去した補正画像を生成する画像処理装置であって、前記カラー画像を取得する第一の取得手段と、前記カラー画像と同じ被写体からの、可視光よりも波長の短い電磁波による信号を含む補助画像を取得する第二の取得手段と、前記第二の取得手段により取得された前記補助画像に基づいて、前記補正画像を生成する生成手段とを有することを特徴とする。
本発明によれば、大気中の微小粒子の濃度が高い場合であっても、微小粒子による散乱光の影響を低減した画像を提供することができる。
実施例1の画像処理装置で処理する画像の例を示す図。 実施例1の画像処理装置の構成を示す図。 実施例1の画像処理装置の構成を示す図。 実施例1の画像処理装置により行われる処理の流れを示すフローチャート。 実施例1の推定部により行われる処理の流れを示すフローチャート。 実施例1の透過率マップ補正処理の概要を示す図。 実施例1の補正部により行われる処理の流れを示すフローチャート。
<実施例1>
実施例1では、可視光の信号に基づく画像に加え、赤外光の信号に基づく画像を用いて微粒子成分による散乱光の影響を低減する処理について説明する。まず、実施例1の処理の概要について説明する。なお、以下は簡単の為に微粒子成分として大気中の霧を例に挙げて説明を行うが、塵や砂埃と言ったその他の微粒子成分にも本実施例の処理は適用可能である。
図1は、本発明で用いる画像の例を示す模式図である。図1(a)に示すように、近方に建物10および植物20、遠方に建物30が存在する場合を例に説明する。図1(b)では、霧が強く発生した場合において、図1(a)に示すシーンがどのように撮影されるかを示した模式図である。建物10や植物20については、カメラから被写体までの距離が近いため、霧の影響を受けづらく、建物10bや植物20bのように判別可能である。しかし、建物30bについては、カメラから被写体までの距離が遠いため、霧の影響を強く受けて像が霧に埋もれてしまい、可視光の画像中では判別ができなくなる。このとき、赤外光の信号に基づく画像では、図1(c)に示すように、建物30cが判別可能である場合が多い。これは、赤外線は可視光線に比べて霧による光の拡散の影響を受けにくいことに起因する。そこで、本発明では、可視光画像上で判別できない被写体についての情報を赤外光画像から取得することにより、霧の濃度が高い場合であっても霧の成分の影響を低減した画像を得る。以下、本実施例に係る画像処理装置の構成について図2を参照して説明する。
画像処理装置200(以下、処理装置200)は、CPU201、RAM202、ROM203、HDDI/F204、HDD205、入出力I/F206、出力I/F207、システムバス208を有している。また、処理装置200は、入出力I/F206を介して外部メモリ209と撮像部211とに接続され、出力I/F207を介して表示部210に接続されている。
CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを実行し、システムバス208を介して後述する各構成を統括的に制御するプロセッサである。CPU201により、後述する様々な処理が実行される。
HDDI/F204は、例えばシリアルATA(SATA)等のインタフェイスであり、二次記憶装置としてのHDD205を接続する。CPU201は、HDDI/F204を介してHDD205からのデータ読み出し、およびHDD205へのデータ書き込みが可能である。さらにCPU201は、HDD205に格納されたデータをRAM202に展開し、同様に、RAM202に展開されたデータをHDD205に保存することが可能である。そしてCPU201は、RAM202に展開したデータをプログラムとみなし、実行することができる。なお、二次記憶装置はHDDの他、光ディスクドライブ等の記憶デバイスでもよい。
入出力I/F206は、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU201は、入出力I/F206を介して、撮像部211および外部メモリ209(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)などからデータを取得する。また、撮像部211への命令信号を出力したり、外部メモリ209へのデータの出力などを行うこともできる。
出力I/F207は、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスである。CPU201は、出力I/F207を介して、表示部210(ディスプレイなどの各種出力デバイス)に、撮像部211の撮像画像などを表示する。
撮像部211は、被写体からの可視光や赤外光をセンサで受光し、A/D変換を施すことによって撮像画像のデジタルデータを取得するカメラである。このとき、可視光と、赤外光を取得できるセンサは、同一であってもよいし、異なるセンサであっても構わない。本実施例では、可視光と、赤外光を取得できるセンサは別にあるものとして扱う。以下、可視光を取得するセンサにより得られた撮像画像を可視光画像、赤外光を取得するセンサにより得られた撮像画像を赤外光画像と呼ぶ。可視光を取得するセンサはカラーフィルタを有し、散乱光に由来する成分を画素値に含むカラー画像を取得する。なお、処理装置200の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
以下、本実施例の処理装置200で行われる処理について説明する。図3に示す機能ブロック図および図4に示すフローチャートを用いて説明する。実施例1の処理装置200は、図2に示すように第一取得部301、第二取得部302、推定部303、補正部304、生成部305としての機能を有する。処理装置200は、CPU201がROM203内に格納された制御プログラムを読み込み実行することで、上記各部の機能を実現する。なお、各構成部に相当する専用の処理回路を備えるように処理装置200を構成してもよい。以下、各構成部により行われる処理の流れを説明する。
ステップS401では、第一取得部301が、撮像部211から入力された可視光画像を取得し、取得した可視光画像を推定部303および生成部305に出力する。ステップS402では、第二取得部302が、撮像部211から入力された赤外光画像を取得し、補正部304に出力する。なお、ステップS401およびS402で取得する可視光画像及び赤外光画像は、撮像部211から入力されたものではなく、HDD205や外部メモリ209に記憶されたものであってもよい。
ステップS403では、推定部303が、第一取得部301から入力された可視光画像に基づいて、シーンの透過率マップおよび散乱光基準強度を推定する。この処理の詳細については後述する。推定部303は、推定により得られた透過率マップを補正部304に出力し、散乱光基準強度を生成部305に出力する。ステップS404では、補正部304が、第二取得部302から入力された赤外光画像に基づいて、推定部303から入力された透過率マップに補正を行う。この処理の詳細については後述する。補正部304は、補正が完了した透過率マップを生成部305に出力する。
ステップS405では、生成部305が、補正部304から入力された透過率マップおよび推定部303から入力された散乱光基準強度に基づいて、可視光画像に対して画素値の補正を行った補正画像の生成を行う。霧の影響を受けた画像は、一般的に次式によって表せることが知られている。
I(x,y)=J(x,y)・t(x,y)+(1−t(x,y))・A (1)
ここで、I(x,y)は霧の影響下で撮像された可視光画像の画素値、J(x,y)は霧の影響が存在しない場合に撮像された画像の画素値、t(x,y)は光の透過率である。本実施例において、は、画素値の中の被写体から届く光に由来する成分の割合を示す値であり、裏を返せば、被写体から届く光ではない散乱光に由来する成分の割合を示す値である。また、Aは太陽や空などの光源の光が霧によって散乱した光成分を示す値である(以下、散乱光基準強度と呼ぶ)。すなわち、霧の影響が除去された画像の画素値J(x,y)は以下の式(2)で表わされる。
Figure 2016126724
第一取得部301から入力された可視光画像と、推定部303から入力された散乱光基準強度と、補正部304から入力された透過率マップとが示す各パラメータの値を式(2)に代入することで、補正画像を生成することができる。本実施例では、更にロバスト性を高めるために、各パラメータを以下の式(3)に代入することで補正画像を生成する。
Figure 2016126724
ここでtは調整のための係数で、例えば0.1とする。これは、tが限りなく小さい値であった場合、Jの値が、Iのわずかな差、つまり、撮像時のショットノイズ等によって値が大きく変動してしまうのを防ぐために設けられた値であって、上で挙げた0.1でなくても良い。この処理により、可視光画像の画素値に含まれる散乱光に由来する成分の少なくとも一部が除去された画像が、補正画像として生成される。生成部305は、生成した補正画像をHDD205や表示部210などに出力して処理を終了する。
以上が本実施例の処理装置200で行われる処理の流れである。以下、各ステップの詳細について説明する。まず、推定部303で行われる透過率マップと散乱光基準強度の推定処理(ステップS403)について図5に示すフローチャートを参照して説明する。
ステップS501では、推定部303が、散乱光基準強度の推定を行う。推定部303は、第一取得部301から入力された可視光画像の中で、各画素のRGBチャンネルのうち、最も画素値が小さいチャンネルの画素値を、画素ごとに抜き出す。以下、この処理により生成された画像をダークチャンネル画像と呼ぶ。すなわち、ダークチャンネル画像の画素値D(x,y)は以下の式(4)で表わされる。
D(x,y)=min(R(x,y),G(x,y),B(x,y)) (4)
ここで、R(x,y)、G(x,y)、B(x,y)はそれぞれ画素位置(x,y)におけるRGB各チャンネルの画素値である。そして、推定部303は、ダークチャンネル画像に含まれる画素値のうち、大きさが上位0.1%に入る画素値を持つ画素の平均画素値を、散乱光基準強度A(以下、基準強度Aとする)として決定する。これは、ダークチャンネル画像は散乱光の影響を強く反映した画像であり、その中で画素値が大きい領域は散乱光の影響を主成分とする画素に対応するという考えに基づいている。なお、散乱光基準強度の推定方法はこれに限られず、例えば画素値の閾値を上位0.1%ではない別の値としてもよい。また、空などの散乱光が支配的な領域を自動的に認識、またはユーザが指定して、その領域の平均画素値を基準強度として設定してもよい。推定部S501は、推定した基準強度Aを生成部305に出力する。
ステップS502では、推定部303が、ステップS501で生成されたダークチャンネル画像を基準強度Aで除算する。この処理によって生成される画像D(x,y)は以下の式(5)で表わされる。
Figure 2016126724
(x,y)は、その画素における散乱光の支配度を表わす値である。
ステップS503では、推定部303が、ステップS502で生成された画像D(x,y)にパッチ処理を行うことで、パッチ画像P(x,y)を生成する。具体的には、画像D(x,y)において、処理対象となる画素(x,y)を中心とした11×11画素の範囲の画素値を参照し、その中で最も小さい画素値を、P(x,y)の画素値とする。この処理をD(x,y)の全画素について行い、P(x,y)を求める。この処理は、ステップS502で算出された散乱光の支配度が被写体自身の色に左右される度合いを低減し、ロバスト性を高めるための処理である。なお、このパッチ処理で用いるパッチのサイズは上記に限られず、目的に合わせて自由に設定して良い。
ステップS504では、推定部303が、ステップS503で生成されたパッチ画像P(x,y)を用いて、各画素位置における被写体からの光の透過率を表わす画像データである透過率マップt(x,y)を生成する。t(x,y)は以下の式(6)で表わされる。
t(x,y)=1.0−ωP(x,y) (6)
ここで、ωは調整のための係数であり、例えば0.9とする。ωは、対象の画素の画素値が散乱光の成分のみで構成されていた場合に、透過率が0になることで補正画像の画素値が0になってしまうのを避けるために設けられた値であって、上で挙げた0.9でなくても良い。
ステップS505では、ステップS504で生成した透過率マップを、可視光画像に合わせて整形する。ここでは、GuidedFilterのような公知のフィルタを用いて成形処理を行えばよい。推定部303は、整形処理を行った透過率マップを補正部304に出力し、処理を終了する。
以上が、推定部303で行われる処理の流れである。次に、補正部304で行われる処理(ステップS404)の詳細について説明する。まず、ステップS404で行われる処理の概要について図6を参照して説明する。
図6(a)は、図1(b)に示す可視光撮像画像データから生成したD(x,y)を示した模式図である。カメラと被写体までの距離が近い建物10dと植物20dについては、物体の形状を取得できているが、建物30dについては、カメラと被写体の間の距離が遠いため、D(x,y)上でもその形状を確認することができない。また、植物に対応する画素値はRGBのうち、G成分が多く、他の成分は少ないため、D(x,y)上では黒に近くなる。図6(b)は、図6(a)を基に生成した透過率マップを示す模式図である。先述の式(6)から求められる透過率マップは、おおむねD(x,y)の反転画像となる場合が多い。そのため、図6(b)において、植物20eは白に近くなる。カメラと被写体の距離が近い建物10eについては物体の判別ができるため、中間値周辺に画素値が集まる傾向にある。この画素値の傾向は図6(c)に示すような赤外光画像に近い。なお、赤外光画像は、先に述べた通り、赤外線が霧等の微小粒子成分の影響を受けにくい特性であることから、図6(c)建物30fのように、遠景の建物の形状も判別できる。このとき、遠景の建物も、背景に比べて明るい画素値を持つ。このことから、ステップS404の処理では、図6(b)と図6(c)を比較し、画素値の大きい方の画素値をそれぞれ抽出することにより、図6(d)に示すような、赤外光画像の情報を加味した補正後透過率マップを生成する。これにより、霧の影響により可視光画像では判別できなかった建物30についても、被写体の形状を反映した霧除去処理を行うことが可能になる。
以下、ステップS404の具体的な処理について、図7に示すフローチャートを参照して説明する。ステップS701では、補正部304が、第二取得部302から入力された赤外光画像を取得する。そして、ステップS702では、補正部304が、推定部303から入力された透過率マップを取得する。ステップS703では、補正部304が、ステップS701で取得した赤外光画像と、ステップS702で取得した透過率マップとの位置合わせを行う。位置合わせには、例えば特徴ベースマッチングの代表的な手法の一つであるAffine−SIFT(ASIFT)アルゴリズムなどを用いることができる。補正部304は、ASIFTアルゴリズムを用いて赤外光画像を可視光画像と位置合わせをするためのアフィン変換パラメータを得て、得たアフィン変換パラメータを用いて、赤外光画像を変形させる。変形後の赤外光画像は、透過率マップと位置合わせされ、画素数と画角も同じ画像となる。なお、赤外光画像と可視光画像が同じセンサで取得可能な場合は、赤外光画像と透過率マップとの位置合わせを行う必要はない。
ステップS704では、補正部304が、赤外光画像と透過率マップとの比較を行う画素位置である、画素の参照位置を初期化する。例えば、最初の参照位置をそれぞれ画像の一番左上の画素に設定する。なお、最初の参照位置は画像中のどの画素位置を設定してもよい。ステップS705では、参照位置の画素について、赤外光画像と透過率マップとの画素値を比較する。赤外光画像の画素値が透過率マップの画素値よりも大きければステップS706へと進む。赤外光画像の画素値が、透過率マップの画素値以下であればステップS707へと進む。
ステップS706では、補正部304が、透過率マップの参照位置における画素値を、赤外光画像の参照位置における画素値で置き換える。そして、ステップS707では、補正部304が、透過率マップの全ての画素について赤外光画像との比較が終了したかどうかを判定する。透過率マップの全ての画素について赤外光画像との比較が終了したと判定された場合には、補正部304は、補正済みの透過率マップを生成部305に出力して処理を終了する。透過率マップの全ての画素について赤外光画像との比較が終了していないと判定された場合には、ステップS708へと進む。
ステップS708では、補正部304が、参照位置を変更する。例えば、最初の参照位置が画像の左上である場合は一つ右の画素位置に参照位置を変更する。現在の参照位置が画像の右端である場合には、一つ下の行の左端の画素位置を参照位置として設定する。
以上が本実施例の処理装置200で行われる処理である。以上の処理によれば、大気中の微小粒子の濃度が高い場合であっても、微小粒子による散乱光の影響を低減した画像を提供することができる。
なお、赤外光画像を用いた透過率マップの補正の方法は以上の方法に限られない。例えば、赤外光画像においてエッジ抽出を行うことで被写体が存在する領域を判定し、被写体が存在すると判定された領域については、透過率マップの画素値を補正する処理を行うようにしてもよい。例えば、この時の補正量は、赤外光画像において抽出されたエッジの外側と内側の画素値の差に基づいて決定するようにしてもよい。また、霧によって埋もれていると判定された被写体の領域には、あらかじめ定められた透過率を割り当てるようにしてもよい。
また、上記の処理においては、推定部303が、可視光画像の画素値に基づいて透過率マップの取得を行ったが、透過率マップの取得方法はこれに限られない。例えば、あらかじめシーンに存在する被写体からカメラまでの距離を示す距離情報を予め保持しておき、その距離情報から透過率を取得するようにしてもよい。
なお、本実施例において、処理装置200は、散乱光に由来する成分を画素値に含むカラー画像から、前記散乱光に由来する成分の少なくとも一部を除去した補正画像を生成する画像処理装置として機能する。また、第一取得部301は、前記カラー画像を取得する第一の取得手段として機能する。また、第二取得部302は、前記カラー画像と同じ被写体からの、可視光よりも波長の短い電磁波による信号を含む補助画像を取得する第二の取得手段として機能する。また、推定部303は、前記カラー画像の各画素について、該画素に対応する散乱光の強度を示す情報を取得する強度取得手段として機能する。また、補正部304は、前記強度取得手段により取得された、前記散乱光の強度を示す情報を、前記補助画像に基づいて補正する補正手段として機能する。また、生成部305は、前記第二の取得手段により取得された前記補助画像に基づいて、前記補正画像を生成する生成手段として機能する。
<その他の実施形態>
なお、実施例1では、可視光に基づくカラー画像に含まれる散乱光の成分を、赤外光画像を利用して除去する技術について説明したが、この時に用いる画像は赤外光画像に限られず、可視光では得られない被写体の形状情報が得られる画像であればよい。例えば、赤外線よりも波長の長い電磁波である電波に基づく画像を使って、カラー画像に含まれる散乱光の成分を除去するようにしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
301 第一取得部
302 第二取得部
305 生成部

Claims (8)

  1. 散乱光に由来する成分を画素値に含むカラー画像から、前記散乱光に由来する成分の少なくとも一部を除去した補正画像を生成する画像処理装置であって、
    前記カラー画像を取得する第一の取得手段と、
    前記カラー画像と同じ被写体からの、可視光よりも波長の短い電磁波による信号を含む補助画像を取得する第二の取得手段と、
    前記第二の取得手段により取得された前記補助画像に基づいて、前記補正画像を生成する生成手段とを有することを特徴とする画像処理装置。
  2. 前記カラー画像の各画素について、該画素に対応する散乱光の強度を示す情報を取得する強度取得手段と、
    前記強度取得手段により取得された、前記散乱光の強度を示す情報を、前記補助画像に基づいて補正する補正手段とを更に有し、
    前記生成手段は、前記補正手段により補正された、前記散乱光の強度を示す情報を用いて、前記補正画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記散乱光の強度を示す情報は、各画素の画素値における、散乱光に由来する成分の割合を示す透過率マップであり、
    前記補正手段は、前記補助画像に基づいて前記透過率マップを補正することを特徴とする請求項2に記載の画像処理装置。
  4. 前記補助画像は、赤外光による信号を含む赤外光画像であることを特徴とする請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記補助画像は赤外光による信号を含む赤外光画像であり、
    前記補正手段は、前記透過率マップが示す透過率の値を、前記赤外光画像の画素値で置き換えることにより、前記透過率マップの補正を行うことを特徴とする請求項3に記載の画像処理装置。
  6. 前記補正手段は、前記透過率マップと前記赤外光画像との間で、被写体の同じ位置に対応する画素の画素値を比較し、該画素における前記赤外光画像の画素値が、該画素における前記透過率マップの画素値よりも大きい場合に、該画素における前記透過率マップの画素値を、該画素における前記赤外光画像の画素値で置き換えることを特徴とする請求項5に記載の画像処理装置。
  7. 散乱光に由来する成分を画素値に含むカラー画像から、前記散乱光に由来する成分の少なくとも一部を除去した補正画像を生成する画像処理方法であって、
    前記カラー画像を取得する第一の取得工程と、
    前記カラー画像と同じ被写体からの、可視光よりも波長の短い電磁波による信号を含む補助画像を取得する第二の取得工程と、
    前記第二の取得工程で取得された前記補助画像に基づいて、前記補正画像を生成する生成工程とを含むことを特徴とする画像処理方法。
  8. コンピュータを請求項1乃至5のいずれか一項に記載の画像処理装置の各手段として機能させるプログラム。
JP2015002523A 2015-01-08 2015-01-08 画像処理装置、画像処理方法及びプログラム Active JP6661268B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015002523A JP6661268B2 (ja) 2015-01-08 2015-01-08 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015002523A JP6661268B2 (ja) 2015-01-08 2015-01-08 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016126724A true JP2016126724A (ja) 2016-07-11
JP6661268B2 JP6661268B2 (ja) 2020-03-11

Family

ID=56358059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015002523A Active JP6661268B2 (ja) 2015-01-08 2015-01-08 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6661268B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095717A (ja) * 2018-12-11 2020-06-18 キヤノン株式会社 自由視点映像用画像データのキャプチャ方法、キャプチャシステム及びキャプチャ装置
WO2022168517A1 (ja) * 2021-02-03 2022-08-11 ソニーグループ株式会社 画像処理装置及び画像処理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239259A (ja) * 2010-05-12 2011-11-24 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012221237A (ja) * 2011-04-08 2012-11-12 Olympus Corp 霞除去画像処理装置、霞除去画像処理方法及び霞除去画像処理プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011239259A (ja) * 2010-05-12 2011-11-24 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012221237A (ja) * 2011-04-08 2012-11-12 Olympus Corp 霞除去画像処理装置、霞除去画像処理方法及び霞除去画像処理プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095717A (ja) * 2018-12-11 2020-06-18 キヤノン株式会社 自由視点映像用画像データのキャプチャ方法、キャプチャシステム及びキャプチャ装置
WO2022168517A1 (ja) * 2021-02-03 2022-08-11 ソニーグループ株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP6661268B2 (ja) 2020-03-11

Similar Documents

Publication Publication Date Title
US11106938B2 (en) Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data
US10719730B2 (en) Image processing apparatus, image processing method, and non-transitory storage medium
US20200043225A1 (en) Image processing apparatus and control method thereof
JP6579868B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US10038862B2 (en) Methods and apparatus for automated noise and texture optimization of digital image sensors
US20150278996A1 (en) Image processing apparatus, method, and medium for generating color image data
CN107316326B (zh) 应用于双目立体视觉的基于边的视差图计算方法和装置
JP6635799B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20150213611A1 (en) Image processing apparatus that identifies image area, and image processing method
JP6249638B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6818463B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP3016383B1 (en) Method, device, and system for pre-processing a video stream for subsequent motion detection processing
JP6320115B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN104766307A (zh) 一种图像处理的方法及设备
JP6531542B2 (ja) 画像処理システム、画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP6661268B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20230274398A1 (en) Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium
CN107292853B (zh) 图像处理方法、装置、计算机可读存储介质和移动终端
EP3605450B1 (en) Image processing apparatus, image pickup apparatus, control method of image processing apparatus, and computer-program
JP2018160024A (ja) 画像処理装置、画像処理方法及びプログラム
JP6494817B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP6324192B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US20240177281A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2022069197A (ja) 画像処理装置及びその制御方法及びプログラム
Gu et al. Atmospheric Light Estimation by Edge Detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200212

R151 Written notification of patent or utility model registration

Ref document number: 6661268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151