JP2014078799A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2014078799A
JP2014078799A JP2012224385A JP2012224385A JP2014078799A JP 2014078799 A JP2014078799 A JP 2014078799A JP 2012224385 A JP2012224385 A JP 2012224385A JP 2012224385 A JP2012224385 A JP 2012224385A JP 2014078799 A JP2014078799 A JP 2014078799A
Authority
JP
Japan
Prior art keywords
pixel
control information
scattered light
acquisition unit
transmittance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2012224385A
Other languages
English (en)
Inventor
Kyoka Kobuna
京佳 小鮒
Toshiyuki Ono
利幸 小野
Yasunori Taguchi
安則 田口
Toshimitsu Kaneko
敏充 金子
Nobuyuki Matsumoto
信幸 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012224385A priority Critical patent/JP2014078799A/ja
Priority to US14/049,369 priority patent/US20140098263A1/en
Publication of JP2014078799A publication Critical patent/JP2014078799A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

【課題】画像に含まれる散乱光の量を制御する。
【解決手段】実施形態によれば、画像処理装置は、散乱光取得部101と、制御情報取得部102と、制御部103とを備える。散乱光取得部101は、入力画像10の各画素に含まれる散乱光11の情報を取得する。制御情報取得部102は、出力画像13の各画素に含まれる散乱光11の量を決定付ける制御情報12を取得する。制御部103は、入力画像10の各画素に含まれる散乱光11の量を制御情報12に基づいて制御することによって、出力画像13を生成する。
【選択図】図1

Description

実施形態は、画像内に含まれる散乱光の量の制御に関する。
通常、オブジェクトをカメラで撮影する場合に、当該オブジェクトからの反射光はカメラに届くまでに大気によって減衰及び散乱される。そして、カメラに到達する光は、オブジェクトからの反射光の成分と周囲の光が大気によって散乱された散乱光の成分とが混合されたものとなる。この散乱光の成分が原因で、カメラによる撮影画像に霞がかかることがある。撮影画像から散乱光の成分を除去(即ち、霞を除去)できれば、除去後の画像においてオブジェクトからの反射光の成分が忠実に復元されるので撮影画像の視認性を向上させることができる。しかしながら、撮影画像から散乱光の成分を除去するためには、撮影画像の散乱光の色を推定する必要がある。
更に、画素における散乱光の混合割合が高いほど、人間は当該画素の表すオブジェクトまでの距離を遠くに感じる。反対に、画素における散乱光の混合割合が低いほど人間は当該画素の表すオブジェクトまでの距離を近くに感じる。このような人間の視覚特性を考慮すると、撮影画像から散乱光の成分を一律に除去する画像処理は、当該撮影画像の奥行き感を劣化させるおそれがある。
米国特許出願公開第2010/0259651号明細書
R Fattal,Single Image Dehazing",ACM Transactions on Graphics,SIGGRAPH, Volume 27,Issue3,August 2008. Single Image Haze Removal Using Dark Channel Prior (2009)
実施形態は、画像に含まれる散乱光の量を制御することを目的とする。
実施形態によれば、画像処理装置は、散乱光取得部と、制御情報取得部と、制御部とを備える。散乱光取得部は、入力画像の各画素に含まれる散乱光の情報を取得する。制御情報取得部は、出力画像の各画素に含まれる散乱光の量を決定付ける制御情報を取得する。制御部は、入力画像の各画素に含まれる散乱光の量を制御情報に基づいて制御することによって、出力画像を生成する。
第1の実施形態に係る画像処理装置を例示するブロック図。 図1の画像処理装置によって実行される画像処理を例示するフローチャート。 図1の散乱光取得部を例示するブロック図。 図3の散乱光取得部によって実行される散乱光取得処理を例示するフローチャート。 図4のステップS101−2の詳細を例示するフローチャート。 図2のステップS102の詳細を例示するフローチャート。 図2のステップS102において表示されるGUI(Graphical User Interface)を例示する図。 第2の実施形態に係る画像処理装置を例示するブロック図。 図8の画像処理装置によって実行される画像処理を例示するフローチャート。 図9のステップS201の詳細を例示するフローチャート。 図9のステップS201において表示されるGUIを例示する図。 制御情報マップの説明図。 第3の実施形態に係る画像処理装置を例示するブロック図。 図13の変形例を示すブロック図。 図13の画像処理装置によって実行される画像処理を例示するフローチャート。 図15のステップS301の詳細を例示するフローチャート。 図15のステップS302の詳細を例示するフローチャート。 図15のステップS302において表示されるGUIを例示する図。 図15のステップS302において表示されるGUIを例示する図。 図15のステップS302において表示されるGUIを例示する図。 図17の変形例を示すフローチャート。 図18の変形例を示す図。 図19の変形例を示す図。 図20の変形例を示す図。 図9のステップS201において領域間の境界線を指定するために利用可能なGUIを例示する図。 図25の変形例を示す図。
以下、図面を参照しながら実施形態の説明が述べられる。尚、以降、説明済みの要素と同一または類似の要素には同一または類似の符号が付され、重複する説明は基本的に省略される。
以降の説明において、色空間は、特に断りのない限り、RGB空間であるものとする。しかしながら、ある種別の色空間を他の種別の色空間に変換することは一般に可能であるから、RGB空間とは異なる種別の色空間がRGB空間の代わりに用いられてもよい。また、「散乱光の色」が単に「散乱光」と称されることもある。
(第1の実施形態)
図1に例示されるように、第1の実施形態に係る画像処理装置は、散乱光取得部101と、制御情報取得部102と、散乱光制御部103とを備える。図1の画像処理装置は、入力画像10の各画素に含まれる散乱光11の量を制御情報12に基づいて制御することによって、出力画像13を生成する。
散乱光取得部101は、入力画像10を受け取り、当該入力画像10の各画素に含まれる散乱光11を取得する。尚、散乱光11を取得するための技法の詳細は後述される。散乱光取得部101は、散乱光11の情報を散乱光制御部103へと出力する。散乱光11は、例えば太陽光、オブジェクトからの反射光などの光が、大気中に存在する微粒子によって散乱されるときに生じる光の色である。散乱光11は、典型的には、霞または霧の色である。
入力画像10の各画素は、オブジェクトからの反射光と、散乱光とが混合された色を持つ。一般に、視点(例えば、カメラによる撮影位置)からオブジェクトまでの距離が大きいほど、当該オブジェクトを表す画素における散乱光の混合割合は高い。換言すれば、視点からオブジェクトまでの距離が小さいほど、当該オブジェクトを表す画素における散乱光の混合割合は低い。
尚、散乱光11は、空気中に限られず水中でも生じる。従って、例えば水中で撮影された入力画像10においても、視点からオブジェクトまでの距離が大きくなるほど散乱光11の混入割合は増大するので、当該オブジェクトを表す画素は散乱光11に近い色(例えば、青色)を持つようになる。
制御情報取得部102は、制御情報12を取得する。制御情報取得部102は、典型的には、図示されない表示装置に後述されるGUIを表示し、当該GUIを通じてユーザー入力を取得し、当該ユーザー入力に基づいて制御情報12を取得する。制御情報取得部102は、制御情報12を散乱光制御部103へと出力する。
散乱光制御部103は、入力画像10を受け取り、散乱光取得部101から当該入力画像10の各画素に含まれる散乱光11の情報を入力し、制御情報取得部102から制御情報12を入力する。散乱光制御部103は、制御情報12に基づいて、入力画像10の各画素に含まれる散乱光11の量を制御することによって、出力画像13を生成する。散乱光制御部103は、出力画像13を図示されない後段の処理部または装置に供給する。
以下、図2を参照して図1の画像処理装置によって行われる画像処理の一例を説明する。図2の画像処理が開始すると、散乱光取得部101は入力画像10の各画素に含まれる散乱光11を取得する(ステップS101)。尚、ステップS101の詳細は、図3及び図4を用いて後述される。
制御情報取得部102は、例えばユーザー入力に基づいて制御情報12を取得する(ステップS102)。ここで、ステップS101とステップS102とは、独立した処理であるので、図2に示されていない順序で実行されてもよい。尚、ステップS102の詳細は、図6を用いて後述される。
散乱光制御部103は、ステップS101において取得された入力画像10の各画素に含まれる散乱光11の量をステップS102において取得された制御情報12に基づいて制御することによって、出力画像13を生成する(ステップS103)。
以下、図2のステップS101の詳細が説明される。散乱光取得部101は、ステップS101において例えば図4に示される散乱光取得処理を実行してもよい。係る場合に、散乱光取得部101は、図3に例示されるように、取得部111と、第1の信頼度算出部112と、第1の選択部113と、第2の信頼度算出部114と、第2の選択部115と、散乱光推定部120とを備えてよい。
取得部111は、入力画像10から複数の第1の画素領域14を取得する。取得部111は、複数の第1の画素領域14を第1の信頼度算出部112及び第1の選択部113へと出力する。
第1の画素領域14は、例えば入力画像10をブロック状に分割することによって得られる領域であってもよい。以降の説明において、第1の画素領域14は、入力画像10をブロック状に分割することによって得られる領域とする。或いは、第1の画素領域14は、例えば入力画像10の1以上のオブジェクトの各々を分割することによって得られる領域であってもよい。
第1の画素領域14は、複数の画素を備える。これら複数の画素は、必ずしも空間的に連続していなくてもよい。但し、一般的に反射光の色はオブジェクト毎に異なるので、第1の画素領域14に含まれるオブジェクトの総数は小さいことが好ましい。例えば、取得部111は、入力画像10を水平方向または垂直方向に縮小し、縮小された入力画像10をブロック状に分割したり、縮小された入力画像10の1以上のオブジェクトの各々を分割したりすることによって複数の第1の画素領域14を取得してもよい。
第1の信頼度算出部112は、複数の第1の画素領域14を取得部111から入力する。第1の信頼度算出部112は、複数の第1の画素領域14の各々に対して第1の信頼度15を算出する。第1の信頼度算出部112は、複数の第1の信頼度15を第1の選択部113へと出力する。
第1の信頼度15は、後述される入力画像10の散乱光の色14の推定における第1の画素領域14の信頼性を評価するものである。即ち、第1の信頼度15が高い第1の画素領域14を用いることによって、散乱光の推定精度を向上させることができる。第1の信頼度15の詳細は後述される。
第1の選択部113は、取得部111から複数の第1の画素領域14を入力し、第1の信頼度算出部112から複数の第1の信頼度15を入力する。第1の選択部113は、複数の第1の画素領域14から第1の信頼度15の高いものを選択することによって、複数の第2の画素領域16を得る。第1の選択部113は、複数の第2の画素領域16を第2の信頼度算出部114、第2の選択部115及び散乱光推定部120へと出力する。
具体的には、第1の選択部113は、複数の第1の画素領域14から第1の信頼度15が第1の閾値以上であるものを選択することによって、複数の第2の画素領域16を得ることができる。或いは、第1の選択部113は、第1の信頼度15の降順に所定個数(但し、2以上)の第1の画素領域14を選択することによって、複数の第2の画素領域16を得ることもできる。
第2の信頼度算出部114は、第1の選択部113から複数の第2の画素領域16を入力する。第2の信頼度算出部114は、複数の第2の画素領域16のうち2以上を備える1以上の組み合わせの各々に対して、第2の信頼度17を算出する。具体的には、第2の信頼度算出部114は、組み合わせに含まれる第2の画素領域16の画素値分布を近似する推定平面の1以上のペアがなす角度の直交性を表す直交度の総和(独立度と呼ぶこともできる)が大きいほど高くなるように第2の信頼度17を算出する。尚、第2の信頼度の詳細は後述される。第2の信頼度算出部114は、1以上の第2の信頼度17を第2の選択部115へと出力する。但し、後述されるように、第2の信頼度算出部114は、必ずしも全ての組み合わせについて第2の信頼度17を算出しない。
第2の選択部115は、第1の選択部113から複数の第2の画素領域16を入力し、第2の信頼度算出部114から1以上の第2の信頼度17を入力する。第2の選択部115は、2以上の第2の画素領域16を備える1以上の組み合わせから第2の信頼度17の高い1つの組み合わせを選択することによって、複数の第3の画素領域18を得る。具体的には、第2の選択部115は、1以上の組み合わせから第2の信頼度17が最高であるものを選択することによって、複数の第3の画素領域18を得ることができる。第2の選択部115は、複数の第3の画素領域18を散乱光推定部120へと出力する。
散乱光推定部120は、第1の選択部113から複数の第2の画素領域16を入力し、第2の選択部115から複数の第3の画素領域18を入力する。散乱光推定部120は、複数の第2の画素領域16及び複数の第3の画素領域18に基づいて入力画像10の各画素に含まれる散乱光11を推定する。
具体的には、所与の画素領域がオブジェクトの局所的な均一反射面に対応しており、当該所与の画素領域においてオブジェクトからの反射光の明るさ及び散乱光の混入する量が画素間で異なることのみに起因して画素値の差が生じていると仮定される。この仮定によれば、所与の画素領域における任意の画素値は、オブジェクトからの反射光の色と散乱光11とのαブレンドによって決まる。即ち、所与の画素領域における任意の画素値は、色空間において反射光の色のベクトルと散乱光11のベクトルとの線形和によって形成される理想平面上の一点を占める。そして、前述の通り、散乱光11は入力画像10内で一様である。故に、散乱光11のベクトルと、相異なる画素領域における相異なる反射光の色のベクトルとの線形和が形成する相異なる理想平面同士の交線は、散乱光11のベクトルを示す。散乱光推定部120は、係る仮定の下で、散乱光11を推定することができる。
尚、散乱光推定部120は、複数の第2の画素領域16を入力せずに、複数の第3の画素領域18に基づいて散乱光11を推定してもよい。係る場合には、第1の選択部113は複数の第2の画素領域16を散乱光推定部120へ出力しない。また、散乱光推定部120は、複数の第3の画素領域18を入力せずに、複数の第2の画素領域16に基づいて散乱光11を推定してもよい。係る場合には、第2の信頼度算出部114及び第2の選択部115は不要である。
散乱光推定部120は、図3に例示されるように、方向推定部121と、大きさ推定部122とを備えてもよい。
方向推定部121は、第2の選択部115から複数の第3の画素領域18を入力する。方向推定部121は、複数の第3の画素領域18に基づいて散乱光の色の方向19を推定する。方向推定部121は、推定した散乱光の色の方向19を大きさ推定部122へと出力する。
大きさ推定部122は、第1の選択部113から複数の第2の画素領域16を入力し、方向推定部121から散乱光の色の方向19を入力する。大きさ推定部122は、散乱光の色の方向19と複数の第2の画素領域16とに基づいて、散乱光の色の大きさを推定する。大きさ推定部122は、推定した散乱光の色の大きさを散乱光の色の方向19に乗算することによって散乱光11を得る。大きさ推定部122は、散乱光11の情報を出力する。
尚、大きさ推定部122は、複数の第2の画素領域16の代わりに複数の第3の画素領域18を第2の選択部115から入力し、当該複数の第3の画素領域18に基づいて散乱光の色の大きさを推定してもよい。係る場合には、第1の選択部113は、複数の第2の画素領域16を大きさ推定部122へ出力しない。
以下、図4を参照して図3の散乱光取得部によって行われる散乱光取得処理の一例を説明する。図4の散乱光取得処理が開始すると、ステップS101−1が行われる。
ステップS101−1において、取得部111は、入力画像10から複数の第1の画素領域14を取得する。第1の信頼度算出部112は、ステップS101−1において取得された複数の第1の画素領域14の各々に対して第1の信頼度15を算出する(ステップS101−2)。
第1の選択部113はステップS101−1において取得された複数の第1の画素領域14からステップS101−2において算出された第1の信頼度15の高いものを選択し、複数の第2の画素領域16を得る(ステップS101−3)。
第2の信頼度算出部114は、ステップS101−3において選択された複数の第2の画素領域16のうちの2以上を備える1以上の組み合わせの各々に対して第2の信頼度17を算出する(ステップS101−4)。第2の選択部115は、上記1以上の組み合わせからステップS101−4において算出された第2の信頼度17の高い1つの組み合わせを選択することによって、複数の第3の画素領域18を得る(ステップS101−5)。
方向推定部122は、ステップS101−5において選択された複数の第3の画素領域18に基づいて散乱光の色の方向19を推定する(ステップS101−6)。大きさ推定部122は、ステップS101−3において選択された複数の第2の画素領域16とステップS101−6において推定された散乱光の色の方向19とに基づいて散乱光の色の大きさを推定し、推定した散乱光の色の大きさを散乱光の色の方向19に乗じることによって散乱光11を得る(ステップS101−7)。ステップS101−7が完了すると、図4の散乱光取得処理は終了する。
図4のステップS101−2は、複数の第1の画素領域14の各々に対して例えば図5に示される第1の信頼度算出処理を行うことによって実現される。図5の第1の信頼度算出処理が開始すると、ステップS101−2−1が行われる。
ステップS101−2−1において、第1の信頼度算出部112は、第1の画素領域14内の各画素の重みw(x)を算出する。ここで、xは、各画素を特定する位置ベクトルであり、例えば入力画像10内で画素が占める座標によって表すことができる。また、画素xの画素値は、I(x)=(I(x),I(x),I(x))によって表すことができる。I(x)は、3次元ベクトルであり、画素xのRGB値を要素として持つ。重みw(x)は、後述される注目画素xと画素xとの間の色の差d(x,x)が小さいほど、大きくなるように算出される。
注目画素xは、第1の画素領域14内の複数の画素のうちのいずれか1つである。注目画素xは、例えば第1の画素領域14内の特定の位置(例えば中心位置)を占める画素であってよいし、第1の画素領域14内の平均画素値に最も近い画素であってもよい。或いは、注目画素xは、位置及び画素値のいずれにも基づかないで第1の画素領域14から任意に選択されてもよい。以降の説明では、注目画素xは、第1の画素領域14内の中心位置を占める画素とする。
注目画素xとそれ以外の周辺画素x’との間の色の差d(x,x’)は下記数式(1)によって導出できる。尚、注目画素xと注目画素xとの間の色の差d(x,x)は、0とみなすことができる。
Figure 2014078799
数式(1)において、U(x)は画素値I(x)のYUV色空間におけるU成分を表し、V(x)は画素値I(x)のYUV色空間におけるV成分を表す。数式(1)から明らかなように、色の差d(x,x’)は、注目画素xの色と周辺画素x’の色とが近いほど小さな値となる。
重みw(x)は、例えば下記数式(2)によって、注目画素xと画素xとの間の色の差d(x,x)が小さいほど、大きくなるように算出される。
Figure 2014078799
数式(2)において、σθは定数である。数式(2)によって算出される重みw(x)は0以上1以下である。
第1の信頼度算出部112は、ステップS101−2−1において算出した重みw(x)を用いて、第1の画素領域14内の画素値分布の共分散行列Cを算出する(ステップS101−2−2)。第1の信頼度算出部112は、共分散行列Cの第i行第j列の要素Cijを下記数式(3)によって算出できる。
Figure 2014078799
前述の通り色空間としてRGB空間が想定されているので、数式(3)においてi,j=1,2,3である。Rは、第1の画素領域14を表す。nは、第1の画素領域14(=R)内で個々の画素を識別するインデックスであり、1からNまでの連続する自然数を取り得る。即ち、Nは、第1の画素領域14(=R)内の画素の総数を表す。xは、nによって識別される画素の位置ベクトルを表す。xnpは、画素値I(x)の第p番目の要素である。p=1,2,3である。数式(3)によれば、注目画素xと色の近い画素ほど共分散行列Cへの寄与が大きいので、この共分散行列Cは均一反射面を近似する効果がある。具体的には、第1の画素領域14において均一反射面以外の色、ノイズなどが混入している場合があるが、係る混入の影響が前述の重み付けによって緩和される。
第1の信頼度算出部112は、ステップS101−2−2において算出した共分散行列Cの主成分分析を行う(ステップS101−2−3)。具体的には、第1の信頼度算出部112は、共分散行列Cの第1の主成分の固有ベクトル及び固有値と、第2の主成分の固有ベクトル及び固有値と、第3の主成分の固有ベクトル及び固有値とを算出する。
第1の信頼度算出部112は、ステップS101−2−3において行った主成分分析の結果に基づいて、第1の画素領域14に対する第1の信頼度15を算出する(ステップS101−2−4)。ステップS101−2−4が完了すると、第1の画素領域14に対する第1の信頼度算出処理が終了する。以下、第1の信頼度15の詳細を説明する。
第1の画素領域14がオブジェクトの局所的な均一反射面に対応しており、第1の画素領域14においてオブジェクトからの反射光の明るさ及び散乱光の混入する量が画素間で異なることのみに起因して画素値の差が生じていると仮定する。この仮定が成立しているならば、第1の画素領域14内の任意の画素値は、色空間において反射光の色のベクトルと散乱光11のベクトルとの線形和によって形成される理想平面上の一点を占める。そして、第1の画素領域14内の画素値は、いずれも上記理想平面上に分布する。換言すれば、理論上は、第1の画素領域14内の画素値が分布する平面を推定することによって、第1の画素領域14の理想平面を第1の画素領域14の推定平面として間接的に導出できる。第1の画素領域14(=R)の推定平面は、ステップS101−2−3における主成分分析の結果のうち第1の主成分の固有ベクトルv と、第2の主成分の固有ベクトルv との線形和によって形成される平面であるとする。
しかしながら、第1の画素領域14がオブジェクトの局所的な均一反射面に対応していなかったり画素値にノイズが付加されたりすると、上記仮定に合致しない要因によって画素値が変動する。故に、第1の画素領域14内の画素値は上記理想平面上に必ずしも分布せず、第1の画素領域14の推定平面は第1の画素領域14の理想平面とは必ずしも一致しない。
ここで、散乱光11は、理論上は相異なる理想平面に基づいて推定されるが、実際上は相異なる推定平面に基づいて推定する必要がある。即ち、理想平面との差異が大きい推定平面(即ち、精度の低い推定平面)を利用することは、散乱光11の推定精度を劣化させるおそれがある。故に、散乱光11の推定における第1の画素領域14の信頼性(即ち、第1の画素領域14の推定平面の精度の高さ)を算出することが、散乱光11の推定精度の向上に寄与する。
第1の信頼度15は、主に以下の3つの評価基準の一部または全部に基づいて算出される。
第1の評価基準は、第1の画素領域14内の画素値分布が色空間においてどの程度平面的であるか、である。第1の画素領域14内の画素値分布が色空間において平面的であるほど(換言すれば、第1の画素領域14内の画素値が色空間における任意の平面に近いほど)、第1の画素領域14の信頼性は高いと評価できる。第1の評価基準に対する評価値をeとする。評価値eが高いほど、第1の画素領域14内の画素値分布が色空間において平面的である。eは、平面度と呼ぶこともできる。評価値eは、ステップS101−2−3における主成分分析の結果のうち第3の主成分の固有値に基づいて算出できる。
第2の評価基準は、第1の画素領域14の推定平面上で第1の画素領域14内の画素値がどの程度広く分布しているか、である。第1の画素領域14の推定平面上で第1の画素領域14内の画素値が広く分布しているほど、第1の画素領域14の信頼性は高いと評価できる。第2の評価基準に対する評価値をeとする。評価値eが高いほど、第1の画素領域14の推定平面上で第1の画素領域14内の画素値が広く分布している。eは、平面分散度と呼ぶこともできる。評価値eは、ステップS101−2−3における主成分分析の結果のうち第1の主成分の固有値及び第2の主成分の固有値に基づいて算出できる。例えば、評価値eは、第1の主成分の固有値と第2の主成分の固有値との和が大きいほど高い値となるように算出されてよい。或いは、評価値eは、第2の主成分の固有値のみに基づいて算出されてもよい。
第3の評価基準は、第1の画素領域14の推定平面と色空間の原点との間の距離はどの程度であるか、である。散乱光11のベクトルと第1の画素領域14における反射光の色のベクトルとはいずれも色空間における原点を通るので、これらによって形成される理想平面もまた原点を通る。故に、第1の画素領域14の推定平面と色空間の原点との間の距離が短いほど、第1の画素領域14の信頼性は高いと評価できる。第3の評価基準に対する評価値をeとする。評価値eが高いほど、第1の画素領域14の推定平面と色空間の原点との間の距離が短い。
第1の信頼度算出部112は、下記数式(4)に従って、第1の画素領域14(=R)の第1の信頼度15(=E1(R))を算出する。
Figure 2014078799
数式(4)において、w,w,wは、夫々、0以上1以下の値を取り得る重みを表す。但し、重みw,w,wのうち少なくとも1つは、0より大きな値を取るものとする。換言すれば、第1の信頼度算出部112は、評価値e,e,eのうち少なくとも1つの評価値が高くなるほど高くなるように第1の画素領域14(=R)の第1の信頼度15(=E1(R))を算出する。数式(4)以外にも、例えば評価値e,e,eのうち少なくとも2つの積によって第1の信頼度15(=E1(R))が算出されてもよい。
前述の通り、第1の選択部113は、複数の第1の画素領域14から第1の信頼度15の高いものを選択することによって、複数の第2の画素領域16を得る。即ち、複数の第1の画素領域14のうち散乱光11の推定において信頼性が高いと評価されたものが、複数の第2の画素領域16として選別される。そして、散乱光推定部120は、係る複数の第2の画素領域16を利用するので、散乱光11を高精度に推定することができるといえる。
以下、ステップS101−4において算出される第2の信頼度17の詳細を説明する。典型的には、任意の組み合わせの第2の信頼度17は、当該組み合わせに含まれる第2の画素領域16の画素値分布を近似する推定平面の1以上のペアの直交度の総和(独立度と呼ぶこともできる)とすることができる。
尚、複数の第2の画素領域16のうち2以上を備える組み合わせの総数は概して膨大である。従って、全ての組み合わせに対して第2の信頼度17を算出することは実際上困難となるおそれがある。そこで、好ましくは、第2の信頼度算出部114は、例えば貪欲アルゴリズムなどを利用することによって、第2の信頼度17の計算量を抑えつつ、妥当な組み合わせが複数の第3の画素領域18として選択されることを可能とする。
第2の信頼度算出部114は、例えば下記数式(5)に従って、2個の第2の画素領域16(=R,R)を備える1以上の組み合わせの各々に対して第2の信頼度17を算出し、当該第2の信頼度17を最大化するものを探索する。
Figure 2014078799
数式(5)において、vRi ,vRj は、第2の画素領域16(=R,R)内の画素値分布の重み付き共分散行列Cの第3の主成分の固有ベクトルを表す。この第3の主成分の固有ベクトルは、第2の画素領域16の推定平面の法線に相当する。また、Wは、複数の第2の画素領域16の集合を表す。尚、数式(5)において、第2の画素領域16の一方(=RまたはR)は、第1の信頼度15が最大である1つの第2の画素領域16に固定されてもよい。係る技法によれば、数式(5)の計算量を低減できる。
続いて、第2の信頼度算出部114は、例えば下記数式(6)に従って、第2の信頼度17を最大化するn個(n≧2)の第2の画素領域16に更にもう1個の第2の画素領域16を組み合わせた場合の第2の信頼度17の増分を算出し、当該第2の信頼度17の増分を最大化するものを更に探索する。即ち、第2の信頼度算出部114は、第2の信頼度17の算出対象を絞り込みつつ、組み合わせに含まれる第2の画素領域16の総数を2,3,・・・と増大させることができる。
Figure 2014078799
数式(6)において、Wは、本アルゴリズムによって探索されたn個の第2の画素領域16の集合である。即ち、集合Wの要素の数は、2個、3個,・・・と逐次的に増大する。
第2の信頼度算出部114は、例えばnが所定数に達した段階で第2の信頼度17の算出を終了してもよいし、第2の信頼度17が第2の閾値以上となった段階で第2の信頼度17の算出を終了してもよい。また、第2の信頼度算出部114は、第2の信頼度17の変化が予め定めたある一定値よりも小さくなった段階で第2の信頼度17の算出を終了してもよい。
ステップS101−6において、散乱光の色の方向19を推定するには、複数の第2の画素領域16の推定平面を導出する必要がある。即ち、前述の第1の信頼度算出部112と同様に、複数の第2の画素領域16の各々について、重みw(x)を算出し(ステップS101−2−1と同様)、重み付き共分散行列Cを算出し(ステップS101−2−2と同様)、主成分分析を行う(ステップS101−2−3と同様)必要がある。尚、方向推定部121は、第1の信頼度算出部112とは独立して上記処理を行ってもよいし、第1の信頼度算出部112による処理結果を再利用してもよい。
第2の画素領域16(=R)の推定平面は、当該第2の画素領域16(=R)の重み付き共分散行列Cの第1の主成分の固有ベクトルv 及び第2の主成分の固有ベクトルv の線形和によって形成される。理想的には、複数の第2の画素領域16の推定平面の各々は、散乱光11のベクトルを含んでいる。即ち、相異なる第2の画素領域16の推定平面同士の交線は、散乱光11のベクトルを表す。
故に、方向推定部121は、例えば、下記数式(7)によって、散乱光の色の方向19を表すベクトルAを推定できる。
Figure 2014078799
数式(7)は、複数の第2の画素領域16の推定平面の各々に投影された場合の大きさの総和が最大となるベクトルAを示す。尚、実際上は、方向推定部121は、下記数式(8)に示される3行3列の行列の第1の主成分の固有ベクトルを算出することによって、数式(7)のベクトルAを導出する。
Figure 2014078799
或いは、方向推定部121は、前述の数式(7)−(8)などの計算に基づかないで、色空間における所定の方向を散乱光の色の方向19として推定してもよい。尚、この場合には、方向推定部121は複数の第2の画素領域16を入力する必要はない。
例えば入力画像10が白昼に撮影されたものであれば、散乱光11はミー散乱によって白色(黒以外の無彩色)に近くなると予想できる。故に、方向推定部121は、RGB空間において(1,1,1)と同じ方向の大きさ=1のベクトルを散乱光の色の方向19として推定してもよい。
入力画像10が夕焼けを撮影したものであれば、散乱光は赤色に近くなると予想できる。故に、方向推定部121は、RGB空間においてベクトル(1,0,0)を散乱光の色の方向19として推定してもよい。入力画像10が水中で撮影されたものであれば、散乱光は青色に近くなると予想できる。故に、方向推定部121は、RGB空間においてベクトル(0,0,1)を散乱光の色の方向19として推定してもよい。
或いは、入力画像10において、例えば、最も霞んでいる領域の画素値、空を表す領域の画素値、地平線付近を表す領域の画素値などを手動でまたは自動的に検出することによって、散乱光の色の方向19が推定されてもよい。
ステップS101−7において、大きさ推定部122は以下のように散乱光の色の大きさを推定できる。前述の通り、複数の第2の画素領域16の各々は、均一反射面に対応すると仮定される。故に、任意の第2の画素領域16において、任意の画素値I(x)は、下記の数式(9)によって表すことができる。尚、任意の第2の画素領域16の反射光の色のベクトルをJとし、散乱光11のベクトルをAとする。また、散乱光の色の大きさをαとすれば、A=αAである。
Figure 2014078799
数式(9)において、t(x)は、画素xにおける散乱光の混入する量に影響するパラメータ(0以上1以下)を表し、透過率とも呼ばれる。l(x)は画素xにおける反射光の明るさの変化に影響するパラメータ(0以上1以下)である。ここで、パラメータl(x)J及びt(x)は、無相関とみなすことができる。故に、大きさ推定部122は、パラメータl(x)J及びt(x)の共分散C(l(x)J,t(x))の絶対値を最小化するαを導出することによって散乱光の色の大きさを推定できる。
例えば、大きさ推定部122は、任意の第2の画素領域16(=R)についてαを一定幅で変動させて共分散C(l(x),t(x))の最小値を探索できる。具体的には、大きさ推定部122は、αを初期値αと設定し、散乱光11のベクトルA=αと設定する。大きさ推定部122は、この散乱光11のベクトルA=αに基づいて、共分散C(l(x)J,t(x))の値Cを後に示す数式(18)と、以下の数式(10)を用いて導出する。
Figure 2014078799
大きさ推定部122は、α,α,・・・についても同様に共分散C(l(x)J,t(x))の値C、C・・・を導出できる。
そして、大きさ推定部122は、これらC,C,C,・・・の中から最小値Cを探索し、これに対応するαを上記第2の画素領域16(=R)に基づく散乱光の色の大きさαとして推定できる。即ち、第2の画素領域16(=R)に基づく散乱光11のベクトルA=αとなる。尚、推定された散乱光の色の大きさ(=α)は、第2の画素領域16毎に異なる可能性がある。散乱光11は入力画像10内で一様であると仮定されているので、大きさ推定部122は例えば下記数式(11)によって入力画像10の散乱光11のベクトルAの大きさを推定してもよい。
Figure 2014078799
数式(11)において、Nは、散乱光の色の大きさを推定するために利用された画素領域(例えば、第2の画素領域16)の総数を表す。数式(11)によれば、大きさ推定部122は、第2の画素領域16毎に推定した散乱光の色の大きさαの算術平均を入力画像10の散乱光11のベクトルAの大きさとして推定する。
制御情報取得部102は、前述のステップS102において、例えば図6に示される制御情報取得処理を実行してもよい。図6の制御情報取得処理が開始すると、ステップS102−1が行われる。
ステップS102−1において、制御情報取得部102は、図示されない表示装置に例えば図7に示されるGUI500を表示させる。GUI500は、上記表示装置の画面全体に表示されてもよいし、上記表示装置の画面の一部または全部を占めるウィンドウ上に表示されてもよい。GUI500の詳細は後述される。
制御情報取得部102は、ステップS102−1において表示したGUIを通じてユーザー入力を取得する(ステップS102−2)。制御情報取得部102は、ステップS102−2において取得したユーザー入力に基づいて制御情報12を取得する(ステップS102−3)。
GUI500は、入力画像表示領域501と、出力画像表示領域502と、スライドバー503と、スライダ504とを含む。入力画像表示領域501には、例えば入力画像10そのものが表示されてもよいし、入力画像10に対して縮小または拡大、色空間の変換などを施したものが表示されてもよい。
出力画像表示領域502には、現行のユーザー入力に対応する制御情報12の暫定値に基づいて生成される出力画像13そのものが表示されてもよいし、当該出力画像13に対して縮小または拡大、色空間の変換などを施したものが表示されてもよい。尚、出力画像13は、制御情報12の暫定値に基づいて散乱光制御部103によって生成されてから制御情報取得部102に供給されてもよいし、上記暫定値に基づいて制御情報取得部102によって直接的に生成されてもよい。入力画像表示領域501及び出力画像表示領域502を同一のインタフェースに設けることによって、ユーザーは容易に最終的な出力画像13を確認しながら制御情報12を微調整することができる。
スライダ504は、ユーザー入力(例えば、クリック、タッチ、ドラッグなど)に応じてスライドバー503上を移動する。スライダ504の位置情報は、制御情報12に対応付けられている。故に、制御情報取得部102は、スライダ504の位置情報に基づいて制御情報12を導出できる。
図7の例において、制御情報12は、例えば入力画像10における各画素の透過率に対する出力画像13における対応画素の透過率の比である。入力画像10の任意の画素値I(x)は、下記数式(12)によって表すことができる。
Figure 2014078799
尚、数式(12)において、J(x)は、画素xにおける反射光のベクトルを表しており、上記数式(9)におけるl(x)Jに等しい。出力画像13の画素xの透過率をt’(x)とすれば、入力画像10の各画素における透過率に対する出力画像13の対応画素における透過率の比は下記数式(13)によって表すことができる。尚、出力画像13の画素xにおける透過率t’(x)は0以上1以下の値なので、制御情報r(x)は、0以上の値である。また、本実施形態においてr(x)はxによらず一定であるが、例えば第2の実施形態において説明されるようにr(x)はxによって変化してもよい。
Figure 2014078799
上記数式(12)及び数式(13)によれば、出力画像13の任意の画素値I(x)は、下記数式(14)によって表すことができる。
Figure 2014078799
数式(13)及び数式(14)によれば、制御情報r(x)が1より小さい場合に、出力画像13の画素xにおける透過率t’(x)は入力画像10の画素xにおける透過率t(x)より小さくなる。即ち、入力画像10の画素xよりも出力画像13の画素xにおける散乱光11の混合割合が増大するので、散乱光が付加(或いは、強調)された出力画像13が生成される。
制御情報r(x)が1より大きい場合に、出力画像13の画素xにおける透過率t’(x)は入力画像10の画素xにおける透過率t(x)より大きくなる。即ち、入力画像10の画素xよりも出力画像13の画素xにおける散乱光11の混合割合が減少するので、散乱光が除去(或いは、抑圧)された出力画像13が生成される。
制御情報r(x)が1の場合に、出力画像13の画素xにおける透過率t’(x)は入力画像10の画素xにおける透過率t(x)と等しくなる。即ち、散乱光が維持された出力画像13(即ち、入力画像10そのもの)が生成される。
数式(13)から明らかなように、制御情報r(x)によれば、入力画像10の画素xにおける透過率t(x)が未知であっても、出力画像13の画素xの透過率t’(x)をr(x)t(x)に一致するように制御することができる。即ち、透過率t(x)の計算が不要であるから、出力画像13を小さな計算量で生成することができる。
GUI500において、前述のように、ユーザー入力を取得するためにスライドバー503及びスライダ504が用意された。スライドバー503は、図7に例示されるように、制御情報12の設定値そのものを示すラベル(例えば、「0」、「1」など)と共に表示されてもよいし、「散乱光付加」、「散乱光維持」、「散乱光除去」などの出力画像13に与えられる効果を示すラベルと共に表示されてもよい。
GUI500において、スライドバー503及びスライダ504とは異なる種別のGUI部品が用意されてもよい。
例えば、制御情報12に設定される値を指定するための複数のボタンがGUI500において用意されてもよい。ここで、これら複数のボタンの各々は制御情報12に設定される何らかの値に対応付けられている。故に、制御情報取得部102はユーザー入力(例えば、クリックまたはタッチによるボタン選択)に基づいて制御情報12を取得できる。ボタンは、「0.5」,「1.0」,「2.0」などの制御情報12への設定値そのものを示すラベルと共に表示されてもよいし、「散乱光付加」、「散乱光維持」、「散乱光除去」などの出力画像13に与えられる効果を示すラベルと共に表示されてもよい。
また、制御情報12を段階的に増加または減少させるための複数のボタンがGUI500において用意されてもよい。ここで、これら複数のボタンの各々は制御情報12の暫定値に対する何らか増減値に対応付けられている。故に、制御情報取得部102は制御情報12の暫定値を保持しておき、ユーザー入力に基づいて当該暫定値を更新することによって最新の制御情報12を取得できる。
また、例えば、制御情報12への設定値を直接的に入力するためのボックスがGUI500において用意されてもよい。ユーザー入力を取得するために、複数の種別のGUI部品の組み合わせがGUI500において用意されてもよい。
以上説明したように、第1の実施形態に係る画像処理装置は、入力画像に対する制御情報を取得し、当該制御情報に基づいて入力画像の各画素に含まれる散乱光の量を調整することによって出力画像を生成する。従って、この画像処理装置によれば、入力画像を基準に散乱光の量を抑圧、維持または強調する画像処理のいずれかを選択して適用できるので、出力画像の奥行き感を目的に応じて調整することが可能となる。
(第2の実施形態)
図8に例示されるように、第2の実施形態に係る画像処理装置は、散乱光取得部101と、領域情報取得部201と、制御情報取得部210と、散乱光制御部220とを備える。図8の画像処理装置は、入力画像10の各画素に含まれる散乱光11の量を制御情報22に基づいて制御することによって、出力画像23を生成する。
領域情報取得部201は、領域情報20を取得する。領域情報20は、入力画像10を分割することによって得られる複数の領域を特定する。領域情報取得部201は、典型的には、図示されない表示装置に後述されるGUIを表示し、当該GUIを通じてユーザー入力を取得し、当該ユーザー入力に基づいて領域情報20を取得する。
制御情報取得部210は、領域情報取得部201から領域情報20を入力する。制御情報取得部210は、領域情報20に基づいて制御情報22を取得する。制御情報210は、制御情報22を散乱光制御部220へと出力する。制御情報取得部210は、領域制御情報取得部211と、統合部212とを備える。
領域制御情報取得部211は、領域情報取得部201から領域情報20を入力する。領域制御情報取得部211は、領域情報20によって特定される複数の領域の各々に対する領域制御情報21を取得する。
領域制御情報21は、例えば第1の実施形態における制御情報12と同一または類似であってよい。具体的には、領域制御情報21は、入力画像10の注目領域内の各画素における透過率に対する出力画像23の対応画素における透過率の比であってよい。但し、前述の第1の実施形態において制御情報12は入力画像10の全体で画素の位置によらず一定であるが、領域制御情報21は入力画像10の対応する領域内で画素の位置によらず一定である。尚、ある領域に対する領域制御情報21は、他の領域に対する領域制御情報21と同一であってもよい。
領域制御情報取得部211は、前述の制御情報取得部102と同一または類似の処理によって、領域制御情報21を取得してもよい。領域制御情報取得部211は、複数の領域に対する領域制御情報21のセットを統合部212へと出力する。
統合部212は、領域制御情報取得部211から領域制御情報21のセットを入力する。統合部212は、領域制御情報21のセットを統合することによって、制御情報22を生成する。
散乱光制御部220は、入力画像10を受け取り、散乱光取得部101から当該入力画像10の各画素に含まれる散乱光11の情報を入力し、制御情報取得部102から制御情報22を入力する。尚、散乱光制御部220は、必要に応じて、例えば、入力画像10の各画素が属する領域を特定するための情報、各領域に属する画素を特定する情報などを更に入力してもよい。散乱光制御部220は、制御情報22に基づいて、入力画像10の各画素に含まれる散乱光11の量を制御することによって、出力画像23を生成する。
以下、図9を参照して図8の画像処理装置によって行われる画像処理の一例を説明する。図9の画像処理が開始すると、ステップS101が行われる。尚、図9においてステップS101は図2のものと同じであるので詳細は省略される。
領域情報取得部201は、例えばユーザー入力に基づいて入力画像10の領域情報20を取得する(ステップS201)。ここで、ステップS101と、ステップS201及びステップS202とは独立した処理であるので、図9に示されていない順序で実行されてもよい。但し、ステップS202は、ステップS201よりも後に実行される必要がある。
制御情報取得部210は、ステップS201において取得された領域情報20に基づいて制御情報22を取得する(ステップS202)。散乱光制御部220は、ステップS101において取得された入力画像10の各画素に含まれる散乱光11の量をステップS201において取得された制御情報22に基づいて制御することによって、出力画像23を生成する(ステップS203)。
前述のステップS201の詳細は、図10に例示されている。領域情報取得部201は、例えば図11に示されるGUI600を図示されない表示装置に表示させる(ステップS201−1)。GUI600は、上記表示装置の画面全体に表示されてもよいし、上記表示装置の画面の一部または全部を占めるウィンドウ上に表示されてもよい。
GUI600は、入力画像表示領域601と、ボックス602とを含む。入力画像表示領域601は、例えば入力画像10そのものが表示されてもよいし、入力画像10に対して縮小または拡大、色空間の変換などを施したものが表示されてもよい。ボックス602を通じて、ユーザーは所望の領域数を入力できる。
ユーザーがボックス602に所望の領域数を入力すると、領域情報取得部201はボックスに入力された領域数を取得する(ステップS201−2)。図11の例によれば、「3」がボックス602に入力されているので、入力画像10は3つの領域に分割されることになる。
ユーザーは、ボックス602を通じて領域数を入力してから、入力画像表示領域601を操作することによって、複数の領域を指定できる。そして、領域情報取得部201は、ユーザー入力に基づいて領域情報20を取得する(ステップS201−3)。
具体的には、ユーザーは領域間の境界線を指定してもよい。例えば、ユーザーは、入力画像表示領域601内で所望の線に沿ってドラッグしたり、所望の線が通る2以上の点をクリックまたはタッチしたりすることによって、領域間の境界線を指定できる。領域情報20は、例えば、各領域を特定する座標情報、各境界線を特定する座標情報などを含んでもよい。
或いは、境界線を指定するために、図25及び図26に例示されるGUIが利用されてもよい。図25のGUIは、入力画像表示領域900と、スライドバー901と、スライダ902と、境界線903とを含む。入力画像表示領域900には、例えば入力画像10そのものが表示されてもよいし、入力画像10に対して縮小または拡大、色空間の変換などを施したものが表示されてもよい。
スライダ902は、ユーザー入力(例えば、クリック、タッチ、ドラッグなど)に応じてスライドバー901上を移動する。スライダ902の位置情報は、境界線903の位置情報に対応付けられている。故に、領域情報取得部201は、スライダ902の位置情報に基づいて境界線903の位置情報を取得できる。境界線903は、水平軸に平行な直線であり、そのy座標がスライダ902の位置情報によって一意に決定される。尚、境界線903の位置情報が決定された後に、当該境界線903の形状が更なるユーザー入力に基づいて変更されてもよい。
また、スライドバー901及びスライダ902を用意する代わりに、入力画像表示領域900の1つの画素をユーザー入力(例えば、クリック、タッチなど)に基づいて特定し、当該画素を通る境界線903を取得することも可能である。
図26のGUIは、入力画像表示領域1000と、スライドバー1001と、スライダ1002と、境界線1003とを含む。入力画像表示領域1000には、例えば入力画像10そのものが表示されてもよいし、入力画像10に対して縮小または拡大、色空間の変換などを施したものが表示されてもよい。
スライダ1002は、ユーザー入力(例えば、クリック、タッチ、ドラッグなど)に応じてスライドバー1001上を移動する。スライダ1001の位置情報は、境界線1003の位置情報に対応付けられている。故に、領域情報取得部201は、スライダ1001の位置情報に基づいて境界線1003の位置情報を取得できる。境界線1003は、入力画像10の指定された奥行(または透過率)を持つ画素を結ぶ曲線または直線であり、当該指定された奥行(または透過率)がスライダ1001の位置情報によって一意に決定される。尚、境界線1003の位置情報が決定された後に、当該境界線1003の形状が更なるユーザー入力に基づいて変更されてもよい。
また、スライドバー1001及びスライダ1002を用意する代わりに、入力画像表示領域1000の1つの画素をユーザー入力(例えば、クリック、タッチなど)に基づいて特定し、当該画素を通る境界線1003を取得することも可能である。
更に、領域間を容易に区別するために、領域情報20は各領域に付与されたインデックスを含んでもよい。インデックスは、ユーザー入力に基づいて付与されてもよいし、領域情報取得部201によって自動的に付与されてもよい。例えば、連続番号の形式でインデックスが付与される場合に、ユーザーが領域を1つずつ選択すれば、選択された順に各領域に番号を割り当てることができる。図11の例では、連続番号の形式でインデックスRが付与されている。
尚、ユーザーは、無作為に領域を選択してもよいし、視点から領域内のオブジェクトまでの距離が大きい順に(即ち、近景から遠景に向かって)領域を選択してもよいし、視点から領域内のオブジェクトまでの距離が小さい順に(即ち、遠景から近景に向かって)領域を選択してもよい。
ステップS202において、具体的には、領域制御情報取得部211が領域情報20に基づいて複数の領域に対する領域制御情報21のセットを取得し、統合部212が領域制御情報21のセットを統合することによって制御情報22を生成する。
領域制御情報取得部211は、前述の制御情報取得部102と同一または類似の処理によって、複数の領域の各々に対して領域制御情報21を取得してもよい。或いは、領域制御情報取得部211は、一部の領域に対して取得された領域制御情報21に基づいて他の領域に対する領域制御情報21を計算してもよい。
例えば、視点から領域内のオブジェクトまでの距離(即ち、奥行)が大きいほど透過率は低いという性質があるので、領域制御情報取得部211は奥行の大きさに応じて領域制御情報21を計算してもよい。即ち、領域制御情報取得部211は、奥行が大きいほど透過率は低いという性質を利用して、領域Aに対して取得された領域制御情報21を領域Aと領域Bとの間の奥行の差分に応じて増減させることによって、領域Bに対する領域制御情報21を計算してもよい。
例えば、入力画像10が3つの領域Ω,Ω及びΩに分割され、領域Ωに対して領域制御情報rが取得され、領域Ωに対して領域制御情報rが取得され、領域Ωに対して領域制御情報rが取得されたとする。この場合に、統合部212は、例えば下記数式(15)に示されるように、これら領域制御情報r,r及びrを制御情報r(x)へと統合してもよい。
Figure 2014078799
或いは、統合部212は、図12に例示される制御情報マップの形式で制御情報22を取得してもよい。制御情報マップによれば、画素の位置と制御情報22とが対応付けられる。
以上説明したように、第2の実施形態に係る画像処理装置は、入力画像を複数の領域に分割し、各領域に対して領域制御情報を取得し、当該領域制御情報に基づいて各画素に含まれる散乱光の量を調整することによって出力画像を生成する。従って、この画像処理装置によれば、画像全体ではなく領域単位で散乱光の量を調整することができる。例えば、遠景領域において散乱光を付加する一方、近景領域において散乱光を除去するなどの高度な画像処理を適用できるので、出力画像の奥行き感をより細かく調整することが可能となる。
(第3の実施形態)
図13に例示されるように、第3の実施形態に係る画像処理装置は、散乱光取得部101と、透過率取得部301と、制御情報取得部302と、散乱光制御部303とを備える。図13の画像処理装置は、入力画像10の各画素に含まれる散乱光11の量を制御情報25に基づいて制御することによって、出力画像26を生成する。
透過率取得部301は、入力画像10を受け取り、散乱光取得部101から散乱光11の情報を入力する。透過率取得部301は、典型的には、入力画像10及び散乱光11に基づいて、入力画像10の各画素における透過率24を取得する。透過率取得部301は、例えば、入力画像10の局所領域内の画素値の分布を解析することによって、当該局所領域内の各画素における透過率24を取得してもよい。或いは、透過率取得部301は、後述されるように、入力画像10の各画素における奥行に基づいて透過率24を取得してもよい。係る場合に、透過率取得部301は、散乱光11の情報を入力しなくてもよい。透過率取得部301は、透過率24の情報を制御情報取得部302へと出力する。
制御情報取得部302は、透過率取得部301から透過率24の情報を入力する。制御情報取得部302は、透過率24との間に対応関係を持つ制御情報25を取得する。制御情報取得部302は、典型的には、図示されない表示装置に後述されるGUIを表示し、当該GUIを通じてユーザー入力を取得し、当該ユーザー入力に基づいて制御情報25を取得する。制御情報取得部302は、制御情報25を散乱光制御部303へと出力する。
散乱光制御部303は、入力画像10を受け取り、散乱光取得部101から当該入力画像10の各画素に含まれる散乱光11の情報を入力し、制御情報取得部302から制御情報25を入力する。尚、散乱光制御部303は、必要に応じて、例えば、透過率24の情報などを更に入力してもよい。散乱光制御部303は、制御情報25に基づいて、入力画像10の各画素に含まれる散乱光11の量を制御することによって、出力画像26を生成する。
以下、図15を参照して図13の画像処理装置によって行われる画像処理の一例を説明する。図15の画像処理が開始すると、散乱光取得部101は入力画像10の各画素に含まれる散乱光11を取得する(ステップS101)。尚、図15においてステップS101は図2のものと同じであるので詳細は省略される。
透過率取得部301は、入力画像10の各画素における透過率24を取得する(ステップS301)。ここで、透過率取得部301が散乱光11に基づいて透過率24を取得する場合には、ステップS301はステップS101の後に実行されなければならない。しかしながら、透過率取得部301が散乱光11に基づかないで(例えば、奥行に基づいて)透過率24を取得する場合には、ステップS101とステップS301及びステップS302とは独立した処理であるので図15に示されていない順序で実行されてもよい。
制御情報取得部302は、ステップS301において取得された透過率24との間に対応関係を持つ制御情報25を取得する(ステップS302)。散乱光制御部303は、ステップS101において取得された入力画像10の各画素に含まれる散乱光11の量をステップS302において取得された制御情報25に基づいて制御することによって、出力画像26を生成する(ステップS303)。
前述のステップS301の詳細は、図16に例示されている。透過率取得部301は、入力画像10を複数の局所領域へと分割する(ステップS301−1)。この局所領域は、前述の第1の画素領域14と同一または類似の技法によって得ることができる。
透過率取得部301は、各局所領域内の画素の値を散乱光11と同じ方向の成分と散乱光11と直交する方向の成分とに分解する(ステップS301−2)。透過率取得部301は、例えば下記数式(16)及び数式(17)に従って、画素値の成分を分解する。
Figure 2014078799
Figure 2014078799
数式(17)において、I(x)は画素値I(x)のうち散乱光11と同じ方向の成分を表し、IR’(x)は画素値I(x)のうち散乱光11と直交する方向の成分を表す。
透過率取得部301は、ステップS301−2において分解された成分を用いて透過率24を算出する(ステップS301−3)。透過率取得部301は、例えば下記数式(18)に従って、透過率24を算出する。
Figure 2014078799
数式(18)のうち、η(x)は、画素xにおける反射光ベクトルJ(x)のうち散乱光11と同じ方向の成分と、散乱光11と直交する方向の成分との比を表す変数である。η(x)を用いることによって、画素値I(x)の散乱光11と同じ方向の成分を、J(x)に起因する成分(η(x)I(x))と散乱光11の影響に起因する成分(I(x)−η(x)I(x))とに分離することが可能となる。η(x)は、下記数式(19)によって計算される。
Figure 2014078799
数式(19)のうちΩ’は画素xとその周辺画素とからなる局所領域を表す。CΩ’(a(x),b(x))は、局所領域Ω’内の画素xについての変数a(x)及び変数b(x)の共分散を表す。h(x)は下記数式(21)によって計算される。
Figure 2014078799
或いは、奥行と透過率との間には相関があるので、透過率取得部301は係る相関を利用して透過率24を取得してもよい。具体的には、下記数式(21)に例示されるように、奥行に基づいて透過率24を算出してもよい。数式(21)によれば、透過率24の計算量を削減することができる。
Figure 2014078799
数式(21)において、d(x)は画素xにおける奥行を表す。即ち、d(x)が大きいほど、視点から画素xの表すオブジェクトまでの距離が大きいことを意味する。d(x)はユーザー入力に基づいて取得されてもよいし、入力画像10の解析を通じて自動取得されてもよい。βは、単位距離あたりでの光の散乱の程度を示す正数である。βは、入力画像10の撮影環境に応じて定められてもよい。例えば、空気の澄んだ環境で撮影された入力画像10に対して小さな値を持つβが適用され、そうでない環境で撮影された入力画像10に対して大きな値を持つβが適用されてもよい。
奥行d(x)または透過率t(x)を取得するために、下記数式(22)が利用されてもよい。
Figure 2014078799
数式(22)において、IにはI(x)のr値が代入され、IにはI(x)のg値が代入され、IにはI(x)のb値が代入される。S(x)は、画素xを中心とする局所領域である。非特許文献2によれば、画素xにおける散乱光の混合割合が高ければIdark(x)は大きな値となり、画素xにおける散乱光の混合割合が低ければIdark(x)は小さな値となる。
故に、Idark(x)またはこれに何らかの計算を施した値を前述の奥行d(x)として、上記数式(21)を計算することによって透過率t(x)を導出することができる。また、Idark(x)から直接的に透過率t(x)を算出することも可能であるが、透過率t(x)は0以上1以下の値なので、Idark(x)を少なくとも正規化することが必要である。
前述のステップS302の詳細は、図17に例示されている。制御情報取得部302は、GUIを図示されない表示装置に表示させる(ステップS302−1)。制御情報取得部302は、ステップS302−1において表示したGUIを通じてユーザー入力を取得する(ステップS302−2)。制御情報取得部302は、ステップS302−2において取得したユーザー入力に基づいて、透過率24と制御情報25との間の対応関係を取得する(ステップS302−3)。制御情報取得部302は、透過率24とステップS302−3において取得した対応関係とに基づいて制御情報25を取得する(ステップS302−4)。
ステップS302−1において、制御情報取得部302は、図18のGUI700を表示してもよい。GUI700は、入力画像表示領域701と、透過率画像表示領域702と、出力画像表示領域703と、対応関係表示領域704とを含む。入力画像表示領域701には、例えば入力画像10そのものが表示されてもよいし、入力画像10に対して縮小または拡大、色空間の変換などを施したものが表示されてもよい。
透過率画像表示領域702には、入力画像10の各画素における透過率24を表す透過率画像が表示される。透過率画像は、例えば入力画像10の各画素における透過率24を階調値に変換することによって生成されたものであってもよい。透過率画像を表示することによって、ユーザーは制御情報25を微調整するときに入力画像10の透過率の分布を視覚的に確認することができる。
出力画像表示領域703には、現行のユーザー入力に対応する制御情報25の暫定値に基づいて生成される出力画像26そのものが表示されてもよいし、当該出力画像26に対して縮小または拡大、色空間の変換などを施したものが表示されてもよい。尚、出力画像26は、制御情報25の暫定値に基づいて散乱光制御部303によって生成されてから制御情報取得部302に供給されてもよいし、上記暫定値に基づいて制御情報取得部302によって直接的に生成されてもよい。入力画像表示領域701及び出力画像表示領域703を同一のインタフェースにおいて用意することによって、ユーザーは容易に最終的な出力画像26を確認しながら制御情報25を微調整することができる。
対応関係表示領域704には、透過率24と制御情報25との間の対応関係が表示される。図18において、r(x)=t(x)という対応関係が描かれている。後述されるように、この対応関係は、ステップS302−2において取得されるユーザー入力に応じて変化する。
例えば、図19に示されるように、対応関係を表す線上の点を選択するユーザー入力(例えば、クリック、タッチなど)が取得された場合に、この点の位置に変曲点705が設定されてもよい。変曲点705よりも右側の対応関係は曲線706によって定められ、変曲点705よりも左側の対応関係は曲線707によって定められる。曲線706及び曲線707の性質は、自動的に決定されてもよいし、ユーザー入力に基づいて決定されてもよい。尚、2以上の変曲点が設定されてもよい。
例えば、図20に示されるように、ユーザーが1以上の点を設定するユーザー入力(例えば、クリック、タッチなど)が取得された場合に、設定点708を通る曲線または直線によって対応関係が定められてよい。この場合に、対応関係を表す曲線または直線は、設定点708を例えばスプライン関数などを用いて補間することによって、取得することができる。
或いは、ステップS302は、図17の代わりに図21に例示されるように、実行されてもよい。図21によれば、制御情報取得部302は、入力画像10と、透過率24と制御情報25との間の対応関係を定める関数とを例えばGUIを通じてユーザーに提示する(ステップS302−5)。上記関数は、例えば下記数式(23)に示される2次関数であってよい。
Figure 2014078799
制御情報取得部302は、デフォルトのパラメータが設定された場合の上記関数のグラフをユーザーに提示してもよいし、関数を特定する数式をユーザーに提示してもよい。
制御情報取得部302は、関数のパラメータを指定するユーザー入力を取得する(ステップS302−6)。例えば、関数が上記数式(23)に示されるものであれば、そのパラメータは係数a,b,cの一部または全部である。ステップS302−6におけるユーザー入力は、例えばボックスなどを通じて関数のパラメータを直接的に指定するものであってもよいし、提示されたグラフに対する例えばドラッグなどの変形操作であってもよい。
制御情報取得部302は、ステップS302−6において取得したユーザー入力に基づいて関数を決定することによって、制御情報25を取得する(ステップS302−7)。
尚、制御情報25は、例えば、ユーザー入力に基づいて取得された入力画像10の各画素の透過率t(x)と出力画像13の対応画素における透過率t’(x)との間の対応関係と、上記数式(13)とに基づいて算出されてもよい。
係る場合には、図18、図19及び図20に示されるGUI700は、図22、図23及び図24に示されるGUI800として変形されてよい。図22、図23及び図24に示される入力画像表示領域801、透過率画像表示領域802、出力画像表示領域803、対応関係表示領域804、変曲点805、曲線806、曲線807及び設定点808は、図18、図19及び図20に示される入力画像表示領域701、透過率画像表示領域702、出力画像表示領域703、対応関係表示領域704、変曲点705、曲線706、曲線707及び設定点708と夫々対応する。
但し、対応関係表示領域804には、対応関係表示領域704とは異なり、透過率t(x)と透過率t’(x)との間の対応関係が表示され、当該対応関係がユーザー入力に応じて変化する。制御情報25は、上記対応関係と数式(13)とに基づいて算出される。
また、ユーザー入力に対応する関数のパラメータを取得することによって、出力画像13の各画素における透過率t’(x)を取得することも可能である。係る場合にも、制御情報取得部302は、図21に例示されるように動作すればよい。但し、上記関数は、透過率t(x)と透過率t’(x)との間の対応関係を表すので、例えば下記数式(24)に示されるものに置き換えられる必要がある。
Figure 2014078799
以上説明したように、第3の実施形態に係る画像処理装置は、透過率との間で対応関係を持つ制御情報を取得し、当該制御情報に基づいて各画素に含まれる散乱光の量を調整することによって出力画像を生成する。従って、この画像処理装置によれば、制御情報を詳細に指定することができる。即ち、出力画像の奥行き感をより細かく調整することが可能となる。
尚、出力画像の任意の2画素間における透過率の大小関係が入力画像の対応する2画素間における透過率の大小関係に対して反転するような制御情報が取得されると、出力画像において奥行の逆転が生じるので観者に違和感を与えるおそれがある。故に、出力画像の任意の2画素間における透過率の大小関係が入力画像の対応する2画素間における透過率の大小関係に対して反転しないような制御情報が取得されることが好ましい。
尚、本実施形態において、前述の第2の実施形態が組み合わせられてもよい。例えば、入力画像10を分割することによって得られる複数の領域の各々について、図15のステップS302の処理が実行されてもよい。
また、前述のように、奥行と透過率との間には相関がある。故に、透過率との間で対応関係を持つ制御情報ではなく奥行との間で対応関係を持つ制御情報を利用するように、本実施形態を変形することも可能である。図14の画像処理装置は、散乱光取得部101と、奥行情報取得部401と、制御情報取得部402と、散乱光制御部403とを備える。
奥行情報取得部401は、入力画像10を受け取る。奥行情報取得部401は、入力画像10の各画素における奥行27をユーザー入力に基づいて取得してもよいし、入力画像10の解析を通じて自動的に取得してもよい。奥行情報取得部401は、奥行27の情報制御情報取得部402へと出力する。
制御情報取得部402は、奥行情報取得部401から奥行27の情報を入力する。制御情報取得部402は、奥行27との間で対応関係を持つ制御情報28を取得する。制御情報取得部402は、制御情報取得部302と類似の処理によって、制御情報28を取得できる。具体的には、制御情報取得部402によって行われる処理は、前述の制御情報取得部302によって行われる処理のうち透過率24を奥行27に置き換え、かつ、制御情報25を制御情報28に置き換えたものに相当する。制御情報取得部402は、制御情報28を散乱光制御部403へと出力する。
散乱光制御部403は、入力画像10を受け取り、散乱光取得部101から当該入力画像10の各画素に含まれる散乱光11の情報を入力し、制御情報取得部402から制御情報28を入力する。尚、散乱光制御部403は、必要に応じて、例えば、奥行27の情報などを更に入力してもよい。散乱光制御部403は、制御情報28に基づいて、入力画像10の各画素に含まれる散乱光11の量を制御することによって、出力画像29を生成する。
更に、透過率とも奥行きとも異なるパラメータ(例えば、画素の位置)との間で対応関係を持つ制御情報を利用することも可能である。例えば、各画素に対して例えばr(x)、t’(x)などの制御情報が直接的に設定されてもよい。
(第4の実施形態)
前述の第1乃至第3の実施形態において説明された種々の情報の一部または全部は、ユーザー入力に基づかないで自動的に取得されてもよい。
例えば、制御情報取得部102及び210は、制御情報12及び22として予め用意された値を取得してもよい。また、制御情報取得部302及び領域情報取得部402は、予め用意された対応関係に従って制御情報25及び制御情報28を取得してもよい。
また、領域情報取得部201は、領域情報20を予め用意しておいてもよいし、入力画像10の各画素における奥行または透過率に対して閾値処理を施すことによって、領域情報20を取得してもよい。例えば、領域情報取得部201は、ある閾値未満の奥行を持つ画素からなる領域と、当該閾値以上の奥行を持つ画素からなる領域とを特定する領域情報20を取得してもよい。
以上説明したように、第4の実施形態に係る画像処理装置は、第1乃至第3の実施形態に係る画像理装置においてユーザー入力に基づいて取得される情報の一部または全部を、ユーザー入力に基づかないで自動取得する。従って、この画像処理装置によれば、ユーザーの入力負担を軽減しながら出力画像の奥行き感を調整することができる。
上記各実施形態の処理は、汎用のコンピュータを基本ハードウェアとして用いることで実現可能である。上記各実施形態の処理を実現するプログラムは、コンピュータで読み取り可能な記憶媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記憶媒体に記憶される。記憶媒体としては、磁気ディスク、光ディスク(CD−ROM、CD−R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記憶媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記各実施形態の処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10・・・入力画像
11・・・散乱光
12,22,25,28・・・制御情報
13,23,26,29・・・出力画像
14・・・第1の画素領域
15・・・第1の信頼度
16・・・第2の画素領域
17・・・第2の信頼度
18・・・第3の画素領域
19・・・散乱光の色の方向
20・・・領域情報
21・・・領域制御情報
24・・・透過率
27・・・奥行
101・・・散乱光取得部
102,210,302,402・・・制御情報取得部
103,220,303,403・・・散乱光制御部
111・・・取得部
112・・・第1の信頼度算出部
113・・・第1の選択部
114・・・第2の信頼度算出部
115・・・第2の選択部
120・・・散乱光推定部
121・・・方向推定部
122・・・大きさ推定部
201・・・領域情報取得部
211・・・領域制御情報取得部
212・・・統合部
301・・・透過率取得部
401・・・奥行情報取得部
500,600,700,800・・・GUI
501,601,701,801,900,1000・・・入力画像表示領域
502,703,803・・・出力画像表示領域
503,901,1001・・・スライドバー
504,902,1002・・・スライダ
602・・・ボックス
702,802・・・透過率画像表示領域
704,804・・・対応関係表示領域
705,805・・・変曲点
706,707,806,807・・・曲線
708,808・・・設定点
903,1003・・・境界線

Claims (13)

  1. 入力画像の各画素に含まれる散乱光の情報を取得する散乱光取得部と、
    出力画像の各画素に含まれる散乱光の量を決定付ける制御情報を取得する制御情報取得部と、
    前記入力画像の各画素に含まれる散乱光の量を前記制御情報に基づいて制御することによって、前記出力画像を生成する制御部と
    を具備する、画像処理装置。
  2. 前記制御情報取得部は、ユーザー入力に基づいて前記制御情報を取得する、請求項1の画像処理装置。
  3. 前記入力画像の各画素における透過率の情報を取得する透過率取得部を更に具備し、
    前記制御情報取得部は、ユーザー入力に基づいて前記透過率と前記制御情報との間の対応関係を取得し、前記透過率及び前記対応関係に基づいて前記制御情報を取得する、
    請求項2の画像処理装置。
  4. 前記入力画像の各画素における奥行の情報を取得する奥行取得部を更に具備し、
    前記制御情報取得部は、ユーザー入力に基づいて前記奥行と前記制御情報との間の対応関係を取得し、前記奥行及び前記対応関係に基づいて前記制御情報を取得する、
    請求項2の画像処理装置。
  5. 前記入力画像を分割することによって得られる複数の領域を特定する領域情報を取得する領域情報取得部を更に具備し、
    前記制御情報取得部は、前記領域情報及びユーザー入力に基づいて前記複数の領域の各々に対する制御情報を取得する、
    請求項2の画像処理装置。
  6. 前記領域情報取得部は、ユーザー入力に基づいて前記領域情報を取得する、請求項5の画像処理装置。
  7. 前記領域情報取得部は、前記入力画像の各画素における奥行に対して閾値処理を施すことによって、前記領域情報を取得する、請求項5の画像処理装置。
  8. 前記入力画像の各画素における透過率の情報を取得する透過率取得部を更に具備し、
    前記制御情報取得部は、前記透過率と前記制御情報との間の対応関係を取得し、前記透過率及び前記対応関係に基づいて前記制御情報を取得する、
    請求項1の画像処理装置。
  9. 前記入力画像の各画素における奥行の情報を取得する奥行取得部を更に具備し、
    前記制御情報取得部は、前記奥行と前記制御情報との間の対応関係を取得し、前記奥行及び前記対応関係に基づいて前記制御情報を取得する、
    請求項1の画像処理装置。
  10. 前記出力画像の任意の2画素間における透過率の大小関係は、前記入力画像の対応する2画素間における透過率の大小関係に対して反転しない、請求項1の画像処理装置。
  11. 前記制御情報は、前記入力画像の各画素における透過率に対する前記出力画像の対応画素における透過率の比である、請求項1の画像処理装置。
  12. 前記透過率取得部は、前記入力画像の各画素における奥行の情報を取得し、前記奥行に基づいて前記透過率を算出する、請求項3の画像処理装置。
  13. 入力画像の各画素に含まれる散乱光の情報を取得することと、
    出力画像の各画素に含まれる散乱光の量を決定付ける制御情報を取得することと、
    前記入力画像の各画素に含まれる散乱光の量を前記制御情報に基づいて制御することによって、前記出力画像を生成することと
    を具備する、画像処理方法。
JP2012224385A 2012-10-09 2012-10-09 画像処理装置及び画像処理方法 Abandoned JP2014078799A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012224385A JP2014078799A (ja) 2012-10-09 2012-10-09 画像処理装置及び画像処理方法
US14/049,369 US20140098263A1 (en) 2012-10-09 2013-10-09 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012224385A JP2014078799A (ja) 2012-10-09 2012-10-09 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2014078799A true JP2014078799A (ja) 2014-05-01

Family

ID=50432404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012224385A Abandoned JP2014078799A (ja) 2012-10-09 2012-10-09 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US20140098263A1 (ja)
JP (1) JP2014078799A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113865A1 (ja) * 2020-11-30 2022-06-02 ソニーグループ株式会社 情報処理装置および情報処理方法
JP7463313B2 (ja) 2021-03-18 2024-04-08 株式会社東芝 光学検査方法、光学検査装置、および光学検査プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6274073B2 (ja) * 2014-10-30 2018-02-07 京セラドキュメントソリューションズ株式会社 情報処理装置、画像形成装置、処理画像選択方法、プログラム
CN107295269A (zh) * 2017-07-31 2017-10-24 努比亚技术有限公司 一种测光方法及终端、计算机存储介质
TWI674804B (zh) * 2018-03-15 2019-10-11 國立交通大學 視訊除霧處理裝置及方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101860A (ja) * 2001-09-21 2003-04-04 Canon Inc 撮像装置、撮影画像生成方法、プログラムおよび記憶媒体
JP4490061B2 (ja) * 2003-08-21 2010-06-23 シスメックス株式会社 粒子画像分析装置
US7916932B2 (en) * 2005-02-16 2011-03-29 In-G Co., Ltd. Method and system of structural light-based 3D depth imaging using signal separation coding and error correction thereof
US20100141572A1 (en) * 2007-04-20 2010-06-10 Sharp Kabushiki Kaisha Illumination device and display device using the same
US8042949B2 (en) * 2008-05-02 2011-10-25 Microsoft Corporation Projection of images onto tangible user interfaces

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022113865A1 (ja) * 2020-11-30 2022-06-02 ソニーグループ株式会社 情報処理装置および情報処理方法
JP7463313B2 (ja) 2021-03-18 2024-04-08 株式会社東芝 光学検査方法、光学検査装置、および光学検査プログラム

Also Published As

Publication number Publication date
US20140098263A1 (en) 2014-04-10

Similar Documents

Publication Publication Date Title
EP3144899B1 (en) Apparatus and method for adjusting brightness of image
US8350933B2 (en) Method, apparatus and computer program product for single image de-hazing
US9367752B2 (en) Camera position posture evaluating device, camera position posture evaluating method, and camera position posture evaluating program
US20140015830A1 (en) Image processing apparatus and method
US20080317375A1 (en) Apparatus and methods for image restoration
JP2012511760A (ja) スケールスペースを使用した画像処理装置及び方法
JP2014078799A (ja) 画像処理装置及び画像処理方法
CN105447825B (zh) 图像去雾方法及其系统
JP7395705B2 (ja) 推定装置、推定方法及びプログラム
US8908994B2 (en) 2D to 3d image conversion
JP6653103B2 (ja) 画像処理装置および画像処理方法
EP3963546A1 (en) Learnable cost volume for determining pixel correspondence
KR101028699B1 (ko) 회화적 렌더링 장치 및 방법
CN108885778A (zh) 图像处理设备和图像处理方法
JP6558365B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2013172214A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20160196641A1 (en) Image manipulation
KR101071952B1 (ko) 3차원 렌더링 이미지의 인터랙티브 조명 효과 편집 방법 및 장치
JP6619598B2 (ja) プログラム、記録媒体、輝度演算装置及び輝度演算方法
JP6854629B2 (ja) 画像処理装置、画像処理方法
CN109961413A (zh) 大气光方向优化估计的图象去雾迭代算法
JP5745370B2 (ja) 特定領域抽出装置及び特定領域抽出プログラム
JP2013142984A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7448693B2 (ja) 複数のドメインデータセットを用いた機械学習の予測の生成
WO2023233575A1 (ja) 推定装置、学習装置、推定方法、学習方法及びプログラム

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20150527