JP2004264941A - Image processor and processing method, storage medium, and program - Google Patents
Image processor and processing method, storage medium, and program Download PDFInfo
- Publication number
- JP2004264941A JP2004264941A JP2003052471A JP2003052471A JP2004264941A JP 2004264941 A JP2004264941 A JP 2004264941A JP 2003052471 A JP2003052471 A JP 2003052471A JP 2003052471 A JP2003052471 A JP 2003052471A JP 2004264941 A JP2004264941 A JP 2004264941A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- pixels
- data
- image
- real world
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000012545 processing Methods 0.000 claims abstract description 1253
- 230000003287 optical effect Effects 0.000 claims abstract description 401
- 230000006870 function Effects 0.000 claims description 912
- 230000010354 integration Effects 0.000 claims description 335
- 230000000694 effects Effects 0.000 claims description 162
- 238000001514 detection method Methods 0.000 abstract description 683
- 238000003384 imaging method Methods 0.000 abstract description 27
- 238000000034 method Methods 0.000 description 1021
- 230000000875 corresponding effect Effects 0.000 description 655
- 238000004364 calculation method Methods 0.000 description 444
- 230000008569 process Effects 0.000 description 436
- 238000010586 diagram Methods 0.000 description 397
- 230000003044 adaptive effect Effects 0.000 description 253
- 230000014509 gene expression Effects 0.000 description 239
- 238000000605 extraction Methods 0.000 description 188
- 239000011159 matrix material Substances 0.000 description 188
- 230000033001 locomotion Effects 0.000 description 173
- 230000008859 change Effects 0.000 description 170
- 238000012937 correction Methods 0.000 description 165
- 230000007423 decrease Effects 0.000 description 162
- 230000006833 reintegration Effects 0.000 description 96
- 230000009131 signaling function Effects 0.000 description 76
- 239000000203 mixture Substances 0.000 description 69
- 239000000284 extract Substances 0.000 description 67
- 238000013213 extrapolation Methods 0.000 description 39
- 230000003247 decreasing effect Effects 0.000 description 36
- 238000002156 mixing Methods 0.000 description 35
- 230000006978 adaptation Effects 0.000 description 22
- 238000013507 mapping Methods 0.000 description 19
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N silicon dioxide Inorganic materials O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 19
- 230000002123 temporal effect Effects 0.000 description 19
- 230000005484 gravity Effects 0.000 description 18
- 239000000243 solution Substances 0.000 description 18
- 238000006243 chemical reaction Methods 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 14
- 238000011835 investigation Methods 0.000 description 13
- 239000011295 pitch Substances 0.000 description 12
- 238000004088 simulation Methods 0.000 description 12
- 210000000078 claw Anatomy 0.000 description 9
- 239000013078 crystal Substances 0.000 description 9
- 238000009795 derivation Methods 0.000 description 8
- 230000004069 differentiation Effects 0.000 description 8
- 238000007796 conventional method Methods 0.000 description 7
- 239000007787 solid Substances 0.000 description 7
- 230000000630 rising effect Effects 0.000 description 6
- ATJFFYVFTNAWJD-UHFFFAOYSA-N Tin Chemical compound [Sn] ATJFFYVFTNAWJD-UHFFFAOYSA-N 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000002542 deteriorative effect Effects 0.000 description 4
- SLPJGDQJLTYWCI-UHFFFAOYSA-N dimethyl-(4,5,6,7-tetrabromo-1h-benzoimidazol-2-yl)-amine Chemical compound BrC1=C(Br)C(Br)=C2NC(N(C)C)=NC2=C1Br SLPJGDQJLTYWCI-UHFFFAOYSA-N 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 239000004576 sand Substances 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 239000010453 quartz Substances 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000001174 ascending effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013075 data extraction Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- JEJAGQKHAKDRGG-UHFFFAOYSA-N 2,2-dichloroethenyl dimethyl phosphate;(2-propan-2-yloxyphenyl) n-methylcarbamate Chemical compound COP(=O)(OC)OC=C(Cl)Cl.CNC(=O)OC1=CC=CC=C1OC(C)C JEJAGQKHAKDRGG-UHFFFAOYSA-N 0.000 description 1
- 241001419253 Spathiphyllum cochlearispathum Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 235000019645 odor Nutrition 0.000 description 1
- 230000037452 priming Effects 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、データが取得された現実世界を考慮した画像処理装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
実世界(現実世界)における事象をセンサで検出し、センサが出力するサンプリングデータを処理する技術が広く利用されている。例えば、実世界をイメージセンサで撮像し、画像データであるサンプリングデータを処理する画像処理技術が広く利用されている。
【0003】
また、第1の次元を有する現実世界の信号である第1の信号をセンサによって検出することにより得た、第1の次元に比較し次元が少ない第2の次元を有し、第1の信号に対する歪を含む第2の信号を取得し、第2の信号に基づく信号処理を行うことにより、第2の信号に比して歪の軽減された第3の信号を生成するようにしているものもある(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開2001−250119号公報
【0005】
【発明が解決しようとする課題】
しかしながら、データが取得された現実世界を考慮した画像処理はこれまで考えられていなかった。
【0006】
本発明はこのような状況に鑑みてなされたものであり、データが取得された現実世界を考慮し、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようにすることを目的とする。
【0007】
【課題を解決するための手段】
本発明の第1の画像処理装置は、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データを取得する取得手段と、光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して光学ローパスフィルタに入射される光信号を推定する推定手段とを備えることを特徴とする。
【0008】
本発明の第1の画像処理方法は、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データを取得する取得ステップと、光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して光学ローパスフィルタに入射される光信号を推定する推定ステップとを含むことを特徴とする。
【0009】
本発明の第1の記録媒体のプログラムは、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データを取得する取得ステップと、光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して光学ローパスフィルタに入射される光信号を推定する推定ステップとを含むコンピュータが読み取り可能なプログラムが記録されていることを特徴とする。
【0010】
本発明の第1のプログラムは、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データを取得する取得ステップと、光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して光学ローパスフィルタに入射される光信号を推定する推定ステップとをコンピュータに実行させることを特徴とする。
【0011】
本発明の第2の画像処理装置は、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影され、現実世界の光信号の定常性の一部が欠落した画像データの空間方向のうち少なくとも一次元方向の位置に対応する注目画素の画素値が、光学ローパスフィルタに対応した複数の実世界関数の少なくとも一次元方向の積分により取得された画素値であるとして複数の実世界関数を推定することにより、現実世界の光信号に対応する関数を推定する実世界推定手段を備えることを特徴とする。
【0012】
前記画像データの定常性を検出する画像データ定常性検出手段をさらに設けるようにさせることができ、実世界推定手段には、画像データ定常性検出手段により検出された定常性に基づいて、画像データの空間方向のうち少なくとも一次元方向の位置に対応する注目画素の画素値が、光学ローパスフィルタに対応した複数の実世界関数の少なくとも一次元方向の積分により取得された画素値であるとして複数の実世界関数を推定することにより、現実世界の光信号に対応する関数を推定させるようにすることができる。
【0013】
前記実世界推定手段により推定された実世界関数を少なくとも1次元方向の所望の単位で積分することにより所望の大きさの画素に対応する画素値を生成する画素値生成手段をさらに設けるようにさせることができる。
【0014】
本発明の第2の画像処理方法は、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データを取得する取得ステップと、光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して光学ローパスフィルタに入射される光信号を推定する推定ステップとを含むことを特徴とする。
【0015】
本発明の第2の記録媒体のプログラムは、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データを取得する取得ステップと、光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して光学ローパスフィルタに入射される光信号を推定する推定ステップとを含むコンピュータが読み取り可能なプログラムが記録されていることを特徴とする。
【0016】
本発明の第2のプログラムは、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データを取得する取得ステップと、光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して光学ローパスフィルタに入射される光信号を推定する推定ステップとをコンピュータに実行させることを特徴とする。
【0017】
本発明の第1の画像処理装置および方法、並びにプログラムにおいては、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データが取得され、光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して光学ローパスフィルタに入射される光信号が推定される。
【0018】
本発明の第2の画像処理装置および方法、並びにプログラムにおいては、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影され、現実世界の光信号の定常性の一部が欠落した画像データの空間方向のうち少なくとも一次元方向の位置に対応する注目画素の画素値が、光学ローパスフィルタに対応した複数の実世界関数の少なくとも一次元方向の積分により取得された画素値であるとして複数の実世界関数を推定することにより、現実世界の光信号に対応する関数が推定される。
【0019】
本発明の第1の画像処理装置、および、第2の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
【0020】
【発明の実施の形態】
図1は、本発明の原理を表している。同図で示されるように、空間、時間、および質量の次元を有する実世界1の事象(現象)は、センサ2により取得され、データ化される。実世界1の事象とは、光(画像)、音声、圧力、温度、質量、濃度、明るさ/暗さ、またはにおいなどをいう。実世界1の事象は、時空間方向に分布している。例えば、実世界1の画像は、実世界1の光の強度の時空間方向の分布である。
【0021】
センサ2に注目すると、空間、時間、および質量の次元を有する実世界1の事象のうち、センサ2が取得可能な、実世界1の事象が、センサ2により、データ3に変換される。センサ2によって、実世界1の事象を示す情報が取得されるとも言える。
【0022】
すなわち、センサ2は、実世界1の事象を示す情報を、データ3に変換する。空間、時間、および質量の次元を有する実世界1の事象(現象)を示す情報である信号がセンサ2により取得され、データ化されるとも言える。
【0023】
以下、実世界1における、画像、音声、圧力、温度、質量、濃度、明るさ/暗さ、またはにおいなどの事象の分布を、実世界1の事象を示す情報である信号とも称する。また、実世界1の事象を示す情報である信号を、単に、実世界1の信号とも称する。本明細書において、信号は、現象および事象を含み、送信側に意思がないものも含むものとする。
【0024】
センサ2から出力されるデータ3(検出信号)は、実世界1の事象を示す情報を、実世界1に比較して、より低い次元の時空間に射影して得られた情報である。例えば、動画像の画像データであるデータ3は、実世界1の3次元の空間方向および時間方向の画像が、2次元の空間方向、および時間方向からなる時空間に射影されて得られた情報である。また、例えば、データ3がデジタルデータであるとき、データ3は、サンプリングの単位に応じて、丸められている。データ3がアナログデータであるとき、データ3において、ダイナミックレンジに応じて、情報が圧縮されているか、またはリミッタなどにより、情報の一部が削除されている。
【0025】
このように、所定の次元を有する実世界1の事象を示す情報である信号をデータ3(検出信号)に射影することにより、実世界1の事象を示す情報の一部が欠落する。すなわち、センサ2が出力するデータ3において、実世界1の事象を示す情報の一部が欠落している。
【0026】
しかしながら、射影により実世界1の事象を示す情報の一部が欠落しているものの、データ3は、実世界1の事象(現象)を示す情報である信号を推定するための有意情報を含んでいる。
【0027】
本発明においては、実世界1の情報である信号を推定するための有意情報として、データ3に含まれる定常性を有する情報を利用する。定常性は、新たに定義する概念である。
【0028】
ここで、実世界1に注目すると、実世界1の事象は、所定の次元の方向に一定の特徴を含む。例えば、実世界1の物体(有体物)において、空間方向または時間方向に、形状、模様、若しくは色彩などが連続するか、または形状、模様、若しくは色彩などのパターンが繰り返す。
【0029】
従って、実世界1の事象を示す情報には、所定の次元の方向に一定の特徴が含まれることになる。
【0030】
より具体的な例を挙げれば、糸、紐、またはロープなどの線状の物体は、長さ方向の任意の位置において、断面形状が同じであるという長さ方向、すなわち空間方向に一定の特徴を有する。長さ方向の任意の位置において、断面形状が同じであるという空間方向に一定の特徴は、線状の物体が長いという特徴から生じる。
【0031】
従って、線状の物体の画像は、長さ方向の任意の位置において、断面形状が同じであるという長さ方向、すなわち空間方向に一定の特徴を有している。
【0032】
また、空間方向に広がりを有する有体物である、単色の物体は、部位にかかわらず、同一の色を有するという空間方向に一定の特徴を有していると言える。
【0033】
同様に、空間方向に広がりを有する有体物である、単色の物体の画像は、部位にかかわらず、同一の色を有するという空間方向に一定の特徴を有している。
【0034】
このように、実世界1(現実世界)の事象は、所定の次元の方向に一定の特徴を有しているので、実世界1の信号は、所定の次元の方向に一定の特徴を有する。
【0035】
本明細書において、このような所定の次元の方向に一定の特徴を定常性と称する。実世界1(現実世界)の信号の定常性とは、実世界1(現実世界)の事象を示す信号が有している、所定の次元の方向に一定の特徴をいう。
【0036】
実世界1(現実世界)には、このような定常性が無数に存在する。
【0037】
次に、データ3に注目すると、データ3は、センサ2により、所定の次元を有する実世界1の事象を示す情報である信号が射影されたものであるので、実世界の信号の定常性に対応する定常性を含んでいる。データ3は、実世界の信号の定常性が射影された定常性を含んでいるとも言える。
【0038】
しかしながら、上述したように、センサ2が出力するデータ3において、実世界1の情報の一部が欠落しているので、データ3から、実世界1(現実世界)の信号に含まれる定常性の一部が欠落してしまう。
【0039】
換言すれば、データ3は、データの定常性として、実世界1(現実世界)の信号の定常性の中の、一部の定常性を含む。データの定常性とは、データ3が有している、所定の次元の方向に一定の特徴である。
【0040】
本発明においては、実世界1の事象を示す情報である信号を推定するための有意情報として、データ3が有する、データの定常性が利用される。
【0041】
例えば、本発明においては、データの定常性を利用して、データ3を信号処理することで、欠落した、実世界1の事象を示す情報が生成される。
【0042】
なお、本発明においては、実世界1の事象を示す情報である信号の次元の、長さ(空間)、時間、および質量のうち、空間方向または時間方向の定常性が利用される。
【0043】
図1に戻り、センサ2は、例えば、デジタルスチルカメラ、またはビデオカメラなどで構成され、実世界1の画像を撮像し、得られたデータ3である画像データを信号処理装置4に出力する。センサ2は、例えば、サーモグラフィ装置、または光弾性を利用した圧力センサなどとすることができる。
【0044】
信号処理装置4は、例えば、パーソナルコンピュータなどで構成される。
【0045】
信号処理装置4は、例えば、図2で示されるように構成される。CPU(Central Processing Unit)21は、ROM(Read Only Memory)22、または記憶部28に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)23には、CPU21が実行するプログラムやデータなどが適宜記憶される。これらのCPU21、ROM22、およびRAM23は、バス24により相互に接続されている。
【0046】
CPU21にはまた、バス24を介して入出力インタフェース25が接続されている。入出力インタフェース25には、キーボード、マウス、マイクロホンなどよりなる入力部26、ディスプレイ、スピーカなどよりなる出力部27が接続されている。CPU21は、入力部26から入力される指令に対応して各種の処理を実行する。そして、CPU21は、処理の結果得られた画像や音声等を出力部27に出力する。
【0047】
入出力インタフェース25に接続されている記憶部28は、例えばハードディスクなどで構成され、CPU21が実行するプログラムや各種のデータを記憶する。通信部29は、インターネット、その他のネットワークを介して外部の装置と通信する。この例の場合、通信部29はセンサ2の出力するデータ3を取り込む取得部として働く。
【0048】
また、通信部29を介してプログラムを取得し、記憶部28に記憶してもよい。
【0049】
入出力インタフェース25に接続されているドライブ30は、磁気ディスク51、光ディスク52、光磁気ディスク53、或いは半導体メモリ54などが装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部28に転送され、記憶される。
【0050】
図3は、信号処理装置4を示すブロック図である。
【0051】
なお、信号処理装置4の各機能をハードウェアで実現するか、ソフトウェアで実現するかは問わない。つまり、本明細書の各ブロック図は、ハードウェアのブロック図と考えても、ソフトウェアによる機能ブロック図と考えても良い。
【0052】
図3に構成を示す信号処理装置4においては、データ3の一例である画像データが入力され、入力された画像データ(入力画像)からデータの定常性が検出される。次に、検出されたデータの定常性から、センサ2により取得された実世界1の信号が推定される。そして、推定された実世界1の信号を基に、画像が生成され、生成された画像(出力画像)が出力される。すなわち、図3は、画像処理装置である信号処理装置4の構成を示す図である。
【0053】
信号処理装置4に入力された入力画像(データ3の一例である画像データ)は、データ定常性検出部101および実世界推定部102に供給される。
【0054】
データ定常性検出部101は、入力画像からデータの定常性を検出して、検出した定常性を示すデータ定常性情報を実世界推定部102および画像生成部103に供給する。データ定常性情報は、例えば、入力画像における、データの定常性を有する画素の領域の位置、データの定常性を有する画素の領域の方向(時間方向および空間方向の角度または傾き)、またはデータの定常性を有する画素の領域の長さなどを含む。データ定常性検出部101の構成の詳細は、後述する。
【0055】
実世界推定部102は、入力画像、およびデータ定常性検出部101から供給されたデータ定常性情報を基に、実世界1の信号を推定する。すなわち、実世界推定部102は、入力画像が取得されたときセンサ2に入射された、実世界の信号である画像を推定する。実世界推定部102は、実世界1の信号の推定の結果を示す実世界推定情報を画像生成部103に供給する。実世界推定部102の構成の詳細は、後述する。
【0056】
画像生成部103は、実世界推定部102から供給された、推定された実世界1の信号を示す実世界推定情報を基に、実世界1の信号により近似した信号を生成して、生成した信号を出力する。または、画像生成部103は、データ定常性検出部101から供給されたデータ定常性情報、および実世界推定部102から供給された、推定された実世界1の信号を示す実世界推定情報を基に、実世界1の信号により近似した信号を生成して、生成した信号を出力する。
【0057】
すなわち、画像生成部103は、実世界推定情報を基に、実世界1の画像により近似した画像を生成して、生成した画像を出力画像として出力する。または、画像生成部103は、データ定常性情報および実世界推定情報を基に、実世界1の画像により近似した画像を生成して、生成した画像を出力画像として出力する。
【0058】
例えば、画像生成部103は、実世界推定情報を基に、推定された実世界1の画像を所望の空間方向または時間方向の範囲で積分することにより、入力画像に比較して、空間方向または時間方向により高解像度の画像を生成して、生成した画像を出力画像として出力する。例えば、画像生成部103は、外挿補間により、画像を生成して、生成した画像を出力画像として出力する。
【0059】
画像生成部103の構成の詳細は、後述する。
【0060】
次に、図4乃至図7を参照して、本発明の原理を説明する。
【0061】
図4は、従来の信号処理装置121における処理の原理を説明する図である。従来の信号処理装置121は、データ3を処理の基準とすると共に、データ3を処理の対象として、高解像度化などの処理を実行する。従来の信号処理装置121においては、実世界1が考慮されることはなく、データ3が最終的な基準となり、データ3に含まれている情報以上の情報を出力として得ることはできない。
【0062】
また、従来の信号処理装置121において、データ3に存在する、センサ2による歪み(実世界1の情報である信号とデータ3との差)は全く考慮されないので、従来の信号処理装置121は、歪みを含んだままの信号を出力することになる。さらに、信号処理装置121の処理の内容によっては、データ3に存在する、センサ2による歪みがさらに増幅されて、増幅された歪みを含むデータが出力されることになる。
【0063】
このように、従来の信号処理においては、データ3が取得された実世界1(の信号)そのものが考慮されることはなかった。換言すれば、従来の信号処理においては、データ3に含まれている情報の枠内で実世界1を捉えていたので、データ3に含まれている情報および歪みにより、信号処理の限界が決定される。
【0064】
これに対して、本発明の信号処理においては、実世界1(の信号)そのものを明確に考慮して、処理が実行される。
【0065】
図5は、本発明に係る信号処理装置4における処理の原理を説明する図である。
【0066】
実世界1の事象を示す情報である信号をセンサ2が取得し、センサ2が、実世界1の情報である信号を射影したデータ3を出力する点では、従来と同様である。
【0067】
しかしながら、本発明においては、センサ2により取得された、実世界1の事象を示す情報である信号が明確に考慮される。すなわち、データ3が、センサ2による歪み(実世界1の情報である信号とデータ3との差)を含むことを意識して信号処理がなされる。
【0068】
このようにすることで、本発明の信号処理においては、データ3に含まれている情報および歪みにより処理の結果が限定されることがなく、例えば、従来に比較して、実世界1の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。すなわち、本発明によれば、センサ2に入力された、実世界1の事象を示す情報である信号に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0069】
図6および図7は、本発明の原理をより具体的に説明する図である。
【0070】
図6で示されるように、例えば、画像である、実世界1の信号が、レンズ、または光学LPF(Low Pass Filter)などでなる光学系141により、センサ2の一例であるCCD(Charge Coupled Device)の受光面に結像される。センサ2の一例であるCCDは、積分特性を有しているので、CCDから出力されるデータ3には、実世界1の画像との差が生じることになる。センサ2の積分特性の詳細については、後述する。
【0071】
本発明の信号処理においては、CCDにより取得された実世界1の画像と、CCDにより撮像され、出力されたデータ3との関係が明確に考慮される。すなわち、データ3と、センサ2で取得された実世界の情報である信号との関係が明確に考慮される。
【0072】
より具体的には、図7で示されるように、信号処理装置4は、モデル161を用いて、実世界1を近似(記述)する。モデル161は、例えば、N個の変数で表現される。より正確には、モデル161は、実世界1の信号を近似(記述)する。
【0073】
モデル161を予測するために、信号処理装置4は、データ3から、M個のデータ162を抽出する。データ3から、M個のデータ162を抽出するとき、信号処理装置4は、データ3に含まれるデータの定常性を利用する。換言すれば、信号処理装置4は、データ3に含まれるデータの定常性を基に、モデル161を予測するためのデータ162を抽出する。結果的に、モデル161は、データの定常性に拘束されることになる。
【0074】
すなわち、モデル161は、センサ2で取得されたとき、データ3においてデータの定常性を生じさせる、定常性(所定の次元の方向に一定の特徴)を有する実世界1の事象(を示す情報(信号))を近似する。
【0075】
ここで、データ162の数Mが、モデルの変数の数N以上であれば、M個のデータ162から、N個の変数で表現されるモデル161を予測することができる。
【0076】
このように、実世界1(の信号)を近似(記述)するモデル161を予測することにより、信号処理装置4は、実世界1の情報である信号を考慮することができる。
【0077】
次に、センサ2の積分効果について説明する。
【0078】
画像を撮像するセンサ2である、CCDまたはCMOS(Complementary Metal−Oxide Semiconductor)センサなどのイメージセンサは、現実世界を撮像するとき、現実世界の情報である信号を2次元のデータに投影する。イメージセンサの各画素は、いわゆる受光面(受光領域)として、それぞれ所定の面積を有する。所定の面積を有する受光面に入射した光は、画素毎に、空間方向および時間方向に積分され、各画素に対して1つの画素値に変換される。
【0079】
図8乃至図11を参照して、画像の空間的時間的な積分について説明する。
【0080】
イメージセンサは、現実世界の対象物(オブジェクト)を撮像し、撮像の結果得られた画像データを1フレーム単位で出力する。すなわち、イメージセンサは、実世界1の対象物で反射された光である、実世界1の信号を取得し、データ3を出力する。
【0081】
例えば、イメージセンサは、1秒間に30フレームからなる画像データを出力する。この場合、イメージセンサの露光時間は、1/30秒とすることができる。露光時間は、イメージセンサが入射された光の電荷への変換を開始してから、入射された光の電荷への変換を終了するまでの期間である。以下、露光時間をシャッタ時間とも称する。
【0082】
図8は、イメージセンサ上の画素の配置の例を説明する図である。図8中において、A乃至Iは、個々の画素を示す。画素は、画像データにより表示される画像に対応する平面上に配置されている。1つの画素に対応する1つの検出素子は、イメージセンサ上に配置されている。イメージセンサが実世界1の画像を撮像するとき、1つの検出素子は、画像データを構成する1つの画素に対応する1つの画素値を出力する。例えば、検出素子の空間方向Xの位置(X座標)は、画像データにより表示される画像上の横方向の位置に対応し、検出素子の空間方向Yの位置(Y座標)は、画像データにより表示される画像上の縦方向の位置に対応する。
【0083】
実世界1の光の強度の分布は、3次元の空間方向および時間方向に広がりを有するが、イメージセンサは、2次元の空間方向および時間方向で、実世界1の光を取得し、2次元の空間方向および時間方向の光の強度の分布を表現するデータ3を生成する。
【0084】
図9で示されるように、例えば、CCDである検出素子は、シャッタ時間に対応する期間、受光面(受光領域)(検出領域)に入力された光を電荷に変換して、変換された電荷を蓄積する。光は、3次元の空間上の位置、および時刻により、強度が決定される実世界1の情報(信号)である。実世界1の光の強度の分布は、3次元の空間上の位置x,y、およびz、並びに時刻tを変数とする関数F(x,y,z,t)で表すことができる。
【0085】
CCDである検出素子に蓄積される電荷の量は、2次元の空間上の広がりを有する受光面の全体に入射された光の強さと、光が入射されている時間にほぼ比例する。検出素子は、シャッタ時間に対応する期間において、受光面の全体に入射された光から変換された電荷を、既に蓄積されている電荷に加えていく。すなわち、検出素子は、シャッタ時間に対応する期間、2次元の空間上の広がりを有する受光面の全体に入射される光を積分して、積分された光に対応する量の電荷を蓄積する。検出素子は、空間(受光面)および時間(シャッタ時間)に対して、積分効果があるとも言える。
【0086】
検出素子に蓄積された電荷は、図示せぬ回路により、電圧値に変換され、電圧値はさらにデジタルデータなどの画素値に変換されて、データ3として出力される。従って、イメージセンサから出力される個々の画素値は、実世界1の情報(信号)の時間的空間的に広がりを有するある部分を、シャッタ時間の時間方向および検出素子の受光面の空間方向について積分した結果である、1次元の空間に射影した値を有する。
【0087】
すなわち、1つの画素の画素値は、F(x,y,t)の積分で表される。F(x,y,t)は、検出素子の受光面における、光の強度の分布を表す関数である。例えば、画素値Pは、式(1)で表される。
【0088】
【数1】
【0089】
式(1)において、x1は、検出素子の受光面の左側の境界の空間座標(X座標)である。x2は、検出素子の受光面の右側の境界の空間座標(X座標)である。式(1)において、y1は、検出素子の受光面の上側の境界の空間座標(Y座標)である。y2は、検出素子の受光面の下側の境界の空間座標(Y座標)である。また、t1は、入射された光の電荷への変換を開始した時刻である。t2は、入射された光の電荷への変換を終了した時刻である。
【0090】
なお、実際には、イメージセンサから出力される画像データの画素値は、例えばフレーム全体として、そのゲインが補正されている。
【0091】
画像データの各画素値は、イメージセンサの各検出素子の受光面に入射した光の積分値であり、イメージセンサに入射された光のうち、検出素子の受光面よりも微小な実世界1の光の波形は、積分値としての画素値に隠されてしまう。
【0092】
以下、本明細書において、所定の次元を基準として表現される信号の波形を単に波形とも称する。
【0093】
このように、実世界1の画像は、画素を単位として、空間方向および時間方向に積分されてしまうので、画像データにおいては、実世界1の画像の定常性の一部が欠落し、実世界1の画像の定常性の他の一部のみが画像データに含まれることになる。または、画像データには、実世界1の画像の定常性から変化してしまった定常性が含まれることがある。
【0094】
積分効果を有するイメージセンサにより撮像された画像の、空間方向の積分効果についてさらに説明する。
【0095】
図10は、画素D乃至画素Fに対応する検出素子に入射される光と、画素値との関係を説明する図である。図10のF(x)は、空間上(検出素子上)の空間方向Xの座標xを変数とする、実世界1の光の強度の分布を表す関数の例である。言い換えれば、F(x)は、空間方向Yおよび時間方向に一定である場合の、実世界1の光の強度の分布を表す関数の例である。図10において、Lは、画素D乃至画素Fに対応する検出素子の受光面の空間方向Xの長さを示す。
【0096】
1つの画素の画素値は、F(x)の積分で表される。例えば、画素Eの画素値Pは、式(2)で表される。
【0097】
【数2】
【0098】
式(2)において、x1は、画素Eに対応する検出素子の受光面の左側の境界の空間方向Xの空間座標である。x2は、画素Eに対応する検出素子の受光面の右側の境界の空間方向Xの空間座標である。
【0099】
同様に、積分効果を有するイメージセンサにより撮像された画像の、時間方向の積分効果についてさらに説明する。
【0100】
図11は、時間の経過と、1つの画素に対応する検出素子に入射される光と、画素値との関係を説明する図である。図11のF(t)は、時刻tを変数とする、実世界1の光の強度の分布を表す関数である。言い換えれば、F(t)は、空間方向Yおよび空間方向Xに一定である場合の、実世界1の光の強度の分布を表す関数の例である。tsは、シャッタ時間を示す。
【0101】
フレーム#n−1は、フレーム#nに対して時間的に前のフレームであり、フレーム#n+1は、フレーム#nに対して時間的に後のフレームである。すなわち、フレーム#n−1、フレーム#n、およびフレーム#n+1は、フレーム#n−1、フレーム#n、およびフレーム#n+1の順で表示される。
【0102】
なお、図11で示される例において、シャッタ時間tsとフレーム間隔とが同一である。
【0103】
1つの画素の画素値は、F(t)の積分で表される。例えば、フレーム#nの画素の画素値Pは、式(3)で表される。
【0104】
【数3】
【0105】
式(3)において、t1は、入射された光の電荷への変換を開始した時刻である。t2は、入射された光の電荷への変換を終了した時刻である。
【0106】
以下、センサ2による空間方向の積分効果を単に空間積分効果と称し、センサ2による時間方向の積分効果を単に時間積分効果と称する。また、空間積分効果または時間積分効果を単に積分効果とも称する。
【0107】
次に、積分効果を有するイメージセンサにより取得されたデータ3に含まれるデータの定常性の例について説明する。
【0108】
図12は、実世界1の線状の物(例えば、細線)の画像、すなわち光の強度の分布の例を示す図である。図12において、図中の上側の位置は、光の強度(レベル)を示し、図中の右上側の位置は、画像の空間方向の一方向である空間方向Xの位置を示し、図中の右側の位置は、画像の空間方向の他の方向である空間方向Yの位置を示す。
【0109】
実世界1の線状の物の画像には、所定の定常性が含まれる。すなわち、図12で示される画像は、長さ方向の任意の位置において、断面形状(長さ方向に直交する方向の位置の変化に対するレベルの変化)が同じであるという定常性を有する。
【0110】
図13は、図12で示される画像に対応する、実際の撮像により得られた画像データの画素値の例を示す図である。
【0111】
図14は、図13に示す画像データの模式図である。
【0112】
図14で示される模式図は、イメージセンサの画素の並び(画素の縦または横の並び)とずれた方向に延びる、各画素の受光面の長さLよりも短い径の線状の物の画像を、イメージセンサで撮像して得られた画像データの模式図である。図14で示される画像データが取得されたときにイメージセンサに入射された画像は、図12の実世界1の線状の物の画像である。
【0113】
図14において、図中の上側の位置は、画素値を示し、図中の右上側の位置は、画像の空間方向の一方向である空間方向Xの位置を示し、図中の右側の位置は、画像の空間方向の他の方向である空間方向Yの位置を示す。図14における画素値を示す方向は、図12におけるレベルの方向に対応し、図14における空間方向X、および空間方向Yは、図12における方向と同じである。
【0114】
各画素の受光面の長さLよりも短い径の線状の物の画像を、イメージセンサで撮像した場合、撮像の結果得られる画像データにおいて、線状の物は、模式的に、例えば、斜めにずれて並ぶ、複数の所定の長さの円弧形状(かまぼこ型)で表される。各円弧形状は、ほぼ同じ形状である。1つの円弧形状は、縦に1列の画素の上、または横に1列の画素の上に形成される。例えば、図14における1つの円弧形状は、縦に1列の画素の上に形成される。
【0115】
このように、例えば、イメージセンサで撮像されて取得された画像データにおいては、実世界1の線状の物の画像が有していた、長さ方向の任意の位置において、空間方向Yにおける断面形状が同じであるという定常性が失われている。また、実世界1の線状の物の画像が有していた定常性は、縦に1列の画素の上、または横に1列の画素の上に形成された、同じ形状である円弧形状が一定の間隔で並ぶという定常性に変化していると言える。
【0116】
図15は、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像、すなわち光の強度の分布の例を示す図である。図15において、図中の上側の位置は、光の強度(レベル)を示し、図中の右上側の位置は、画像の空間方向の一方向である空間方向Xの位置を示し、図中の右側の位置は、画像の空間方向の他の方向である空間方向Yの位置を示す。
【0117】
背景とは異なる色の、直線状の縁を有する物の実世界1の画像には、所定の定常性が含まれる。すなわち、図15で示される画像は、縁の長さ方向の任意の位置において、断面形状(縁に直交する方向の位置の変化に対するレベルの変化)が同じであるという定常性を有する。
【0118】
図16は、図15で示される画像に対応する、実際の撮像により得られた画像データの画素値の例を示す図である。図16で示されるように、画像データは、画素を単位とした画素値からなるので、階段状になる。
【0119】
図17は、図16に示す画像データの模式図である。
【0120】
図17で示される模式図は、イメージセンサの画素の並び(画素の縦または横の並び)とずれた方向に縁が延びる、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像を、イメージセンサで撮像して得られた画像データの模式図である。図17で示される画像データが取得されたときにイメージセンサに入射された画像は、図15で示される、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像である。
【0121】
図17において、図中の上側の位置は、画素値を示し、図中の右上側の位置は、画像の空間方向の一方向である空間方向Xの位置を示し、図中の右側の位置は、画像の空間方向の他の方向である空間方向Yの位置を示す。図17における画素値を示す方向は、図15におけるレベルの方向に対応し、図17における空間方向X、および空間方向Yは、図15における方向と同じである。
【0122】
背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像を、イメージセンサで撮像した場合、撮像の結果得られる画像データにおいて、直線状の縁は、模式的に、例えば、斜めにずれて並ぶ、複数の所定の長さのつめ(pawl)形状で表される。各つめ形状は、ほぼ同じ形状である。1つのつめ形状は、縦に1列の画素の上、または横に1列の画素の上に形成される。例えば、図17において、1つのつめ形状は、縦に1列の画素の上に形成される。
【0123】
このように、例えば、イメージセンサで撮像されて取得された画像データにおいては、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像が有していた、縁の長さ方向の任意の位置において、断面形状が同じであるという定常性が失われている。また、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像が有していた定常性は、縦に1列の画素の上、または横に1列の画素の上に形成された、同じ形状であるつめ形状が一定の間隔で並ぶという定常性に変化していると言える。
【0124】
データ定常性検出部101は、このような、例えば、入力画像であるデータ3が有するデータの定常性を検出する。例えば、データ定常性検出部101は、所定の次元の方向に一定の特徴を有する領域を検出することにより、データの定常性を検出する。例えば、データ定常性検出部101は、図14で示される、同じ円弧形状が一定の間隔で並ぶ領域を検出する。また、例えば、データ定常性検出部101は、図17で示される、同じつめ形状が一定の間隔で並ぶ領域を検出する。
【0125】
また、データ定常性検出部101は、同様の形状の並び方を示す、空間方向の角度(傾き)を検出することにより、データの定常性を検出する。
【0126】
また、例えば、データ定常性検出部101は、空間方向および時間方向の同様の形状の並び方を示す、空間方向および時間方向の角度(動き)を検出することにより、データの定常性を検出する。
【0127】
さらに、例えば、データ定常性検出部101は、所定の次元の方向に一定の特徴を有する領域の長さを検出することにより、データの定常性を検出する。
【0128】
以下、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像がセンサ2により射影されたデータ3の部分を2値エッジとも称する。
【0129】
次に、本発明の原理をさらに具体的に説明する。
【0130】
図18で示されるように、従来の信号処理においては、データ3から、例えば、所望の高解像度データ181が生成される。
【0131】
これに対して、本発明に係る信号処理においては、データ3から、実世界1が推定され、推定の結果に基づいて、高解像度データ181が生成される。すなわち、図19で示されるように、実世界1が、データ3から推定され、高解像度データ181が、データ3を考慮して、推定された実世界1から高解像度データ181が生成される。
【0132】
実世界1から高解像度データ181を生成するためには、実世界1とデータ3との関係を考慮する必要がある。例えば、実世界1が、CCDであるセンサ2により、データ3に射影されるとどうなるかが考慮される。
【0133】
CCDであるセンサ2は、上述したように、積分特性を有する。すなわち、データ3の1つの単位(例えば、画素値)は、実世界1の信号をセンサ2の検出素子(例えば、CCD)の検出領域(例えば、受光面)で積分することにより算出することができる。
【0134】
これを高解像度データ181について当てはめると、仮想的な高解像度のセンサが実世界1の信号をデータ3に射影する処理を、推定された実世界1に適用することにより、高解像度データ181を得ることができる。
【0135】
換言すれば、図20で示されるように、データ3から実世界1の信号を推定できれば、実世界1の信号を、仮想的な高解像度のセンサの検出素子の検出領域毎に(時空間方向に)積分することにより、高解像度データ181に含まれる1つの値を得ることができる。
【0136】
例えば、センサ2の検出素子の検出領域の大きさに比較して、実世界1の信号の変化が、より小さいとき、データ3は、実世界1の信号の小さい変化を表すことができない。そこで、データ3から推定された実世界1の信号を、実世界1の信号の変化に比較して、より小さい領域毎に(時空間方向に)積分することにより、実世界1の信号の小さい変化を示す高解像度データ181を得ることができる。
【0137】
すなわち、仮想的な高解像度のセンサの各検出素子について、推定された実世界1の信号を検出領域で積分することにより、高解像度データ181を得ることができる。
【0138】
本発明において、画像生成部103は、例えば、仮想的な高解像度のセンサの各検出素子の時空間方向の領域で、推定された実世界1の信号を積分することにより、高解像度データ181を生成する。
【0139】
次に、データ3から、実世界1を推定するために、本発明においては、データ3と実世界1との関係、定常性、およびデータ3における空間混合が利用される。
【0140】
ここで、混合とは、データ3において、実世界1における2つの物体に対する信号が混合されて1つの値となることをいう。
【0141】
空間混合とは、センサ2の空間積分効果による、2つの物体に対する信号の空間方向の混合をいう。
【0142】
実世界1そのものは、無限の数の事象からなり、従って、実世界1そのものを、例えば、数式で表現するためには、無限の数の変数が必要になる。データ3から、実世界1の全ての事象を予測することはできない。
【0143】
同様に、データ3から、実世界1の信号の全てを予測することはできない。
【0144】
そこで、図21で示されるように、本発明においては、実世界1の信号のうち、定常性を有し、関数f(x,y,z,t)で表すことができる部分に注目し、関数f(x,y,z,t)で表すことができる、定常性を有する実世界1の信号の部分が、N個の変数で表現されるモデル161で近似される。そして、図22で示されるように、モデル161が、データ3の中の、M個のデータ162から予測される。
【0145】
M個のデータ162からモデル161の予測を可能にするには、第1に、モデル161を、定常性に基づいて、N個の変数で表し、第2に、センサ2の積分特性に基づいて、N個の変数で表現されるモデル161とM個のデータ162との関係を示す、N個の変数を使用した式を立てることが必要である。モデル161が、定常性に基づいて、N個の変数で表されているので、N個の変数で表現されるモデル161とM個のデータ162との関係を示す、N個の変数を使用した式は、定常性を有する実世界1の信号の部分と、データの定常性を有するデータ3の部分との関係を記述しているとも言える。
【0146】
換言すれば、N個の変数で表現されるモデル161で近似される、定常性を有する実世界1の信号の部分は、データ3において、データの定常性を生じさせる。
【0147】
データ定常性検出部101は、定常性を有する実世界1の信号の部分によって、データの定常性が生じたデータ3の部分、およびデータの定常性が生じた部分の特徴を検出する。
【0148】
例えば、図23で示されるように、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像において、図23中Aで示す、注目する位置における縁は、傾きを有している。図23のBの矢印は、縁の傾きを示す。所定の縁の傾きは、基準となる軸に対する角度または基準となる位置に対する方向で表すことができる。例えば、所定の縁の傾きは、空間方向Xの座標軸と、縁との角度で表すことができる。例えば、所定の縁の傾きは、空間方向Xの長さおよび空間方向Yの長さで示される方向で表すことができる。
【0149】
背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像が、センサ2で取得されて、データ3が出力されたとき、データ3において、実世界1の画像における、縁の注目する位置(A)に対する、図23中A’で示す位置に、縁に対応するつめ形状が並び、実世界1の画像の縁の傾きに対応する、図23中B’で示す傾きの方向に、縁に対応するつめ形状が並ぶ。
【0150】
N個の変数で表現されるモデル161は、このような、データ3において、データの定常性を生じさせる、実世界の1の信号の部分を近似する。
【0151】
N個の変数で表現されるモデル161とM個のデータ162との関係を示す、N個の変数を使用した式を立てるとき、データ3において、データの定常性が生じている部分の値を利用する。
【0152】
この場合において、図24で示される、データ3において、データの定常性が生じ、混合領域に属する値に注目して、実世界1の信号を積分した値が、センサ2の検出素子が出力する値に等しいとして、式が立てられる。例えば、データの定常性が生じている、データ3における複数の値について、複数の式を立てることができる。
【0153】
図24において、Aは、縁の注目する位置を示し、A’は、実世界1の画像における、縁の注目する位置(A)に対する、画素(の位置)を示す。
【0154】
ここで、混合領域とは、データ3において、実世界1における2つの物体に対する信号が混合されて1つの値となっているデータの領域をいう。例えば、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像に対するデータ3において、直線状の縁を有する物に対する画像、および背景に対する画像が積分されている画素値は、混合領域に属する。
【0155】
図25は、式を立てる場合における、実世界1における2つの物体に対する信号および混合領域に属する値を説明する図である。
【0156】
図25中の左側は、センサ2の1つの検出素子の検出領域で取得される、空間方向Xおよび空間方向Yに所定の広がりを有する、実世界1における2つの物体に対する実世界1の信号を示す。図25中の右側は、図25中の左側に示す実世界1の信号がセンサ2の1つの検出素子によって射影された、データ3の1つの画素の画素値Pを示す。すなわち、センサ2の1つの検出素子によって取得された、空間方向Xおよび空間方向Yに所定の広がりを有する、実世界1における2つの物体に対する実世界1の信号が射影された、データ3の1つの画素の画素値Pを示す。
【0157】
図25のLは、実世界1における1つの物体に対する、図25の白い部分の実世界1の信号のレベルを示す。図25のRは、実世界1における他の1つの物体に対する、図25の斜線で表される部分の実世界1の信号のレベルを示す。
【0158】
ここで、混合比αは、センサ2の1つの検出素子の、空間方向Xおよび空間方向Yに所定の広がりを有する検出領域に入射された、2つの物体に対する信号(の面積)の割合を示す。例えば、混合比αは、センサ2の1つの検出素子の検出領域の面積に対する、空間方向Xおよび空間方向Yに所定の広がりを有する、センサ2の1つの検出素子の検出領域に入射された、レベルLの信号の面積の割合を示す。
【0159】
この場合において、レベルL、レベルR、および画素値Pの関係は、式(4)で表すことができる。
【0160】
α×L+(1−α)×R=P ・・・(4)
【0161】
なお、レベルRは、注目している画素の右側に位置している、データ3の画素の画素値とすることができる場合があり、レベルLは、注目している画素の左側に位置している、データ3の画素値とすることができる場合がある。
【0162】
また、混合比αおよび混合領域は、空間方向と同様に、時間方向を考慮することができる。例えば、センサ2に対して撮像の対象となる実世界1の物体が移動しているとき、時間方向に、センサ2の1つの検出素子の検出領域に入射される、2つの物体に対する信号の割合は変化する。センサ2の1つの検出素子の検出領域に入射された、時間方向に割合が変化する、2つの物体に対する信号は、センサ2の検出素子によって、データ3の1つの値に射影される。
【0163】
センサ2の時間積分効果による、2つの物体に対する信号の時間方向の混合を時間混合と称する。
【0164】
データ定常性検出部101は、例えば、実世界1における2つの物体に対する実世界1の信号が射影された、データ3における画素の領域を検出する。データ定常性検出部101は、例えば、実世界1の画像の縁の傾きに対応する、データ3における傾きを検出する。
【0165】
そして、実世界推定部102は、例えば、データ定常性検出部101で検出された、所定の混合比αを有する画素の領域、および領域の傾きを基に、N個の変数で表現されるモデル161とM個のデータ162との関係を示す、N個の変数を使用した式を立てて、立てた式を解くことにより、実世界1の信号を推定する。
【0166】
さらに、具体的な実世界1の推定について説明する。
【0167】
関数F(x,y,z,t)で表される実世界の信号のうち、空間方向Zの断面(センサ2の位置)における関数F(x,y,t)で表される実世界の信号を、空間方向Xにおける位置x、空間方向Yにおける位置y、および時刻tで決まる近似関数f(x,y,t)で近似することを考える。
【0168】
ここで、センサ2の検出領域は、空間方向Xおよび空間方向Yに広がりを有する。換言すれば、近似関数f(x,y,t)は、センサ2で取得される、空間方向および時間方向に広がりを有する実世界1の信号を近似する関数である。
【0169】
センサ2による実世界1の信号の射影によって、データ3の値P(x,y,t)が得られるものとする。データ3の値P(x,y,t)は、例えば、イメージセンサであるセンサ2が出力する、画素値である。
【0170】
ここで、センサ2による射影を定式化できる場合、近似関数f(x,y,t)を射影して得られた値を射影関数S(x,y,t)と表すことができる。
【0171】
射影関数S(x,y,t)を求める上で、以下に示す問題がある。
【0172】
第1に、一般的に、実世界1の信号を表す関数F(x,y,z,t)は、無限の次数の関数となりうる。
【0173】
第2に、たとえ、実世界の信号を関数として記述できたとしても、センサ2の射影を介した、射影関数S(x,y,t)を定めることは、一般的にはできない。すなわち、センサ2による射影の動作、言い換えればセンサ2の入力信号と出力信号との関係を知らないので、射影関数S(x,y,t)を定めることはできない。
【0174】
第1の問題点に対して、実世界1の信号を近似する関数f(x,y,t)を記述可能な関数(例えば、有限次数の関数)である関数fi(x,y,t)および変数wiの積和で表現することを考える。
【0175】
また、第2の問題点に対して、センサ2による射影を定式化することで、関数fi(x,y,t)の記述から、関数Si(x,y,t)を記述することができる。
【0176】
すなわち、実世界1の信号を近似する関数f(x,y,t)を関数fi(x,y,t)および変数wiの積和で表現すると、式(5)が得られる。
【0177】
【数4】
【0178】
例えば、式(6)で示されるように、センサ2の射影を定式化することにより、式(5)から、データ3と実世界の信号の関係を式(7)のように定式化することができる。
【0179】
【数5】
【0180】
【数6】
式(7)において、jは、データのインデックスである。
【0181】
式(7)のN個の変数wi(i=1乃至N)が共通であるM個のデータ群(j=1乃至M)が存在すれば、式(8)を満たすので、データ3から実世界のモデル161を求めることができる。
【0182】
N≦M ・・・(8)
Nは、実世界1を近似するモデル161を表現する変数の数である。Mは、データ3に含まれるデータ162の数である。
【0183】
実世界1の信号を近似する関数f(x,y,t)を式(5)で表すことにより、wiとして変数の部分を独立させることができる。このとき、iは、そのまま変数の数を示すことになる。また、fiで示される関数の形を独立させることができ、fiとして所望の関数を利用することができるようになる。
【0184】
従って、関数fiの形に依存せず、変数wiの数Nを定義でき、変数wiの数Nとデータの数Mとの関係で変数wiを求めることができる。
【0185】
すなわち、以下の3つを用いることで、データ3から実世界1を推定することができるようになる。
【0186】
第1に、N個の変数を定める、すなわち、式(5)を定める。これは、定常性を用いて実世界1を記述することにより可能になる。例えば、断面が多項式で表され、同じ断面形状が一定方向に続く、というモデル161で実世界1の信号を記述することができる。
【0187】
第2に、例えば、センサ2による射影を定式化して、式(7)を記述する。例えば、実世界2の信号の積分を行った結果がデータ3であると定式化する。
【0188】
第3に、M個のデータ162を集めて、式(8)を満足させる。例えば、データ定常性検出部101で検出された、データの定常性を有する領域から、データ162が集められる。例えば、定常性の一例である、一定の断面が続く領域のデータ162が集められる。
【0189】
このように、式(5)によって、データ3と実世界1との関係を記述し、M個のデータ162を集めることで、式(8)を満たすことにより、実世界1を推定することができる。
【0190】
より具体的には、N=Mのとき、変数の数Nと式の数Mが等しいので、連立方程式を立てることにより、変数wiを求めることができる。
【0191】
また、N<Mのとき、様々な解法を適用できる。例えば、最小自乗法により、変数wiを求めることができる。
【0192】
ここで、最小自乗法による解法について、詳細に記載する。
【0193】
まず、式(7)に従って、実世界1からデータ3を予測する式(9)を示す。
【0194】
【数7】
【0195】
式(9)において、P’j(xj,yj,tj)は、予測値である。
【0196】
予測値P’と実測値Pとの差分自乗和Eは、式(10)で表される。
【0197】
【数8】
【0198】
差分自乗和Eが最小になるように、変数wiが求められる。従って、各変数wkによる式(10)の偏微分値は0とされる。すなわち、式(11)が成り立つ。
【0199】
【数9】
【0200】
式(11)から式(12)が導かれる。
【0201】
【数10】
【0202】
式(12)がK=1乃至Nで成り立つとき、最小自乗法による解が得られる。このときの正規方程式は、式(13)で示される。
【0203】
【数11】
ただし、式(13)において、Si(xj,yj,tj)は、Si(j)と記述した。
【0204】
【数12】
【0205】
【数13】
【0206】
【数14】
【0207】
式(14)乃至式(16)から、式(13)は、SMATWMAT=PMATと表すことができる。
【0208】
式(13)において、Siは、実世界1の射影を表す。式(13)において、Pjは、データ3を表す。式(13)において、wiは、実世界1の信号の特徴を記述し、求めようとする変数である。
【0209】
従って、式(13)にデータ3を入力し、行列解法などによりWMATを求めることで、実世界1を推定することが可能になる。すなわち、式(17)を演算することにより、実世界1を推定することができるようになる。
【0210】
【0211】
なお、SMATが正則でない場合、SMATの転置行列を利用して、WMATを求めることができる。
【0212】
実世界推定部102は、例えば、式(13)にデータ3を入力し、行列解法などによりWMATを求めることで、実世界1を推定する。
【0213】
ここで、さらにより具体的な例を説明する。例えば、実世界1の信号の断面形状、すなわち位置の変化に対するレベルの変化を、多項式で記述する。実世界1の信号の断面形状が一定で、実世界1の信号の断面が等速で移動すると仮定する。そして、センサ2による実世界1の信号からデータ3への射影を、実世界1の信号の時空間方向の3次元で積分で定式化する。
【0214】
実世界1の信号の断面形状が、等速で移動するとの仮定から、式(18)および式(19)が得られる。
【0215】
【数15】
【0216】
【数16】
ここで、vxおよびvyは、一定である。
【0217】
実世界1の信号の断面形状は、式(18)および式(19)を用いることで、式(20)と表される。
【0218】
f(x’,y’)=f(x+vxt,y+vyt) ・・・(20)
【0219】
センサ2による実世界1の信号からデータ3への射影を、実世界1の信号の時空間方向の3次元で積分で定式化すれば、式(21)が得られる。
【0220】
【数17】
【0221】
式(21)において、S(x,y,t)は、空間方向Xについて、位置xsから位置xeまで、空間方向Yについて、位置ysから位置yeまで、時間方向tについて、時刻tsから時刻teまでの領域、すなわち時空間の直方体で表される領域の積分値を示す。
【0222】
式(21)を定めることができる所望の関数f(x’,y’)を用いて、式(13)を解けば、実世界1の信号を推定することができる。
【0223】
以下では、関数f(x’,y’)の一例として、式(22)に示す関数を用いることとする。
【0224】
【0225】
すなわち、実世界1の信号が、式(18)、式(19)、および式(22)で表される定常性を含むと仮定している。これは、図26で示されるように、一定の形状の断面が、時空間方向に移動していることを示す。
【0226】
式(21)に、式(22)を代入することにより、式(23)が得られる。
【0227】
【数18】
ただし、
Volume=(xe−xs)(ye−ys)(te−ts)
S0(x,y,t)=Volume/2×(xe+xs+vx(te+ts))
S1(x,y,t)=Volume/2×(ye+ys+vy(te+ts))
S2(x,y,t)=1
である。
【0228】
図27は、データ3から抽出される、M個のデータ162の例を示す図である。例えば、27個の画素値が、データ162として抽出され、抽出された画素値が、Pj(x,y,t)とされる。この場合、jは、0乃至26である。
【0229】
図27に示す例において、nである時刻tの注目する位置に対応する画素の画素値がP13(x,y,t)であり、データの定常性を有する画素の画素値の並ぶ方向(例えば、データ定常性検出部101で検出された、同じ形状であるつめ形状が並ぶ方向)が、P4(x,y,t)、P13(x,y,t)、およびP22(x,y,t)を結ぶ方向であるとき、nである時刻tにおける、画素値P9(x,y,t)乃至P17(x,y,t)、nより時間的に前である、n−1である時刻tにおける、画素値P0(x,y,t)乃至P8(x,y,t)、およびnより時間的に後である、n+1である時刻tにおける、画素値P18(x,y,t)乃至P26(x,y,t)が抽出される。
【0230】
ここで、センサ2であるイメージセンサから出力された、データ3である画素値が取得された領域は、図28で示されるように、時間方向および2次元の空間方向に広がりを有する。そこで、例えば、図29で示されるように、画素に対応する直方体(画素値が取得された領域)の重心を、画素の時空間方向の位置として使用することができる。図29中の丸は、重心を示す。
【0231】
27個の画素値P0(x,y,t)乃至P26(x,y,t)、および式(23)から、式(13)を生成し、Wを求めることで、実世界1を推定することが可能になる。
【0232】
このように、実世界推定部102は、例えば、27個の画素値P0(x,y,t)乃至P26(x,y,t)、および式(23)から、式(13)を生成し、Wを求めることで、実世界1の信号を推定する。
【0233】
なお、関数fi(x,y,t)として、ガウス関数、またはシグモイド関数などを利用することができる。
【0234】
図30乃至図34を参照して、推定された実世界1の信号から、データ3に対応する、より高解像度の高解像度データ181を生成する処理の例について説明する。
【0235】
図30で示されるように、データ3は、時間方向および2次元の空間方向に実世界1の信号が積分された値を有する。例えば、センサ2であるイメージセンサから出力された、データ3である画素値は、検出素子に入射された光である、実世界1の信号が、時間方向に、検出時間であるシャッタ時間で積分され、空間方向に、検出素子の受光領域で積分された値を有する。
【0236】
これに対して、図31で示されるように、空間方向により解像度の高い高解像度データ181は、推定された実世界1の信号を、時間方向に、データ3を出力したセンサ2の検出時間と同じ時間で積分するとともに、空間方向に、データ3を出力したセンサ2の検出素子の受光領域に比較して、より狭い領域で積分することにより、生成される。
【0237】
なお、空間方向により解像度の高い高解像度データ181を生成する場合において、推定された実世界1の信号が積分される領域は、データ3を出力したセンサ2の検出素子の受光領域と全く無関係に設定することができる。例えば、高解像度データ181に、データ3に対して、空間方向に整数倍の解像度を持たせることは勿論、5/3倍など、データ3に対して、空間方向に有理数倍の解像度を持たせることができる。
【0238】
また、図32で示されるように、時間方向により解像度の高い高解像度データ181は、推定された実世界1の信号を、空間方向に、データ3を出力したセンサ2の検出素子の受光領域と同じ領域で積分するとともに、時間方向に、データ3を出力したセンサ2の検出時間に比較して、より短い時間で積分することにより、生成される。
【0239】
なお、時間方向により解像度の高い高解像度データ181を生成する場合において、推定された実世界1の信号が積分される時間は、データ3を出力したセンサ2の検出素子のシャッタ時間と全く無関係に設定することができる。例えば、高解像度データ181に、データ3に対して、時間方向に整数倍の解像度を持たせることは勿論、7/4倍など、データ3に対して、時間方向に有理数倍の解像度を持たせることができる。
【0240】
図33で示されるように、動きボケを除去した高解像度データ181は、推定された実世界1の信号を、時間方向に積分しないで、空間方向にのみ積分することにより、生成される。
【0241】
さらに、図34で示されるように、時間方向および空間方向により解像度の高い高解像度データ181は、推定された実世界1の信号を、空間方向に、データ3を出力したセンサ2の検出素子の受光領域に比較して、より狭い領域で積分するとともに、時間方向に、データ3を出力したセンサ2の検出時間に比較して、より短い時間で積分することにより、生成される。
【0242】
この場合において、推定された実世界1の信号が積分される領域および時間は、データ3を出力したセンサ2の検出素子の受光領域およびシャッタ時間と全く無関係に設定することができる。
【0243】
このように、画像生成部103は、例えば、推定された実世界1の信号を所望の時空間の領域で積分することにより、時間方向、または空間方向に、より高解像度のデータを生成する。
【0244】
以上のように、実世界1の信号を推定することにより、実世界1の信号に対してより正確で、時間方向、または空間方向に、より高解像度のデータを生成することができる。
【0245】
図35乃至図39を参照して、本発明に係る信号処理装置4の、入力画像の例と、処理の結果の例を示す。
【0246】
図35は、入力画像の元の画像を示す図である。図36は、入力画像の例を示す図である。図36で示される入力画像は、図35で示される画像の2×2の画素からなるブロックに属する画素の画素値の平均値を、1つの画素の画素値として生成された画像である。すなわち、入力画像は、図35で示される画像に、センサの積分特性を模した、空間方向の積分を適用することにより得られた画像である。
【0247】
図35で示される元の画像において、上下方向から、ほぼ5度時計方向に傾いた細線の画像が含まれている。同様に、図36で示される入力画像において、上下方向から、ほぼ5度時計方向に傾いた細線の画像が含まれている。
【0248】
図37は、図36で示される入力画像に、従来のクラス分類適応処理を適用して得られた画像を示す図である。ここで、クラス分類適応処理は、クラス分類処理と適応処理とからなり、クラス分類処理によって、データを、その性質に基づいてクラス分けし、各クラスごとに適応処理を施すものである。適応処理では、例えば、低画質または標準画質の画像が、所定のタップ係数を用いてマッピング(写像)されることにより、高画質の画像に変換される。
【0249】
図37で示される画像において、細線の画像が、図35の元の画像とは異なるものになっていることがわかる。
【0250】
図38は、データ定常性検出部101による、図36の例で示される入力画像から細線の領域を検出した結果を示す図である。図38において、白い領域は、細線の領域、すなわち、図14で示される円弧形状が並んでいる領域を示す。
【0251】
図39は、図36で示される画像を入力画像として、本発明に係る信号処理装置4から出力された出力画像の例を示す図である。図39で示されるように、本発明に係る信号処理装置4によれば、図35で示される元の画像の細線の画像により近い画像を得ることができる。
【0252】
図40は、本発明に係る信号処理装置4による、信号の処理を説明するフローチャートである。
【0253】
ステップS101において、データ定常性検出部101は、定常性の検出の処理を実行する。データ定常性検出部101は、データ3である入力画像に含まれているデータの定常性を検出して、検出したデータの定常性を示すデータ定常性情報を実世界推定部102および画像生成部103に供給する。
【0254】
データ定常性検出部101は、現実世界の信号の定常性に対応するデータの定常性を検出する。ステップS101の処理において、データ定常性検出部101により検出されるデータの定常性は、データ3に含まれる、実世界1の画像の定常性の一部であるか、または、実世界1の信号の定常性から変化してしまった定常性である。
【0255】
例えば、データ定常性検出部101は、所定の次元の方向に一定の特徴を有する領域を検出することにより、データの定常性を検出する。また、例えば、データ定常性検出部101は、同様の形状の並び方を示す、空間方向の角度(傾き)を検出することにより、データの定常性を検出する。
【0256】
ステップS101における、定常性の検出の処理の詳細は、後述する。
【0257】
なお、データ定常性情報は、データ3の特徴を示す特徴量として利用することができる。
【0258】
ステップS102において、実世界推定部102は、実世界の推定の処理を実行する。すなわち、実世界推定部102は、入力画像、およびデータ定常性検出部101から供給されたデータ定常性情報を基に、実世界1の信号を推定する。例えば、ステップS102の処理において、実世界推定部102は、実世界1を近似(記述)するモデル161を予測することにより、実世界1の信号を推定する。実世界推定部102は、推定された実世界1の信号を示す実世界推定情報を画像生成部103に供給する。
【0259】
例えば、実世界推定部102は、線状の物の幅を予測することにより、実世界1の信号を推定する。また、例えば、実世界推定部102は、線状の物の色を示すレベルを予測することにより、実世界1の信号を推定する。
【0260】
ステップS102における、実世界の推定の処理の詳細は、後述する。
【0261】
なお、実世界推定情報は、データ3の特徴を示す特徴量として利用することができる。
【0262】
ステップS103において、画像生成部103は、画像の生成の処理を実行して、処理は終了する。すなわち、画像生成部103は、実世界推定情報を基に、画像を生成して、生成した画像を出力する。または、画像生成部103は、データ定常性情報および実世界推定情報を基に、画像を生成して、生成した画像を出力する。
【0263】
例えば、ステップS103の処理において、画像生成部103は、実世界推定情報を基に、推定された現実世界の光を空間方向に積分することにより、入力画像に比較して、空間方向により高解像度の画像を生成して、生成した画像を出力する。例えば、画像生成部103は、実世界推定情報を基に、推定された現実世界の光を時空間方向に積分することにより、入力画像に比較して、時間方向および空間方向により高解像度の画像を生成して、生成した画像を出力する。ステップS103における、画像の生成の処理の詳細は、後述する。
【0264】
このように、本発明に係る信号処理装置4は、データ3からデータの定常性を検出し、検出したデータの定常性を基に、実世界1を推定する。そして、信号処理装置4は、推定された実世界1を基に、より実世界1に近似した信号を生成する。
【0265】
以上のように、現実世界の信号を推定して処理を実行するようにした場合には、正確で、精度の高い処理結果を得ることができるようになる。
【0266】
また、第1の次元を有する現実世界の信号である第1の信号が射影され、現実世界の信号の定常性の一部が欠落した第1の次元よりも少ない第2の次元の第2の信号の、欠落した現実世界の信号の定常性に対応するデータの定常性を検出し、検出されたデータの定常性に基づいて、欠落した現実世界の信号の定常性を推定することにより第1の信号を推定するようにした場合には、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0267】
次に、データ定常性検出部101の構成の詳細について説明する。
【0268】
図41は、データ定常性検出部101の構成を示すブロック図である。
【0269】
図41に構成を示すデータ定常性検出部101は、細線である対象物を撮像したとき、対象物の有する断面形状が同じであるという定常性から生じた、データ3に含まれるデータの定常性を検出する。すなわち、図41に構成を示すデータ定常性検出部101は、細線である実世界1の画像の有する、長さ方向の任意の位置において、長さ方向に直交する方向の位置の変化に対する光のレベルの変化が同じであるという定常性から生じた、データ3に含まれるデータの定常性を検出する。
【0270】
より具体的には、図41に構成を示すデータ定常性検出部101は、細線の画像を空間積分効果を有するセンサ2で撮像して得られたデータ3に含まれる、斜めにずれて隣接して並ぶ、複数の所定の長さの円弧形状(かまぼこ型)が配置される領域を検出する。
【0271】
データ定常性検出部101は、データ3である入力画像から、データの定常性を有する細線の画像が射影された画像データの部分(以下、定常成分とも称する)以外の画像データの部分(以下、非定常成分と称する)を抽出し、抽出された非定常成分と入力画像とから、実世界1の細線の画像が射影された画素を検出し、入力画像における、実世界1の細線の画像が射影された画素からなる領域を検出する。
【0272】
非定常成分抽出部201は、入力画像から非定常成分を抽出して、入力画像と共に、抽出された非定常成分を示す非定常成分情報を頂点検出部202および単調増減検出部203に供給する。
【0273】
例えば、図42で示されるように、ほぼ一定の光のレベルの背景の前に細線がある実世界1の画像がデータ3に射影されたとき、図43で示されるように、非定常成分抽出部201は、データ3である入力画像における背景を平面で近似することにより、背景である非定常成分を抽出する。図43において、実線は、データ3の画素値を示し、点線は、背景を近似する平面で示される近似値を示す。図43において、Aは、細線の画像が射影された画素の画素値を示し、PLは、背景を近似する平面を示す。
【0274】
このように、データの定常性を有する画像データの部分における、複数の画素の画素値は、非定常成分に対して不連続となる。
【0275】
非定常成分抽出部201は、実世界1の光信号である画像が射影され、実世界1の画像の定常性の一部が欠落した、データ3である画像データの複数の画素の画素値の不連続部を検出する。
【0276】
非定常成分抽出部201における非定常成分の抽出の処理の詳細は、後述する。
【0277】
頂点検出部202および単調増減検出部203は、非定常成分抽出部201から供給された非定常成分情報を基に、入力画像から非定常成分を除去する。例えば、頂点検出部202および単調増減検出部203は、入力画像の各画素のうち、背景の画像のみが射影された画素の画素値を0に設定することにより、入力画像から非定常成分を除去する。また、例えば、頂点検出部202および単調増減検出部203は、入力画像の各画素の画素値から、平面PLで近似される値を引き算することにより、入力画像から非定常成分を除去する。
【0278】
入力画像から背景を除去することができるので、頂点検出部202乃至連続性検出部204は、細線が射影された画像データの部分のみを処理の対象とすることができ、頂点検出部202乃至連続性検出部204における処理がより容易になる。
【0279】
なお、非定常成分抽出部201は、入力画像から非定常成分を除去した画像データを頂点検出部202および単調増減検出部203に供給するようにしてもよい。
【0280】
以下に説明する処理の例において、入力画像から非定常成分が除去された画像データ、すなわち、定常成分を含む画素のみからなる画像データが対象となる。
【0281】
ここで、頂点検出部202乃至連続性検出部204が検出しようとする、細線の画像が射影された画像データについて説明する。
【0282】
図42で示される細線の画像が射影された画像データの空間方向Yの断面形状(空間方向の位置の変化に対する画素値の変化)は、光学LPFがないとした場合、センサ2であるイメージセンサの空間積分効果から、図44に示す台形、または図45に示す三角形となることが考えられる。しかしながら、通常のイメージセンサは、光学LPFを備え、イメージセンサは、光学LPFを通過した画像を取得し、取得した画像をデータ3に射影するので、現実には、細線の画像データの空間方向Yの断面形状は、図46に示すようなガウス分布に類似した形状となる。
【0283】
頂点検出部202乃至連続性検出部204は、細線の画像が射影された画素であって、同じ断面形状(空間方向の位置の変化に対する画素値の変化)が画面の上下方向に一定の間隔で並ぶものからなる領域を検出して、さらに、実世界1の細線の長さ方向に対応した、領域の繋がりを検出することにより、データの定常性を有する領域である、細線の画像が射影された画素からなる領域を検出する。すなわち、頂点検出部202乃至連続性検出部204は、入力画像における、縦に1列の画素の上に、円弧形状(かまぼこ型)が形成される領域を検出し、検出された領域が横方向に隣接して並んでいるか否かを判定して、実世界1の信号である細線の画像の長さ方向に対応した、円弧形状が形成される領域の繋がりを検出する。
【0284】
また、頂点検出部202乃至連続性検出部204は、細線の画像が射影された画素であって、同じ断面形状が画面の左右方向に一定の間隔で並ぶものからなる領域を検出して、さらに、実世界1の細線の長さ方向に対応した、検出された領域の繋がりを検出することにより、データの定常性を有する領域である、細線の画像が射影された画素からなる領域を検出する。すなわち、頂点検出部202乃至連続性検出部204は、入力画像における、横に1列の画素の上に、円弧形状が形成される領域を検出し、検出された領域が縦方向に隣接して並んでいるか否かを判定して、実世界1の信号である細線の画像の長さ方向に対応した、円弧形状が形成される領域の繋がりを検出する。
【0285】
まず、細線の画像が射影された画素であって、画面の上下方向に同じ円弧形状が一定の間隔で並ぶものからなる領域を検出する処理を説明する。
【0286】
頂点検出部202は、周囲の画素に比較して、より大きい画素値を有する画素、すなわち頂点を検出し、頂点の位置を示す頂点情報を単調増減検出部203に供給する。画面の上下方向に1列に並ぶ画素を対象とした場合、頂点検出部202は、画面の上側に位置する画素の画素値、および画面の下側に位置する画素の画素値に比較して、より大きい画素値を有する画素を頂点として検出する。頂点検出部202は、1つの画像、例えば、1つのフレームの画像から、1または複数の頂点を検出する。
【0287】
1つの画面には、フレームまたはフィールドが含まれる。以下の説明において、同様である。
【0288】
例えば、頂点検出部202は、1フレームの画像からまだ注目画素とされていない画素の中から注目画素を選択し、注目画素の画素値と、注目画素の上側の画素の画素値とを比較し、注目画素の画素値と、注目画素の下側の画素の画素値とを比較して、上側の画素の画素値より大きい画素値を有し、下側の画素の画素値より大きい画素値を有する注目画素を検出して、検出された注目画素を頂点とする。頂点検出部202は、検出された頂点を示す頂点情報を単調増減検出部203に供給する。
【0289】
頂点検出部202が、頂点を検出しない場合もある。例えば、1つの画像の画素の画素値が全て同じ値であるとき、または、1若しくは2の方向に対して画素値が減少しているとき、頂点は検出されない。この場合、細線の画像は、画像データに射影されていない。
【0290】
単調増減検出部203は、頂点検出部202から供給された、頂点の位置を示す頂点情報を基に、頂点検出部202で検出された頂点に対して上下方向に1列に並ぶ画素であって、細線の画像が射影された画素からなる領域の候補を検出し、頂点情報と共に、検出した領域を示す領域情報を連続性検出部204に供給する。
【0291】
より具体的には、単調増減検出部203は、頂点の画素値を基準として、単調減少している画素値を有する画素からなる領域を、細線の画像が射影された画素からなる領域の候補として検出する。単調減少とは、頂点からの距離がより長い画素の画素値が、頂点からの距離が短い画素の画素値に比較して、より小さいことをいう。
【0292】
また、単調増減検出部203は、頂点の画素値を基準として、単調増加している画素値を有する画素からなる領域を、細線の画像が射影された画素からなる領域の候補として検出する。単調増加とは、頂点からの距離がより長い画素の画素値が、頂点からの距離が短い画素の画素値に比較して、より大きいことをいう。
【0293】
以下、単調増加している画素値を有する画素からなる領域についての処理は、単調減少している画素値を有する画素からなる領域についての処理と同様なので、その説明は省略する。細線の画像が射影された画素であって、画面の横方向に同じ円弧形状が一定の間隔で並ぶものからなる領域を検出する処理における、単調増加している画素値を有する画素からなる領域についての処理も、単調減少している画素値を有する画素からなる領域についての処理と同様なので、その説明は省略する。
【0294】
例えば、単調増減検出部203は、頂点に対して縦に1列に各画素について、各画素の画素値と、上側の画素の画素値との差分、および下側の画素の画素値との差分を求める。そして、単調増減検出部203は、差分の符号が変化する画素を検出することにより、画素値が単調減少している領域を検出する。
【0295】
さらに、単調増減検出部203は、画素値が単調減少している領域から、頂点の画素値の符号を基準として、頂点の画素値の符号と同じ符号の画素値を有する画素からなる領域を、細線の画像が射影された画素からなる領域の候補として検出する。
【0296】
例えば、単調増減検出部203は、各画素の画素値の符号と、上側の画素の画素値の符号および下側の画素の画素値の符号とを比較し、画素値の符号が変化する画素を検出することにより、画素値が単調減少している領域から、頂点と同じ符号の画素値を有する画素からなる領域を検出する。
【0297】
このように、単調増減検出部203は、上下方向に並び、頂点に対して画素値が単調減少し、頂点と同じ符号の画素値を有する画素からなる領域を検出する。
【0298】
図47は、空間方向Yの位置に対する画素値から、細線の画像が射影された画素の領域を検出する、頂点の検出および単調増減領域の検出の処理を説明する図である。
【0299】
図47乃至図49において、Pは、頂点を示す。図41で構成が示されるデータ定常性検出部101の説明において、Pは、頂点を示す。
【0300】
頂点検出部202は、各画素の画素値と、これに空間方向Yに隣接する画素の画素値とを比較して、空間方向Yに隣接する2つの画素の画素値より大きい画素値を有する画素を検出することにより、頂点Pを検出する。
【0301】
頂点Pと、頂点Pの空間方向Yの両側の画素とからなる領域は、頂点Pの画素値に対して、空間方向Yの両側の画素の画素値が単調に減少する単調減少領域である。図47において、Aで示す矢印、およびBで示す矢印は、頂点Pの両側に存在する単調減少領域を示す。
【0302】
単調増減検出部203は、各画素の画素値と、その画素に空間方向Yに隣接する画素の画素値との差分を求めて、差分の符号が変化する画素を検出する。単調増減検出部203は、検出された、差分の符号が変化する画素と、その手前側(頂点P側)の画素との境界を、細線の画像が射影された画素からなる細線領域の境界とする。
【0303】
図47において、差分の符号が変化する画素と、その手前側(頂点P側)の画素との境界である細線領域の境界はCで示される。
【0304】
さらに、単調増減検出部203は、単調減少領域において、各画素の画素値の符号と、その画素に空間方向Yに隣接する画素の画素値の符号とを比較し、画素値の符号が変化する画素を検出する。単調増減検出部203は、検出された、差分の符号が変化する画素と、その手前側(頂点P側)の画素との境界を細線領域の境界とする。
【0305】
図47において、差分の符号が変化する画素と、その手前側(頂点P側)の画素との境界である細線領域の境界はDで示される。
【0306】
図47で示されるように、細線の画像が射影された画素からなる細線領域Fは、細線領域の境界Cと、細線領域の境界Dとに挟まれる領域とされる。
【0307】
単調増減検出部203は、このような単調増減領域からなる細線領域Fの中から、予め定めた閾値より長い細線領域F、すなわち、閾値より多い数の画素を含む細線領域Fを求める。例えば、閾値が3であるとき、単調増減検出部203は、4つ以上の画素を含む細線領域Fを検出する。
【0308】
さらに、このように検出された細線領域Fの中から、単調増減検出部203は、頂点Pの画素値、および頂点Pの右側の画素の画素値、および頂点Pの左側の画素の画素値を、それぞれ閾値と比較し、頂点Pの画素値が閾値を超え、頂点Pの右側の画素の画素値が閾値以下であり、頂点Pの左側の画素の画素値が閾値以下である頂点Pが属する細線領域Fを検出し、検出された細線領域Fを細線の画像の成分を含む画素からなる領域の候補とする。
【0309】
言い換えれば、頂点Pの画素値が閾値以下であるか、頂点Pの右側の画素の画素値が閾値を超えるか、または頂点Pの左側の画素の画素値が閾値を超える頂点Pが属する細線領域Fは、細線の画像の成分を含まないと判定され、細線の画像の成分を含む画素からなる領域の候補から除去される。
【0310】
すなわち、図48で示されるように、単調増減検出部203は、頂点Pの画素値を閾値と比較すると共に、頂点Pに対して、空間方向X(点線AA’で示す方向)に隣接する画素の画素値を、閾値と比較し、頂点Pの画素値が閾値を超え、空間方向Xに隣接する画素の画素値が閾値以下である、頂点Pが属する細線領域Fを検出する。
【0311】
図49は、図48の点線AA’で示す空間方向Xに並ぶ画素の画素値を表す図である。頂点Pの画素値が閾値ThSを超え、頂点Pの空間方向Xに隣接する画素の画素値が、閾値ThS以下である、頂点Pが属する細線領域Fは、細線の成分を含む。
【0312】
なお、単調増減検出部203は、背景の画素値を基準として、頂点Pの画素値と背景の画素値との差分を閾値と比較すると共に、頂点Pに対して、空間方向Xに隣接する画素の画素値と背景の画素値との差分を、閾値と比較し、頂点Pの画素値と背景の画素値との差分が閾値を超え、空間方向Xに隣接する画素の画素値と背景の画素値との差分が閾値以下である、頂点Pが属する細線領域Fを検出するようにしてもよい。
【0313】
単調増減検出部203は、頂点Pを基準として、画素値が単調減少し、画素値の符号が頂点Pと同じである画素からなる領域であって、その頂点Pが閾値を超え、頂点Pの右側の画素の画素値が閾値以下であり、頂点Pの左側の画素の画素値が閾値以下であるものを示す単調増減領域情報を連続性検出部204に供給する。
【0314】
画面の上下方向に1列に並ぶ画素であって、細線の画像が射影されたものからなる領域を検出する場合において、単調増減領域情報により示される領域に属する画素は、上下方向に並び、細線の画像が射影された画素を含む。すなわち、単調増減領域情報により示される領域は、画面の上下方向に1列に並ぶ画素であって、細線の画像が射影されたものからなる領域を含む。
【0315】
このように、頂点検出部202および単調増減検出部203は、細線の画像が射影された画素において、空間方向Yの画素値の変化が、ガウス分布に類似するという性質を利用して、細線の画像が射影された画素からなる定常領域を検出する。
【0316】
連続性検出部204は、単調増減検出部203から供給された単調増減領域情報で示される、上下方向に並ぶ画素からなる領域のうち、横方向に隣接している画素を含む領域、すなわち、相似した画素値の変化を有し、縦方向に重複している領域を、連続している領域として検出し、頂点情報、および検出された連続している領域を示すデータ定常性情報を出力する。データ定常性情報は、単調増減領域情報、および領域の繋がりを示す情報などを含んでいる。
【0317】
細線が射影された画素において、円弧形状が隣接するように一定の間隔で並ぶので、検出された連続している領域は、細線が射影された画素を含んでいる。
【0318】
検出された連続している領域が、細線が射影された、円弧形状が隣接するように一定の間隔で並ぶ画素を含むので、検出された連続している領域を定常領域とし、連続性検出部204は、検出された連続している領域を示すデータ定常性情報を出力する。
【0319】
すなわち、連続性検出部204は、長さ方向に連続するという、実世界1の細線の画像の定常性から生じた、細線を撮像して得られたデータ3における、円弧形状が隣接するように一定の間隔で並ぶ定常性を利用して、頂点検出部202および単調増減検出部203において検出された領域の候補をさらに絞り込む。
【0320】
図50は、単調増減領域の連続性を検出の処理を説明する図である。
【0321】
図50に示すように、連続性検出部204は、画面の縦方向に1列に並ぶ画素からなる細線領域Fについて、横方向に隣接する画素を含んでいるとき、2つの単調増減領域の間に連続性があるとし、横方向に隣接する画素を含んでいないとき、2つの細線領域Fの間に連続性がないとする。例えば、画面の縦方向に1列に並ぶ画素からなる細線領域F−1は、画面の縦方向に1列に並ぶ画素からなる細線領域F0の画素と横方向に隣接する画素を含んでいるとき、細線領域F0と連続しているとされる。画面の縦方向に1列に並ぶ画素からなる細線領域F0は、画面の縦方向に1列に並ぶ画素からなる細線領域F1の画素と横方向に隣接する画素を含んでいるとき、細線領域F1と連続しているとされる。
【0322】
このように、頂点検出部202乃至連続性検出部204により、画面の上下方向に1列に並ぶ画素であって、細線の画像が射影されたものからなる領域が検出される。
【0323】
頂点検出部202乃至連続性検出部204は、上述したように、画面の上下方向に1列に並ぶ画素であって、細線の画像が射影されたものからなる領域を検出し、さらに、画面の左右方向に1列に並ぶ画素であって、細線の画像が射影されたものからなる領域を検出する。
【0324】
なお、処理の順序は、本発明を限定するものではなく、並列に実行するようにしても良いことは当然である。
【0325】
すなわち、頂点検出部202は、画面の左右方向に1列に並ぶ画素を対象として、画面の左側に位置する画素の画素値、および画面の右側に位置する画素の画素値に比較して、より大きい画素値を有する画素を頂点として検出し、検出した頂点の位置を示す頂点情報を単調増減検出部203に供給する。頂点検出部202は、1つの画像、例えば、1フレームの画像から、1または複数の頂点を検出する。
【0326】
例えば、頂点検出部202は、1フレームの画像からまだ注目画素とされていない画素の中から注目画素を選択し、注目画素の画素値と、注目画素の左側の画素の画素値とを比較し、注目画素の画素値と、注目画素の右側の画素の画素値とを比較して、左側の画素の画素値より大きい画素値を有し、右側の画素の画素値より大きい画素値を有する注目画素を検出して、検出された注目画素を頂点とする。頂点検出部202は、検出された頂点を示す頂点情報を単調増減検出部203に供給する。
【0327】
頂点検出部202が、頂点を検出しない場合もある。
【0328】
単調増減検出部203は、頂点検出部202で検出された頂点に対して左右方向に1列に並ぶ画素であって、細線の画像が射影された画素からなる領域の候補を検出検出し、頂点情報と共に、検出した領域を示す単調増減領域情報を連続性検出部204に供給する。
【0329】
より具体的には、単調増減検出部203は、頂点の画素値を基準として、単調減少している画素値を有する画素からなる領域を、細線の画像が射影された画素からなる領域の候補として検出する。
【0330】
例えば、単調増減検出部203は、頂点に対して横に1列の各画素について、各画素の画素値と、左側の画素の画素値との差分、および右側の画素の画素値との差分を求める。そして、単調増減検出部203は、差分の符号が変化する画素を検出することにより、画素値が単調減少している領域を検出する。
【0331】
さらに、単調増減検出部203は、画素値が単調減少している領域から、頂点の画素値の符号を基準として、頂点の画素値の符号と同じ符号の画素値を有する画素からなる領域を、細線の画像が射影された画素からなる領域の候補として検出する。
【0332】
例えば、単調増減検出部203は、各画素の画素値の符号と、左側の画素の画素値の符号または右側の画素の画素値の符号とを比較し、画素値の符号が変化する画素を検出することにより、画素値が単調減少している領域から、頂点と同じ符号の画素値を有する画素からなる領域を検出する。
【0333】
このように、単調増減検出部203は、左右方向に並び、頂点に対して画素値が単調減少し、頂点と同じ符号の画素値を有する画素からなる領域を検出する。
【0334】
単調増減検出部203は、このような単調増減領域からなる細線領域の中から、予め定めた閾値より長い細線領域、すなわち、閾値より多い数の画素を含む細線領域を求める。
【0335】
さらに、このように検出された細線領域の中から、単調増減検出部203は、頂点の画素値、および頂点の上側の画素の画素値、および頂点の下側の画素の画素値を、それぞれ閾値と比較し、頂点の画素値が閾値を超え、頂点の上側の画素の画素値が閾値以下であり、頂点の下側の画素の画素値が閾値以下である頂点が属する細線領域を検出し、検出された細線領域を細線の画像の成分を含む画素からなる領域の候補とする。
【0336】
言い換えれば、頂点の画素値が閾値以下であるか、頂点の上側の画素の画素値が閾値を超えるか、または頂点の下側の画素の画素値が閾値を超える頂点が属する細線領域は、細線の画像の成分を含まないと判定され、細線の画像の成分を含む画素からなる領域の候補から除去される。
【0337】
なお、単調増減検出部203は、背景の画素値を基準として、頂点の画素値と背景の画素値との差分を閾値と比較すると共に、頂点に対して、上下方向に隣接する画素の画素値と背景の画素値との差分を、閾値と比較し、頂点の画素値と背景の画素値との差分が閾値を超え、上下方向に隣接する画素の画素値と背景の画素値との差分が閾値以下である、検出された細線領域を細線の画像の成分を含む画素からなる領域の候補とするようにしてもよい。
【0338】
単調増減検出部203は、頂点を基準として、画素値が単調減少し、画素値の符号が頂点と同じである画素からなる領域であって、その頂点が閾値を超え、頂点の右側の画素の画素値が閾値以下であり、頂点の左側の画素の画素値が閾値以下であるものを示す単調増減領域情報を連続性検出部204に供給する。
【0339】
画面の左右方向に1列に並ぶ画素であって、細線の画像が射影されたものからなる領域を検出する場合において、単調増減領域情報により示される領域に属する画素は、左右方向に並び、細線の画像が射影された画素を含む。すなわち、単調増減領域情報により示される領域は、画面の左右方向に並ぶ1列の画素であって、細線の画像が射影されたものからなる領域を含む。
【0340】
連続性検出部204は、単調増減検出部203から供給された単調増減領域情報で示される、左右方向に並ぶ画素からなる領域のうち、縦方向に隣接している画素を含む領域、すなわち、相似した画素値の変化を有し、横方向に重複している領域を、連続している領域として検出し、頂点情報、および検出された連続している領域を示すデータ定常性情報を出力する。データ定常性情報は、領域の繋がりを示す情報を含んでいる。
【0341】
細線が射影された画素において、円弧形状が隣接するように一定の間隔で並ぶので、検出された連続している領域は、細線が射影された画素を含んでいる。
【0342】
検出された連続している領域が、細線が射影された、円弧形状が隣接するように一定の間隔で並ぶ画素を含むので、検出された連続している領域を定常領域とし、連続性検出部204は、検出された連続している領域を示すデータ定常性情報を出力する。
【0343】
すなわち、連続性検出部204は、長さ方向に連続するという、実世界1の細線の画像の定常性から生じた、細線を撮像して得られたデータ3における、円弧形状が隣接するように一定の間隔で並ぶ定常性を利用して、頂点検出部202および単調増減検出部203において検出された領域の候補をさらに絞り込む。
【0344】
図51は、平面での近似により定常成分を抽出した画像の例を示す図である。図52は、図51に示す画像から頂点を検出し、単調減少している領域を検出した結果を示す図である。図52において、白で示される部分が、検出された領域である。
【0345】
図53は、図52に示す画像から、隣接している領域の連続性を検出して、連続性が検出された領域を示す図である。図53において、白で示される部分が、連続性が検出された領域である。連続性の検出により、領域がさらに特定されていることがわかる。
【0346】
図54は、図53に示す領域の画素値、すなわち、連続性が検出された領域の画素値を示す図である。
【0347】
このように、データ定常性検出部101は、入力画像であるデータ3に含まれている定常性を検出することができる。すなわち、データ定常性検出部101は、細線である実世界1の画像がデータ3に射影されることにより生じた、データ3に含まれるデータの定常性を検出することができる。データ定常性検出部101は、データ3から、細線である実世界1の画像が射影された画素からなる領域を検出する。
【0348】
図55は、定常性検出部101における、細線の画像が射影された、定常性を有する領域の検出の他の処理の例を示す図である。
【0349】
定常性検出部101は、図55に示すように、各画素について、隣接する画素との画素値の差分の絶対値を計算する。計算された差分の絶対値は、画素に対応させて、配置される。例えば、図55に示すように、画素値がそれぞれP0、P1、P2である画素が並んでいるとき、定常性検出部101は、差分d0=P0−P1および差分d1=P1−P2を計算する。さらに、定常性検出部101は、差分d0および差分d1の絶対値を算出する。
【0350】
画素値P0、P1、およびP2に含まれている非定常性成分が同一であるとき、差分d0および差分d1には、細線の成分に対応した値のみが設定されることになる。
【0351】
従って、定常性検出部101は、画素に対応させて配置されている差分の絶対値のうち、隣り合う差分の値が同一であるとき、その2つの差分の絶対値に対応する画素(2つの差分の絶対値に挟まれた画素)に細線の成分が含まれていると判定する。
【0352】
定常性検出部101においては、このような、簡便な方法で細線を検出することもできる。
【0353】
図56は、定常性検出の処理を説明するフローチャートである。
【0354】
ステップS201において、非定常成分抽出部201は、入力画像から、細線が射影された部分以外の部分である非定常成分を抽出する。非定常成分抽出部201は、入力画像と共に、抽出された非定常成分を示す非定常成分情報を頂点検出部202および単調増減検出部203に供給する。非定常成分の抽出の処理の詳細は、後述する。
【0355】
ステップS202において、頂点検出部202は、非定常成分抽出部201から供給された非定常成分情報を基に、入力画像から非定常成分を除去し、入力画像に定常成分を含む画素のみを残す。さらに、ステップS202において、頂点検出部202は、頂点を検出する。
【0356】
すなわち、頂点検出部202は、画面の縦方向を基準として、処理を実行する場合、定常成分を含む画素について、各画素の画素値と、上側および下側の画素の画素値とを比較して、上側の画素の画素値および下側の画素の画素値より大きい画素値を有する画素を検出することにより、頂点を検出する。また、ステップS202において、頂点検出部202は、画面の横方向を基準として、処理を実行する場合、定常成分を含む画素について、各画素の画素値と、右側および左側の画素の画素値とを比較して、右側の画素の画素値および左側の画素の画素値より大きい画素値を有する画素を検出することにより、頂点を検出する。
【0357】
頂点検出部202は、検出した頂点を示す頂点情報を単調増減検出部203に供給する。
【0358】
ステップS203において、単調増減検出部203は、非定常成分抽出部201から供給された非定常成分情報を基に、入力画像から非定常成分を除去し、入力画像に定常成分を含む画素のみを残す。さらに、ステップS203において、単調増減検出部203は、頂点検出部202から供給された、頂点の位置を示す頂点情報を基に、頂点に対する単調増減を検出することにより、データの定常性を有する画素からなる領域を検出する。
【0359】
単調増減検出部203は、画面の縦方向を基準として、処理を実行する場合、頂点の画素値、および頂点に対して縦に1列に並ぶ画素の画素値を基に、縦に並ぶ1列の画素であって、1つの細線の画像が射影された画素からなる単調増減を検出することにより、データの定常性を有する画素からなる領域を検出する。すなわち、ステップS203において、単調増減検出部203は、画面の縦方向を基準として、処理を実行する場合、頂点および頂点に対して縦に1列に並ぶ画素について、各画素の画素値と、上側または下側の画素の画素値との差分を求めて、差分の符号が変化する画素を検出する。また、単調増減検出部203は、頂点および頂点に対して縦に1列に並ぶ画素について、各画素の画素値の符号と、その画素の上側または下側の画素の画素値の符号とを比較し、画素値の符号が変化する画素を検出する。さらに、単調増減検出部203は、頂点の画素値、並びに頂点の右側および左側の画素の画素値を、閾値と比較し、頂点の画素値が閾値を超え、右側および左側の画素の画素値が閾値以下である画素からなる領域を検出する。
【0360】
単調増減検出部203は、このように検出された領域を単調増減領域として、単調増減領域を示す単調増減領域情報を連続性検出部204に供給する。
【0361】
また、単調増減検出部203は、画面の横方向を基準として、処理を実行する場合、頂点の画素値、および頂点に対して横に1列に並ぶ画素の画素値を基に、横に並ぶ1列の画素であって、1つの細線の画像が射影された画素からなる単調増減を検出することにより、データの定常性を有する画素からなる領域を検出する。すなわち、ステップS203において、単調増減検出部203は、画面の横方向を基準として、処理を実行する場合、頂点および頂点に対して横に1列に並ぶ画素について、各画素の画素値と、左側または右側の画素の画素値との差分を求めて、差分の符号が変化する画素を検出する。また、単調増減検出部203は、頂点および頂点に対して横に1列に並ぶ画素について、各画素の画素値の符号と、その画素の左側または右側の画素の画素値の符号とを比較し、画素値の符号が変化する画素を検出する。さらに、単調増減検出部203は、頂点の画素値、並びに頂点の上側および下側の画素の画素値を、閾値と比較し、頂点の画素値が閾値を超え、上側および下側の画素の画素値が閾値以下である画素からなる領域を検出する。
【0362】
単調増減検出部203は、このように検出された領域を単調増減領域として、単調増減領域を示す単調増減領域情報を連続性検出部204に供給する。
【0363】
ステップS204において、単調増減検出部203は、全画素の処理が終了したか否かを判定する。例えば、非定常成分抽出部201は、入力画像の1つの画面(例えば、フレームまたはフィールドなど)の全画素について、頂点を検出し、単調増減領域を検出したか否かを判定する。
【0364】
ステップS204において、全画素の処理が終了していない、すなわち、頂点の検出および単調増減領域の検出の処理の対象とされていない画素がまだあると判定された場合、ステップS202に戻り、頂点の検出および単調増減領域の検出の処理の対象とされていない画素から処理の対象となる画素を選択して、頂点の検出および単調増減領域の検出の処理を繰り返す。
【0365】
ステップS204において、全画素の処理が終了した、すなわち、全ての画素を対象として頂点および単調増減領域が検出されたと判定された場合、ステップS205に進み、連続性検出部204は、単調増減領域情報を基に、検出された領域の連続性を検出する。例えば、連続性検出部204は、単調増減領域情報で示される、画面の縦方向に1列に並ぶ画素からなる単調増減領域について、横方向に隣接する画素を含んでいるとき、2つの単調増減領域の間に連続性があるとし、横方向に隣接する画素を含んでいないとき、2つの単調増減領域の間に連続性がないとする。例えば、連続性検出部204は、単調増減領域情報で示される、画面の横方向に1列に並ぶ画素からなる単調増減領域について、縦方向に隣接する画素を含んでいるとき、2つの単調増減領域の間に連続性があるとし、縦方向に隣接する画素を含んでいないとき、2つの単調増減領域の間に連続性がないとする。
【0366】
連続性検出部204は、検出された連続している領域をデータの定常性を有する定常領域とし、頂点の位置および定常領域を示すデータ定常性情報を出力する。データ定常性情報は、領域の繋がりを示す情報を含んでいる。連続性検出部204から出力されるデータ定常性情報は、実世界1の細線の画像が射影された画素からなる、定常領域である細線領域を示す。
【0367】
ステップS206において、定常性方向検出部205は、全画素の処理が終了したか否かを判定する。すなわち、定常性方向検出部205は、入力画像の所定のフレームの全画素について、領域の連続性を検出したか否かを判定する。
【0368】
ステップS206において、全画素の処理が終了していない、すなわち、領域の連続性の検出の処理の対象とされていない画素がまだあると判定された場合、ステップS205に戻り、領域の連続性の検出の処理の対象とされていない画素から処理の対象となる画素を選択して、領域の連続性の検出の処理を繰り返す。
【0369】
ステップS206において、全画素の処理が終了した、すなわち、全ての画素を対象として領域の連続性が検出されたと判定された場合、処理は終了する。
【0370】
このように、入力画像であるデータ3に含まれている定常性が検出される。すなわち、細線である実世界1の画像がデータ3に射影されることにより生じた、データ3に含まれるデータの定常性が検出され、データ3から、細線である実世界1の画像が射影された画素からなる、データの定常性を有する領域が検出される。
【0371】
なお、図41で構成が示されるデータ定常性検出部101は、データ3のフレームから検出されたデータの定常性を有する領域を基に、時間方向のデータの定常性を検出することができる。
【0372】
例えば、図57に示すように、連続性検出部204は、フレーム#nにおいて、検出されたデータの定常性を有する領域、フレーム#n−1において、検出されたデータの定常性を有する領域、およびフレーム#n+1において、検出されたデータの定常性を有する領域を基に、領域の端部を結ぶことにより、時間方向のデータの定常性を検出する。
【0373】
フレーム#n−1は、フレーム#nに対して時間的に前のフレームであり、フレーム#n+1は、フレーム#nに対して時間的に後のフレームである。すなわち、フレーム#n−1、フレーム#n、およびフレーム#n+1は、フレーム#n−1、フレーム#n、およびフレーム#n+1の順で表示される。
【0374】
より具体的には、図57において、Gは、フレーム#nにおいて、検出されたデータの定常性を有する領域、フレーム#n−1において、検出されたデータの定常性を有する領域、およびフレーム#n+1において、検出されたデータの定常性を有する領域のそれぞれの一端を結ぶことにより得られた動きベクトルを示し、G’は、検出されたデータの定常性を有する領域のそれぞれの他の一端を結ぶことにより得られた動きベクトルを示す。動きベクトルGおよび動きベクトルG’は、時間方向のデータの定常性の一例である。
【0375】
さらに、図41で構成が示されるデータ定常性検出部101は、データの定常性を有する領域の長さを示す情報を、データ定常性情報として出力することができる。
【0376】
図58は、データの定常性を有しない画像データの部分である非定常成分を平面で近似して、非定常成分を抽出する、非定常成分抽出部201の構成を示すブロック図である。
【0377】
図58に構成を示す非定常成分抽出部201は、入力画像から所定の数の画素でなるブロックを抽出し、ブロックと平面で示される値との誤差が所定の閾値未満になるように、ブロックを平面で近似して、非定常成分を抽出する。
【0378】
入力画像は、ブロック抽出部221に供給されるとともに、そのまま出力される。
【0379】
ブロック抽出部221は、入力画像から、所定の数の画素からなるブロックを抽出する。例えば、ブロック抽出部221は、7×7の画素からなるブロックを抽出し、平面近似部222に供給する。例えば、ブロック抽出部221は、抽出されるブロックの中心となる画素をラスタスキャン順に移動させ、順次、入力画像からブロックを抽出する。
【0380】
平面近似部222は、ブロックに含まれる画素の画素値を所定の平面で近似する。例えば、平面近似部222は、式(24)で表される平面でブロックに含まれる画素の画素値を近似する。
【0381】
z=ax+by+c ・・・(24)
【0382】
式(24)において、xは、画素の画面上の一方の方向(空間方向X)の位置を示し、yは、画素の画面上の他の一方の方向(空間方向Y)の位置を示す。zは、平面で示される近似値を示す。aは、平面の空間方向Xの傾きを示し、bは、平面の空間方向Yの傾きを示す。式(24)において、cは、平面のオフセット(切片)を示す。
【0383】
例えば、平面近似部222は、回帰の処理により、傾きa、傾きb、およびオフセットcを求めることにより、式(24)で表される平面で、ブロックに含まれる画素の画素値を近似する。平面近似部222は、棄却を伴う回帰の処理により、傾きa、傾きb、およびオフセットcを求めることにより、式(24)で表される平面で、ブロックに含まれる画素の画素値を近似する。
【0384】
例えば、平面近似部222は、最小自乗法により、ブロックの画素の画素値に対して、誤差が最小となる式(24)で表される平面を求めることにより、平面でブロックに含まれる画素の画素値を近似する。
【0385】
なお、平面近似部222は、式(24)で表される平面でブロックを近似すると説明したが、式(24)で表される平面に限らず、より高い自由度をもった関数、例えば、n次の多項式で表される面でブロックを近似するようにしてもよい。
【0386】
繰り返し判定部223は、ブロックの画素値を近似した平面で示される近似値と、ブロックの対応する画素の画素値との誤差を計算する。式(25)は、ブロックの画素値を近似した平面で示される近似値と、ブロックの対応する画素の画素値ziとの差分である誤差eiを示す式である。
【0387】
【数19】
【0388】
式(25)において、zハット(zに^を付した文字をzハットと記述する。以下、本明細書において、同様に記載する。)は、ブロックの画素値を近似した平面で示される近似値を示し、aハットは、ブロックの画素値を近似した平面の空間方向Xの傾きを示し、bハットは、ブロックの画素値を近似した平面の空間方向Yの傾きを示す。式(25)において、cハットは、ブロックの画素値を近似した平面のオフセット(切片)を示す。
【0389】
繰り返し判定部223は、式(25)で示される、近似値とブロックの対応する画素の画素値との誤差eiが、最も大きい画素を棄却する。このようにすることで、細線が射影された画素、すなわち定常性を有する画素が棄却されることになる。繰り返し判定部223は、棄却した画素を示す棄却情報を平面近似部222に供給する。
【0390】
さらに、繰り返し判定部223は、標準誤差を算出して、標準誤差が、予め定めた近似終了判定用の閾値以上であり、ブロックの画素のうち、半分以上の画素が棄却されていないとき、繰り返し判定部223は、平面近似部222に、ブロックに含まれる画素のうち、棄却された画素を除いた画素を対象として、平面による近似の処理を繰り返させる。
【0391】
定常性を有する画素が棄却されるので、棄却された画素を除いた画素を対象として平面で近似をすることにより、平面は、非定常成分を近似することになる。
【0392】
繰り返し判定部223は、標準誤差が、近似終了判定用の閾値未満であるとき、または、ブロックの画素のうち、半分以上の画素が棄却されたとき、平面による近似を終了する。
【0393】
5×5の画素からなるブロックについて、標準誤差esは、例えば、式(26)で算出される。
【0394】
【数20】
ここで、nは、画素の数である。
【0395】
なお、繰り返し判定部223は、標準誤差に限らず、ブロックに含まれる全ての画素についての誤差の2乗の和を算出して、以下の処理を実行するようにしてもよい。
【0396】
ここで、ラスタスキャン方向に1画素ずつずれたブロックを平面で近似するとき、図59に示すように、図中黒丸で示す、定常性を有する画素、すなわち細線の成分を含む画素は、複数回棄却されることになる。
【0397】
繰り返し判定部223は、平面による近似を終了したとき、ブロックの画素値を近似した平面を示す情報(式(24)の平面の傾きおよび切片)を、非定常成分情報として出力する。
【0398】
なお、繰り返し判定部223は、画素毎の棄却された回数と予め定めた閾値とを比較して、棄却された回数が閾値以上である画素を定常成分を含む画素であるとして、定常成分を含む画素を示す情報を定常成分情報として出力するようにしてもよい。この場合、頂点検出部202乃至定常性方向検出部205は、定常成分情報で示される、定常成分を含む画素を対象として、それぞれの処理を実行する。
【0399】
図60乃至図67を参照して、非定常成分抽出の処理の結果の例を説明する。
【0400】
図60は、細線が含まれる画像から、元の画像の2×2の画素の画素値の平均値を画素値として生成した入力画像の例を示す図である。
【0401】
図61は、図60で示される画像を、棄却をしないで平面で近似した結果得られる標準誤差を画素値とした画像を示す図である。図61で示される例において、注目している1つの画素に対する5×5の画素からなるブロックを平面で近似した。図61において、白い画素はより大きい画素値、すなわち、より大きい標準誤差を有する画素であり、黒い画素はより小さい画素値、すなわち、より小さい標準誤差を有する画素である。
【0402】
図61から、棄却をしないで平面で近似した結果得られる標準誤差を画素値とした場合、非定常部の周辺に広く、大きな値が求められていることが確認できる。
【0403】
図62乃至図67で示される例において、注目している1つの画素に対する7×7の画素からなるブロックを平面で近似した。7×7の画素からなるブロックを平面で近似する場合、1つの画素が49のブロックに繰り返し含まれることになるので、定常成分を含む画素は、最も多くて49回、棄却されることになる。
【0404】
図62は、図60で示される画像を、棄却をして平面で近似したとき、得られる標準誤差を画素値とした画像である。
【0405】
図62において、白い画素はより大きい画素値、すなわち、より大きい標準誤差を有する画素であり、黒い画素はより小さい画素値、すなわち、より小さい標準誤差を有する画素である。棄却をしない場合に比較して、棄却をした場合、全体として、標準誤差がより小さくなることがわかる。
【0406】
図63は、図60で示される画像を、棄却をして平面で近似したとき、棄却された回数を画素値とした画像を示す図である。図63において、白い画素はより大きい画素値、すなわち、棄却された回数がより多い画素であり、黒い画素はより小さい画素値、すなわち、棄却された回数がより少ない画素である。
【0407】
図63から、細線の画像が射影された画素は、より多く棄却されていることがわかる。棄却された回数を画素値とした画像を用いて、入力画像の非定常部をマスクする画像を生成することも可能である。
【0408】
図64は、ブロックの画素値を近似した平面の空間方向Xの傾きを画素値とした画像を示す図である。図65は、ブロックの画素値を近似した平面の空間方向Yの傾きを画素値とした画像を示す図である。
【0409】
図66は、ブロックの画素値を近似した平面で示される近似値からなる画像を示す図である。図66で示される画像からは、細線が消えていることがわかる。
【0410】
図67は、図60で示される、元の画像の2×2の画素のブロックの平均値を画素の画素値として生成した画像と、図66で示される、平面で示される近似値からなる画像との差分からなる画像を示す図である。図67の画像の画素値は、非定常成分が除去されるので、細線の画像が射影された値のみを含む。図67からもわかるように、元の画素値と近似した平面で示される近似値との差分からなる画像では、元の画像の定常成分がうまく抽出できていることが確認できる。
【0411】
棄却された回数、ブロックの画素の画素値を近似する平面の空間方向Xの傾き、ブロックの画素の画素値を近似する平面の空間方向Yの傾き、ブロックの画素の画素値を近似する平面で示される近似値、および誤差eiは、入力画像の特徴量としても利用することができる。
【0412】
図68は、ステップS201に対応する、図58に構成を示す非定常成分抽出部201による、非定常成分の抽出の処理を説明するフローチャートである。
【0413】
ステップS221において、ブロック抽出部221は、入力画素から、所定の数の画素からなるブロックを抽出し、抽出したブロックを平面近似部222に供給する。例えば、ブロック抽出部221は、入力画素から、まだ、選択されていない画素のうち、1つの画素を選択し、選択された画素を中心とする7×7の画素からなるブロックを抽出する。例えば、ブロック抽出部221は、ラスタスキャン順に画素を選択することができる。
【0414】
ステップS222において、平面近似部222は、抽出されたブロックを平面で近似する。平面近似部222は、例えば、回帰の処理により、抽出されたブロックの画素の画素値を、平面で近似する。例えば、平面近似部222は、回帰の処理により、抽出されたブロックの画素のうち、棄却された画素を除いた画素の画素値を、平面で近似する。ステップS223において、繰り返し判定部223は、繰り返し判定を実行する。例えば、ブロックの画素の画素値と近似した平面の近似値とから標準誤差を算出し、棄却された画素の数をカウントすることにより、繰り返し判定を実行する。
【0415】
ステップS224において、繰り返し判定部223は、標準誤差が閾値以上であるか否かを判定し、標準誤差が閾値以上であると判定された場合、ステップS225に進む。
【0416】
なお、ステップS224において、繰り返し判定部223は、ブロックの画素のうち、半分以上の画素が棄却されたか否か、および標準誤差が閾値以上であるか否かを判定し、ブロックの画素のうち、半分以上の画素が棄却されておらず、標準誤差が閾値以上であると判定された場合、ステップS225に進むようにしてもよい。
【0417】
ステップS225において、繰り返し判定部223は、ブロックの画素毎に、画素の画素値と近似した平面の近似値との誤差を算出し、誤差が最も大きい画素を棄却し、平面近似部222に通知する。手続きは、ステップS222に戻り、棄却された画素を除いた、ブロックの画素を対象として、平面による近似の処理および繰り返し判定の処理が繰り返される。
【0418】
ステップS225において、ラスタスキャン方向に1画素ずつずれたブロックがステップS221の処理で抽出される場合、図59に示すように、細線の成分を含む画素(図中の黒丸で示す)は、複数回棄却されることになる。
【0419】
ステップS224において、標準誤差が閾値以上でないと判定された場合、ブロックが平面で近似されたので、ステップS226に進む。
【0420】
なお、ステップS224において、繰り返し判定部223は、ブロックの画素のうち、半分以上の画素が棄却されたか否か、および標準誤差が閾値以上であるか否かを判定し、ブロックの画素のうち、半分以上の画素が棄却されたか、または標準誤差が閾値以上でないと判定された場合、ステップS225に進むようにしてもよい。
【0421】
ステップS226において、繰り返し判定部223は、ブロックの画素の画素値を近似する平面の傾きおよび切片を、非定常成分情報として出力する。
【0422】
ステップS227において、ブロック抽出部221は、入力画像の1つの画面の全画素について処理を終了したか否かを判定し、まだ処理の対象となってない画素があると判定された場合、ステップS221に戻り、まだ処理の対象となっていない画素からブロックを抽出して、上述した処理を繰り返す。
【0423】
ステップS227において、入力画像の1つの画面の全画素について、処理を終了したと判定された場合、処理は終了する。
【0424】
このように、図58に構成を示す非定常成分抽出部201は、入力画像から非定常成分を抽出することができる。非定常成分抽出部201が入力画像の非定常成分を抽出するので、頂点検出部202および単調増減検出部203は、入力画像と、非定常成分抽出部201で抽出された非定常成分との差分を求めることにより、定常成分を含む差分を対象として処理を実行することができる。
【0425】
なお、平面による近似の処理において算出される、棄却した場合の標準誤差、棄却しない場合の標準誤差、画素の棄却された回数、平面の空間方向Xの傾き(式(24)におけるaハット)、平面の空間方向Yの傾き(式(24)におけるbハット)、平面で置き換えたときのレベル(式(24)におけるcハット)、および入力画像の画素値と平面で示される近似値との差分は、特徴量として利用することができる。
【0426】
図69は、ステップS201に対応する非定常成分の抽出の処理に代わる、図58に構成を示す非定常成分抽出部201による、定常成分の抽出の処理を説明するフローチャートである。ステップS241乃至ステップS245の処理は、ステップS221乃至ステップS225の処理と同様なので、その説明は省略する。
【0427】
ステップS246において、繰り返し判定部223は、平面で示される近似値と入力画像の画素値との差分を、入力画像の定常成分として出力する。すなわち、繰り返し判定部223は、平面による近似値と、真値である画素値との差分を出力する。
【0428】
なお、繰り返し判定部223は、平面で示される近似値と入力画像の画素値との差分が、所定の閾値以上である画素の画素値を、入力画像の定常成分として出力するようにしてもよい。
【0429】
ステップS247の処理は、ステップS227の処理と同様なので、その説明は省略する。
【0430】
平面が非定常成分を近似しているので、非定常成分抽出部201は、入力画像の各画素の画素値から、画素値を近似する平面で示される近似値を引き算することにより、入力画像から非定常成分を除去することができる。この場合、頂点検出部202乃至連続性検出部204は、入力画像の定常成分、すなわち細線の画像が射影された値のみを処理の対象とすることができ、頂点検出部202乃至連続性検出部204における処理がより容易になる。
【0431】
図70は、ステップS201に対応する非定常成分の抽出の処理に代わる、図58に構成を示す非定常成分抽出部201による、定常成分の抽出の他の処理を説明するフローチャートである。ステップS261乃至ステップS265の処理は、ステップS221乃至ステップS225の処理と同様なので、その説明は省略する。
【0432】
ステップS266において、繰り返し判定部223は、画素毎の、棄却の回数を記憶し、ステップS262に戻り、処理を繰り返す。
【0433】
ステップS264において、標準誤差が閾値以上でないと判定された場合、ブロックが平面で近似されたので、ステップS267に進み、繰り返し判定部223は、入力画像の1つの画面の全画素について処理を終了したか否かを判定し、まだ処理の対象となってない画素があると判定された場合、ステップS261に戻り、まだ処理の対象となっていない画素についてブロックを抽出して、上述した処理を繰り返す。
【0434】
ステップS267において、入力画像の1つの画面の全画素について、処理を終了したと判定された場合、ステップS268に進み、繰り返し判定部223は、まだ選択されていない画素から1つの画素を選択し、選択された画素について、棄却の回数が、閾値以上であるか否かを判定する。例えば、繰り返し判定部223は、ステップS268において、選択された画素について、棄却の回数が、予め記憶している閾値以上であるか否かを判定する。
【0435】
ステップS268において、選択された画素について、棄却の回数が、閾値以上であると判定された場合、選択された画素が定常成分を含むので、ステップS269に進み、繰り返し判定部223は、選択された画素の画素値(入力画像における画素値)を入力画像の定常成分として出力し、ステップS270に進む。
【0436】
ステップS268において、選択された画素について、棄却の回数が、閾値以上でないと判定された場合、選択された画素が定常成分を含まないので、ステップS269の処理をスキップして、手続きは、ステップS270に進む。すなわち、棄却の回数が、閾値以上でないと判定された画素は、画素値が出力されない。
【0437】
なお、棄却の回数が、閾値以上でないと判定された画素について、繰り返し判定部223は、0を設定した画素値を出力するようにしてもよい。
【0438】
ステップS270において、繰り返し判定部223は、入力画像の1つの画面の全画素について、棄却の回数が閾値以上であるか否かの判定の処理を終了したか否かを判定し、全画素について処理を終了していないと判定された場合、まだ処理の対象となってない画素があるので、ステップS268に戻り、まだ処理の対象となっていない画素から1つの画素を選択して、上述した処理を繰り返す。
【0439】
ステップS270において、入力画像の1つの画面の全画素について処理を終了したと判定された場合、処理は終了する。
【0440】
このように、非定常成分抽出部201は、定常成分情報として、入力画像の画素のうち、定常成分を含む画素の画素値を出力することができる。すなわち、非定常成分抽出部201は、入力画像の画素のうち、細線の画像の成分を含む画素の画素値を出力することができる。
【0441】
図71は、ステップS201に対応する非定常成分の抽出の処理に代わる、図58に構成を示す非定常成分抽出部201による、定常成分の抽出のさらに他の処理を説明するフローチャートである。ステップS281乃至ステップS288の処理は、ステップS261乃至ステップS268の処理と同様なので、その説明は省略する。
【0442】
ステップS289において、繰り返し判定部223は、平面で示される近似値と、選択された画素の画素値との差分を入力画像の定常成分として出力する。すなわち、繰り返し判定部223は、入力画像から非定常成分を除去した画像を定常性情報として出力する。
【0443】
ステップS290の処理は、ステップS270の処理と同様なので、その説明は省略する。
【0444】
このように、非定常成分抽出部201は、入力画像から非定常成分を除去した画像を定常性情報として出力することができる。
【0445】
以上のように、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した、第1の画像データの複数の画素の画素値の不連続部を検出し、検出された不連続部からデータの定常性を検出し、検出されたデータの定常性を基に、現実世界の光信号の定常性を推定することにより光信号を推定し、推定された光信号を第2の画像データに変換するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0446】
図72は、データ定常性検出部101の他の構成を示すブロック図である。
【0447】
図72に構成を示すデータ定常性検出部101においては、注目している画素である注目画素について、入力画像の空間方向に対する画素値の変化、すなわち入力画像の空間方向のアクティビティが検出され、検出されたアクティビティに応じて、注目画素および基準軸を基準とした角度毎に、垂直方向に1列または水平方向に1列の所定の数の画素からなる画素の組が、複数抽出され、抽出された画素の組の相関が検出され、相関に基づいて、入力画像における、基準軸を基準としたデータの定常性の角度が検出される。
【0448】
データの定常性の角度とは、基準軸と、データ3が有している、一定の特徴が繰り返し現れる所定の次元の方向とがなす角度をいう。一定の特徴が繰り返し現れるとは、例えば、データ3における位置の変化に対する値の変化、すなわち断面形状が同じである場合などをいう。
【0449】
基準軸は、例えば、空間方向Xを示す軸(画面の水平方向)、または空間方向Yを示す軸(画面の垂直方向)などとすることができる。
【0450】
入力画像は、アクティビティ検出部401およびデータ選択部402に供給される。
【0451】
アクティビティ検出部401は、入力画像の空間方向に対する画素値の変化、すなわち空間方向のアクティビティを検出して、検出した結果を示すアクティビティ情報をデータ選択部402および定常方向導出部404に供給する。
【0452】
例えば、アクティビティ検出部401は、画面の水平方向に対する画素値の変化、および画面の垂直方向に対する画素値の変化を検出し、検出された水平方向に対する画素値の変化および垂直方向に対する画素値の変化を比較することにより、垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きいか、または水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きいかを検出する。
【0453】
アクティビティ検出部401は、検出の結果である、垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きいことを示すか、または水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きいことを示すアクティビティ情報をデータ選択部402および定常方向導出部404に供給する。
【0454】
垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きい場合、例えば、図73で示されるように、垂直方向に1列の画素に円弧形状(かまぼこ型)またはつめ形状が形成され、円弧形状またはつめ形状が垂直により近い方向に繰り返して形成されている。すなわち、垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きい場合、基準軸を空間方向Xを示す軸とすると、入力画像における、基準軸を基準としたデータの定常性の角度は、45度乃至90度のいずれかの値である。
【0455】
水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きい場合、例えば、水平方向に1列の画素に円弧形状またはつめ形状が形成され、円弧形状またはつめ形状が水平方向により近い方向に繰り返して形成されている。すなわち、水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きい場合、基準軸を空間方向Xを示す軸とすると、入力画像における、基準軸を基準としたデータの定常性の角度は、0度乃至45度のいずれかの値である。
【0456】
例えば、アクティビティ検出部401は、図74で示される、注目画素を中心とした3×3の9つの画素からなるブロックを入力画像から抽出する。アクティビティ検出部401は、縦に隣接する画素についての画素値の差分の和、および横に隣接する画素についての画素値の差分の和を算出する。横に隣接する画素についての画素値の差分の和hdiffは、式(27)で求められる。
【0457】
hdiff=Σ(Pi+1,j−Pi,j) ・・・(27)
【0458】
同様に、縦に隣接する画素についての画素値の差分の和vdiffは、式(28)で求められる。
【0459】
vdiff=Σ(Pi,j+1−Pi,j) ・・・(28)
【0460】
式(27)および式(28)において、Pは、画素値を示し、iは、画素の横方向の位置を示し、jは、画素の縦方向の位置を示す。
【0461】
アクティビティ検出部401は、算出された横に隣接する画素についての画素値の差分の和hdiffおよび縦に隣接する画素についての画素値の差分の和vdiffを比較して、入力画像における、基準軸を基準としたデータの定常性の角度の範囲を判定するようにしてもよい。すなわち、この場合、アクティビティ検出部401は、空間方向の位置に対する画素値の変化で示される形状が水平方向に繰り返して形成されているか、垂直方向に繰り返して形成されているかを判定する。
【0462】
例えば、横に1列の画素上に形成された円弧についての横方向の画素値の変化は、縦方向の画素値の変化に比較して大きく、横に1列の画素上に形成された円弧についての縦方向の画素値の変化は、横方向の画素値の変化に比較して大きく、データの定常性の方向、すなわち、データ3である入力画像が有している、一定の特徴の所定の次元の方向の変化は、データの定常性に直交する方向の変化に比較して小さいと言える。言い換えれば、データの定常性の方向の差分に比較して、データの定常性の方向に直交する方向(以下、非定常方向とも称する)の差分は大きい。
【0463】
例えば、図75に示すように、アクティビティ検出部401は、算出された横に隣接する画素についての画素値の差分の和hdiffおよび縦に隣接する画素についての画素値の差分の和vdiffを比較して、横に隣接する画素についての画素値の差分の和hdiffが大きい場合、基準軸を基準としたデータの定常性の角度が、45度乃至135度のいずれかの値であると判定し、縦に隣接する画素についての画素値の差分の和vdiffが大きい場合、基準軸を基準としたデータの定常性の角度が、0度乃至45度のいずれかの値、または135度乃至180度のいずれかの値であると判定する。
【0464】
例えば、アクティビティ検出部401は、判定の結果を示すアクティビティ情報をデータ選択部402および定常方向導出部404に供給する。
【0465】
なお、アクティビティ検出部401は、5×5の25の画素からなるブロック、または7×7の49の画素からなるブロックなど、任意の大きさのブロックを抽出して、アクティビティを検出することができる。
【0466】
データ選択部402は、入力画像の画素から注目画素を順に選択し、アクティビティ検出部401から供給されたアクティビティ情報を基に、注目画素および基準軸を基準とした角度毎に、垂直方向に1列または水平方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0467】
例えば、アクティビティ情報が垂直方向に対する画素値の変化に比較して、水平方向に対する画素値の変化が大きいことを示しているとき、データの定常性の角度が、45度乃至135度のいずれかの値なので、データ選択部402は、注目画素および基準軸を基準とした45度乃至135度の範囲の所定の角度毎に、垂直方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0468】
アクティビティ情報が水平方向に対する画素値の変化に比較して、垂直方向に対する画素値の変化が大きいことを示しているとき、データの定常性の角度が、0度乃至45度または135度乃至180度のいずれかの値なので、データ選択部402は、注目画素および基準軸を基準とした0度乃至45度または135度乃至180度の範囲の所定の角度毎に、水平方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0469】
また、例えば、データの定常性の角度が45度乃至135度のいずれかの値であることを、アクティビティ情報が示しているとき、データ選択部402は、注目画素および基準軸を基準とした45度乃至135度の範囲の所定の角度毎に、垂直方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0470】
データの定常性の角度が0度乃至45度または135度乃至180度のいずれかの値であることを、アクティビティ情報が示しているとき、データ選択部402は、注目画素および基準軸を基準とした0度乃至45度または135度乃至180度の範囲の所定の角度毎に、水平方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0471】
データ選択部402は、抽出した画素からなる複数の組を誤差推定部403に供給する。
【0472】
誤差推定部403は、抽出した画素からなる複数の組について、角度毎に、画素の組の相関を検出する。
【0473】
例えば、誤差推定部403は、1つの角度に対応する、垂直方向に1列の所定の数の画素からなる画素の複数の組について、画素の組における対応する位置の画素の画素値の相関を検出する。誤差推定部403は、1つの角度に対応する、水平方向に1列の所定の数の画素からなる画素の複数の組について、組における対応する位置の画素の画素値の相関を検出する。
【0474】
誤差推定部403は、検出した相関を示す相関情報を定常方向導出部404に供給する。誤差推定部403は、相関を示す値として、データ選択部402から供給された、注目画素を含む組の画素の画素値と、他の組における対応する位置の画素の画素値の差分の絶対値の和を算出し、差分の絶対値の和を相関情報として定常方向導出部404に供給する。
【0475】
定常方向導出部404は、誤差推定部403から供給された相関情報に基いて、欠落した実世界1の光信号の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出し、角度を示すデータ定常性情報を出力する。例えば、定常方向導出部404は、誤差推定部403から供給された相関情報に基いて、データの定常性の角度として、最も相関の強い画素の組に対する角度を検出し、検出された最も相関の強い画素の組に対する角度を示すデータ定常性情報を出力する。
【0476】
以下の説明において、適宜、0度乃至90度の範囲(いわゆる第1象限)のデータの定常性の角度を検出するものとして説明する。
【0477】
図76は、図72に示すデータ定常性検出部101のより詳細な構成を示すブロック図である。
【0478】
データ選択部402は、画素選択部411−1乃至画素選択部411−Lを含む。誤差推定部403は、推定誤差算出部412−1乃至推定誤差算出部412−Lを含む。定常方向導出部404は、最小誤差角度選択部413を含む。
【0479】
まず、アクティビティ情報で示される、データの定常性の角度が45度乃至135度のいずれかの値であるときの画素選択部411−1乃至画素選択部411−Lの処理を説明する。
【0480】
画素選択部411−1乃至画素選択部411−Lは、空間方向Xを示す軸を基準軸として、注目画素を通る、それぞれ異なる所定の角度の直線を設定する。画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列に属する画素であって、注目画素の上側の所定の数の画素、および注目画素の下側の所定の数の画素、並びに注目画素を画素の組として選択する。
【0481】
例えば、図77で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列に属する画素から、注目画素を中心として9つの画素を画素の組として選択する。
【0482】
図77において、マス目状の1つの四角(1つのマス目)は、1つの画素を示す。図77において、中央に示す丸は、注目画素を示す。
【0483】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側の縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。図77において、注目画素の左下側の丸は、選択された画素の例を示す。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側の縦に1列の画素の列に属する画素であって、選択された画素の上側の所定の数の画素、および選択された画素の下側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0484】
例えば、図77で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側の縦に1列の画素の列に属する画素から、直線に最も近い位置の画素を中心として9つの画素を画素の組として選択する。
【0485】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側に2つめの縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。図77において、最も左側の丸は、選択された画素の例を示す。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側に2つめの縦に1列の画素の列に属する画素であって、選択された画素の上側の所定の数の画素、および選択された画素の下側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0486】
例えば、図77で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、左側に2つめの縦に1列の画素の列に属する画素から、直線に最も近い位置の画素を中心として9つの画素を画素の組として選択する。
【0487】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側の縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。図77において、注目画素の右上側の丸は、選択された画素の例を示す。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側の縦に1列の画素の列に属する画素であって、選択された画素の上側の所定の数の画素、および選択された画素の下側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0488】
例えば、図77で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側の縦に1列の画素の列に属する画素から、直線に最も近い位置の画素を中心として9つの画素を画素の組として選択する。
【0489】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側に2つめの縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。図77において、最も右側の丸は、このように選択された画素の例を示す。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側に2つめの縦に1列の画素の列に属する画素であって、選択された画素の上側の所定の数の画素、および選択された画素の下側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0490】
例えば、図77で示されるように、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する縦に1列の画素の列の、右側に2つめの縦に1列の画素の列に属する画素から、直線に最も近い位置の画素を中心として9つの画素を画素の組として選択する。
【0491】
このように、画素選択部411−1乃至画素選択部411−Lは、それぞれ、画素の組を5つ選択する。
【0492】
画素選択部411−1乃至画素選択部411−Lは、互いに異なる角度(に設定された直線)についての、画素の組を選択する。例えば、画素選択部411−1は、45度についての、画素の組を選択し、画素選択部411−2は、47.5度についての、画素の組を選択し、画素選択部411−3は、50度についての、画素の組を選択する。画素選択部411−1乃至画素選択部411−Lは、52.5度から135度までの、2.5度毎の角度についての、画素の組を選択する。
【0493】
なお、画素の組の数は、例えば、3つ、または7つなど、任意の数とすることができ、本発明を限定するものではない。また、1つの組として選択された画素の数は、例えば、5つ、または13など、任意の数とすることができ、本発明を限定するものではない。
【0494】
なお、画素選択部411−1乃至画素選択部411−Lは、縦方向に所定の範囲の画素から、画素の組を選択するようにすることができる。例えば、画素選択部411−1乃至画素選択部411−Lは、縦方向に121個の画素(注目画素に対して、上方向に60画素、下方向に60画素)から、画素の組を選択する。この場合、データ定常性検出部101は、空間方向Xを示す軸に対して、88.09度まで、データの定常性の角度を検出することができる。
【0495】
画素選択部411−1は、選択した画素の組を推定誤差算出部412−1に供給し、画素選択部411−2は、選択した画素の組を推定誤差算出部412−2に供給する。同様に、画素選択部411−3乃至画素選択部411−Lのそれぞれは、選択した画素の組を推定誤差算出部412−3乃至推定誤差算出部412−Lのそれぞれに供給する。
【0496】
推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、複数の組における対応する位置の画素の画素値の相関を検出する。例えば、推定誤差算出部412−1乃至推定誤差算出部412−Lは、相関を示す値として、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、他の組における対応する位置の画素の画素値の差分の絶対値の和を算出する。
【0497】
より具体的には、推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、注目画素の左側の縦に1列の画素の列に属する画素からなる組の画素の画素値とを基に、最も上の画素の画素値の差分を算出し、上から2番目の画素の画素値の差分を算出するように、上の画素から順に画素値の差分の絶対値を算出して、さらに、算出された差分の絶対値の和を算出する。推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、注目画素の左に2つめの縦に1列の画素の列に属する画素からなる組の画素の画素値とを基に、上の画素から順に画素値の差分の絶対値を算出して、算出された差分の絶対値の和を算出する。
【0498】
そして、推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、注目画素の右側の縦に1列の画素の列に属する画素からなる組の画素の画素値とを基に、最も上の画素の画素値の差分を算出し、上から2番目の画素の画素値の差分を算出するように、上の画素から順に画素値の差分の絶対値を算出して、さらに、算出された差分の絶対値の和を算出する。推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、注目画素を含む組の画素の画素値と、注目画素の右に2つめの縦に1列の画素の列に属する画素からなる組の画素の画素値とを基に、上の画素から順に画素値の差分の絶対値を算出して、算出された差分の絶対値の和を算出する。
【0499】
推定誤差算出部412−1乃至推定誤差算出部412−Lは、このように算出された画素値の差分の絶対値の和を全て加算して、画素値の差分の絶対値の総和を算出する。
【0500】
推定誤差算出部412−1乃至推定誤差算出部412−Lは、検出された相関を示す情報を、最小誤差角度選択部413に供給する。例えば、推定誤差算出部412−1乃至推定誤差算出部412−Lは、算出された画素値の差分の絶対値の総和を最小誤差角度選択部413に供給する。
【0501】
なお、推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素値の差分の絶対値の和に限らず、画素値の差分の自乗の和、または画素値を基にした相関係数など他の値を相関値として算出するようにすることができる。
【0502】
最小誤差角度選択部413は、互いに異なる角度についての、推定誤差算出部412−1乃至推定誤差算出部412−Lにおいて検出された相関に基いて、欠落した実世界1の光信号である画像の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。すなわち、最小誤差角度選択部413は、互いに異なる角度についての、推定誤差算出部412−1乃至推定誤差算出部412−Lにおいて検出された相関に基いて、最も強い相関を選択し、選択された相関が検出された角度を、基準軸を基準としたデータの定常性の角度とすることにより、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。
【0503】
例えば、最小誤差角度選択部413は、推定誤差算出部412−1乃至推定誤差算出部412−Lから供給された、画素値の差分の絶対値の総和のうち、最小の総和を選択する。最小誤差角度選択部413は、選択された総和が算出された画素の組について、注目画素に対して、左側に2つめの縦に1列の画素の列に属する画素であって、直線に最も近い位置の画素の位置、および、注目画素に対して、右側に2つめの縦に1列の画素の列に属する画素であって、直線に最も近い位置の画素の位置を参照する。
【0504】
図77で示されるように、最小誤差角度選択部413は、注目画素の位置に対する、参照する画素の位置の縦方向の距離Sを求める。最小誤差角度選択部413は、図78で示すように、式(29)から、欠落した実世界1の光信号の定常性に対応する、画像データである入力画像における、基準軸である空間方向Xを示す軸を基準としたデータの定常性の角度θを検出する。
【0505】
θ=tan−1(s/2) ・・・(29)
【0506】
次に、アクティビティ情報で示される、データの定常性の角度が0度乃至45度および135度乃至180度のいずれかの値であるときの画素選択部411−1乃至画素選択部411−Lの処理を説明する。
【0507】
画素選択部411−1乃至画素選択部411−Lは、空間方向Xを示す軸を基準軸として、注目画素を通る、所定の角度の直線を設定し、注目画素が属する横に1列の画素の列に属する画素であって、注目画素の上側の所定の数の画素、および注目画素の下側の所定の数の画素、並びに注目画素を画素の組として選択する。
【0508】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、上側の横に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、上側の横に1列の画素の列に属する画素であって、選択された画素の左側の所定の数の画素、および選択された画素の右側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0509】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、上側に2つめの横に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、上側に2つめの横に1列の画素の列に属する画素であって、選択された画素の左側の所定の数の画素、および選択された画素の右側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0510】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、下側の横に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、下側の横に1列の画素の列に属する画素であって、選択された画素の左側の所定の数の画素、および選択された画素の右側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0511】
画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、下側に2つめの横に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択する。そして、画素選択部411−1乃至画素選択部411−Lは、注目画素が属する横に1列の画素の列の、下側に2つめの横に1列の画素の列に属する画素であって、選択された画素の左側の所定の数の画素、および選択された画素の右側の所定の数の画素、並びに選択された画素を画素の組として選択する。
【0512】
このように、画素選択部411−1乃至画素選択部411−Lは、それぞれ、画素の組を5つ選択する。
【0513】
画素選択部411−1乃至画素選択部411−Lは、互いに異なる角度についての、画素の組を選択する。例えば、画素選択部411−1は、0度についての、画素の組を選択し、画素選択部411−2は、2.5度についての、画素の組を選択し、画素選択部411−3は、5度についての、画素の組を選択する。画素選択部411−1乃至画素選択部411−Lは、7.5度から45度および135度から180度までの、2.5度毎の角度についての、画素の組を選択する。
【0514】
画素選択部411−1は、選択した画素の組を推定誤差算出部412−1に供給し、画素選択部411−2は、選択した画素の組を推定誤差算出部412−2に供給する。同様に、画素選択部411−3乃至画素選択部411−Lのそれぞれは、選択した画素の組を推定誤差算出部412−3乃至推定誤差算出部412−Lのそれぞれに供給する。
【0515】
推定誤差算出部412−1乃至推定誤差算出部412−Lは、画素選択部411−1乃至画素選択部411−Lのいずれかから供給された、複数の組における対応する位置の画素の画素値の相関を検出する。推定誤差算出部412−1乃至推定誤差算出部412−Lは、検出された相関を示す情報を、最小誤差角度選択部413に供給する。
【0516】
最小誤差角度選択部413は、推定誤差算出部412−1乃至推定誤差算出部412−Lにおいて検出された相関に基いて、欠落した実世界1の光信号である画像の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。
【0517】
次に、図79のフローチャートを参照して、ステップS101の処理に対応する、図72で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0518】
ステップS401において、アクティビティ検出部401およびデータ選択部402は、入力画像から、注目している画素である注目画素を選択する。アクティビティ検出部401およびデータ選択部402は、同一の注目画素を選択する。例えば、アクティビティ検出部401およびデータ選択部402は、入力画像から、ラスタスキャン順に、注目画素を選択する。
【0519】
ステップS402において、アクティビティ検出部401は、注目画素に対するアクティビティを検出する。例えば、アクティビティ検出部401は、注目画素を中心とした所定の数の画素からなるブロックの縦方向に並ぶ画素の画素値の差分および横方向に並ぶ画素の画素値の差分を基に、アクティビティを検出する。
【0520】
アクティビティ検出部401は、注目画素に対する空間方向のアクティビティを検出して、検出した結果を示すアクティビティ情報をデータ選択部402および定常方向導出部404に供給する。
【0521】
ステップS403において、データ選択部402は、注目画素を含む画素の列から、注目画素を中心とした所定の数の画素を、画素の組として選択する。例えば、データ選択部402は、注目画素が属する縦または横に1列の画素の列に属する画素であって、注目画素の上側または左側の所定の数の画素、および注目画素の下側または右側の所定の数の画素、並びに注目画素を画素の組として選択する。
【0522】
ステップS404において、データ選択部402は、ステップS402の処理で検出されたアクティビティを基にした、所定の範囲の角度毎に、所定の数の画素の列から、それぞれ所定の数の画素を、画素の組として選択する。例えば、データ選択部402は、所定の範囲の角度を有し、空間方向Xを示す軸を基準軸として、注目画素を通る直線を設定し、注目画素に対して、横方向または縦方向に1列または2列離れた画素であって、直線に最も近い画素を選択し、選択された画素の上側または左側の所定の数の画素、および選択された画素の下側または右側の所定の数の画素、並びに線に最も近い選択された画素を画素の組として選択する。データ選択部402は、角度毎に、画素の組を選択する。
【0523】
データ選択部402は、選択した画素の組を誤差推定部403に供給する。
【0524】
ステップS405において、誤差推定部403は、注目画素を中心とした画素の組と、角度毎に選択した画素の組との相関を計算する。例えば、誤差推定部403は、角度毎に、注目画素を含む組の画素の画素値と、他の組における対応する位置の画素の画素値の差分の絶対値の和を算出する。
【0525】
角度毎に選択された、画素の組の相互の相関を基に、データの定常性の角度を検出するようにしてもよい。
【0526】
誤差推定部403は、算出された相関を示す情報を、定常方向導出部404に供給する。
【0527】
ステップS406において、定常方向導出部404は、ステップS405の処理で算出された相関を基に、相関が最も強い画素の組の位置から、欠落した実世界1の光信号の定常性に対応する、画像データである入力画像における、基準軸を基準としたデータの定常性の角度を検出する。例えば、定常方向導出部404は、画素値の差分の絶対値の総和のうち、最小の総和を選択し、選択された総和が算出された画素の組の位置から、データの定常性の角度θを検出する。
【0528】
定常方向導出部404は、検出したデータの定常性の角度を示すデータ定常性情報を出力する。
【0529】
ステップS407において、データ選択部402は、全ての画素の処理を終了したか否かを判定し、全ての画素の処理を終了していないと判定された場合、ステップS401に戻り、まだ注目画素として選択されていない画素から注目画素を選択して、上述した処理を繰り返す。
【0530】
ステップS407において、全ての画素の処理を終了したと判定された場合、処理は終了する。
【0531】
このように、データ定常性検出部101は、欠落した実世界1の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を検出することができる。
【0532】
なお、図72で構成が示されるデータ検出部101は、注目しているフレームである注目フレームの、注目している画素である注目画素について、入力画像の空間方向のアクティビティを検出し、検出されたアクティビティに応じて、注目画素および空間方向の基準軸を基準とした角度、並びに動きベクトル毎に、注目フレームおよび注目フレームの時間的に前または後ろのフレームのそれぞれから、垂直方向に1列または水平方向に1列の所定の数の画素からなる画素の組を、複数抽出し、抽出された画素の組の相関を検出し、相関に基づいて、入力画像における、時間方向および空間方向のデータの定常性の角度を検出するようにしてもよい。
【0533】
例えば、図80に示すように、データ選択部402は、検出されたアクティビティに応じて、注目画素および空間方向の基準軸を基準とした角度、並びに動きベクトル毎に、注目フレームであるフレーム#n、フレーム#n−1、およびフレーム#n+1のそれぞれから、垂直方向に1列または水平方向に1列の所定の数の画素からなる画素の組を、複数抽出する。
【0534】
フレーム#n−1は、フレーム#nに対して時間的に前のフレームであり、フレーム#n+1は、フレーム#nに対して時間的に後のフレームである。すなわち、フレーム#n−1、フレーム#n、およびフレーム#n+1は、フレーム#n−1、フレーム#n、およびフレーム#n+1の順で表示される。
【0535】
誤差推定部403は、抽出した画素からなる複数の組について、1つの角度および1つの動きベクトル毎に、画素の組の相関を検出する。定常方向導出部404は、画素の組の相関に基づいて、欠落した実世界1の光信号の定常性に対応する、入力画像における、時間方向および空間方向のデータの定常性の角度を検出し、角度を示すデータ定常性情報を出力する。
【0536】
図81は、図72に示すデータ定常性検出部101のより詳細な他の構成を示すブロック図である。図76に示す場合と同様の部分には、同一の番号を付してあり、その説明は省略する。
【0537】
データ選択部402は、画素選択部421−1乃至画素選択部421−Lを含む。誤差推定部403は、推定誤差算出部422−1乃至推定誤差算出部422−Lを含む。
【0538】
図81で示すデータ定常性検出部101においては、角度の範囲に対する数の画素からなる、画素の組であって、角度の範囲に対する数の組が抽出されて、抽出された画素の組の相関が検出され、検出された相関に基づいて、入力画像における、基準軸を基準としたデータの定常性の角度が検出される。
【0539】
まず、アクティビティ情報で示される、データの定常性の角度が45度乃至135度のいずれかの値であるときの画素選択部421−1乃至画素選択部421−Lの処理を説明する。
【0540】
図82の左側に示すように、図76で示されるデータ定常性検出部101においては、設定された直線の角度によらず、一定の数の画素からなる画素の組が抽出されるのに対して、図81で示されるデータ定常性検出部101においては、図82の右側に示すように、設定された直線の角度の範囲に応じた数の画素からなる画素の組が抽出される。また、図81で示されるデータ定常性検出部101においては、画素の組が、設定された直線の角度の範囲に応じた数だけ抽出される。
【0541】
画素選択部421−1乃至画素選択部421−Lは、45度乃至135度の範囲の、空間方向Xを示す軸を基準軸として、注目画素を通る、それぞれ互いに異なる所定の角度の直線を設定する。
【0542】
画素選択部421−1乃至画素選択部421−Lは、注目画素が属する縦に1列の画素の列に属する画素であって、それぞれに設定された直線の角度の範囲に応じた数の、注目画素の上側の画素、および注目画素の下側の画素、並びに注目画素を画素の組として選択する。
【0543】
画素選択部421−1乃至画素選択部421−Lは、注目画素が属する縦に1列の画素の列に対して、画素を基準とした横方向に所定の距離にある、左側および右側の縦に1列の画素の列に属する画素であって、それぞれに設定された直線に最も近い位置の画素を選択し、選択された画素に対して縦に1列の画素から、設定された直線の角度の範囲に応じた数の、選択された画素の上側の画素、および選択された画素の下側の画素、並びに選択された画素を画素の組として選択する。
【0544】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度の範囲に応じた数の画素を、画素の組として選択する。画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度の範囲に応じた数の、画素の組を選択する。
【0545】
例えば、空間方向Xに対してほぼ45度の角度に位置する、検出素子の検出領域の幅とほぼ同じ幅の細線の画像がセンサ2で撮像された場合、細線の画像は、空間方向Yに1列に並ぶ3つの画素に円弧形状が形成されるように、データ3に射影される。これに対して、空間方向Xに対してほぼ垂直に位置する、検出素子の検出領域の幅とほぼ同じ幅の細線の画像がセンサ2で撮像された場合、細線の画像は、空間方向Yに1列に並ぶ、多数の画素に円弧形状が形成されるように、データ3に射影される。
【0546】
画素の組に同じ数の画素が含まれるとすると、細線が空間方向Xに対してほぼ45度の角度に位置する場合、画素の組において、細線の画像が射影された画素の数が少なくなり、分解能が低下することになる。逆に、細線が空間方向Xに対してほぼ垂直に位置する場合、画素の組において、細線の画像が射影された画素のうちの、一部の画素について処理が実行されることになり、正確さが低下する恐れがある。
【0547】
そこで、細線の画像が射影された画素がほぼ同等になるように、画素選択部421−1乃至画素選択部421−Lは、設定する直線が空間方向Xに対して45度の角度により近いとき、それぞれ画素の組に含まれる画素の数を少なくして、画素の組の数を多くし、設定する直線が空間方向Xに対して垂直により近い場合、それぞれの画素の組に含まれる画素の数を多くして、画素の組の数を少なくするように、画素および画素の組を選択する。
【0548】
例えば、図83および図84で示されるように、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、45度以上63.4度未満の範囲(図83および図84において、Aで示す範囲)にあるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした5つの画素を画素の組として選択すると共に、注目画素に対して、横方向に5画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、5つの画素を画素の組として選択する。
【0549】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、45度以上63.4度未満の範囲にあるとき、入力画像から、それぞれ5つの画素からなる、11の画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素は、注目画素に対して、縦方向に5画素乃至9画素離れた位置にある。
【0550】
図84において、列の数は、注目画素の左側または右側の、画素の組として画素が選択される画素の列の数を示す。図84において、1列の画素の数は、注目画素に対して、縦に1列の画素の列、または注目画素の左側または右側の列から、画素の組として選択される画素の数を示す。図84において、画素の選択範囲は、注目画素に対する、設定された直線に最も近い位置の画素として、選択される画素の縦方向の位置を示す。
【0551】
図85で示されるように、例えば、画素選択部421−1は、設定された直線の角度が、45度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした5つの画素を画素の組として選択すると共に、注目画素に対して、横方向に5画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、5つの画素を画素の組として選択する。すなわち、画素選択部421−1は、入力画像から、それぞれ5つの画素からなる、11の画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に5画素離れた位置にある。
【0552】
なお、図85乃至図92において、点線で表された四角(点線で仕切られた1つのマス目)は、1つの画素を示し、実線で表された四角は、画素の組を示す。図85乃至図92において、注目画素の空間方向Xの座標を0とし、注目画素の空間方向Yの座標を0とした。
【0553】
また、図85乃至図92において、斜線で表された四角は、注目画素または設定された直線に最も近い位置の画素を示す。図85乃至図92において、太線で表された四角は、注目画素を中心として選択された画素の組を示す。
【0554】
図86で示されるように、例えば、画素選択部421−2は、設定された直線の角度が、60.9度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした5つの画素を画素の組として選択すると共に、注目画素に対して、横方向に5画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、5つの画素を画素の組として選択する。すなわち、画素選択部421−2は、入力画像から、それぞれ5つの画素からなる、11の画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に9画素離れた位置にある。
【0555】
例えば、図83および図84で示されるように、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、63.4度以上71.6度未満の範囲(図83および図84において、Bで示す範囲)にあるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした7つの画素を画素の組として選択すると共に、注目画素に対して、横方向に4画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、7つの画素を画素の組として選択する。
【0556】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、63.4度以上71.6度未満の範囲囲にあるとき、入力画像から、それぞれ7つの画素からなる、9つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素の縦方向の位置は、注目画素に対して、8画素乃至11画素である。
【0557】
図87で示されるように、例えば、画素選択部421−3は、設定された直線の角度が、63.4度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした7つの画素を画素の組として選択すると共に、注目画素に対して、横方向に4画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、7つの画素を画素の組として選択する。すなわち、画素選択部421−3は、入力画像から、それぞれ7つの画素からなる、9つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に8画素離れた位置にある。
【0558】
また、図88で示されるように、例えば、画素選択部421−4は、設定された直線の角度が、70.0度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした7つの画素を画素の組として選択すると共に、注目画素に対して、横方向に4画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、7つの画素を画素の組として選択する。すなわち、画素選択部421−4は、入力画像から、それぞれ7つの画素からなる、9つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に11画素離れた位置にある。
【0559】
例えば、図83および図84で示されるように、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、71.6度以上76.0度未満の範囲(図83および図84において、Cで示す範囲)にあるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした9つの画素を画素の組として選択すると共に、注目画素に対して、横方向に3画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、9つの画素を画素の組として選択する。
【0560】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、71.6度以上76.0度未満の範囲にあるとき、入力画像から、それぞれ9つの画素からなる、7つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素の縦方向の位置は、注目画素に対して、9画素乃至11画素である。
【0561】
図89で示されるように、例えば、画素選択部421−5は、設定された直線の角度が、71.6度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした9つの画素を画素の組として選択すると共に、注目画素に対して、横方向に3画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、9つの画素を画素の組として選択する。すなわち、画素選択部421−5は、入力画像から、それぞれ9つの画素からなる、7つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に9画素離れた位置にある。
【0562】
また、図90で示されるように、例えば、画素選択部421−6は、設定された直線の角度が、74.7度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした9つの画素を画素の組として選択すると共に、注目画素に対して、横方向に3画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、9つの画素を画素の組として選択する。すなわち、画素選択部421−6は、入力画像から、それぞれ9つの画素からなる、7つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に11画素離れた位置にある。
【0563】
例えば、図83および図84で示されるように、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、76.0度以上87.7度以下の範囲(図83および図84において、Dで示す範囲)にあるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした11の画素を画素の組として選択すると共に、注目画素に対して、横方向に2画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、11の画素を画素の組として選択する。すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度が、76.0度以上87.7度以下の範囲にあるとき、入力画像から、それぞれ11の画素からなる、5つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素の縦方向の位置は、注目画素に対して、8画素乃至50画素である。
【0564】
図91で示されるように、例えば、画素選択部421−7は、設定された直線の角度が、76.0度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした11の画素を画素の組として選択すると共に、注目画素に対して、横方向に2画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、11の画素を画素の組として選択する。すなわち、画素選択部421−7は、入力画像から、それぞれ11の画素からなる、5つの画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に8画素離れた位置にある。
【0565】
また、図92で示されるように、例えば、画素選択部421−8は、設定された直線の角度が、87.7度であるとき、注目画素に対して、縦に1列の画素の列から、注目画素を中心とした11の画素を画素の組として選択すると共に、注目画素に対して、横方向に2画素以内の距離にある、左側および右側の縦に1列の画素の列に属する画素から、それぞれ、11の画素を画素の組として選択する。すなわち、画素選択部421−8は、入力画像から、それぞれ11の画素からなる、5の画素の組を選択する。この場合において、設定された直線に最も近い位置の画素として、選択される画素のうち、注目画素から最も遠い位置にある画素は、注目画素に対して、縦方向に50画素離れた位置にある。
【0566】
このように、画素選択部421−1乃至画素選択部421−Lは、それぞれ、角度の範囲に対応した所定の数の画素からなる、角度の範囲に対応した所定の数の画素の組を選択する。
【0567】
画素選択部421−1は、選択した画素の組を推定誤差算出部422−1に供給し、画素選択部421−2は、選択した画素の組を推定誤差算出部422−2に供給する。同様に、画素選択部421−3乃至画素選択部421−Lのそれぞれは、選択した画素の組を推定誤差算出部422−3乃至推定誤差算出部422−Lのそれぞれに供給する。
【0568】
推定誤差算出部422−1乃至推定誤差算出部422−Lは、画素選択部421−1乃至画素選択部421−Lのいずれかから供給された、複数の組における対応する位置の画素の画素値の相関を検出する。例えば、推定誤差算出部422−1乃至推定誤差算出部422−Lは、画素選択部421−1乃至画素選択部421−Lのいずれかから供給された、注目画素を含む画素の組の画素の画素値と、他の画素の組における対応する位置の画素の画素値の差分の絶対値の和を算出し、注目画素を含む画素の組以外の画素の組に含まれる画素の数で、算出された和を割り算する。算出された和を、注目画素を含む組以外の組に含まれる画素の数で、割り算するのは、設定された直線の角度に応じて選択される画素の数が異なるので、相関を示す値を正規化するためである。
【0569】
推定誤差算出部422−1乃至推定誤差算出部422−Lは、検出された相関を示す情報を、最小誤差角度選択部413に供給する。例えば、推定誤差算出部422−1乃至推定誤差算出部422−Lは、正規化された画素値の差分の絶対値の和を最小誤差角度選択部413に供給する。
【0570】
次に、アクティビティ情報で示される、データの定常性の角度が0度乃至45度および135度乃至180度のいずれかの値であるときの画素選択部421−1乃至画素選択部421−Lの処理を説明する。
【0571】
画素選択部421−1乃至画素選択部421−Lは、0度乃至45度または135度乃至180度の範囲の、空間方向Xを示す軸を基準軸として、注目画素を通る、それぞれ互いに異なる所定の角度の直線を設定する。
【0572】
画素選択部421−1乃至画素選択部421−Lは、注目画素が属する横に1列の画素の列に属する画素であって、設定された直線の角度の範囲に応じた数の、注目画素の左側の画素、および注目画素の右側の画素、並びに注目画素を画素の組として選択する。
【0573】
画素選択部421−1乃至画素選択部421−Lは、注目画素が属する横に1列の画素の列に対して、画素を基準とした縦方向に所定の距離にある、上側および下側の横に1列の画素の列に属する画素であって、設定された直線に最も近い位置の画素を選択し、選択された画素に対して横に1列の画素から、設定された直線の角度の範囲に応じた数の、選択された画素の左側の画素、および選択された画素の右側の画素、並びに選択された画素を画素の組として選択する。
【0574】
すなわち、画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度の範囲に応じた数の画素を、画素の組として選択する。画素選択部421−1乃至画素選択部421−Lは、設定された直線の角度の範囲に応じた数の、画素の組を選択する。
【0575】
画素選択部421−1は、選択した画素の組を推定誤差算出部422−1に供給し、画素選択部421−2は、選択した画素の組を推定誤差算出部422−2に供給する。同様に、画素選択部421−3乃至画素選択部421−Lのそれぞれは、選択した画素の組を推定誤差算出部422−3乃至推定誤差算出部422−Lのそれぞれに供給する。
【0576】
推定誤差算出部422−1乃至推定誤差算出部422−Lは、画素選択部421−1乃至画素選択部421−Lのいずれかから供給された、複数の組における対応する位置の画素の画素値の相関を検出する。
【0577】
推定誤差算出部422−1乃至推定誤差算出部422−Lは、検出された相関を示す情報を、最小誤差角度選択部413に供給する。
【0578】
次に、図93のフローチャートを参照して、ステップS101の処理に対応する、図81で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0579】
ステップS421およびステップS422の処理は、ステップS401およびステップS402の処理と同様なので、その説明は省略する。
【0580】
ステップS423において、データ選択部402は、ステップS422の処理で検出されたアクティビティに対する所定の範囲の角度毎に、注目画素を含む画素の列から、注目画素を中心とした、角度の範囲に対して定めた数の画素を、画素の組として選択する。例えば、データ選択部402は、注目画素が属する縦または横に1列の画素の列に属する画素であって、設定する直線の角度に対して、角度の範囲により定めた数の、注目画素の上側または左側の画素、および注目画素の下側または右側の画素、並びに注目画素を画素の組として選択する。
【0581】
ステップS424において、データ選択部402は、ステップS422の処理で検出されたアクティビティを基にした、所定の範囲の角度毎に、角度の範囲に対して定めた数の画素の列から、角度の範囲に対して定めた数の画素を、画素の組として選択する。例えば、データ選択部402は、所定の範囲の角度を有し、空間方向Xを示す軸を基準軸として、注目画素を通る直線を設定し、注目画素に対して、横方向または縦方向に、設定する直線の角度の範囲に対して所定の範囲だけ離れた画素であって、直線に最も近い画素を選択し、選択された画素の上側または左側の、設定する直線の角度の範囲に対する数の画素、および選択された画素の下側または右側の、設定する直線の角度の範囲に対する数の画素、並びに選択された線に最も近い画素を画素の組として選択する。データ選択部402は、角度毎に、画素の組を選択する。
【0582】
データ選択部402は、選択した画素の組を誤差推定部403に供給する。
【0583】
ステップS425において、誤差推定部403は、注目画素を中心とした画素の組と、角度毎に選択した画素の組との相関を計算する。例えば、誤差推定部403は、注目画素を含む組の画素の画素値と、他の組における対応する位置の画素の画素値の差分の絶対値の和を算出し、他の組に属する画素の数で、画素値の差分の絶対値の和を割り算することにより、相関を計算する。
【0584】
角度毎に選択された、画素の組の相互の相関を基に、データの定常性の角度を検出するようにしてもよい。
【0585】
誤差推定部403は、算出された相関を示す情報を、定常方向導出部404に供給する。
【0586】
ステップS426およびステップS427の処理は、ステップS406およびステップS407の処理と同様なので、その説明は省略する。
【0587】
このように、データ定常性検出部101は、欠落した実世界1の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を、より正確に、より精度良く検出することができる。図81に構成を示すデータ定常性検出部101は、特に、データの定常性の角度が45度付近である場合において、細線の画像が射影された、より多くの画素の相関を評価することができるので、より精度良くデータの定常性の角度を検出することができる。
【0588】
なお、図81で構成が示されるデータ定常性検出部101においても、注目しているフレームである注目フレームの、注目している画素である注目画素について、入力画像の空間方向のアクティビティを検出し、検出されたアクティビティに応じて、注目画素および空間方向の基準軸を基準とした角度、並びに動きベクトル毎に、注目フレームおよび注目フレームの時間的に前または後ろのフレームのそれぞれから、垂直方向に1列または水平方向に1列の、空間的な角度の範囲に対して定めた数の画素からなる画素の組を、空間的な角度の範囲に対して定めた数だけ抽出し、抽出された画素の組の相関を検出し、相関に基づいて、入力画像における、時間方向および空間方向のデータの定常性の角度を検出するようにしてもよい。
【0589】
図94は、データ定常性検出部101のさらに他の構成を示すブロック図である。
【0590】
図94に構成を示すデータ定常性検出部101においては、注目している画素である注目画素について、所定の数の画素からなる、注目画素を中心としたブロックと、注目画素の周辺の、それぞれ、所定の数の画素からなる複数のブロックが抽出され、注目画素を中心としたブロックと周辺のブロックとの相関が検出され、相関に基づいて、入力画像における、基準軸を基準としたデータの定常性の角度が検出される。
【0591】
データ選択部441は、入力画像の画素から注目画素を順に選択し、注目画素を中心とした、所定の数の画素からなるブロック、および、注目画素の周辺の、所定の数の画素からなる複数のブロックを抽出し、抽出したブロックを誤差推定部442に供給する。
【0592】
例えば、データ選択部441は、注目画素を中心とした5×5画素からなるブロック、注目画素の周辺から、注目画素および基準軸を基準とした所定の角度の範囲毎に、5×5画素からなる2つのブロックを抽出する。
【0593】
誤差推定部442は、データ選択部441から供給された、注目画素を中心としたブロックと、注目画素の周辺のブロックとの相関を検出して、検出した相関を示す相関情報を定常方向導出部443に供給する。
【0594】
例えば、誤差推定部442は、角度の範囲毎に、注目画素を中心とした5×5画素からなるブロックと、1つの角度の範囲に対応する、5×5画素からなる2つのブロックとについて、画素値の相関を検出する。
【0595】
定常性方向導出部443は、誤差推定部442から供給された相関情報に基いて、相関の最も強い、注目画素の周辺のブロックの位置から、欠落した実世界1の光信号の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出し、角度を示すデータ定常性情報を出力する。例えば、定常方向導出部443は、誤差推定部442から供給された相関情報に基いて、注目画素を中心とした5×5画素からなるブロックに対して最も相関の強い、5×5画素からなる2つのブロックに対する角度の範囲を、データの定常性の角度として検出し、検出された角度を示すデータ定常性情報を出力する。
【0596】
図95は、図94に示すデータ定常性検出部101のより詳細な構成を示すブロック図である。
【0597】
データ選択部441は、画素選択部461−1乃至画素選択部461−Lを含む。誤差推定部442は、推定誤差算出部462−1乃至推定誤差算出部462−Lを含む。定常方向導出部443は、最小誤差角度選択部463を含む。
【0598】
例えば、データ選択部441には、画素選択部461−1乃至画素選択部461−8が設けられる。例えば、誤差推定部442には、推定誤差算出部462−1乃至推定誤差算出部462−8が設けられる。
【0599】
画素選択部461−1乃至画素選択部461−Lのそれぞれは、注目画素を中心とした、所定の数の画素からなるブロック、並びに注目画素および基準軸を基準とした所定の角度の範囲に対応した、所定の数の画素からなる2つのブロックを抽出する。
【0600】
図96は、画素選択部461−1乃至画素選択部461−Lにより抽出される、5×5画素のブロックの例を説明する図である。図96における中央の位置は、注目画素の位置を示す。
【0601】
なお、5×5画素のブロックは、一例であって、ブロックに含まれる画素の数は、本発明を限定するものではない。
【0602】
例えば、画素選択部461−1は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、0度乃至18.4度および161.6度乃至180.0度の範囲に対応した、注目画素に対して、右側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中Aで示す)を抽出し、注目画素に対して、左側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中A’で示す)を抽出する。画素選択部461−1は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−1に供給する。
【0603】
画素選択部461−2は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、18.4度乃至33.7度の範囲に対応した、注目画素に対して、右側に10画素移動し、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中Bで示す)を抽出し、注目画素に対して、左側に10画素移動し、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中B’で示す)を抽出する。画素選択部461−2は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−2に供給する。
【0604】
画素選択部461−3は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、33.7度乃至56.3度の範囲に対応した、注目画素に対して、右側に5画素移動し、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中Cで示す)を抽出し、注目画素に対して、左側に5画素移動し、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中C’で示す)を抽出する。画素選択部461−3は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−3に供給する。
【0605】
画素選択部461−4は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、56.3度乃至71.6度の範囲に対応した、注目画素に対して、右側に5画素移動し、上側に10画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中Dで示す)を抽出し、注目画素に対して、左側に5画素移動し、下側に10画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中D’で示す)を抽出する。画素選択部461−4は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−4に供給する。
【0606】
画素選択部461−5は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、71.6度乃至108.4度の範囲に対応した、注目画素に対して、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中Eで示す)を抽出し、注目画素に対して、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中E’で示す)を抽出する。画素選択部461−5は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−5に供給する。
【0607】
画素選択部461−6は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、108.4度乃至123.7度の範囲に対応した、注目画素に対して、左側に5画素移動し、上側に10画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中Fで示す)を抽出し、注目画素に対して、右側に5画素移動し、下側に10画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中F’で示す)を抽出する。画素選択部461−6は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−6に供給する。
【0608】
画素選択部461−7は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、123.7度乃至146.3度の範囲に対応した、注目画素に対して、左側に5画素移動し、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中Gで示す)を抽出し、注目画素に対して、右側に5画素移動し、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中G’で示す)を抽出する。画素選択部461−7は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−7に供給する。
【0609】
画素選択部461−8は、注目画素を中心とした、5×5画素のブロックを抽出すると共に、146.3度乃至161.6度の範囲に対応した、注目画素に対して、左側に10画素移動し、上側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中Hで示す)を抽出し、注目画素に対して、右側に10画素移動し、下側に5画素移動した位置にある画素を中心とした、5×5画素のブロック(図96中H’で示す)を抽出する。画素選択部461−8は、抽出した、5×5画素の3つのブロックを推定誤差算出部462−8に供給する。
【0610】
以下、注目画素を中心とした、所定の数の画素からなるブロックを注目ブロックと称する。
【0611】
以下、注目画素および基準軸を基準とした所定の角度の範囲に対応した、所定の数の画素からなるブロックを参照ブロックと称する。
【0612】
このように、画素選択部461−1乃至画素選択部461−8は、例えば、注目画素を中心として、25×25画素の範囲から、注目ブロックおよび参照ブロックを抽出する。
【0613】
推定誤差算出部462−1乃至推定誤差算出部462−Lは、画素選択部461−1乃至画素選択部461−Lから供給された、注目ブロックと、2つの参照ブロックとの相関を検出して、検出した相関を示す相関情報を最小誤差角度選択部463に供給する。
【0614】
例えば、推定誤差算出部462−1は、注目画素を中心とした、5×5画素からなる注目ブロックと、0度乃至18.4度および161.6度乃至180.0度の範囲に対応して抽出された、注目画素に対して、右側に5画素移動した位置にある画素を中心とした、5×5画素の参照ブロックとについて、注目ブロックに含まれる画素の画素値と、参照ブロックに含まれる画素の画素値との差分の絶対値を算出する。
【0615】
この場合において、推定誤差算出部462−1は、図97に示されるように、注目ブロックの中央の画素と参照ブロックの中央の画素とが重なる位置を基準として、画素値の差分の絶対値の算出に、注目画素の画素値が使用されるように、参照ブロックに対して、注目ブロックの位置を、左側に2画素乃至右側に2画素のいずれか、上側に2画素乃至下側に2画素のいずれか移動させた場合に重なる位置となる画素の画素値の差分の絶対値を算出する。すなわち、注目ブロックと参照ブロックとの25種類の位置における、対応する位置の画素の画素値の差分の絶対値が算出される。言い換えれば、画素値の差分の絶対値が算出される場合において、相対的に移動される注目ブロックおよび参照ブロックとからなる範囲は、9×9画素である。
【0616】
図97において、四角は、画素を示し、Aは、参照ブロックを示し、Bは、注目ブロックを示す。図97において、太線は、注目画素を示す。すなわち、図97は、参照ブロックに対して、注目ブロックが右側に2画素、および上側に1画素移動した場合の例を示す図である。
【0617】
さらに、推定誤差算出部462−1は、注目画素を中心とした、5×5画素からなる注目ブロックと、0度乃至18.4度および161.6度乃至180.0度の範囲に対応して抽出された、注目画素に対して、左側に5画素移動した位置にある画素を中心とした、5×5画素の参照ブロックとについて、注目ブロックに含まれる画素の画素値と、参照ブロックに含まれる画素の画素値との差分の絶対値を算出する。
【0618】
そして、推定誤差算出部462−1は、算出された差分の絶対値の和を求めて、差分の絶対値の和を、相関を示す相関情報として最小誤差角度選択部463に供給する。
【0619】
推定誤差算出部462−2は、5×5画素からなる注目ブロックと、18.4度乃至33.7度の範囲に対応して抽出された、5×5画素の2つの参照ブロックとについて、画素値の差分の絶対値を算出し、さらに、算出された差分の絶対値の和を算出する。推定誤差算出部462−1は、算出された差分の絶対値の和を、相関を示す相関情報として最小誤差角度選択部463に供給する。
【0620】
同様に、推定誤差算出部462−3乃至推定誤差算出部462−8のそれぞれは、5×5画素からなる注目ブロックと、所定の角度の範囲に対応して抽出された、5×5画素の2つの参照ブロックとについて、画素値の差分の絶対値を算出し、さらに、算出された差分の絶対値の和を算出する。推定誤差算出部462−3乃至推定誤差算出部462−8のそれぞれは、算出された差分の絶対値の和を、相関を示す相関情報として最小誤差角度選択部463に供給する。
【0621】
最小誤差角度選択部463は、推定誤差算出部462−1乃至推定誤差算出部462−8から供給された、相関情報としての画素値の差分の絶対値の和のうち、最も強い相関を示す、最小の値が得られた参照ブロックの位置から、2つの参照ブロックに対する角度をデータの定常性の角度として検出し、検出された角度を示すデータ定常性情報を出力する。
【0622】
ここで、参照ブロックの位置と、データの定常性の角度の範囲との関係について説明する。
【0623】
実世界の信号を近似する近似関数f(x)をn次の1次元多項式で近似した場合、近似関数f(x)は、式(30)で表すことができる。
【0624】
【数21】
【0625】
近似関数f(x)で近似される実世界1の信号の波形が、空間方向Yに対して一定の傾き(角度)を有する場合、式(30)における、xをx+γyとすることにより得られた式(31)で、実世界1の信号を近似する近似関数(x,y)は、表現される。
【0626】
【数22】
【0627】
γは、空間方向Yの位置の変化に対する、空間方向Xの位置の変化の割合を示す。以下、γをシフト量とも称する。
【0628】
図98は、注目画素の位置と、角度θを有する直線との空間方向Xの距離を0としたとき、すなわち、注目画素を直線が通るときの、注目画素の周辺の画素の位置と、角度θを有する直線との空間方向Xの距離を示す図である。ここで、画素の位置は、画素の中心の位置である。また、位置と直線との距離は、位置が直線に対して左側にあるとき、負の値で示され、位置が直線に対して右側にあるとき、正の値で示される。
【0629】
例えば、注目画素の右側に隣接する画素の位置、すなわち空間方向Xの座標xが1増加する位置と、角度θを有する直線との空間方向Xの距離は、1であり、注目画素の左側に隣接する画素の位置、すなわち空間方向Xの座標xが1減少する位置と、角度θを有する直線との空間方向Xの距離は、−1である。注目画素の上側に隣接する画素の位置、すなわち空間方向Yの座標yが1増加する位置と、角度θを有する直線との空間方向Xの距離は、−γであり、注目画素の下側に隣接する画素の位置、すなわち空間方向Yの座標yが1減少する位置と、角度θを有する直線との空間方向Xの距離は、γである。
【0630】
角度θが45度を超え、90度未満であり、シフト量γが、0を超え、1未満であるとき、シフト量γと角度θとの間には、γ=1/tanθの関係式が成り立つ。図99は、シフト量γと角度θとの関係を示す図である。
【0631】
ここで、シフト量γの変化に対する、注目画素の周辺の画素の位置と、注目画素を通り、角度θを有する直線との空間方向Xの距離の変化に注目する。
【0632】
図100は、シフト量γに対する、注目画素の周辺の画素の位置と、注目画素を通り、角度θを有する直線との空間方向Xの距離を示す図である。図100において、右上がりの一点鎖線は、シフト量γに対する、注目画素の下側に隣接する画素の位置と直線との空間方向Xの距離を示し、左下がりの一点鎖線は、シフト量γに対する、注目画素の上側に隣接する画素の位置と直線との空間方向Xの距離を示す。
【0633】
図100において、右上がりの二点鎖線は、シフト量γに対する、注目画素から、2画素下側で、1画素左側に位置する画素の位置と直線との空間方向Xの距離を示し、左下がりの二点鎖線は、シフト量γに対する、注目画素から、2画素上側で、1画素右側に位置する画素の位置と直線との空間方向Xの距離を示す。
【0634】
図100において、右上がりの三点鎖線は、シフト量γに対する、注目画素から、1画素下側で、1画素左側に位置する画素の位置と直線との空間方向Xの距離を示し、左下がりの三点鎖線は、シフト量γに対する、注目画素から、1画素上側で、1画素右側に位置する画素の位置と直線との空間方向Xの距離を示す。
【0635】
図100から、シフト量γに対して、距離が最も小さい画素がわかる。
【0636】
すなわち、シフト量γが0乃至1/3であるとき、注目画素の上側に隣接する画素および注目画素の下側に隣接する画素から、直線までの距離が最小である。すなわち、角度θが71.6度乃至90度であるとき、注目画素の上側に隣接する画素および注目画素の下側に隣接する画素から、直線までの距離が最小である。
【0637】
シフト量γが1/3乃至2/3であるとき、注目画素に対して、2画素上側で、1画素右側に位置する画素、および注目画素に対して、2画素下側で、1画素左側に位置する画素から、直線までの距離が最小である。すなわち、角度θが56.3度乃至71.6度であるとき、注目画素に対して、2画素上側で、1画素右側に位置する画素、および注目画素に対して、2画素下側で、1画素左側に位置する画素から、直線までの距離が最小である。
【0638】
また、シフト量γが2/3乃至1であるとき、注目画素に対して、1画素上側で、1画素右側に位置する画素、および注目画素に対して、1画素下側で、1画素左側に位置する画素から、直線までの距離が最小である。すなわち、角度θが45度乃至56.3度であるとき、注目画素に対して、1画素上側で、1画素右側に位置する画素、および注目画素に対して、1画素下側で、1画素左側に位置する画素から、直線までの距離が最小である。
【0639】
角度θが0度から45度までの範囲の直線と画素との関係も、同様に考えることができる。
【0640】
図98に示す画素を、注目ブロックおよび参照ブロックに置き換えて、参照ブロックと直線との空間方向Xの距離を考えることができる。
【0641】
図101に、注目画素を通り、空間方向Xの軸に対して角度θの直線との距離が最小の参照ブロックを示す。
【0642】
図101におけるA乃至HおよびA’乃至H’は、図96におけるA乃至HおよびA’乃至H’の参照ブロックを示す。
【0643】
すなわち、注目画素を通り、空間方向Xの軸を基準とした、0度乃至18.4度および161.6度乃至180.0度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とAおよびA’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、AおよびA’の参照ブロックとの相関が最も強いとき、注目ブロックと、AおよびA’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、0度乃至18.4度および161.6度乃至180.0度の範囲にあると言える。
【0644】
注目画素を通り、空間方向Xの軸を基準とした、18.4度乃至33.7度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とBおよびB’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、BおよびB’の参照ブロックとの相関が最も強いとき、注目ブロックと、BおよびB’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、18.4度乃至33.7度の範囲にあると言える。
【0645】
注目画素を通り、空間方向Xの軸を基準とした、33.7度乃至56.3度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とCおよびC’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、CおよびC’の参照ブロックとの相関が最も強いとき、注目ブロックと、CおよびC’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、33.7度乃至56.3度の範囲にあると言える。
【0646】
注目画素を通り、空間方向Xの軸を基準とした、56.3度乃至71.6度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とDおよびD’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、DおよびD’の参照ブロックとの相関が最も強いとき、注目ブロックと、DおよびD’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、56.3度乃至71.6度の範囲にあると言える。
【0647】
注目画素を通り、空間方向Xの軸を基準とした、71.6度乃至108.4度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とEおよびE’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、EおよびE’の参照ブロックとの相関が最も強いとき、注目ブロックと、EおよびE’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、71.6度乃至108.4度の範囲にあると言える。
【0648】
注目画素を通り、空間方向Xの軸を基準とした、108.4度乃至123.7度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とFおよびF’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、FおよびF’の参照ブロックとの相関が最も強いとき、注目ブロックと、FおよびF’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、108.4度乃至123.7度の範囲にあると言える。
【0649】
注目画素を通り、空間方向Xの軸を基準とした、123.7度乃至146.3度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とGおよびG’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、GおよびG’の参照ブロックとの相関が最も強いとき、注目ブロックと、GおよびG’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、123.7度乃至146.3度の範囲にあると言える。
【0650】
注目画素を通り、空間方向Xの軸を基準とした、146.3度乃至161.6度のいずれかの角度θを有する直線と、A乃至HおよびA’乃至H’の参照ブロックのそれぞれとの空間方向Xの距離のうち、直線とHおよびH’の参照ブロックとの距離が最小となる。従って、逆に考えれば、注目ブロックと、HおよびH’の参照ブロックとの相関が最も強いとき、注目ブロックと、HおよびH’の参照ブロックとを結ぶ方向に、一定の特徴が繰り返し現れているので、データの定常性の角度は、146.3度乃至161.6度の範囲にあると言える。
【0651】
このように、データ定常性検出部101は、注目ブロックと参照ブロックとの相関を基に、データの定常性の角度を検出することができる。
【0652】
なお、図94に構成を示すデータ定常性検出部101においては、データの定常性の角度の範囲をデータ定常性情報として出力するようにしても良く、データの定常性の角度の範囲を示す代表値をデータ定常性情報として出力するようにしても良い。例えば、データの定常性の角度の範囲の中央値を代表値とすることができる。
【0653】
さらに、図94に構成を示すデータ定常性検出部101は、相関が最も強い参照ブロックの周辺の参照ブロックの相関を利用することにより、検出するデータの定常性の角度の範囲を1/2に、すなわち、検出するデータの定常性の角度の分解能を2倍にすることができる。
【0654】
例えば、注目ブロックと、EおよびE’の参照ブロックとの相関が最も強いとき、最小誤差角度選択部463は、図102で示されるように、注目ブロックに対する、DおよびD’の参照ブロックの相関と、注目ブロックに対する、FおよびF’の参照ブロックの相関とを比較する。注目ブロックに対する、DおよびD’の参照ブロックの相関が、注目ブロックに対する、FおよびF’の参照ブロックの相関に比較して、強い場合、最小誤差角度選択部463は、データの定常性の角度に、71.6度乃至90度の範囲を設定する。また、この場合、最小誤差角度選択部463は、データの定常性の角度に、代表値として81度を設定するようにしてもよい。
【0655】
注目ブロックに対する、FおよびF’の参照ブロックの相関が、注目ブロックに対する、DおよびD’の参照ブロックの相関に比較して、強い場合、最小誤差角度選択部463は、データの定常性の角度に、90度乃至108.4度の範囲を設定する。また、この場合、最小誤差角度選択部463は、データの定常性の角度に、代表値として99度を設定するようにしてもよい。
【0656】
最小誤差角度選択部463は、同様の処理で、他の角度の範囲についても、検出するデータの定常性の角度の範囲を1/2にすることができる。
【0657】
尚、図102を参照して説明した手法を、簡易16方位検出手法とも称する。
【0658】
このように、図94に構成を示すデータ定常性検出部101は、簡単な処理で、より範囲の狭い、データの定常性の角度を検出することができる。
【0659】
次に、図103のフローチャートを参照して、ステップS101の処理に対応する、図94で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0660】
ステップS441において、データ選択部441は、入力画像から、注目している画素である注目画素を選択する。例えば、データ選択部441は、入力画像から、ラスタスキャン順に、注目画素を選択する。
【0661】
ステップS442において、データ選択部441は、注目画素を中心とする所定の数の画素からなる注目ブロックを選択する。例えば、データ選択部441は、注目画素を中心とする5×5画素からなる注目ブロックを選択する。
【0662】
ステップS443において、データ選択部441は、注目画素の周辺の所定の位置の所定の数の画素からなる参照ブロックを選択する。例えば、データ選択部441は、注目画素および基準軸を基準とした所定の角度の範囲毎に、注目ブロックの大きさを基準とした、所定の位置の画素を中心とする5×5画素からなる参照ブロックを選択する。
【0663】
データ選択部441は、注目ブロックおよび参照ブロックを誤差推定部442に供給する。
【0664】
ステップS444において、誤差推定部442は、注目画素および基準軸を基準とした所定の角度の範囲毎に、注目ブロックと、角度の範囲に対応した参照ブロックとの相関を計算する。誤差推定部442は、算出された相関を示す相関情報を定常方向導出部443に供給する。
【0665】
ステップS445において、定常方向導出部443は、注目ブロックに対して、相関が最も強い参照ブロックの位置から、欠落した実世界1の光信号である画像の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。
【0666】
定常方向導出部443は、検出したデータの定常性の角度を示すデータ定常性情報を出力する。
【0667】
ステップS446において、データ選択部441は、全ての画素の処理を終了したか否かを判定し、全ての画素の処理を終了していないと判定された場合、ステップS441に戻り、まだ注目画素として選択されていない画素から注目画素を選択して、上述した処理を繰り返す。
【0668】
ステップS446において、全ての画素の処理を終了したと判定された場合、処理は終了する。
【0669】
このように、図94に構成を示すデータ定常性検出部101は、より簡単な処理で、欠落した実世界1の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を検出することができる。また、図94に構成を示すデータ定常性検出部101は、入力画像の中の、比較的狭い範囲の画素の画素値を使用して、データの定常性の角度を検出することができるので、入力画像にノイズ等が含まれていても、より正確にデータの定常性の角度を検出することができる。
【0670】
なお、図94で構成が示されるデータ検出部101は、注目しているフレームである注目フレームの、注目している画素である注目画素について、注目フレームから、所定の数の画素からなる、注目画素を中心としたブロックと、注目画素の周辺の、それぞれ、所定の数の画素からなる複数のブロックとを抽出すると共に、注目フレームに対して時間的に前または後ろのフレームから、所定の数の画素からなる、注目画素に対応する位置の画素を中心としたブロックと、注目画素に対応する位置の画素の周辺の、それぞれ、所定の数の画素からなる複数のブロックとを抽出し、注目画素を中心としたブロックと空間的または時間的に周辺のブロックとの相関を検出し、相関に基づいて、入力画像における、時間方向および空間方向のデータの定常性の角度を検出するようにしてもよい。
【0671】
例えば、図104に示すように、データ選択部441は、注目フレームであるフレーム#nから注目画素を順に選択し、フレーム#nから、注目画素を中心とした、所定の数の画素からなるブロック、および、注目画素の周辺の、所定の数の画素からなる複数のブロックを抽出する。また、データ選択部441は、フレーム#n−1およびフレーム#n+1のそれぞれから、注目画素の位置に対応する位置の画素を中心とした、所定の数の画素からなるブロック、および、注目画素の位置に対応する位置の画素の周辺の、所定の数の画素からなる複数のブロックを抽出する。データ選択部441は、抽出したブロックを誤差推定部442に供給する。
【0672】
誤差推定部442は、データ選択部441から供給された、注目画素を中心としたブロックと、空間的または時間的に周辺のブロックとの相関を検出して、検出した相関を示す相関情報を定常方向導出部443に供給する。定常性方向導出部443は、誤差推定部442から供給された相関情報に基いて、相関の最も強い、空間的または時間的に周辺のブロックの位置から、欠落した実世界1の光信号の定常性に対応する、入力画像における、時間方向および空間方向のデータの定常性の角度を検出し、角度を示すデータ定常性情報を出力する。
【0673】
また、データ定常性検出部101は、入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行することができる。
【0674】
図105は、入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行するデータ定常性検出部101の構成を示すブロック図である。
【0675】
データ定常性検出部481−1乃至481−3のそれぞれは、上述した、または後述するデータ定常性検出部101と同様の構成を有し、入力画像のコンポーネント信号のそれぞれを処理の対象として、上述した、または後述する処理を実行する。
【0676】
データ定常性検出部481−1は、入力画像の第1のコンポーネント信号を基に、データの定常性を検出し、第1のコンポーネント信号から検出されたデータの定常性を示す情報を決定部482に供給する。例えば、データ定常性検出部481−1は、入力画像の輝度信号を基に、データの定常性を検出し、輝度信号から検出されたデータの定常性を示す情報を決定部482に供給する。
【0677】
データ定常性検出部481−2は、入力画像の第2のコンポーネント信号を基に、データの定常性を検出し、第2のコンポーネント信号から検出されたデータの定常性を示す情報を決定部482に供給する。例えば、データ定常性検出部481−2は、入力画像の色差信号であるI信号を基に、データの定常性を検出し、I信号から検出されたデータの定常性を示す情報を決定部482に供給する。
【0678】
データ定常性検出部481−3は、入力画像の第3のコンポーネント信号を基に、データの定常性を検出し、第3のコンポーネント信号から検出されたデータの定常性を示す情報を決定部482に供給する。例えば、データ定常性検出部481−2は、入力画像の色差信号であるQ信号を基に、データの定常性を検出し、Q信号から検出されたデータの定常性を示す情報を決定部482に供給する。
【0679】
決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性を示す情報を基に、入力画像における最終的なデータの定常性を検出して、検出したデータの定常性を示すデータ定常性情報を出力する。
【0680】
例えば、決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のうち、最大のデータの定常性を最終的なデータの定常性とする。また、例えば、決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のうち、最小のデータの定常性を最終的なデータの定常性とする。
【0681】
さらに、例えば、決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性の平均値を最終的なデータの定常性とする。決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のメディアン(中央値)を最終的なデータの定常性とするようにしてもよい。
【0682】
また、例えば、決定部482は、外部から入力された信号を基に、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のうち、外部から入力された信号で指定されるデータの定常性を最終的なデータの定常性とする。決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号から検出されたデータの定常性のうち、予め定めたデータの定常性を最終的なデータの定常性とするようにしてもよい。
【0683】
なお、決定部482は、データ定常性検出部481−1乃至481−3から供給された、各コンポーネント信号のデータの定常性の検出の処理で求めた誤差を基に、最終的なデータの定常性を決定するようにしてもよい。データの定常性の検出の処理で求められる誤差については、後述する。
【0684】
図106は、入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行するデータ定常性検出部101の他の構成を示す図である。
【0685】
コンポーネント処理部491は、入力画像のコンポーネント信号を基に、1つの信号を生成し、データ定常性検出部492に供給する。例えば、コンポーネント処理部491は、入力画像の各コンポーネント信号における値を、画面上で同じ位置の画素について、加算することにより、コンポーネント信号の値の和からなる信号を生成する。
【0686】
例えば、コンポーネント処理部491は、入力画像の各コンポーネント信号における画素値を、画面上で同じ位置の画素について、平均することにより、コンポーネント信号の画素値の平均値からなる信号を生成する。
【0687】
データ定常性検出部492は、コンポーネント処理部491から供給された、信号を基に、入力画像における、データの定常性を検出し、検出したデータの定常性を示すデータ定常性情報を出力する。
【0688】
データ定常性検出部492は、上述した、または後述するデータ定常性検出部101と同様の構成を有し、コンポーネント処理部491から供給された信号を対象として、上述した、または後述する処理を実行する。
【0689】
このように、データ定常性検出部101は、コンポーネント信号を基に、入力画像のデータの定常性を検出することにより、入力画像にノイズなどが含まれていても、より正確に、データの定常性を検出することができる。例えば、データ定常性検出部101は、コンポーネント信号を基に、入力画像のデータの定常性を検出することにより、より正確に、データの定常性の角度(傾き)、混合比、またはデータの定常性を有する領域を検出することができる。
【0690】
なお、コンポーネント信号は、輝度信号および色差信号に限らず、RGB信号、またはYUV信号など他の方式のコンポーネント信号であっても良い。
【0691】
以上のように、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの、欠落した現実世界の光信号の定常性に対応するデータの定常性の、基準軸に対する角度を検出し、検出された角度に基づいて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0692】
また、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの注目している注目画素および基準軸を基準とした角度毎に、所定の数の画素からなる画素の組であって、複数の組を抽出し、角度毎に抽出された、複数の組における対応する位置の画素の画素値の相関を検出し、検出された相関に基いて、欠落した現実世界の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を検出し、検出された画像データにおける基準軸に対するデータの定常性の角度に基づいて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0693】
図107は、データ定常性検出部101のさらに他の構成を示すブロック図である。
【0694】
図107に示されるデータ定常性検出部101においては、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの注目している画素である注目画素に対応する領域が選択され、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数が設定されることにより、領域に属する画素の度数が検出され、検出された度数に基いて回帰線を検出することにより、欠落した現実世界の光信号の定常性に対応する、画像データのデータの定常性が検出される。
【0695】
フレームメモリ501は、入力画像をフレーム単位で記憶し、記憶されているフレームを構成する画素の画素値を画素取得部502に供給する。フレームメモリ501は、1つのページに入力画像の現在のフレームを記憶し、他のページに記憶している、現在のフレームに対して1つ前(過去)のフレームの画素の画素値を画素取得部502に供給し、入力画像のフレームの切り換えの時刻において、ページを切り換えることにより、画素取得部502に、動画である入力画像のフレームの画素の画素値を供給することができる。
【0696】
画素取得部502は、フレームメモリ501から供給された画素の画素値を基に、注目している画素である注目画素を選択し、選択された注目画素に対応する、所定の数の画素からなる領域を選択する。例えば、画素取得部502は、注目画素を中心とする5×5画素からなる領域を選択する。
【0697】
画素取得部502が選択する領域の大きさは、本発明を限定するものではない。
【0698】
画素取得部502は、選択した領域の画素の画素値を取得して、選択した領域の画素の画素値を度数検出部503に供給する。
【0699】
度数検出部503は、画素取得部502から供給された、選択された領域の画素の画素値を基に、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出する。度数検出部503における、相関値に基づく度数の設定の処理の詳細は、後述する。
【0700】
度数検出部503は、検出した度数を回帰直線演算部504に供給する。
【0701】
回帰直線演算部504は、度数検出部503から供給された度数に基づいて、回帰線を演算する。例えば、回帰直線演算部504は、度数検出部503から供給された度数に基づいて、回帰直線を演算する。また、例えば、回帰直線演算部504は、度数検出部503から供給された度数に基づいて、所定の曲線である回帰線を演算する。回帰直線演算部504は、演算された回帰線および演算の結果を示す演算結果パラメータを角度算出部505に供給する。演算パラメータが示す演算の結果には、後述する変動および共変動などが含まれる。
【0702】
角度算出部505は、回帰直線演算部504から供給された演算結果パラメータで示される、回帰線に基づいて、欠落した現実世界の光信号の定常性に対応する、画像データである入力画像のデータの定常性を検出する。例えば、角度算出部505は、回帰直線演算部504から供給された演算結果パラメータで示される、回帰直線に基づいて、欠落した実世界1の光信号の定常性に対応する、入力画像における、基準軸を基準としたデータの定常性の角度を検出する。角度算出部505は、力画像における、基準軸を基準としたデータの定常性の角度を示すデータ定常性情報を出力する。
【0703】
図108乃至図110を参照して、入力画像における、基準軸を基準としたデータの定常性の角度について説明する。
【0704】
図108において、丸は、1つの画素を示し、2重丸は、注目画素を示す。丸の色は、画素の画素値の概略を示し、より明るい色は、より大きい画素値を示す。例えば、黒は、30である画素値を示し、白は、120である画素値を示す。
【0705】
図108で示される画素からなる画像を人間が見た場合、画像を見た人間は、斜め右上方向に直線が伸びていると認識することができる。
【0706】
図107に構成を示すデータ定常性検出部101は、図108で示される画素からなる入力画像を入力したとき、斜め右上方向に直線が伸びていることを検出する。
【0707】
図109は、図108で示される画素の画素値を数値で表した図である。丸は、1つの画素を示し、丸の中の数値は、画素値を示す。
【0708】
例えば、注目画素の画素値は、120であり、注目画素の上側の画素の画素値は、100であり、注目画素の下側の画素の画素値は、100である。また、注目画素の左側の画素の画素値は、80であり、注目画素の右側の画素の画素値は、80である。同様に、注目画素の左下側の画素の画素値は、100であり、注目画素の右上側の画素の画素値は、100である。注目画素の左上側の画素の画素値は、30であり、注目画素の右下側の画素の画素値は、30である。
【0709】
図107に構成を示すデータ定常性検出部101は、図109で示される入力画像に対して、図110で示されるように、回帰直線Aを引く。
【0710】
図111は、入力画像における、画素の空間方向の位置に対する、画素値の変化と、回帰直線Aとの関係を示す図である。データの定常性を有する領域における画素の画素値は、例えば、図111に示すように、山脈状に変化している。
【0711】
図107に構成を示すデータ定常性検出部101は、データの定常性を有する領域における画素の画素値を重みとして、最小自乗法により回帰直線Aを引く。データ定常性検出部101により求められた回帰直線Aは、注目画素の周辺におけるデータの定常性を表現している。
【0712】
入力画像における、基準軸を基準としたデータの定常性の角度は、図112で示されるように、回帰直線Aと、例えば、基準軸である空間方向Xを示す軸との角度θを求めることにより、検出される。
【0713】
次に、図107に構成を示すデータ定常性検出部101における、回帰直線の具体的な算出方法について説明する。
【0714】
度数検出部503は、例えば、画素取得部502から供給された、注目画素を中心とする、空間方向Xに9画素、空間方向Yに5画素、計45画素からなる領域の画素の画素値から、領域に属する画素の座標に対応する度数を検出する。
【0715】
例えば、度数検出部503は、式(32)で示される演算により、度数を算出することにより、領域に属する、座標(xi,yj)の度数Li,jを検出する。
【0716】
【数23】
【0717】
式(32)において、P0,0は、注目画素の画素値を示し、Pi,jは、座標(xi,yj)の画素の画素値を示す。Thは、閾値を示す。
【0718】
iは、領域内における、空間方向Xの画素の順番を示し、1≦i≦kである。jは、領域内における、空間方向Yの画素の順番を示し、1≦j≦lである。
【0719】
kは、領域における、空間方向Xの画素の数を示し、lは、領域における、空間方向Yの画素の数を示す。例えば、領域が、空間方向Xに9画素、空間方向Yに5画素、計45画素からなるとき、Kは、9であり、lは、5である。
【0720】
図113は、画素取得部502において取得される領域の例を示す図である。図113において、点線の四角は、1つの画素を示す。
【0721】
例えば、図113で示されるように、領域が、空間方向Xについて、注目画素を中心とした9画素、空間方向Yについて、注目画素を中心とした5画素からなり、注目画素の座標(x,y)が(0,0)であるとき、領域の左上の画素の座標(x,y)は、(−4,2)であり、領域の右上の画素の座標(x,y)は、(4,2)であり、領域の左下の画素の座標(x,y)は、(−4,−2)であり、領域の右下の画素の座標(x,y)は、(4,−2)である。
【0722】
領域の左側の画素の、空間方向Xにおける、画素の順番iは、1であり、領域の右側の画素の、空間方向Xにおける、画素の順番iは、9である。領域の下側の画素の、空間方向Yにおける、画素の順番jは、1であり、領域の上側の画素の、空間方向Yにおける、画素の順番jは、5である。
【0723】
すなわち、注目画素の座標(x5,y3)を(0,0)としたとき、領域の左上の画素の座標(x1,y5)は、(−4,2)であり、領域の右上の画素の座標(x9,y5)は、(4,2)であり、領域の左下の画素の座標(x1,y1)は、(−4,−2)であり、領域の右下の画素の座標(x9,y1)は、(4,−2)である。
【0724】
度数検出部503は、式(32)において、相関値として、注目画素の画素値と、領域に属する画素の画素値との差分の絶対値を算出するので、実世界1の細線の画像が射影された、入力画像における、データの定常性を有する領域のみならず、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像が射影された、入力画像における、2値エッジのデータの定常性を有する領域における、画素値の空間的な変化の特徴を示す度数を検出することができる。
【0725】
なお、度数検出部503は、画素の画素値との差分の絶対値に限らず、相関係数など他の相関値を基に、度数を検出するようにしてもよい。
【0726】
また、式(32)において、指数関数を適用しているのは、画素値の差に対して、度数に大きく差をつけるためであり、他の関数を適用するようにしてもよい。
【0727】
閾値Thは、任意の値とすることができる。例えば、閾値Thは、30とすることができる。
【0728】
このように、度数検出部503は、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出する。
【0729】
また、例えば、度数検出部503は、式(33)で示される演算により、度数を算出することにより、領域に属する、座標(xi,yj)の度数Li,jを検出する。
【0730】
【数24】
【0731】
座標(xi,yj)における度数をLi,j(1≦i≦k,1≦j≦l)としたとき、座標xiにおける、空間方向Yの度数Li,jの和qiは、式(34)で表され、座標yjにおける、空間方向Xの度数Li,jの和hjは、式(35)で表される。
【0732】
【数25】
【0733】
【数26】
【0734】
度数の総和uは、式(36)で表される。
【0735】
【数27】
【0736】
図113で示される例において、注目画素の座標の度数L5,3は、3であり、注目画素の上側の画素の座標の度数L5,4は、1であり、注目画素の右上側の画素の座標の度数L6,4は、4であり、注目画素に対して、2画素上側であって、1画素右側の画素の座標の度数L6,5は、2であり、注目画素に対して、2画素上側であって、2画素右側の画素の座標の度数L7,5は、3である。また、注目画素の下側の画素の座標の度数L5,2は、2であり、注目画素の左側の画素の座標の度数L4,3は、1であり、注目画素の左下側の画素の座標の度数L4,2は、3であり、注目画素に対して、1画素下側であって、2画素左側の画素の座標の度数L3,2は、2であり、注目画素に対して、2画素下側であって、2画素左側の画素の座標の度数L3,1は、4である。図113で示される領域の他の画素の座標の度数は、0であり、図113において、0である度数の記載は省略する。
【0737】
図113で示される領域において、空間方向Yの度数の和q1は、iが1である度数Lが全て0なので、0であり、q2は、iが2である度数Lが全て0なので、0である。q3は、度数L3,2が2であり、度数L3,1が4なので、6である。同様に、q4は、4であり、q5は、6であり、q6は、6であり、q7は、3であり、q8は、0であり、q9は、0である。
【0738】
図113で示される領域において、空間方向Xの度数の和h1は、度数L3,1が4なので、4である。h2は、度数L3,2が2であり、度数L4,2が3であり、度数L5,2が2なので、7である。同様に、h3は、4であり、h4は、5であり、h5は、5である。
【0739】
図113で示される領域において、度数の総和uは、25である。
【0740】
空間方向Yの度数Li,jの和qiに、座標xiを乗じた結果を加算した和Txは、式(37)で表される。
【0741】
【数28】
【0742】
空間方向Xの度数Li,jの和hjに、座標yjを乗じた結果を加算した和Tyは、式(37)で表される。
【0743】
【数29】
【0744】
例えば、図113で示される領域において、q1が0であり、x1が−4なので、q1x1は0であり、q2が0であり、x2が−3なので、q2x2は0である。同様に、q3が6であり、x3が−2なので、q3x3は−12であり、q4が4であり、x4が−1なので、q4x4は、−4であり、q5が6であり、x5が0なので、q5x5は0である。同様に、q6が6であり、x6が1なので、q6x6は6であり、q7が3であり、x7が2なので、q7x7は6であり、q8が0であり、x8が3なので、q8x8は0であり、q9が0であり、x9が4なので、q9x9は0である。従って、q1x1乃至q9x9の和であるTxは、−4である。
【0745】
例えば、図113で示される領域において、h1が4であり、y1が−2なので、h1y1は−8であり、h2が7であり、y2が−1なので、h2y2は−7である。同様に、h3が4であり、y3が0なので、h3y3は0であり、h4が5であり、y4が1なので、h4y4は、5であり、h5が5であり、y5が2なので、h5y5は10である。従って、h1y1乃至h5y5の和であるTyは、0である。
【0746】
また、Qiを以下のように定義する。
【0747】
【数30】
【0748】
xの変動Sxは、式(40)で表される。
【0749】
【数31】
【0750】
yの変動Syは、式(41)で表される。
【0751】
【数32】
【0752】
共変動Sxyは、式(42)で表される。
【0753】
【数33】
【0754】
式(43)に示す1次の回帰直線を求めることを考える。
【0755】
y=ax+b ・・・(43)
【0756】
傾きaおよび切片bは、最小自乗法により、以下のように求めることができる。
【0757】
【数34】
【0758】
【数35】
【0759】
ただし、正しい回帰直線を求めるための必要条件は、度数Li,jが、回帰直線に対して、ガウス分布状に、分布していることである。逆に言えば、度数検出部503は、度数Li,jがガウス分布するように、領域の画素の画素値を度数Li,jに変換する必要がある。
【0760】
回帰直線演算部504は、式(44)および式(45)で示される演算を実行して、回帰直線を求める。
【0761】
角度算出部505は、式(46)に示す演算により、回帰直線の傾きaを、基準軸である空間方向Xの軸に対する角度θに変換する。
【0762】
θ=tan−1(a) ・・・(46)
【0763】
なお、回帰直線演算部504が所定の曲線である回帰線を演算する場合、角度算出部505は、基準軸に対する、注目画素の位置における回帰線の角度θを求める。
【0764】
ここで、画素毎にデータの定常性を検出するためには、切片bは、不要である。そこで、式(47)に示す1次の回帰直線を求めることを考える。
【0765】
y=ax ・・・(47)
【0766】
この場合、回帰直線演算部504は、最小自乗法により、傾きaを式(48)で求めることができる。
【0767】
【数36】
【0768】
図114のフローチャートを参照して、ステップS101の処理に対応する、図107で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0769】
ステップS501において、画素取得部502は、まだ注目画素とされていない画素の中から注目画素を選択する。例えば、画素取得部502は、ラスタスキャン順に、注目画素を選択する。ステップS502において、画素取得部502は、注目画素を中心とする領域に含まれる画素の画素値を取得し、取得した画素の画素値を度数検出部503に供給する。例えば、画素取得部502は、注目画素を中心とした、9×5画素からなる領域を選択し、領域に含まれる画素の画素値を取得する。
【0770】
ステップS503において、度数検出部503は、領域に含まれる画素の画素値を度数に変換することにより、度数を検出する。例えば、度数検出部503は、式(32)に示される演算により、画素値を度数Li,jに変換する。この場合において、度数Li,jがガウス分布するように、領域の画素の画素値が度数Li,jに変換される。度数検出部503は、変換された度数を回帰直線演算部504に供給する。
【0771】
ステップS504において、回帰直線演算部504は、度数検出部503から供給された度数を基に、回帰線を求める。例えば、回帰直線演算部504は、度数検出部503から供給された度数を基に、回帰直線を求める。より具体的には、回帰直線演算部504は、式(44)および式(45)で示される演算を実行して、回帰直線を求める。回帰直線演算部504は、算出された結果である回帰直線を示す演算結果パラメータを角度算出部505に供給する。
【0772】
ステップS505において、角度算出部505は、基準軸に対する回帰直線の角度を算出することにより、欠落した現実世界の光信号の定常性に対応する、画像データのデータの定常性を検出する。例えば、角度算出部505は、式(46)に示す演算により、回帰直線の傾きaを、基準軸である空間方向Xの軸に対する角度θに変換する。角度算出部505は、基準軸に対する回帰直線の角度を示すデータ定常性情報を出力する。
【0773】
なお、角度算出部505は、傾きaを示すデータ定常性情報を出力するようにしてもよい。
【0774】
ステップS506において、画素取得部502は、全ての画素の処理を終了したか否かを判定し、全ての画素の処理を終了していないと判定された場合、ステップS501に戻り、まだ注目画素として選択されていない画素から注目画素を選択して、上述した処理を繰り返す。
【0775】
ステップS506において、全ての画素の処理を終了したと判定された場合、処理は終了する。
【0776】
このように、図107に構成を示すデータ定常性検出部101は、欠落した実世界1の光信号の定常性に対応する、画像データにおける、基準軸を基準としたデータの定常性の角度を検出することができる。
【0777】
特に、図107に構成を示すデータ定常性検出部101は、比較的狭い領域の画素の画素値を基に、画素以下の角度を求めることができる。
【0778】
以上のように、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの注目している画素である注目画素に対応する領域を選択し、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出し、検出された度数に基いて回帰線を検出することにより、欠落した現実世界の光信号の定常性に対応する、画像データのデータの定常性を検出し、検出された画像データのデータの定常性に基いて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0779】
なお、図107に構成を示すデータ定常性検出部101は、注目画素の属する注目フレームと、注目フレームの時間的に前後のフレームについて、所定の領域に属する画素の画素値を度数に変換し、度数を基に、回帰平面を求めるようにすれば、空間方向のデータの定常性の角度と共に、時間方向のデータの定常性の角度を検出することができる。
【0780】
図115は、データ定常性検出部101のさらに他の構成を示すブロック図である。
【0781】
図115に示されるデータ定常性検出部101においては、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの注目している画素である注目画素に対応する領域が選択され、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数が設定されることにより、領域に属する画素の度数が検出され、検出された度数に基いて回帰線を検出することにより、欠落した現実世界の光信号の定常性に対応する、画像データにおけるデータの定常性を有する領域を検出する。
【0782】
フレームメモリ601は、入力画像をフレーム単位で記憶し、記憶されているフレームを構成する画素の画素値を画素取得部602に供給する。フレームメモリ601は、1つのページに入力画像の現在のフレームを記憶し、他のページに記憶している、現在のフレームに対して1つ前(過去)のフレームの画素の画素値を画素取得部602に供給し、入力画像のフレームの切り換えの時刻において、ページを切り換えることにより、画素取得部602に、動画である入力画像のフレームの画素の画素値を供給することができる。
【0783】
画素取得部602は、フレームメモリ601から供給された画素の画素値を基に、注目している画素である注目画素を選択し、選択された注目画素に対応する、所定の数の画素からなる領域を選択する。例えば、画素取得部602は、注目画素を中心とする5×5画素からなる領域を選択する。
【0784】
画素取得部602が選択する領域の大きさは、本発明を限定するものではない。
【0785】
画素取得部602は、選択した領域の画素の画素値を取得して、選択した領域の画素の画素値を度数検出部603に供給する。
【0786】
度数検出部603は、画素取得部602から供給された、選択された領域の画素の画素値を基に、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出する。度数検出部603における、相関値に基づく度数の設定の処理の詳細は、後述する。
【0787】
度数検出部603は、検出した度数を回帰直線演算部604に供給する。
【0788】
回帰直線演算部604は、度数検出部603から供給された度数に基づいて、回帰線を演算する。例えば、回帰直線演算部604は、度数検出部603から供給された度数に基づいて、回帰直線を演算する。また、例えば、回帰直線演算部604は、度数検出部603から供給された度数に基づいて、所定の曲線である回帰線を演算する。回帰直線演算部604は、演算された回帰線および演算の結果を示す演算結果パラメータを領域算出部605に供給する。演算パラメータが示す演算の結果には、後述する変動および共変動などが含まれる。
【0789】
領域算出部605は、回帰直線演算部604から供給された演算結果パラメータで示される、回帰線に基づいて、欠落した現実世界の光信号の定常性に対応する、画像データである入力画像においてデータの定常性を有する領域を検出する。
【0790】
図116は、入力画像における、画素の空間方向の位置に対する、画素値の変化と、回帰直線Aとの関係を示す図である。データの定常性を有する領域における画素の画素値は、例えば、図116に示すように、山脈状に変化している。
【0791】
図115に構成を示すデータ定常性検出部101は、データの定常性を有する領域における画素の画素値を重みとして、最小自乗法により回帰直線Aを引く。データ定常性検出部101により求められた回帰直線Aは、注目画素の周辺におけるデータの定常性を表現している。
【0792】
回帰直線を引くということは、ガウス関数を前提とした近似を意味する。図117に示すように、図115に構成を示すデータ定常性検出部101は、例えば、標準偏差を求めることで、細線の画像が射影された、データ3における領域の、おおよその幅を知ることができる。また、例えば、図115に構成を示すデータ定常性検出部101は、相関係数を基に、細線の画像が射影された、データ3における領域の、おおよその幅を知ることができる。
【0793】
次に、図115に構成を示すデータ定常性検出部101における、回帰直線の具体的な算出方法について説明する。
【0794】
度数検出部603は、例えば、画素取得部602から供給された、注目画素を中心とする、空間方向Xに9画素、空間方向Yに5画素、計45画素からなる領域の画素の画素値から、領域に属する画素の座標に対応する度数を検出する。
【0795】
例えば、度数検出部603は、式(49)で示される演算により、度数を算出することにより、領域に属する、座標(xi,yj)の度数Li,jを検出する。
【0796】
【数37】
【0797】
式(49)において、P0,0は、注目画素の画素値を示し、Pi,jは、座標(xi,yj)の画素の画素値を示す。Thは、閾値を示す。
【0798】
iは、領域内における、空間方向Xの画素の順番を示し、1≦i≦kである。jは、領域内における、空間方向Yの画素の順番を示し、1≦j≦lである。
【0799】
kは、領域における、空間方向Xの画素の数を示し、lは、領域における、空間方向Yの画素の数を示す。例えば、領域が、空間方向Xに9画素、空間方向Yに5画素、計45画素からなるとき、Kは、9であり、lは、5である。
【0800】
図118は、画素取得部602において取得される領域の例を示す図である。図118において、点線の四角は、1つの画素を示す。
【0801】
例えば、図118で示されるように、領域が、空間方向Xについて、注目画素を中心とした9画素、空間方向Yについて、注目画素を中心とした5画素からなり、注目画素の座標(x,y)が(0,0)であるとき、領域の左上の画素の座標(x,y)は、(−4,2)であり、領域の右上の画素の座標(x,y)は、(4,2)であり、領域の左下の画素の座標(x,y)は、(−4,−2)であり、領域の右下の画素の座標(x,y)は、(4,−2)である。
【0802】
領域の左側の画素の、空間方向Xにおける、画素の順番iは、1であり、領域の右側の画素の、空間方向Xにおける、画素の順番iは、9である。領域の下側の画素の、空間方向Yにおける、画素の順番jは、1であり、領域の上側の画素の、空間方向Yにおける、画素の順番jは、5である。
【0803】
すなわち、注目画素の座標(x5,y3)を(0,0)としたとき、領域の左上の画素の座標(x1,y5)は、(−4,2)であり、領域の右上の画素の座標(x9,y5)は、(4,2)であり、領域の左下の画素の座標(x1,y1)は、(−4,−2)であり、領域の右下の画素の座標(x9,y1)は、(4,−2)である。
【0804】
度数検出部603は、式(49)において、相関値として、注目画素の画素値と、領域に属する画素の画素値との差分の絶対値を算出するので、実世界1の細線の画像が射影された、入力画像における、データの定常性を有する領域のみならず、背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像が射影された、入力画像における、2値エッジのデータの定常性を有する領域における、画素値の空間的な変化の特徴を示す度数を検出することができる。
【0805】
なお、度数検出部603は、画素の画素値との差分の絶対値に限らず、相関係数など他の相関値を基に、度数を検出するようにしてもよい。
【0806】
また、式(49)において、指数関数を適用しているのは、画素値の差に対して、度数に大きく差をつけるためであり、他の関数を適用するようにしてもよい。
【0807】
閾値Thは、任意の値とすることができる。例えば、閾値Thは、30とすることができる。
【0808】
このように、度数検出部603は、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出する。
【0809】
また、例えば、度数検出部603は、式(50)で示される演算により、度数を算出することにより、領域に属する、座標(xi,yj)の度数Li,jを検出する。
【0810】
【数38】
【0811】
座標(xi,yj)における度数をLi,j(1≦i≦k,1≦j≦l)としたとき、座標xiにおける、空間方向Yの度数Li,jの和qiは、式(51)で表され、座標yjにおける、空間方向Xの度数Li,jの和hjは、式(52)で表される。
【0812】
【数39】
【0813】
【数40】
【0814】
度数の総和uは、式(53)で表される。
【0815】
【数41】
【0816】
図118で示される例において、注目画素の座標の度数L5,3は、3であり、注目画素の上側の画素の座標の度数L5,4は、1であり、注目画素の右上側の画素の座標の度数L6,4は、4であり、注目画素に対して、2画素上側であって、1画素右側の画素の座標の度数L6,5は、2であり、注目画素に対して、2画素上側であって、2画素右側の画素の座標の度数L7,5は、3である。また、注目画素の下側の画素の座標の度数L5,2は、2であり、注目画素の左側の画素の座標の度数L4,3は、1であり、注目画素の左下側の画素の座標の度数L4,2は、3であり、注目画素に対して、1画素下側であって、2画素左側の画素の座標の度数L3,2は、2であり、注目画素に対して、2画素下側であって、2画素左側の画素の座標の度数L3,1は、4である。図118で示される領域の他の画素の座標の度数は、0であり、図118において、0である度数の記載は省略する。
【0817】
図118で示される領域において、空間方向Yの度数の和q1は、iが1である度数Lが全て0なので、0であり、q2は、iが2である度数Lが全て0なので、0である。q3は、度数L3,2が2であり、度数L3,1が4なので、6である。同様に、q4は、4であり、q5は、6であり、q6は、6であり、q7は、3であり、q8は、0であり、q9は、0である。
【0818】
図118で示される領域において、空間方向Xの度数の和h1は、度数L3,1が4なので、4である。h2は、度数L3,2が2であり、度数L4,2が3であり、度数L5,2が2なので、7である。同様に、h3は、4であり、h4は、5であり、h5は、5である。
【0819】
図118で示される領域において、度数の総和uは、25である。
【0820】
空間方向Yの度数Li,jの和qiに、座標xiを乗じた結果を加算した和Txは、式(54)で表される。
【0821】
【数42】
【0822】
空間方向Xの度数Li,jの和hjに、座標yjを乗じた結果を加算した和Tyは、式(55)で表される。
【0823】
【数43】
【0824】
例えば、図118で示される領域において、q1が0であり、x1が−4なので、q1x1は0であり、q2が0であり、x2が−3なので、q2x2は0である。同様に、q3が6であり、x3が−2なので、q3x3は−12であり、q4が4であり、x4が−1なので、q4x4は、−4であり、q5が6であり、x5が0なので、q5x5は0である。同様に、q6が6であり、x6が1なので、q6x6は6であり、q7が3であり、x7が2なので、q7x7は6であり、q8が0であり、x8が3なので、q8x8は0であり、q9が0であり、x9が4なので、q9x9は0である。従って、q1x1乃至q9x9の和であるTxは、−4である。
【0825】
例えば、図118で示される領域において、h1が4であり、y1が−2なので、h1y1は−8であり、h2が7であり、y2が−1なので、h2y2は−7である。同様に、h3が4であり、y3が0なので、h3y3は0であり、h4が5であり、y4が1なので、h4y4は、5であり、h5が5であり、y5が2なので、h5y5は10である。従って、h1y1乃至h5y5の和であるTyは、0である。
【0826】
また、Qiを以下のように定義する。
【0827】
【数44】
【0828】
xの変動Sxは、式(57)で表される。
【0829】
【数45】
【0830】
yの変動Syは、式(58)で表される。
【0831】
【数46】
【0832】
共変動Sxyは、式(59)で表される。
【0833】
【数47】
【0834】
式(60)に示す1次の回帰直線を求めることを考える。
【0835】
y=ax+b ・・・(60)
【0836】
傾きaおよび切片bは、最小自乗法により、以下のように求めることができる。
【0837】
【数48】
【0838】
【数49】
【0839】
ただし、正しい回帰直線を求めるための必要条件は、度数Li,jが、回帰直線に対して、ガウス分布状に、分布していることである。逆に言えば、度数検出部603は、度数Li,jがガウス分布するように、領域の画素の画素値を度数Li,jに変換する必要がある。
【0840】
回帰直線演算部604は、式(61)および式(62)で示される演算を実行して、回帰直線を求める。
【0841】
また、画素毎にデータの定常性を検出するためには、切片bは、不要である。そこで、式(63)に示す1次の回帰直線を求めることを考える。
【0842】
y=ax ・・・(63)
【0843】
この場合、回帰直線演算部604は、最小自乗法により、傾きaを式(64)で求めることができる。
【0844】
【数50】
【0845】
データの定常性を有する領域を特定する第1の手法においては、式(60)に示す回帰直線の推定誤差が利用される。
【0846】
yの変動Sy・xは、式(65)で示される演算で求められる。
【0847】
【数51】
【0848】
推定誤差の分散は、変動を用いて、式(66)で示される演算で求められる。
【0849】
【数52】
【0850】
よって、標準偏差は、以下の式で導出される。
【0851】
【数53】
【0852】
ただし、標準偏差は、細線の画像が射影された領域を対象とする場合、細線の幅に値する量なので、一概に、標準偏差が大きいことをもって、データの定常を有する領域ではないという判断をすることはできない。しかしながら、例えば、クラス分類適応処理が破綻するのは、データの定常を有する領域の中でも、細線の幅が狭い部分なので、クラス分類適応処理が破綻する可能性が大きい領域を検出するために、標準偏差を用いて検出された領域を示す情報を利用することができる。
【0853】
領域算出部605は、式(67)で示される演算により、標準偏差を算出して、標準偏差を基に、入力画像における、データの定常性を有する領域を算出する。例えば、領域算出部605は、標準偏差に所定の係数を乗じて距離を求め、回帰直線から、求めた距離以内の領域を、データの定常性を有する領域とする。例えば、領域算出部605は、回帰直線を中心として、回帰直線から標準偏差以内の距離の領域を、データの定常性を有する領域として算出する。
【0854】
第2の手法においては、度数の相関をデータの定常を有する領域の検出に用いる。
【0855】
相関係数rxyは、xの変動Sx、yの変動Sy、および共変動Sxyを基に、式(68)で示される演算で求めることができる。
【0856】
【数54】
【0857】
相関には、正の相関と負の相関があるので、領域算出部605は、相関係数rxyの絶対値を求めて、相関係数rxyの絶対値が1に近いほど、相関が強いと判定する。より具体的には、領域算出部605は、閾値と、相関係数rxyの絶対値とを比較し、相関係数rxyの絶対値が閾値以上である領域を、データの定常性を有する領域として検出する。
【0858】
図119のフローチャートを参照して、ステップS101の処理に対応する、図115で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明する。
【0859】
ステップS601において、画素取得部602は、まだ注目画素とされていない画素の中から注目画素を選択する。例えば、画素取得部602は、ラスタスキャン順に、注目画素を選択する。ステップS602において、画素取得部602は、注目画素を中心とする領域に含まれる画素の画素値を取得し、取得した画素の画素値を度数検出部603に供給する。例えば、画素取得部602は、注目画素を中心とした、9×5画素からなる領域を選択し、領域に含まれる画素の画素値を取得する。
【0860】
ステップS603において、度数検出部603は、領域に含まれる画素の画素値を度数に変換することにより、度数を検出する。例えば、度数検出部603は、式(49)で示される演算により、画素値を度数Li,jに変換する。この場合において、度数Li,jがガウス分布状に分布するように、領域の画素の画素値が度数Li,jに変換される。度数検出部603は、変換された度数を回帰直線演算部604に供給する。
【0861】
ステップS604において、回帰直線演算部604は、度数検出部503から供給された度数を基に、回帰線を求める。例えば、回帰直線演算部604は、度数検出部603から供給された度数を基に、回帰直線を求める。より具体的には、回帰直線演算部604は、式(61)および式(62)で示される演算を実行して、回帰直線を求める。回帰直線演算部604は、算出された結果である回帰直線を示す演算結果パラメータを領域算出部605に供給する。
【0862】
ステップS605において、領域算出部605は、回帰直線についての標準偏差を算出する。例えば、領域算出部605は、式(67)に示す演算により、回帰直線に対する標準偏差を算出する。
【0863】
ステップS606において、領域算出部605は、標準偏差から、入力画像における、データの定常性を有する領域を特定する。例えば、領域算出部605は、標準偏差に所定の係数を乗じて距離を求め、回帰直線から、求めた距離以内の領域を、データの定常性を有する領域として特定する。
【0864】
領域算出部605は、データの定常性を有する領域を示すデータ定常性情報を出力する。
【0865】
ステップS607において、画素取得部602は、全ての画素の処理を終了したか否かを判定し、全ての画素の処理を終了していないと判定された場合、ステップS601に戻り、まだ注目画素として選択されていない画素から注目画素を選択して、上述した処理を繰り返す。
【0866】
ステップS607において、全ての画素の処理を終了したと判定された場合、処理は終了する。
【0867】
図120のフローチャートを参照して、ステップS101の処理に対応する、図115で構成が示されるデータ定常性検出部101による、データの定常性の検出の他の処理を説明する。ステップS621乃至ステップS624の処理は、ステップS601乃至ステップS604の処理と同様なので、その説明は省略する。
【0868】
ステップS625において、領域算出部605は、回帰直線についての相関係数を算出する。例えば、領域算出部605は、式(68)で示される演算により、回帰直線に対する相関係数を算出する。
【0869】
ステップS626において、領域算出部605は、相関係数から、入力画像における、データの定常性を有する領域を特定する。例えば、領域算出部605は、予め記憶している閾値と相関係数の絶対値とを比較し、相関係数の絶対値が閾値以上である領域を、データの定常性を有する領域として特定する。
【0870】
領域算出部605は、データの定常性を有する領域を示すデータ定常性情報を出力する。
【0871】
ステップS627の処理は、ステップS607の処理と同様なので、その説明は省略する。
【0872】
このように、図115に構成を示すデータ定常性検出部101は、欠落した実世界1の光信号の定常性に対応する、画像データにおける、データの定常性を有する領域を検出することができる。
【0873】
以上のように、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの注目している画素である注目画素に対応する領域を選択し、注目画素の画素値と、選択された領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数を設定することにより、領域に属する画素の度数を検出し、検出された度数に基いて回帰線を検出することにより、欠落した現実世界の光信号の定常性に対応する、画像データにおけるデータの定常性を有する領域を検出し、検出された画像データのデータの定常性に基づいて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【0874】
図121は、データ定常性検出部101のその他の実施の形態の構成を示している。
【0875】
図121のデータ定常性検出部101は、データ選択部701、データ足し込み部702、および、定常方向導出部703より構成される。
【0876】
データ選択部701は、入力画像の各画素を注目画素として、その注目画素毎に対応する画素の画素値データを選択して、データ足し込み部702に出力する。
【0877】
データ足し込み部702は、データ選択部701より入力されたデータに基づいて、最小自乗法における足し込み演算を行い、足し込み演算結果を定常方向導出部703に出力する。このデータ足し込み部702による足し込み演算とは、後述する最小自乗法の演算に用いるサメーションの項における演算であり、その演算結果は、定常性の角度を検出するための画像データの特徴であると言える。
【0878】
定常方向導出部703は、データ足し込み部702より入力された足し込み演算結果から定常方向、すなわち、データの定常性が有する基準軸からの角度(例えば、細線、または2値エッジなどの傾き、または方向)を演算し、これをデータ定常性情報として出力する。
【0879】
次に、図122を参照して、データ定常性検出部101における定常性(方向、または、角度)を検出する動作の概要について説明する。尚、図122,図123中、図6,図7における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0880】
図122で示されるように、実世界1の信号(例えば、画像)は、光学系141(例えば、レンズ、またはLPF(Low Pass Filter)などからなる)により、センサ2(例えば、CCD(Charge Coupled Device)、または、CMOS(Complementary Metal−Oxide Semiconductor)など)の受光面に結像される。センサ2は、例えば、CCDやCMOSのような積分特性を有する素子から構成される。このような構成により、センサ2から出力されるデータ3から得られる画像は、実世界1の画像とは異なる画像となる(実世界1の画像とは差が生じることになる)。
【0881】
そこで、データ定常性検出部101は、図123で示されるように、モデル705を用いて、実世界1を近似式により近似的に記述して、その近似式からデータ定常性を抽出する。モデル705は、例えば、N個の変数で表現される。より正確には、モデル705は、実世界1の信号を近似(記述)する。
【0882】
データ定常性検出部101は、モデル705を予測するために、データ3から、M個のデータ706を抽出する。その結果、モデル705は、データの定常性に拘束されることになる。
【0883】
すなわち、モデル705は、センサ2で取得されたとき、データ3においてデータのデータ定常性を生じさせる、定常性(所定の次元の方向に一定の特徴)を有する実世界1の事象(を示す情報(信号))を近似する。
【0884】
ここで、データ706の数Mが、モデル705の変数の数N以上であれば、M個のデータ706から、N個の変数で表現されるモデル705を予測することができる。
【0885】
さらに、データ定常性検出部101は、実世界1(の信号)を近似(記述)するモデル705を予測することにより、実世界1の情報である信号に含まれるデータ定常性を、例えば、細線や2値エッジの方向(傾き、または、所定の方向を軸としたときの軸とのなす角度)として導出し、データ定常性情報として出力する。
【0886】
次に、図124を参照して、入力画像より細線の方向(角度)をデータ定常性情報として出力するデータ定常性検出部101について説明する。
【0887】
データ選択部701は、水平・垂直判定部711、および、データ取得部712から構成されている。水平・垂直判定部711は、注目画素とその周辺の画素間の画素値の差分から、入力画像の細線の水平方向に対する角度が、水平方向に近い細線か、垂直方向に近い細線かを判定し、判定結果をデータ取得部712、および、データ足し込み部702にそれぞれ出力する。
【0888】
より詳細には、例えば、この手法という意味で、他の手法でもよい。例えば、簡易16方位検出手法をここで使用してもよい。図125で示されるように、水平・垂直判定部711は、注目画素と、その注目画素に隣接する画素間の差分(画素間の画素値の差分)のうち、水平方向の画素間の差分(アクティビティ)の和(hdiff)と、垂直方向の画素間の差分(アクティビティ)の和の差分(vdiff)を求めて、注目画素が垂直方向に隣接する画素間との差分の和が大きいか、または、水平方向に隣接する画素間との差分の和が大きいかを判定する。ここで、図125においては、各マス目が画素を示し、図中の中央の画素が注目画素である。また、図中の点線の矢印で示す画素間の差分が、水平方向の画素間の差分であり、その和がhdiffで示される。さらに、図中の実線の矢印で示す画素間の差分が、垂直方向の画素間の差分であり、その和がvdiffで示される。
【0889】
このように求められた水平方向の画素間の画素値の差分和hdiffと、垂直方向の画素間の画素値の差分和vdiffに基づいて、水平・垂直判定部711は、(hdiff−vdiff)が正であれば、垂直方向よりも水平方向の画素間の画素値の変化(アクティビティ)が大きいので、図126で示されるように、水平方向に対する角度がθ(0度度≦θ≦180度度)で示される場合、45度度<θ≦135度度、すなわち、垂直方向に近い角度の細線に属している画素であると判定し、逆に負であれば垂直方向の画素間の画素値の変化(アクティビティ)が大きいので、0度度≦θ<45度度、または、135度度<θ≦180度度、すなわち、水平方向に近い角度の細線に属している画素であると判定する(細線が続く方向(角度)に存在する画素は、いずれも細線を表現する画素であるので、その画素間の変化(アクティビティ)は小さくなるはずである)。
【0890】
また、水平・垂直判定部711は、入力画像の各画素を識別するカウンタ(図示せず)を備えており、適宜必要に応じて使用する。
【0891】
尚、図125においては、注目画素を中心として、3画素×3画素の範囲における垂直方向と水平方向の画素間の画素値の差分の和を比較して、細線が垂直方向に近いか、または、水平方向に近いかを判定する例について説明したが、それ以上の画素数を用いて同様の手法で細線の方向を判定するようにしてもよく、例えば、注目画素を中心として5画素×5画素や、7画素×7画素など、それ以上の画素数のブロックに基づいて判定するようにしてもよい。
【0892】
データ取得部712は、水平・垂直判定部711より入力された細線の方向の判定結果に基づいて、注目画素に対応する水平方向に並ぶ複数の画素からなるブロック単位、または、垂直方向に並ぶ複数の画素のブロック単位で画素値を読み出し(取得し)、読み出した(取得した)注目画素毎に対応する複数の画素間における、水平・垂直方向判定部711の判定結果の方向に隣接する画素間の差分データとともに、所定の画素数のブロックに含まれる画素から、画素値の最大値と最小値のデータをデータ足し込み部702に出力する。尚、以下においては、データ取得部712により、注目画素に対応して取得される複数の画素のブロックを取得ブロックと称する(取得ブロックは、例えば、後述する図139で示される複数の画素(各マス目で示される)のうち、黒線の正方形が示された画素を注目画素とするとき、その上下3画素分と、左右1画素分の合計15画素などである)。
【0893】
データ足し込み部702の差分足し込み部721は、データ選択部701より入力された差分データを検出し、データ選択部701の水平・垂直判定部711より入力される水平方向、または、垂直方向の判定結果に基づいて、後述する最小自乗法の解法に必要な足し込み処理を実行し、その足し込み結果を定常方向導出部703に出力する。より具体的には、複数の画素のうち水平・垂直判定部711による判定方向に隣接する画素iと画素(i+1)の画素間の画素値の差分データをyiとし、注目画素に対応する取得ブロックがn個の画素から構成された場合、差分足し込み部721は、水平方向、または、垂直方向毎に(y1)2+(y2)2+(y3)2+・・・を足し込んで演算し、定常方向導出部703に出力する。
【0894】
MaxMin取得部722は、データ選択部701より入力される注目画素に対応する取得ブロックに含まれる各画素毎に設定されるブロック(以下、ダイナミックレンジブロックと称する(ダイナミックレンジブロックは、後述する図139で示される取得ブロックの画素のうち、例えば、画素pix12について、黒の実線で囲まれている、ダイナミックレンジブロックB1で示される、画素pix12の上下3画素分の合計7画素などである))に含まれる画素の画素値の最大値と最小値を取得すると、その差分からダイナミックレンジDri(取得ブロック内のi番目の画素に対応する、ダイナミックレンジブロックに含まれる画素の画素値の最大値と最小値の差分)を演算(検出)して、差分足し込み部723に出力する。
【0895】
差分足し込み部723は、MaxMin取得部722より入力されたダイナミックレンジDriと、データ選択部701より入力された差分データを検出し、検出したダイナミックレンジDriと差分データに基づいて、データ選択部701の水平・垂直判定部711より入力される水平方向、または、垂直方向毎に、ダイナミックレンジDriと差分データyiを乗じた値を足し込んで、演算結果を定常方向導出部703に出力する。すなわち、差分足し込み部723が出力する演算結果は、水平方向、または、垂直方向毎にy1×Dr1+y2×Dr2+y3×Dr3+・・・となる。
【0896】
定常方向導出部703の定常方向演算部731は、データ足し込み部702より入力されてくる、水平方向、または、垂直方向毎の足し込み演算結果に基づいて、細線の角度(方向)を演算し、演算された角度を定常性情報として出力する。
【0897】
ここで、細線の方向(細線の傾き、または、角度)の演算方法について説明する。
【0898】
図127Aで示されるような入力画像中の白線により囲まれる部分を拡大すると、細線(図中、右上がりで、かつ斜め方向の白線)は、実際には、図127Bで示されるように表示されている。すなわち、現実世界においては、図127Cで示されるように、画像は、細線のレベル(図127C中では濃度の薄い斜線部)と背景レベルの2種類のレベルが境界を形成し、その他のレベルが存在しない状態となる。これに対して、センサ2により撮像された画像、すなわち、画素単位で撮像された画像は、図127Bで示されるように、その積分効果により背景レベルと細線レベルとが空間的に混合した画素が、その比率(混合比)を一定のパターンで変化するように縦方向に配置された複数の画素からなるブロックが細線方向に繰り返して配置されたような画像となる。尚、図127Bにおいて、各正方形状のマス目は、CCDの1画素を示し、各辺の長さをd_CCDであるものとする。また、マス目は、格子状に塗りつぶされた部分が背景のレベルに相当する画素値の最小値であり、その他の斜線状に塗りつぶされた部分は、斜線の密度が低くなるに連れて画素値が高くなるものとする(従って、斜線のない白色のマス目が画素値の最大値となる)。
【0899】
図128Aで示されるように、現実世界の背景上に細線が存在する場合、現実世界の画像は、図128Bで示されるように、横軸にレベル、縦軸にそのレベルに対応する部分の画像上の面積を示すと、画像中の背景に相当する面積と、細線に相当する部分の面積との、画像上における占有面積の関係が示される。
【0900】
同様にして、センサ2で撮像された画像は、図129Aで示されるように、背景レベルの画素の中に、縦に並んだ背景レベルと細線レベルとが混合した画素が、その混合比を所定のパターンで変化させながら縦方向に配置されたブロックが、細線の存在する方向に繰り返して配置されたような画像となるため、図129Bで示すように、背景のレベルとなる領域(背景領域)と、細線のレベルの中間のレベルをとる、背景と細線が空間的に混合した結果生じる画素からなる空間混合領域が存在する。ここで、図129Bにおいて縦軸は、画素数であるが、1画素の面積は(d_CCD)2となるため、図129Bの画素値のレベルと画素数の関係は、画素値のレベルと面積の分布の関係と同様であるといえる。
【0901】
これは、図130Aの実際の画像中の白線で囲まれる部分(31画素×31画素の画像)においても、図130Bで示されるように同様の結果が得られる。すなわち、図130Aで示される背景部分(図130A中では、黒色に見える部分)は、図130Bで示されるように、画素値レベルの低い(画素値が20付近の)画素が多く分布しており、これらの変化の少ない部分が、背景領域の画像を形成する。これに対して、図130Bの画素値レベルが低くない部分、すなわち、画素値レベルが40付近乃至160付近に分布する画素は、細線の画像を形成する、空間混合領域に属する画素であり、各画素値毎の画素数は少ないが、広い画素値の範囲に分布している。
【0902】
ところで、現実世界の画像における背景と細線のそれぞれのレベルは、例えば、図131Aで示される矢印方向(Y座標方向)に見ると、図131Bで示されるように変化することになる。すなわち、矢印の起点から細線までの背景領域では、比較的レベルの低い背景レベルとなり、細線の領域では、レベルの高い細線のレベルとなり、細線領域を通過して再び背景領域に戻ると、レベルの低い背景のレベルとなる。結果として、細線領域のみが高いレベルとなるパルス状の波形となる。
【0903】
これに対して、センサ2で撮像された画像のうち、図131A中の矢印の向きに対応する、図132Aの空間方向X=X1上の画素(図132Aにおいては、黒丸で示されている画素)の画素値と、その画素の空間方向Yの関係は、図132Bに示されるようになる。尚、図132Aにおいて、右上がりの2本の白線の間が、現実世界の画像上における細線を示している。
【0904】
すなわち、図132Bで示されるように、図132A中の中央の画素に対応する画素が最も高い画素値をとるため、各画素の画素値は、空間方向Yの位置が、図中の下部から中央の画素に向かうに連れて高くなり、中央の位置を通過すると、徐々に減少することになる。結果として、図132Bで示すように、山型の波形が形成される。また、図132Aの空間方向X=X0,X2に対応する各画素の画素値の変化は、空間方向Yのピーク位置が、細線の傾きに応じてずれるものの、同様の外形となる。
【0905】
例えば、図133Aで示されるような、実際にセンサ2により撮像された画像における場合においても、図133Bで示されるように、同様の結果が得られる。すなわち、図133Bは、図133Aの画像中の白線で囲まれる範囲の細線付近の画素値を所定の空間方向X(図中では、X=561,562,563)毎の、空間方向Yに対応した画素値の変化を示している。このように、実際のセンサ2により撮像された画像においても、X=561においては、Y=730付近で、X=562においては、Y=705付近で、X=563においては、Y=685付近で、それぞれピークとなる山型の波形となっている。
【0906】
このように、現実世界の画像の細線付近のレベルの変化を示す波形はパルス状の波形となるのに対して、センサ2により撮像された画像の画素値の変化を示す波形は山型の波形となる。
【0907】
すなわち、換言すれば、現実世界の画像のレベルは、図131Bで示されるような波形になるべきところが、センサ2により撮像されることにより、撮像された画像は、図132Bで示されるように、その変化に歪が生じて、現実世界の画像とは異なる(現実世界の情報が欠落した)波形に変化していると言える。
【0908】
そこで、このセンサ2により撮像された画像から、現実世界の画像の定常性情報を取得するため、センサ2より取得された画像のデータから現実世界を近似的に記述するためのモデル(図123のモデル705に相当する)を設定する。例えば、細線の場合、図134で示されるように、現実世界の画像を設定する。すなわち、図中左部の背景部分のレベルをB1、図中右側の背景部分のレベルをB2、細線部分のレベルをL、細線の混合比をα、細線の幅をW、細線の水平方向に対する角度をθとしてパラメータを設定し、モデル化して、現実世界を近似的に表現する関数を設定し、各パラメータを求めることにより現実世界を近似的に表現する近似関数を求め、その近似関数から細線の方向(傾き、または、基準軸に対する角度)を求める。
【0909】
このとき、背景領域は、左部、および、右部は、同一であるものとして近似することができるので、図135で示されるように、統一してB(=B1=B2)とする。また、細線の幅を1画素以上であるものとする。このように設定された現実世界をセンサ2で撮像するとき、撮像された画像は、図136Aで示されるように撮像されることになる。尚、図136Aにおいて、右上がりの2本の白線の間が、現実世界の画像上における細線を示している。
【0910】
すなわち、現実世界の細線上の位置に存在する画素は、細線のレベルに最も近いレベルとなり、垂直方向(空間方向Yの方向)に対して細線から離れるに従って画素値が減少し、細線領域に接することのない位置に存在する画素の画素値、すなわち、背景領域の画素は、背景レベルの画素値となる。このとき、細線領域と背景領域に跨る位置に存在する画素の画素値は、背景レベルの画素値Bと、細線レベルの画素値Lが、混合比αで混合された画素値となっている。
【0911】
このように、撮像された画像の各画素を注目画素とした場合、データ取得部712は、その注目画素に対応する取得ブロックの画素を抽出し、その抽出した取得ブロックを構成する画素毎に、ダイナミックレンジブロックを抽出し、そのダイナミックレンジブロックを構成する画素のうちの最大値となる画素値をとる画素と、最小値となる画素値をとる画素とを抽出する。すなわち、図136Aで示すように、取得ブロック中の所定の画素(図中の1マスの中に黒の実線で正方形が記述された画素pix4)に対応したダイナミックレンジブロックの画素(例えば、図中の黒の実線で囲まれた画素pix1乃至7の7画素))が抽出された場合、その各画素に対応する現実世界の画像は、図136Bで示されるようになる。
【0912】
すなわち、図136Bで示されるように、画素pix1は、左部の略1/8の面積を占める部分が背景領域となり、右部の略7/8の面積を占める部分が細線領域となる。画素pix2は、略全領域が細線領域となる。画素pix3は、左部の略7/8の面積を占める部分が細線領域となり、右部1/8の面積を占める部分が細線領域となる。画素pix4は、左部の略2/3の面積を占める部分が細線領域となり、右部の略1/3の面積を占める部分が背景領域となる。画素pix5は、左部の略1/3の面積を占める部分が細線領域となり、右部の略2/3の面積を占める部分が背景領域となる。画素pix6は、左部の略1/8の面積を占める部分が細線領域となり、右部の略7/8の面積を占める部分が背景領域となる。さらに、画素pix7は、全体が背景領域となる。
【0913】
結果として、図136で示されるダイナミックレンジブロックの各画素pix1乃至7の画素値は、細線領域と背景領域の面積の比率に対応した混合比で、背景レベルと細線レベルが混合された画素値となる。すなわち、背景レベル:前景レベルの混合比は、画素pix1が略1:7、画素pix2が略0:1、画素pix3が略1:7、画素pix4が略1:2、画素pix5が略2:1、画素pix6が略7:1、および、画素pix7が略1:0となる。
【0914】
従って、抽出されたダイナミックレンジブロックの画素pix1乃至7の各画素の画素値は、画素pix2が最も高く、次いで画素pix1,3が続き、以下画素値が高い順に画素pix4,5,6,7となる。従って、図136Bで示される場合、最大値は、画素pix2の画素値であり、最小値は、画素pix7の画素値となる。
【0915】
また、図137Aで示されるように、細線の方向は、画素値の最大値をとる画素が連続する方向であると言えるので、この最大値をとる画素が配置された方向が細線の方向となる。
【0916】
ここで、細線の方向を示す傾きGflは、空間方向Xの単位距離に対する、空間方向Yへの変化(距離の変化)の比であるので、図137Aで示されるような場合、図中の空間方向Xへの1画素の距離に対する、空間方向Yの距離が傾きGflとなる。
【0917】
空間方向X0乃至X2の各々の空間方向Yに対する画素値の変化は、図137Bで示されるように、各空間方向X毎に所定の間隔で山型の波形が繰り返されることになる。上述のように、センサ2により撮像された画像において、細線は、最大値をとる画素が連続する方向であるので、各空間方向Xの最大値となる空間方向Yの間隔Sが、細線の傾きGflとなる。すなわち、図137Cで示されるように、水平方向に1画素の距離に対する垂直方向の変化量が傾きGflとなる。従って、この細線の傾きGfl(水平方向を基準軸としたときの角度に対応する)は、図137Cで示すように、その傾きに対応する水平方向を基準軸とした細線の角度をθとして表現する場合、以下の式(69)で示される関係が成立することになる。
【0918】
θ=Tan−1(Gfl)(=Tan−1(S))・・・(69)
【0919】
また、図135で示されるようなモデルを設定し、さらに、空間方向Yの画素と画素値の関係が、図137Bで示される山型の波形が、完全な三角波形(立ち上がり、または、立下りが直線的に変化する、二等辺三角形状の波形)であると仮定する場合、図138で示すように、所定の注目画素の空間方向Xにおける、空間方向Y上に存在する各画素の画素値の最大値をMax=L(ここでは、現実世界の細線のレベルに対応する画素値)、最小値をMin=B(ここでは、現実世界の背景のレベルに対応する画素値)とするとき、以下の式(70)で示される関係が成立する。
【0920】
L−B=Gfl×d_y・・・(70)
【0921】
ここで、d_yは、空間方向Yの画素間の画素値の差分を示す。
【0922】
すなわち、空間方向の傾きGflは、大きいほど細線がより垂直なものに近づくため、山型の波形は、底辺の大きな二等辺三角形状の波形となり、逆に、傾きSが小さいほど底辺の小さな二等辺三角形状の波形となる。この結果、傾きGflが大きいほど、空間方向Yの画素間の画素値の差分d_yは小さく、傾きSが小さいほど、空間方向Yの画素間の画素値の差分d_yは大きくなる。
【0923】
そこで、上述の式(70)の関係が成立する傾きGflを求めることにより、細線の基準軸に対する角度θを求めることが可能となる。式(70)は、傾きGflを変数とする1変数の関数であるため、注目画素について、周辺の画素間の画素値の(垂直方向の)差分d_y、並びに、最大値、および、最小値の差分(L−B)を1組用いれば求めることが可能であるが、上述のように、空間方向Yの画素値の変化が完全な三角波形であることを前提とした近似式を用いたものであるので、注目画素に対応する抽出ブロックの各画素についてダイナミックレンジブロックを抽出し、さらに、その最大値と最小値からダイナミックレンジDrを求めるとともに、抽出ブロックの各画素毎の空間方向Yの画素間の画素値の差分d_yを用いて、最小自乗法により統計的に求める。
【0924】
ここで、最小自乗法による統計的な処理の説明にあたり、まず、抽出ブロック、および、ダイナミックレンジブロックについて、詳細を説明する。
【0925】
抽出ブロックは、例えば、図139で示すように、注目画素(図中の黒の実線で正方形が描かれているマス目の画素)の、空間方向Yについて上下3画素分、空間方向Xについて、左右1画素分の合計15画素などでもよい。また、この場合、抽出ブロックの各画素の画素間の画素値の差分d_yは、例えば、画素pix11に対応する差分がd_y11で示されるとき、空間方向X=X0の場合、画素pix11とpix12、pix12とpix13、pix13とpix14、pix15とpix16、pix16とpix17の画素間の画素値の差分d_y11乃至d_y16が得られることになる。このとき、空間方向X=X1,X2についても、同様にして画素間の画素値の差分が得られる。結果として、この場合、画素間の画素値の差分d_yは、18個存在することになる。
【0926】
さらに、抽出ブロックの各画素について、ダイナミックレンジブロックの画素が、例えば、画素pix11については、水平・垂直判定部711の判定結果に基づいて、今の場合、垂直方向であると判定されるので、図139で示されるように、画素pix11を含めて、垂直方向(空間方向Y)の上下方向にそれぞれ3画素分のダイナミックレンジブロックB1の範囲の7画素であるものとすると、このダイナミックレンジブロックB1の画素の画素値の最大値と最小値を求め、さらに、この最大値と最小値から得られるダイナミックレンジをダイナミックレンジDr11とする。同様にして、抽出ブロックの画素pix12については、図139中のダイナミックレンジブロックB2の7画素から同様にしてダイナミックレンジDr12を求める。このようにして、抽出ブロック内の18個の画素間差分d_yiと、対応するダイナミックレンジDriとの組み合わせに基づいて、最小自乗法を用いて統計的に傾きGflが求められる。
【0927】
次に、1変数の最小自乗法の解法について説明する。尚、ここでは、水平・垂直判定部711の判定結果が垂直方向であったものとする。
【0928】
1変数の最小自乗法による解法は、例えば、図140で示される黒点で示される全ての実測値に対しての距離を最小とする、予測値Dri_cからなる直線の傾きGflを求めるものである。そこで、上述の式(70)で示される関係から以下のような手法により、傾きSが求められる。
【0929】
すなわち、上述の式(70)は、最大値と最小値の差分をダイナミックレンジDrとするとき、以下の式(71)で示すように記述される。
【0930】
Dr=Gfl×d_y・・・(71)
【0931】
上述の式(71)に、抽出ブロックの各画素間についての差分d_yiを代入することによりダイナミックレンジDri_cが求められることになる。従って、各画素について、以下の式(72)の関係が満たされることになる。
【0932】
Dri_c=Gfl×d_yi・・・(72)
【0933】
ここで、差分d_yiは、各画素iの空間方向Yの画素間の画素値の差分(例えば、画素iに対して、上方向、または、下方向に隣接した画素との画素間の画素値の差分であり、Dri_cは、画素iについて式(70)が成立するときに得られるダイナミックレンジである。
【0934】
上述のように、ここでいう最小自乗法は、抽出ブロックの画素iのダイナミックレンジDri_cと、図136を参照して説明した方法で得られる、画素iの実測値となるダイナミックレンジDri_rとの差分自乗和Qが、画像内のすべての画素において最小となるときの傾きGflを求める方法である。従って、差分自乗和Qは以下の式(73)により求められることになる。
【0935】
【数55】
【0936】
式(73)で示される差分自乗和Qは、2次関数であるので、変数Gfl(傾きGfl)について図141で示すような下に凸の曲線となるため、傾きGflが最小となるGflminが最小自乗法の解となる。
【0937】
式(73)で示される差分自乗和Qは、変数Gflで微分されると、以下に示す式(74)で示されるdQ/dGflとなる。
【0938】
【数56】
【0939】
式(74)が、0となるGflが図141で示す差分自乗和Qの最小値をとるGflminとなるので、式(74)が0となるときの式を展開することにより、以下の式(75)で傾きGflが求められることになる。
【0940】
【数57】
【0941】
上述の式(75)は、いわゆる、1変数(傾きGfl)の正規方程式となる。
【0942】
このようにして、得られた傾きGflを上述の式(69)に代入することにより、細線の傾きGflに対応する、水平方向を基準軸としたときの細線の角度θを得ることができる。
【0943】
尚、以上の説明においては、注目画素が、水平方向を基準軸としたときの角度θが45度度≦θ<135度度の範囲となる細線上の画素である場合の例について説明してきたが、例えば、注目画素が、水平方向を基準軸に対する細線の角度θが0度度≦θ<45度度、または、135度度≦θ<108度度となる、水平方向に近い細線上の画素である場合、画素iに隣接する画素間の画素値の差分は、水平方向に隣接する画素間の画素値の差分d_xiとなり、同様に、画素iに対応する複数の画素から画素値の最大値、または、最小値を求める際に、抽出するダイナミックレンジブロックの画素についても、画素iに対して水平方向に存在する複数の画素のうちから選択されることになる。この場合の処理については、上述の説明における水平方向と垂直方向の関係が入れ替わるのみであるので、その説明は省略する。
【0944】
また、同様の手法により、2値エッジの傾きに対応する角度を求めることも可能である。
【0945】
すなわち、図142Aで示されるような入力画像中の白線により囲まれる部分を拡大すると、画像中のエッジ部分(図中、黒地の旗に描かれた「十」という白で描かれた文字の下の部分)(以下、このように、2値のレベルからなる画像上のエッジ部分を2値エッジとも称する)は、実際には、図142Bで示されるように表示されている。すなわち、現実世界においては、図142Cで示されるように、画像では、第1のレベル(旗の地のレベル)と、第2のレベル(文字のレベル(図142C中では濃度の薄い斜線部))との2種類のレベルからなる境界が形成されており、その他のレベルが存在しない。これに対して、センサ2により撮像された画像、すなわち、画素単位で撮像された画像は、図142Bで示されるように、第1のレベルと第2のレベルとが空間的に混合した画素が、その比率(混合比)を一定のパターンで変化するように縦方向に配置された複数の画素からなるブロックがエッジが構成されている方向に繰り返して配置されたような領域を境とした第1のレベルの画素が配置される部分と、第2のレベルの画素が配置される部分とが存在する画像となる。
【0946】
すなわち、図143Aで示されるように、空間方向X=X0,X1,X2について、それぞれの空間方向Yへの画素値の変化は、図143B中では、各画素値は、図中の下から2値エッジ(図143A中の右上がりの直線)の境界手前付近までは、所定の最小値の画素値になっているが、2値エッジの境界手前付近で、画素値が徐々に増大し、エッジを越えると図中の点PEにおいて、画素値が所定の最大値となる。より詳細には、空間方向X=X0の変化は、図143Bで示されるように、画素値の最小値となる点PSを通過した後、徐々に画素値が増大し、画素値の最大値となる点P0となる。これに対して、空間方向X=X1に対応する各画素の画素値の変化は、空間方向にずれた波形となるため、図143Bで示されるように、画素値の最小値から徐々に画素値が増大する位置が空間方向Yの正方向にずれて、図中の点P1を経由して、画素値の最大値にまで増大する。さらに、空間方向X=X2における空間方向Yの画素値の変化は、空間方向Yの正の方向にさらにずれ込んだ図中の点P2を経由して減少し、画素値の最大値から最小値となる。
【0947】
これは、実際の画像中の白線で囲まれる部分においても、同様の傾向が見られる。すなわち、図144Aの実際の画像中の白線で囲まれる部分(31画素×31画素の画像)において、背景部分(図144A中では、黒色に見える部分)は、図144Bで示されるように、画素値の低い(画素値が90付近の)画素数が多く分布しており、これらの変化の少ない部分が、背景領域の画像を形成する。これに対して、図144Bの画素値が低くない部分、すなわち、画素値が100付近乃至200付近に分布する画素は、文字領域と背景領域との空間混合領域に属する画素の分布であり、各画素値毎の画素数は少ないが、広い画素値の範囲に分布している。さらに、画素値の高い文字領域(図144A中では、白色に見える部分)の画素が、220で示される画素値の付近に多く分布している。
【0948】
この結果、図145Aで示されるエッジ画像における所定の空間方向Xに対する、空間方向Yの画素値の変化は、図145Bで示されるようになものとなる。
【0949】
すなわち、図145Bは、図145Aの画像中の白線で囲まれる範囲のエッジ付近の画素値を所定の空間方向X(図中では、X=658,659,660)毎の、空間方向Yに対応した画素値の変化を示している。このように、実際のセンサ2により撮像された画像においても、X=658において、画素値は、Y=374付近で増大を開始し(図中、黒丸で示される分布)、X=382付近で最大画素値に到達する。また、X=659においては、空間方向Yに対して正方向にずれ込んで、画素値は、Y=378付近で増大を開始し(図中、黒三角で示される分布)、X=386付近で最大画素値に到達する。さらに、X=660においては、空間方向Yに対して、さらに、正方向にずれ込んで、画素値は、Y=382付近で増大を開始し(図中、黒四角で示される分布)、X=390付近で最大画素値に到達する。
【0950】
そこで、このセンサ2により撮像された画像から、現実世界の画像の定常性情報を取得するため、センサ2より取得された画像のデータから現実世界を近似的に記述するためのモデルを設定する。例えば、2値エッジの場合、図146で示すように、現実世界の画像を設定する。すなわち、図中左部の背景部分のレベルをV1、図中右側の文字部分のレベルをV2、2値エッジ付近の画素間の混合比をα、エッジの水平方向に対する角度をθとしてパラメータを設定し、モデル化して、現実世界を近似的に表現する関数を設定し、各パラメータを求めることにより現実世界を近似的に表現する関数を求め、その近似関数からエッジの方向(傾き、または、基準軸に対する角度)を求める。
【0951】
ここで、エッジの方向を示す傾きは、空間方向Xの単位距離に対する、空間方向Yへの変化(距離の変化)の比であるので、図147Aで示されるような場合、図中の空間方向Xへの1画素の距離に対する、空間方向Yの距離が傾きとなる。
【0952】
空間方向X0乃至X2の各々の空間方向Yに対する画素値の変化は、図147Bで示されるように、各空間方向X毎に所定の間隔で同様の波形が繰り返されることになる。上述のように、センサ2により撮像された画像において、エッジは、類似した画素値の変化(今の場合、最小値から最大値へと変化する、所定の空間方向Y上の画素値の変化)が空間的に連続する方向であるので、各空間方向Xにおいて、空間方向Yの画素値の変化が開始される位置、または、変化が終了する位置となる空間方向Yの間隔Sが、エッジの傾きGfeとなる。すなわち、図147Cで示されるように、水平方向に1画素の距離に対する垂直方向の変化量が傾きGfeとなる。
【0953】
ところで、この関係は、図137A乃至Cを参照して上述した細線の傾きGflにおける関係と同様である。従って、その関係式についても、同様のものとなる。すなわち、2値エッジにおける場合の関係式は、図148で示すものとなり、背景領域の画素値をV1、文字領域の画素値をV2、それぞれは最小値、および、最大値となる。また、エッジ付近の画素の混合比をαとし、エッジの傾きをGfeとおけば、成立する関係式は、上述の式(69)乃至式(71)と同様となる(ただし、Gflは、Gfeに置き換えられる)。
【0954】
このため、図124で示されるデータ定常性検出部101は、同様の処理により、細線の傾きに対応する角度、および、エッジの傾きに対応する角度を、データ定常性情報として検出することができる。そこで、以下においては、傾きは、細線の傾きと、2値エッジの傾きとを総称して、傾きGfと称する。また、上述の式(73)乃至式(75)の式における傾きGflは、Gfeであってもよいものであり、結果として、傾きGfと置き換えて考えるものとする。
【0955】
次に、図149のフローチャートを参照して、データ定常性の検出の処理を説明する。
【0956】
ステップS701において、水平・垂直判定部711は、入力画像の各画素を識別するカウンタTを初期化する。
【0957】
ステップS702において、水平・垂直判定部711は、後段の処理に必要なデータの抽出処理を実行する。
【0958】
ここで、図150のフローチャートを参照して、データを抽出する処理について説明する。
【0959】
ステップS711において、データ選択部701の水平・垂直判定部711は、各注目画素Tについて、図125を参照して説明したように、水平方向、垂直方向、および対角方向に隣接する9画素の水平方向に隣接する画素間の画素値の差分(アクティビティ)の和hdiffと、垂直方向に隣接する画素間の画素値の差分(アクティビティ)の和vdiffとを演算し、さらに、その差分(hdiff−vdiff)を求め、差分(hdiff−vdiff)≧0の場合、その注目画素Tが、水平方向を基準軸としたとき、その基準軸との角度θが45度度≦θ<135度度となる、垂直方向に近い細線、または、2値エッジ付近の画素であるものとみなし、使用する抽出ブロックを垂直方向に対応したものとする判定結果をデータ取得部712、および、データ足し込み部702に出力する。
【0960】
一方、差分(hdiff−vdiff)<0の場合、水平・垂直判定部711は、その注目画素が、水平方向を基準軸にしたとき、その基準軸との細線、または、2値エッジのなす角度θが0度度≦θ<45度度、または、135度度≦θ<180度度となる、水平方向に近い細線、または、エッジ付近の画素であるものとみなし、使用する抽出ブロックを水平方向に対応したものとする判定結果をデータ取得部712、および、データ足し込み部702に出力する。
【0961】
すなわち、細線、または、2値エッジの傾きが垂直方向に近いと言うことは、例えば、図131Aで示されているように、図中の矢印が細線と交差する部分が増えることになるため、垂直方向の画素数を多めにした抽出ブロックを設定する(縦長な抽出ブロックを設定する)。同様にして、細線の傾きが水平方向に近い場合についても、水平方向の画素数を多めにした抽出ブロックを設定するようにする(横長な抽出ブロックを設定する)。このようにすることにより、不要な計算量を増やすことなく、正確な最大値と最小値の演算が可能となる。
【0962】
ステップS712において、データ取得部712は、注目画素について水平・垂直判定部711より入力される水平方向、または、垂直方向の判定結果に対応した抽出ブロックの画素を抽出する。すなわち、例えば、図139で示されるように、注目画素を中心として、(水平方向に3画素)×(垂直方向に7画素)の合計21画素を抽出ブロックとして抽出し、記憶する。
【0963】
ステップS713において、データ取得部712は、抽出ブロックの各画素について、水平・垂直判定部711の判定結果に対応した方向に対応するダイナミックレンジブロックの画素を抽出し、記憶する。すなわち、図139を参照して、上述したように、例えば、抽出ブロックの画素pix11については、今の場合、水平・垂直判定部711の判定結果が垂直方向になるので、データ取得部712は、垂直方向に、ダイナミックレンジブロックB1を、同様にして、画素pix12は、ダイナミックレンジブロックB2を抽出する。その他の抽出ブロックについても同様にしてダイナミックレンジブロックが抽出される。
【0964】
すなわち、このデータ抽出処理により、所定の注目画素Tについて、正規方程式の演算に必要な画素の情報がデータ取得部712に蓄えられることになる(処理される領域が選択されることになる)。
【0965】
ここで、図149のフローチャートの説明に戻る。
【0966】
ステップS703において、データ足し込み部702は、正規方程式(ここでは、式(74))の演算の各項に必要な値の足し込み処理を実行する。
【0967】
ここで、図24のフローチャートを参照して、正規方程式への足し込み処理について説明する。
【0968】
ステップS721において、差分足し込み部721は、データ選択部701の水平・垂直判定部711の判定結果に応じて、データ取得部712に記憶されている抽出ブロックの画素間の画素値の差分を求め(検出し)、さらに、2乗(自乗)して足し込む。すなわち、水平・垂直判定部711の判定結果が垂直方向である場合、差分足し込み部721は、抽出ブロックの各画素について垂直方向に隣接する画素間の画素値の差分を求めて、さらに2乗して足し込む。同様にして、水平・垂直判定部711の判定結果が水平方向である場合、差分足し込み部721は、抽出ブロックの各画素について水平方向に隣接する画素間の画素値の差分を求めて、さらに2乗して足し込む。結果として、差分足し込み部721は、上述の式(75)の分母となる項の差分の自乗和を生成し、記憶する。
【0969】
ステップS722において、MaxMin取得部722は、データ取得部712に記憶されたダイナミックレンジブロックに含まれる画素の画素値の最大値と最小値を取得し、ステップS723において、その最大値と最小値との差分からダイナミックレンジを求め(検出し)、差分足し込み部723に出力する。すなわち、図136Bで示されているような、画素pix1乃至7からなる7画素のダイナミックレンジブロックの場合、pix2の画素値が最大値として検出され、pix7の画素が最小値として検出され、これらの差分がダイナミックレンジとして求められる。
【0970】
ステップS724において、差分足し込み部723は、データ取得部712に記憶されている抽出ブロックの画素間のうち、データ選択部701の水平・垂直判定部711の判定結果に対応する方向に隣接する画素間の画素値の差分を求め(検出し)、MaxMin取得部722より入力されたダイナミックレンジを乗じた値を足し込む。すなわち、差分足し込み部721は、上述の式(75)の分子となる項の和を生成し、記憶する。
【0971】
ここで、図149のフローチャートの説明に戻る。
【0972】
ステップS704において、差分足し込み部721は、抽出ブロックの全ての画素の画素間の画素値の差分(水平・垂直判定部711の判定結果に対応する方向に隣接する画素間の画素値の差分)を足し込んだか否かを判定し、例えば、抽出ブロックの全ての画素の画素間の差分を足し込んでいないと判定した場合、その処理は、ステップS702に戻り、それ以降の処理が繰り返される。すなわち、抽出ブロックの全ての画素の画素間の画素値の差分が足し込まれたと判定されるまで、ステップS702乃至S704の処理が繰り返される。
【0973】
ステップS704において、抽出ブロックの全ての画素の画素間の画素値の差分が足し込まれたと判定された場合、ステップS705にいて、差分足し込み部721,723は、自らで記憶している足し込み結果を定常方向導出部703に出力する。
【0974】
ステップS706において、定常方向演算部731は、データ足し込み部702の差分足し込み部721より入力された、取得ブロックの各画素間のうち、水平・垂直判定部711により判定された方向に隣接する画素間の画素値の差分の自乗和、差分足し込み部723より入力された、取得ブロックの各画素間のうち、水平・垂直判定部711により判定された方向に隣接する画素間の画素値の差分、および、取得ブロックの各画素に対応するダイナミックレンジとの積の和に基づいて、上述の式(75)で示した正規方程式を解くことにより、最小自乗法を用いて統計的に注目画素のデータ定常性情報である、定常性の方向を示す角度(細線、または、2値エッジの傾きを示す角度)を演算し、出力する。
【0975】
ステップS707において、データ取得部712は、入力画像の全ての画素について処理が行われたか否かを判定し、例えば、入力画像の全ての画素について処理が行われていない、すなわち、入力画像の全ての画素について、細線、または、2値エッジの角度の情報を出力していないと判定した場合、ステップS708において、カウンタTを1インクリメントして、その処理は、ステップS702に戻る。すなわち、入力画像のうちの処理しようとする画素が変更されて、入力画像の全ての画素について処理がなされるまで、ステップS702乃至S708の処理が繰り返されることになる。このカウンタTによる画素の変化は、例えば、ラスタスキャンなどであってもよいし、それ以外の規則により順次変化していくものであってもよい。
【0976】
ステップS707において、入力画像の全ての画素について処理がなされたと判定された場合、ステップS709において、データ取得部712は、次の入力画像があるか否かを判定し、次の入力画像があると判定された場合、その処理は、ステップS701に戻り、それ以降の処理が繰り返される。
【0977】
ステップS709において、次の入力画像はないと判定された場合、その処理は、終了する。
【0978】
以上の処理により、細線、または、2値エッジの角度が、定常性情報として検出されて、出力される。
【0979】
このように統計的処理により得られる細線、または、エッジの傾きの角度は、相関を用いて得られる細線、または、2値エッジの角度とほぼ一致する。すなわち、図152Aで示すような画像の白線で囲まれる範囲の画像について、細線上の所定の水平方向の座標上の空間方向Yへの傾きの変化は、図152Bで示されるように、相関を用いた方法により得られる細線の傾きを示す角度(図中の黒丸印)と、図124で示されたデータ定常性検出部101により統計処理により得られる細線の角度(図中の黒三角印)は、細線近傍の空間方向Yの座標上で、それぞれがほぼ一致している。尚、図152Bにおいては、図中の黒実線で挟まれた空間方向Y=680乃至730が細線上の座標である。
【0980】
同様にして、図153Aで示すような画像の白線で囲まれる範囲の画像について、2値エッジ上の所定の水平方向の座標上の空間方向Yへの傾きの変化は、図153Bで示されるように、相関を用いた方法により得られる2値エッジの傾きを示す角度(図中の黒丸印)と、図124で示されたデータ定常性検出部101により統計処理により得られる2値エッジの角度(図中の黒三角印)は、細線近傍の空間方向Yの座標上で、それぞれがほぼ一致している。尚、図153Bにおいては、空間方向Y=376(付近)乃至388(付近)が細線上の座標であるである。
【0981】
結果として、図124に示されるデータ定常性検出部101は、データの定常性として細線、または、2値エッジの角度を求める際、所定の画素からなるブロックによる相関を用いる方法と異なり、各画素の周辺の情報を用いて、統計的に細線、または、2値エッジの傾きを示す角度(ここでは、水平方向を基準軸とした角度)を求めることができるので、相関を用いた方法に見られるように、所定の角度の範囲に応じて切り替わることが無いので、全ての細線、または、2値エッジの傾きの角度を同一の処理により求めることが可能となるため、処理を簡単なものとすることが可能となる。
【0982】
また、以上においては、データ定常性検出部101は、細線、または、2値エッジの所定の基準軸とのなす角度を定常性情報として出力する例について説明してきたが、後段の処理によっては、傾きをそのまま出力する方が、処理効率が向上することも考えられる。そのような場合、データ定常性検出部101の定常方向導出部703の定常方向演算部731は、最小自乗法により求められた細線、または、2値エッジの傾きGfを、そのまま定常性情報として出力するようにしてもよい。
【0983】
さらに、以上においては、式(75)において、ダイナミックレンジDri_rは、抽出ブロックの各画素について求められるものとして演算してきたが、このダイナミックレンジは、ダイナミックレンジブロックを十分に大きく設定することにより、すなわち、多くの注目画素について、その周辺の多くの画素を用いて設定することにより、画像中の画素の画素値の最大値と最小値が、常に選択されることになるはずである。従って、ダイナミックレンジDri_rは、抽出ブロックの各画素について演算することなく、抽出ブロック中、または、画像データ中の画素の最大値と最小値から得られるダイナミックレンジを固定値として演算するようにしてもよい。
【0984】
すなわち、以下の式(76)のように、画素間の画素値の差分のみを足し込むことにより細線の角度θ(傾きGf)を求めるようにしてもよい。このように、ダイナミックレンジを固定することにより、演算処理をより簡素化することができ、高速で処理を行うことが可能となる。
【0985】
【数58】
【0986】
次に、図154を参照して、データ定常性情報として、各画素の混合比を検出するデータ定常性検出部101について説明する。
【0987】
尚、図154のデータ定常性検出部101においては、図124のデータ定常性検出部101における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0988】
図154のデータ定常性検出部101において、図124のデータ定常性検出部101と異なるのは、データ足し込み部702、および、定常性方向導出部703に代えて、データ足し込み部751、および、混合比導出部761が設けられている点である。
【0989】
データ足し込み部751のMaxMin取得部752は、図124におけるMaxMin取得部722と同様の処理を行うものであるが、ダイナミックレンジブロックの各画素の画素値の最大値と最小値を取得し、最大値と最小値の差分(ダイナミックレンジ)を求め、足し込み部753,755に出力すると共に、最大値を差分演算部754に出力する。
【0990】
足し込み部753は、MaxMin取得部より入力された値を自乗して、抽出ブロックの全ての画素について足し込み、その和を求めて、混合比導出部761に出力する。
【0991】
差分演算部754は、データ取得部712の取得ブロックの各画素について、対応するダイナミックレンジブロックの最大値との差分を求めて、足し込み部755に出力する。
【0992】
足し込み部755は、取得ブロックの各画素について、MaxMin取得部752より入力された最大値と最小値の差分(ダイナミックレンジ)と、差分演算部754より入力された取得ブロックの各画素の画素値と、対応するダイナミックレンジブロックの最大値との差分と乗じて、その和を求め、混合比導出部761に出力する。
【0993】
混合比導出部761の混合比算出部762は、データ足し込み部の足し込み部753,755のそれぞれより入力された、値に基づいて、注目画素の混合比を最小自乗法により統計的に求め、データ定常性情報として出力する。
【0994】
次に、混合比の導出方法について説明する。
【0995】
図155Aで示されるように、画像上に細線が存在する場合、センサ2で撮像された画像は、図155Bで示されるような画像となる。個の画像について、図155Bの空間方向X=X1上の黒の実線で囲まれた画素について注目する。尚、図155Bの白線ではさまれた範囲は、細線領域に対応する位置を示す。この画素の画素値Mは、背景領域のレベルに対応する画素値Bと、細線領域のレベルに対応する画素値Lの中間色となっているはずであり、さらに詳細には、この画素値PSは、背景領域と細線領域の面積比で、それぞれのレベルが混合されているはずである。従って、この画素値PSは、以下の式(77)により表現される。
【0996】
PS=α×B+(1−α)×L・・・(77)
【0997】
ここで、αは、混合比であり、より具体的には、注目されている画素中の背景領域の占める面積の割合を示すものである。従って、(1−α)は、細線領域の占める面積の割合を示しているともいえる。尚、背景領域の画素は、背景に存在するオブジェクトの成分とも考えられるので、背景オブジェクト成分とも言える。また、細線領域の画素は、背景オブジェクトに対して前景オブジェクトの成分であると考えられるので、前景オブジェクト成分とも言える。
【0998】
この結果、混合比αは、式(77)を展開することにより、以下の式(78)で表現できることになる。
【0999】
α=(PS−L)/(B−L)・・・(78)
【1000】
さらに、今の場合、画素値は、第1の画素値(画素値B)の領域と第2の画素値(画素値L)の領域とをまたいだ位置に存在することが前提であるので、画素値Lは、画素値の最大値Maxで置き換えることができ、さらに、画素値Bは、画素値の最小値と置き換えることができる。従って、混合比αは、以下の式(79)でも表現することができる。
【1001】
α=(PS−Max)/(Min−Max)・・・(79)
【1002】
以上の結果、混合比αは、注目画素についてのダイナミックレンジブロックのダイナミックレンジ((Min−Max)に相当する)と、注目画素と、ダイナミックレンジブロック内の画素の最大値との差分から求めることが可能となるが、より精度を向上させるため、ここでは、最小自乗法により統計的に混合比αを求める。
【1003】
すなわち、上述の式(79)は、展開すると以下の式(80)となる。
【1004】
(PS−Max)=α×(Min−Max)・・・(80)
【1005】
この式(80)は、上述の式(71)と同様の1変数の最小自乗法の式となる。すなわち、式(71)においては、最小自乗法により傾きGfが求められていたが、ここでは、混合比αが求められることになる。従って、以下の式(81)で示される正規方程式を解くことにより、混合比αは、統計的に求められる。
【1006】
【数59】
【1007】
ここで、iは、抽出ブロックの各画素を識別するものである。従って、式(81)においては、抽出ブロックの画素数はnである。
【1008】
次に、図156のフローチャートを参照して、混合比をデータ定常性としたときのデータ定常性の検出の処理について説明する。
【1009】
ステップS731において、水平・垂直判定部711は、入力画像の各画素を識別するカウンタUを初期化する。
【1010】
ステップS732において、水平・垂直判定部711は、後段の処理に必要なデータの抽出処理を実行する。尚、ステップS732の処理は、図150のフローチャートを参照して説明した処理と同様であるので、その説明は省略する。
【1011】
ステップS733において、データ足し込み部751は、正規方程式(ここでは、式(81))の演算の各項に必要な値の足し込み処理を実行する。
【1012】
ここで、図157のフローチャートを参照して、正規方程式への足し込み処理について説明する。
【1013】
ステップS751において、MaxMin取得部752は、データ取得部712に記憶されたダイナミックレンジブロックに含まれる画素の画素値の最大値と最小値を取得し、そのうち、最小値を差分演算部754に出力する。
【1014】
ステップS752において、MaxMin取得部752は、その最大値と最小値との差分からダイナミックレンジを求め、差分足し込み部753,755に出力する。
【1015】
ステップS753において、足し込み部753は、MaxMin取得部752より入力されたダイナミックレンジ(Max−Min)を自乗して、足し込む。すなわち、足し込み部753は、上述の式(81)の分母に相当する値を足し込みにより生成する。
【1016】
ステップS754において、差分演算部754は、MaxMin取得部752より入力されたダイナミックレンジブロックの最大値と、抽出ブロックにおける今現在処理中の画素の画素値との差分を求めて、足し込み部755に出力する。
【1017】
ステップS755において、足し込み部755は、MaxMin取得部752より入力されたダイナミックレンジと、差分演算部754より入力された、今現在処理している画素の画素値と、ダイナミックレンジブロックの画素のうち最大値となる値との差分を乗じて、足し込む。すなわち、足し込み部755は、上述の式(81)の分子の項に相当する値を生成する。
【1018】
以上のように、データ足し込み部751は、足し込み処理により、上述の式(81)の各項の演算を実行する。
【1019】
ここで、図156のフローチャートの説明に戻る。
【1020】
ステップS734において、差分足し込み部721は、抽出ブロックの全ての画素について、足し込みが終了したか否かを判定し、例えば、抽出ブロックの全ての画素についての足し込み処理が終了していないと判定した場合、その処理は、ステップS732に戻り、それ以降の処理が繰り返される。すなわち、抽出ブロックの全ての画素について、足し込み処理が終了したと判定されるまで、ステップS732乃至S734の処理が繰り返される。
【1021】
ステップS734において、抽出ブロックの全ての画素について足し込みが終了したと判定された場合、ステップS735にいて、足し込み部753,755は、自らで記憶している足し込み結果を混合比導出部761に出力する。
【1022】
ステップS736において、混合比導出部761の混合比算出部762は、データ足し込み部751の足し込み部753,755より入力された、ダイナミックレンジの自乗和、および、抽出ブロックの各画素の画素値とダイナミックレンジブロックの最大値との差分と、ダイナミックレンジとを乗じた和に基づいて、上述の式(81)で示した正規方程式を解くことにより、最小自乗法を用いて統計的に注目画素のデータ定常性情報である、混合比を演算し、出力する。
【1023】
ステップS737において、データ取得部712は、入力画像の全ての画素について処理が行われたか否かを判定し、例えば、入力画像の全ての画素について処理が行われていない、すなわち、入力画像の全ての画素について、混合比を出力していないと判定した場合、ステップS738において、カウンタUを1インクリメントして、その処理は、ステップS732に戻る。
【1024】
すなわち、入力画像のうちの処理しようとする画素が変更されて、入力画像の全ての画素について混合比が演算されるまで、ステップS732乃至S738の処理が繰り返されることになる。このカウンタUによる画素の変化は、例えば、ラスタスキャンなどであってもよいし、それ以外の規則により順次変化していくものであってもよい。
【1025】
ステップS737において、入力画像の全ての画素について処理がなされたと判定された場合、ステップS739において、データ取得部712は、次の入力画像があるか否かを判定し、次の入力画像があると判定された場合、その処理は、ステップS731に戻り、それ以降の処理が繰り返される。
【1026】
ステップS739において、次の入力画像はないと判定された場合、その処理は、終了する。
【1027】
以上の処理により、各画素の混合比が、定常性情報として検出されて、出力される。
【1028】
以上の手法により、例えば、図158Aで示される画像中の白線内の細線の画像について、所定の空間方向X(=561,562,563)上の混合比の変化が、図158Bに示されている。図158Bで示されるように、水平方向に連続する空間方向Yの混合比の変化は、それぞれ、空間方向X=563の場合、混合比は、空間方向Y=660付近で立ち上がり、Y=685付近でピークとなり、Y=710まで減少する。また、空間方向X=562の場合、混合比は、空間方向Y=680付近で立ち上がり、Y=705付近でピークとなり、Y=735まで減少する。さらに、空間方向X=561の場合、混合比は、空間方向Y=705付近で立ち上がり、Y=725付近でピークとなり、Y=755まで減少する。
【1029】
このように、図158Bで示されるように、連続する空間方向Xのそれぞれの混合比の変化は、混合比により変化する画素値の変化(図133Bで示した画素値の変化)と同様の変化であり、周期的に連続していることから、細線近傍の画素の混合比が正確に表現されていることが分かる。
【1030】
また、同様にして、図159Aで示される画像中の白線内の2値エッジの画像について、所定の空間方向X(=658,659,660)上の混合比の変化が、図159Bに示されている。図159Bで示されるように、水平方向に連続する空間方向Yの混合比の変化は、それぞれ、空間方向X=660の場合、混合比は、空間方向Y=750付近で立ち上がり、Y=765付近でピークとなる。また、空間方向X=659の場合、混合比は、空間方向Y=760付近で立ち上がり、Y=775付近でピークとなる。さらに、空間方向X=658の場合、混合比は、空間方向Y=770付近で立ち上がり、Y=785付近でピークとなる。
【1031】
このように、図159Bで示されるように、2値エッジの混合比の変化は、混合比により変化する画素値の変化(図145Bで示した画素値の変化)と同様の変化とほぼ同様であり、周期的に連続していることから、2値エッジ近傍の画素値の混合比が正確に表現されていることが分かる。
【1032】
以上によれば、最小自乗法により統計的にデータ定常性情報として、各画素の混合比を求めることが可能となる。さらに、この混合比に基づいて、各画素の画素値を直接生成することが可能となる。
【1033】
また、混合比の変化が、定常性を有するものであり、さらに、この混合比の変化が直線的なもので近似すると、以下の式(82)で示されるような関係が成立する。
【1034】
α=m×y+n・・・(82)
【1035】
ここで、mは、混合比αが、空間方向Yに対して変化するときの傾きを示し、また、nは、混合比αが直線的に変化するときの切片に相当するものである。
【1036】
すなわち、図160で示されるように、混合比を示す直線は、背景領域のレベルに相当する画素値Bと、細線のレベルに相当するレベルLの境界を示す直線であり、この場合、空間方向Yについて単位距離進んだときの混合比の変化量が傾きmとなる。
【1037】
そこで、式(82)を、式(77)に代入すると以下の式(83)が導出される。
【1038】
M=(m×y+n)×B+(1−(m×y+n))×L・・・(83)
【1039】
さらに、この式(83)を展開すると、以下の式(84)が導出される。
【1040】
M−L=(y×B−y×L)×m+(B−L)×n・・・(84)
【1041】
式(84)においては、第1項のmが、混合比の空間方向の傾きを示し、第2項が混合比の切片を示す項である。従って、上述の式(84)のm,nを2変数の最小自乗法を用いて、正規方程式を生成し、求めるようにすることもできる。
【1042】
しかしながら、混合比αの傾きmは、上述した細線や2値エッジの傾き(上述の傾きGf)そのものであるので、予め、上述の方法を用いて、細線、または、2値エッジの傾きGfを求めた後、その傾きを用いて、式(84)に代入することにより、切片の項についての1変数の関数とし、上述した手法と同様に、1変数の最小自乗法により求めるようにしてもよい。
【1043】
以上の例においては、空間方向の細線、または、2値エッジの角度(傾き)、または、混合比をデータ定常性情報として検出するデータ定常性検出部101について説明してきたが、例えば、空間内の軸(空間方向X,Y)のいずれかを、時間方向(フレーム方向)Tの軸に置き換えることにより得られる、空間方向における角度に対応するものであってもよい。すなわち、空間内の軸(空間方向X,Y)のいずれかを、時間方向(フレーム方向)Tの軸に置き換えることにより得られる角度に対応するものとは、物体の動きベクトル(動きベクトルの方向)である。
【1044】
より具体的には、図161Aで示すように、物体が、時間が進むにつれて空間方向Yについて、図中の上方向に移動している場合、図中の細線に相当する部分(図131Aとの比較)には、物体の移動の軌跡が現れることになる。従って、時間方向Tの細線における傾きは、図161Aにおいては、物体の動く方向(物体の動きを示す角度)を示すもの(動きベクトルの方向と同値のもの)である。従って、現実世界において、図161A中の矢印で示される、所定の時刻におけるフレームでは、図161Bで示すように物体の軌跡となる部分が、物体の(色の)レベルとなり、それ以外の部分が、背景のレベルとなったパルス状の波形となる。
【1045】
このように、センサ2により動きのある物体を撮像したした場合、図162Aで示されるように、時刻T1乃至T3におけるフレームの各画素の画素値の分布は、図162Bで示されるように、空間方向Yに対して、それぞれ山型の波形をとる。この関係は、図132A,Bを参照して、説明した空間方向X,Yにおける関係と同様であるものと考えることができる。従って、フレーム方向Tに対して、物体に動きがある場合、上述した細線の傾き、または、2値エッジの角度(傾き)の情報と同様の手法により、物体の動きベクトルの方向をデータ定常性情報として求めることも可能である。尚、図162Bにおいては、フレーム方向T(時間方向T)について、各マス目は、1フレームの画像を構成するシャッタ時間となる。
【1046】
また、同様にして、図163Aで示されるように、フレーム方向T毎に、空間方向Yについて物体に動きがある場合、図163Bで示されるように、所定の時刻T1に相当するフレーム上で空間方向Yに向けて、物体の動きに対応して、各画素値が得られることになる。このとき、例えば、図163Bにおける、黒の実線で囲まれた画素の画素値は、図163Cで示されるように、物体の動きに対応して、背景のレベルと物体のレベルがフレーム方向に混合比βで混合している画素値である。
【1047】
この関係は、図155A,B,Cを参照して説明した関係と同様である。
【1048】
さらに、図164で示されるように、物体のレベルOと背景のレベルBとは、フレーム方向(時間方向)の混合比βにより直線近似することも可能である。個の関係は、図160を参照して説明した空間方向の混合比の直線近似と同様の関係である。
【1049】
従って、空間方向の混合比αと同様の手法により、時間(フレーム)方向の混合比βをデータ定常性情報として求めることも可能である。
【1050】
また、フレーム方向、または、空間方向のいずれか1次元を選択して、定常性の角度、または、動きベクトルの方向を求めるようにしてもよいし、同様にして混合比α,βを選択的に求めるようにしてもよい。
【1051】
以上によれば、現実世界の光信号を射影し、現実世界の光信号の定常性の一部が欠落した画像データ内の注目画素に対応する領域を選択し、選択した領域内の、欠落した現実世界の光信号の定常性に対応する画像データの定常性の基準軸に対する角度を検出するための特徴を検出し、検出した特徴に基いて統計的に角度を検出し、検出した画像データの定常性の基準軸に対する角度に基いて、欠落した現実世界の光信号の定常性を推定することにより光信号を推定するようにしたので、定常性の角度(動きベクトルの方向)、または、(時空間の)混合比を求めることが可能となる。
【1052】
次に、図165を参照して、データ定常性情報としてデータ定常性情報を用いた処理を行うべき領域の情報を出力する、データ定常性情報検出部101について説明する。
【1053】
角度検出部801は、入力された画像のうち、定常性を有する領域、すなわち、画像上において定常性を有する細線や2値エッジを構成する部分の空間方向の角度を検出し、検出した角度を実世界推定部802に出力する。尚、この角度検出部801は、図3におけるデータ定常性検出部101と同様のものである。
【1054】
実世界推定部802は、角度検出部801より入力されたデータ定常性の方向を示す角度と、入力画像の情報に基づいて実世界を推定する。すなわち、実世界推定部802は、入力された角度と、入力画像の各画素から実世界の光信号の強度分布を近似的に記述する近似関数の係数を求めて、求めた係数を実世界の推定結果として誤差演算部803に出力する。尚、この実世界推定部802は、図3における実世界推定部102と同様のものである。
【1055】
誤差演算部803は、実世界推定部802より入力された係数に基づいて、近似的に記述された現実世界の光の強度分布を示す近似関数を構成し、さらに、この近似関数に基づいて各画素位置に相当する光の強度を積分して、近似関数により推定された光の強度分布から各画素の画素値を生成し、実際に入力された画素値との差分を誤差として比較部804に出力する。
【1056】
比較部804は、各画素について誤差演算部803より入力された誤差と、予め設定された閾値とを比較することにより、定常性情報を用いた処理を施す画素の存在する処理領域と、非処理領域とを識別して、この定常性情報を用いた処理をする処理領域と非処理領域の識別がなされた領域情報を定常性情報として出力する。
【1057】
次に、図166のフローチャートを参照して、図165のデータ定常性検出部101による、定常性の検出の処理について説明する。
【1058】
ステップS801において、角度検出部801は、入力された画像を取得し、ステップS802において、定常性の方向を示す角度を検出する。より詳細には、角度検出部801は、例えば、水平方向を基準軸としたときの細線、または、2値エッジの有する定常性の方向を示す角度を検出して、実世界推定部802に出力する。
【1059】
ステップS803において、実世界推定部802は、角度検出部801より入力される角度の情報と、入力画像の情報に基づいて、現実世界を表現する関数F(x)に近似的に記述する、多項式からなる近似関数f(x)の係数を求めて、誤差演算部803に出力する。すなわち、現実世界を表現する近似関数f(x)は、以下の式(85)のような1次元多項式で示される。
【1060】
【数60】
【1061】
ここで、wiは、多項式の係数であり、実世界推定部802は、この係数wiを求めて、誤差演算部803に出力する。さらに、角度検出部801より入力される角度により、定常性の方向から傾きを求めることができる(Gf=tan−1θ,Gf:傾き,θ:角度)ので、この傾きGfの拘束条件を代入することにより、上述の式(85)の式は、以下の式(86)で示されるように、2次元多項式で記述することができる。
【1062】
【数61】
【1063】
すなわち、上述の式(86)は、式(85)で記述される1次元の近似関数f(x)が、空間方向Yに平行移動することにより生じるずれ幅をシフト量α(=−dy/Gf:dyは、空間方向Yへの変化量)で表現することにより得られる2次元の関数f(x,y)を記述している。
【1064】
したがって、実世界推定部802は、入力画像と、定常性方向の角度の情報を用いて、上述の式(86)の各係数wiを解いて、求められた係数wiを誤差演算部803に出力する。
【1065】
ここで、図166のフローチャートの説明に戻る。
【1066】
ステップS804において、誤差演算部803は、実世界推定部802より入力された係数から、各画素について再積分を実行する。すなわち、誤差演算部803は、実世界推定部802より入力された係数から、上述の式(86)を、以下の式(87)で示されるように、各画素について積分する。
【1067】
【数62】
【1068】
ここで、SSは、図167で示される空間方向の積分結果を示す。また、その積分範囲は、図167で示すように、空間方向Xについては、xm乃至xm+Bであり、空間方向Yについては、ym乃至ym+Aである。また、図167においては、各マス目(正方形)は、1画素を示すものとし、空間方向X,Yについて、いずれも1であるものとする。
【1069】
従って、誤差演算部803は、図168で示されるように、近似関数f(x,y)で示される曲面の空間方向Xについてxm乃至xm+1、および、空間方向Yについてym乃至ym+1(A=B=1)で、以下の式(88)で示されるような積分演算を各画素について実行し、実世界を近似的に表現する近似関数を空間的に積分することにより得られる各画素の画素値PSを演算する。
【1070】
【数63】
【1071】
すなわち、この処理により、誤差演算部803は、言わば一種の画素値生成部として機能し、近似関数から画素値を生成する。
【1072】
ステップS805において、誤差演算部803は、上述の式(88)で示したような積分により得られた画素値と、入力画像の画素値との差分を演算し、これを誤差として比較部804に出力する。すなわち、誤差演算部803は、上述の図167,図168で示した積分範囲(空間方向Xについてxm乃至xm+1、および、空間方向Yについてym乃至ym+1)に対応する画素の画素値と、画素に対応する範囲の積分結果により得られた画素値との差分を、誤差として求めて比較部804に出力する。
【1073】
ステップS806において、比較部804は、誤差演算部803より入力される積分により得られた画素値と入力画像の画素値との誤差の絶対値が、所定の閾値以下であるか否かを判定する。
【1074】
ステップS806において、誤差が所定の閾値以下であると判定された場合、ステップS807において、比較部804は、積分により得られた画素値が、入力画像の画素の画素値と近い値が得られているので、その画素の画素値を演算するにあたり設定した近似関数が、現実世界の光信号の光の強度分布と十分に近似しているとみなし、今処理した画素の領域は、定常性情報に基づいた近似関数による処理を行う処理領域として認識する。より詳細には、比較部804は、図示せぬメモリに今処理した画素が、以降の処理領域の画素であることを記憶させる。
【1075】
一方、ステップS806において、誤差が所定の閾値以下ではないと判定された場合、ステップS808において、比較部804は、積分により得られた画素値が、実際の画素値と離れた値となっているので、その画素の画素値を演算するにあたり設定した近似関数が、現実世界の光信号の光の強度分布と十分に近似していないとみなし、今処理した画素の領域は、後段において定常性情報に基づいた近似関数による処理を行わない非処理領域として認識する。より詳細には、比較部804は、図示せぬメモリに今処理した画素の領域が、以降の非処理領域であることを記憶させる。
【1076】
ステップS809において、比較部804は、全ての画素で処理が実行されたか否かを判定し、全ての画素で処理が実行されていないと判定された場合、その処理は、ステップS802に戻り、それ以降の処理が繰り返される。すなわち、全ての画素について、積分による画素値と、入力された画素値との比較がなされ、処理領域であるか否かの判定処理が完了するまで、ステップS802乃至S809の処理が繰り返される。
【1077】
ステップS809において、全ての画素について、再積分による画素値と、入力された画素値との比較がなされ、処理領域であるか否かの判定処理が完了したと判定された場合、ステップS810において、比較部804は、図示せぬメモリに記憶されている、入力画像について、後段の処理において空間方向の定常性情報に基づいた処理がなされる処理領域と、空間方向の定常性情報に基づいた処理がなされない非処理領域が識別された領域情報を、定常性情報として出力する。
【1078】
以上の処理によれば、定常性情報に基づいて演算された近似関数f(x)を用いて各画素に対応する範囲の積分結果により得られた画素値と、実際の入力画像中の画素値との誤差に基づいて、近似関数の表現の確からしさの評価が領域毎(画素毎に)にされることになり、誤差の小さい領域、すなわち、近似関数に基づいた積分により得られる画素値が確からしい画素の存在する領域のみを処理領域とし、それ以外の領域を非処理領域とすることになるので、確からしい領域にのみ空間方向の定常性情報に基づいた処理を施すことができ、必要な処理だけを実行させるようにすることができるため、処理速度を向上させることができると共に、確からしい領域にのみ処理を実行させることができるので、この処理による画質劣化を抑制することが可能となる。
【1079】
次に、図169を参照して、データ定常性情報としてデータ定常性情報を用いた処理を行う画素の存在する領域情報を出力する、データ定常性情報検出部101のその他の実施例について説明する。
【1080】
動き検出部821は、入力された画像のうち、定常性を有する領域、すなわち、画像上においてフレーム方向に定常性を有する動き(動きベクトルの方向:Vf)を検出し、検出した動きを実世界推定部822に出力する。尚、この動き検出部821は、図3におけるデータ定常性検出部101と同様のものである。
【1081】
実世界推定部822は、動き検出部821より入力されたデータ定常性の動きと、入力画像の情報に基づいて実世界を推定する。すなわち、実世界推定部822は、入力された動きと、入力画像の各画素からフレーム方向(時間方向)の実世界の光信号の強度分布を近似的に記述する近似関数の係数を求めて、求めた係数を実世界の推定結果として誤差演算部823に出力する。尚、この実世界推定部822は、図3における実世界推定部102と同様のものである。
【1082】
誤差演算部823は、実世界推定部822より入力された係数に基づいて、近似的に記述されたフレーム方向の現実世界の光の強度分布を示す近似関数を構成し、さらに、この近似関数からフレーム毎に各画素位置に相当する光の強度を積分して、近似関数により推定された光の強度分布から各画素の画素値を生成し、実際に入力された画素値との差分を誤差として比較部824に出力する。
【1083】
比較部824は、各画素について誤差演算部823より入力された誤差と、予め設定された閾値とを比較することにより、定常性情報を用いた処理を施す画素の存在する処理領域と、非処理領域とを識別して、この定常性情報を用いた処理をする処理領域と非処理領域の識別がなされた領域情報を定常性情報として出力する。
【1084】
次に、図170のフローチャートを参照して、図169のデータ定常性検出部101による、定常性の検出の処理について説明する。
【1085】
ステップS821において、動き検出部801は、入力された画像を取得し、ステップS822において、定常性を示す動きを検出する。より詳細には、動き検出部801は、例えば、入力画像中で動く物体の動き(動きベクトルの方向:Vf)を検出して、実世界推定部822に出力する。
【1086】
ステップS823において、実世界推定部822は、動き検出部821より入力される動きの情報と、入力画像の情報に基づいて、現実世界を表現するフレーム方向の関数F(t)に近似的に記述する、多項式からなる関数f(t)の係数を求めて、誤差演算部823に出力する。すなわち、現実世界を表現する関数f(t)は、以下の式(89)のような1次元多項式で示される。
【1087】
【数64】
【1088】
ここで、wiは、多項式の係数であり、実世界推定部822は、この係数wiを求めて、誤差演算部823に出力する。さらに、動き検出部821より入力される動きにより、定常性の動きを求めることができる(Vf=tan−1θv,Vf:動きベクトルのフレーム方向の傾き,θv:動きベクトルのフレーム方向の角度)ので、この傾きの拘束条件を代入することにより、上述の式(89)の式は、以下の式(90)で示されるように、2次元多項式で記述することができる。
【1089】
【数65】
【1090】
すなわち、上述の式(90)は、式(89)で記述される1次元の近似関数f(t)が、空間方向Yに平行移動することにより生じるずれ幅を、シフト量αt(=−dy/Vf:dyは、空間方向Yへの変化量)で表現することにより得られる2次元の関数f(t,y)を記述している。
【1091】
したがって、実世界推定部822は、入力画像と、定常性の動きの情報を用いて、上述の式(90)の各係数wiを解いて、求められた係数wiを誤差演算部823に出力する。
【1092】
ここで、図170のフローチャートの説明に戻る。
【1093】
ステップS824において、誤差演算部823は、実世界推定部822より入力された係数から、各画素についてフレーム方向に積分を実行する。すなわち、誤差演算部823は、実世界推定部822より入力された係数から、上述の式(90)を、以下の式(91)で示されるように、各画素について積分する。
【1094】
【数66】
【1095】
ここで、Stは、図171で示されるフレーム方向の積分結果を示す。また、その積分範囲は、図171で示すように、フレーム方向Tについては、Tm乃至Tm+Bであり、空間方向Yについては、ym乃至ym+Aである。また、図171においては、各マス目(正方形)は、1画素を示すものとし、フレーム方向T、および、空間方向Yのいずれも1であるものとする。ここで、フレーム方向Tについて1であるとは、1フレーム分のシャッタ時間を1とすることである。
【1096】
従って、誤差演算部823は、図172で示されるように、近似関数f(t,y)で示される曲面の空間方向TについてTm乃至Tm+1、および、空間方向Yについてym乃至ym+1(A=B=1)で、以下の式(92)で示されるような積分演算を各画素について実行し、実世界を近似的に表現する関数から得られる各画素の画素値Ptを演算する。
【1097】
【数67】
【1098】
すなわち、この処理により、誤差演算部823は、言わば一種の画素値生成部として機能し、近似関数から画素値を生成する。
【1099】
ステップS825において、誤差演算部803は、上述の式(92)で示したような積分により得られた画素値と、入力画像の画素値との差分を演算し、これを誤差として比較部824に出力する。すなわち、誤差演算部823は、上述の図171,図172で示した積分範囲(空間方向TについてTm乃至Tm+1、および、空間方向Yについてym乃至ym+1)に対応する画素の画素値と、画素に対応する範囲の積分結果により得られた画素値との差分を、誤差として求めて比較部824に出力する。
【1100】
ステップS826において、比較部824は、誤差演算部823より入力された積分により得られた画素値と入力画像の画素値との誤差の絶対値が、所定の閾値以下であるか否かを判定する。
【1101】
ステップS826において、誤差が所定の閾値以下であると判定された場合、ステップS827において、比較部824は、積分により得られた画素値が、入力画像の画素値と近い値が得られているので、その画素の画素値を演算するにあたり設定した近似関数が、実世界の光信号の光の強度分布と十分に近似されているとみなし、今処理した画素の領域は、処理領域として認識する。より詳細には、比較部824は、図示せぬメモリに今処理した画素が、以降の処理領域の画素であることを記憶させる。
【1102】
一方、ステップS826において、誤差が所定の閾値以下ではないと判定された場合、ステップS828において、比較部824は、積分により得られた画素値が、実際の画素値と離れた値となっているので、その画素の画素値を演算するにあたり設定した近似関数が、現実世界の光の強度分布と十分に近似していないとみなし、今処理した画素の領域は、後段において定常性情報に基づいた近似関数による処理を行わない非処理領域として認識する。より詳細には、比較部824は、図示せぬメモリに今処理した画素の領域が、以降の非処理領域であることを記憶させる。
【1103】
ステップS829において、比較部824は、全ての画素で処理が実行されたか否かを判定し、全ての画素で処理が実行されていないと判定された場合、その処理は、ステップS822に戻り、それ以降の処理が繰り返される。すなわち、全ての画素について、積分による画素値と、入力された画素値との比較がなされ、処理領域であるか否かの判定処理が完了するまで、ステップS822乃至S829の処理が繰り返される。
【1104】
ステップS829において、全ての画素について、再積分による画素値と、入力された画素値との比較がなされ、処理領域であるか否かの判定処理が完了したと判定された場合、ステップS830において、比較部824は、図示せぬメモリに記憶されている、入力画像について、後段の処理においてフレーム方向の定常性情報に基づいた処理がなされる処理領域と、フレーム方向の定常性情報に基づいた処理がなされない非処理領域が識別された領域情報を、定常性情報として出力する。
【1105】
以上の処理によれば、定常性情報に基づいて演算された近似関数f(t)を用いた各画素に対応する範囲の積分結果により得られた画素値と、実際の入力画像中の画素値との誤差に基づいて、近似関数の表現の確からしさの評価が領域毎(画素毎に)にされることになり、誤差の小さい領域、すなわち、近似関数に基づいて積分により得られる画素値が確からしい画素の存在する領域のみを処理領域とし、それ以外の領域を非処理領域とすることになるので、確からしい領域にのみフレーム方向の定常性情報に基づいた処理を施すことができ、必要な処理だけを実行させるようにすることができるため、処理速度を向上させることができると共に、確からしい領域にのみ処理を実行させることができるので、この処理による画質劣化を抑制することが可能となる。
【1106】
図165および図169のデータ定常性情報検出部101の構成を組み合わせて、時空間方向のうち、いずれか1次元を選択して、選択的に領域情報を出力させるようにしてもよい。
【1107】
以上によれば、それぞれ時空間積分効果を有する、センサの複数の検出素子により現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる画像データにおけるデータの定常性を検出し、検出した定常性に対応して、画像データの時空間方向のうち少なくとも1次元方向の位置に対応する各画素の画素値が少なくとも1次元方向の積分効果により取得された画素値であるとして現実世界の光信号に対応する関数を近似することにより、現実世界の光信号に対応する関数を推定し、推定した関数を少なくとも1次元方向の各画素に対応する単位で積分することにより取得される画素値と、各画素の画素値との差分値を検出し、差分値に応じて関数を選択的に出力するようにしたので、近似関数に基づいて積分により得られる画素値が確からしい画素の存在する領域のみを処理領域とし、それ以外の領域を非処理領域とすることが可能となり、確からしい領域にのみフレーム方向の定常性情報に基づいた処理を施すことができ、必要な処理だけを実行させるようにすることができるため、処理速度を向上させることができると共に、確からしい領域にのみ処理を実行させることができるので、この処理による画質劣化を抑制することが可能となる。
【1108】
次に、図173を参照して、定常性の角度をより高精度に、かつ、より高速で求められるようにした定常性検出部101について説明する。
【1109】
簡易式角度検出部901は、実質的に、図95を参照して説明した定常性検出部101と同様のものであり、注目画素に対応するブロックと、周辺画素のブロックとを比較し、注目画素に対応するブロックと周辺画素のブロックとの相関が最も強い注目画素と周辺画素との角度の範囲を検出する、いわゆる、ブロックマッチングにより、例えば、16方位(例えば、データの定常性の角度をθとする場合、後述する図178における0≦θ<18.4,18.4≦θ<26.05,26.05≦θ<33.7,33.7≦θ<45,45≦θ<56.3,56.3≦θ<63.95,63.95≦θ<71.6,71.6≦θ<90,90≦θ<108.4,108.4≦θ<116.05,116.05≦θ<123.7,123.7≦θ<135,135≦θ<146.3,146.3≦θ<153.95,153.95≦θ<161.6、および、161.6≦θ<180の16個の範囲)の何れかの範囲であるかを簡易的に定常性の角度を検出して、それぞれの中央値(または、その範囲内の代表値)を判定部902に出力する。
【1110】
判定部902は、簡易式角度検出部901より入力された、簡易的に求められている定常性の角度の情報に基づいて、入力された角度が、垂直方向に近い角度であるか、または、水平方向に近い角度であるか、それ以外かを判定し、判定結果に応じて、スイッチ903を制御して、端子903a,bのいずれかに接続して、入力画像を回転式角度検出部904、または、勾配式角度検出部905に供給すると共に、スイッチ903を端子903aに接続するとき、簡易式角度検出部901より入力された簡易式に求められた角度の情報を回帰式角度検出部904に供給する。
【1111】
より詳細には、判定部902は、簡易式角度検出部901より供給された定常性の方向が、水平方向、または、垂直方向に近い角度であると判定した場合(例えば、簡易式角度検出部901より入力された定常性の角度θが、0≦θ≦18.4,71.6≦θ≦108.4、または、161.6≦θ≦180の場合)、スイッチ903を端子903aに接続して入力画像を回帰式角度検出部904に供給し、それ以外の場合、すなわち、定常性の方向が45度、または、135度に近い場合、スイッチ903を端子903bに接続して入力画像を勾配式角度検出部905に供給する。
【1112】
回帰式角度検出部904は、実質的には、上述の図107を参照して説明した定常性検出部101に類似した構成であり、回帰的に(注目画素の画素値と、注目画素に対応する領域に属する画素の画素値との相関値が閾値以上である画素に、相関値に基づく度数が設定されることにより、領域に属する画素の度数が検出され、検出された度数に基いて検出された回帰線により求められる)データの定常性の角度検出を実行し、検出した角度をデータ定常性情報として実世界推定部102に出力する。ただし、回帰式角度検出部904は、角度の検出にあたり、判定部902より供給された角度に基づいて、注目画素に対応する範囲(スコープ)を限定して、度数を設定し、回帰的に角度を検出する。
【1113】
勾配式角度検出部905は、実質的には、図124を参照して説明した定常性検出部101と同様のものであり、注目画素に対応するブロック(上述のダイナミックレンジブロック)の画素値の最大値と最小値の差分、すなわち、ダイナミックレンジに基づいて(実質的に、ダイナミックレンジブロックの画素値の最大値と最小値の勾配に基づいて)、データの定常性の角度を検出し、データの定常性情報として実世界推定部102に出力する。
【1114】
次に、図174を参照して、簡易式角度検出部901の構成について説明するが、実質的に、簡易式角度検出部901は、図95を参照して説明したデータ定常性検出部101の構成と同様のものである。従って、図174の簡易式角度検出部901のデータ選択部911、誤差推定部912、定常方向導出部913、画素選択部921−1乃至921−L、推定誤差算出部922−1乃至922−L、および、最小誤差角度選択部923は、図95のデータ定常性検出部101のデータ選択部441、誤差推定部442、定常方向導出部443、画素選択部461−1乃至461−L、推定誤差算出部462−1乃至462−L、および、最小誤差角度選択部443と同様のものであるので、個々の部位の説明は省略する。
【1115】
次に、図175を参照して、回帰式角度検出部904の構成について説明するが、実質的に、回帰式角度検出部904は、図107を参照して説明したデータ定常性検出部101の構成と類似したものである。従って、図175の回帰式角度検出部904のフレームメモリ931、画素取得部932、回帰直線演算部934、および、角度算出部935は、図107のデータ定常性検出部101のフレームメモリ501、画素取得部502、回帰直線演算部504、および、角度算出部505と同様であるので、その説明は省略する。
【1116】
ここで、回帰式角度検出部904において、図107のデータ定常性検出部101と異なるのは、度数検出部933である。度数検出部933は、図107の度数検出部503と同様の機能を有するものであるが、さらに、スコープメモリ933aを備えており、判定部902より入力された簡易式角度検出部901により検出されたデータの定常性の角度に基づいて、スコープメモリ933aに記憶されている注目画素に対する度数を検出する角度の範囲の情報に基づいて、度数を検出して、検出した度数の情報を回帰直線演算部934に供給する。
【1117】
次に、図176を参照して、勾配式角度検出部905の構成について説明するが、実質的に、勾配式角度検出部905は、図124を参照して説明したデータ定常性検出部101の構成と同様のものである。従って、図176のデータ選択部941、データ足し込み部942、定常方向導出部943、水平・垂直判定部951、データ取得部952、差分足し込み部961、MaxMin取得部962、差分足し込み部963、および、定常方向演算部971は、図124のデータ定常性検出部101のデータ選択部701、データ足し込み部702、定常方向導出部703、水平・垂直判定部711、データ取得部712、差分足し込み部721、MaxMin取得部722、差分足し込み部723、および、定常方向演算部731と同様のものであるので、その説明は省略する。
【1118】
次に、図177のフローチャートを参照して、データの定常性の検出の処理について説明する。
【1119】
ステップS901において、簡易式角度検出部901は、簡易式角度検出処理を実行し、検出した角度の情報を判定部902に出力する。尚、簡易式角度検出処理は、図103のフローチャートを参照して説明したデータの定常性の検出の処理と同様であるので、その説明は省略する。
【1120】
ステップS902において、判定部902は、簡易式角度検出部901より入力されたデータの定常性の角度の情報に基づいて、データの定常性の角度が、水平方向、または、垂直方向に近い角度であるか否かを判定する。より詳細には、判定部902は、例えば、データの定常性の角度が、簡易式角度検出部901より入力された定常性の角度θが、0≦θ≦18.4,71.6≦θ≦108.4、または、161.6≦θ≦180となる範囲である場合、データの定常性の角度が、水平方向、または、垂直方向に近い角度であると判定する。
【1121】
ステップS902において、データの定常性の角度が水平方向、または、垂直方向の角度であると判定された場合、その処理は、ステップS903に進む。
【1122】
ステップS903において、判定部902は、スイッチ903を制御して、端子903aに接続すると共に、簡易式角度検出部901より供給されたデータの定常性の角度の情報を回帰式角度検出部904に供給する。この処理により、回帰式角度検出部904に、入力画像と簡易式角度検出部901で検出されたデータの定常性の角度の情報が供給される。
【1123】
ステップS904において、回帰式角度検出部904は、回帰式角度検出処理を実行し、検出された角度をデータ定常性情報として実世界推定部102に出力する。尚、回帰式角度検出処理については、図179を参照して後述する。
【1124】
ステップS905において、簡易式角度検出部901のデータ選択部911は、全ての画素について処理が終了したか否かを判定し、全ての画素についてその処理が終了していないと判定した場合、その処理は、ステップS901に戻り、それ以降の処理が繰り返される。
【1125】
一方、ステップS902において、データの定常性の方向が、水平方向、または、垂直方向ではないと判定された場合、その処理は、ステップS906に進む。
【1126】
ステップS906において、判定部902は、スイッチ903を制御して、端子903bに接続する。この処理により、勾配式角度検出部905に、入力画像が供給される。
【1127】
ステップS907において、勾配式角度検出部905は、勾配式角度検出処理を実行して、角度を検出し、定常性情報として実世界推定部102に出力する。尚、勾配式角度検出処理は、実質的に、図149のフローチャートを参照して説明したデータの定常性の検出の処理と同様の処理であるので、その説明は、省略する。
【1128】
すなわち、ステップS902の処理により、簡易式角度検出部901により検出されたデータの定常性の角度が、図178で示されるように図中中心の注目画素を中心とした場合、斜線の無い白色の領域に対応する角度(18.4<θ<71.6、または、108.4<θ<161.6)であるとき、ステップS903の処理により、判定部902がスイッチ903を制御して、端子903aに接続することにより、ステップS904の処理により、回帰式角度検出部904が、相関を利用して回帰直線を求めて、その回帰直線からデータの定常性の角度を検出する。
【1129】
また、ステップS902の処理により、簡易式角度検出部901により検出されたデータの定常性の角度が、図178で示されるように図中中心の注目画素を中心とした場合、斜線部の領域に対応する角度(0≦θ≦18.4,71.6≦θ≦108.4、または、161.6≦θ≦180)であるとき、ステップS906の処理により、判定部902がスイッチ903を制御して、端子903bに接続することにより、ステップS907の処理により、勾配式角度検出部905が、データの定常性の角度を検出する。
【1130】
回帰式角度検出部904は、注目画素に対応するブロックと周辺画素に対応したブロック間の相関を比較し、最も相関の強いブロックに対応する画素との角度からデータの定常性の角度を求めているため、データの定常性の角度が、水平方向、または、垂直方向に近い場合、最も相関の高いブロックとなる画素は、注目画素から遠く離れた位置となってしまう可能性があるため、正確に相関の強い周辺画素のブロックを検出するには、探索する領域を広くしなければならず、処理が膨大なものとなってしまう恐れがあり、さらには、探索領域を広げることにより、本来定常性の存在しない位置に、偶然にして、注目画素に対応するブロックと相関の強いブロックが検出されてしまう恐れがあり、角度の検出精度が低下してしまう恐れがある。
【1131】
これに対して、勾配式角度検出部905は、データの定常性の角度が、水平方向、または、垂直方向に近くなるほど、ダイナミックレンジブロック内の画素値の最大値と最小値をとる画素との距離が離れるため、抽出ブロック内に同じ傾き(画素値の変化を示す勾配)を持つ画素が増えることになるので、統計的に処理をすることによりデータの定常性の角度をより高精度に検出することが可能となる。
【1132】
一方、勾配式角度検出部905は、データの定常性の角度が、45度、または、135度に近い場合、ダイナミックレンジブロック内の最大値と最小値をとる画素間の距離が近くなってしまうため、抽出ブロック内で、同じ傾き(画素値の変化を示す勾配)を持つ画素が減ることになるので、統計的な処理により、データの定常性の角度の精度は低下してしまう。
【1133】
これに対して、回帰式角度検出部904は、データの定常性の角度が、45度、または、135度付近の場合、注目画素に対応するブロックと、相関の強い画素に対応するブロックの距離が近い位置に存在することになるため、定常性の角度を、より高い精度で検出することが可能である。
【1134】
結果として、簡易式角度検出部901により検出された角度に基づいて、回帰式角度検出部904と、勾配式角度検出部905のそれぞれの持つ特性により、処理を切り替えることにより、全ての範囲でデータの定常性の角度を高精度で検出することが可能となる。さらに、高精度でデータの定常性の角度を検出できることから、実世界を正確に推定することができ、最終的に、現実世界の事象に対して、より正確で、より精度の高い(画像)処理結果を得ることが可能となる。
【1135】
次に、図179のフローチャートを参照して、図177のフローチャートにおけるステップS904の処理である、回帰式角度検出処理について説明する。
【1136】
尚、回帰式角度検出部904による回帰式角度検出処理は、図114のフローチャートを参照して説明したデータの定常性の検出の処理と類似しており、図179のフローチャートにおけるステップS921乃至S922、および、ステップS924乃至S927の処理は、図114のフローチャートにおけるステップS501乃至S506の処理と同様であるので、その説明は省略する。
【1137】
ステップS923において、度数検出部933は、スコープメモリ933aを参照して、判定部902より供給された簡易式角度検出部901により検出されたデータの定常性の角度の情報に基づいて、スコープ範囲外の画素を処理対象から排除する。
【1138】
すなわち、例えば、簡易式角度検出部901により検出された角度θの範囲が、45≦θ<56.3である場合、スコープメモリ933aには、その範囲に対応するスコープとして、図180で示される斜線部分に対応する画素の範囲を記憶しており、度数検出部933は、スコープに対応する範囲以外の画素は処理対象範囲から排除する。
【1139】
より詳細な、各角度に応じたスコープの範囲の例としては、例えば、簡易式角度検出部901により検出されたデータの定常性の角度が50度の場合、図181で示されるように、スコープ範囲の画像とスコープ範囲外の画素が予め定義される。尚、図181においては、注目画素を中心とした31画素×31画素の範囲の場合の例であり、0と1で示される各配置が画素位置を示し、図中中央の丸印で囲まれた位置が注目画素の位置である。また、1で示される位置の画素がスコープ範囲内の画素であり、0で示される位置の画素がスコープ範囲外の画素である。尚、以下、図182乃至図183においても同様である。
【1140】
すなわち、図181で示されるように、スコープ範囲となる画素が注目画素を中心として約角度50度に沿って、一定の範囲の幅を持って配置されている。
【1141】
また、同様にして、簡易式角度検出部901により検出された角度が、60度であった場合、図182で示されるように、スコープ範囲となる画素が注目画素を中心として約角度60度に沿って、一定の範囲の幅を持って配置されている。
【1142】
さらに、簡易式角度検出部901により検出された角度が、67度であった場合、図183で示されるように、スコープ範囲となる画素が注目画素を中心として約角度67度に沿って、一定の範囲の幅を持って配置されている。
【1143】
また、簡易式角度検出部901により検出された角度が、81度であった場合、図184で示されるように、スコープ範囲となる画素が注目画素を中心として約角度81度に沿って、一定の範囲の幅を持って配置されている。
【1144】
以上のように、スコープ範囲外の画素が処理対象範囲から排除されることにより、ステップS924の処理である各画素値を度数に変換する処理において、データの定常性から離れた位置に存在する画素の処理を省くことができ、処理の対象とすべきデータの定常性の方向に沿った相関の高い画素のみを処理することになるので、処理速度を向上させることができる。さらに、処理の対象とすべきデータの定常性の方向に沿った相関の高い画素のみを用いて、度数を求めることができるので、より高い精度でデータの定常性の角度を検出することが可能となる。
【1145】
尚、スコープ範囲に属する画素は、図181乃至図184で示した範囲に限るものではなく、注目画素を中心として、簡易式角度検出部901により検出された角度に沿った位置に存在する様々な幅を持った範囲の複数の画素からなる範囲であってよい。
【1146】
また、図173を参照して説明したデータ定常性検出部101においては、判定部902が、簡易式角度検出部901により検出されたデータの定常性の角度の情報に基づいて、スイッチ903を制御して、入力画像の情報を回帰式角度検出部904、または、勾配式角度検出部905のいずれかに入力させるようにしていたが、回帰式角度検出部904、または、勾配式角度検出部905のいずれにも入力画像を入力させて、角度検出処理をさせた後、簡易式角度検出部901により検出されたデータの定常性の角度の情報に基づいて、いずれかの処理で検出された角度の情報を出力させるようにしてもよい。
【1147】
図185は、回帰式角度検出部904、または、勾配式角度検出部905のいずれにも入力画像を入力させて、角度検出処理をさせた後、簡易式角度検出部901により検出されたデータの定常性の角度の情報に基づいて、いずれかの処理で検出された角度の情報を出力させるようにしたデータ定常性検出部101の構成を示している。尚、図173のデータ定常性検出部101と同様の構成については、同一の符号を付しており、その説明は適宜省略する。
【1148】
図185のデータ定常性検出部101の構成において、図173のデータ定常性検出部101の構成と異なるのは、スイッチ903を削除して、入力画像のデータを回帰式角度検出部904、または、勾配式角度検出部905のいずれにも入力させ、それぞれの出力側にスイッチ982を設けて、それぞれ端子982a,bの接続を切り替えることにより、いずれかの方法で検出された角度の情報を出力するようにしている点である。尚、図185のスイッチ982は、実質的に、図173のスイッチ903と同様のものであるので、その説明は省略する。
【1149】
次に、図186のフローチャートを参照して、図185のデータ定常性検出部101による、データの定常性の検出の処理について説明する。尚、図186のフローチャートにおけるステップS941,S943乃至S945,S947の処理は、図177のフローチャートにおけるステップS901,S904,S907,S902,S905の処理と同様であるので、その説明は省略する。
【1150】
ステップS942において、判定部902は、簡易式角度検出部901より入力されたデータの定常性の角度の情報を回帰式角度検出部904に出力する。
【1151】
ステップS946において、判定部902は、スイッチ982を制御して、端子982aに接続する。
【1152】
ステップS948において、判定部902は、スイッチ982を制御して、端子982bに接続する。
【1153】
尚、図186のフローチャートにおいて、ステップS943,S944の処理順序は入れ替わってもよい。
【1154】
以上によれば、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データ内の、欠落した現実世界の光信号の定常性に対応する画像データの定常性の基準軸に対する角度を、簡易式角度検出部901がマッチング処理により検出し、検出した角度に対応する所定領域内の画像データに基いて、回帰式角度検出部904か、または、勾配式角度検出部905が統計処理により角度を検出するようにしたので、より高速で、かつ、より高精度でデータの定常性の角度を検出することが可能となる。
【1155】
次に、実世界1の信号の推定について説明する。
【1156】
図187は、実世界推定部102の構成を示すブロック図である。
【1157】
図187に構成を示す実世界推定部102においては、入力画像、および定常性検出部101から供給されたデータ定常性情報を基に、実世界1の信号である画像における、細線の幅が検出され、細線のレベル(実世界1の信号の光の強度)が推定される。
【1158】
線幅検出部2101は、定常性検出部101から供給された、細線の画像が射影された画素からなる、細線領域である定常領域を示すデータ定常性情報を基に、細線の幅を検出する。線幅検出部2101は、データ定常性情報と共に、検出された細線の幅を示す細線幅情報を信号レベル推定部2102に供給する。
【1159】
信号レベル推定部2102は、入力画像、線幅検出部2101から供給された細線の幅を示す細線幅情報、およびデータ定常性情報を基に、実世界1の信号である、細線の画像のレベル、すなわち光の強度のレベルを推定し、細線の幅および細線の画像のレベルを示す実世界推定情報を出力する。
【1160】
図188および図189は、実世界1の信号における、細線の幅を検出する処理を説明する図である。
【1161】
図188および図189において、太線で囲む領域(4つの四角からなる領域)は、1つの画素を示し、点線で囲む領域は、細線の画像が射影された画素からなる、細線領域を示し、丸は、細線領域の重心を示す。図188および図189において、斜線は、センサ2に入射された細線の画像を示す。斜線は、センサ2に、実世界1の細線の画像が射影された領域を示しているとも言える。
【1162】
図188および図189において、Sは、細線領域の重心の位置から算出される傾きを示し、Dは、細線領域の重複である。ここで、傾きSは、細線領域が隣接しているので、画素を単位とした、重心と重心との距離である。また、細線領域の重複Dとは、2つの細線領域において、隣接している画素の数である。
【1163】
図188および図189において、Wは、細線の幅を示す。
【1164】
図188において、傾きSは、2であり、重複Dは、2である。
【1165】
図189において、傾きSは、3であり、重複Dは、1である。
【1166】
細線領域が隣接し、細線領域が隣接する方向の重心と重心の距離は、1画素であるので、W:D=1:Sが成立し、細線の幅Wは、重複D/傾きSで求めることができる。
【1167】
例えば、図188で示されるように、傾きSは、2であり、重複Dは、2であるとき、2/2は、1であるから、細線の幅Wは、1である。また、例えば、図189で示されるように、傾きSは、3であり、重複Dは、1であるとき、細線の幅Wは、1/3である。
【1168】
線幅検出部2101は、このように、細線領域の重心の位置から算出される傾き、および細線領域の重複から、細線の幅を検出する。
【1169】
図190は、実世界1の信号における、細線の信号のレベルを推定する処理を説明する図である。
【1170】
図190において、太線で囲む領域(4つの四角からなる領域)は、1つの画素を示し、点線で囲む領域は、細線の画像が射影された画素からなる、細線領域を示す。図190において、Eは、細線領域の画素を単位とした、細線領域の長さを示し、Dは、細線領域の重複(他の細線領域に隣接している画素の数)である。
【1171】
細線の信号のレベルは、処理単位(細線領域)内で一定であると近似し、細線が射影された画素の画素値に射影された、細線以外の画像のレベルは、隣接している画素の画素値に対するレベルに等しいと近似する。
【1172】
細線の信号のレベルをCとしたとき、細線領域に射影された信号(画像)における、図中の、細線の信号が射影された部分の左側の部分のレベルをAとし、図中の、細線の信号が射影された部分の右側の部分のレベルをBとする。
【1173】
このとき、式(93)が成立する。
【1174】
細線領域の画素値の総和=(E−D)/2*A+(E−D)/2*B+D*C ・・・(93)
【1175】
細線の幅が一定であり、細線領域の幅は、1画素なので、細線領域の細線(の信号が射影された部分)の面積は、細線領域の重複Dに等しい。細線領域の幅は、1画素なので、細線領域の画素を単位とした、細線領域の面積は、細線領域の長さEに等しい。
【1176】
細線領域のうち、細線の左側の面積は、(E−D)/2である。細線領域のうち、細線の右側の面積は、(E−D)/2である。
【1177】
式(93)の右辺の第1項は、左側に隣接している画素に射影された信号のレベルと同じレベルの信号が射影された画素値の部分であり、式(94)で表すことができる。
【1178】
【数68】
【1179】
式(94)において、Aiは、左側に隣接している画素の画素値を示す。
【1180】
式(94)において、αiは、左側に隣接している画素に射影された信号のレベルと同じレベルの信号が、細線領域の画素に射影される面積の割合を示す。すなわち、αiは、細線領域の画素の画素値に含まれている、左側に隣接している画素の画素値と同じ画素値の割合を示す。
【1181】
iは、細線領域の左側に隣接している画素の位置を示す。
【1182】
例えば、図190において、細線領域の画素の画素値に含まれている、細線領域の左側に隣接している画素の画素値A0と同じ画素値の割合は、α0である。図190において、細線領域の画素の画素値に含まれている、細線領域の左側に隣接している画素の画素値A1と同じ画素値の割合は、α1である。図190において、細線領域の画素の画素値に含まれている、細線領域の左側に隣接している画素の画素値A2と同じ画素値の割合は、α2である。
【1183】
式(93)の右辺の第2項は、右側に隣接している画素に射影された信号のレベルと同じレベルの信号が射影された画素値の部分であり、式(95)で表すことができる。
【1184】
【数69】
【1185】
式(95)において、Bjは、右側に隣接している画素の画素値を示す。
【1186】
式(95)において、βjは、右側に隣接している画素に射影された信号のレベルと同じレベルの信号が、細線領域の画素に射影される面積の割合を示す。すなわち、βjは、細線領域の画素の画素値に含まれている、右側に隣接している画素の画素値と同じ画素値の割合を示す。
【1187】
jは、細線領域の右側に隣接している画素の位置を示す。
【1188】
例えば、図190において、細線領域の画素の画素値に含まれている、細線領域の右側に隣接している画素の画素値B0と同じ画素値の割合は、β0である。図190において、細線領域の画素の画素値に含まれている、細線領域の右側に隣接している画素の画素値B1と同じ画素値の割合は、β1である。図190において、細線領域の画素の画素値に含まれている、細線領域の右側に隣接している画素の画素値B2と同じ画素値の割合は、β2である。
【1189】
このように、信号レベル推定部2102は、式(94)および式(95)を基に、細線領域に含まれる画素値のうちの、細線以外の画像の画素値を算出し、式(93)を基に、細線領域の画素値から細線以外の画像の画素値を除去することにより、細線領域に含まれる画素値のうちの、細線のみの画像の画素値を求める。そして、信号レベル推定部2102は、細線のみの画像の画素値と細線の面積とから、細線の信号のレベルを求める。より具体的には、信号レベル推定部2102は、細線領域に含まれる画素値のうちの、細線のみの画像の画素値を、細線領域の細線の面積、すなわち細線領域の重複Dで割り算することにより、細線の信号のレベルを算出する。
【1190】
信号レベル推定部2102は、実世界1の信号における、細線の幅、および細線の信号のレベルを示す実世界推定情報を出力する。
【1191】
本発明の手法では、細線の波形を画素ではなく幾何学的に記述しているので、どのような解像度でも使用することができる。
【1192】
次に、ステップS102の処理に対応する、実世界の推定の処理を図191のフローチャートを参照して説明する。
【1193】
ステップS2101において、線幅検出部2101は、データ定常性情報を基に、細線の幅を検出する。例えば、線幅検出部2101は、細線領域の重心の位置から算出される傾き、および細線領域の重複から、重複を傾きで割り算することにより、実世界1の信号における、細線の幅を推定する。
【1194】
ステップS2102において、信号レベル推定部2102は、細線の幅、および細線領域に隣接する画素の画素値を基に、細線の信号のレベルを推定し、推定された細線の幅および細線の信号のレベルを示す実世界推定情報を出力して、処理は終了する。例えば、信号レベル推定部2102は、細線領域に含まれる細線以外の画像が射影された画素値を算出し、細線領域から細線以外の画像が射影された画素値を除去することにより、細線のみの画像が射影された画素値を求めて、求められた細線のみの画像が射影された画素値と細線の面積とから、細線の信号のレベルを算出することにより、実世界1の信号における、細線のレベルを推定する。
【1195】
このように、実世界推定部102は、実世界1の信号の細線の幅およびレベルを推定することができる。
【1196】
以上のように、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した第1の画像データの、データの定常性を検出し、データの定常性に対応する現実世界の光信号の波形を表すモデルに基いて、第1の画像データの定常性から現実世界の光信号の波形を推定し、推定された光信号を第2の画像データに変換するようにした場合、現実世界の光信号に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【1197】
図192は、実世界推定部102の他の構成を示すブロック図である。
【1198】
図192に構成を示す実世界推定部102においては、入力画像、およびデータ定常性検出部101から供給されたデータ定常性情報を基に、領域が再度検出され、再度検出された領域を基に、実世界1の信号である画像における、細線の幅が検出され、実世界1の信号の光の強度(レベル)が推定される。例えば、図192に構成を示す実世界推定部102においては、細線の画像が射影された画素からなる定常性領域が再度検出され、再度検出された領域を基に、実世界1の信号である画像における、細線の幅が検出され、実世界1の信号の光の強度が推定される。
【1199】
データ定常性検出部101から供給され、図192に構成を示す実世界推定部102に入力されるデータ定常性情報には、データ3である入力画像のうちの、細線の画像が射影された定常成分以外の非定常成分を示す非定常成分情報、定常領域の中の単調増減領域を示す単調増減領域情報、および定常領域を示す情報などが含まれている。例えば、データ定常性情報に含まれる非定常成分情報は、入力画像における背景などの非定常成分を近似する平面の傾きおよび切片からなる。
【1200】
実世界推定部102に入力されたデータ定常性情報は、境界検出部2121に供給される。実世界推定部102に入力された入力画像は、境界検出部2121および信号レベル推定部2102に供給される。
【1201】
境界検出部2121は、データ定常性情報に含まれる非定常成分情報、および入力画像から、細線の画像が射影された定常成分のみからなる画像を生成し、定常成分のみからなる画像を基に、画素に射影された、実世界1の信号である細線の画像が射影された割合を示す分配比を算出し、算出された分配比から細線領域の境界を示す回帰直線を算出することにより、定常領域である細線領域を再び検出する。
【1202】
図193は、境界検出部2121の構成を示すブロック図である。
【1203】
分配比算出部2131は、データ定常性情報、データ定常性情報に含まれる非定常成分情報、および入力画像から、細線の画像が射影された定常成分のみからなる画像を生成する。より具体的には、分配比算出部2131は、データ定常性情報に含まれる単調増減領域情報を基に、入力画像から、定常領域の中の隣り合う単調増減領域を検出し、検出された単調増減領域に属する画素の画素値から、定常成分情報に含まれる傾きおよび切片で示される平面で近似される近似値を引き算することにより、細線の画像が射影された定常成分のみからなる画像を生成する。
【1204】
なお、分配比算出部2131は、入力画像の画素の画素値から、定常成分情報に含まれる傾きおよび切片で示される平面で近似される近似値を引き算することにより、細線の画像が射影された定常成分のみからなる画像を生成するようにしてもよい。
【1205】
分配比算出部2131は、生成された定常成分のみからなる画像を基に、実世界1の信号である細線の画像が、定常領域の中の隣り合う単調増減領域に属する2つの画素に分配された割合を示す分配比を算出する。分配比算出部2131は、算出した分配比を回帰直線算出部2132に供給する。
【1206】
図194乃至図196を参照して、分配比算出部2131における、分配比の算出の処理を説明する。
【1207】
図194の左側の2列の数値は、入力画像の画素値から、定常成分情報に含まれる傾きおよび切片で示される平面で近似される近似値を引き算することにより、算出された画像のうち、縦に2列の画素の画素値を示す。図194の左側の四角で囲む2つの領域は、隣り合う2つの単調増減領域である、単調増減領域2141−1および単調増減領域2141−2を示す。すなわち、単調増減領域2141−1および単調増減領域2141−2に示す数値は、データ定常性検出部101において検出された定常性領域である単調増減領域に属する画素の画素値を示す。
【1208】
図194の右側の1列の数値は、図194の左側の2列の画素の画素値のうち、横に並ぶ画素の画素値を加算した値を示す。すなわち、図194の右側の1列の数値は、縦に1列の画素からなる単調増減領域であって、2つの隣接するものについて、横に隣接する画素毎に、細線の画像が射影された画素値を加算した値を示す。
【1209】
例えば、それぞれ、縦に1列の画素からなり、隣接する単調増減領域2141−1および単調増減領域2141−2のいずれかに属し、横に隣接する画素の画素値が、2および58であるとき、加算した値は、60である。それぞれ、縦に1列の画素からなり、隣接する単調増減領域2141−1および単調増減領域2141−2のいずれかに属し、横に隣接する画素の画素値が、1および65であるとき、加算した値は、66である。
【1210】
図194の右側の1列の数値、すなわち、縦に1列の画素からなり、2つの隣接する単調増減領域の横方向に隣接する画素について、細線の画像が射影された画素値を加算した値は、ほぼ一定となることがわかる。
【1211】
同様に、横に1列の画素からなり、2つの隣接する単調増減領域の縦方向に隣接する画素について、細線の画像が射影された画素値を加算した値は、ほぼ一定となる。
【1212】
分配比算出部2131は、2つの隣接する単調増減領域の隣接する画素について、細線の画像が射影された画素値を加算した値が、ほぼ一定となる性質を利用して、細線の画像が1列の画素の画素値にどのように分配されているかを算出する。
【1213】
分配比算出部2131は、図195に示すように、縦に1列の画素からなる単調増減領域であって、2つの隣接するものに属する画素の画素値を、横に隣接する画素毎に、細線の画像が射影された画素値を加算した値で割り算することにより、2つの隣接する単調増減領域に属する各画素について、分配比を算出する。ただし、算出された結果、100を超える分配比には、100が設定される。
【1214】
例えば、図195に示すように、縦に1列の画素からなる単調増減領域であって、2つの隣接するものに属する、横に隣接する画素の画素値が、それぞれ2および58であるとき、加算した値が60なので、それぞれの画素に対して、3.5および95.0である分配比が算出される。縦に1列の画素からなる単調増減領域であって、2つの隣接するものに属する、横に隣接する画素の画素値が、それぞれ1および65であるとき、加算した値が65なので、それぞれの画素に対して、1.5および98.5である分配比が算出される。
【1215】
この場合において、3つの単調増減領域が隣接する場合、どちらの列から計算するかは、図196で示されるように、横に隣接する画素毎に、細線の画像が射影された画素値を加算した、2つの値のうち、頂点Pの画素値により近い値を基に、分配比が算出される。
【1216】
例えば、頂点Pの画素値が81であり、注目している単調増減領域に属する画素の画素値が79であるとき、左側に隣接する画素の画素値が3であり、右側に隣接する画素の画素値が−1である場合、左側に隣接する画素の画素値を加算した値が、82であり、右側に隣接する画素の画素値を加算した値が、78なので、頂点Pの画素値81により近い、82が選択され、左側に隣接する画素を基に、分配比が算出される。同様に、頂点Pの画素値が81であり、注目している単調増減領域に属する画素の画素値が75であるとき、左側に隣接する画素の画素値が0であり、右側に隣接する画素の画素値が3である場合、左側に隣接する画素の画素値を加算した値が、75であり、右側に隣接する画素の画素値を加算した値が、78なので、頂点Pの画素値81により近い、78が選択され、右側に隣接する画素を基に、分配比が算出される。
【1217】
このように、分配比算出部2131は、縦に1列の画素からなる単調増減領域について、分配比を算出する。
【1218】
分配比算出部2131は、同様の処理で、横に1列の画素からなる単調増減領域について、分配比を算出する。
【1219】
回帰直線算出部2132は、単調増減領域の境界が直線であると仮定して、分配比算出部2131において算出された分配比を基に、単調増減領域の境界を示す回帰直線を算出することにより、定常領域の中の単調増減領域を再び検出する。
【1220】
図197および図198を参照して、回帰直線算出部2132における、単調増減領域の境界を示す回帰直線の算出の処理を説明する。
【1221】
図197において、白丸は、単調増減領域2141−1乃至単調増減領域2141−5の上側の境界に位置する画素を示す。回帰直線算出部2132は、回帰の処理により、単調増減領域2141−1乃至単調増減領域2141−5の上側の境界について回帰直線を算出する。例えば、回帰直線算出部2132は、単調増減領域2141−1乃至単調増減領域2141−5の上側の境界に位置する画素との距離の自乗の和が最小となる直線Aを算出する。
【1222】
また、図197において、黒丸は、単調増減領域2141−1乃至単調増減領域2141−5の下側の境界に位置する画素を示す。回帰直線算出部2132は、回帰の処理により、単調増減領域2141−1乃至単調増減領域2141−5の下側の境界について回帰直線を算出する。例えば、回帰直線算出部2132は、単調増減領域2141−1乃至単調増減領域2141−5の下側の境界に位置する画素との距離の自乗の和が最小となる直線Bを算出する。
【1223】
回帰直線算出部2132は、算出された回帰直線を基に、単調増減領域の境界を決定することにより、定常領域の中の単調増減領域を再び検出する。
【1224】
図198に示すように、回帰直線算出部2132は、算出された直線Aを基に、単調増減領域2141−1乃至単調増減領域2141−5の上側の境界を決定する。例えば、回帰直線算出部2132は、単調増減領域2141−1乃至単調増減領域2141−5のそれぞれについて、算出された直線Aに最も近い画素から上側の境界を決定する。例えば、回帰直線算出部2132は、単調増減領域2141−1乃至単調増減領域2141−5のそれぞれについて、算出された直線Aに最も近い画素が領域に含まれるように上側の境界を決定する。
【1225】
図198に示すように、回帰直線算出部2132は、算出された直線Bを基に、単調増減領域2141−1乃至単調増減領域2141−5の下側の境界を決定する。例えば、回帰直線算出部2132は、単調増減領域2141−1乃至単調増減領域2141−5のそれぞれについて、算出された直線Bに最も近い画素から下側の境界を決定する。例えば、回帰直線算出部2132は、単調増減領域2141−1乃至単調増減領域2141−5のそれぞれについて、算出された直線Bに最も近い画素が領域に含まれるように上側の境界を決定する。
【1226】
このように、回帰直線算出部2132は、データ定常性検出部101により検出された定常領域の境界を回帰する回帰線に基づいて、頂点から単調に画素値が増加または減少している領域を再び検出する。すなわち、回帰直線算出部2132は、算出された回帰直線を基に、単調増減領域の境界を決定することにより、定常領域の中の単調増減領域である領域を再び検出し、検出した領域を示す領域情報を線幅検出部2101に供給する。
【1227】
以上のように、境界検出部2121は、画素に射影された、実世界1の信号である細線の画像が射影された割合を示す分配比を算出し、算出された分配比から単調増減領域の境界を示す回帰直線を算出することにより、定常領域の中の単調増減領域を再び検出する。このようにすることで、より正確な単調増減領域を検出することができる。
【1228】
図192に示す線幅検出部2101は、境界検出部2121から供給された、再度検出された領域を示す領域情報を基に、図187に示す場合と同様の処理で、細線の幅を検出する。線幅検出部2101は、データ定常性情報と共に、検出された細線の幅を示す細線幅情報を信号レベル推定部2102に供給する。
【1229】
図192に示す信号レベル推定部2102の処理は、図187に示す場合と同様の処理なので、その説明は省略する。
【1230】
図199は、ステップS102の処理に対応する、図192に構成を示す実世界推定部102による、実世界の推定の処理を説明するフローチャートである。
【1231】
ステップS2121において、境界検出部2121は、データ定常性検出部101により検出された定常領域に属する画素の画素値に基づいて、再び領域を検出する、境界検出の処理を実行する。境界検出の処理の詳細は、後述する。
【1232】
ステップS2122およびステップS2123の処理は、ステップS2101およびステップS2102の処理と同様なので、その説明は省略する。
【1233】
図200は、ステップS2121の処理に対応する、境界検出の処理を説明するフローチャートである。
【1234】
ステップS2131において、分配比算出部2131は、単調増減領域を示すデータ定常性情報および入力画像を基に、細線の画像が射影された割合を示す分配比を算出する。例えば、分配比算出部2131は、データ定常性情報に含まれる単調増減領域情報を基に、入力画像から、定常領域の中の隣り合う単調増減領域を検出し、検出された単調増減領域に属する画素の画素値から、定常成分情報に含まれる傾きおよび切片で示される平面で近似される近似値を引き算することにより、細線の画像が射影された定常成分のみからなる画像を生成する。そして、分配比算出部2131は、1列の画素からなる単調増減領域であって、2つの隣接するものに属する画素の画素値を、隣接する画素の画素値の和で割り算することにより、2つの隣接する単調増減領域に属する各画素について、分配比を算出する。
【1235】
分配比算出部2131は、算出された分配比を回帰直線算出部2132に供給する。
【1236】
ステップS2132において、回帰直線算出部2132は、細線の画像が射影された割合を示す分配比を基に、単調増減領域の境界を示す回帰直線を算出することにより、定常領域の中の領域を再び検出する。例えば、回帰直線算出部2132は、単調増減領域の境界が直線であると仮定して、単調増減領域の一端の境界を示す回帰直線を算出し、単調増減領域の他の一端の境界を示す回帰直線を算出することにより、定常領域の中の単調増減領域を再び検出する。
【1237】
回帰直線算出部2132は、再び検出された、定常領域の中の領域を示す領域情報を線幅検出部2101に供給して、処理は終了する。
【1238】
このように、図192に構成を示す実世界推定部102は、細線の画像が射影された画素からなる領域を再度検出し、再度検出された領域を基に、実世界1の信号である画像における、細線の幅を検出し、実世界1の信号の光の強度(レベル)を推定する。このようにすることで、実世界1の信号に対して、より正確に、細線の幅を検出し、より正確に、光の強度を推定することができる。
【1239】
以上のように、現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した第1の画像データにおける、複数の画素の画素値の不連続部を検出し、検出された不連続部から、データの定常性を有する定常領域を検出し、検出された定常領域に属する画素の画素値に基づいて、再び領域を検出し、再び検出された領域に基づいて実世界を推定するようにした場合、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【1240】
次に、図201を参照して、定常性を有する領域における、画素毎の空間方向の近似関数の微分値を実世界推定情報として出力する実世界推定部102について説明する。
【1241】
参照画素抽出部2201は、データ定常性検出部101より入力されるデータ定常性情報(定常性の角度、または、領域の情報)に基づいて、入力画像の各画素が処理領域であるか否かを判定し、処理領域である場合には、入力画像から実世界の近似関数を求めるために必要な参照画素の情報(演算に必要な注目画素周辺の複数の画素の位置、および、画素値の情報)を抽出して、近似関数推定部2202に出力する。
【1242】
近似関数推定部2202は、参照画素抽出部2201より入力された参照画素の情報に基づいて注目画素周辺の現実世界を近似的に記述する近似関数を最小自乗法に基づいて推定し、推定した近似関数を微分処理部2203に出力する。
【1243】
微分処理部2203は、近似関数推定部2202より入力された近似関数に基づいて、データ定常性情報の角度(例えば、細線や2値エッジの所定の軸に対する角度:傾き)に応じて、注目画素から生成しようとする画素の位置のシフト量を求め、そのシフト量に応じた近似関数上の位置における微分値(定常性に対応する線からの1次元方向に沿った距離に対応する各画素の画素値を近似する関数の微分値)を演算し、さらに、注目画素の位置、画素値、および、定常性の傾きの情報を付加して、これを実世界推定情報として画像生成部103に出力する。
【1244】
次に、図202のフローチャートを参照して、図201の実世界推定部102による実世界推定の処理について説明する。
【1245】
ステップS2201において、参照画素抽出部2201は、入力画像と共に、データ定常性検出部101よりデータ定常性情報としての角度、および、領域の情報を取得する。
【1246】
ステップS2202において、参照画素抽出部2201は、入力画像の未処理画素から注目画素を設定する。
【1247】
ステップS2203において、参照画像抽出部2201は、データ定常性情報の領域の情報に基づいて、注目画素が、処理領域のものであるか否かを判定し、処理領域の画素ではないと判定した場合、その処理は、ステップS2210に進み、その注目画素については、処理領域外であることを近似関数推定部2202を介して、微分処理部2203に伝え、これに応じて、微分処理部2203が、対応する注目画素についての微分値を0として、さらに、その注目画素の画素値を付加して実世界推定情報として画像生成部103に出力すると共に、その処理は、ステップS2211に進む。また、注目画素が処理領域のものであると判定された場合、その処理は、ステップS2204に進む。
【1248】
ステップS2204において、参照画素抽出部2201は、データ定常性情報に含まれる角度の情報から、データ定常性の有する方向が、水平方向に近い角度か、または、垂直に近い角度であるか否かを判定する。すなわち、参照画素抽出部2201は、データ定常性の有する角度θが、0度≦θ<45度、または、135度≦θ<180度となる場合、注目画素の定常性の方向は、水平方向に近いと判定し、データ定常性の有する角度θが、45度≦θ<135度となる場合、注目画素の定常性の方向は、垂直方向に近いと判定する。
【1249】
ステップS2205において、参照画素抽出部2201は、判定した方向に対応した参照画素の位置情報、および、画素値をそれぞれ入力画像から抽出し、近似関数推定部2202に出力する。すなわち、参照画素は、後述する近似関数を演算する際に使用されるデータとなるので、傾きに応じて抽出されることが望ましい。従って、水平方向、または、垂直方向のいずれかの判定方向に対応して、その方向に長い範囲の参照画素が抽出される。より具体的には、例えば、図203で示されるように、傾きGfが垂直方向に近いと、垂直方向であると判定され、この場合、参照画素抽出部2201は、例えば、図203で示されるように、図203中の中央の画素(0,0)を注目画素とするとき、画素(−1,2),(−1,1),(−1,0),(−1,−1),(−1,−2),(0,2),(0,1),(0,0),(0,−1),(0,−2),(1,2),(1,1),(1,0),(1,−1),(1,−2)のそれぞれの画素値を抽出する。尚、図203においては、各画素の水平方向、および、垂直方向の大きさが1であるものとする。
【1250】
すなわち、参照画素抽出部2201は、注目画素を中心として垂直(上下)方向にそれぞれ2画素×水平(左右)方向にそれぞれ1画素の合計15画素となるように、垂直方向に長い範囲の画素を参照画素として抽出する。
【1251】
逆に、水平方向であると判定された場合、注目画素を中心として垂直(上下)方向にそれぞれ1画素×水平(左右)方向にそれぞれ2画素の合計15画素となるように、水平方向に長い範囲の画素を参照画素として抽出して、近似関数推定部2202に出力する。もちろん、参照画素は、上述のように15画素に限定されるものではなく、それ以外の個数であってもよい。
【1252】
ステップS2206において、近似関数推定部2202は、参照画素抽出部2201より入力された参照画素の情報に基づいて、最小自乗法により近似関数f(x)を推定し、微分処理部2203に出力する。
【1253】
すなわち、近似関数f(x)は、以下の式(96)で示されるような多項式である。
【1254】
【数70】
【1255】
このように、式(96)の多項式の各係数W1乃至Wn+1が求められれば、実世界を近似する近似関数f(x)が求められることになる。しかしながら、係数の数よりも多くの参照画素値が必要となるので、例えば、参照画素が、図203で示されるような場合、合計15画素であるので、多項式の係数は、15個までしか求められない。そこで、この場合、多項式は、14次までの多項式とし、係数W1乃至W15を求めることにより近似関数を推定するものとする。尚、今の場合、15次の多項式からなる近似関数f(x)を設定して、連立方程式としてもよい。
【1256】
従って、図203で示される15個の参照画素値を用いるとき、近似関数推定部2202は、以下の式(97)を、最小自乗法を用いて解くことにより推定する。
【1257】
【1258】
尚、多項式の次数にあわせて、参照画素の数を変えるようにしてもよい。
【1259】
ここで、Cx(ty)は、シフト量であり、定常性の傾きがGfで示されるとき、Cx(ty)=ty/Gfで定義される。このシフト量Cx(ty)は、空間方向Y=0の位置上で定義される近似関数f(x)が、傾きGfに沿って、連続している(定常性を有している)ことを前提としたとき、空間方向Y=tyの位置における、空間方向Xに対するずれ幅を示すものである。従って、例えば、空間方向Y=0の位置上で近似関数がf(x)として定義されている場合、この近似関数f(x)は、空間方向Y=tyにおいては、傾きGfに沿って空間方向XについてCx(ty)だけずれているはずなので、関数は、f(x−Cx(ty))(=f(x−ty/Gf))で定義されることになる。
【1260】
ステップS2207において、微分処理部2203は、近似関数推定部2202より入力された近似関数f(x)に基づいて、生成しようとする画素の位置における、シフト量を求める。
【1261】
すなわち、水平方向、および、垂直方向にそれぞれ2倍の密度(合計4倍の密度)となるように画素を生成する場合、微分処理部2203は、例えば、まず、垂直方向に2倍の密度となる画素Pa,Pbに2分割するために、図204で示されるように、注目画素の中心位置がPin(Xin,Yin)での微分値を求めるため、中心位置のPin(Xin,Yin)のシフト量を求める。このシフト量は、Cx(0)となるため、実質的には0となる。尚、図204中において、画素Pinは、(Xin,Yin)を略重心位置とする正方形であり、画素Pa,Pbは、(Xin,Yin+0.25)、(Xin,Yin−0.25)をそれぞれ略重心位置とする図中水平方向に長い長方形である。
【1262】
ステップS2208において、微分処理部2203は、近似関数f(x)を微分して、近似関数の1次微分関数f(x)’を求め、求められたシフト量に応じた位置での微分値を求めて、これを実世界推定情報として画像生成部103に出力する。すなわち、今の場合、微分処理部2203は、微分値f(Xin)’を求め、その位置(今の場合、注目画素(Xin,Yin))と、その画素値、および、定常性の方向の傾きの情報とを付加して出力する。
【1263】
ステップS2209において、微分処理部2203は、求められている密度の画素を生成するのに必要なだけの微分値が求められているか否かを判定する。例えば、今の場合、2倍の密度となるための微分値のみしか求められていない(空間方向Y方向について2倍の密度となるための微分値のみしか求められていない)ので、求められている密度の画素を生成するのに必要なだけの微分値が求められていないと判定し、その処理は、ステップS2207に戻る。
【1264】
ステップS2207において、微分処理部2203は、再度、近似関数推定部2202より入力された近似関数f(x)に基づいて、生成しようとする画素の位置における、シフト量を求める。すなわち、微分処理部2203は、今の場合、2分割された画素Pa,Pbのそれぞれを2分割するために必要な微分値をそれぞれ求める。画素Pa,Pbの画素の位置は、図204における黒丸で示すそれぞれの位置であるので、微分処理部2203は、それぞれの位置に対応するシフト量を求める。画素Pa,Pbのシフト量は、それぞれCx(0.25),Cx(−0.25)となる。
【1265】
ステップS2208において、微分処理部2203は、近似関数f(x)を1次微分して、画素Pa,Pbのそれぞれに対応したシフト量に応じた位置での微分値を求めて、これを実世界推定情報として画像生成部103に出力する。
【1266】
すなわち、図203で示した参照画素を使用する場合、微分処理部2203は、図205で示すように、求められた近似関数f(x)について微分関数f(x)’を求め、空間方向Xについて、シフト量Cx(0.25),Cx(−0.25)だけずれた位置となる(Xin−Cx(0.25))と(Xin−Cx(−0.25))の位置での微分値をそれぞれf(Xin−Cx(0.25))’,f(Xin−Cx(−0.25))’として求め、その微分値に対応する位置情報を付加して、これを実世界推定情報として出力する。尚、最初の処理で画素値の情報が出力されているので画素値の情報は付加されない。
【1267】
ステップS2209において、再び、微分処理部2203は、求められている密度の画素を生成するのに必要なだけの微分値が求められているか否かを判定する。例えば、今の場合、4倍の密度となるための微分値が求められたことになるので、求められている密度の画素を生成するのに必要なだけの微分値が求められたと判定し、その処理は、ステップS2211に進む。
【1268】
ステップS2211において、参照画素抽出部2201は、全ての画素を処理したか否かを判定し、全ての画素を処理していないと判定した場合、その処理は、ステップS2202に戻る。また、ステップS2211において、全ての画素を処理したと判定した場合、その処理は、終了する。
【1269】
上述のように、入力画像について、水平方向、および、垂直方向に4倍の密度となるように画素を生成する場合、画素は、分割される画素の中央の位置の近似関数の微分値を用いて、外挿補間により分割されるので、4倍密度の画素を生成するには、合計3個の微分値の情報が必要となる。
【1270】
すなわち、図204で示されるように、1画素について最終的には、画素P01,P02,P03,P04の4画素(図204において、画素P01,P02,P03,P04は、図中の4個のバツ印の位置を重心位置とする正方形であり、各辺の長さは、画素Pinが、それぞれ1であるので、画素P01,P02,P03,P04は、それぞれ略0.5となる)の生成に必要な微分値が必要となるので、4倍密度の画素を生成するには、まず、水平方向、または、垂直方向(今の場合、垂直方向)に2倍密度の画素を生成し(上述の最初のステップS2207,S2208の処理)、さらに、分割された2画素を、それぞれ最初に分割した方向と垂直の方向(今の場合、水平方向)に分割する(上述の2回目のステップS2207,S2208の処理)ためである。
【1271】
尚、以上の例においては、4倍密度の画素を演算する際の微分値を例として説明してきたが、それ以上の密度の画素を演算する場合、ステップS2207乃至S2209の処理を繰り返すことにより、画素値の演算に必要なさらに多くの微分値を求めるようにしてもよい。また、以上の例については、倍密度の画素値を求める例について説明してきたが、近似関数f(x)は連続関数であるので、倍密度以外の画素値についても必要な微分値を求めることが可能となる。
【1272】
以上によれば、注目画素近傍の画素の画素値を使用して、実世界を近似的に表現する近似関数を求め、空間方向の画素の生成必要な位置の微分値を実世界推定情報として出力することが可能となる。
【1273】
以上の図201において説明した実世界推定部102においては、画像を生成するのに必要な微分値を実世界推定情報として出力していたが、微分値とは、必要な位置での近似関数f(x)の傾きと同値のものである。
【1274】
そこで、次は、図206を参照して、近似関数f(x)を求めることなく、画素生成に必要な近似関数f(x)上の傾きのみを直接求めて、実世界推定情報として出力する実世界推定部102について説明する。
【1275】
参照画素抽出部2211は、データ定常性検出部101より入力されるデータ定常性情報(定常性の角度、または、領域の情報)に基づいて、入力画像の各画素が処理領域であるか否かを判定し、処理領域である場合には、入力画像から傾きを求めるために必要な参照画素の情報(演算に必要な注目画素を含む垂直方向に並ぶ周辺の複数の画素、または、注目画素を含む水平方向に並ぶ周辺の複数の画素の位置、および、それぞれの画素値の情報)を抽出して、傾き推定部2212に出力する。
【1276】
傾き推定部2212は、参照画素抽出部2211より入力された参照画素の情報に基づいて、画素生成に必要な画素位置の傾きの情報を生成して、実世界推定情報として画像生成部103に出力する。より詳細には、傾き推定部2212は、画素間の画素値の差分情報を用いて、実世界を近似的に表現する近似関数f(x)上の注目画素の位置における傾きを求め、これに、注目画素の位置情報、画素値、および、定常性の方向の傾きの情報を実世界推定情報として出力する。
【1277】
次に、図207のフローチャートを参照して、図206の実世界推定部102による実世界推定の処理について説明する。
【1278】
ステップS2221において、参照画素抽出部2211は、入力画像と共に、データ定常性検出部101よりデータ定常性情報としての角度、および、領域の情報を取得する。
【1279】
ステップS2222において、参照画素抽出部2211は、入力画像の未処理画素から注目画素を設定する。
【1280】
ステップS2223において、参照画像抽出部2211は、データ定常性情報の領域の情報に基づいて、注目画素が、処理領域のものであるか否かを判定し、処理領域の画素ではないと判定した場合、その処理は、ステップS2228に進み、その注目画素については、処理領域外であることを傾き推定部2212に伝え、これに応じて、傾き推定部2212が、対応する注目画素についての傾きを0として、さらに、その注目画素の画素値を付加して実世界推定情報として画像生成部103に出力すると共に、その処理は、ステップS2229に進む。また、注目画素が処理領域のものであると判定された場合、その処理は、ステップS2224に進む。
【1281】
ステップS2224において、参照画素抽出部2211は、データ定常性情報に含まれる角度の情報から、データ定常性の有する方向が、水平方向に近い角度か、または、垂直に近い角度であるか否かを判定する。すなわち、参照画素抽出部2211は、データ定常性の有する角度θが、0度≦θ<45度、または、135度≦θ<180度となる場合、注目画素の定常性の方向は、水平方向に近いと判定し、データ定常性の有する角度θが、45度≦θ<135度となる場合、注目画素の定常性の方向は、垂直方向に近いと判定する。
【1282】
ステップS2225において、参照画素抽出部2211は、判定した方向に対応した参照画素の位置情報、および、画素値をそれぞれ入力画像から抽出し、傾き推定部2212に出力する。すなわち、参照画素は、後述する傾きを演算する際に使用されるデータとなるので、定常性の方向を示す傾きに応じて抽出されることが望ましい。従って、水平方向、または、垂直方向のいずれかの判定方向に対応して、その方向に長い範囲の参照画素が抽出される。より具体的には、例えば、傾きが垂直方向に近いと判定された場合、参照画素抽出部2211は、図208で示されるように、図208中の中央の画素(0,0)を注目画素とするとき、画素(0,2),(0,1),(0,0),(0,−1),(0,−2)のそれぞれの画素値を抽出する。尚、図208においては、各画素の大きさが水平方向、および、垂直方向についてそれぞれ1であるものとする。
【1283】
すなわち、参照画素抽出部2211は、注目画素を中心として垂直(上下)方向にそれぞれ2画素の合計5画素となるように、垂直方向に長い範囲の画素を参照画素として抽出する。
【1284】
逆に、水平方向であると判定された場合、注目画素を中心として水平(左右)方向に2画素の合計5画素となるように、水平方向に長い範囲の画素を参照画素として抽出して、近似関数推定部2202に出力する。もちろん、参照画素は、上述のように5画素に限定されるものではなく、それ以外の個数であってもよい。
【1285】
ステップS2226において、傾き推定部2212は、参照画素抽出部2211より入力された参照画素の情報と、定常性方向の傾きGfに基づいて、それぞれの画素値のシフト量を演算する。すなわち、空間方向Y=0に対応する近似関数f(x)を基準とした場合、空間方向Y=−2,−1,1,2に対応する近似関数は、図208で示されるように、定常性の傾きGfに沿って連続していることになるので、各近似関数は、f(x−Cx(2)),f(x−Cx(1)),f(x−Cx(−1)),f(x−Cx(−2))のように記述され、空間方向Y=−2,−1,1,2毎に、各シフト量分だけ空間方向Xにずれた関数として表現される。
【1286】
そこで、傾き推定部2212は、これらのシフト量Cx(−2)乃至Cx(2)を求める。例えば、参照画素が、図208で示されるように抽出された場合、そのシフト量は、図中の参照画素(0,2)は、Cx(2)=2/Gfとなり、参照画素(0,1)は、Cx(1)=1/Gfとなり、参照画素(0,0)は、Cx(0)=0となり、参照画素(0,−1)は、Cx(−1)=−1/Gfとなり、参照画素(0,−2)は、Cx(−2)=−2/Gfとなる。
【1287】
ステップS2227において、傾き推定部2212は、注目画素の位置における近似関数f(x)上の傾きを演算する(推定する)。例えば、図208で示されるように、注目画素について定常性の方向が、垂直方向に近い角度の場合、水平方向に隣接する画素間では画素値が大きく異なるので、垂直方向の画素間では、画素間の変化が小さく、変化が類似していることから、傾き推定部2212は、垂直方向の画素間の変化をシフト量による空間方向Xの変化と捕らえることにより、垂直方向の画素間の差分を水平方向の画素間の差分に置き換えて、注目画素の位置における近似関数f(x)上での傾きを求める。
【1288】
すなわち、現実世界を近似的に記述する近似関数f(x)が存在すると仮定すると、上述のシフト量と各参照画素の画素値との関係は、図209で示されるようなものとなる。ここで、図208の各画素の画素値は、上からP(0,2),P(0,1),P(0,0),P(0,−1),P(0,−2)で表される。結果として、注目画素(0,0)近傍の画素値Pとシフト量Cxは、(P,Cx)=(P(0,2),−Cx(2)),(P(0,1),−Cx(1)),(P(0,−1)),−Cx(−1)),(P(0,−2),−Cx(−2)),(P(0,0),0)の5組の関係が得られることになる。
【1289】
ところで、画素値P、シフト量Cx、および、傾きKx(近似関数f(x)上の傾き)は、以下のような式(98)のような関係が成立することになる。
【1290】
P=Kx×Cx・・・(98)
【1291】
上述の式(98)は、変数Kxについての1変数の関数であるので、傾き推定部2212は、この変数Kx(傾き)について、1変数の最小自乗法により傾きKxを求める。
【1292】
すなわち、傾き推定部2212は、以下に示すような式(99)のような正規方程式を解くことにより、注目画素の傾きを求め、注目画素の画素値、および、定常性の方向の傾きの情報を付加して、実世界推定情報として画像生成部103に出力する。
【1293】
【数71】
【1294】
ここで、iは、上述の参照画素の画素値Pとシフト量Cの組をそれぞれ識別する番号であり、1乃至mである。また、mは、注目画素を含む参照画素の個数となる。
【1295】
ステップS2229において、参照画素抽出部2211は、全ての画素を処理したか否かを判定し、全ての画素を処理していないと判定した場合、その処理は、ステップS2222に戻る。また、ステップS2229において、全ての画素が処理されたと判定された場合、その処理は、終了する。
【1296】
尚、上述の処理により実世界推定情報として出力される傾きは、最終的に求めようとする画素値を外挿補間して演算する際に使用される。また、以上の例においては、2倍密度の画素を演算する際の傾きを例として説明してきたが、それ以上の密度の画素を演算する場合、画素値の演算に必要な、さらに多くの位置での傾きを求めるようにしてもよい。
【1297】
例えば、図204で示されるように、水平方向に2倍の密度で、かつ、垂直方向に2倍の密度の空間方向に合計4倍の密度の画素を生成する場合、上述したように、図204中のPin,Pa,Pbのそれぞれの位置に対応する近似関数f(x)の傾きKxを求めるようにすればよい。
【1298】
また、以上の例については、倍密度の画素値を求める例について説明してきたが、近似関数f(x)は連続関数であるので、倍密度以外の位置の画素の画素値についても必要な傾きを求めることが可能となる。
【1299】
以上によれば、注目画素近傍の画素の画素値を使用して、実世界を近似的に表現する近似関数を求めることなく、空間方向の画素の生成必要な位置の近似関数上の傾きを実世界推定情報として生成し、さらに出力することが可能となる。
【1300】
次に、図210を参照して、定常性を有する領域における、画素毎のフレーム方向(時間方向)の近似関数上の微分値を実世界推定情報として出力する実世界推定部102について説明する。
【1301】
参照画素抽出部2231は、データ定常性検出部101より入力されるデータ定常性情報(定常性の動き(動きベクトル)、および、領域の情報)に基づいて、入力画像の各画素が処理領域であるか否かを判定し、処理領域である場合には、入力画像から実世界の近似関数を求めるために必要な参照画素の情報(演算に必要な注目画素周辺の複数の画素の位置、および、画素値の情報)を抽出して、近似関数推定部2202に出力する。
【1302】
近似関数推定部2232は、参照画素抽出部2231より入力されたフレーム方向の参照画素の情報に基づいて注目画素周辺の現実世界を近似的に記述する近似関数を最小自乗法に基づいて推定し、推定した関数を微分処理部2233に出力する。
【1303】
微分処理部2233は、近似関数推定部2232より入力されたフレーム方向の近似関数に基づいて、データ定常性情報の動きに応じて、注目画素から生成しようとする画素の位置のフレーム方向のシフト量を求め、そのシフト量に応じたフレーム方向の近似関数上の位置における微分値(定常性に対応する線からの1次元方向に沿った距離に対応する各画素の画素値を近似する関数の微分値)を演算し、さらに、注目画素の位置、画素値、および、定常性の動きの情報を付加して、これを実世界推定情報として画像生成部103に出力する。
【1304】
次に、図211のフローチャートを参照して、図210の実世界推定部102による実世界推定の処理について説明する。
【1305】
ステップS2241において、参照画素抽出部2231は、入力画像と共に、データ定常性検出部101よりデータ定常性情報としての動き、および、領域の情報を取得する。
【1306】
ステップS2242において、参照画素抽出部2231は、入力画像の未処理画素から注目画素を設定する。
【1307】
ステップS2243において、参照画像抽出部2231は、データ定常性情報の領域の情報に基づいて、注目画素が、処理領域のものであるか否かを判定し、処理領域の画素ではないと判定した場合、その処理は、ステップS2250に進み、その注目画素については、処理領域外であることを近似関数推定部2232を介して、微分処理部2233に伝え、これに応じて、微分処理部2233が、対応する注目画素についての微分値を0として、さらに、その注目画素の画素値を付加して実世界推定情報として画像生成部103に出力すると共に、その処理は、ステップS2251に進む。また、注目画素が処理領域のものであると判定された場合、その処理は、ステップS2244に進む。
【1308】
ステップS2244において、参照画素抽出部2231は、データ定常性情報に含まれる動きの情報から、データ定常性の有する方向が、空間方向に近い動きか、または、フレーム方向に近い動きであるか否かを判定する。すなわち、図212で示されるように、フレーム方向Tと空間方向Yからなる面において、フレーム方向を基準軸とした、時間と空間の面内の方向を示す角度をθvとすれば、参照画素抽出部2201は、データ定常性の有する角度θvが、0度≦θv<45度、または、135度≦θv<180度となる場合、注目画素の定常性の動きは、フレーム方向(時間方向)に近いと判定し、データ定常性の有する角度θが、45度≦θ<135度となる場合、注目画素の定常性の方向は、空間方向に近いと判定する。
【1309】
ステップS2245において、参照画素抽出部2201は、判定した方向に対応した参照画素の位置情報、および、画素値をそれぞれ入力画像から抽出し、近似関数推定部2232に出力する。すなわち、参照画素は、後述する近似関数を演算する際に使用されるデータとなるので、角度に応じて抽出されることが望ましい。従って、フレーム方向、または、空間方向のいずれかの判定方向に対応して、その方向に長い範囲の参照画素が抽出される。より具体的には、例えば、図212で示されるように、動き方向Vfが空間方向に近いと、空間方向であると判定され、この場合、参照画素抽出部2231は、例えば、図212で示されるように、図212中の中央の画素(t,y)=(0,0)を注目画素とするとき、画素(t,y)=(−1,2),(−1,1),(−1,0),(−1,−1),(−1,−2),(0,2),(0,1),(0,0),(0,−1),(0,−2),(1,2),(1,1),(1,0),(1,−1),(1,−2)のそれぞれの画素値を抽出する。尚、図212においては、各画素のフレーム方向、および、空間方向の大きさが1であるものとする。
【1310】
すなわち、参照画素抽出部2231は、注目画素を中心として空間(図中の上下)方向にそれぞれ2画素×フレーム(図中の左右)方向にそれぞれ1フレーム分の合計15画素となるように、フレーム方向に対して空間方向が長い範囲の画素を参照画素として抽出する。
【1311】
逆に、フレーム方向であると判定された場合、注目画素を中心として空間(図中の上下)方向にそれぞれ1画素×フレーム(図中の左右)方向にそれぞれ2フレーム分の合計15画素となるように、フレーム方向に長い範囲の画素を参照画素として抽出して、近似関数推定部2232に出力する。もちろん、参照画素は、上述のように15画素に限定されるものではなく、それ以外の個数であってもよい。
【1312】
ステップS2246において、近似関数推定部2232は、参照画素抽出部2231より入力された参照画素の情報に基づいて、最小自乗法により近似関数f(t)を推定し、微分処理部2233に出力する。
【1313】
すなわち、近似関数f(t)は、以下の式(100)で示されるような多項式である。
【1314】
【数72】
【1315】
このように、式(100)の多項式の各係数W1乃至Wn+1が求められれば、実世界を近似するフレーム方向の近似関数f(t)が求められることになる。しかしながら、係数の数よりも多くの参照画素値が必要となるので、例えば、参照画素が、図212で示されるような場合、合計15画素であるので、多項式の係数は、15個までしか求められない。そこで、この場合、多項式は、14次までの多項式とし、係数W1乃至W15を求めることにより近似関数を推定するものとする。尚、今の場合、15次の多項式からなる近似関数f(x)を設定して、連立方程式としてもよい。
【1316】
従って、図212で示される15個の参照画素値を用いるとき、近似関数推定部2232は、以下の式(101)を、最小自乗法を用いて解くことにより推定する。
【1317】
【1318】
尚、多項式の次数にあわせて、参照画素の数を変えるようにしてもよい。
【1319】
ここで、Ct(ty)は、シフト量であり、上述のCx(ty)と同様のものであり、定常性の傾きがVfで示されるとき、Ct(ty)=ty/Vfで定義される。このシフト量Ct(ty)は、空間方向Y=0の位置上で定義される近似関数f(t)が、傾きVfに沿って、連続している(定常性を有している)ことを前提としたとき、空間方向Y=tyの位置における、フレーム方向Tに対するずれ幅を示すものである。従って、例えば、空間方向Y=0の位置上で近似関数がf(t)として定義されている場合、この近似関数f(t)は、空間方向Y=tyにおいては、フレーム方向(時間方向)TについてCt(ty)だけずれているはずなので、関数は、f(t−Ct(ty))(=f(t−ty/Vf))で定義されることになる。
【1320】
ステップS2247において、微分処理部2233は、近似関数推定部2232より入力された近似関数f(t)に基づいて、生成しようとする画素の位置における、シフト量を求める。
【1321】
すなわち、フレーム方向、および、空間方向にそれぞれ2倍の密度(合計4倍の密度)となるように画素を生成する場合、微分処理部2233は、例えば、まず、空間方向に2倍の密度となる画素Pat,Pbtに2分割するために、図213で示されるように、注目画素の中心位置がPin(Tin,Yin)での微分値を求めるため、中心位置のPin(Tin,Yin)のシフト量を求める。このシフト量は、Ct(0)となるため、実質的には0となる。尚、図213中において、画素Pinは、(Tin,Yin)を略重心位置とする正方形であり、画素Pat,Pbtは、(Tin,Yin+0.25)、(Tin,Yin−0.25)をそれぞれ略重心位置とする図中水平方向に長い長方形である。また、注目画素Pinのフレーム方向Tの長さが1であるとは、1フレーム分のシャッタ時間に対応するものである。
【1322】
ステップS2248において、微分処理部2233は、近似関数f(t)を微分して、近似関数の1次微分関数f(t)’を求め、求められたシフト量に応じた位置での微分値を求めて、これを実世界推定情報として画像生成部103に出力する。すなわち、今の場合、微分処理部2233は、微分値f(Tin)’を求め、その位置(今の場合、注目画素(Tin,Yin))と、その画素値、および、定常性の方向の動きの情報とを付加して出力する。
【1323】
ステップS2249において、微分処理部2233は、求められている密度の画素を生成するのに必要なだけの微分値が求められているか否かを判定する。例えば、今の場合、空間方向に2倍の密度となるための微分値のみしか求められていない(フレーム方向に2倍の密度となるための微分値が求められていない)ので、求められている密度の画素を生成するのに必要なだけの微分値が求められていないと判定し、その処理は、ステップS2247に戻る。
【1324】
ステップS2247において、微分処理部2203は、再度、近似関数推定部2202より入力された近似関数f(t)に基づいて、生成しようとする画素の位置における、シフト量を求める。すなわち、微分処理部2203は、今の場合、2分割された画素Pat,Pbtのそれぞれをさらに2分割するために必要な微分値をそれぞれ求める。画素Pat,Pbtの画素の位置は、図213における黒丸で示すそれぞれの位置であるので、微分処理部2233は、それぞれの位置に対応するシフト量を求める。画素Pat,Pbtのシフト量は、それぞれCt(0.25),Ct(−0.25)となる。
【1325】
ステップS2248において、微分処理部2233は、近似関数f(t)を微分して、画素Pat,Pbtのそれぞれに対応したシフト量に応じた位置での微分値を求めて、これを実世界推定情報として画像生成部103に出力する。
【1326】
すなわち、図212で示した参照画素を使用する場合、微分処理部2233は、図214で示すように、求められた近似関数f(t)について微分関数f(t)’を求め、空間方向Tについて、シフト量Ct(0.25),Ct(−0.25)だけずれた位置となる(Tin−Ct(0.25))と(Tin−Ct(−0.25))の位置での微分値をそれぞれf(Tin−Ct(0.25))’,f(Tin−Ct(−0.25))’として求め、その微分値に対応する位置情報を付加して、これを実世界推定情報として出力する。尚、最初の処理で画素値の情報が出力されているので画素値の情報は付加されない。
【1327】
ステップS2249において、再び、微分処理部2233は、求められている密度の画素を生成するのに必要なだけの微分値が求められているか否かを判定する。例えば、今の場合、空間方向Yとフレーム方向Tについてそれぞれ2倍(合計4倍)の密度となるための微分値が求められたことになるので、求められている密度の画素を生成するのに必要なだけの微分値が求められたと判定し、その処理は、ステップS2251に進む。
【1328】
ステップS2251において、参照画素抽出部2231は、全ての画素を処理したか否かを判定し、全ての画素を処理していないと判定した場合、その処理は、ステップS2242に戻る。また、ステップS2251において、全ての画素を処理したと判定した場合、その処理は、終了する。
【1329】
上述のように、入力画像について、フレーム方向(時間方向)、および、空間方向に4倍の密度となるように画素を生成する場合、画素は、分割される画素の中央の位置の近似関数の微分値を用いて、外挿補間により分割されるので、4倍密度の画素を生成するには、合計3個の微分値の情報が必要となる。
【1330】
すなわち、図213で示されるように、1画素について最終的には、画素P01t,P02t,P03t,P04tの4画素(図213において、画素P01t,P02t,P03t,P04tは、図中の4個のバツ印の位置を重心位置とする正方形であり、各辺の長さは、画素Pinが、それぞれ1であるので、画素P01t,P02t,P03t,P04tは、それぞれ略0.5となる)の生成に必要な微分値が必要となるので、4倍密度の画素を生成するには、まず、フレーム方向、または、空間方向に2倍密度の画素を生成し(上述の最初のステップS2247,S2248の処理)、さらに、分割された2画素を、それぞれ最初に分割した方向と垂直の方向(今の場合、フレーム方向)に分割する(上述の2回目のステップS2247,S2248の処理)ためである。
【1331】
尚、以上の例においては、4倍密度の画素を演算する際の微分値を例として説明してきたが、それ以上の密度の画素を演算する場合、ステップS2247乃至S2249の処理を繰り返すことにより、画素値の演算に必要なさらに多くの微分値を求めるようにしてもよい。また、以上の例については、倍密度の画素値を求める例について説明してきたが、近似関数f(t)は連続関数であるので、倍密度以外の画素値についても必要な微分値を求めることが可能となる。
【1332】
以上によれば、注目画素近傍の画素の画素値を使用して、実世界を近似的に表現する近似関数を求め、画素の生成必要な位置の微分値を実世界推定情報として出力することが可能となる。
【1333】
以上の図210において説明した実世界推定部102においては、画像を生成するのに必要な微分値を実世界推定情報として出力していたが、微分値とは、必要な位置での近似関数f(t)の傾きと同値のものである。
【1334】
そこで、次は、図215を参照して、近似関数を求めることなく、画素生成に必要な、近似関数上のフレーム方向の傾きのみを直接求めて、実世界推定情報として出力する実世界推定部102について説明する。
【1335】
参照画素抽出部2251は、データ定常性検出部101より入力されるデータ定常性情報(定常性の動き、および、領域の情報)に基づいて、入力画像の各画素が処理領域であるか否かを判定し、処理領域である場合には、入力画像から傾きを求めるために必要な参照画素の情報(演算に必要な注目画素を含む空間方向に並ぶ周辺の複数の画素、または、注目画素を含むフレーム方向に並ぶ周辺の複数の画素の位置、および、それぞれの画素値の情報)を抽出して、傾き推定部2252に出力する。
【1336】
傾き推定部2252は、参照画素抽出部2251より入力された参照画素の情報に基づいて、画素生成に必要な画素位置の傾きの情報を生成して、実世界推定情報として画像生成部103に出力する。より詳細には、傾き推定部2252は、画素間の画素値の差分情報を用いて、実世界を近似的に表現する近似関数上の注目画素の位置におけるフレーム方向の傾きを求め、これに、注目画素の位置情報、画素値、および、定常性の方向の動きの情報を実世界推定情報として出力する。
【1337】
次に、図216のフローチャートを参照して、図215の実世界推定部102による実世界推定の処理について説明する。
【1338】
ステップS2261において、参照画素抽出部2251は、入力画像と共に、データ定常性検出部101よりデータ定常性情報としての動き、および、領域の情報を取得する。
【1339】
ステップS2262において、参照画素抽出部2251は、入力画像の未処理画素から注目画素を設定する。
【1340】
ステップS2263において、参照画像抽出部2251は、データ定常性情報の領域の情報に基づいて、注目画素が、処理領域のものであるか否かを判定し、処理領域の画素ではないと判定した場合、その処理は、ステップS2268に進み、その注目画素については、処理領域外であることを傾き推定部2252に伝え、これに応じて、傾き推定部2252が、対応する注目画素についての傾きを0として、さらに、その注目画素の画素値を付加して実世界推定情報として画像生成部103に出力すると共に、その処理は、ステップS2269に進む。また、注目画素が処理領域のものであると判定された場合、その処理は、ステップS2264に進む。
【1341】
ステップS2264において、参照画素抽出部2211は、データ定常性情報に含まれる動きの情報から、データ定常性の動きが、フレーム方向に近い動きか、または、空間方向に近い動きであるか否かを判定する。すなわち、フレーム方向Tと空間方向Yからなる面において、フレーム方向を基準軸とした、時間と空間の面内の方向を示す角度をθvとすれば、参照画素抽出部2251は、データ定常性の動きの角度θvが、0度≦θv<45度、または、135度≦θv<180度となる場合、注目画素の定常性の動きは、フレーム方向に近いと判定し、データ定常性の有する角度θvが、45度≦θv<135度となる場合、注目画素の定常性の動きは、空間方向に近いと判定する。
【1342】
ステップS2265において、参照画素抽出部2251は、判定した方向に対応した参照画素の位置情報、および、画素値をそれぞれ入力画像から抽出し、傾き推定部2252に出力する。すなわち、参照画素は、後述する傾きを演算する際に使用されるデータとなるので、定常性の動きに応じて抽出されることが望ましい。従って、フレーム方向、または、空間方向のいずれかの判定方向に対応して、その方向に長い範囲の参照画素が抽出される。より具体的には、例えば、動きが空間方向に近いと判定された場合、参照画素抽出部2251は、図217で示されるように、図217中の中央の画素(t,y)=(0,0)を注目画素とするとき、画素(t,y)=(0,2),(0,1),(0,0),(0,−1),(0,−2)のそれぞれの画素値を抽出する。尚、図217においては、各画素の大きさがフレーム方向、および、空間方向についてそれぞれ1であるものとする。
【1343】
すなわち、参照画素抽出部2251は、注目画素を中心として空間(図中の上下)方向にそれぞれ2画素の合計5画素となるように、空間方向に長い範囲の画素を参照画素として抽出する。
【1344】
逆に、フレーム方向であると判定された場合、注目画素を中心としてフレーム(図中の左右)方向に2画素の合計5画素となるように、水平方向に長い範囲の画素を参照画素として抽出して、近似関数推定部2252に出力する。もちろん、参照画素は、上述のように5画素に限定されるものではなく、それ以外の個数であってもよい。
【1345】
ステップS2266において、傾き推定部2252は、参照画素抽出部2251より入力された参照画素の情報と、定常性方向の動きVfの方向に基づいて、それぞれの画素値のシフト量を演算する。すなわち、空間方向Y=0に対応する近似関数f(t)を基準とした場合、空間方向Y=−2,−1,1,2に対応する近似関数は、図217で示されるように、定常性の傾きVfに沿って連続していることになるので、各近似関数は、f(t−Ct(2)),f(t−Ct(1)),f(t−Ct(−1)),f(t−Ct(−2))のように記述され、空間方向Y=−2,−1,1,2毎に、各シフト量分だけフレーム方向Tにずれた関数として表現される。
【1346】
そこで、傾き推定部2252は、これらのシフト量Ct(−2)乃至Ct(2)を求める。例えば、参照画素が、図217で示されるように抽出された場合、そのシフト量は、図中の参照画素(0,2)は、Ct(2)=2/Vfとなり、参照画素(0,1)は、Ct(1)=1/Vfとなり、参照画素(0,0)は、Ct(0)=0となり、参照画素(0,−1)は、Ct(−1)=−1/Vfとなり、参照画素(0,−2)は、Ct(−2)=−2/Vfとなる。傾き推定部2252は、これらのシフト量Ct(−2)乃至Ct(2)を求める。
【1347】
ステップS2267において、傾き推定部2252は、注目画素のフレーム方向の傾きを演算する(推定する)。例えば、図217で示されるように、注目画素について定常性の方向が、空間方向に近い角度の場合、フレーム方向に隣接する画素間では画素値が大きく異なるので、空間方向の画素間では、画素間の変化が小さく、変化が類似していることから、傾き推定部2252は、空間方向の画素間の変化をシフト量によるフレーム方向Tの変化と捕らえることにより、空間方向の画素間の差分をフレーム方向の画素間の差分に置き換えて、注目画素での傾きを求める。
【1348】
すなわち、現実世界を近似的に記述する関数f(t)が存在すると仮定すると、上述のシフト量と各参照画素の画素値との関係は、図218で示されるようなものとなる。ここで、図218の各画素の画素値は、上からP(0,2),P(0,1),P(0,0),P(0,−1),P(0,−2)で表される。結果として、注目画素(0,0)近傍の画素値Pとシフト量Ctは、(P,Ct)=(P(0,2),−Ct(2)),(P(0,1),−Ct(1)),(P(0,−1)),−Ct(−1)),(P(0,−2),−Ct(−2)),(P(0,0),0)の5組の関係が得られることになる。
【1349】
ところで、画素値P、シフト量Ct、および、傾きKt(近似関数f(t)上の傾き)は、以下のような式(102)のような関係が成立することになる。
【1350】
P=Kt×Ct・・・(102)
【1351】
上述の式(102)は、変数Ktについての1変数の関数であるので、傾き推定部2212は、この変数Kt(傾き)について、1変数の最小自乗法により傾きKtを求める。
【1352】
すなわち、傾き推定部2252は、以下に示すような式(103)のような正規方程式を解くことにより、注目画素の傾きを求め、注目画素の画素値、および、定常性の方向の傾きの情報を付加して、実世界推定情報として画像生成部103に出力する。
【1353】
【数73】
【1354】
ここで、iは、上述の参照画素の画素値Pとシフト量Ctの組をそれぞれ識別する番号であり、1乃至mである。また、mは、注目画素を含む参照画素の個数となる。
【1355】
ステップS2269において、参照画素抽出部2251は、全ての画素を処理したか否かを判定し、全ての画素を処理していないと判定した場合、その処理は、ステップS2262に戻る。また、ステップS2269において、全ての画素が処理されたと判定された場合、その処理は、終了する。
【1356】
尚、上述の処理により実世界推定情報として出力されるフレーム方向の傾きは、最終的に求めようとする画素値を外挿補間して演算する際に使用される。また、以上の例においては、2倍密度の画素を演算する際の傾きを例として説明してきたが、それ以上の密度の画素を演算する場合、画素値の演算に必要な、さらに多くの位置での傾きを求めるようにしてもよい。
【1357】
例えば、図204で示されるように、水平方向に2倍の密度で、かつ、フレーム方向に2倍の密度の時空間方向に合計4倍の密度の画素を生成する場合、上述したように、図204中のPin,Pat,Pbtのそれぞれの位置に対応する近似関数f(t)の傾きKtを求めるようにすればよい。
【1358】
また、以上の例については、倍密度の画素値を求める例について説明してきたが、近似関数f(t)は連続関数であるので、倍密度以外の位置の画素の画素値についても必要な傾きを求めることが可能となる。
【1359】
言うまでもなく、フレーム方向、または、空間方向に対する近似関数上の傾き、または、微分値を求める処理の順序は問わない。さらに、空間方向において、上述の例においては、空間方向Yとフレーム方向Tとの関係を用いて、説明してきたが、空間方向Xとフレーム方向Tとの関係を用いたものであってもよい。さらに、時空間方向のいずれか2次元の関係から(いずれから1次元の方向の)傾き、または、微分値を選択的に求めるようにしてもよい。
【1360】
以上によれば、それぞれ時空間積分効果を有する、センサの複数の検出素子により現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる画像データにおけるデータの定常性を検出し、検出した定常性に対応して、画像データ内の注目画素に対して時空間方向のうち1次元方向の位置に対応する複数画素の画素値の傾きを、現実世界の光信号に対応する関数として推定するようにしたので、注目画素近傍の画素の画素値を使用して、実世界を近似的に表現するフレーム方向の近似関数を求めることなく、画素の生成必要な位置のフレーム方向(時間方向)の近似関数上の傾きを実世界推定情報として生成し、さらに出力することが可能となる。
【1361】
次に、図219乃至図249を参照して、実世界推定部102(図3)の実施の形態の他の例について説明する。
【1362】
図219は、この例の実施の形態の原理を説明する図である。
【1363】
図219で示されるように、センサ2に入射される画像である、実世界1の信号(光の強度の分布)は、所定の関数Fで表される。なお、以下、この例の実施の形態の説明においては、画像である、実世界1の信号を、特に光信号と称し、関数Fを、特に光信号関数Fと称する。
【1364】
この例の実施の形態においては、光信号関数Fで表される実世界1の光信号が所定の定常性を有する場合、実世界推定部102が、センサ2からの入力画像(定常性に対応するデータの定常性を含む画像データ)と、データ定常性検出部101からのデータ定常性情報(入力画像のデータの定常性に対応するデータ定常性情報)を使用して、光信号関数Fを所定の関数fで近似することによって、光信号関数Fを推定する。なお、以下、この例の実施の形態の説明においては、関数fを、特に近似関数fと称する。
【1365】
換言すると、この例の実施の形態においては、実世界推定部102が、近似関数fで表されるモデル161(図7)を用いて、光信号関数Fで表される画像(実世界1の光信号)を近似(記述)する。従って、以下、この例の実施の形態を、関数近似手法と称する。
【1366】
ここで、関数近似手法の具体的な説明に入る前に、本願出願人が関数近似手法を発明するに至った背景について説明する。
【1367】
図220は、センサ2がCCDとされる場合の積分効果を説明する図である。
【1368】
図220で示されるように、センサ2の平面上には、複数の検出素子2−1が配置されている。
【1369】
図220の例では、検出素子2−1の所定の1辺に平行な方向が、空間方向の1方向であるX方向とされており、X方向に垂直な方向が、空間方向の他方向であるY方向とされている。そして、X−Y平面に垂直な方向が、時間方向であるt方向とされている。
【1370】
また、図220の例では、センサ2の各検出素子2−1のそれぞれの空間的な形状は、1辺の長さが1の正方形とされている。そして、センサ2のシャッタ時間(露光時間)が1とされている。
【1371】
さらに、図220の例では、センサ2の所定の1つの検出素子2−1の中心が、空間方向(X方向とY方向)の原点(X方向の位置x=0、およびY方向の位置y=0)とされており、また、露光時間の中間時刻が、時間方向(t方向)の原点(t方向の位置t=0)とされている。
【1372】
この場合、空間方向の原点(x=0,y=0)にその中心が存在する検出素子2−1は、X方向に−0.5乃至0.5の範囲、Y方向に−0.5乃至0.5の範囲、およびt方向に−0.5乃至0.5の範囲で光信号関数F(x,y,t)を積分し、その積分値を画素値Pとして出力することになる。
【1373】
即ち、空間方向の原点にその中心が存在する検出素子2−1から出力される画素値Pは、次の式(104)で表される。
【1374】
【数74】
【1375】
その他の検出素子2−1も同様に、対象とする検出素子2−1の中心を空間方向の原点とすることで、式(104)で示される画素値Pを出力することになる。
【1376】
図221は、センサ2の積分効果の具体的な例を説明する図である。
【1377】
図221において、X方向とY方向は、センサ2のX方向とY方向(図220)を表している。
【1378】
実世界1の光信号のうちの1部分(以下、このような部分を、領域と称する)2301は、所定の定常性を有する領域の1例を表している。
【1379】
なお、実際には、領域2301は連続した光信号の1部分(連続した領域)である。これに対して、図221においては、領域2301は、20個の小領域(正方形の領域)に区分されているように示されている。これは、領域2301の大きさが、X方向に対して4個分、かつY方向に対して5個分のセンサ2の検出素子(画素)が並んだ大きさに相当することを表すためである。即ち、領域2301内の20個の小領域(仮想領域)のそれぞれは1つの画素に相当する。
【1380】
また、領域2301のうちの図中白い部分は細線に対応する光信号を表している。従って、領域2301は、細線が続く方向に定常性を有していることになる。そこで、以下、領域2301を、細線含有実世界領域2301と称する。
【1381】
この場合、細線含有実世界領域2301(実世界1の光信号の1部分)がセンサ2により検出されると、センサ2からは、積分効果により、入力画像(画素値)の領域2302(以下、細線含有データ領域2302と称する)が出力される。
【1382】
なお、細線含有データ領域2302の各画素のそれぞれは、図中、画像として示されているが、実際には、所定の1つの値を表すデータである。即ち、細線含有実世界領域2301は、センサ2の積分効果により、所定の1つの画素値をそれぞれ有する20個の画素(X方向に4画素分、かつY方向に5画素分の総計20個の画素)に区分された細線含有データ領域2302に変化してしまう(歪んでしまう)。
【1383】
図222は、センサ2の積分効果の具体的な他の例(図221とは異なる例)を説明する図である。
【1384】
図222において、X方向とY方向は、センサ2のX方向とY方向(図220)を表している。
【1385】
実世界1の光信号の1部分(領域)2303は、所定の定常性を有する領域の他の例(図221の細線含有実世界領域2301とは異なる例)を表している。
【1386】
なお、領域2303は、細線含有実世界領域2301と同じ大きさを有する領域である。即ち、細線含有実世界領域2301と同様に、領域2303も、実際には連続した実世界1の光信号の1部分(連続した領域)であるが、図222においては、センサ2の1画素に相当する20個の小領域(正方形の領域)に区分されているように示されている。
【1387】
また、領域2303は、所定の第1の光の強度(値)を有する第1の部分と、所定の第2の光の強度(値)を有する第2の部分のエッジを含んでいる。従って、領域2303は、エッジが続く方向に定常性を有していることになる。そこで、以下、領域2303を、2値エッジ含有実世界領域2303と称する。
【1388】
この場合、2値エッジ含有実世界領域2303(実世界1の光信号の1部分)がセンサ2により検出されると、センサ2からは、積分効果により、入力画像(画素値)の領域2304(以下、2値エッジ含有データ領域2304と称する)が出力される。
【1389】
なお、2値エッジ含有データ領域2304の各画素値のそれぞれは、細線含有データ領域2302と同様に、図中、画像として表現されているが、実際には、所定の値を表すデータである。即ち、2値エッジ含有実世界領域2303は、センサ2の積分効果により、所定の1つの画素値をそれぞれ有する20個の画素(X方向に4画素分、かつY方向に5画素分の総計20個の画素)に区分された2値エッジ含有データ領域2304に変化してしまう(歪んでしまう)。
【1390】
従来の画像処理装置は、このような細線含有データ領域2302や2値エッジ含有データ領域2304等、センサ2から出力された画像データを原点(基準)とするとともに、画像データを処理の対象として、それ以降の画像処理を行っていた。即ち、センサ2から出力された画像データは、積分効果により実世界1の光信号とは異なるもの(歪んだもの)となっているにも関わらず、従来の画像処理装置は、その実世界1の光信号とは異なるデータを正として画像処理を行っていた。
【1391】
その結果、従来の画像処理装置では、センサ2から出力された段階で、実世界のディテールがつぶれてしまった波形(画像データ)を基準として、その波形から、元のディテールを復元することは非常に困難であるという課題があった。
【1392】
そこで、関数近似手法においては、この課題を解決するために、上述したように(図219で示されるように)、実世界推定部102が、細線含有データ領域2302や2値エッジ含有データ領域2304のようなセンサ2から出力された画像データ(入力画像)から、光信号関数F(実世界1の光信号)を近似関数fで近似することによって、光信号関数Fを推定する。
【1393】
これにより、実世界推定部102より後段において(いまの場合、図3の画像生成部103)、積分効果が考慮された画像データ、即ち、近似関数fにより表現可能な画像データを原点として、その処理を実行することが可能になる。
【1394】
以下、図面を参照して、このような関数近似手法のうちの3つの具体的な手法(第1乃至第3の関数近似手法)のそれぞれについて個別に説明していく。
【1395】
はじめに、図223乃至図237を参照して、第1の関数近似手法について説明する。
【1396】
図223は、上述した図221で示される細線含有実世界領域2301を再度表した図である。
【1397】
図223において、X方向とY方向は、センサ2のX方向とY方向(図220)を表している。
【1398】
第1の関数近似手法は、例えば、図223で示されるような細線含有実世界領域2301に対応する光信号関数F(x,y,t)をX方向(図中矢印2311の方向)に射影した1次元の波形(以下、このような波形を、X断面波形F(x)と称する)を、n次(nは、任意の整数)の多項式である近似関数f(x)で近似する手法である。従って、以下、第1の関数近似手法を、特に、1次元多項式近似手法と称する。
【1399】
なお、1次元多項式近似手法において、近似の対象となるX断面波形F(x)は、勿論、図223の細線含有実世界領域2301に対応するものに限定されない。即ち、後述するように、1次元多項式近似手法においては、定常性を有する実世界1の光信号に対応するX断面波形F(x)であれば、いずれのものでも近似することが可能である。
【1400】
また、光信号関数F(x,y,t)の射影の方向はX方向に限定されず、Y方向またはt方向でもよい。即ち、1次元多項式近似手法においては、光信号関数F(x,y,t)をY方向に射影した関数F(y)を、所定の近似関数f(y)で近似することも可能であるし、光信号関数F(x,y,t)をt方向に射影した関数F(t)を、所定の近似関数f(t)で近似することも可能である。
【1401】
より詳細には、1次元多項式近似手法は、例えば、X断面波形F(x)を、次の式(105)で示されるような、n次の多項式である近似関数f(x)で近似する手法である。
【1402】
【数75】
【1403】
即ち、1次元多項式近似手法においては、実世界推定部102が、式(105)のx^iの係数(特徴量)wiを演算することで、X断面波形F(x)を推定する。
【1404】
この特徴量wiの演算方法は、特に限定されず、例えば、次の第1乃至第3の方法が使用可能である。
【1405】
即ち、第1の方法は、従来から利用されている方法である。
【1406】
これに対して、第2の方法は、本願出願人が新たに発明した方法であって、第1の方法に対して、さらに、空間方向の定常性を考慮した方法である。
【1407】
しかしながら、後述するように、第1の方法と第2の方法においては、センサ2の積分効果が考慮されていない。従って、第1の方法または第2の方法により演算された特徴量wiを上述した式(105)に代入して得られる近似関数f(x)は、入力画像の近似関数ではあるが、厳密には、X断面波形F(x)の近似関数とは言えない。
【1408】
そこで、本願出願人は、第2の方法に対して、センサ2の積分効果をさらに考慮して特徴量wiを演算する第3の方法を発明した。この第3の方法により演算された特徴量wiを、上述した式(105)に代入して得られる近似関数f(x)は、センサ2の積分効果を考慮している点で、X断面波形F(x)の近似関数であると言える。
【1409】
このように、厳密には、第1の方法と第2の方法は、1次元多項式近似手法とは言えず、第3の方法のみが1次元多項式近似手法であると言える。
【1410】
換言すると、図224で示されるように、第2の方法は、1次元多項式近似手法とは異なる、本発明の実世界推定部102の実施の形態である。即ち、図224は、第2の方法に対応する実施の形態の原理を説明する図である。
【1411】
図224で示されるように、第2の方法に対応する実施の形態においては、光信号関数Fで表される実世界1の光信号が所定の定常性を有する場合、実世界推定部102が、センサ2からの入力画像(定常性に対応するデータの定常性を含む画像データ)と、データ定常性検出部101からのデータ定常性情報(入力画像のデータの定常性に対応するデータ定常性情報)を使用して、X断面波形F(x)を近似するのではなく、センサ2からの入力画像を所定の近似関数f2(x)で近似する。
【1412】
このように、第2の方法は、センサ2の積分効果を考慮せず、入力画像の近似に留まっている点で、第3の方法と同一レベルの手法であるとは言い難い。しかしながら、第2の方法は、空間方向の定常性を考慮している点で、従来の第1の方法よりも優れた手法である。
【1413】
以下、第1の方法、第2の方法、および第3の方法のそれぞれの詳細について、その順番で個別に説明していく。
【1414】
なお、以下、第1の方法、第2の方法、および第3の方法により生成される近似関数f(x)のそれぞれを、他の方法のものと区別する場合、特に、近似関数f1(x)、近似関数f2(x)、および近似関数f3(x)とそれぞれ称する。
【1415】
はじめに、第1の方法の詳細について説明する。
【1416】
第1の方法においては、上述した式(105)で示される近似関数f1(x)が、図225の細線含有実世界領域2301内で成り立つとして、次の予測方程式(106)を定義する。
【1417】
【数76】
【1418】
式(106)において、xは、注目画素からのX方向に対する相対的な画素位置を表している。yは、注目画素からのY方向に対する相対的な画素位置を表している。eは、誤差を表している。具体的には、例えば、いま、図225で示されるように、注目画素が、細線含有データ領域2302(細線含有実世界領域2301(図223)がセンサ2により検出されて、出力されたデータ)のうちの、図中、左からX方向に2画素目であって、下からY方向に3画素目の画素であるとする。また、注目画素の中心を原点(0,0)とし、センサ2のX方向とY方向(図220)のそれぞれに平行なx軸とy軸を軸とする座標系(以下、注目画素座標系と称する)が設定されているとする。この場合、注目画素座標系の座標値(x,y)が、相対画素位置を表すことになる。
【1419】
また、式(106)において、P(x,y)は、相対画素位置(x,y)における画素値を表している。具体的には、いまの場合、細線含有データ領域2302内のP(x,y)は、図226で示されるようになる。
【1420】
図226は、この画素値P(x,y)をグラフ化したものを表している。
【1421】
図226において、各グラフのそれぞれの縦軸は、画素値を表しており、横軸は、注目画素からのX方向の相対位置xを表している。また、図中、上から1番目のグラフの点線は入力画素値P(x,−2)を、上から2番目のグラフの3点鎖線は入力画素値P(x,−1)を、上から3番目のグラフの実線は入力画素値P(x,0)を、上から4番目のグラフの1点鎖線は入力画素値P(x,1)を、上から5番目(下から1番目)のグラフの2点鎖線は入力画素値P(x,2)を、それぞれ表している。
【1422】
上述した式(106)に対して、図226で示される20個の入力画素値P(x,−2),P(x,−1),P(x,0),P(x,1),P(x,2)(ただし、xは、−1乃至2のうちのいずれかの整数値)のそれぞれを代入すると、次の式(107)で示される20個の方程式が生成される。なお、ek(kは、1乃至20のうちのいずれかの整数値)のそれぞれは、誤差を表している。
【1423】
【数77】
【1424】
式(107)は、20個の方程式より構成されているので、近似関数f1(x)の特徴量wiの個数が20個より少ない場合、即ち、近似関数f1(x)が19次より少ない次数の多項式である場合、例えば、最小自乗法を用いて特徴量wiの算出が可能である。なお、最小自乗法の具体的な解法は後述する。
【1425】
例えば、いま、近似関数f1(x)の次数が5次とされた場合、式(107)を利用して最小自乗法により演算された近似関数f1(x)(演算された特徴量wiにより生成される近似関数f1(x))は、図227で示される曲線のようになる。
【1426】
なお、図227において、縦軸は画素値を表しており、横軸は注目画素からの相対位置xを表している。
【1427】
即ち、図225の細線含有データ領域2302を構成する20個の画素値P(x,y)のそれぞれ(図226で示される入力画素値P(x,−2),P(x,−1),P(x,0),P(x,1),P(x,2)のそれぞれ)を、例えば、x軸に沿ってそのまま足しこむ(Y方向の相対位置yを一定とみなして、図226で示される5つのグラフを重ねる)と、図227で示されるような、x軸に平行な複数の線(点線、3点鎖線、実線、1点鎖線、および2点鎖線)が分布する。
【1428】
ただし、図227においては、点線は入力画素値P(x,−2)を、3点鎖線は入力画素値P(x,−1)を、実線は入力画素値P(x,0)を、1点鎖線は入力画素値P(x,1)を、2点鎖線は入力画素値P(x,2)を、それぞれ表している。また、同一の画素値の場合、実際には2本以上の線が重なることになるが、図227においては、各線の区別がつくように、各線のそれぞれが重ならないように描画されている。
【1429】
そして、このように分布した20個の入力画素値P(x,−2),P(x,−1),P(x,0),P(x,1),P(x,2)のそれぞれと、値f1(x)の誤差が最小となるような回帰曲線(最小自乗法により演算された特徴量wiを上述した式(104)に代入して得られる近似関数f1(x))が、図227で示される曲線(近似関数f1(x))となる。
【1430】
このように、近似関数f1(x)は、Y方向の画素値(注目画素からのX方向の相対位置xが同一の画素値)P(x,−2),P(x,−1),P(x,0),P(x,1),P(x,2)の平均値を、X方向に結んだ曲線を単に表しているに過ぎない。即ち、光信号が有する空間方向の定常性を考慮することなく、近似関数f1(x)が生成されている。
【1431】
例えば、いまの場合、近似の対象は、細線含有実世界領域2301(図223)とされている。この細線含有実世界領域2301は、図228で示されるように、傾きGFで表される空間方向の定常性を有している。なお、図228において、X方向とY方向は、センサ2のX方向とY方向(図220)を表している。
【1432】
従って、データ定常性検出部101(図219)は、空間方向の定常性の傾きGFに対応するデータ定常性情報として、図228で示されるような角度θ(傾きGFに対応する傾きGfで表されるデータの定常性の方向と、X方向のなす角度θ)を出力することができる。
【1433】
しかしながら、第1の方法においては、データ定常性検出部101より出力されるデータ定常性情報は一切用いられていない。
【1434】
換言すると、図228で示されるように、細線含有実世界領域2301の空間方向の定常性の方向は略角度θ方向である。しかしながら、第1の方法は、細線含有実世界領域2301の空間方向の定常性の方向はY方向であると仮定して(即ち、角度θが90度であると仮定して)、近似関数f1(x)の特徴量wiを演算する方法である。
【1435】
このため、近似関数f1(x)は、その波形が鈍り、元の画素値よりディテールが減少する関数となってしまう。換言すると、図示はしないが、第1の方法により生成される近似関数f1(x)は、実際のX断面波形F(x)とは大きく異なる波形となってしまう。
【1436】
そこで、本願出願人は、第1の方法に対して、空間方向の定常性をさらに考慮して(角度θを利用して)特徴量wiを演算する第2の方法を発明した。
【1437】
即ち、第2の方法は、細線含有実世界領域2301の定常性の方向は略角度θ方向であるとして、近似関数f2(x) の特徴量wiを演算する方法である。
【1438】
具体的には、例えば、空間方向の定常性に対応するデータの定常性を表す傾きGfは、次の式(108)で表される。
【1439】
【数78】
【1440】
なお、式(108)において、dxは、図228で示されるようなX方向の微小移動量を表しており、dyは、図228で示されるようなdxに対するY方向の微小移動量を表している。
【1441】
この場合、シフト量Cx(y)を、次の式(109)のように定義すると、第2の方法においては、第1の方法で利用した式(106)に相当する式は、次の式(110)のようになる。
【1442】
【数79】
【1443】
【数80】
【1444】
即ち、第1の方法で利用した式(106)は、画素の中心の位置(x、y)のうちのX方向の位置xが、同一の位置に位置する画素の画素値P(x,y)はいずれも同じ値であることを表している。換言すると、式(106)は、同じ画素値の画素がY方向に続いている(Y方向に定常性がある)ことを表している。
【1445】
これに対して、第2の方法で利用する式(110)は、画素の中心の位置が(x,y)である画素の画素値P(x,y)は、注目画素(その中心の位置が原点(0,0)である画素)からX方向にxだけ離れた場所に位置する画素の画素値(≒f2(x))とは一致せず、その画素からさらにX方向にシフト量Cx(y)だけ離れた場所に位置する画素(注目画素からX方向にx+Cx(y)だけ離れた場所に位置する画素)の画素値(≒f2(x+Cx(y)))と同じ値であることを表している。換言すると、式(110)は、同じ画素値の画素が、シフト量Cx(y)に対応する角度θ方向に続いている(略角度θ方向に定常性がある)ことを表している。
【1446】
このように、シフト量Cx(y)が、空間方向の定常性(いまの場合、図228の傾きGFで表される定常性(厳密には、傾きGfで表されるデータの定常性))を考慮した補正量であり、シフト量Cx(y)により式(106)を補正したものが式(110)となる。
【1447】
この場合、図225で示される細線含有データ領域2302の20個の画素値P(x,y)(ただし、xは、−1乃至2のうちのいずれかの整数値。yは、−2乃至2のうちのいずれかの整数値)のそれぞれを、上述した式(110)に代入すると次の式(111)で示される20個の方程式が生成される。
【1448】
【数81】
【1449】
式(111)は、上述した式(107)と同様に、20個の方程式より構成されている。従って、第1の方法と同様に第2の方法においても、近似関数f2(x)の特徴量wiの個数が20個より少ない場合、即ち、近似関数f2(x)が19次より少ない次数の多項式である場合、例えば、最小自乗法を用いて特徴量wiの算出が可能である。なお、最小自乗法の具体的な解法は後述する。
【1450】
例えば、第1の方法と同様に近似関数f2(x)の次数が5次とされた場合、第2の方法においては、次のようにして特徴量wiが演算される。
【1451】
即ち、図229は、式(111)の左辺で示される画素値P(x,y)をグラフ化したものを表している。図229で示される5つのグラフのそれぞれは、基本的に図226で示されるものと同一である。
【1452】
図229で示されるように、最大の画素値(細線に対応する画素値)は、傾きGfで表されるデータの定常性の方向に続いている。
【1453】
そこで、第2の方法においては、図229で示される入力画素値P(x,−2),P(x,−1),P(x,0),P(x,1),P(x,2)のそれぞれを、例えば、x軸に沿って足しこむ場合、第1の方法のようにそのまま足しこむ(yを一定とみなして、図229で示される状態のまま5つのグラフを重ねる)のではなく、図230で示される状態に変化させてから足しこむ。
【1454】
即ち、図230は、図229で示される入力画素値P(x,−2),P(x,−1),P(x,0),P(x,1),P(x,2)のそれぞれを、上述した式(109)で示されるシフト量Cx(y)だけシフトさせた状態を表している。換言すると、図230は、図229で示される5つのグラフを、データの定常性の実際の方向を表す傾きGFを、あたかも傾きGF’とするように(図中、点線の直線を実線の直線とするように)移動させた状態を表している。
【1455】
図230の状態で、入力画素値P(x,−2),P(x,−1),P(x,0),P(x,1),P(x,2)のそれぞれを、例えば、x軸に沿って足しこむと(図230で示される状態で5つのグラフを重ねると)、図231で示されるような、x軸に平行な複数の線(点線、3点鎖線、実線、1点鎖線、および2点鎖線)が分布する。
【1456】
なお、図231において、縦軸は画素値を表しており、横軸は注目画素からの相対位置xを表している。また、点線は入力画素値P(x,−2)を、3点鎖線は入力画素値P(x,−1)を、実線は入力画素値P(x,0)を、1点鎖線は入力画素値P(x,1)を、2点鎖線は入力画素値P(x,2)を、それぞれ表している。さらに、同一の画素値の場合、実際には2本以上の線が重なることになるが、図231においては、各線の区別がつくように、各線のそれぞれが重ならないように描画されている。
【1457】
そして、このように分布した20個の入力画素値P(x,y)のそれぞれ(ただし、xは、−1乃至2のうちのいずれかの整数値。yは、−2乃至2のうちのいずれかの整数値)と、値f2(x+Cx(y))の誤差が最小となるような回帰曲線(最小自乗法により演算された特徴量wiを上述した式(104)に代入して得られる近似関数f2(x))は、図231の実線で示される曲線f2(x)となる。
【1458】
このように、第2の方法により生成された近似関数f2(x)は、データ定常性検出部101(図219)より出力される角度θ方向(即ち、ほぼ空間方向の定常性の方向)の入力画素値P(x,y)の平均値をX方向に結んだ曲線を表すことになる。
【1459】
これに対して、上述したように、第1の方法により生成された近似関数f1(x)は、Y方向(即ち、空間方向の定常性とは異なる方向)の入力画素値P(x,y)の平均値を、X方向に結んだ曲線を単に表しているに過ぎない。
【1460】
従って、図231で示されるように、第2の方法により生成された近似関数f2(x)は、第1の方法により生成された近似関数f1(x)よりも、その波形の鈍り度合いが減少し、かつ、元の画素値に対するディテールの減り具合も減少する関数となる。換言すると、図示はしないが、第2の方法により生成される近似関数f2(x)は、第1の方法により生成される近似関数f1(x)よりも実際のX断面波形F(x)により近い波形となる。
【1461】
しかしながら、上述したように、近似関数f2(x)は、空間方向の定常性が考慮されたものではあるが、入力画像(入力画素値)を原点(基準)として生成されたものに他ならない。即ち、上述した図224で示されるように、近似関数f2(x)は、X断面波形F(x)とは異なる入力画像を近似したに過ぎず、X断面波形F(x)を近似したとは言い難い。換言すると、第2の方法は、上述した式(110)が成立するとして特徴量wiを演算する方法であり、上述した式(104)の関係は考慮していない(センサ2の積分効果を考慮していない)。
【1462】
そこで、本願出願人は、第2の方法に対して、センサ2の積分効果をさらに考慮することで近似関数f3(x)の特徴量wiを演算する第3の方法を発明した。
【1463】
即ち、第3の方法は、空間混合領域の概念を導入した方法である。
【1464】
第3の方法の説明の前に、図232を参照して、空間混合領域について説明する。
【1465】
図232において、実世界1の光信号の1部分2321(以下、領域2321と称する)は、センサ2の1つの検出素子(画素)と同じ面積を有する領域を表している。
【1466】
領域2321がセンサ2に検出されると、センサ2からは、領域2321が時空間方向(X方向,Y方向,およびt方向)に積分された値(1つの画素値)2322が出力される。なお、画素値2322は、図中、画像として表現されているが、実際には、所定の値を表すデータである。
【1467】
実世界1の領域2321は、前景(例えば、上述した細線)に対応する光信号(図中白い領域)と、背景に対応する光信号(図中黒い領域)に明確に区分される。
【1468】
これに対して、画素値2322は、前景に対応する実世界1の光信号と、背景に対応する実世界1の光信号が積分された値である。換言すると、画素値2322は、前景に対応する光のレベルと背景に対応する光のレベルが空間的に混合されたレベルに対応する値である。
【1469】
このように、実世界1の光信号のうちの1画素(センサ2の検出素子)に対応する部分が、同一レベルの光信号が空間的に一様に分布する部分ではなく、前景と背景のように異なるレベルの光信号のそれぞれが分布する部分である場合、その領域は、センサ2により検出されると、センサ2の積分効果により、異なる光のレベルがあたかも空間的に混合されて(空間方向に積分されて)1つの画素値となってしまう。このように、前景に対する画像(実世界1の光信号)と、背景に対する画像(実世界1の光信号)が空間的に積分されている画素からなる領域を、ここでは、空間混合領域と称している。
【1470】
従って、第3の方法においては、実世界推定部102(図219)が、実世界1の元の領域2321(実世界1の光信号のうちの、センサ2の1画素に対応する部分2321)を表すX断面波形F(x)を、例えば、図233で示されるような、1次の多項式である近似関数f3(x)で近似することによって、X断面波形F(x)を推定する。
【1471】
即ち、図233は、空間混合領域である画素値2322(図232)に対応する近似関数f3(x)、即ち、実世界1の領域2331内の実線(図232)に対応するX断面波形F(x)を近似する近似関数f3(x)の例を表している。図233において、図中水平方向の軸は、画素値2322に対応する画素の左下端xsから右下端xeまでの辺(図232)に平行な軸を表しており、x軸とされている。図中垂直方向の軸は、画素値を表す軸とされている。
【1472】
図233において、近似関数f3(x)をxsからxeの範囲(画素幅)で積分したものが、センサ2から出力される画素値P(x,y)とほぼ一致する(誤差eだけ存在する)として、次の式(112)を定義する。
【1473】
【数82】
【1474】
いまの場合、図228で示される細線含有データ領域2302の20個の画素値P(x,y)(ただし、xは、−1乃至2のうちのいずれかの整数値。yは、−2乃至2のうちのいずれかの整数値)から、近似関数f3(x)の特徴量wiが算出されるので、式(112)の画素値Pは、画素値P(x,y)となる。
【1475】
また、第2の方法と同様に、空間方向の定常性も考慮する必要があるので、式(112)の積分範囲の開始位置xsと終了位置xeのそれぞれは、シフト量Cx(y)にも依存することになる。即ち、式(112)の積分範囲の開始位置xsと終了位置xeのそれぞれは、次の式(113)のように表される。
【1476】
【数83】
【1477】
この場合、図228で示される細線含有データ領域2302の各画素値それぞれ、即ち、図229で示される入力画素値P(x,−2),P(x,−1),P(x,0),P(x,1),P(x,2)のそれぞれ(ただし、xは、−1乃至2のうちのいずれかの整数値)を、上述した式(112)(積分範囲は、上述した式(113))に代入すると次の式(114)で示される20個の方程式が生成される。
【1478】
【数84】
【数85】
【1479】
式(114)は、上述した式(111)と同様に、20個の方程式より構成されている。従って、第2の方法と同様に第3の方法においても、近似関数f3(x)の特徴量wiの個数が20個より少ない場合、即ち、近似関数f3(x)が19次より少ない次数の多項式である場合、例えば、最小自乗法を用いて特徴量wiの算出が可能である。なお、最小自乗法の具体的な解法は後述する。
【1480】
例えば、近似関数f3(x)の次数が5次とされた場合、式(114)を利用して最小自乗法により演算された近似関数f3(x)(演算された特徴量wiにより生成される近似関数f3(x))は、図234の実線で示される曲線のようになる。
【1481】
なお、図234において、縦軸は画素値を表しており、横軸は注目画素からの相対位置xを表している。
【1482】
図234で示されるように、第3の方法により生成された近似関数f3(x)(図中、実線で示される曲線)は、第2の方法により生成された近似関数f2(x)(図中、点線で示される曲線)と比較すると、x=0における画素値が大きくなり、また、曲線の傾斜の度合いも急な波形となる。これは、入力画素よりディテイルが増加して、入力画素の解像度とは無関係となっているためである。即ち、近似関数f3(x)は、X断面波形F(x)を近似していると言える。従って、図示はしないが、近似関数f3(x)は、近似関数f2(x)よりもX断面波形F(x)に近い波形となる。
【1483】
図235は、このような1次多項式近似手法を利用する実世界推定部102の構成例を表している。
【1484】
図235において、実世界推定部102は、例えば、特徴量wiを上述した第3の方法(最小自乗法)により演算し、演算した特徴量wiを利用して上述した式(105)の近似関数f(x)を生成することで、X断面波形F(x)を推定する。
【1485】
図235で示されるように、実世界推定部102には、条件設定部2331、入力画像記憶部2332、入力画素値取得部2333、積分成分演算部2334、正規方程式生成部2335、および近似関数生成部2336が設けられている。
【1486】
条件設定部2331は、注目画素に対応するX断面波形F(x)を推定するために使用する画素の範囲(以下、タップ範囲と称する)や、近似関数f(x)の次数nを設定する。
【1487】
入力画像記憶部2332は、センサ2からの入力画像(画素値)を一次的に格納する。
【1488】
入力画素値取得部2333は、入力画像記憶部2332に記憶された入力画像のうちの、条件設定部2231により設定されたタップ範囲に対応する入力画像の領域を取得し、それを入力画素値テーブルとして正規方程式生成部2335に供給する。即ち、入力画素値テーブルは、入力画像の領域に含まれる各画素のそれぞれの画素値が記述されたテーブルである。なお、入力画素値テーブルの具体例については後述する。
【1489】
ところで、ここでは、実世界推定部102は、上述した式(112)と式(113)を利用して最小自乗法により近似関数f(x)の特徴量wiを演算するが、上述した式(112)は、次の式(115)のように表現することができる。
【1490】
【数86】
【1491】
式(115)において、Si(xs,xe)は、i次項の積分成分を表している。即ち、積分成分Si(xs,xe)は、次の式(116)で示される。
【1492】
【数87】
【1493】
積分成分演算部2334は、この積分成分Si(xs、xe)を演算する。
【1494】
具体的には、式(116)で示される積分成分Si(xs,xe)(ただし、値xsと値xeは、上述した式(112)で示される値)は、相対画素位置(x,y)、シフト量Cx(y)、および、i次項のiが既知であれば演算可能である。また、これらのうちの、相対画素位置(x,y)は注目画素とタップ範囲により、シフト量Cx(y)は角度θにより(上述した式(107)と式(109)により)、iの範囲は次数nにより、それぞれ決定される。
【1495】
従って、積分成分演算部2334は、条件設定部2331により設定されたタップ範囲および次数、並びにデータ定常性検出部101より出力されたデータ定常性情報のうちの角度θに基づいて積分成分Si(xs,xe)を演算し、その演算結果を積分成分テーブルとして正規方程式生成部2335に供給する。
【1496】
正規方程式生成部2335は、入力画素値取得部2333より供給された入力画素値テーブルと、積分成分演算部2334より供給された積分成分テーブルを利用して、上述した式(112)、即ち、式(115)の右辺の特徴量wiを最小自乗法で求める場合の正規方程式を生成し、それを正規方程式テーブルとして近似関数生成部2336に供給する。なお、正規方程式の具体例については後述する。
【1497】
近似関数生成部2336は、正規方程式生成部2335より供給された正規方程式テーブルに含まれる正規方程式を行列解法で解くことにより、上述した式(115)の特徴量wi(即ち、1次元多項式である近似関数f(x)の係数wi)のそれぞれを演算し、画像生成部103に出力する。
【1498】
次に、図236のフローチャートを参照して、1次元多項式近似手法を利用する実世界推定部102(図235)の実世界の推定処理(図40のステップS102の処理)について説明する。
【1499】
例えば、いま、センサ2から出力された1フレームの入力画像であって、上述した図221の細線含有データ領域2302を含む入力画像が、既に入力画像記憶部2332に記憶されているとする。また、データ定常性検出部101が、ステップS101(図40)の定常性の検出の処理において、細線含有データ領域2302に対してその処理を施して、データ定常性情報として角度θを既に出力しているとする。
【1500】
この場合、図236のステップS2301において、条件設定部2331は、条件(タップ範囲と次数)を設定する。
【1501】
例えば、いま、図237で示されるタップ範囲2351が設定されるとともに、次数として5次が設定されたとする。
【1502】
即ち、図237は、タップ範囲の1例を説明する図である。図237において、X方向とY方向は、センサ2のX方向とY方向(図220)を表している。また、タップ範囲2351は、X方向に4画素分、かつY方向に5画素分の総計20個の画素(図中、20個の正方形)からなる画素群を表している。
【1503】
さらに、図237で示されるように、注目画素が、タップ範囲2351のうちの、図中、左から2画素目であって、下から3画素目の画素に設定されるとする。また、各画素のそれぞれに対して、注目画素からの相対画素位置(x,y)(注目画素の中心(0,0)を原点とする注目画素座標系の座標値)に応じて、図237で示されるような番号l(lは、0乃至19のうちのいずれかの整数値)が付されるとする。
【1504】
図236に戻り、ステップS2302において、条件設定部2331は、注目画素を設定する。
【1505】
ステップS2303において、入力画素値取得部2333は、条件設定部2331により設定された条件(タップ範囲)に基づいて入力画素値を取得し、入力画素値テーブルを生成する。即ち、いまの場合、入力画素値取得部2333は、細線含有データ領域2302(図225)を取得し、入力画素値テーブルとして、20個の入力画素値P(l)からなるテーブルを生成する。
【1506】
なお、いまの場合、入力画素値P(l)と、上述した入力画素値P(x,y)の関係は、次の式(117)で示される関係とされる。ただし、式(117)において、左辺が入力画素値P(l)を表し、右辺が入力画素値P(x,y)を表している。
【1507】
【数88】
【1508】
ステップS2304において、積分成分演算部2334は、条件設定部2331により設定された条件(タップ範囲および次数)、並びにデータ定常性検出部101より供給されたデータ定常性情報(角度θ)に基づいて積分成分を演算し、積分成分テーブルを生成する。
【1509】
いまの場合、上述したように、入力画素値は、P(x,y)でなくP(l)といった、画素の番号lの値として取得されるので、積分成分演算部2334は、上述した式(116)の積分成分Si(xs,xe)を、次の式(118)の左辺で示される積分成分Si(l)といったlの関数として演算する。
【1510】
Si(l) = Si(xs,xe) ・・・(118)
【1511】
具体的には、いまの場合、次の式(119)で示される積分成分Si(l)が演算される。
【1512】
【数89】
【1513】
なお、式(119)において、左辺が積分成分Si(l)を表し、右辺が積分成分Si(xs,xe)を表している。即ち、いまの場合、iは0乃至5であるので、20個のS0(l),20個のS1(l),20個のS2(l),20個のS3(l),20個のS4(l),20個のS5(l)の総計120個のSi(l)が演算されることになる。
【1514】
より具体的には、はじめに、積分成分演算部2334は、データ定常性検出部101より供給された角度θを使用して、シフト量Cx(−2),Cx(−1),Cx(1),Cx(2)のそれぞれを演算する。次に、積分成分演算部2334は、演算したシフト量Cx(−2),Cx(−1),Cx(1),Cx(2)を使用して式(118)の右辺に示される20個の積分成分Si(xs,xe)のそれぞれを、i=0乃至5のそれぞれについて演算する。即ち、120個の積分成分Si(xs,xe)が演算される。なお、この積分成分Si(xs,xe)の演算においては、上述した式(116)が使用される。そして、積分成分演算部2334は、式(119)に従って、演算した120個の積分成分Si(xs,xe)のそれぞれを、対応する積分成分Si(l)に変換し、変換した120個の積分成分Si(l)を含む積分成分テーブルを生成する。
【1515】
なお、ステップS2303の処理とステップS2304の処理の順序は、図236の例に限定されず、ステップS2304の処理が先に実行されてもよいし、ステップS2303の処理とステップS2304の処理が同時に実行されてもよい。
【1516】
次に、ステップS2305において、正規方程式生成部2335は、ステップS2303の処理で入力画素値取得部2333により生成された入力画素値テーブルと、ステップS2304の処理で積分成分演算部2334により生成された積分成分テーブルに基づいて、正規方程式テーブルを生成する。
【1517】
具体的には、いまの場合、最小自乗法により、上述した式(115)に対応する次の式(120)の特徴量wiを演算する。で、それに対応する正規方程式は、次の式(121)のように表される。
【1518】
【数90】
【1519】
【数91】
【1520】
なお、式(121)において、Lは、タップ範囲の画素の番号lのうちの最大値を表している。nは、多項式である近似関数f(x)の次数を表している。具体的には、いまの場合、n=5となり、L=19となる。
【1521】
式(121)で示される正規方程式の各行列のそれぞれを、次の式(122)乃至(124)のように定義すると、正規方程式は、次の式(125)のように表される。
【1522】
【数92】
【1523】
【数93】
【1524】
【数94】
【1525】
【数95】
【1526】
式(123)で示されるように、行列WMATの各成分は、求めたい特徴量wiである。従って、式(125)において、左辺の行列SMATと右辺の行列PMATが決定されれば、行列解法によって行列WMAT(即ち、特徴量wi)の算出が可能である。
【1527】
具体的には、式(122)で示されるように、行列SMATの各成分は、上述した積分成分Si(l)が既知であれば演算可能である。積分成分Si(l)は、積分成分演算部2334より供給された積分成分テーブルに含まれているので、正規方程式生成部2335は、積分成分テーブルを利用して行列SMATの各成分を演算することができる。
【1528】
また、式(124)で示されるように、行列PMATの各成分は、積分成分Si(l)と入力画素値P(l)が既知であれば演算可能である。積分成分Si(l)は、行列SMATの各成分に含まれるものと同一のものであり、また、入力画素値P(l)は、入力画素値取得部2333より供給された入力画素値テーブルに含まれているので、正規方程式生成部2335は、積分成分テーブルと入力画素値テーブルを利用して行列PMATの各成分を演算することができる。
【1529】
このようにして、正規方程式生成部2335は、行列SMATと行列PMATの各成分を演算し、その演算結果(行列SMATと行列PMATの各成分)を正規方程式テーブルとして近似関数生成部2336に出力する。
【1530】
正規方程式生成部2335より正規方程式テーブルが出力されると、ステップS2306において、近似関数生成部2336は、正規方程式テーブルに基づいて、上述した式(125)の行列WMATの各成分である特徴量wi(即ち、1次元多項式である近似関数f(x)の係数wi)を演算する。
【1531】
具体的には、上述した式(125)の正規方程式は、次の式(126)のように変形できる。
【1532】
【数96】
【1533】
式(126)において、左辺の行列WMATの各成分が、求めたい特徴量wiである。また、行列SMATと行列PMATのそれぞれの各成分は、正規方程式生成部2335より供給された正規方程式テーブルに含まれている。従って、近似関数生成部2336は、正規方程式テーブルを利用して、式(126)の右辺の行列演算を行うことで行列WMATを演算し、その演算結果(特徴量wi)を画像生成部103に出力する。
【1534】
ステップS2307において、近似関数生成部2336は、全画素の処理を終了したか否かを判定する。
【1535】
ステップS2307において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS2302に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS2302乃至S2307の処理が繰り返される。
【1536】
そして、全画素の処理が終了すると(ステップS2307において、全画素の処理が終了されたと判定されると)、実世界1の推定処理は終了となる。
【1537】
なお、以上のようにして演算された係数(特徴量)wiにより生成される近似関数f(x)の波形は、上述した図234の近似関数f3(x)のような波形となる。
【1538】
このように、1次元多項式近似手法においては、1次元のX断面波形F(x)と同一形状の波形が定常性の方向に連なっていると仮定して、1次元の多項式である近似関数f(x)の特徴量が演算される。従って、1次元多項式近似手法においては、他の関数近似手法に比較して、少ない演算処理量で近似関数f(x)の特徴量の算出が可能となる。
【1539】
換言すると、1次元多項式近似手法においては、例えば、図219(図3)のデータ定常性検出部101が、それぞれ時空間積分効果を有する、センサの複数の検出素子(例えば、図220のセンサ2の検出素子2−1)により実世界1の光信号(例えば、図221の実世界1の光信号の1部分2301)が射影され、実世界1の光信号の定常性(例えば、図228の傾きGFで表される定常性)の一部が欠落した、検出素子2−1により射影された画素値(例えば、図226の各グラフに示される入力画素値P(x,y))を有する複数の画素からなる画像データ(例えば、図221の画像データ(入力画像の領域)2302)におけるデータの定常性(例えば、図228の傾きGfで表されるデータの定常性)を検出する。
【1540】
例えば、図219(図3)の実世界推定部102は、データ定常性検出部101により検出されたデータの定常性に対応して、画像データの時空間方向のうち1次元方向(例えば、図223の矢印2311、即ち、X方向)の位置に対応する画素の画素値(例えば、上述した式(112)の左辺である入力画素値P)が、1次元方向の積分効果により取得された画素値(例えば、式(112)の右辺に示されるように、近似関数f3(x)がX方向に積分された値)であるとして、実世界1の光信号を表す光信号関数F(具体的には、X断面波形F(x))を所定の近似関数f(具体的には、例えば、図234の近似関数f3(x))で近似することで、光信号関数Fを推定する。
【1541】
詳細には、例えば、実世界推定部102は、定常性検出手部101により検出されたデータの定常性に対応する線(例えば、図230の傾きGfに対応する線(点線))からの1次元方向(例えば、X方向)に沿った距離(例えば、図230のシフト量Cx(y))に対応する画素の画素値が、1次元方向の積分効果により取得された画素値(例えば、上述した式(112)に示されるような積分範囲で、式(112)の右辺に示されるように、近似関数f3(x)がX方向に積分された値)であるとして、光信号関数Fを近似関数fで近似することにより、光信号関数Fを推定する。
【1542】
従って、1次元多項式近似手法においては、他の関数近似手法に比較して、少ない演算処理量で近似関数f(x)の特徴量の算出が可能となる。
【1543】
次に、図238乃至図244を参照して、第2の関数近似手法について説明する。
【1544】
即ち、第2の関数近似手法とは、例えば、図238で示されるような、傾きGFで表される空間方向の定常性を有する実世界1の光信号を、X−Y平面上(空間方向の1方向であるX方向と、X方向に垂直なY方向に水平な平面上)の波形F(x,y)とみなし、2次元の多項式である近似関数f(x,y)で波形F(x,y)を近似することによって、その波形F(x,y)を推定する手法である。従って、以下、第2の関数近似手法を、2次元多項式近似手法と称する。
【1545】
なお、図238において、図中、水平方向は、空間方向の1方向であるX方向を、右上方向は、空間方向の他方向であるY方向を、垂直方向は、光のレベルを、それぞれ表している。GFは、空間方向の定常性の傾きを表している。
【1546】
また、2次元多項式近似手法の説明においても、センサ2は、図239で示されるような、複数の検出素子2−1がその平面上に配置されて構成されるCCDとされる。
【1547】
図239の例では、検出素子2−1の所定の1辺に平行な方向が、空間方向の1方向であるX方向とされており、X方向に垂直な方向が、空間方向の他方向であるY方向とされている。そして、X−Y平面に垂直な方向が、時間方向であるt方向とされている。
【1548】
また、図239の例では、センサ2の各検出素子2−1のそれぞれの空間的な形状は、1辺の長さが1の正方形とされている。そして、センサ2のシャッタ時間(露光時間)が1とされている。
【1549】
さらに、図239の例では、センサ2の所定の1つの検出素子2−1の中心が、空間方向(X方向とY方向)の原点(X方向の位置x=0、およびY方向の位置y=0)とされており、また、露光時間の中間時刻が、時間方向(t方向)の原点(t方向の位置t=0)とされている。
【1550】
この場合、空間方向の原点(x=0,y=0)にその中心が存在する検出素子2−1は、X方向に−0.5乃至0.5の範囲、Y方向に−0.5乃至0.5の範囲、およびt方向に−0.5乃至0.5の範囲で光信号関数F(x,y,t)を積分し、その積分値を画素値Pとして出力することになる。
【1551】
即ち、空間方向の原点にその中心が存在する検出素子2−1から出力される画素値Pは、次の式(127)で表される。
【1552】
【数97】
【1553】
その他の検出素子2−1も同様に、対象とする検出素子2−1の中心を空間方向の原点とすることで、式(127)で示される画素値Pを出力することになる。
【1554】
ところで、上述したように、2次元多項式近似手法は、実世界1の光信号を、例えば、図238で示されるような波形F(x,y)として扱い、その2次元の波形F(x,y)を、2次元の多項式である近似関数f(x,y)に近似する手法である。
【1555】
そこで、はじめに、このような近似関数f(x,y)を2次元の多項式で表現する手法について説明する。
【1556】
上述したように、実世界1の光信号は、3次元の空間上の位置x,y、およびz、並びに時刻tを変数とする光信号関数F(x,y,t)で表される。この光信号関数F(x,y,t)を、Y方向の任意の位置yにおいて、X方向に射影した1次元の波形を、ここでは、X断面波形F(x)と称している。
【1557】
このX断面波形F(x)に注目すると、実世界1の信号が、空間方向の所定の方向に定常性を有している場合、X断面波形F(x)と同一形状の波形がその定常性の方向に連なっていると考えることができる。例えば、図238の例では、X断面波形F(x)と同一形状の波形が、傾きGFの方向に連なっている。換言すると、X断面波形F(x)と同一形状の波形が傾きGFの方向に連なって、波形F(x,y)が形成されているとも言える。
【1558】
従って、波形F(x,y)を近似する近似関数f(x,y)の波形は、X断面波形F(x)を近似する近似関数f(x)と同一形状の波形が連なって形成されると考えることで、近似関数f(x,y)を2次元の多項式で表現することが可能になる。
【1559】
さらに詳細に、近似関数f(x,y)の表現方法について説明する。
【1560】
例えば、いま、上述した図238で示されるような、実世界1の光信号、即ち、傾きGFで表される空間方向の定常性を有する光信号が、センサ2(図239)により検出されて入力画像(画素値)として出力されたとする。
【1561】
さらに、図240で示されるように、データ定常性検出部101(図3)が、この入力画像のうちの、X方向に4画素分、かつY方向に5画素分の総計20個の画素(図中、点線で表される20個の正方形)から構成される入力画像の領域2401に対してその処理を実行し、データ定常性情報の1つとして角度θ(傾きGFに対応する傾きGfで表されるデータの定常性の方向と、X方向とのなす角度θ)を出力したとする。
【1562】
なお、入力画像の領域2401において、図中水平方向は、空間方向の1方向であるX方向を表しており、図中垂直方向は、空間方向の他方向であるY方向を表している。
【1563】
また、図240中、左から2画素目であって、下から3画素目の画素が注目画素とされ、その注目画素の中心を原点(0,0)とするように(x,y)座標系が設定されている。そして、原点(0,0)を通る角度θの直線(データの定常性の方向を表す傾きGfの直線)に対するX方向の相対的な距離(以下、断面方向距離と称する)がx’と記述されている。
【1564】
さらに、図240中、右側のグラフは、X断面波形F(x’)が近似された関数であって、n次(nは、任意の整数)の多項式である近似関数f(x’)を表している。右側のグラフの軸のうち、図中水平方向の軸は、断面方向距離を表しており、図中垂直方向の軸は、画素値を表している。
【1565】
この場合、図240で示される近似関数f(x’)は、n次の多項式であるので、次の式(128)のように表される。
【1566】
【数98】
【1567】
また、角度θが決定されていることから、原点(0,0)を通る角度θの直線は一意に決まり、Y方向の任意の位置yにおける、直線のX方向の位置xlが、次の式(129)のように表される。ただし、式(129)において、sはcotθを表している。
【1568】
xl = s×y ・・・(129)
【1569】
即ち、図240で示されるように、傾きGfで表されるデータの定常性に対応する直線上の点は、座標値(xl,y)で表される。
【1570】
式(129)より、断面方向距離x’は、次の式(130)のように表される。
【1571】
x’ = x−xl = x−s×y ・・・(130)
【1572】
従って、入力画像の領域2401内の任意の位置(x,y)における近似関数f(x,y)は、式(128)と式(130)より、次の式(131)のように示される。
【1573】
【数99】
【1574】
なお、式(131)において、wiは、近似関数f(x,y)の係数を表している。なお、近似関数f(x,y)を含む近似関数fの係数wiを、近似関数fの特徴量と位置づけることもできる。従って、以下、近似関数fの係数wiを、近似関数fの特徴量wiとも称する。
【1575】
このようにして、角度θが既知であれば、2次元波形の近似関数f(x,y)を、式(131)の多項式として表現することができる。
【1576】
従って、実世界推定部102は、式(131)の特徴量wiを演算することができれば、図238で示されるような波形F(x,y)を推定することができる。
【1577】
そこで、以下、式(131)の特徴量wiを演算する手法について説明する。
【1578】
即ち、式(131)で表される近似関数f(x,y)を、画素(センサ2の検出素子2−1(図239))に対応する積分範囲(空間方向の積分範囲)で積分すれば、その積分値が、画素の画素値の推定値となる。このことを、式で表現したものが、次の式(132)である。なお、2次元多項式近似手法においては、時間方向tは一定値とみなされるので、式(132)は、空間方向(X方向とY方法)の位置x,yを変数とする方程式とされている。
【1579】
【数100】
【1580】
式(132)において、P(x,y)は、センサ2からの入力画像のうちの、その中心位置が位置(x,y)(注目画素からの相対位置(x,y))に存在する画素の画素値を表している。また、eは、誤差を表している。
【1581】
このように、2次元多項式近似手法においては、入力画素値P(x,y)と、2次元の多項式である近似関数f(x,y)の関係を、式(132)で表現することが可能であるので、実世界推定部102は、式(132)を利用して、特徴量wiを、例えば、最小自乗法等により演算することで(演算した特徴量wiを式(130)に代入して近似関数f(x,y)を生成することで)、2次元の関数F(x,y)(傾きGF(図238)で表される空間方向の定常性を有する実世界1の光信号を、空間方向に着目して表した波形F(x,y))を推定することが可能となる。
【1582】
図241は、このような2次元多項式近似手法を利用する実世界推定部102の構成例を表している。
【1583】
図241で示されるように、実世界推定部102には、条件設定部2421、入力画像記憶部2422、入力画素値取得部2423、積分成分演算部2424、正規方程式生成部2425、および近似関数生成部2426が設けられている。
【1584】
条件設定部2421は、注目画素に対応する関数F(x,y)を推定するために使用する画素の範囲(タップ範囲)や、近似関数f(x,y)の次数nを設定する。
【1585】
入力画像記憶部2422は、センサ2からの入力画像(画素値)を一次格納する。
【1586】
入力画素値取得部2423は、入力画像記憶部2422に記憶された入力画像のうちの、条件設定部2421により設定されたタップ範囲に対応する入力画像の領域を取得し、それを入力画素値テーブルとして正規方程式生成部2425に供給する。即ち、入力画素値テーブルは、入力画像の領域に含まれる各画素のそれぞれの画素値が記述されたテーブルである。なお、入力画素値テーブルの具体例については後述する。
【1587】
ところで、上述したように、2次元多項式近似手法を利用する実世界推定部102は、上述した式(132)を最小自乗法で解くことにより、上述した式(131)で示される近似関数f(x,y)の特徴量wiを演算する。
【1588】
式(132)は、次の式(133)乃至式(135)を用いることで得られる次の式(136)を使用することで、次の式(137)のように表現することができる。
【1589】
【数101】
【1590】
【数102】
【1591】
【数103】
【1592】
【数104】
【1593】
【数105】
【1594】
式(137)において、Si(x−0.5,x+0.5,y−0.5,y+0.5)は、i次項の積分成分を表している。即ち、積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)は、次の式(138)で示される通りである。
【1595】
【数106】
【1596】
積分成分演算部2424は、この積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)を演算する。
【1597】
具体的には、式(138)で示される積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)は、相対画素位置(x,y)、上述した式(131)における変数s、および、i次項のiが既知であれば、演算可能である。これらのうちの、相対画素位置(x,y)は注目画素とタップ範囲により、変数sはcotθであるので角度θにより、iの範囲は次数nにより、それぞれ決定される。
【1598】
従って、積分成分演算部2424は、条件設定部2421により設定されたタップ範囲および次数、並びにデータ定常性検出部101より出力されたデータ定常性情報のうちの角度θに基づいて積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)を演算し、その演算結果を積分成分テーブルとして正規方程式生成部2425に供給する。
【1599】
正規方程式生成部2425は、入力画素値取得部2423より供給された入力画素値テーブルと、積分成分演算部2424より供給された積分成分テーブルを利用して、上述した式(132)、即ち、式(137)を最小自乗法で求める場合の正規方程式を生成し、それを正規方程式テーブルとして近似関数生成部2426に出力する。なお、正規方程式の具体例については後述する。
【1600】
近似関数生成部2426は、正規方程式生成部2425より供給された正規方程式テーブルに含まれる正規方程式を行列解法で解くことにより、上述した式(132)の特徴量wi(即ち、2次元多項式である近似関数f(x,y)の係数wi)のそれぞれを演算し、画像生成部103に出力する。
【1601】
次に、図242のフローチャートを参照して、2次元多項式近似手法が適用される実世界の推定処理(図40のステップS102の処理)について説明する。
【1602】
例えば、いま、傾きGFで表される空間方向の定常性を有する実世界1の光信号が、センサ2(図239)により検出されて、1フレームに対応する入力画像として、入力画像記憶部2422に既に記憶されているとする。また、データ定常性検出部101が、ステップS101(図40)の定常性の検出の処理において、入力画像のうちの、上述した図240で示される領域2401に対して処理を施して、データ定常性情報として角度θを既に出力しているとする。
【1603】
この場合、ステップS2401において、条件設定部2421は、条件(タップ範囲と次数)を設定する。
【1604】
例えば、いま、図243で示されるタップ範囲2441が設定されるとともに、次数として5次が設定されたとする。
【1605】
即ち、図243は、タップ範囲の1例を説明する図である。図243において、X方向とY方向は、センサ2のX方向とY方向(図239)を表している。また、タップ範囲2441は、X方向に4画素分、かつY方向に5画素分の総計20個の画素(図中、20個の正方形)からなる画素群を表している。
【1606】
さらに、図243に示されるように、注目画素が、タップ範囲2441のうちの、図中、左から2画素目であって、下から3画素目の画素に設定されるとする。また、各画素のそれぞれに対して、注目画素からの相対画素位置(x,y)(注目画素の中心(0,0)を原点とする注目画素座標系の座標値)に応じて、図243で示されるような番号l(lは、0乃至19のうちのいずれかの整数値)が付されるとする。
【1607】
図242に戻り、ステップS2402において、条件設定部2421は、注目画素を設定する。
【1608】
ステップS2403において、入力画素値取得部2423は、条件設定部2421により設定された条件(タップ範囲)に基づいて入力画素値を取得し、入力画素値テーブルを生成する。即ち、いまの場合、入力画素値取得部2423は、入力画像の領域2401(図240)を取得し、入力画素値テーブルとして、20個の入力画素値P(l)からなるテーブルを生成する。
【1609】
なお、いまの場合、入力画素値P(l)と、上述した入力画素値P(x,y)の関係は、次の式(139)で示される関係とされる。ただし、式(139)において、左辺が入力画素値P(l)を表し、右辺が入力画素値P(x,y)を表している。
【1610】
【数107】
【1611】
ステップS2404において、積分成分演算部2424は、条件設定部2421により設定された条件(タップ範囲および次数)、並びにデータ定常性検出部101より供給されたデータ定常性情報(角度θ)に基づいて積分成分を演算し、積分成分テーブルを生成する。
【1612】
いまの場合、上述したように、入力画素値は、P(x,y)でなくP(l)といった、画素の番号lの値として取得されるので、積分成分演算部2424は、上述した式(138)の積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)を、次の式(140)の左辺で示される積分成分Si(l)といったlの関数として演算する。
【1613】
Si(l) = Si(x−0.5,x+0.5,y−0.5,y+0.5) ・・・(140)
【1614】
具体的には、いまの場合、次の式(141)で示される積分成分Si(l)が演算される。
【1615】
【数108】
【1616】
なお、式(141)において、左辺が積分成分Si(l)を表し、右辺が積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)を表している。即ち、いまの場合、iは0乃至5であるので、20個のS0(l),20個のS1(l),20個のS2(l),20個のS3(l),20個のS4(l),20個のS5(l)の総計120個のSi(l)が演算されることになる。
【1617】
より具体的には、はじめに、積分成分演算部2424は、データ定常性検出部101より供給された角度θに対するcotθを演算し、それを変数sとする。次に、積分成分演算部2424は、演算した変数sを使用して式(140)の右辺で示される20個の積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5) のそれぞれを、i=0乃至5のそれぞれについて演算する。即ち、120個の積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5) が演算されることになる。なお、この積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5) の演算においては、上述した式(138)が使用される。そして、積分成分演算部2424は、式(141)に従って、演算した120個の積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)のそれぞれを、対応するSi(l)のそれぞれに変換し、変換した120個のSi(l)を含む積分成分テーブルを生成する。
【1618】
なお、ステップS2403の処理とステップS2404の処理の順序は、図242の例に限定されず、ステップS2404の処理が先に実行されてもよいし、ステップS2403の処理とステップS2404の処理が同時に実行されてもよい。
【1619】
次に、ステップS2405において、正規方程式生成部2425は、ステップS2403の処理で入力画素値取得部2423により生成された入力画素値テーブルと、ステップS2404の処理で積分成分演算部2424により生成された積分成分テーブルに基づいて、正規方程式テーブルを生成する。
【1620】
具体的には、いまの場合、上述した式(137)を利用して最小自乗法により特徴量wiが演算される(ただし、式(136)において、積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)は、式(140)により変換されるSi(l)が使用される)ので、それに対応する正規方程式は、次の式(142)のように表される。
【1621】
【数109】
【1622】
なお、式(142)において、Lは、タップ範囲の画素の番号lのうちの最大値を表している。nは、多項式である近似関数f(x)の次数を表している。具体的には、いまの場合、n=5となり、L=19となる。
【1623】
式(142)で示される正規方程式の各行列のそれぞれを、次の式(143)乃至(145)のように定義すると、正規方程式は、次の式(146)のように表現される。
【1624】
【数110】
【1625】
【数111】
【1626】
【数112】
【1627】
【数113】
【1628】
式(144)で示されるように、行列WMATの各成分は、求めたい特徴量wiである。従って、式(146)において、左辺の行列SMATと右辺の行列PMATが決定されれば、行列解法によって行列WMATの演算が可能になる。
【1629】
具体的には、式(143)で示されるように、行列SMATの各成分は、上述した積分成分Si(l)で演算可能である。即ち、積分成分Si(l)は、積分成分演算部2424より供給された積分成分テーブルに含まれているので、正規方程式生成部2425は、積分成分テーブルを利用して行列SMATの各成分を演算することができる。
【1630】
また、式(145)で示されるように、行列PMATの各成分は、積分成分Si(l)と入力画素値P(l)で演算可能である。即ち、積分成分Si(l)は、行列SMATの各成分に含まれるものと同一のものであり、また、入力画素値P(l)は、入力画素値取得部2423より供給された入力画素値テーブルに含まれているので、正規方程式生成部2425は、積分成分テーブルと入力画素値テーブルを利用して行列PMATの各成分を演算することができる。
【1631】
このようにして、正規方程式生成部2425は、行列SMATと行列PMATの各成分を演算し、その演算結果(行列SMATと行列PMATの各成分)を正規方程式テーブルとして近似関数生成部2426に出力する。
【1632】
正規方程式生成部2425より正規方程式テーブルが出力されると、ステップS2406において、近似関数生成部2426は、正規方程式テーブルに基づいて、上述した式(146)の行列WMATの各成分である特徴量wi(即ち、2次元多項式である近似関数f(x,y)の係数wi)を演算する。
【1633】
具体的には、上述した式(146)の正規方程式は、次の式(147)のように変形できる。
【1634】
【数114】
【1635】
式(147)において、左辺の行列WMATの各成分が、求めたい特徴量wiである。また、行列SMATと行列PMATのそれぞれの各成分は、正規方程式生成部2425より供給された正規方程式テーブルに含まれている。従って、近似関数生成部2426は、正規方程式テーブルを利用して、式(147)の右辺の行列演算を行うことで行列WMATを演算し、その演算結果(特徴量wi)を画像生成部103に出力する。
【1636】
ステップS2407において、近似関数生成部2426は、全画素の処理を終了したか否かを判定する。
【1637】
ステップS2407において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS2402に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS2402乃至S2407の処理が繰り返される。
【1638】
そして、全画素の処理が終了すると(ステップS2407において、全画素の処理が終了されたと判定されると)、実世界1の推定処理は終了となる。
【1639】
以上、2次元多項式近似手法の説明として、空間方向(X方向とY方向)に対する近似関数f(x,y)の係数(特徴量)wiを演算する例を用いたが、2次元多項式近似手法は、時空間方向(X方向とt方向、または、Y方向とt方向)に対しても適用可能である。
【1640】
即ち、上述した例は、実世界1の光信号が、例えば、傾きGF(図238)で表される空間方向の定常性を有する場合の例であったので、上述した式(132)で示されるような、空間方向(X方向とY方向)の2次元積分が含まれる式が利用された。しかしながら、2次元積分の考え方は、空間方向だけによるものではなく、時空間方向(X方向とt方向、または、Y方向とt方向)に対して適用することも可能である。
【1641】
換言すると、2次元多項式近似手法においては、推定したい光信号関数F(x,y,t)が、空間方向の定常性のみならず、時空間方向(ただし、X方向とt方向、または、Y方向とt方向)の定常性を有している場合であっても、2次元の多項式により近似することが可能である。
【1642】
具体的には、例えば、X方向に水平に等速で動いている物体がある場合、その物体の動きの方向は、図244で示されるようなX−t平面においては、傾きVFのように表される。換言すると、傾きVFは、X−t平面における時空間方向の定常性の方向を表しているとも言える。従って、データ定常性検出部101は、上述した角度θ(X−Y平面における、傾きGFで表される空間方向の定常性に対応するデータ定常性情報)と同様に、X−t平面における時空間方向の定常性を表す傾きVFに対応するデータ定常性情報として、図244で示されるような動きθ(厳密には、図示はしないが、傾きVFに対応する傾きVfで表されるデータの定常性の方向と、空間方向のX方向とのなす角度である動きθ)を出力することが可能である。
【1643】
従って、2次元多項式近似手法を利用する実世界推定部102は、動きθを上述した角度θの代わりとして使用すれば、上述した方法と同様な方法で、近似関数f(x,t)の係数(特徴量)wiを演算することが可能になる。ただし、この場合、使用される式は、上述した式(132)ではなく、次の式(148)である。
【1644】
【数115】
【1645】
なお、式(148)において、sはcotθ(ただし、θは動きである)である。
【1646】
また、空間方向Xの変わりに、空間方向Yに注目した近似関数f(y,t)も、上述した近似関数f(x、t)と全く同様に取り扱うことが可能である。
【1647】
このように、2次元多項式近似手法においては、例えば、図219(図3)のデータ定常性検出部101が、それぞれ時空間積分効果を有する、センサの複数の検出素子(例えば、図239のセンサ2の検出素子2−1)により実世界1(図219)の光信号が射影され、実世界1の光信号の定常性(例えば、図238の傾きGFで表される定常性)の一部が欠落した、検出素子2−1により射影された画素値を有する複数の画素からなる画像データ(例えば、図219の入力画像)におけるデータの定常性(例えば、図240の傾きGfで表されるデータの定常性)を検出する。
【1648】
そして、例えば、図219(図3)の実世界推定部102(構成は、図241)が、データ定常性検出部101により検出されたデータの定常性に対応して、画像データの時空間方向のうち少なくとも2次元方向(例えば、図238と図239の空間方向Xと、空間方向Y)の位置に対応する画素の画素値(例えば、上述した式(131)の左辺である入力画素値P(x、y))が、少なくとも2次元方向の積分効果により取得された画素値(例えば、式(132)の右辺に示されるように、上述した式(131)で示される近似関数f(x,y)がX方向とY方向に積分された値)であるとして、実世界1の光信号を表す光信号関数F(具体的には、図238の関数F(x,y))を、多項式である近似関数f(例えば、式(131)で示される近似関数f(x,y))で近似することで、光信号関数Fを推定する。
【1649】
詳細には、例えば、実世界推定部102は、データ定常性検出部101により検出されたデータの定常性に対応する線(例えば、図240の傾きGfに対応する線(矢印))からの少なくとも2次元方向に沿った距離(例えば、図240の断面方向距離x‘)に対応する画素の画素値が、少なくとも2次元方向の積分効果により取得された画素値であるとして、現実世界の光信号を表す第1の関数を、多項式である第2の関数で近似することで、第1の関数を推定する。
【1650】
このように、2次元多項式近似手法は、1次元ではなく2次元の積分効果を考慮しているので、1次元多項式近似手法に比較して、より正確に実世界1の光信号を推定することが可能になる。
【1651】
次に、図245乃至図249を参照して、第3の関数近似手法について説明する。
【1652】
即ち、第3の関数近似手法とは、例えば、時空間方向のうちの所定の方向の定常性を有する実世界1の光信号が、光信号関数F(x,y,t)で表されることに注目して、近似関数f(x,y,t)で光信号関数F(x,y,t)を近似することによって、光信号関数F(x,y,t)を推定する手法である。従って、以下、第3の関数近似手法を、3次元関数近似手法と称する。
【1653】
また、3次元関数近似手法の説明においても、センサ2は、図245で示されるような、複数の検出素子2−1がその平面上に配置されて構成されるCCDとされる。
【1654】
図245の例では、検出素子2−1の所定の1辺に平行な方向が、空間方向の1方向であるX方向とされており、X方向に垂直な方向が、空間方向の他方向であるY方向とされている。そして、X−Y平面に垂直な方向が、時間方向であるt方向とされている。
【1655】
また、図245の例では、センサ2の各検出素子2−1のそれぞれの空間的な形状は、1辺の長さが1の正方形とされている。そして、センサ2のシャッタ時間(露光時間)が1とされている。
【1656】
さらに、図245の例では、センサ2の所定の1つの検出素子2−1の中心が、空間方向(X方向とY方向)の原点(X方向の位置x=0、およびY方向の位置y=0)とされており、また、露光時間の中間時刻が、時間方向(t方向)の原点(t方向の位置t=0)とされている。
【1657】
この場合、空間方向の原点(x=0,y=0)にその中心が存在する検出素子2−1は、X方向に−0.5乃至0.5の範囲、Y方向に−0.5乃至0.5の範囲、およびt方向に−0.5乃至0.5の範囲で光信号関数F(x,y,t)を積分し、その積分値を画素値Pとして出力することになる。
【1658】
即ち、空間方向の原点にその中心が存在する検出素子2−1から出力される画素値Pは、次の式(149)で表される。
【1659】
【数116】
【1660】
その他の検出素子2−1も同様に、対象とする検出素子2−1の中心を空間方向の原点とすることで、式(149)で示される画素値Pを出力することになる。
【1661】
ところで、上述したように、3次元関数近似手法においては、光信号関数F(x,y,t)は、3次元の近似関数f(x,y,t)に近似される。
【1662】
具体的には、例えば、近似関数f(x,y,t)を、N個の変数(特徴量)を有する関数とし、式(149)に対応する入力画素値P(x,y,t)と近似関数f(x,y,t)の関係式を定義する。これにより、Nより大きいM個の入力画素値P(x,y,t)が取得されていれば、定義された関係式からN個の変数(特徴量)の算出が可能である。即ち、実世界推定部102は、M個の入力画素値P(x,y,t)を取得してN個の変数(特徴量)を演算することで、光信号関数F(x,y,t)を推定することが可能である。
【1663】
この場合、実世界推定部102は、センサ2からの入力画像(入力画素値)に含まれるデータの定常性を縛りとして(即ち、データ定常性検出部101より出力される入力画像に対するデータ定常性情報を利用して)、入力画像全体のうちの、M個の入力画像P(x,y,t)を抽出(取得)する。結果的に、予測関数f(x,y,t)は、データの定常性に拘束されることになる。
【1664】
例えば、図246で示されるように、入力画像に対応する光信号関数F(x,y,t)が、傾きGFで表される空間方向の定常性を有している場合、データ定常性検出部101は、入力画像に対するデータ定常性情報として、角度θ(傾きGFに対応する傾きGf(図示せず)で表されるデータの定常性の方向と、X方向のなす角度θ)を出力することになる。
【1665】
この場合、光信号関数F(x,y,t)をX方向に射影した1次元の波形(ここでは、このような波形を、X断面波形と称している)は、Y方向のいずれの位置で射影した場合であっても同一の形状であるとする。
【1666】
即ち、同一形状のX断面波形が、定常性の方向(X方向に対して角度θ方向)に連なっている2次元の(空間方向の)波形が存在するとし、そのような2次元波形が時間方向tに連なった3次元波形を、近似関数f(x,y,t)で近似する。
【1667】
換言すると、注目画素の中心からY方向に位置yだけずれたX断面波形は、注目画素の中心を通るX断面波形がX方向に所定の量(角度θに応じて変化する量)だけ移動した(シフトした)波形となる。なお、以下、このような量を、シフト量と称する。
【1668】
このシフト量は、次のようにして算出が可能である。
【1669】
即ち、傾きVf(例えば、図246の傾きVFに対応する、データの定常性の方向を表す傾きVf)と角度θは、次の式(150)のように表される。
【1670】
【数117】
【1671】
なお、式(150)において、dxは、X方向の微小移動量を表しており、dyは、dxに対するY方向の微小移動量を表している。
【1672】
従って、X方向に対するシフト量をCx(y)と記述すると、次の式(151)のように表される。
【1673】
【数118】
【1674】
このようにして、シフト量Cx(y)を定義すると、式(149)に対応する入力画素値P(x,y,t)と近似関数f(x,y,t)の関係式は、次の式(152)のように表される。
【1675】
【数119】
【1676】
式(152)において、eは、誤差を表している。tsは、t方向の積分開始位置を表しており、teは、t方向の積分終了位置を表している。同様に、ysは、Y方向の積分開始位置を表しており、yeは、Y方向の積分終了位置を表している。また、xsは、X方向の積分開始位置を表しており、xeは、X方向の積分終了位置を表している。ただし、具体的な各積分範囲のそれぞれは、次の式(153)で示される通りになる。
【1677】
【数120】
【1678】
式(153)で示されるように、注目画素から空間方向に(x,y)だけ離れて位置する画素に対するX方向の積分範囲を、シフト量Cx(y)だけ移動させることで、同一形状のX断面波形が、定常性の方向(X方向に対して角度θ方向)に連なっていることを表すことが可能になる。
【1679】
このように、3次元関数近似手法においては、画素値P(x,y、t)と、3次元の近似関数f(x,y,t)の関係を式(152)(積分範囲は、式(153))で表すことができるので、式(152)と式(153)を利用して、近似関数f(x,y,t)のN個の特徴量を、例えば、最小自乗法等により演算することで、光信号関数F(x,y,t)(例えば、図246で示されるような傾きVF表される空間方向の定常性を有する光信号)の推定が可能となる。
【1680】
なお、光信号関数F(x,y,t)で表される光信号が、例えば、図246で示されるような傾きVFで表される空間方向の定常性を有している場合、次のようにして光信号関数F(x,y,t)を近似してもよい。
【1681】
即ち、光信号関数F(x,y,t)をY方向に射影した1次元の波形(以下、このような波形を、Y断面波形と称する)は、X方向のいずれの位置で射影した場合であっても同一の形状であるとする。
【1682】
換言すると、同一形状のY断面波形が、定常性の方向(X方向に対して角度θ方向)に連なっている2次元の(空間方向の)波形が存在するとし、そのような2次元波形が時間方向tに連なった3次元波形を、近似関数f(x,y,t)で近似する。
【1683】
従って、注目画素の中心からX方向にxだけずれたY断面波形は、注目画素の中心を通るY断面波形がY方向に所定のシフト量(角度θに応じて変化するシフト量)だけ移動した波形となる。
【1684】
このシフト量は、次のようにして算出が可能である。
【1685】
即ち、傾きGFが、上述した式(150)のように表されるので、Y方向に対するシフト量をCy(x)と記述すると、次の式(154)のように表される。
【1686】
【数121】
【1687】
このようにして、シフト量Cy(x)を定義すると、式(149)に対応する入力画素値P(x,y,t)と近似関数f(x,y,t)の関係式は、シフト量Cx(y)を定義したときと同様に、上述した式(152)で表される。
【1688】
ただし、今度は、具体的な各積分範囲のそれぞれは、次の式(155)で示される通りになる。
【1689】
【数122】
【1690】
式(155)(および上述した式(152))で示されるように、注目画素から(x,y)だけ離れて位置する画素に対するY方向の積分範囲を、シフト量Cy(x)だけ移動させることで、同一形状のY断面波形が、定常性の方向(X方向に対して角度θ方向)に連なっていることを表すことが可能になる。
【1691】
このように、3次元関数近似手法においては、上述した式(152)の右辺の積分範囲を式(153)のみならず式(155)とすることもできるので、積分範囲として式(155)が採用された式(152)を利用して、近似関数f(x,y,t)のn個の特徴量を、例えば、最小自乗法等により演算することで、光信号関数F(x,y,t)(傾きGFで表される空間方向の定常性を有する実世界1の光信号)の推定が可能となる。
【1692】
このように、積分範囲を表す式(153)と式(155)は、定常性の方向にあわせて周辺画素をX方向にシフトさせるか(式(153)の場合)、或いはY方向にシフトさせるか(式(155)の場合)の違いがあるだけであり、本質的には同じことを表している。
【1693】
しかしながら、定常性の方向(傾きGF)に応じて、光信号関数F(x,y,t)を、X断面波形の集まりと捉えるか、Y断面波形の集まりと捉えるかが異なる。即ち、定常性の方向がY方向に近い場合、光信号関数F(x,y,t)を、X断面波形の集まりと捉えた方が好適である。これに対して、定常性の方向がX方向に近い場合、光信号関数F(x,y,t)を、Y断面波形の集まりと捉えた方が好適である。
【1694】
従って、実世界推定部102は、積分範囲として式(153)と式(155)の両方を用意しておき、定常性の方向に応じて、適宜式(152)の右辺の積分範囲として、式(153)と式(155)のうちのいずれか一方を選択するとよい。
【1695】
以上、光信号関数F(x,y,t)が空間方向(X方向とY方向)の定常性(例えば、図246の傾きGFで表される空間方向の定常性)を有する場合についての3次元関数手法について説明したが、3次元関数手法は、図247で示されるように、光信号関数F(x,y,t)が時空間方向(X方向、Y方向、およびt方向)の定常性(傾きVFで表される定常性)を有する場合についても適用可能である。
【1696】
即ち、図247において、フレーム番号#N−1のフレームに対応する光信号関数がF(x、y、#N−1)とされ、フレーム番号#Nのフレームに対応する光信号関数がF(x、y、#N)とされ、かつ、フレーム番号#N+1のフレームに対応する光信号関数がF(x、y、#N+1)とされている。
【1697】
なお、図247において、図中、水平方向は、空間方向の1方向であるX方向とされており、右斜め上方向は、空間方向の他方向であるY方向とされており、かつ、垂直方向は、時間方向であるt方向とされている。
【1698】
また、フレーム#N−1は、フレーム#Nに対して時間的に前のフレームであり、フレーム#N+1は、フレーム#Nに対して時間的に後のフレームである。即ち、フレーム#N−1、フレーム#N、およびフレーム#N+1は、フレーム#N−1、フレーム#N、およびフレーム#N+1の順で表示される。
【1699】
図247の例では、傾きVFで示される方向(図中左下手前から右上奥の方向)に沿った断面の光のレベルがほぼ一定とされている。従って、図247の例では、光信号関数F(x,y,t)は、傾きVFで表される時空間方向の定常性を有していると言える。
【1700】
この場合、時空間方向の定常性を表す関数C(x,y,t)を定義し、かつ、定義された関数C(x,y,t)を利用して、上述した式(152)の積分範囲を定義すれば、上述した式(153)や式(155)と同様に、近似関数f(x,y,t)のN個の特徴量の算出が可能になる。
【1701】
関数C(x,y,t)は、定常性の方向を表す関数であれば特に限定されない。ただし、以下においては、直線的な定常性であるとして、それに対応する関数C(x,y,t)として、上述した空間方向の定常性を表す関数であるシフト量Cx(y)(式(151))やシフト量Cy(x)(式(153))に相当する、Cx(t)とCy(t)を次のように定義するとする。
【1702】
即ち、上述した空間方向のデータの定常性を表す傾きGfに対応する、時空間方向のデータの定常性の傾きをVfとすると、この傾きVfをX方向の傾き(以下、Vfxと記述する)とY方向の傾き(以下、Vfyと記述する)に分割すると、傾きVfxは次の式(156)で、傾きVfyは次の式(157)で、それぞれ表される。
【1703】
【数123】
【1704】
【数124】
【1705】
この場合、関数Cx(t)は、式(156)で示される傾きVfxを利用して、次の式(158)のように表される。
【1706】
【数125】
【1707】
同様に、関数Cy(t)は、式(157)で示される傾きVfyを利用して、次の式(159)のように表される。
【1708】
【数126】
【1709】
このようにして、時空間方向の定常性2511を表す関数Cx(t)と関数Cy(t)を定義すると、式(152)の積分範囲は、次の式(160)のように表される。
【1710】
【数127】
【1711】
このように、3次元関数近似手法においては、画素値P(x,y、t)と、3次元の近似関数f(x,y,t)の関係を式(152)で表すことができるので、その式(152)の右辺の積分範囲として式(160)を利用して、近似関数f(x,y,t)のn+1個の特徴量を、例えば、最小自乗法等により演算することで、光信号関数F(x,y,t)(時空間方向の所定の方向に定常性を有する実世界1の光信号)を推定することが可能となる。
【1712】
図248は、このような3次元関数近似手法を利用する実世界推定部102の構成例を表している。
【1713】
なお、3次元関数近似手法を利用する実世界推定部102が演算する近似関数f(x,y,t)(実際には、その特徴量(係数)を演算する)は、特に限定されないが、以下の説明においては、n(n=N−1)次の多項式とされる。
【1714】
図248で示されるように、実世界推定部102には、条件設定部2521、入力画像記憶部2522、入力画素値取得部2523、積分成分演算部2524、正規方程式生成部2525、および近似関数生成部2526が設けられている。
【1715】
条件設定部2521は、注目画素に対応する光信号関数F(x,y,t)を推定するために使用する画素の範囲(タップ範囲)や、近似関数f(x,y,t)の次数nを設定する。
【1716】
入力画像記憶部2522は、センサ2からの入力画像(画素値)を一次格納する。
【1717】
入力画素値取得部2523は、入力画像記憶部2522に記憶された入力画像のうちの、条件設定部2521により設定されたタップ範囲に対応する入力画像の領域を取得し、それを入力画素値テーブルとして正規方程式生成部2525に供給する。即ち、入力画素値テーブルは、入力画像の領域に含まれる各画素のそれぞれの画素値が記述されたテーブルである。
【1718】
ところで、上述したように、3次元関数近似手法を利用する実世界推定部102は、上述した式(152)(ただし積分範囲は、式(153)、式(156)、または式(160))を利用して最小自乗法により近似関数f(x,y)のN個の特徴量(いまの場合、各次の係数)を演算する。
【1719】
式(152)の右辺は、その積分を演算することで、次の式(161)のように表現することができる。
【1720】
【数128】
【1721】
式(161)において、wiは、i次項の係数(特徴量)を表しており、また、Si(xs,xe,ys,ye,ts,te)は、i次項の積分成分を表している。ただし、xsはX方向の積分範囲の開始位置を、xeはX方向の積分範囲の終了位置を、ysはY方向の積分範囲の開始位置を、yeはY方向の積分範囲の終了位置を、tsはt方向の積分範囲の開始位置を、teはt方向の積分範囲の終了位置を、それぞれ表している。
【1722】
積分成分演算部2524は、この積分成分Si(xs,xe,ys,ye,ts,te)を演算する。
【1723】
即ち、積分成分演算部2524は、条件設定部2521により設定されたタップ範囲および次数、並びにデータ定常性検出部101より出力されたデータ定常性情報のうちの角度若しくは動き(積分範囲として、上述した式(153)若しくは式(156)が利用される場合には角度であり、上述した式(160)が利用される場合には動きである)に基づいて積分成分Si(xs,xe,ys,ye,ts,te)を演算し、その演算結果を積分成分テーブルとして正規方程式生成部2525に供給する。
【1724】
正規方程式生成部2525は、入力画素値取得部2523より供給された入力画素値テーブルと、積分成分演算部2524より供給された積分成分テーブルを利用して、上述した式(161)を最小自乗法で求める場合の正規方程式を生成し、それを正規方程式テーブルとして近似関数生成部2526に出力する。正規方程式の例については、後述する。
【1725】
近似関数生成部2526は、正規方程式生成部2525より供給された正規方程式テーブルに含まれる正規方程式を行列解法で解くことにより、特徴量wi(いまの場合、3次元多項式である画素値関数f(x,y)の係数wi)のそれぞれを演算し、画像生成部103に出力する。
【1726】
次に、図249のフローチャートを参照して、3次元関数近似手法が適用される実世界の推定処理(図40のステップS102の処理)について説明する。
【1727】
はじめに、ステップS2501において、条件設定部2521は、条件(タップ範囲と次数)を設定する。
【1728】
例えば、いま、L個の画素からなるタップ範囲が設定されたとする。また、各画素のそれぞれに対して、所定の番号l(lは、0乃至L−1のうちのいずれかの整数値)が付されるとする。
【1729】
次に、ステップS2502において、条件設定部2521は、注目画素を設定する。
【1730】
ステップS2503において、入力画素値取得部2523は、条件設定部2521により設定された条件(タップ範囲)に基づいて入力画素値を取得し、入力画素値テーブルを生成する。いまの場合、L個の入力画素値P(x,y,t)からなるテーブルが生成されることになる。ここで、L個の入力画素値P(x,y,t)のそれぞれを、その画素の番号lの関数としてP(l)と記述することにする。即ち、入力画素値テーブルは、L個のP(l)が含まれるテーブルとなる。
【1731】
ステップS2504において、積分成分演算部2524は、条件設定部2521により設定された条件(タップ範囲および次数)、並びにデータ定常性検出部101より供給されたデータ定常性情報(角度若しくは動き)に基づいて積分成分を演算し、積分成分テーブルを生成する。
【1732】
ただし、いまの場合、上述したように、入力画素値は、P(x,y,t)でなくP(l)といった、画素の番号lの値として取得されるので、積分成分演算部2524は、上述した式(161)の積分成分Si(xs,xe,ys,ye,ts,te)を、積分成分Si(l)といったlの関数として演算することになる。即ち、積分成分テーブルは、L×i個のSi(l)が含まれるテーブルとなる。
【1733】
なお、ステップS2503の処理とステップS2504の処理の順序は、図249の例に限定されず、ステップS2504の処理が先に実行されてもよいし、ステップS2503の処理とステップS2504の処理が同時に実行されてもよい。
【1734】
次に、ステップS2505において、正規方程式生成部2525は、ステップS2503の処理で入力画素値取得部2523により生成された入力画素値テーブルと、ステップS2504の処理で積分成分演算部2524により生成された積分成分テーブルに基づいて、正規方程式テーブルを生成する。
【1735】
具体的には、いまの場合、最小自乗法により、上述した式(161)に対応する次の式(162)の特徴量wiを演算する。で、それに対応する正規方程式は、次の式(163)のように表される。
【1736】
【数129】
【1737】
【数130】
【1738】
式(163)で示される正規方程式の各行列のそれぞれを、次の式(164)乃至(166)のように定義すると、正規方程式は、次の式(167)のように表される。
【1739】
【数131】
【1740】
【数132】
【1741】
【数133】
【1742】
【数134】
【1743】
式(165)で示されるように、行列WMATの各成分は、求めたい特徴量wiである。従って、式(167)において、左辺の行列SMATと右辺の行列PMATが決定されれば、行列解法によって行列WMAT(即ち、特徴量wi)の算出が可能である。
【1744】
具体的には、式(164)で示されるように、行列SMATの各成分は、上述した積分成分Si(l)が既知であれば演算可能である。積分成分Si(l)は、積分成分演算部2524より供給された積分成分テーブルに含まれているので、正規方程式生成部2525は、積分成分テーブルを利用して行列SMATの各成分を演算することができる。
【1745】
また、式(166)で示されるように、行列PMATの各成分は、積分成分Si(l)と入力画素値P(l)が既知であれば演算可能である。積分成分Si(l)は、行列SMATの各成分に含まれるものと同一のものであり、また、入力画素値P(l)は、入力画素値取得部2523より供給された入力画素値テーブルに含まれているので、正規方程式生成部2525は、積分成分テーブルと入力画素値テーブルを利用して行列PMATの各成分を演算することができる。
【1746】
このようにして、正規方程式生成部2525は、行列SMATと行列PMATの各成分を演算し、その演算結果(行列SMATと行列PMATの各成分)を正規方程式テーブルとして近似関数生成部2526に出力する。
【1747】
正規方程式生成部2526より正規方程式テーブルが出力されると、ステップS2506において、近似関数生成部2526は、正規方程式テーブルに基づいて、上述した式(167)の行列WMATの各成分である特徴量wi(即ち、近似関数f(x,y,t)の係数wi)を演算する。
【1748】
具体的には、上述した式(167)の正規方程式は、次の式(168)のように変形できる。
【1749】
【数135】
【1750】
式(168)において、左辺の行列WMATの各成分が、求めたい特徴量wiである。また、行列SMATと行列PMATのそれぞれの各成分は、正規方程式生成部2525より供給された正規方程式テーブルに含まれている。従って、近似関数生成部2526は、正規方程式テーブルを利用して、式(168)の右辺の行列演算を行うことで行列WMATを演算し、その演算結果(特徴量wi)を画像生成部103に出力する。
【1751】
ステップS2507において、近似関数生成部2526は、全画素の処理を終了したか否かを判定する。
【1752】
ステップS2507において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS2502に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS2502乃至S2507の処理が繰り返される。
【1753】
そして、全画素の処理が終了すると(ステップS5407において、全画素の処理が終了されたと判定されると)、実世界1の推定処理は終了となる。
【1754】
以上、説明したように、3次元関数近似手法は、1次元や2次元ではなく、時空間方向の3次元の積分効果を考慮しているので、1次元多項式近似手法や2次元多項式近似手法に比較して、より正確に実世界1の光信号を推定することが可能になる。
【1755】
換言すると、3次元関数近似手法においては、例えば、図219(図3)の実世界推定部102(構成は、例えば、図248)は、それぞれ時空間積分効果を有する、センサの複数の検出素子(例えば、図245のセンサ2の検出素子2−1)により実世界1の光信号が射影され、実世界1の光信号の定常性(例えば、図246の傾きGF、または、図247の傾きVFで表される定常性)の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる入力画像の、時空間方向のうち少なくとも1次元方向(例えば、図247の空間方向X、空間方向Y、および、時間方向tの3次元方向)の位置に対応する前記画素の前記画素値(例えば、式(153)の左辺の入力画素値P(x,y,z))が、少なくとも1次元方向の積分効果により取得された画素値(例えば、上述した式(153)の右辺に示されるように、近似関数f(x,y,t)がX方向、Y方向、およびt方向の3次元に積分された値)であるとして、実世界の光信号を表す光信号関数F(具体的には、例えば、図246や図247の光信号関数F(x,y,t))を所定の近似関数f(具体的には、例えば、式(152)の右辺の近似関数f(x,y,t))で近似することで、光信号関数Fを推定する。
【1756】
さらに、例えば、図219(図3)のデータ定常性検出部101が、入力画像のデータの定常性を検出した場合、実世界推定部102は、データ定常性検出部101により検出されたデータの定常性に対応して、画像データの時空間方向のうち少なくとも1次元方向の位置に対応する画素の画素値が、少なくとも1次元方向の積分効果により取得された画素値であるとして、光信号関数Fを近似関数fで近似することで、光信号関数Fを推定する。
【1757】
詳細には、例えば、実世界推定部102は、定常性検出部101により検出されたデータの定常性に対応する線からの少なくとも1次元方向に沿った距離(例えば、上述した式(151)のシフト量Cx(y))に対応する画素の画素値が、少なくとも1次元方向の積分効果により取得された画素値(例えば、上述した式(153)で示されるような積分範囲で、式(152)の右辺に示されるように、近似関数f(x,y,t)がX方向、Y方向、およびt方向の3次元に積分された値)であるとして、光信号関数Fを近似関数で近似することで、光信号関数を推定する。
【1758】
従って、3次元関数近似手法は、より正確に実世界1の光信号を推定することが可能になる。
【1759】
次に、図250乃至図259を参照して、実世界推定部102が、定常性を有する実世界1の信号をモデル161で近似する場合における、データ162を抽出する抽出手法の他の例について説明する。
【1760】
以下の例では、各画素のそれぞれの重要度に応じた重みが付けられて、各画素のそれぞれの画素値が抽出され、抽出された値がデータ162(図7)として利用されて、実世界1の信号がモデル161(図7)で近似される。
【1761】
具体的には、例えば、センサ2(図1)からの入力画像として、図250で示されるような入力画像2701が、実世界推定部102(図3)に入力されたとする。
【1762】
なお、図250において、図中水平方向が、空間方向の1方向であるX方向とされ、図中垂直方向が、空間方向の他方向であるY方向とされている。
【1763】
また、入力画像2701は、画素幅(縦幅および横幅)LCをそれぞれ有する、7×16画素(図中、正方形)の画素値(図中、斜線で表現されているが、実際は、1つの値を有するデータである)で構成されている。
【1764】
注目画素は、画素値2701−1を有する画素(以下、画素値2701−1を有する画素を、注目画素2701−1と称する)とされており、注目画素2701−1におけるデータの定常性の方向は傾きGfで表されている。
【1765】
図251は、注目画素2701−1の中心における実世界1の光信号のレベルと、断面方向距離x’における実世界1の光信号のレベルの差(以下、レベル差と称する)を表している。即ち、図中水平方向の軸が断面方向距離x’を表しており、図中垂直方向の軸がレベル差を表している。なお、図中水平方向の軸の数値は、画素幅Lcを1の長さとして付されている。
【1766】
ここで、図252と図253を参照して、断面方向距離x’について説明する。
【1767】
図252は、図250の入力画像2701のうちの、注目画素2701−1を中心とする5×5画素のブロックを表している。図252においても、図250と同様に、図中水平方向が、空間方向の1方向であるX方向とされ、図中垂直方向が、空間方向の他方向であるY方向とされている。
【1768】
このとき、例えば、注目画素2701−1の中心を空間方向の原点(0,0)とし、その原点を通り、かつ、データの定常性の方向(図252の例では、傾きGfで表されるデータ定常性の方向)と平行な直線を引いたとすると、その直線に対するX方向の相対的な距離を、断面方向距離x’と称している。図252の例では、注目画素2701−1よりもY方向に2画素分離れた画素2701−2の中心点における断面方向距離x’が示されている。
【1769】
図253は、図250の入力画像2701のうちの、図252に示されるブロック内の各画素の断面方向距離を表した図である。即ち、図253において、入力画像2701の各画素(図中5×5=25個の正方形)内のそれぞれに記載されている値が、対応する画素の断面方向距離である。例えば、画素2701−2の断面方向距離x’は、−2βである。
【1770】
ただし、上述したように、各画素幅Lcは、X方向もY方向も1とされている。X方向の正方向は、図中右方向とされている。また、βは、注目画素2701−1のY方向に対して1つ隣(図中1つ下)の画素2701−3の断面方向距離を表している。このβは、図253で示されるような角度θ(傾きGfで表されるデータ定常性の方向と、X方向のなす角度θ)が、データ定常性検出部101よりデータ定常性情報として出力されている場合、次の式(169)を利用して簡単に演算することが可能である。
【1771】
β = 1/tanθ ・・・(169)
【1772】
図251に戻り、実際のレベル差を描画することは困難であるので、図251の例では、図250の入力画像2701に対応する、入力画像2701よりも高解像度の画像(図示せず)を事前に生成し、高解像度の画像の画素のうちの、入力画像2701の注目画素2701−1の略中心に位置する画素(高解像度の画像の画素)の画素値と、空間方向Xに水平な直線であって、入力画像2701の注目画素2701−1の中心を通る直線上に位置する各画素(高解像度の画像の画素)のそれぞれの画素値との差が、レベル差としてプロットされている。
【1773】
図251において、プロットされたレベル差で示されるように、断面方向距離x’が略−0.5から略1.5の範囲に、傾きGfで表されるデータの定常性を有する領域(以下、重み付けの説明において、このような領域を、定常領域と称する)が存在する。
【1774】
従って、断面方向距離x’が小さい画素(入力画像2701の画素)ほど、定常領域を含む確率が高くなる。即ち、断面方向距離x’が小さい画素(入力画像2701の画素)の画素値は、実世界推定部102が、定常性を有する実世界1の信号をモデル161で近似する場合に利用するデータ162として重要度が高いといえる。
【1775】
これに対して、断面方向距離x’が大きい画素(入力画像2701の画素)ほど、定常領域を含む確率が低くなる。即ち、断面方向距離x’が大きい画素(入力画像2701の画素)は、実世界推定部102が、定常性を有する実世界1の信号をモデル161で近似する場合に利用するデータ162として重要度が低いといえる。
【1776】
以上の重要度の関係については、入力画像2701に限らず、センサ2(図1)からの入力画像の全てに当てはまる。
【1777】
そこで、実世界推定部102は、定常性を有する実世界1の信号をモデル161で近似する場合、各画素(センサ2からの入力画像の画素)のそれぞれの画素値に対して、断面方向距離x’に応じて重み付けをして抽出し、抽出した値(重み付けされた画素値)をデータ162として利用することができる。即ち、データ162として、入力画像の画素値が抽出される場合、図251で示されるように、断面方向距離x’が大きくなるほど重みが小さくされて、画素値が抽出されることになる。
【1778】
さらに、図254で示されるように、実世界推定部102は、定常性を有する実世界1の信号をモデル161で近似する場合、各画素(センサ2からの入力画像の画素であって、図254の例では、入力画像2701の画素)のそれぞれの画素値に対して、空間相関に応じて(即ち、注目画素2701−1からの、傾きGfで表される定常性の方向の距離に応じて)重み付けをして抽出し、抽出した値(重み付けされた画素値)をデータ162として利用することができる。即ち、データ162として、入力画像の画素値が抽出される場合、図254で示されるように、空間相関が小さくなるほど(傾きGfで表される定常性の方向の距離が大きくなるほど)重みが小さくされて、画素値が抽出されることになる。なお、図254は、図250と同一の入力画像2701を表している。
【1779】
上述した2つの重み付け(図251で示される重み付けと、図254で示される重み付け)は、いずれか一方のみが使用されてもよいし、両方が同時に使用されてもよい。なお、両方が同時に使用される場合、最終的に利用される重みの算出方法は、特に限定されない。例えば、最終的な重みとして、両方の各重みの積が利用されてもよいし、図251で示される重み付けにより決定された重みに対して、傾きGfで表されるデータの定常性の方向の距離に応じて補正された重み(例えば、データの定常性の方向の距離が1増えるたびに、所定の値ずつ減少されていく重み)が利用されてもよい。
【1780】
実世界推定部102は、このようにして決定された重みを用いて、各画素のそれぞれの画素値を抽出し、重み付けされた画素値をデータ162として利用することで、実世界1の信号により近いモデル161を生成することが可能になる。
【1781】
具体的には、例えば、実世界推定部102は、上述したように、SMATWMAT=PMATで表される正規方程式を利用して(即ち、最小自乗法により)、モデル161である近似関数の特徴量(即ち、行列WMATの各成分)を演算することで、実世界1の信号を推定することもできる。
【1782】
この場合、入力画像のうちの、画素の番号がl(lは、1乃至Mのうちのいずれかの整数値)の画素のそれぞれに対する重みをvlと記述すると、実世界推定部102は、行列SMATとして次の式(170)で示される行列を使用し、かつ、行列PMATとして次の式(171)で示される行列を使用することができる。
【1783】
【数136】
【1784】
【数137】
【1785】
このように、上述した関数近似手法(図219)等、最小自乗法を利用する実世界推定部102は、重みを含む行列(即ち、上述した式(170)と上述した式(171))を使用することで、行列SMATとして上述した式(13)で示される行列を使用し、かつ、行列PMATとして上述した式(15)で示される行列を使用する場合に比較して、実世界1の信号により近い近似関数の特徴量を演算することが可能になる。
【1786】
即ち、最小自乗法を利用する実世界推定部102は、上述した重み付けの処理をさらに実行することで(正規方程式で使用する行列として、式(170)や式(171)で示されるような、重みvlが含まれる行列を使用するだけで)、その構成を変えることなく、実世界1の信号により近い近似関数の特徴量を演算することが可能になる。
【1787】
具体的には、例えば、図255は、実世界推定部102が、正規方程式の行列として、重みvlを含まない行列(例えば、上述した式(13)と式(15))を利用して近似関数を生成し(近似関数の特徴量を演算し)、画像生成部103(図3)が、その近似関数を再積分することで生成した画像の例を表している。
【1788】
これに対して、図256は、実世界推定部102が、正規方程式の行列として、重みvlを含む行列(例えば、上述した式(170)と式(171))を利用して近似関数を生成し(近似関数の特徴量を演算し)、画像生成部103が、その近似関数を再積分することで生成した画像(図255に対応する画像)の例を表している。
【1789】
図255の画像と図256の画像を比較するに、例えば、図255の画像の領域2711と、図256の画像の領域2712のいずれも、フォークの先端の一部分(同一部分)を表している。
【1790】
図255の画像の領域2711においては、非連続の複数の線が重なるようにして表示されているが、図256の画像の領域2712においては、ほぼ1に連続した線が表示されている。
【1791】
フォークの先端は実際には連続して形成されている(連続した1つの線として人間の目に映る)ことを考えると、図256の画像の領域2712の方が、図255の画像の領域2711に比較して、実世界1の信号、即ち、フォークの先端の画像をより忠実に再現しているといえる。
【1792】
また、図257は、実世界推定部102が、正規方程式の行列として、重みvlを含まない行列(例えば、上述した式(13)と式(15))を利用して近似関数を生成し(近似関数の特徴量を演算し)、画像生成部103が、その近似関数を再積分することで生成した画像の他の例(図255の画像とは異なる例)を表している。
【1793】
これに対して、図258は、実世界推定部102が、正規方程式の行列として、重みvlを含む行列(例えば、上述した式(170)と式(171))を利用して近似関数を生成し(近似関数の特徴量を演算し)、画像生成部103が、その近似関数を再積分することで生成した画像の他の例(図257に対応する画像であって、図256の画像とは異なる例)を表している。
【1794】
図257の画像と図258の画像を比較するに、例えば、図257の画像の領域2713と、図258の画像の領域2714のいずれも、梁の一部分(同一部分)を表している。
【1795】
図257の画像の領域2713においては、非連続の複数の線が重なるように表示されているが、図258の画像の領域2714においては、ほぼ1つに連続した線が表示されている。
【1796】
梁は実際には連続して形成されている(連続した1つの線として人間の目に映る)ことを考えると、図258の画像の領域2714の方が、図257の画像の領域2713に比較して、実世界1の信号、即ち、梁の画像をより忠実に再現しているといえる。
【1797】
以上によれば、それぞれ時空間積分効果を有する、センサの複数の検出素子により現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる画像データにおけるデータの定常性を検出し、検出したデータの定常性に対応して、画像データ内の注目画素からの時空間方向のうちの少なくとも1次元方向の距離に応じて、画像データ内の各画素のそれぞれに対して重みが付けられるとともに、画像データ内の、少なくとも1次元方向の位置に対応する画素の重みが付けられた画素値を、少なくとも1次元方向の積分効果により取得された画素値であるとして、現実世界の光信号を表す第1の関数が多項式である第2の関数で近似することで、第1の関数を推定するようにしたので、画像をより忠実に表現することが可能となる。
【1798】
次に、図259乃至図280を参照して、画像生成部103(図3)の実施の形態の1例について説明する。
【1799】
図259は、この例の実施の形態の原理を説明する図である。
【1800】
図259で示されるように、この例の実施の形態においては、実世界推定部102が、関数近似手法を利用することが前提とされている。即ち、センサ2に入射される画像である、実世界1の信号(光の強度の分布)が、所定の関数Fで表されるとして、実世界推定部102が、センサ2から出力された入力画像(画素値P)と、データ定常性検出部101から出力されたデータ定常性情報を使用して、関数Fを所定の関数fで近似することによって、関数Fを推定することが前提とされている。
【1801】
なお、以下、この例の実施の形態の説明においても、画像である、実世界1の信号を、特に光信号と称し、関数Fを、特に光信号関数Fと称する。また、関数fを、特に近似関数fと称する。
【1802】
そこで、この例の実施の形態においては、このような前提に基づいて、画像生成部103が、データ定常性検出部101から出力されたデータ定常性情報と、実世界推定部102から出力された実世界推定情報(図259の例では、近似関数fの特徴量)を使用して、近似関数fを所定の時空間範囲で積分し、その積分値を出力画素値M(出力画像)として出力する。なお、この例の実施の形態においては、入力画像の画素と出力画像の画素を区別するために、入力画素値をPと記述し、出力画素値をMと記述する。
【1803】
換言すると、光信号関数Fが1度積分されて入力画素値Pとなり、その入力画素値Pから光信号関数Fが推測され(近似関数fで近似され)、推測された光信号関数F(即ち、近似関数f)が再度積分されて、出力画素値Mが生成される。従って、以下、画像生成部103が実行する近似関数fの積分を、再積分と称する。また、この例の実施の形態を、再積分手法と称する。
【1804】
なお、後述するように、再積分手法において、出力画素値Mが生成される場合の近似関数fの積分範囲は、入力画素値Pが生成される場合の光信号関数Fの積分範囲(即ち、空間方向においては、センサ2の検出素子の縦幅と横幅であり、時間方向においては、センサ2の露光時間である)に限定されず、任意の積分範囲が可能である。
【1805】
例えば、出力画素値Mが生成される場合、近似関数fの積分範囲のうちの空間方向の積分範囲を可変することで、その積分範囲に応じて出力画像の画素ピッチを可変することが可能になる。即ち、空間解像度の創造が可能になる。
【1806】
同様に、例えば、出力画素値Mが生成される場合、近似関数fの積分範囲のうちの時間方向の積分範囲を可変することで、時間解像度の創造が可能になる。
【1807】
以下、図面を参照して、このような再積分手法のうちの3つの具体的な手法についてそれぞれ個別に説明していく。
【1808】
即ち、3つの具体的な手法とは、関数近似手法の3つの具体的な手法(実世界推定部102の実施の形態の上述した3つの具体的な例)のそれぞれに対応する再積分手法である。
【1809】
具体的には、1つ目の手法は、上述した1次元多項式近似手法(関数近似手法の1手法)に対応する再積分手法である。従って、1つ目の手法では1次元の再積分を行うことになるので、以下、このような再積分手法を、1次元再積分手法と称する。
【1810】
2つ目の手法は、上述した2次元多項式近似手法(関数近似手法の1手法)に対応する再積分手法である。従って、2つ目の手法では2次元の再積分を行うことになるので、以下、このような再積分手法を、2次元再積分手法と称する。
【1811】
3つ目の手法は、上述した3次元関数近似手法(関数近似手法の1手法)に対応する再積分手法である。従って、3つ目の手法では3次元の再積分を行うことになるので、以下、このような再積分手法を、3次元再積分手法と称する。
【1812】
以下、1次元再積分手法、2次元再積分手法、および3次元再積分手法のそれぞれの詳細について、その順番で説明していく。
【1813】
はじめに、1次元再積分手法について説明する。
【1814】
1次元再積分手法においては、1次元多項式近似手法により近似関数f(x)が既に生成されていることが前提とされる。
【1815】
即ち、3次元の空間上の位置x,y、およびz、並びに時刻tを変数とする光信号関数F(x,y,t)を、空間方向であるX方向、Y方向、およびZ方向、並びに時間方向であるt方向のうちの所定の1方向(例えば、X方向)に射影した1次元の波形(再積分手法の説明においても、このような波形のうちのX方向に射影した波形を、X断面波形F(x)と称することにする)が、n次(nは、任意の整数)の多項式である近似関数f(x)で近似されていることが前提とされる。
【1816】
この場合、1次元再積分手法においては、出力画素値Mは、次の式(172)のように演算される。
【1817】
【数138】
【1818】
なお、式(172)において、xsは、積分開始位置を表しており、xeは、積分終了位置を表している。また、Geは、所定のゲインを表している。
【1819】
具体的には、例えば、いま、実世界推測部102が、図260で示されるような画素3101(センサ2の所定の1つの検出素子に対応する画素3101)を注目画素として、図260で示されるような近似関数f(x)(X断面波形F(x)の近似関数f(x))を既に生成しているとする。
【1820】
なお、図260の例では、画素3101の画素値(入力画素値)がPとされ、かつ、画素3101の形状が、1辺の長さが1の正方形とされている。また、空間方向のうちの、画素3101の1辺に平行な方向(図中水平方向)がX方向とされ、X方向に垂直な方向(図中垂直方向)がY方向とされている。
【1821】
また、図260の下側に、画素3101の中心が原点とされる空間方向(X方向とY方向)の座標系(以下、注目画素座標系と称する)と、その座標系における画素3101が示されている。
【1822】
さらに、図260の上方に、y=0(yは、図中下側で示される注目画素座標系のY方向の座標値)における近似関数f(x)をグラフ化したものが示されている。このグラフにおいて、図中水平方向に平行な軸は、図中下側で示される注目画素座標系のX方向のx軸と同一の軸であり(原点も同一であり)、また、図中垂直方向に平行な軸は、画素値を表す軸とされている。
【1823】
この場合、近似関数f(x)と画素3101の画素値Pの間には、次の式(173)の関係が成立する。
【1824】
【数139】
【1825】
また、図260で示されるように、画素3101は、傾きGfで表される空間方向のデータの定常性を有しているとする。そして、データ定常性検出部101(図259)が、傾きGfで表されるデータの定常性に対応するデータ定常性情報として、図260で示されるような角度θを既に出力しているとする。
【1826】
この場合、例えば、1次元再積分方法においては、図261で示されるように、X方向に−0.5乃至0.5の範囲、かつY方向に−0.5乃至0.5の範囲(図260の画素3101が位置する範囲)に、4個の画素3111乃至画素3114を新たに創造することが可能である。
【1827】
なお、図261の下側に、図260のものと同一の注目画素座標系と、その注目画素座標系における画素3111乃至画素3114が示されている。また、図261の上側に、図260のものと同一のグラフ(y=0における近似関数f(x)をグラフ化したもの)が示されている。
【1828】
具体的には、図261で示されるように、1次元再積分方法においては、次の式(174)により画素3111の画素値M(1)の算出が、次の式(175)により画素3112の画素値M(2)の算出が、次の式(176)により画素3113の画素値M(3)の算出が、次の式(177)により画素3114の画素値M(4)の算出が、それぞれ可能である。
【1829】
【数140】
【1830】
【数141】
【1831】
【数142】
【1832】
【数143】
【1833】
なお、式(174)のxs1、式(175)のxs2、式(176)のxs3、および式(177)のxs4のそれぞれは、対応する式の積分開始位置を表している。また、式(174)のxe1、式(175)のxe2、式(176)のxe3、および式(177)のxe4のそれぞれは、対応する式の積分終了位置を表している。
【1834】
式(174)乃至式(177)のそれぞれの右辺の積分範囲は、画素3111乃至画素3114のそれぞれの画素幅(X方向の長さ)となる。即ち、xe1−xs1,xe2−xs2,xe3−xs3,xe4−xs4のそれぞれは、0.5となる。
【1835】
ただし、いまの場合、y=0における近似関数f(x)と同一形状の1次元の波形が、Y方向ではなく、傾きGfで表されるデータの定常性の方向(即ち、角度θ方向)に連なっていると考えられる(実際には、y=0におけるX断面波形F(x)と同一形状の波形が定常性の方向に連なっている)。即ち、図261の注目画素座標系における原点(0,0)(図260の画素3101の中心)における画素値f(0)を画素値f1とした場合、画素値f1が続く方向は、Y方向ではなく、傾きGfで表されるデータの定常性の方向(角度θ方向)である。
【1836】
換言すると、Y方向の所定の位置y(ただし、yは0以外の数値)における近似関数f(x)の波形を考えた場合、画素値f1となる位置は、位置(0,y)ではなく、位置(0,y)からX方向に所定の量(ここでも、このような量をシフト量と称することにする。また、シフト量は、Y方向の位置yに依存する量であるので、このシフト量をCx(y)と記述することにする)だけ移動した位置(Cx(y),y)である。
【1837】
従って、上述した式(174)乃至式(177)のそれぞれの右辺の積分範囲として、求めたい画素値M(l)(ただし、lは、1乃至4のうちのいずれかの整数値)の中心が存在するY方向の位置yを考慮した範囲、即ち、シフト量Cx(y)を考慮した積分範囲の設定が必要である。
【1838】
具体的には、例えば、画素3111と画素3112の中心が存在するY方向の位置yは、y=0ではなく、y=0.25である。
【1839】
従って、y=0.25における近似関数f(x)の波形は、y=0における近似関数f(x)の波形をX方向にシフト量Cx(0.25)だけ移動させた波形に相当する。
【1840】
換言すると、上述した式(174)において、画素3111に対する画素値M(1)は、y=0における近似関数f(x)を所定の積分範囲(開始位置xs1から終了位置xe1まで)で積分したものであるとすると、その積分範囲は、開始位置xs1=−0.5から終了位置xe1=0までの範囲(画素3111がX方向に占める範囲そのもの)ではなく、図261で示される範囲、即ち、開始位置xs1=−0.5+Cx(0.25)から終了位置xe1=0+Cx(0.25)(シフト量Cx(0.25)だけ画素3111を仮に移動させた場合における、画素3111がX方向に占める範囲)となる。
【1841】
同様に、上述した式(175)において、画素3112に対する画素値M(2)は、y=0における近似関数f(x)を所定の積分範囲(開始位置xs2から終了位置xe2まで)で積分したものであるとすると、その積分範囲は、開始位置xs2=0から終了位置xe2=0.5までの範囲(画素3112のX方向に占める範囲そのもの)ではなく、図261で示される範囲、即ち、開始位置xs2=0+Cx(0.25)から終了位置xe1=0.5+Cx(0.25)(シフト量Cx(0.25)だけ画素3112を仮に移動させた場合における、画素3112のX方向に占める範囲)となる。
【1842】
また、例えば、画素3113と画素3114の中心が存在するY方向の位置yは、y=0ではなく、y=−0.25である。
【1843】
従って、y=−0.25における近似関数f(x)の波形は、y=0における近似関数f(x)の波形をX方向にシフト量Cx(−0.25)だけ移動させた波形に相当する。
【1844】
換言すると、上述した式(176)において、画素3113に対する画素値M(3)は、y=0における近似関数f(x)を所定の積分範囲(開始位置xs3から終了位置xe3まで)で積分したものであるとすると、その積分範囲は、開始位置xs3=−0.5から終了位置xe3=0までの範囲(画素3113のX方向に占める範囲そのもの)ではなく、図261で示される範囲、即ち、開始位置xs3=−0.5+Cx(−0.25)から終了位置xe3=0+Cx(−0.25)(シフト量Cx(−0.25)だけ画素3113を仮に移動させた場合における、画素3113のX方向に占める範囲)となる。
【1845】
同様に、上述した式(177)において、画素3114に対する画素値M(4)は、y=0における近似関数f(x)を所定の積分範囲(開始位置xs4から終了位置xe4まで)で積分したものであるとすると、その積分範囲は、開始位置xs4=0から終了位置xe4=0.5までの範囲(画素3114のX方向の占める範囲そのもの)ではなく、図261で示される範囲、即ち、開始位置xs4=0+Cx(−0.25)から終了位置xe1=0.5+Cx(−0.25)(シフト量Cx(−0.25)だけ画素3114を仮に移動させた場合における、画素3114のX方向に占める範囲)となる。
【1846】
従って、画像生成部102(図259)は、上述した式(174)乃至式(177)のそれぞれに、上述した積分範囲のうちの対応するものを代入してそれぞれ演算し、それらの演算結果を出力画素値M(1)乃至M(4)のそれぞれとして出力することになる。
【1847】
このように、画像生成部102は、1次元再積分手法を利用することで、センサ2(図259)からの出力画素3101(図260)における画素として、出力画素3101よりも空間解像度の高い4つの画素、即ち、画素3111乃至画素3114(図261)を創造することができる。さらに、図示はしないが、上述したように、画像生成部102は、画素3111乃至画素3114のみならず、積分範囲を適宜変えることで、出力画素3101に対して任意の倍率の空間解像度の画素を劣化することなく創造することができる。
【1848】
図262は、このような1次元再積分手法を利用する画像生成部103の構成例を表している。
【1849】
図262で示されるように、この例の画像生成部103には、条件設定部3121、特徴量記憶部3122、積分成分演算部3123、および出力画素値演算部3124が設けられている。
【1850】
条件設定部3121は、実世界推定部102より供給された実世界推定情報(図262の例では、近似関数f(x)の特徴量)に基づいて近似関数f(x)の次数nを設定する。
【1851】
条件設定部3121はまた、近似関数f(x)を再積分する場合(出力画素値を演算する場合)の積分範囲を設定する。なお、条件設定部3121が設定する積分範囲は、画素の幅である必要は無い。例えば、近似関数f(x)は空間方向(X方向)に積分されるので、センサ2(図259)からの入力画像の各画素の空間的な大きさに対する、出力画素(画像生成部103がこれから演算する画素)の相対的な大きさ(空間解像度の倍率)がわかれば、具体的な積分範囲の決定が可能である。従って、条件設定部3121は、積分範囲として、例えば、空間解像度倍率を設定することもできる。
【1852】
特徴量記憶部3122は、実世界推定部102より順次供給されてくる近似関数f(x)の特徴量を一次的に記憶する。そして、特徴量記憶部3122は、近似関数f(x)の特徴量の全てを記憶すると、近似関数f(x)の特徴量を全て含む特徴量テーブルを生成し、出力画素値演算部3124に供給する。
【1853】
ところで、上述したように、画像生成部103は、上述した式(172)を利用して出力画素値Mを演算するが、上述した式(172)の右辺に含まれる近似関数f(x)は、具体的には、次の式(178)のように表される。
【1854】
【数144】
【1855】
なお、式(178)において、wiは、実世界推定部102より供給される近似関数f(x)の特徴量を表している。
【1856】
従って、上述した式(172)の右辺の近似関数f(x)に、式(178)の近似関数f(x)を代入して、式(172)の右辺を展開(演算)すると、出力画素値Mは、次の式(179)のように表される。
【1857】
【数145】
【1858】
式(179)において、Ki(xs,xe)は、i次項の積分成分を表している。即ち、積分成分Ki(xs,xe)は、次の式(180)で示される通りである。
【1859】
【数146】
【1860】
積分成分演算部3123は、この積分成分Ki(xs,xe)を演算する。
【1861】
具体的には、式(180)で示されるように、積分成分Ki(xs,xe)は、積分範囲の開始位置xs、および終了位置xe、ゲインGe、並びにi次項のiが既知であれば演算可能である。
【1862】
これらのうちの、ゲインGeは、条件設定部3121により設定された空間解像度倍率(積分範囲)により決定される。
【1863】
iの範囲は、条件設定部3121により設定された次数nにより決定される。
【1864】
また、積分範囲の開始位置xs、および終了位置xeのそれぞれは、これから生成する出力画素の中心画素位置(x,y)および画素幅、並びにデータの定常性の方向を表すシフト量Cx(y)により決定される。なお、(x,y)は、実世界推定部102が近似関数f(x)を生成したときの注目画素の中心位置からの相対位置を表している。
【1865】
さらに、これから生成する出力画素の中心画素位置(x,y)および画素幅のそれぞれは、条件設定部3121により設定された空間解像度倍率(積分範囲)により決定される。
【1866】
また、シフト量Cx(y)と、データ定常性検出部101より供給された角度θは、次の式(181)と式(182)のような関係が成り立つので、シフト量Cx(y)は角度θにより決定される。
【1867】
【数147】
【1868】
【数148】
【1869】
なお、式(181)において、Gfは、データの定常性の方向を表す傾きを表しており、θは、データ定常性検出部101(図259)より出力されるデータ定常性情報の1つである角度(空間方向の1方向であるX方向と、傾きGfで表されるデータの定常性の方向とのなす角度)を表している。また、dxは、X方向の微小移動量を表しており、dyは、dxに対するY方向(X方向と垂直な空間方向)の微小移動量を表している。
【1870】
従って、積分成分演算部3123は、条件設定部3121により設定された次数および空間解像度倍率(積分範囲)、並びにデータ定常性検出部101より出力されたデータ定常性情報のうちの角度θに基づいて積分成分Ki(xs,xe)を演算し、その演算結果を積分成分テーブルとして出力画素値演算部3124に供給する。
【1871】
出力画素値演算部3124は、特徴量記憶部3122より供給された特徴量テーブルと、積分成分演算部3123より供給された積分成分テーブルを利用して、上述した式(179)の右辺を演算し、その演算結果を出力画素値Mとして外部に出力する。
【1872】
次に、図263のフローチャートを参照して、1次元再積分手法を利用する画像生成部103(図262)の画像の生成の処理(図40のステップS103の処理)について説明する。
【1873】
例えば、いま、上述した図40のステップS102の処理で、実世界推測部102が、上述した図260で示されるような画素3101を注目画素として、図260で示されるような近似関数f(x)を既に生成しているとする。
【1874】
また、上述した図40のステップS101の処理で、データ定常性検出部101が、データ定常性情報として、図260で示されるような角度θを既に出力しているとする。
【1875】
この場合、図263のステップS3101において、条件設定部3121は、条件(次数と積分範囲)を設定する。
【1876】
例えば、いま、次数として5が設定されるとともに、積分範囲として空間4倍密(画素のピッチ幅が上下左右ともに1/2倍となる空間解像度倍率)が設定されたとする。
【1877】
即ち、この場合、図261で示されるように、X方向に−0.5乃至0.5の範囲、かつY方向に−0.5乃至0.5の範囲(図260の画素3101の範囲)に、4個の画素3111乃至画素3114を新たに創造することが設定されたことになる。
【1878】
ステップS3102において、特徴量記憶部3122は、実世界推定部102より供給された近似関数f(x)の特徴量を取得し、特徴量テーブルを生成する。いまの場合、5次の多項式である近似関数f(x)の係数w0乃至w5が実世界推定部102より供給されるので、特徴量テーブルとして、(w0,w1,w2,w3,w4,w5)が生成される。
【1879】
ステップS3103において、積分成分演算部3123は、条件設定部3121により設定された条件(次数および積分範囲)、並びにデータ定常性検出部101より供給されたデータ定常性情報(角度θ)に基づいて積分成分を演算し、積分成分テーブルを生成する。
【1880】
具体的には、例えば、これから生成する画素3111乃至画素3114のそれぞれに対して、番号(このような番号を、以下、モード番号と称する)1乃至4のそれぞれが付されているとすると、積分成分演算部3123は、上述した式(180)の積分成分Ki(xs,xe)を、次の式(183)の左辺で示される積分成分Ki(l)といったl(ただし、lはモード番号を表している)の関数として演算する。
【1881】
Ki(l) = Ki(xs,xe) ・・・(183)
【1882】
具体的には、いまの場合、次の式(184)で示される積分成分Ki(l)が演算される。
【1883】
【数149】
【1884】
なお、式(184)において、左辺が積分成分Ki(l)を表し、右辺が積分成分Ki(xs,xe)を表している。即ち、いまの場合、lは、1乃至4のうちのいずれかであり、かつ、iは0乃至5のうちのいずれかであるので、6個のKi(1),6個のKi(2),6個のKi(3),6個のKi(4)の総計24個のKi(l)が演算されることになる。
【1885】
より具体的には、はじめに、積分成分演算部3123は、データ定常性検出部101より供給された角度θを使用して、上述した式(181)と式(182)よりシフト量Cx(−0.25)、およびCx(0.25)のそれぞれを演算する。
【1886】
次に、積分成分演算部3123は、演算したシフト量Cx(−0.25)、およびCx(0.25)を使用して、式(184)の4つの式の各右辺の積分成分Ki(xs,xe)のそれぞれを、i=0乃至5についてそれぞれ演算する。なお、この積分成分Ki(xs,xe)の演算においては、上述した式(180)が使用される。
【1887】
そして、積分成分演算部3123は、式(184)に従って、演算した24個の積分成分Ki(xs,xe)のそれぞれを、対応する積分成分Ki(l)に変換し、変換した24個の積分成分Ki(l)(即ち、6個のKi(1)、6個のKi(2)、6個のKi(3)、および6個のKi(4))を含む積分成分テーブルを生成する。
【1888】
なお、ステップS3102の処理とステップS3103の処理の順序は、図263の例に限定されず、ステップS3103の処理が先に実行されてもよいし、ステップS3102の処理とステップS3103の処理が同時に実行されてもよい。
【1889】
次に、ステップS3104において、出力画素値演算部3124は、ステップS3102の処理で特徴量記憶部3122により生成された特徴量テーブルと、ステップS3103の処理で積分成分演算部3123により生成された積分成分テーブルに基づいて出力画素値M(1)乃至M(4)のそれぞれを演算する。
【1890】
具体的には、いまの場合、出力画素値演算部3124は、上述した式(179)に対応する、次の式(185)乃至式(188)の右辺を演算することで、画素3111(モード番号1の画素)の画素値M(1)、画素3112(モード番号2の画素)の画素値M(2)、画素3113(モード番号3の画素)の画素値M(3)、および画素3114(モード番号4の画素)の画素値M(4)のそれぞれを演算する。
【1891】
【数150】
【1892】
【数151】
【1893】
【数152】
【1894】
【数153】
【1895】
ステップS3105において、出力画素値演算部3124は、全画素の処理を終了したか否かを判定する。
【1896】
ステップS3105において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS3102に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS3102乃至S3104の処理が繰り返される。
【1897】
そして、全画素の処理が終了すると(ステップS3105において、全画素の処理が終了されたと判定すると)、出力画素値演算部3124は、ステップS3106において、画像を出力する。その後、画像の生成の処理は終了となる。
【1898】
次に、図264乃至図271を参照して、所定の入力画像に対して、1次元再積分手法を適用して得られた出力画像と、他の手法(従来のクラス分類適応処理)を適用して得られた出力画像の違いについて説明する。
【1899】
図264は、入力画像の元の画像を示す図であり、図265は、図264の元の画像に対応する画像データを示している。図265において、図中垂直方向の軸は、画素値を示し、図中右下方向の軸は、画像の空間方向の一方向であるX方向を示し、図中右上方向の軸は、画像の空間方向の他の方向であるY方向を示す。なお、後述する図267、図269、および図271の軸のそれぞれは、図265の軸と対応している。
【1900】
図266は、入力画像の例を示す図である。図266で示される入力画像は、図264で示される画像の2×2の画素からなるブロックに属する画素の画素値の平均値を、1つの画素の画素値として生成された画像である。即ち、入力画像は、図264で示される画像に、センサの積分特性を模した、空間方向の積分を適用することにより得られた画像である。また、図267は、図266の入力画像に対応する画像データを示している。
【1901】
図264で示される元の画像において、上下方向から、ほぼ5度時計方向に傾いた細線の画像が含まれている。同様に、図266で示される入力画像において、上下方向から、ほぼ5度時計方向に傾いた細線の画像が含まれている。
【1902】
図268は、図266で示される入力画像に、従来のクラス分類適応処理を適用して得られた画像(以下、図268で示される画像を、従来の画像と称する)を示す図である。また、図269は、従来の画像に対応する画像データを示している。
【1903】
なお、クラス分類適応処理は、クラス分類処理と適応処理とからなり、クラス分類処理によって、データを、その性質に基づいてクラス分けし、各クラスごとに適応処理を施すものである。適応処理では、例えば、低画質または標準画質の画像が、所定のタップ係数を用いてマッピング(写像)されることにより、高画質の画像に変換される。
【1904】
図270は、図266で示される入力画像に、本発明が適用される1次元再積分手法を適用して得られた画像(以下、図270で示される画像を、本発明の画像と称する)を示す図である。また、図271は、本発明の画像に対応する画像データを示している。
【1905】
図268の従来の画像と、図270の本発明の画像を比較するに、従来の画像においては、細線の画像が、図264の元の画像とは異なるものになっているのに対して、本発明の画像においては、細線の画像が、図264の元の画像とほぼ同じものになっていることがわかる。
【1906】
この違いは、従来のクラス分類適応処理は、あくまでも図266の入力画像を基準(原点)として処理を行う手法であるのに対して、本発明の1次元再積分手法は、細線の定常性を考慮して、図264の元の画像を推定し(元の画像に対応する近似関数f(x)を生成し)、推定した元の画像を基準(原点)として処理を行う(再積分して画素値を演算する)手法であるからである。
【1907】
このように、1次元再積分手法においては、1次元多項式近似手法により生成された1次元の多項式である近似関数f(x)(実世界のX断面波形F(x)の近似関数f(x))を基準(原点)として、近似関数f(x)を任意の範囲に積分することで出力画像(画素値)が生成される。
【1908】
従って、1次元再積分手法においては、従来の他の手法に比較して、元の画像(センサ2に入射される前の実世界1の光信号)により近い画像の出力が可能になる。
【1909】
換言すると、1次元再積分手法においては、図259のデータ定常性検出部101が、それぞれ時空間積分効果を有する、センサ2の複数の検出素子により実世界1の光信号が射影され、実世界1の光信号の定常性の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる入力画像におけるデータの定常性を検出し、実世界推定部102が、検出されたデータの定常性に対応して、入力画像の時空間方向のうち1次元方向の位置に対応する画素の画素値が、その1次元方向の積分効果により取得された画素値であるとして、実世界1の光信号を表す光信号関数F(具体的には、X断面波形F(x))を、所定の近似関数f(x)で近似することで、光信号関数Fを推定していることが前提とされている。
【1910】
詳細には、例えば、検出されたデータの定常性に対応する線からの1次元方向に沿った距離に対応する各画素の画素値が、その1次元方向の積分効果により取得された画素値であるとして、X断面波形F(x)が近似関数f(x)で近似されていることが前提とされている。
【1911】
そして、1次元再積分手法においては、このような前提に基づいて、例えば、図259(図3)の画像生成部103が、実世界推定部102により推定されたX断面波形F(x)、即ち、近似関数f(x)を、1次元方向の所望の単位で積分することにより所望の大きさの画素に対応する画素値Mを生成し、それを出力画像として出力する。
【1912】
従って、1次元再積分手法においては、従来の他の手法に比較して、元の画像(センサ2に入射される前の実世界1の光信号)により近い画像の出力が可能になる。
【1913】
また、1次元再積分手法においては、上述したように、積分範囲は任意なので、積分範囲を可変することにより、入力画像の解像度とは異なる解像度(時間解像度、または空間解像度)を創造することも可能になる。即ち、入力画像の解像度に対して、整数値だけではなく任意の倍率の解像度の画像を生成することが可能になる。
【1914】
さらに、1次元再積分手法においては、他の再積分手法に比較して、より少ない演算処理量で出力画像(画素値)の算出が可能となる。
【1915】
次に、図272乃至図278を参照して、2次元再積分手法について説明する。
【1916】
2次元再積分手法においては、2次元多項式近似手法により近似関数f(x,y)が既に生成されていることが前提とされる。
【1917】
即ち、例えば、図272で示されるような、傾きGFで表される空間方向の定常性を有する実世界1(図259)の光信号を表す画像関数F(x,y,t)を、空間方向(X方向とY方向)に射影した波形、即ち、X−Y平面上の波形F(x,y)が、n次(nは、任意の整数)の多項式である近似関数f(x,y)に近似されていることが前提とされる。
【1918】
図272において、図中、水平方向は、空間方向の1方向であるX方向を、右上方向は、空間方向の他方向であるY方向を、垂直方向は、光のレベルを、それぞれ表している。GFは、空間方向の定常性の傾きを表している。
【1919】
なお、図272の例では、定常性の方向は、空間方向(X方向とY方向)とされているため、近似の対象とされる光信号の射影関数は、関数F(x,y)とされているが、後述するように、定常性の方向に応じて、関数F(x,t)や関数F(y,t)が近似の対象とされてもよい。
【1920】
図272の例の場合、2次元再積分手法においては、出力画素値Mは、次の式(189)のように演算される。
【1921】
【数154】
【1922】
なお、式(189)において、ysは、Y方向の積分開始位置を表しており、yeは、Y方向の積分終了位置を表している。同様に、xsは、X方向の積分開始位置を表しており、xeは、X方向の積分終了位置を表している。また、Geは、所定のゲインを表している。
【1923】
式(189)において、積分範囲は任意に設定可能であるので、2次元再積分手法においては、この積分範囲を適宜変えることで、元の画素(センサ2(図259)からの入力画像の画素)に対して任意の倍率の空間解像度の画素を劣化することなく創造することが可能になる。
【1924】
図273は、2次元再積分手法を利用する画像生成部103の構成例を表している。
【1925】
図273で示されるように、この例の画像生成部103には、条件設定部3201、特徴量記憶部3202、積分成分演算部3203、および出力画素値演算部3204が設けられている。
【1926】
条件設定部3201は、実世界推定部102より供給された実世界推定情報(図273の例では、近似関数f(x,y)の特徴量)に基づいて近似関数f(x,y)の次数nを設定する。
【1927】
条件設定部3201はまた、近似関数f(x,y)を再積分する場合(出力画素値を演算する場合)の積分範囲を設定する。なお、条件設定部3201が設定する積分範囲は、画素の縦幅や横幅である必要は無い。例えば、近似関数f(x,y)は空間方向(X方向とY方向)に積分されるので、センサ2からの入力画像の各画素の空間的な大きさに対する、出力画素(画像生成部103がこれから生成する画素)の相対的な大きさ(空間解像度の倍率)がわかれば、具体的な積分範囲の決定が可能である。従って、条件設定部3201は、積分範囲として、例えば、空間解像度倍率を設定することもできる。
【1928】
特徴量記憶部3202は、実世界推定部102より順次供給されてくる近似関数f(x,y)の特徴量を一次的に記憶する。そして、特徴量記憶部3202は、近似関数f(x,y)の特徴量の全てを記憶すると、近似関数f(x,y)の特徴量を全て含む特徴量テーブルを生成し、出力画素値演算部3204に供給する。
【1929】
ここで、近似関数f(x,y)の詳細について説明する。
【1930】
例えば、いま、上述した図272で示されるような傾きGFで表される空間方向の定常性を有する実世界1(図259)の光信号(波形F(x,y)で表される光信号)が、センサ2(図259)により検出されて入力画像(画素値)として出力されたとする。
【1931】
さらに、例えば、図274で示されるように、データ定常性検出部101(図3)が、この入力画像のうちの、X方向に4画素分、かつY方向に5画素分の総計20個の画素(図中、点線で表される20個の正方形)から構成される入力画像の領域3221に対してその処理を実行し、データ定常性情報の1つとして角度θ(傾きGFに対応する傾きGfで表されるデータの定常性の方向と、X方向とのなす角度θ)を出力したとする。
【1932】
なお、実世界推定部102から見ると、データ定常性検出部101は、注目画素における角度θを単に出力すればよいので、データ定常性検出部101の処理範囲は、上述した入力画像の領域3221に限定されない。
【1933】
また、入力画像の領域3221において、図中水平方向は、空間方向の1方向であるX方向を表しており、図中垂直方向は、空間方向の他方向であるY方向を表している。
【1934】
さらに、図274中、左から2画素目であって、下から3画素目の画素が注目画素とされ、その注目画素の中心を原点(0,0)とするように(x,y)座標系が設定されている。そして、原点(0,0)を通る角度θの直線(データの定常性の方向を表す傾きGfの直線)に対するX方向の相対的な距離(以下、断面方向距離と称する)がx’とされている。
【1935】
さらに、図274中、右側のグラフは、3次元の空間上の位置x,y、およびz、並びに時刻tを変数とする画像関数F(x,y,t)を、Y方向の任意の位置yにおいて、X方向に射影した1次元の波形(以下、このような波形を、X断面波形F(x’)と称する)が近似された関数であって、n次(nは、任意の整数)の多項式である近似関数f(x’)を表している。右側のグラフの軸のうち、図中水平方向の軸は、断面方向距離を表しており、図中垂直方向の軸は、画素値を表している。
【1936】
この場合、図274で示される近似関数f(x’)は、n次の多項式であるので、次の式(190)のように表される。
【1937】
【数155】
【1938】
また、角度θが決定されていることから、原点(0,0)を通る角度θの直線は一意に決まり、Y方向の任意の位置yにおける、直線のX方向の位置xlが、次の式(191)のように表される。ただし、式(191)において、sはcotθを表している。
【1939】
xl = s×y ・・・(191)
【1940】
即ち、図274で示されるように、傾きGfで表されるデータの定常性に対応する直線上の点は、座標値(xl,y)で表される。
【1941】
式(191)より、断面方向距離x’は、次の式(192)のように表される。
【1942】
x’ = x−xl = x−s×y ・・・(192)
【1943】
従って、入力画像の領域3221内の任意の位置(x,y)における近似関数f(x,y)は、式(190)と式(192)より、次の式(193)のように示される。
【1944】
【数156】
【1945】
なお、式(193)において、wiは、近似関数f(x,y)の特徴量を表している。
【1946】
図273に戻り、式(193)に含まれる特徴量wiが、実世界推定部102より供給され、特徴量記憶部3202に記憶される。特徴量記憶部3202は、式(193)で表される特徴量wiの全てを記憶すると、特徴量wiを全て含む特徴量テーブルを生成し、出力画素値演算部3204に供給する。
【1947】
また、上述した式(189)の右辺の近似関数f(x,y)に、式(193)の近似関数f(x,y)を代入して、式(189)の右辺を展開(演算)すると、出力画素値Mは、次の式(194)のように表される。
【1948】
【数157】
【1949】
式(194)において、Ki(xs,xe,ys,ye)は、i次項の積分成分を表している。即ち、積分成分Ki(xs,xe,ys,ye)は、次の式(195)で示される通りである。
【1950】
【数158】
【1951】
積分成分演算部3203は、この積分成分Ki(xs,xe,ys,ye)を演算する。
【1952】
具体的には、式(194)と式(195)で示されるように、積分成分Ki(xs,xe,ys,ye)は、積分範囲のX方向の開始位置xs、およびX方向の終了位置xe、積分範囲のY方向の開始位置ys、およびY方向の終了位置ye、変数s、ゲインGe、並びにi次項のiが既知であれば演算可能である。
【1953】
これらのうちの、ゲインGeは、条件設定部3201により設定された空間解像度倍率(積分範囲)により決定される。
【1954】
iの範囲は、条件設定部3201により設定された次数nにより決定される。
【1955】
変数sは、上述したように、cotθであるので、データ定常性検出部101より出力される角度θにより決定される。
【1956】
また、積分範囲のX方向の開始位置xs、およびX方向の終了位置xe、並びに、積分範囲のY方向の開始位置ys、およびY方向の終了位置yeのそれぞれは、これから生成する出力画素の中心画素位置(x,y)および画素幅により決定される。なお、(x,y)は、実世界推定部102が近似関数f(x)を生成したときの注目画素の中心位置からの相対位置を表している。
【1957】
さらに、これから生成する出力画素の中心画素位置(x,y)および画素幅のそれぞれは、条件設定部3201により設定された空間解像度倍率(積分範囲)により決定される。
【1958】
従って、積分成分演算部3203は、条件設定部3201により設定された次数および空間解像度倍率(積分範囲)、並びにデータ定常性検出部101より出力されたデータ定常性情報のうちの角度θに基づいて積分成分Ki(xs,xe,ys,ye)を演算し、その演算結果を積分成分テーブルとして出力画素値演算部3204に供給する。
【1959】
出力画素値演算部3204は、特徴量記憶部3202より供給された特徴量テーブルと、積分成分演算部3203より供給された積分成分テーブルを利用して、上述した式(194)の右辺を演算し、その演算結果を出力画素値Mとして外部に出力する。
【1960】
次に、図275のフローチャートを参照して、2次元再積分手法を利用する画像生成部103(図274)の画像の生成の処理(図40のステップS103の処理)について説明する。
【1961】
例えば、いま、図272で示される関数F(x,y)で表される光信号がセンサ2に入射されて入力画像となり、上述した図40のステップS102の処理で、実世界推測部102が、その入力画像のうちの、図276で示されるような1つの画素3231を注目画素として、関数F(x,y)を近似する近似関数f(x,y)を既に生成しているとする。
【1962】
なお、図276において、画素3231の画素値(入力画素値)がPとされ、かつ、画素3231の形状が、1辺の長さが1の正方形とされている。また、空間方向のうちの、画素3231の1辺に平行な方向がX方向とされ、X方向に垂直な方向がY方向とされている。さらに、画素3231の中心が原点とされる空間方向(X方向とY方向)の座標系(以下、注目画素座標系と称する)が設定されている。
【1963】
また、図276において、上述した図40のステップS101の処理で、データ定常性検出部101が、画素3231を注目画素として、傾きGfで表されるデータの定常性に対応するデータ定常性情報として、角度θを既に出力しているとする。
【1964】
図275に戻り、この場合、ステップS3201において、条件設定部3201は、条件(次数と積分範囲)を設定する。
【1965】
例えば、いま、次数として5が設定されるとともに、積分範囲として空間4倍密(画素のピッチ幅が上下左右ともに1/2倍となる空間解像度倍率)が設定されたとする。
【1966】
即ち、この場合、図277で示されるように、X方向に−0.5乃至0.5の範囲、かつY方向に−0.5乃至0.5の範囲(図276の画素3231の範囲)に、4個の画素3241乃至画素3244を新たに創造することが設定されたことになる。なお、図277においても、図276のものと同一の注目画素座標系が示されている。
【1967】
また、図277において、M(1)は、これから生成される画素3241の画素値を、M(2)は、これから生成される画素3242の画素値を、M(3)は、これから生成される画素3243の画素値を、M(4)は、これから生成される画素3241の画素値を、それぞれ表している。
【1968】
図275に戻り、ステップS3202において、特徴量記憶部3202は、実世界推定部102より供給された近似関数f(x,y)の特徴量を取得し、特徴量テーブルを生成する。いまの場合、5次の多項式である近似関数f(x)の係数w0乃至w5が実世界推定部102より供給されるので、特徴量テーブルとして、(w0,w1,w2,w3,w4,w5)が生成される。
【1969】
ステップS3203において、積分成分演算部3203は、条件設定部3201により設定された条件(次数および積分範囲)、並びにデータ定常性検出部101より供給されたデータ定常性情報(角度θ)に基づいて積分成分を演算し、積分成分テーブルを生成する。
【1970】
具体的には、例えば、これから生成される画素3241乃至画素3244のそれぞれに対して、番号(このような番号を、以下、モード番号と称する)1乃至4のそれぞれが付されているとすると、積分成分演算部3203は、上述した式(194)の積分成分Ki(xs,xe,ys,ye)を、次の式(196)の左辺で示される積分成分Ki(l)といったl(ただし、lはモード番号を表している)の関数として演算する。
【1971】
Ki(l) = Ki(xs,xe,ys,ye) ・・・(196)
【1972】
具体的には、いまの場合、次の式(197)で示される積分成分Ki(l)が演算される。
【1973】
【数159】
【1974】
なお、式(197)において、左辺が積分成分Ki(l)を表し、右辺が積分成分Ki(xs,xe,ys,ye)を表している。即ち、いまの場合、lは、1乃至4のうちのいずれかであり、かつ、iは0乃至5のうちのいずれかであるので、6個のKi(1),6個のKi(2),6個のKi(3),6個のKi(4)の総計24個のKi(l)が演算されることになる。
【1975】
より具体的には、はじめに、積分成分演算部3203は、データ定常性検出部101より供給された角度θを使用して、上述した式(191)の変数s(s=cotθ)を演算する。
【1976】
次に、積分成分演算部3203は、演算した変数sを使用して、式(197)の4つの式の各右辺の積分成分Ki(xs,xe,ys,ye)のそれぞれを、i=0乃至5についてそれぞれ演算する。なお、この積分成分Ki(xs,xe,ys,ye)の演算においては、上述した式(194)が使用される。
【1977】
そして、積分成分演算部3203は、式(197)に従って、演算した24個の積分成分Ki(xs,xe,ys,ye)のそれぞれを、対応する積分成分Ki(l)に変換し、変換した24個の積分成分Ki(l)(即ち、6個のKi(1)、6個のKi(2)、6個のKi(3)、および6個のKi(4))を含む積分成分テーブルを生成する。
【1978】
なお、ステップS3202の処理とステップS3203の処理の順序は、図275の例に限定されず、ステップS3203の処理が先に実行されてもよいし、ステップS3202の処理とステップS3203の処理が同時に実行されてもよい。
【1979】
次に、ステップS3204において、出力画素値演算部3204は、ステップS3202の処理で特徴量記憶部3202により生成された特徴量テーブルと、ステップS3203の処理で積分成分演算部3203により生成された積分成分テーブルに基づいて出力画素値M(1)乃至M(4)のそれぞれを演算する。
【1980】
具体的には、いまの場合、出力画素値演算部3204は、上述した式(194)に対応する、次の式(198)乃至式(201)の右辺のそれぞれを演算することで、図277で示される、画素3241(モード番号1の画素)の画素値M(1)、画素3242(モード番号2の画素)の画素値M(2)、画素3243(モード番号3の画素)の画素値M(3)、および画素3244(モード番号4の画素)の画素値M(4)のそれぞれを演算する。
【1981】
【数160】
【1982】
【数161】
【1983】
【数162】
【1984】
【数163】
【1985】
ただし、いまの場合、式(198)乃至式(201)のnは全て5となる。
【1986】
ステップS3205において、出力画素値演算部3204は、全画素の処理を終了したか否かを判定する。
【1987】
ステップS3205において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS3202に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS3202乃至S3204の処理が繰り返される。
【1988】
そして、全画素の処理が終了すると(ステップS3205において、全画素の処理が終了されたと判定すると)、出力画素値演算部3204は、ステップS3206において、画像を出力する。その後、画像の生成の処理は終了となる。
【1989】
このように、2次元再積分手法を利用することで、センサ2(図259)からの入力画像の画素3231(図276)における画素として、入力画素3231よりも空間解像度の高い4つの画素、即ち、画素3241乃至画素3244(図277)を創造することができる。さらに、図示はしないが、上述したように、画像生成部103は、画素3241乃至画素3244のみならず、積分範囲を適宜変えることで、入力画素3231に対して任意の倍率の空間解像度の画素を劣化することなく創造することができる。
【1990】
以上、2次元再積分手法の説明として、空間方向(X方向とY方向)に対する近似関数f(x,y)を2次元積分する例を用いたが、2次元再積分手法は、時空間方向(X方向とt方向、または、Y方向とt方向)に対しても適用可能である。
【1991】
即ち、上述した例は、実世界1(図259)の光信号が、例えば、図272で示されるような傾きGFで表される空間方向の定常性を有する場合の例であったので、上述した式(189)で示されるような、空間方向(X方向とY方向)の2次元積分が含まれる式が利用された。しかしながら、2次元積分の考え方は、空間方向だけによるものではなく、時空間方向(X方向とt方向、または、Y方向とt方向)に対して適用することも可能である。
【1992】
換言すると、2次元再積分手法の前提となる2次元多項式近似手法においては、光信号を表す画像関数F(x,y,t)が、空間方向の定常性のみならず、時空間方向(ただし、X方向とt方向、または、Y方向とt方向)の定常性を有している場合であっても、2次元の多項式により近似することが可能である。
【1993】
具体的には、例えば、X方向に水平に等速で動いている物体がある場合、その物体の動きの方向は、図278で示されるようなX−t平面においては、傾きVFのように表される。換言すると、傾きVFは、X−t平面における時空間方向の定常性の方向を表しているとも言える。従って、データ定常性検出部101(図259)は、上述した角度θ(X−Y平面における、空間方向の定常性を表す傾きGFに対応するデータ定常性情報)と同様に、X−t平面における時空間方向の定常性を表す傾きVFに対応するデータ定常性情報として、図278で示されるような動きθ(厳密には、図示はしないが、傾きVFに対応する傾きVfで表されるデータの定常性の方向と、空間方向のX方向とのなす角度である動きθ)を出力することが可能である。
【1994】
また、2次元多項式近似手法を利用する実世界推定部102(図259)は、動きθを上述した角度θの代わりとして使用すれば、上述した方法と同様な方法で、近似関数f(x,t)の係数(特徴量)wiを演算することが可能になる。ただし、この場合、使用される式は、上述した式(193)ではなく、次の式(202)である。
【1995】
【数164】
【1996】
なお、式(202)において、sはcotθ(ただし、θは動きである)である。
【1997】
従って、2次元再積分手法を利用する画像生成部103(図259)は、次の式(203)の右辺に、上述した式(202)のf(x,t)を代入して、演算することで、画素値Mを算出することが可能になる。
【1998】
【数165】
【1999】
なお、式(203)において、tsは、t方向の積分開始位置を表しており、teは、t方向の積分終了位置を表している。同様に、xsは、X方向の積分開始位置を表しており、xeは、X方向の積分終了位置を表している。Geは、所定のゲインを表している。
【2000】
また、空間方向Xの変わりに、空間方向Yに注目した近似関数f(y,t)も、上述した近似関数f(x、t)と全く同様に取り扱うことが可能である。
【2001】
ところで、式(199)において、t方向を一定とみなし、即ち、t方向の積分を無視して積分することで、時間方向には積分されないデータ、即ち、動きボケのないデータを得ることが可能になる。換言すると、この手法は、2次元の多項式のうちの所定の1次元を一定として再積分する点で、2次元再積分手法の1つとみなしてもよいし、実際には、X方向の1次元の再積分をすることになるという点で、1次元再積分手法の1つとみなしてもよい。
【2002】
また、式(203)において、積分範囲は任意に設定可能であるので、2次元再積分手法においては、この積分範囲を適宜変えることで、元の画素(センサ2(図259)からの入力画像の画素)に対して任意の倍率の解像度の画素を劣化することなく創造することが可能になる。
【2003】
即ち、2次元再積分手法においては、時間方向tの積分範囲を適宜変えることで、時間解像度の創造が可能になる。また、空間方向X(または、空間方向Y)の積分範囲を適宜変えることで、空間解像度の創造が可能になる。さらに、時間方向tと空間方向Xの積分範囲のそれぞれを適宜変えることで、時間解像度と空間解像度の両方の創造が可能になる。
【2004】
なお、上述したように、時間解像度と空間解像度のうちのいずれか一方の創造は、1次元再積分手法でも可能であるが、両方の解像度の創造は、1次元再積分手法では原理上不可能であり、2次元以上の再積分を行うことではじめて可能になる。即ち、2次元再積分手法と後述する3次元再積分手法ではじめて、両方の解像度の創造が可能になる。
【2005】
また、2次元再積分手法は、1次元ではなく2次元の積分効果を考慮しているので、より実世界1(図259)の光信号に近い画像を生成することも可能になる。
【2006】
換言すると、2次元再積分手法においては、例えば、図259(図3)のデータ定常性検出部101が、それぞれ時空間積分効果を有する、センサ2の複数の検出素子により実世界1の光信号が射影され、実世界1の光信号の定常性(例えば、図272の傾きGFで表される定常性)の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる入力画像におけるデータの定常性(例えば、図274の傾きGfで表されるデータの定常性)を検出する。
【2007】
そして、例えば、図259(図3)の実世界推定部102が、データ定常性検出部101により検出されたデータの定常性に対応して、画像データの時空間方向のうち少なくとも2次元方向(例えば、図272の空間方向Xと、空間方向Y)の位置に対応する画素の画素値が、少なくとも2次元方向の積分効果により取得された画素値であるとして、実世界1の光信号を表す光信号関数F(具体的には、図272の関数F(x,y))を、多項式である近似関数f(x,y)で近似することで、光信号関数Fを推定することが前提とされている。
【2008】
詳細には、例えば、実世界推定部102は、データ定常性検出部101により検出されたデータの定常性に対応する線(例えば、図274の傾きGfに対応する線(矢印))からの少なくとも2次元方向に沿った距離(例えば、図274の断面方向距離x‘)に対応する画素の画素値が、少なくとも2次元方向の積分効果により取得された画素値であるとして、現実世界の光信号を表す第1の関数を、多項式である第2の関数で近似することで、第1の関数を推定することが前提とされている。
【2009】
2次元再積分手法においては、このような前提に基づいて、例えば、図259(図3)の画像生成部103(構成は、図273)が、実世界推定部102により推定された関数F(x,y)、即ち、近似関数f(x,y)を、少なくとも2次元方向の所望の単位で積分する(例えば、上述した式(186)の右辺を演算する)ことにより所望の大きさの画素(例えば、図259の出力画像(画素値M)。具体的には、例えば、図277の画素3241乃至画素3244)に対応する画素値を生成する。
【2010】
従って、2次元再積分手法においては、時間解像度と空間解像度のうちのいずれか一方の創造のみならず、両方の解像度の創造が可能になる。また、2次元再積分手法においては、1次元再積分手法に比較して、より実世界1(図259)の光信号に近い画像を生成することも可能になる。
【2011】
次に、図279と図280を参照して、3次元再積分手法について説明する。
【2012】
3次元再積分手法においては、3次元関数近似手法により近似関数f(x,y,t)が既に生成されていることが前提とされる。
【2013】
この場合、3次元再積分手法においては、出力画素値Mは、次の式(204)のように演算される。
【2014】
【数166】
【2015】
なお、式(204)において、tsは、t方向の積分開始位置を表しており、teは、t方向の積分終了位置を表している。同様に、ysは、Y方向の積分開始位置を表しており、yeは、Y方向の積分終了位置を表している。また、xsは、X方向の積分開始位置を表しており、xeは、X方向の積分終了位置を表している。さらに、Geは、所定のゲインを表している。
【2016】
式(204)において、積分範囲は任意に設定可能であるので、3次元再積分手法においては、この積分範囲を適宜変えることで、元の画素(センサ2(図259)からの入力画像の画素)に対して任意の倍率の時空間解像度の画素を劣化することなく創造することが可能になる。即ち、空間方向の積分範囲を小さくすれば、画素ピッチを自由に細かくできる。逆に、空間方向の積分範囲を大きくすれば、画素ピッチを自由に大きくすることができる。また、時間方向の積分範囲を小さくすれば、実世界波形に基づいて時間解像度を創造できる。
【2017】
図279は、3次元再積分手法を利用する画像生成部103の構成例を表している。
【2018】
図279で示されるように、この例の画像生成部103には、条件設定部3301、特徴量記憶部3302、積分成分演算部3303、および出力画素値演算部3304が設けられている。
【2019】
条件設定部3301は、実世界推定部102より供給された実世界推定情報(図279の例では、近似関数f(x,y,t)の特徴量)に基づいて近似関数f(x,y,t)の次数nを設定する。
【2020】
条件設定部3301はまた、近似関数f(x,y,t)を再積分する場合(出力画素値を演算する場合)の積分範囲を設定する。なお、条件設定部3301が設定する積分範囲は、画素の幅(縦幅と横幅)やシャッタ時間そのものである必要は無い。例えば、センサ2(図259)からの入力画像の各画素の空間的な大きさに対する、出力画素(画像生成部103がこれから生成する画素)の相対的な大きさ(空間解像度の倍率)がわかれば、具体的な空間方向の積分範囲の決定が可能である。同様に、センサ2(図259)のシャッタ時間に対する出力画素値の相対的な時間(時間解像度の倍率)がわかれば、具体的な時間方向の積分範囲の決定が可能である。従って、条件設定部3301は、積分範囲として、例えば、空間解像度倍率や時間解像度倍率を設定することもできる。
【2021】
特徴量記憶部3302は、実世界推定部102より順次供給されてくる近似関数f(x,y,t)の特徴量を一次的に記憶する。そして、特徴量記憶部3302は、近似関数f(x,y,t)の特徴量の全てを記憶すると、近似関数f(x,y,t)の特徴量を全て含む特徴量テーブルを生成し、出力画素値演算部3304に供給する。
【2022】
ところで、上述した式(204)の右辺の近似関数f(x,y)の右辺を展開(演算)すると、出力画素値Mは、次の式(205)のように表される。
【2023】
【数167】
【2024】
式(205)において、Ki(xs,xe,ys,ye,ts,te)は、i次項の積分成分を表している。ただし、xsはX方向の積分範囲の開始位置を、xeはX方向の積分範囲の終了位置を、ysはY方向の積分範囲の開始位置を、yeはY方向の積分範囲の終了位置を、tsはt方向の積分範囲の開始位置を、teはt方向の積分範囲の終了位置を、それぞれ表している。
【2025】
積分成分演算部3303は、この積分成分Ki(xs,xe,ys,ye,ts,te)を演算する。
【2026】
具体的には、積分成分演算部3303は、条件設定部3301により設定された次数、および積分範囲(空間解像度倍率や時間解像度倍率)、並びにデータ定常性検出部101より出力されたデータ定常性情報のうちの角度θまたは動きθに基づいて積分成分Ki(xs,xe,ys,ye,ts,te)を演算し、その演算結果を積分成分テーブルとして出力画素値演算部3304に供給する。
【2027】
出力画素値演算部3304は、特徴量記憶部3302より供給された特徴量テーブルと、積分成分演算部3303より供給された積分成分テーブルを利用して、上述した式(205)の右辺を演算し、その演算結果を出力画素値Mとして外部に出力する。
【2028】
次に、図280のフローチャートを参照して、3次元再積分手法を利用する画像生成部103(図279)の画像の生成の処理(図40のステップS103の処理)について説明する。
【2029】
例えば、いま、上述した図40のステップS102の処理で、実世界推測部102(図259)が、入力画像のうちの、所定の画素を注目画素として、実世界1(図259)の光信号を近似する近似関数f(x,y,t)を既に生成しているとする。
【2030】
また、上述した図40のステップS101の処理で、データ定常性検出部101(図259)が、実世界推定部102と同じ画素を注目画素として、データ定常性情報として、角度θまたは動きθを既に出力しているとする。
【2031】
この場合、図280のステップS3301において、条件設定部3301は、条件(次数と積分範囲)を設定する。
【2032】
ステップS3302において、特徴量記憶部3302は、実世界推定部102より供給された近似関数f(x,y,t)の特徴量wiを取得し、特徴量テーブルを生成する。
【2033】
ステップS3303において、積分成分演算部3303は、条件設定部3301により設定された条件(次数および積分範囲)、並びにデータ定常性検出部101より供給されたデータ定常性情報(角度θまたは動きθ)に基づいて積分成分を演算し、積分成分テーブルを生成する。
【2034】
なお、ステップS3302の処理とステップS3303の処理の順序は、図280の例に限定されず、ステップS3303の処理が先に実行されてもよいし、ステップS3302の処理とステップS3303の処理が同時に実行されてもよい。
【2035】
次に、ステップS3304において、出力画素値演算部3304は、ステップS3302の処理で特徴量記憶部3302により生成された特徴量テーブルと、ステップS3303の処理で積分成分演算部3303により生成された積分成分テーブルに基づいて各出力画素値のそれぞれを演算する。
【2036】
ステップS3305において、出力画素値演算部3304は、全画素の処理を終了したか否かを判定する。
【2037】
ステップS3305において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS3302に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS3302乃至S3304の処理が繰り返される。
【2038】
そして、全画素の処理が終了すると(ステップS3305において、全画素の処理が終了されたと判定すると)、出力画素値演算部3304は、ステップS3306において、画像を出力する。その後、画像の生成の処理は終了となる。
【2039】
このように、上述した式(204)において、その積分範囲は任意に設定可能であるので、3次元再積分手法においては、この積分範囲を適宜変えることで、元の画素(センサ2(図259)からの入力画像の画素)に対して任意の倍率の解像度の画素を劣化することなく創造することが可能になる。
【2040】
即ち、3次元再積分手法においては、時間方向の積分範囲を適宜変えることで、時間解像度の創造が可能になる。また、空間方向の積分範囲を適宜変えることで、空間解像度の創造が可能になる。さらに、時間方向と空間方向の積分範囲のそれぞれを適宜変えることで、時間解像度と空間解像度の両方の創造が可能になる。
【2041】
具体的には、3次元再積分手法においては、2次元や1次元に落とすときの近似がないので精度の高い処理が可能になる。また、斜め方向の動きも2次元に縮退することなく処理することが可能になる。さらに、2次元に縮退していないので各次元の加工が可能になる。例えば、2次元再積分手法において、空間方向(X方向とY方向)に縮退している場合には時間方向であるt方向の加工ができなくなってしまう。これに対して、3次元再積分手法においては、時空間方向のいずれの加工も可能になる。
【2042】
なお、上述したように、時間解像度と空間解像度のうちのいずれか一方の創造は、1次元再積分手法でも可能であるが、両方の解像度の創造は、1次元再積分手法では原理上不可能であり、2次元以上の再積分を行うことではじめて可能になる。即ち、上述した2次元再積分手法と3次元再積分手法ではじめて、両方の解像度の創造が可能になる。
【2043】
また、3次元再積分手法は、1次元や2次元ではなく3次元の積分効果を考慮しているので、より実世界1(図259)の光信号に近い画像を生成することも可能になる。
【2044】
換言すると、3次元再積分似手法においては、例えば、図259(図3)の実世界推定部102は、それぞれ時空間積分効果を有する、センサ2の複数の検出素子により実世界1の光信号が射影され、実世界1の光信号の定常性の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる入力画像の、時空間方向のうち少なくとも1次元方向の位置に対応する画素の画素値が、少なくとも1次元方向の積分効果により取得された画素値であるとして、実世界の光信号を表す光信号関数Fを所定の近似関数fで近似することで、光信号関数Fを推定することが前提とされる。
【2045】
さらに、例えば、図259(図3)のデータ定常性検出部101が、入力画像のデータの定常性を検出した場合、実世界推定部102は、データ定常性検出部101により検出されたデータの定常性に対応して、画像データの時空間方向のうち少なくとも1次元方向の位置に対応する画素の画素値が、少なくとも1次元方向の積分効果により取得された画素値であるとして、光信号関数Fを近似関数fで近似することで、光信号関数Fを推定することが前提とされる。
【2046】
詳細には、例えば、実世界推定部102は、定常性検出部101により検出されたデータの定常性に対応する線からの少なくとも1次元方向に沿った距離に対応する画素の画素値が、少なくとも1次元方向の積分効果により取得された画素値であるとして、光信号関数Fを近似関数で近似することで、光信号関数を推定することが前提とされる。
【2047】
3次元再積分手法においては、例えば、図259(図3)の画像生成部103(構成は、図279)が、実世界推定部102により推定された光信号関数F、即ち、近似関数fを、少なくとも1次元方向の所望の単位で積分する(例えば、上述した式(201)の右辺を演算する)ことにより所望の大きさの画素に対応する画素値を生成する。
【2048】
従って、3次元再積分手法は、従来の画像生成手法や、上述した1次元または2次元再積分手法に比較して、より実世界1(図259)の光信号に近い画像を生成することも可能になる。
【2049】
次に、図281を参照して、実世界推定部102より入力される実世界推定情報が、実世界を近似的に表現する近似関数f(x)上の、各画素の微分値、または、傾きの情報である場合、各画素の微分値、または、傾きに基づいて、新たに画素を生成し、画像を出力する画像生成部103について説明する。
【2050】
尚、ここでいう微分値は、現実世界を近似的に表現する近似関数f(x)を求めた後、その近似関数f(x)から得られる1次微分式f(x)’(近似関数がフレーム方向の場合、近似関数f(t)から得られる1次微分式f(t)’)を用いて、所定の位置で得られる値のことである。また、ここでいう傾きは、上述の近似関数f(x)(または、f(t))を求めることなく、所定の位置における周辺画素の画素値から直接得られる近似関数f(x)上の所定の位置の傾きのことを示している。しかしながら、微分値は、近似関数f(x)の所定の位置での傾きなので、いずれも、現実世界を近似的に記述する近似関数f(x)上の所定の位置における傾きである。そこで、実世界推定部102より入力される実世界推定情報としての微分値と傾きについては、図281、および、図285の画像生成部103の説明においては、統一して近似関数f(x)(または、f(t))上の傾きと称する。
【2051】
傾き取得部3401は、実世界推定部102より入力される実世界を近似的に表現する近似関数f(x)についての、各画素の傾きの情報と、対応する画素の画素値、および、定常性の方向の傾きを取得して、外挿補間部3402に出力する。
【2052】
外挿補間部3402は、傾き取得部3401より入力された各画素の近似関数f(x)上の傾きと、対応する画素の画素値、および、定常性の方向の傾きに基づいて、外挿補間により、入力画像よりも所定の倍率の高密度の画素を生成し、出力画像として出力する。
【2053】
次に、図282のフローチャートを参照して、図281の画像生成部103による画像の生成の処理について説明する。
【2054】
ステップS3401において、傾き取得部3401は、実世界推定部102より入力されてくる、各画素の近似関数f(x)上の傾き(微分値)、位置、画素値、および、定常性の方向の傾きの情報を実世界推定情報として取得する。
【2055】
このとき、例えば、入力画像に対して空間方向X、および、空間方向Yについてそれぞれ2倍(合計4倍)の密度の画素からなる画像を生成する場合、実世界推定部102からは、図283で示されるような画素Pinに対して、傾きf(Xin)’(画素Pinの中央位置における傾き),f(Xin−Cx(−0.25))’(画素PinからY方向に2倍密度の画素が生成されるときの画素Paの中央位置の傾き),f(Xin−Cx(0.25))’ (画素PinからY方向に2倍密度の画素が生成されるときの画素Pbの中央位置の傾き)、画素Pinの位置、画素値、および、定常性の方向の傾きGfの情報が入力される。
【2056】
ステップS3402において、傾き取得部3401は、入力された実世界推定情報のうち、対応する注目画素の情報を選択し、外挿補間部3402に出力する。
【2057】
ステップS3403において、外挿補間部3402は、入力された画素の位置情報と定常性の方向の傾きGfからシフト量を求める。
【2058】
ここで、シフト量Cx(ty)は、定常性の傾きがGfで示されるとき、Cx(ty)=ty/Gfで定義される。このシフト量Cx(ty)は、空間方向Y=0の位置上で定義される近似関数f(x)が、空間方向Y=tyの位置における、空間方向Xに対するずれ幅を示すものである。従って、例えば、空間方向Y=0の位置上で近似関数がf(x)として定義されている場合、この近似関数f(x)は、空間方向Y=tyにおいては、空間方向XについてCx(ty)だけずれた関数となるので、近似関数は、f(x−Cx(ty))(=f(x−ty/Gf))で定義されることになる。
【2059】
例えば、図283で示されるような画素Pinの場合、図中の1画素(図中の1画素の大きさは、水平方向、および、垂直方向ともに1であるものとする)を垂直方向に2分割するとき(垂直方向に倍密度の画素を生成するとき)、外挿補間部3402は、求めようとする画素Pa,Pbのシフト量を求める。すなわち、今の場合、画素Pa,Pbは、画素Pinからみて、空間方向Yについて、それぞれ−0.25,0.25だけシフトしているので、画素Pa,Pbのシフト量は、それぞれCx(−0.25),Cx(0.25)となる。尚、図283中において、画素Pinは、(Xin,Yin)を略重心位置とする正方形であり、画素Pa,Pbは、(Xin,Yin+0.25)、(Xin,Yin−0.25)をそれぞれ略重心位置とする図中水平方向に長い長方形である。
【2060】
ステップS3404において、外挿補間部3402は、ステップS3403の処理で求められたシフト量Cx、実世界推定情報として取得された画素Pinの近似関数f(x)上の注目画素上での傾きf(Xin)’、および、画素Pinの画素値に基づいて、以下の式(206),式(207)により外挿補間を用いて画素Pa,Pbの画素値を求める。
【2061】
Pa=Pin−f(Xin)’×Cx(−0.25)・・・(206)
【2062】
Pb=Pin−f(Xin)’×Cx(0.25)・・・(207)
【2063】
以上の式(206),式(207)において、Pa,Pb,Pinは、画素Pa,Pb,Pinの画素値を示す。
【2064】
すなわち、図284で示されるように、注目画素Pinにおける傾きf(Xin)’に、X方向の移動距離、すなわち、シフト量を乗じることにより画素値の変化量を設定し、注目画素の画素値を基準として、新たに生成する画素の画素値を設定する。
【2065】
ステップS3405において、外挿補間部3402は、所定の解像度の画素が得られたか否かを判定する。例えば、所定の解像度が入力画像の画素に対して、垂直方向に2倍の密度の画素であれば、以上の処理により、外挿補間部3402は、所定の解像度の画像が得られたと判定することになるが、例えば、入力画像の画素に対して、4倍の密度(水平方向に2倍×垂直方向に2倍)の画素が所望とされていた場合、以上の処理では、所定の解像度の画素が得られていないことになる。そこで、4倍の密度の画像が所望とされていた画像である場合、外挿補間部3402は、所定の解像度の画素が得られていないと判定し、その処理は、ステップS3403に戻る。
【2066】
ステップS3403において、外挿補間部3402は、2回目の処理で、求めようとする画素P01,P02,P03,およびP04(注目画素Pinに対して4倍となる密度の画素)を生成しようとする画素の中心位置からのシフト量をそれぞれ求める。すなわち、今の場合、画素P01,P02は、画素Paから得られるものなので、画素Paからのシフト量がそれぞれ求められることになる。ここで、画素P01,P02は、画素Paからみて空間方向Xについて、それぞれ−0.25,0.25だけシフトしているので、その値そのものがシフト量となる(空間方向Xについてシフトしているため)。同様にして、画素P03,P04は、画素Pbからみて空間方向Xについて、それぞれ−0.25,0.25だけシフトしているので、その値そのものがシフト量となる。尚、図283において、画素P01,P02,P03,P04は、図中の4個のバツ印の位置を重心位置とする正方形であり、各辺の長さは、画素Pinが、それぞれ1であるので、画素P01,P02,P03,P04は、それぞれ略0.5となる。
【2067】
ステップS3404において、外挿補間部3402は、ステップS3403の処理で求められたシフト量Cx、実世界推定情報として取得された画素Pa,Pbの近似関数f(x)上の所定の位置での傾きf(Xin−Cx(−0.25))’,f(Xin−Cx(0.25))’、および、上述の処理で求められた画素Pa,Pbの画素値に基づいて、外挿補間により以下の式(208)乃至式(211)により画素P01,P02,P03,P04の画素値を求め、図示せぬメモリに記憶させる。
【2068】
P01=Pa+f(Xin−Cx(−0.25))’×(−0.25)・・・(208)
【2069】
P02=Pa+f(Xin−Cx(−0.25))’×(0.25)・・・(209)
【2070】
P03=Pb+f(Xin−Cx(0.25))’×(−0.25)・・・(210)
【2071】
P04=Pb+f(Xin−Cx(0.25))’×(0.25)・・・(211)
【2072】
上述の式(208)乃至式(211)において、P01乃至P04は、画素P01乃至P04のそれぞれの画素値を示す。
【2073】
ステップS3405において、外挿補間部3402は、所定の解像度の画素が得られたか否かを判定し、今の場合、所望とされていた4倍の密度の画素が得られたことになるので、外挿補間部3402は、所定の解像度の画素が得られたと判定し、その処理は、ステップS3406に進む。
【2074】
ステップS3406において、傾き取得部3401は、全ての画素で処理がなされたか否かを判定し、まだ、全ての画素について処理がなされていないと判定した場合、その処理は、ステップS3402に戻り、それ以降の処理が繰り返される。
【2075】
ステップS3406において、傾き取得部3401は、全ての画素について処理がなされたと判定した場合、ステップS3407において、外挿補間部3402は、図示せぬメモリに記憶されている、生成された画素からなる画像を出力する。
【2076】
すなわち、図284で示されるように、近似関数f(x)上の傾きf(x)’を用いて、その傾きを求めた注目画素から空間方向Xに離れた距離に応じて、新たな画素の画素値が外挿補間により求められる。
【2077】
尚、以上の例においては、4倍密度の画素を演算する際の傾き(微分値)を例として説明してきたが、さらに多くの位置における、傾きの情報が、実世界推定情報として得られれば、上述と同様の手法で、それ以上の空間方向の密度の画素を演算する事も可能である。
【2078】
また、以上の例については、倍密度の画素値を求める例について説明してきたが、近似関数f(x)は連続関数であるので、倍密度以外の画素値についても必要な傾き(微分値)の情報が得られれば、さらに高密度の画素からなる画像を生成することが可能となる。
【2079】
以上によれば、実世界推定情報として供給される入力画像の各画素の実世界を空間方向に近似する近似関数f(x)の傾き(または、微分値)f(x)’の情報に基づいて、入力画像よりも高解像度の画像の画素を生成することが可能となる。
【2080】
次に、図285を参照して、実世界推定部102より入力される実世界推定情報が、実世界を近似的に表現するフレーム方向(時間方向)の関数f(t)上の、各画素の微分値、または、傾きの情報である場合、各画素の微分値、または、傾きに基づいて、新たに画素を生成し、画像を出力する画像生成部103について説明する。
【2081】
傾き取得部3411は、実世界推定部102より入力される実世界を近似的に表現する近似関数f(t)上の、各画素の位置における傾きの情報と、対応する画素の画素値、および、定常性の動きを取得して、外挿補間部3412に出力する。
【2082】
外挿補間部3412は、傾き取得部3411より入力された各画素の近似関数f(t)上の傾きと、対応する画素の画素値、および、定常性の動きに基づいて、外挿補間により、入力画像よりも所定の倍率の高密度の画素を生成し、出力画像として出力する。
【2083】
次に、図286のフローチャートを参照して、図285の画像生成部103による画像の生成の処理について説明する。
【2084】
ステップS3421において、傾き取得部3411は、実世界推定部102より入力されてくる、各画素の近似関数f(t)上の傾き(微分値)、位置、画素値、および、定常性の動きの情報を実世界推定情報として取得する。
【2085】
このとき、例えば、入力画像に対して空間方向、および、フレーム方向にそれぞれ2倍(合計4倍)の密度の画素からなる画像を生成する場合、実世界推定部102からは、図287で示されるような画素Pinに対して、傾きf(Tin)’(画素Pinの中央位置における傾き),f(Tin−Ct(−0.25))’(画素PinからY方向に2倍密度の画素が生成されるときの画素Patの中央位置の傾き),f(Tin−Ct(0.25))’(画素PinからY方向に2倍密度の画素が生成されるときの画素Pbtの中央位置の傾き)、画素Pinの位置、画素値、および、定常性の動き(動きベクトル)の情報が入力される。
【2086】
ステップS3422において、傾き取得部3411は、入力された実世界推定情報のうち、対応する注目画素の情報を選択し、外挿補間部3412に出力する。
【2087】
ステップS3423において、外挿補間部3412は、入力された画素の位置情報と定常性の方向の傾きからシフト量を求める。
【2088】
ここで、シフト量Ct(ty)は、定常性の動き(フレーム方向と空間方向からなる面に対する傾き)がVfで示されるとき、Ct(ty)=ty/Vfで定義される。このシフト量Ct(ty)は、空間方向Y=0の位置上で定義される近似関数f(t)が、空間方向Y=tyの位置における、フレーム方向Tに対するずれ幅を示すものである。従って、例えば、空間方向Y=0の位置上で近似関数がf(t)として定義されている場合、この近似関数f(t)は、空間方向Y=tyにおいては、空間方向TについてCt(ty)だけずれた関数となるので、近似関数は、f(t−Ct(ty))(=f(t−ty/Vf))で定義されることになる。
【2089】
例えば、図287で示されるような画素Pinの場合、図中の1画素(図中の1画素の大きさは、フレーム方向、および、空間方向ともに1であるものとする)を空間方向に2分割するとき(空間方向に倍密度の画素を生成するとき)、外挿補間部3412は、求めようとする画素Pat,Pbtのシフト量を求める。すなわち、今の場合、画素Pat,Pbtは、画素Pinからみて、空間方向Yについて、それぞれ−0.25,0.25だけシフトしているので、画素Pat,Pbtのシフト量は、それぞれCt(−0.25),Ct(0.25)となる。尚、図287中において、画素Pinは、(Xin,Yin)を略重心位置とする正方形であり、画素Pat,Pbtは、(Xin,Yin+0.25)、(Xin,Yin−0.25)をそれぞれ略重心位置とする図中水平方向に長い長方形である。
【2090】
ステップS3424において、外挿補間部3412は、ステップS3423の処理で求められたシフト量、実世界推定情報として取得された画素Pinの近似関数f(t)上の注目画素上での傾きf(Tin)’、および、画素Pinの画素値に基づいて、外挿補間により以下の式(212),式(213)により画素Pat,Pbtの画素値を求める。
【2091】
Pat=Pin−f(Tin)’×Ct(−0.25)・・・(212)
【2092】
Pbt=Pin−f(Xin)’×Ct(0.25)・・・(213)
【2093】
以上の式(212),式(213)において、Pat,Pbt,Pinは、画素Pat,Pbt,Pinの画素値を示す。
【2094】
すなわち、図288で示されるように、注目画素Pinにおける傾きf(Xin)’に、X方向の移動距離、すなわち、シフト量を乗じることにより画素値の変化量を設定し、注目画素の画素値を基準として、新たに生成する画素の画素値を設定する。
【2095】
ステップS3425において、外挿補間部3412は、所定の解像度の画素が得られたか否かを判定する。例えば、所定の解像度が入力画像の画素に対して、空間方向に2倍の密度の画素であれば、以上の処理により、外挿補間部3402は、所定の解像度の画像が得られたと判定することになるが、例えば、入力画像の画素に対して、4倍の密度(フレーム方向に2倍×空間方向に2倍)の画素が所望とされていた場合、以上の処理では、所定の解像度の画素が得られていないことになる。そこで、4倍の密度の画像が所望とされていた画像である場合、外挿補間部3412は、所定の解像度の画素が得られていないと判定し、その処理は、ステップS3423に戻る。
【2096】
ステップS3423において、外挿補間部3412は、2回目の処理で、求めようとする画素P01t,P02t,P03t,およびP04t(注目画素Pinに対して4倍となる密度の画素)を生成しようとする画素の中心位置からのシフト量をそれぞれ求める。すなわち、今の場合、画素P01t,P02tは、画素Patから得られるものなので、画素Patからのシフト量がそれぞれ求められることになる。ここで、画素P01t,02tは、画素Patからみてフレーム方向Tについて、それぞれ−0.25,0.25だけシフトしているので、その値そのものがシフト量となる(空間方向Xについてシフトしているため)。同様にして、画素P03t,P04tは、画素Pbtからみてフレーム方向Tについて、それぞれ−0.25,0.25だけシフトしているので、その値そのものがシフト量となる。尚、図287において、画素P01t,P02t,P03t,P04tは、図中の4個のバツ印の位置を重心位置とする正方形であり、各辺の長さは、画素Pinが、それぞれ1であるので、画素P01t,P02t,P03t,P04tは、それぞれ略0.5となる。
【2097】
ステップS3424において、外挿補間部3412は、ステップS3423の処理で求められたシフト量Ct、実世界推定情報として取得された画素Pat,Pbtの近似関数f(t)上の所定の位置での傾きf(Tin−Ct(−0.25))’,f(Tin−Ct(0.25))’、および、上述の処理で求められた画素Pat,Pbtの画素値に基づいて、外挿補間により以下の式(214)乃至式(217)により画素P01t,P02t,P03t,P04tの画素値を求め、図示せぬメモリに記憶させる。
【2098】
P01t=Pat+f(Tin−Ct(−0.25))’×(−0.25)・・・(214)
【2099】
P02t=Pat+f(Tin−Ct(−0.25))’×(0.25)・・・(215)
【2100】
P03t=Pbt+f(Tin−Ct(0.25))’×(−0.25)・・・(216)
【2101】
P04t=Pbt+f(Tin−Ct(0.25))’×(0.25)・・・(217)
【2102】
上述の式(208)乃至式(211)において、P01t乃至P04tは、画素P01t乃至P04tのそれぞれの画素値を示す。
【2103】
ステップS3425において、外挿補間部3412は、所定の解像度の画素が得られたか否かを判定し、今の場合、所望とされていた4倍密度の画素が得られたことになるので、外挿補間部3412は、所定の解像度の画素が得られたと判定し、その処理は、ステップS3426に進む。
【2104】
ステップS3426において、傾き取得部3411は、全ての画素で処理がなされたか否かを判定し、まだ、全ての画素について処理がなされていないと判定した場合、その処理は、ステップS3422に戻り、それ以降の処理が繰り返される。
【2105】
ステップS3426において、傾き取得部3411は、全ての画素について処理がなされたと判定された場合、ステップS3427において、外挿補間部3412は、図示せぬメモリに記憶されている、生成された画素からなる画像を出力する。
【2106】
すなわち、図288で示されるように、近似関数f(t)上の傾きf(t)’を用いて、その傾きを求めた注目画素からフレーム方向Tに離れたフレーム数に応じて、新たな画素の画素値が外挿補間により求められる。
【2107】
尚、以上の例においては、4倍密度の画素を演算する際の傾き(微分値)を例として説明してきたが、さらに多くの位置における、傾きの情報が、実世界推定情報として得られれば、上述と同様の手法で、それ以上のフレーム方向の密度の画素を演算する事も可能である。
【2108】
また、以上の例については、倍密度の画素値を求める例について説明してきたが、近似関数f(t)は連続関数であるので、倍密度以外の画素値についても必要な傾き(微分値)の情報が得られれば、さらに高密度の画素からなる画像を生成することが可能となる。
【2109】
以上の処理により、実世界推定情報として供給される入力画像の各画素の実世界をフレーム方向に近似する近似関数f(t)の傾き(または、微分値)f(t)’の情報に基づいて、入力画像よりも高解像度の画像の画素をフレーム方向にも生成することが可能となる。
【2110】
以上によれば、それぞれ時空間積分効果を有する、センサの複数の検出素子により現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる画像データにおけるデータの定常性を検出し、検出された定常性に対応して、画像データ内の注目画素に対して時空間方向のうち1次元方向にシフトした位置の複数画素の画素値の傾きを、現実世界の光信号に対応する関数として推定し、注目画素の中心位置から1次元方向にシフトした位置を中心とする傾きを有する直線の前記注目画素内に配される両端の値を注目画素よりも高解像度の画素の画素値として生成するようにしたので、入力画像よりも時空間方向に高解像度の画素を生成することが可能となる。
【2111】
次に、図289乃至図314を参照して、画像生成部103(図3)の実施の形態のさらに他の例について説明する。
【2112】
図289は、この例の実施の形態が適用される画像生成部103の構成例を表している。
【2113】
図289で示される画像生成部103には、従来のクラス分類適応処理を実行するクラス分類適応処理部3501、クラス分類適応処理に対する補正の処理(処理の詳細については後述する)を実行するクラス分類適応処理補正部3502、および、クラス分類適応処理部3501より出力された画像と、クラス分類適応処理補正部3502より出力された画像を加算し、加算した画像を出力画像として外部に出力する加算部3503が設けられている。
【2114】
なお、以下、クラス分類適応処理部3501より出力される画像を、予測画像と称し、クラス分類適応処理補正部3502より出力される画像を、補正画像、または、差分予測画像と称する。ただし、予測画像と差分予測画像の名称の由来についてはそれぞれ後述する。
【2115】
また、この例の実施の形態においては、クラス分類適応処理は、例えば、入力画像の空間解像度を向上する処理であるとする。即ち、標準解像度の画像である入力画像を、高解像度の画像である予測画像に変換する処理であるとする。
【2116】
なお、以下、標準解像度の画像を、適宜、SD(Standard Definition)画像と称する。また、SD画像を構成する画素を、適宜、SD画素と称する。
【2117】
これに対して、以下、高解像度の画像を、適宜、HD(High Definition)画像と称する。また、HD画像を構成する画素を、適宜、HD画素と称する。
【2118】
具体的には、この例の実施の形態においては、クラス分類適応処理とは、次のような処理である。
【2119】
即ち、はじめに、入力画像(SD画像)の注目画素(SD画素)における、予測画像(HD画像)のHD画素を求めるために、注目画素を含めた、その付近に配置されるSD画素(以下、このようなSD画素を、クラスタップと称する)の特徴量のそれぞれを求めて、その特徴量毎に予め分類されたクラスを特定する(クラスタップ群のクラスコードを特定する)
【2120】
そして、予め設定された複数の係数群(各係数群のそれぞれは、所定の1つのクラスコードに対応している)のうちの、特定されたクラスコードに対応する係数群を構成する各係数と、注目画素を含めた、その付近のSD画素(以下、このような入力画像のSD画素を、予測タップと称する。なお、予測タップは、クラスタップと同じこともある)とを用いて積和演算を実行することで、入力画像(SD画像)の注目画素(SD画素)における、予測画像(HD画像)のHD画素を求めるものである。
【2121】
従って、この例の実施の形態においては、入力画像(SD画像)は、クラス分類適応処理部3501において、従来のクラス分類適応処理が施されて予測画像(HD画像)となり、さらに、加算部3503において、その予測画像が、クラス分類適応処理補正部3502からの補正画像で補正されて(補正画像が加算されて)出力画像(HD画像)となる。
【2122】
即ち、この例の実施の形態は、定常性の観点からは、定常性を用いて処理を行う画像処理装置(図3)のうちの画像生成部103の1つの実施の形態であると言える。これに対して、クラス分類適応処理の観点からは、センサ2とクラス分類適応処理部3501から構成される従来の画像処理装置に対して、クラス分類適応処理の補正を行うために、データ定常性検出部101、実世界推定部102、クラス分類適応処理補正部3502、および加算部3503をさらに付加した画像処理装置の実施の形態であるとも言える。
【2123】
従って、以下、この例の実施の形態を、上述した再積分手法に対して、クラス分類適応処理補正手法と称する。
【2124】
クラス分類適応処理補正手法を利用する画像生成部103についてさらに詳しく説明する。
【2125】
図289において、画像である、実世界1の信号(光の強度の分布)がセンサ2に入射されると、センサ2からは入力画像が出力される。この入力画像は、データ定常性検出部101に入力されるとともに、画像生成部103のクラス分類適応処理部3501に入力される。
【2126】
クラス分類適応処理部3501は、入力画像に対して、従来のクラス分類適応処理を施して予測画像を生成し、加算部3503に出力する。
【2127】
このように、クラス分類適応処理部3501は、センサ2からの入力画像(画像データ)を基準とするとともに、入力画像そのものを処理の対象としている。即ち、センサ2からの入力画像は、上述した積分効果により実世界1の信号とは異なるもの(歪んだもの)となっているにも関わらず、クラス分類適応処理部3501は、その実世界1の信号とは異なる入力画像を正として処理を行っている。
【2128】
その結果、センサ2から出力された段階で実世界1のディテールがつぶれてしまった入力画像(SD画像)は、クラス分類適応処理によりたとえHD画像とされても、元のディテールが完全に復元されないことがあるという課題が発生してしまう。
【2129】
そこで、この課題を解決するために、クラス分類適応処理補正手法においては、画像生成部103のクラス分類適応処理補正部3502が、センサ2からの入力画像ではなく、センサ2に入射される前の元の画像(所定の定常性を有する実世界1の信号)を推定する情報(実世界推定情報)を基準とするとともに、その実世界推定情報を処理の対象として、クラス分類適応処理部3501より出力された予測画像を補正するための補正画像を生成する。
【2130】
この実世界推定情報は、データ定常性検出部101と実世界推定部102により生成される。
【2131】
即ち、データ定常性検出部101は、センサ2からの入力画像に含まれるデータの定常性(センサ2に入射された実世界1の信号が有する定常性に対応するデータの定常性)を検出し、その検出結果をデータ定常性情報として実世界推定部102に出力する。
【2132】
なお、データ定常性情報は、図289の例では角度とされているが、角度に限定されず、上述した様々な情報が使用可能である。
【2133】
実世界推定部102は、入力された角度(データ定常性情報)に基づいて、実世界推定情報を生成し、画像生成部103のクラス分類適応処理補正部3502に出力する。
【2134】
なお、実世界推定情報は、図289の例では特徴量画像(その詳細は後述する)とされているが、特徴量画像に限定されず、上述した様々な情報が使用可能である。
【2135】
クラス分類適応処理補正部3502は、入力された特徴量画像(実世界推定情報)に基づいて補正画像を生成し、加算部3503に出力する。
【2136】
加算部3503は、クラス分類適応処理部3501より出力された予測画像と、クラス分類適応処理補正部3502より出力された補正画像を加算し、加算した画像(HD画像)を出力画像として外部に出力する。
【2137】
このようにして出力された出力画像は、予測画像よりもより実世界1の信号(画像)に近い画像となる。即ち、クラス分類適応処理補正手法は、上述した課題を解決することが可能な手法である。
【2138】
さらに、図289のように信号処理装置(画像処理装置)4を構成することで、1フレームの全体的に処理をアプライすることが可能になる。即ち、後述する併用手法を利用する信号処理装置(例えば、後述する図315)等では、画素の領域特定をした上で出力画像を生成する必要があるが、図289の信号処理装置4は、この領域特定が不要になるという効果を奏することが可能になる。
【2139】
次に、画像生成部103のうちのクラス分類適応処理部3501の詳細について説明する。
【2140】
図290は、クラス分類適応処理部3501の構成例を表している。
【2141】
図290において、センサ2より入力された入力画像(SD画像)は、領域抽出部3511と領域抽出部3515にそれぞれ供給される。領域抽出部3511は、供給された入力画像から、クラス分類を行うために必要なクラスタップ(注目画素(SD画素)を含む予め設定された位置に存在するSD画素)を抽出し、パターン検出部3512に出力する。パターン検出部3512は、入力されたクラスタップに基づいて入力画像のパターンを検出する。
【2142】
クラスコード決定部3513は、パターン検出部3512で検出されたパターンに基づいてクラスコードを決定し、係数メモリ3514、および、領域抽出部3515に出力する。係数メモリ3514は、学習により予め求められたクラスコード毎の係数を記憶しており、クラスコード決定部3513より入力されたクラスコードに対応する係数を読み出し、予測演算部3516に出力する。
【2143】
なお、係数メモリ3514の係数の学習処理については、図292のクラス分類適応処理用学習部のブロック図を参照して後述する。
【2144】
また、係数メモリ3514に記憶される係数は、後述するように、予測画像(HD画像)を生成するときに使用される係数である。従って、以下、係数メモリ3514に記憶される係数を、他の係数と区別するために、予測係数と称する。
【2145】
領域抽出部3515は、クラスコード決定部3513より入力されたクラスコードに基づいて、センサ2より入力された入力画像(SD画像)から、予測画像(HD画像)を予測生成するのに必要な予測タップ(注目画素を含む予め設定された位置に存在するSD画素)をクラスコードに対応して抽出し、予測演算部3516に出力する。
【2146】
予測演算部3516は、領域抽出部3515より入力された予測タップと、係数メモリ3514より入力された予測係数とを用いて積和演算を実行し、入力画像(SD画像)の注目画素(SD画素)における、予測画像(HD画像)のHD画素を生成し、加算部3503に出力する。
【2147】
より詳細には、係数メモリ3514は、クラスコード決定部3513より供給されるクラスコードに対応する予測係数を、予測演算部3516に出力する。予測演算部3516は、領域抽出部3515より供給される入力画像の所定の画素位置の画素値から抽出された予測タップと、係数メモリ3514より供給された予測係数とを用いて、次の式(218)で示される積和演算を実行することにより、予測画像(HD画像)のHD画素を求める(予測推定する)。
【2148】
【数168】
【2149】
式(218)において、q’は、予測画像(HD画像)のHD画素を表している。ci(iは、1乃至nの整数値)のそれぞれは、予測タップ(SD画素)のそれぞれを表している。また、d iのそれぞれは、予測係数のそれぞれを表している。
【2150】
このように、クラス分類適応処理部3501は、SD画像(入力画像)から、それに対するHD画像を予測推定するので、ここでは、クラス分類適応処理部3501から出力されるHD画像を、予測画像と称している。
【2151】
図291は、このようなクラス分類適応処理部3501の係数メモリ3514に記憶される予測係数(式(215)におけるd i)を決定するための学習装置(予測係数の算出装置)を表している。
【2152】
なお、クラス分類適応処理補正手法においては、係数メモリ3514の他に、クラス分類適応処理補正部3502の係数メモリ(後述する図299で示される補正係数メモリ3554)が設けられている。従って、図291で示されるように、クラス分類適応処理手法における学習装置3504には、クラス分類適応処理部3501の係数メモリ3514に記憶される予測係数(式(215)におけるd i)を決定するための学習部3521(以下、クラス分類適応処理用学習部3521と称する)の他に、クラス分類適応処理補正部3502の補正係数メモリ3554に記憶される係数を決定するための学習部3561(以下、クラス分類適応処理補正用学習部3561と称する)が設けられている。
【2153】
従って、以下、クラス分類適応処理用学習部3521における教師画像を第1の教師画像と称するのに対して、クラス分類適応処理補正用学習部3561における教師画像を第2の教師画像と称する。同様に、以下、クラス分類適応処理用学習部3521における生徒画像を第1の生徒画像と称するのに対して、クラス分類適応処理補正用学習部3561における生徒画像を第2の生徒画像と称する。
【2154】
なお、クラス分類適応処理補正用学習部3561については後述する。
【2155】
図292は、クラス分類適応処理用学習部3521の詳細な構成例を表している。
【2156】
図292において、所定の画像が、第1の教師画像(HD画像)としてダウンコンバート部3531と正規方程式生成部3536のそれぞれに入力されるとともに、クラス分類適応処理補正用学習部3561(図291)に入力される。
【2157】
ダウンコンバート部3531は、入力された第1の教師画像(HD画像)から、第1の教師画像よりも解像度の低い第1の生徒画像(SD画像)を生成し(第1の教師画像をダウンコンバートしたものを第1の生徒画像とし)、領域抽出部3532、領域抽出部3535、およびクラス分類適応処理補正用学習部3561(図291)のそれぞれに出力する。
【2158】
このように、クラス分類適応処理用学習部3521には、ダウンコンバート部3531が設けられているので、第1の教師画像(HD画像)は、上述したセンサ2(図289)からの入力画像よりも高解像度の画像である必要は無い。なぜならば、第1の教師画像がダウンコンバートされた(解像度が下げられた)第1の生徒画像をSD画像とすれば、第1の生徒画像に対する第1の教師画像がHD画像になるからである。従って、第1の教師画像は、例えば、センサ2からの入力画像そのものとされてもよい。
【2159】
領域抽出部3532は、供給された第1の生徒画像(SD画像)から、クラス分類を行うために必要なクラスタップ(SD画素)を抽出し、パターン検出部3533に出力する。パターン検出部3533は、入力されたクラスタップのパターンを検出し、その検出結果をクラスコード決定部3534に出力する。クラスコード決定部3534は、入力されたパターンに対応するクラスコードを決定し、そのクラスコードを領域抽出部3535、および、正規方程式生成部3536のそれぞれに出力する。
【2160】
領域抽出部3535は、クラスコード決定部3534より入力されたクラスコードに基づいて、ダウンコンバート部3531より入力された第1の生徒画像(SD画像)から予測タップ(SD画素)を抽出し、正規方程式生成部3536と予測演算部3558のそれぞれに出力する。
【2161】
なお、以上の領域抽出部3532、パターン検出部3533、クラスコード決定部3534、および領域抽出部3535のそれぞれは、図290のクラス分類適応処理部3501の領域抽出部3511、パターン検出部3512、クラスコード決定部3513、および、領域抽出部3515のそれぞれと、基本的に同様の構成と機能を有するものである。
【2162】
正規方程式生成部3536は、クラスコード決定部3534より入力された全てのクラスコードに対して、クラスコード毎に、領域抽出部3535より入力される第1の生徒画像(SD画像)の予測タップ(SD画素)と、第1の教師画像(HD画像)のHD画素とから正規方程式を生成し、係数決定部3537に供給する。係数決定部3537は、正規方程式生成部3537より所定のクラスコードに対応する正規方程式が供給されてきたとき、その正規方程式より予測係数のそれぞれを演算し、係数メモリ3514にクラスコードと関連付けて記憶させるとともに、予測演算部3538に供給する。
【2163】
正規方程式生成部3536と、係数決定部3537についてさらに詳しく説明する。
【2164】
上述した式(218)において、学習前は予測係数diのそれぞれが未定係数である。学習は、クラスコード毎に複数の教師画像(HD画像)のHD画素を入力することによって行う。所定のクラスコードに対応するHD画素がm個存在し、m個のHD画素のそれぞれを、qk(kは、1乃至mの整数値)と記述する場合、式(218)から、次の式(219)が設定される。
【2165】
【数169】
【2166】
即ち、式(219)は、右辺の演算をすることで、所定のHD画素qkを予測推定することができることを表している。なお、式(219)において、ekは誤差を表している。即ち、右辺の演算結果である予測画像(HD画像)のHD画素qk’が、実際のHD画素qkと厳密には一致せず、所定の誤差ekを含む。
【2167】
そこで、式(219)において、例えば、誤差ekの自乗和を最小にするような予測係数diが、学習により求まればよい。
【2168】
具体的には、例えば、m>nとなるように、HD画素qkを学習により集めることができれば、最小自乗法によって予測係数diが一意に決定される。
【2169】
即ち、式(219)の右辺の予測係数diを最小自乗法で求める場合の正規方程式は、次の式(220)で表される。
【2170】
【数170】
【2171】
従って、式(220)で示される正規方程式が生成されれば、その正規方程式を解くことで予測係数diが一意に決定されることになる。
【2172】
具体的には、式(220)で示される正規方程式の各行列のそれぞれを、次の式(221)乃至(223)のように定義すると、正規方程式は、次の式(224)のように表される。
【2173】
【数171】
【2174】
【数172】
【2175】
【数173】
【2176】
【数174】
【2177】
式(222)で示されるように、行列DMATの各成分は、求めたい予測係数diである。従って、式(224)において、左辺の行列CMATと右辺の行列QMATが決定されれば、行列解法によって行列DMAT(即ち、予測係数di)の算出が可能である。
【2178】
より具体的には、式(221)で示されるように、行列CMATの各成分は、予測タップcikが既知であれば演算可能である。予測タップcikは、領域抽出部3535により抽出されるので、正規方程式生成部3536は、領域抽出部3535より供給されてくる予測タップcikのそれぞれを利用して行列CMATの各成分を演算することができる。
【2179】
また、式(223)で示されるように、行列QMATの各成分は、予測タップcikとHD画素qkが既知であれば演算可能である。予測タップcikは、行列CMATの各成分に含まれるものと同一のものであり、また、HD画素qkは、予測タップcikに含まれる注目画素(第1の生徒画像のSD画素)に対する第1の教師画像のHD画素である。従って、正規方程式生成部3536は、領域抽出部3535より供給された予測タップcikと、第1の教師画像を利用して行列QMATの各成分を演算することができる。
【2180】
このようにして、正規方程式生成部3536は、クラスコード毎に、行列CMATと行列QMATの各成分を演算し、その演算結果をクラスコードに対応付けて係数決定部3537に供給する。
【2181】
係数決定部3537は、供給された所定のクラスコードに対応する正規方程式に基づいて、上述した式(224)の行列DMATの各成分である予測係数diを演算する。
【2182】
具体的には、上述した式(224)の正規方程式は、次の式(225)のように変形できる。
【2183】
【数175】
【2184】
式(225)において、左辺の行列DMATの各成分が、求めたい予測係数diである。また、行列CMATと行列QMATのそれぞれの各成分は、正規方程式生成部3536より供給されるものである。従って、係数決定部3537は、正規方程式生成部3536より所定のクラスコードに対応する行列CMATと行列QMATのそれぞれの各成分が供給されてきたとき、式(225)の右辺の行列演算を行うことで行列DMATを演算し、その演算結果(予測係数di)をクラスコードに対応付けて係数メモリ3514に記憶させるとともに、予測演算部3538に供給する。
【2185】
予測演算部3538は、領域抽出部3535より入力された予測タップと、係数決定部3537により決定された予測係数とを用いて積和演算を実行し、第1の生徒画像(SD画像)の注目画素(SD画素)における、予測画像(第1の教師画像を予測する画像)のHD画素を生成し、それを学習用予測画像としてクラス分類適応処理補正用学習部3561(図291)に出力する。
【2186】
より詳細には、予測演算部3538は、領域抽出部3535より供給される第1の生徒画像の所定の画素位置の画素値から抽出された予測タップを、ci(iは、1乃至nの整数値)とし、係数決定部3537より供給された予測係数を、d iとして、上述した式(218)で示される積和演算を実行することにより、学習用予測画像(HD画像)のHD画素q’を求める(第1の教師画像を予測推定する)。
【2187】
ここで、図293乃至図298を参照して、上述した従来のクラス分類適応処理(クラス分類適応処理部3501)が有する課題、即ち、図289において、センサ2から出力された段階で実世界1のディテールがつぶれてしまった入力画像(SD画像)は、クラス分類適応処理部3501によりたとえHD画像(実世界1の信号を予測する予測画像)とされても、元のディテールが完全に復元されないことがあるという課題について説明する。
【2188】
図293は、クラス分類適応処理部3501の処理結果の例を表している。
【2189】
図293において、HD画像3541は、図中上下方向から、ほぼ5度時計方向に傾いた細線の画像が含まれる画像である。また、SD画像3542は、HD画像3541の2×2の画素(HD画素)からなるブロックに属する画素(HD画素)の画素値の平均値を、1つの画素(SD画素)の画素値として生成された画像である。即ち、SD画像3542は、HD画像3541がダウンコンバートされた(解像度が落とされた)画像である。
【2190】
換言すると、HD画像3541は、センサ2(図289)に入射される前の画像(実世界1(図289)の信号)を模した画像であるとする。この場合、SD画像3542は、HD画像3541に、センサ2の積分特性を模した、空間方向の積分を適用することにより得られた画像に相当することなる。即ち、SD画像3542は、センサ2からの入力画像を模した画像となる。
【2191】
また、SD画像3542をクラス分類適応処理部3501(図289)に入力させ、クラス分類適応処理部3501より出力された予測画像が、予測画像3543である。即ち、予測画像3543は、従来のクラス分類適応処理により生成されたHD画像(元のHD画像3541と同一解像度の画像)である。ただし、クラス分類適応処理部3501が予測演算に使用した予測係数(係数メモリ3514(図290)に記憶された予測係数)は、HD画像3541を第1の教師画像とし、かつSD画像3542を第1の生徒画像として、クラス分類適応処理用学習部3561(図292)に学習演算させたものである。
【2192】
HD画像3541、SD画像3542、および予測画像3543のそれぞれを比較するに、予測画像3543は、SD画像3542よりも、HD画像3541により近い画像となっていることがわかる。
【2193】
この比較結果は、クラス分類適応処理部3501が、HD画像3541のディテールがつぶれてしまったSD画像3542に対して、従来のクラス分類適応処理を施すことで、元のディテールが復元された予測画像3543を生成することができるということを意味している。
【2194】
しかしながら、予測画像3543とHD画像3541を比較するに、予測画像3543は、HD画像3541を完全に復元した画像であるとは言い難い。
【2195】
そこで、本願出願人は、予測画像3543がHD画像3541を完全に復元できていない理由を調査するために、所定の加算器3546により、HD画像3541と、予測画像3543の反転入力との加算画像、即ち、HD画像3541と予測画像3543の差分画像(画素の差分が大の場合、白に近い画素とし、画素の差分が小の場合、黒に近い画素とした画像)3544を生成した。
【2196】
同様に、本願出願人は、所定の加算器3547により、HD画像3541と、SD画像3542の反転入力との加算画像、即ち、HD画像3541とSD画像3542の差分画像(画素の差分が大の場合、白に近い画素とし、画素の差分が小の場合、黒に近い画素とした画像)3545を生成した。
【2197】
そして、本願出願人は、このようにして生成された差分画像3544と差分画像3545を比較することによって、次のような調査結果を得た。
【2198】
即ち、HD画像3541とSD画像3542の差分の大きい領域(差分画像3545の白に近い領域)と、HD画像3541と予測画像3543の差分の大きい領域(差分画像3544の白に近い領域)はほぼ対応している。
【2199】
換言すると、予測画像3543がHD画像3541を完全に復元できていない領域は、予測画像3543のうちの、HD画像3541とSD画像3542の差分の大きい領域(差分画像3545の白に近い領域)にほぼ一致する。
【2200】
そこで、本願出願人は、この調査結果の要因を解明するために、さらに次のような調査を行った。
【2201】
即ち、本願出願人は、まず、HD画像3541と予測画像3543の差分の小さい領域(差分画像3544の黒に近い領域)において、HD画像3541の具体的な画素値、SD画像3542の具体的な画素値、およびHD画像3541に対応する実際の波形(実世界1の信号)を調査した。その調査結果が、図294と図295に示されている。
【2202】
図294は、調査した領域のうちの1例を示している。なお、図294において、図中、水平方向は、空間方向の1方向であるX方向とされており、また、垂直方向は、空間方向の他方向であるY方向とされている。
【2203】
即ち、本願出願人は、HD画像3541と予測画像3543の差分の小さい領域の1例として、図294で示される、差分画像3544の領域3544−1について調査した。
【2204】
図295は、図294で示される領域3544−1に含まれるX方向に連続した6個のHD画素のうちの、図中左から4個分のHD画素に対応する、HD画像3541の具体的な画素値、SD画像3542の具体的な画素値、および、実際の波形(実世界1の信号)のそれぞれをプロットしたものを表している。
【2205】
図295において、縦軸は画素値を、横軸は空間方向Xに平行なx軸を、それぞれ表している。x軸において、原点は、差分画像3544の6個のHD画素のうちの図中左から3番目のHD画素の左端の位置とされており、その原点を基準として座標値が付されている。ただし、x軸の座標値は、差分画像3544のHD画素の画素幅を0.5として付されている。即ち、差分画像3544はHD画像であるので、HD画像3541の画素幅Lt(以下、HD画素幅Ltと称する)も0.5になる。従って、いまの場合、SD画像3542の画素幅(以下、SD画素幅Lsと称する)は、HD画素幅Ltの2倍になるので、SD画素幅Lsは1になる。
【2206】
また、図295において、実線は、HD画像3541の画素値を、点線は、SD画像3542の画素値を、一点鎖線は、実世界1の信号のX断面波形を、それぞれ表している。ただし、実世界1の信号の波形を実際に描写することは困難であるので、図295で示される一点鎖線は、上述した1次元多項式近似手法(図289の実世界推定部102の1実施形態)によりX断面波形が近似された近似関数f(x)が示されている。
【2207】
次に、本願出願人は、上述した差分の小さい領域の調査と同様に、HD画像3541と予測画像3543の差分の大きい領域(差分画像3544の白に近い領域)においても、HD画像3541の具体的な画素値、SD画像3542の具体的な画素値、およびHD画像3541に対応する実際の波形(実世界1の信号)を調査した。その調査結果が、図296と図297に示されている。
【2208】
図296は、調査した領域のうちの1例を示している。なお、図296において、図中、水平方向は、空間方向の1方向であるX方向とされており、また、垂直方向は、空間方向の他方向であるY方向とされている。
【2209】
即ち、本願出願人は、HD画像3541と予測画像3543の差分の大きい領域の1例として、図296で示される、差分画像3544の領域3544−2について調査した。
【2210】
図297は、図296で示される領域3544−2に含まれるX方向に連続した6個のHD画素のうちの、図中左から4個分のHD画素に対応する、HD画像3541の具体的な画素値、SD画像3542の具体的な画素値、および実際の波形(実世界1の信号)のそれぞれをプロットしたものを表している。
【2211】
図297において、縦軸は画素値を、横軸は空間方向Xに平行なx軸を、それぞれ表している。x軸において、原点は、差分画像3544の6個のHD画素のうちの図中左から3番目のHD画素の左端の位置とされており、その原点を基準として座標値が付されている。ただし、x軸の座標値は、SD画素幅Lsを1として付されている。
【2212】
図297において、実線は、HD画像3541の画素値を、点線は、SD画像3542の画素値を、一点鎖線は、実世界1の信号のX断面波形を、それぞれ表している。ただし、図297で示される一点鎖線は、図295で示される一点鎖線と同様に、X断面波形が近似された近似関数f(x)が示されている。
【2213】
図295と図297を比較するに、両者の近似関数f(x)の波形の形状より、いずれの領域も細線の領域を含んでいることがわかる。
【2214】
しかしながら、図295においては、細線の領域は、ほぼx=0からx=1の範囲に存在するのに対して、図297においては、細線の領域は、ほぼx=−0.5からx=0.5の範囲に存在する。即ち、図295においては、x=0からx=1の範囲に存在するSD画像3542の1つのSD画素内に細線の領域がほぼ含まれることになる。これに対して、図297においては、x=0からx=1の範囲に存在するSD画像3542の1つのSD画素内に、細線の領域が一部だけ含まれる(細線と背景の境目が含まれる)ことになる。
【2215】
従って、図295で示される状態の場合、x=0からx=1.0の範囲に存在するHD画像3541の2つのHD画素の画素値(図中、実線)の差は小さくなる。その結果、当然ながら、これら2つのHD画素の画素値の平均値である、SD画像3542の1つのSD画素の画素値(図中、点線)と、HD画像3541の2つのHD画素の画素値のそれぞれとの差分は小さいものになる。
【2216】
このような状態で(図295で示される状態で)、x=0からx=1.0の範囲に存在するSD画像3542の1つのSD画素が注目画素とされて、従来のクラス分類適応処理によりx=0からx=1.0の範囲に2つのHD画素(予測画像3543の画素)が生成された場合について考える。この場合、図294で示されるように、生成された予測画像3543のHD画素は、HD画像3541のHD画素をほぼ正確に予測したものになる。即ち、図294で示されるように、領域3544−1においては、予測画像3543のHD画素と、HD画像3541のHD画素の差分も小さくなるので、黒に近い画像が表示される。
【2217】
これに対して、図297で示される状態の場合、x=0からx=1.0の範囲に存在するHD画像3541の2つのHD画素の画素値(図中、実線)の差は大きくなる。その結果、当然ながら、これら2つのHD画素の画素値の平均値である、SD画像3542の1つのSD画素の画素値(図中、点線)と、HD画像3541の2つのHD画素の画素値のそれぞれとの差分は、図295の対応する差分に対して大きなものになる。
【2218】
このような状態で(図297で示される状態で)、x=0からx=1.0の範囲に存在するSD画像3542の1つのSD画素が注目画素とされて、従来のクラス分類適応処理によりx=0からx=1.0の範囲にHD画素(予測画像3543の画素)が生成された場合について考える。この場合、図296で示されるように、生成された予測画像3543のHD画素は、HD画像3541のHD画素を正確に予測したものとはならない。即ち、図296で示されるように、領域3544−2においては、予測画像3543のHD画素と、HD画像3541のHD画素の差分も大きなものになってしまうので、白に近い画像が表示される。
【2219】
ところで、図295と図297の実世界1の信号の近似関数f(x)(図中、一点鎖線)のそれぞれを比較するに、図295においては、x=0からx=1の範囲での近似関数f(x)の変化量は小さいのに対して、図297においては、x=0からx=1の範囲での近似関数f(x)の変化量は大きいことがわかる。
【2220】
従って、図295で示されるx=0からx=1.0の範囲に存在するSD画像3542の1つのSD画素は、SD画素内での近似関数f(x)の変化量が小さい(即ち、実世界1の信号の変化量が小さい)SD画素と言える。
【2221】
このような観点から、上述した調査結果を言いなおすと、例えば、図295で示されるx=0からx=1.0の範囲に存在するSD画素のような、SD画素内での近似関数f(x)の変化が少ない(即ち、実世界1の信号の変化が少ない)SD画素から、従来のクラス分類適応処理によりHD画素が生成されると、生成されたHD画素は、実世界1の信号(いまの場合、細線の画像)をほぼ正確に予測したものとなる。
【2222】
これに対して、図297で示されるx=0からx=1.0の範囲に存在するSD画像3542の1つのSD画素は、SD画素内での近似関数f(x)の変化量が大きい(即ち、実世界1の信号の変化量が大きい)SD画素と言える。
【2223】
このような観点から、上述した調査結果を言いなおすと、例えば、図297で示されるx=0からx=1.0の範囲に存在するSD画素のような、SD画素内での近似関数f(x)の変化が大きい(即ち、実世界1の信号の変化が大きい)SD画素から、従来のクラス分類適応処理によりHD画素が生成されると、生成されたHD画素は、実世界1の信号(いまの場合、細線の画像)を正確に予測したものとはならない。
【2224】
以上の調査結果をまとめると、図298で示されるような状態の場合、従来の画素間の信号処理(例えば、クラス分類適応処理)では、画素内のディテールを復元することは困難であるということである。
【2225】
即ち、図298は、本願出願人が上述したような調査を行った結果として、得られた知見を説明する図である。
【2226】
図298において、図中水平方向は、センサ2(図289)の検出素子が並んでいる方向(空間方向)のうちの1方向であるX方向を表しており、図中垂直方向は、光のレベルまたは画素値を表している。点線は、画像である、実世界1(図289)の信号のX断面波形F(x)を表しており、実線は、X断面波形F(x)で表される実世界1の信号(画像)がセンサ2に入射された場合、センサ2から出力される画素値Pを表している。また、センサ2の1つの検出素子の幅(X方向の長さ)は、Lcと記述されており、△Pは、センサ2の1つの検出素子の幅Lc、即ち、センサ2の画素幅Lc内におけるX断面波形F(x)の変化量を表している。
【2227】
ところで、上述したSD画像3542(図293)は、センサ2からの入力画像(図289)を模したものであるので、SD画像3542のSD画素幅Ls(図295と図297)は、センサ2の画素幅(検出素子の幅)Lcとして考えることができる。
【2228】
また、上述した調査においては、細線に対応する実世界1の信号(近似関数f(x))に対する調査であったが、細線に限らず、実世界1の信号のレベルの変化は存在する。
【2229】
従って、上述した調査結果を、図298で示される状態に当てはめると、次の通りになる。
【2230】
即ち、図298で示されるような、画素内において実世界1の信号の変化量(X断面波形F(x)の変化量)△Pが大きいSD画素(センサ2からの出力画素)が注目画素とされて、従来のクラス分類適応処理によりHD画素(例えば、図289のクラス分類適応処理部3501から出力される予測画像の画素)が生成された場合、生成されたHD画素は、実世界1の信号(図298の例では、X断面波形F(x))を正確に予測したものとはならない。
【2231】
具体的には、クラス分類適応処理をはじめとする従来の手法においては、センサ2の画素の画素間の画像処理が行われている。
【2232】
即ち、図298で示されるように、実世界1では、1画素内の領域でX断面波形F(x)の変化量△Pが大きい状態であっても、センサ2からは、X断面波形F(x)が積分された(厳密には、実世界1の信号が、時空間方向に積分された)1つの画素値P(1画素内で均一の値P)のみが出力される。
【2233】
従来の手法においては、その画素値Pが基準とされるとともに、画素値Pが処理の対象とされて画像処理が行われている。換言すると、従来の手法においては、画素内における実世界1の信号(X断面波形F(x))の変化、即ち、画素内のディテールを無視して、画像処理が行われている。
【2234】
このように、画素を最小の単位として処理する限り、例えどのような画像処理(クラス分類適応処理でも)を施したとしても、画素内における実世界1の信号の変化を正確に再現することは困難である。特に、実世界1の信号の変化量△Pが大きい場合、その困難さはより顕著なものとなる。
【2235】
換言すると、上述したクラス分類適応処理が有する課題、即ち、図289において、センサ2から出力された段階で実世界1のディテールがつぶれてしまった入力画像(SD画像)は、クラス分類適応処理によりたとえHD画像とされても、元のディテールが完全に復元されないことがあるという課題が発生する原因は、画素内における実世界1の信号の変化量△Pを考慮せずに、画素(1つの画素値しか有しない画素)を最小の単位としてクラス分類適応処理が行われているからである。
【2236】
この課題は、クラス分類適応処理に限らず従来の画像処理手法の全てが有する課題であり、課題が発生する原因も全く同じである。
【2237】
以上、従来の画像処理手法が有する課題と、その発生要因について説明した。
【2238】
ところで、上述したように、本発明のデータ定常性検出部101と実世界推定部102(図3)は、実世界1の信号が有する定常性を利用して、センサ2からの入力画像(即ち、画素内における、実世界1の信号の変化が無視された画像)から、実世界1の信号を推定することができる。即ち、実世界推定部102は、実世界1の信号を推定することが可能な実世界推定情報を出力することができる。
【2239】
従って、この実世界推定情報から、画素内における、実世界1の信号の変化量の推定も可能である。
【2240】
そこで、本願出願人は、従来のクラス分類適応処理により生成された予測画像(画素内における、実世界1の信号の変化を考慮せずに、実世界1を予測した画像)を、実世界推定情報に基づいて生成される所定の補正画像(画素内における、実世界1の信号の変化に起因する予測画像の誤差を推定した画像)で補正することで、上述した課題の解決が可能になるという思想に基づいて、例えば、図289で示されるような、クラス分類適応処理補正手法を発明した。
【2241】
即ち、図289において、データ定常性検出部101と実世界推定部102が、実世界推定情報を生成し、クラス分類適応処理補正部3502が、生成された実世界推定情報に基づいて所定の補正画像を生成する。そして、加算部3503が、クラス分類適応処理部3501より出力された予測画像を、クラス分類適応処理補正部3502より出力された補正画像で補正する(具体的には、予測画像に補正画像を加算した画像を出力画像として出力する)。
【2242】
クラス分類適応処理補正手法を利用する画像生成部103のうちの、クラス分類適応処理部3501の詳細については既に説明した。また、加算部3503は、予測画像と補正画像を加算することができるものであれば、その形態は特に限定されず、例えば、従来より存在する、様々な加算器やプログラム等を適用することが可能である。
【2243】
そこで、以下、残りのクラス分類適応処理補正部3502の詳細について説明する。
【2244】
はじめに、クラス分類適応処理補正部3502の原理について説明する。
【2245】
上述したように、図293において、HD画像3541を、センサ2(図289)に入射される前の元の画像(実世界1の信号)とみなし、かつ、SD画像3542を、センサ2からの入力画像とみなすと、予測画像3543が、クラス分類適応処理部3501より出力される予測画像(元の画像(HD画像3541)を予測した予測画像)となる。
【2246】
また、HD画像3541から、その予測画像3543を減算した画像が、差分画像3544である。
【2247】
従って、クラス分類適応処理補正部3502が、差分画像3544を生成し、その差分画像3544を補正画像として出力することができれば、加算部3503が、クラス分類適応処理部3501より出力された予測画像3543と、クラス分類適応処理補正部3502より出力された差分画像3544(補正画像)を加算することで、HD画像3541を復元することができる。
【2248】
即ち、クラス分類適応処理補正部3502が、画像である、実世界1の信号(センサ2に入射される前の元の画像)と、クラス分類適応処理部3501から出力される予測画像との差分画像(ただし、クラス分類適応処理部3501から出力される予測画像と同一解像度の画像)を適切に予測し、予測した差分画像(以下、差分予測画像と称する。これが、上述した差分予測画像の名称の由来である)を補正画像として出力することができれば、実世界1の信号(元の画像)をほぼ復元することができる。
【2249】
ところで、上述したように、実世界1の信号(センサ2に入射される前の元の画像)と、クラス分類適応処理部3501から出力される予測画像との差分(誤差)の度合いと、入力画像の1画素内における、実世界1の信号の変化量の度合いは対応している。また、実世界推定部102は、実世界1の信号自身を推定することができるので、当然ながら、入力画像の1画素内における、実世界1の信号の変化量の度合いを表す所定の特徴量を画素毎に算出することも可能である。
【2250】
従って、クラス分類適応処理補正部3502は、入力画像の各画素のそれぞれに対する特徴量を取得することで、差分予測画像を生成する(差分画像を予測する)ことができる。
【2251】
そこで、例えば、クラス分類適応処理補正部3502は、実世界推定部102より、特徴量を画素値とする画像(以下、このような画像を、特徴量画像と称する)を実世界推定情報として実世界推定部102より入力する。
【2252】
このとき、特徴量画像の解像度は、センサ2からの入力画像と同一の解像度である。また、補正画像(差分予測画像)は、クラス分類適応処理部3501より出力される予測画像と同一の解像度である。
【2253】
従って、クラス分類適応処理補正部3502が、特徴量画像をSD画像とし、補正画像(差分予測画像)をHD画像とし、従来のクラス分類適応処理を利用して、特徴量画像から差分画像を予測演算すれば、その予測演算の結果が、適切な差分予測画像となる。
【2254】
以上、クラス分類適応処理補正部3502の原理について説明した。
【2255】
図299は、このような原理で動作するクラス分類適応処理補正部3502の構成例を表している。
【2256】
図299において、実世界推定部102より入力された特徴量画像(SD画像)は、領域抽出部3551と領域抽出部3555にそれぞれ供給される。領域抽出部3551は、供給された特徴量画像から、クラス分類を行うために必要なクラスタップ(注目画素を含む予め設定された位置に存在するSD画素)を抽出し、パターン検出部3552に出力する。パターン検出部3552は、入力されたクラスタップに基づいて特徴量画像のパターンを検出する。
【2257】
クラスコード決定部3553は、パターン検出部3552で検出されたパターンに基づいてクラスコードを決定し、補正係数メモリ3554、および、領域抽出部3555に出力する。補正係数メモリ3554は、学習により予め求められたクラスコード毎の係数を記憶しており、クラスコード決定部3553より入力されたクラスコードに対応する係数を読み出し、補正演算部3556に出力する。
【2258】
なお、補正係数メモリ3554の係数の学習処理については、図300のクラス分類適応処理補正用学習部のブロック図を参照して後述する。
【2259】
また、補正係数メモリ3554に記憶される係数は、後述するように、差分画像を予測する(HD画像である差分予測画像を生成する)ときに使用される予測係数である。しかしながら、ここでは、クラス分類適応処理部3501の係数メモリ3514(図290)に記憶されている係数を、予測係数と称している。従って、以下、補正係数メモリ3554に記憶される予測係数を、係数メモリ3514に記憶される予測係数と区別するために、補正係数と称する。
【2260】
領域抽出部3555は、クラスコード決定部3553より入力されたクラスコードに基づいて、実世界推定部102より入力された特徴量画像(SD画像)から、差分画像(HD画像)を予測する(HD画像である差分予測画像を生成する)のに必要な予測タップ(注目画素を含む予め設定された位置に存在するSD画素)をクラスコードに対応して抽出し、補正演算部3556に出力する。補正演算部3556は、領域抽出部3555より入力された予測タップと、補正係数メモリ3554より入力された補正係数とを用いて積和演算を実行し、特徴量画像(SD画像)の注目画素(SD画素)における、差分予測画像(HD画像)のHD画素を生成する。
【2261】
より詳細には、補正係数メモリ3554は、クラスコード決定部3553より供給されるクラスコードに対応する補正係数を、補正演算部3556に出力する。補正演算部3556は、領域抽出部3555より供給される入力画像の所定の画素位置の画素値から抽出された予測タップ(SD画素)と、補正係数メモリ3554より供給された補正係数とを用いて、次の式(226)で示される積和演算を実行することにより、差分予測画像(HD画像)のHD画素を求める(差分画像を予測推定する)。
【2262】
【数176】
【2263】
式(226)において、u’は、差分予測画像(HD画像)のHD画素を表している。ai(iは、1乃至nの整数値)のそれぞれは、予測タップ(SD画素)のそれぞれを表している。また、g iのそれぞれは、補正係数のそれぞれを表している。
【2264】
従って、図289において、クラス分類適応処理部3501からは、上述した式(218)で示される予測画像のHD画素q’が出力されるのに対して、クラス分類適応処理補正部3502からは、式(226)で示される差分予測画像のHD画素u’が出力される。そして、加算部3503が、予測画像のHD画素q’と、差分予測画像のHD画素u’とを加算した画素(以下、o’と記述する)を、出力画像のHD画素として外部に出力する。
【2265】
即ち、画像生成部103より最終的に出力される出力画像のHD画素o’は、次の式(227)で示されるようになる。
【2266】
【数177】
【2267】
図300は、このようなクラス分類適応処理補正部3502の補正係数メモリ3554に記憶される補正係数(上述した式(222)におけるg i)を決定するための学習部、即ち、上述した図291の学習装置3504のクラス分類適応処理補正用学習部3561の詳細な構成例を表している。
【2268】
図291において、上述したように、クラス分類適応処理用学習部3521は、その学習処理を終了すると、クラス分類適応処理補正用学習部3561に対して、学習に利用した第1の教師画像(HD画像)と第1の生徒画像(SD画像)のそれぞれを出力するともに、学習により求められた予測係数を用いて第1の生徒画像から第1の教師画像を予測した画像である、学習用予測画像を出力してくる。
【2269】
図300に戻り、これらのうちの第1の生徒画像は、データ定常性検出部3572に入力される。
【2270】
一方、これらのうちの第1の教師画像と学習用予測画像は、加算部3571に入力される。ただし、学習用予測画像は、反転入力される。
【2271】
加算部3571は、入力された第1の教師画像と、反転入力された学習用予測画像を加算し、即ち、第1の教師画像と学習用予測画像の差分画像を生成し、それをクラス分類適応処理補正用学習部3561における教師画像(この教師画像を、上述したように、第1の教師画像と区別するために、第2の教師画像と称する)として正規方程式生成部3578に出力する。
【2272】
データ定常性検出部3572は、入力された第1の生徒画像に含まれるデータの定常性を検出し、その検出結果をデータ定常性情報として実世界推定部3573に出力する。
【2273】
実世界推定部3573は、入力されたデータ定常性情報に基づいて、特徴量画像を生成し、それをクラス分類適応処理補正用学習部3561における生徒画像(この生徒画像を、上述したように、第1の生徒画像と区別するために、第2の生徒画像と称する)として領域抽出部3574と領域抽出部3577のそれぞれに出力する。
【2274】
領域抽出部3574は、供給された第2の生徒画像(SD画像)から、クラス分類を行うために必要なSD画素(クラスタップ)を抽出し、パターン検出部3575に出力する。パターン検出部3575は、入力されたクラスタップのパターンを検出し、検出結果をクラスコード決定部3576に出力する。クラスコード決定部3576は、入力されたパターンに対応するクラスコードを決定し、そのクラスコードを領域抽出部3577、および、正規方程式生成部3578のそれぞれに出力する。
【2275】
領域抽出部3577は、クラスコード決定部3576より入力されたクラスコードに基づいて、実世界推定部3573より入力された第2の生徒画像(SD画像)から予測タップ(SD画素)を抽出し、正規方程式生成部3578に出力する。
【2276】
なお、以上の領域抽出部3574、パターン検出部3575、クラスコード決定部3576、および領域抽出部3577のそれぞれは、図299のクラス分類適応処理補正部3502の領域抽出部3551、パターン検出部3552、クラスコード決定部3553、および、領域抽出部3555のそれぞれと、基本的に同様の構成と機能を有するものである。また、以上のデータ定常性検出部3572、および実世界推定部3573のそれぞれは、図289のデータ定常性検出部101、および実世界推定部102のそれぞれと、基本的に同様の構成と機能を有するものである。
【2277】
正規方程式生成部3578は、クラスコード決定部3576より入力された全てのクラスコードに対して、クラスコード毎に、領域抽出部3577より入力される第2の生徒画像(SD画像)の予測タップ(SD画素)と、第2の教師画像(HD画像)のHD画素とから正規方程式を生成し、補正係数決定部3579に供給する。補正係数決定部3579は、正規方程式生成部3578より所定のクラスコードに対応する正規方程式が供給されてきたとき、その正規方程式より補正係数のそれぞれを演算し、補正係数メモリ3554にクラスコードと関連付けて記憶させる。
【2278】
正規方程式生成部3578と、補正係数決定部3579についてさらに詳しく説明する。
【2279】
上述した式(226)において、学習前は補正係数giのそれぞれが未定係数である。学習は、クラスコード毎に複数の教師画像(HD画像)のHD画素を入力することによって行う。所定のクラスコードに対応するHD画素がm個存在し、m個のHD画素のそれぞれを、uk(kは、1乃至mの整数値)と記述する場合、式(226)から、次の式(228)が設定される。
【2280】
【数178】
【2281】
即ち、式(228)は、右辺の演算をすることで、所定のHD画素を予測推定することができることを表している。なお、式(228)において、ekは誤差を表している。即ち、右辺の演算結果である差分予測画像(HD画像)のHD画素uk’が、実際の差分画像のHD画素ukと厳密には一致せず、所定の誤差ekを含む。
【2282】
そこで、式(228)において、例えば、誤差ekの自乗和を最小にするような補正係数aiが、学習により求まればよい。
【2283】
例えば、m>nとなるように、差分画像のHD画素ukを学習により集めることができれば、最小自乗法によって補正係数aiが一意に決定される。
【2284】
即ち、式(228)の右辺の補正係数aiを最小自乗法で求める場合の正規方程式は、次の式(229)で示される通りになる。
【2285】
【数179】
【2286】
式(229)で示される正規方程式の各行列のそれぞれを、次の式(230)乃至(232)のように定義すると、正規方程式は、次の式(233)のように表される。
【2287】
【数180】
【2288】
【数181】
【2289】
【数182】
【2290】
【数183】
【2291】
式(231)で示されるように、行列GMATの各成分は、求めたい補正係数giである。従って、式(233)において、左辺の行列AMATと右辺の行列UMATが決定されれば、行列解法によって行列GMAT(即ち、補正係数gi)の算出が可能である。
【2292】
具体的には、式(230)で示されるように、行列AMATの各成分は、予測タップaikが既知であれば演算可能である。予測タップaikは、領域抽出部3577により抽出されるので、正規方程式生成部3578は、領域抽出部3577より供給されてくる予測タップaikのそれぞれを利用して行列AMATの各成分を演算することができる。
【2293】
また、式(232)で示されるように、行列UMATの各成分は、予測タップaikと差分画像のHD画素ukが既知であれば演算可能である。予測タップaikは、行列AMATの各成分に含まれるものと同一のものであり、また、差分画像のHD画素ukは、加算部3571より出力される第2の教師画像のHD画素である。従って、正規方程式生成部3578は、領域抽出部3577より供給された予測タップaikと、第2の教師画像(第1の教師画像と、学習用予測画像の差分画像)を利用して行列UMATの各成分を演算することができる。
【2294】
このようにして、正規方程式生成部3578は、クラスコード毎に、行列AMATと行列UMATの各成分を演算し、その演算結果をクラスコードに対応付けて補正係数決定部3579に供給する。
【2295】
補正係数決定部3579は、供給された所定のクラスコードに対応する正規方程式に基づいて、上述した式(233)の行列GMATの各成分である補正係数giを演算する。
【2296】
具体的には、上述した式(233)の正規方程式は、次の式(234)のように変形できる。
【2297】
【数184】
【2298】
式(234)において、左辺の行列GMATの各成分が、求めたい補正係数giである。また、行列AMATと行列UMATのそれぞれの各成分は、正規方程式生成部3578より供給されるものである。従って、補正係数決定部3579は、正規方程式生成部3578より所定のクラスコードに対応する行列AMATと行列UMATのそれぞれの各成分が供給されてきたとき、式(234)の右辺の行列演算を行うことで行列GMATを演算し、その演算結果(補正係数gi)をクラスコードに対応付けて補正係数メモリ3554に記憶させる。
【2299】
以上、クラス分類適応処理補正部3502と、それに付随する学習部である、クラス分類適応処理補正用学習部3561の詳細について説明した。
【2300】
ところで、上述した特徴量画像は、クラス分類適応処理補正部3502がそれに基づいて補正画像(差分予測画像)を生成することが可能なものであれば、その形態は特に限定されない。換言すると、特徴量画像の各画素の画素値、即ち、特徴量は、上述したように、画素(センサ2(図289)の画素)内における実世界1(図289)の信号の変化量の度合いを表すことができるものであれば、特に、限定されない。
【2301】
例えば、特徴量として、画素内傾斜を適用することが可能である。
【2302】
画素内傾斜とは、ここで新しく定義した言葉である。そこで、以下、画素内傾斜について説明する。
【2303】
上述したように、図289において、画像である、実世界1の信号は、3次元の空間上の位置x,y、およびz、並びに時刻tを変数とする関数F(x,y,t)で表される。
【2304】
また、例えば、画像である、実世界1の信号が、空間方向の所定の方向に定常性を有する場合、関数F(x,y,t)を、空間方向であるX方向、Y方向、およびZ方向のうちの所定の1方向(例えば、X方向)に射影した1次元の波形(ここでも、このような波形のうちのX方向に射影した波形を、X断面波形F(x)と称することにする)と同一形状の波形が、定常性の方向に連なっていると考えることができる。
【2305】
従って、実世界推定部102は、例えば、データ定常性検出部101より出力される、実世界1の信号が有する定常性に対応するデータ定常性情報(例えば、角度)に基づいて、X断面波形F(x)を、n次(nは、任意の整数)の多項式である近似関数f(x)で近似することができる。
【2306】
図301は、このような近似関数f(x)の一例として、次の式(235)で示されるf4(x)(5次の多項式であるf4(x))と、次の式(236)で示されるf5(x)(1次の多項式であるf5(x))をプロットしたものを表している。
【2307】
【数185】
【2308】
【数186】
【2309】
なお、式(235)のw0乃至w5、並びに、式(236)のw0’およびw1’のそれぞれは、実世界推定部102が演算した各次の係数を表している。
【2310】
また、図301において、図中水平方向のx軸は、注目画素の左端を原点(x=0)とした場合における、注目画素からの空間方向Xの相対位置を表している。ただし、x軸においては、センサ2の検出素子の幅Lcが1とされている。また、図中垂直方向の軸は、画素値を表している。
【2311】
図301で示されるように、1次の近似関数f5(x)(式(232)で示される近似関数f5(x))は、注目画素におけるX断面波形F(x)を直線近似したものである。この近似直線の傾きを、ここでは、画素内傾斜と称している。即ち、画素内傾斜とは、式(236)におけるxの係数w1’である。
【2312】
画素内傾斜が急な場合、それは、注目画素における、X断面波形F(x)の変化量が大きいことを表している。これに対して、画素内傾斜が緩やかな場合、それは、注目画素における、X断面波形F(x)の変化量が小さいことを表している。
【2313】
このように、画素内傾斜は、画素(センサ2の画素)内における実世界1の信号の変化量の度合いを適切に表すことができる。従って、特徴量として、画素内傾斜を適用することができる。
【2314】
例えば、図302には、画素内傾斜を特徴量として実際に生成された特徴量画像が示されている。
【2315】
即ち、図302において、図中左側の画像は、上述した図293で示されるSD画像3542と同一の画像を表している。また、図中右側の画像は、左側のSD画像3542を構成する各画素のそれぞれに対して画素内傾斜を求め、画素内傾斜に対応する値を画素値としてプロットした特徴量画像3591を表している。ただし、特徴量画像3591は、画素内傾斜がない場合(近似直線が、X方向に平行な場合)、黒となり、これに対して、画素内傾斜が直角の場合(近似直線が、Y方向に平行な場合)、白となるように生成されている。
【2316】
SD画像3542の領域3542−1は、上述した図294の差分画像3544の領域3544−1(上述した図295を参照して、画素内における実世界1の信号の変化量が小さい領域の1例として説明した領域)に対応する領域である。このSD画像3542の領域3542−1に対応する特徴量画像3591の領域が、領域3591−1である。
【2317】
また、SD画像3542の領域3542−2は、上述した図296の差分画像3544の領域3544−2(上述した図297を参照して、画素内における実世界1の信号の変化量が大きい領域の1例として説明した領域)に対応する領域である。このSD画像3542の領域3542−2に対応する特徴量画像3591の領域が、領域3591−2である。
【2318】
SD画像3542の領域3542−1と特徴量画像3591の領域3591−1とを比較するに、実世界1の信号の変化量が小さい領域は、特徴量画像3591においては、黒に近い領域(画素内傾斜が緩い領域)となっていることがわかる。
【2319】
これに対して、SD画像3542の領域3542−2と特徴量画像3591の領域3591−2とを比較するに、実世界1の信号の変化量が大きい領域は、特徴量画像3591においては、白に近い領域(画素内傾斜が急な領域)となっていることがわかる。
【2320】
このように、画素内傾斜に対応する値を画素として生成された特徴量画像は、各画素内のそれぞれにおける実世界1の信号の変化量の度合いを適切に表すことができる。
【2321】
次に、画素内傾斜の具体的な算出方法について説明する。
【2322】
即ち、注目画素における画素内傾斜を、gradと記述すると、画素内傾斜gradは、次の式(237)で表される。
【2323】
【数187】
【2324】
式(237)において、Pnは、注目画素の画素値を表している。Pcは、中心画素の画素値を表している。
【2325】
具体的には、例えば、図303で示されるように、センサ2からの入力画像のうちの、5×5の画素(図中5×5=25個の正方形)からなる領域であって、所定のデータの定常性を有する領域3601(以下、定常領域3601と称する)が存在した場合、この定常領域3601の中心の画素3602が中心画素とされる。従って、Pcは、中心画素3602の画素値となる。そして、例えば、画素3603が注目画素とされた場合、Pnは、注目画素3603の画素値となる。
【2326】
また、式(237)において、xn’は、注目画素の中心点における断面方向距離を表している。なお、ここでは、中心画素(図303の例では、画素3602)の中心を空間方向の原点(0,0)とし、その原点を通るデータの定常性の方向と平行な直線(図303の例では、直線3604)を引いたとすると、その直線に対するX方向の相対的な距離を、断面方向距離と称している。
【2327】
図304は、図303の定常領域3601内の各画素の断面方向距離を表した図である。即ち、図304において、定常領域3601の各画素(図中5×5=25個の正方形)内のそれぞれに記載されている値が、対応する画素の断面方向距離である。例えば、注目画素3603の断面距離xn’は、−2βである。
【2328】
ただし、各画素幅は、X方向もY方向も1とされている。X方向の正方向は、図中右方向とされている。また、βは、中心画素3602のY方向に対して1つ隣(図中1つ下)の画素3605の断面方向距離を表している。このβは、図304で示されるような角度θ(直線3604の方向と、X方向のなす角度θ)が、データ定常性検出部101よりデータ定常性情報として出力されている場合、次の式(238)を利用して簡単に演算することが可能である。
【2329】
【数188】
【2330】
このように、画素内傾斜は、中心画素(図304の例では画素3602)と注目画素(図304の例では画素3603)の2つの入力画素値と、角度θを利用する簡単な演算で算出可能である。従って、実世界推定部102は、画素内傾斜に対応する値を画素値とする画像を、特徴量画像として生成すれば、その処理量を大幅に低減することが可能になる。
【2331】
なお、さらに精度のよい画素内傾斜を求めたい場合、実世界推定部102は、注目画素の周辺画素を用いて最小自乗法により演算すればよい。具体的には、実世界推定部102は、注目画素を含むm個(mは2以上の整数)の画素に対して番号i(iは、1乃至m)を付与し、番号iの画素のそれぞれの入力画素値Piと断面方向距離xi’を、次の式(239)の右辺に代入して注目画素における画素内傾斜gradを演算すればよい。即ち、式(239)は、上述した1変数を最小自乗法で求める式と同様の式である。
【2332】
【数189】
【2333】
次に、図305を参照して、クラス分類適応処理補正手法を利用する画像生成部103(図289)の画像の生成の処理(図40のステップS103の処理)について説明する。
【2334】
図289において、画像である、実世界1の信号がセンサ2に入射されると、センサ2からは入力画像が出力される。この入力画像は、データ定常性検出部101に入力されるとともに、画像生成部103のクラス分類適応処理部3501に入力される。
【2335】
そこで、図305のステップS3501において、クラス分類適応処理部3501は、入力された入力画像(SD画像)に対してクラス分類適応処理を施して、予測画像(HD画像)を生成し、加算部3503に出力する。
【2336】
なお、以下、このようなクラス分類適応処理部3501が実行するステップS3501の処理を、「入力画像クラス分類適応処理」と称する。この例の「入力画像クラス分類適応処理」の詳細については、図306のフローチャートを参照して後述する。
【2337】
ステップS3501の処理とほぼ同時に、データ定常性検出部101は、入力画像に含まれるデータの定常性を検出し、その検出結果(いまの場合、角度)をデータ定常性情報として実世界推定部102に出力する(図40のステップS101の処理)。
【2338】
実世界推定部102は、入力した角度(データ定常性情報)に基づいて、実世界推定情報(いまの場合、SD画像である特徴量画像)を生成し、画像生成部103のクラス分類適応処理補正部3502に供給する(図40のステップS102の処理)。
【2339】
そこで、ステップS3502において、クラス分類適応処理補正部3502は、供給された特徴量画像(SD画像)に対してクラス分類適応処理を施して、差分予測画像(HD画像)を生成し(実際の画像(実世界1の信号)と、クラス分類適応処理部3501から出力された予測画像との差分画像(ただし、HD画像)を予測演算し)、それを補正画像として加算部3503に出力する。
【2340】
なお、以下、このようなクラス分類適応処理補正部3502が実行するステップS3502の処理を、「クラス分類適応処理の補正処理」と称する。この例の「クラス分類適応処理の補正処理」の詳細については、図307のフローチャートを参照して後述する。
【2341】
そして、ステップS3503において、加算部3503が、ステップS3501の処理でクラス分類適応処理部3501により生成された予測画像(HD画像)の注目画素(HD画素)と、その注目画素に対応する、ステップS3502の処理でクラス分類適応処理補正部3502により生成された補正画像(HD画像)の画素(HD画素)を加算し、出力画像(HD画像)の画素(HD画素)を生成する。
【2342】
ステップS3504において、加算部3503は、全画素の処理を終了したか否かを判定する。
【2343】
ステップS3504において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS3501に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS3501乃至S3503の処理が繰り返される。
【2344】
そして、全画素の処理が終了すると(ステップS3504において、全画素の処理が終了されたと判定すると)、加算部3504は、ステップS3505において、出力画像(HD画像)を外部に出力する。その後、画像の生成の処理は終了となる。
【2345】
次に、図面を参照して、この例における「入力画像クラス分類適応処理(ステップS3501の処理)」、および、「クラス分類適応処理の補正処理(ステップS3502の処理)」のそれぞれの詳細について、その順番で個別に説明する。
【2346】
はじめに、図306のフローチャートを参照して、クラス分類適応処理部3501(図290)が実行する「入力画像クラス分類適応処理」の詳細について説明する。
【2347】
入力画像(SD画像)がクラス分類適応処理部3501に入力されると、ステップS3521において、領域抽出部3511と領域抽出部3515のそれぞれは、入力画像を入力する。
【2348】
ステップS3522において、領域抽出部3511は、入力画像の中から、注目画素(SD画素)、および、予め設定された注目画素からの相対位置(1以上の位置)のそれぞれに位置する画素(SD画素)を、クラスタップとして抽出し、パターン検出部3512に供給する。
【2349】
ステップS3523において、パターン検出部3512は、供給されたクラスタップのパターンを検出し、クラスコード決定部3513に供給する。
【2350】
ステップS3524において、クラスコード決定部3513は、予め設定されている複数のクラスコードの中から、供給されたクラスタップのパターンに適合するクラスコードを決定し、係数メモリ3514と領域抽出部3515のそれぞれに供給する。
【2351】
ステップS3525において、係数メモリ3514は、予め学習処理により決定された複数の予測係数(群)の中から、供給されたクラスコードに基づいてこれから使用する予測係数(群)を読み出し、予測演算部3516に供給する。
【2352】
なお、学習処理については、図311のフローチャートを参照して後述する。
【2353】
ステップS3526において、領域抽出部3515は、供給されたクラスコードに対応して、入力画像の中から、注目画素(SD画素)、および、予め設定された注目画素からの相対位置(1以上の位置であって、クラスタップの位置とは独立して設定された位置。ただし、クラスタップの位置と同一の位置でもよい)のそれぞれに位置する画素(SD画素)を、予測タップとして抽出し、予測演算部3516に供給する。
【2354】
ステップS3527において、予測演算部3516は、領域抽出部3515より供給された予測タップを、係数メモリ3514より供給された予測係数を用いて演算し、予測画像(HD画像)を生成して加算部3503に出力する。
【2355】
具体的には、予測演算部3516は、領域抽出部3515より供給された予測タップのそれぞれをci(iは、1乃至nのうちのいずれかの整数)とし、かつ、係数メモリ3514より供給された予測係数のそれぞれをdiとして、上述した式(218)の右辺を演算することにより、注目画素(SD画素)におけるHD画素q’を算出し、それを予測画像(HD画像)を構成する1つの画素として加算部3503に出力する。これにより、入力画像クラス分類適応処理が終了となる。
【2356】
次に、図307のフローチャートを参照して、クラス分類適応処理補正部3502(図299)が実行する「クラス分類適応処理の補正処理」の詳細について説明する。
【2357】
実世界推定部102より実世界推定情報として特徴量画像(SD画像)がクラス分類適応処理補正部3502に入力されると、ステップS3541において、領域抽出部3551と領域抽出部3555のそれぞれは、特徴量画像を入力する。
【2358】
ステップS3542において、領域抽出部3551は、特徴量画像の中から、注目画素(SD画素)、および、予め設定された注目画素からの相対位置(1以上の位置)のそれぞれに位置する画素(SD画素)を、クラスタップとして抽出し、パターン検出部3552に供給する。
【2359】
具体的には、この例においては、例えば、図308で示されるようなクラスタップ(群)3621が抽出されるとする。即ち、図308は、クラスタップ配置の1例を表している。
【2360】
図308において、図中水平方向は、空間方向の1方向であるX方向とされており、図中垂直方向は、空間方向の他方向であるY方向とされている。また、注目画素は、画素3621−2とされている。
【2361】
この場合、図308の例では、注目画素3621−2、Y方向に対して注目画素3621−2の隣の画素3621−0および画素3621−4、並びに、X方向に対して注目画素3621−2の隣の画素3621−1および画素3621−3の総計5個の画素からなる画素群3621が、クラスタップとして抽出されることになる。
【2362】
勿論、クラスタップ配置は、注目画素3621−2を含む配置であれば、図308の例に限定されず、様々な配置が可能である。
【2363】
図307に戻り、ステップS3543において、パターン検出部3552は、供給されたクラスタップのパターンを検出し、クラスコード決定部3553に供給する。
【2364】
具体的には、この例においては、例えば、パターン検出部3552は、図308で示される5個のクラスタップ3621−0乃至3621−4のそれぞれの画素値、即ち、特徴量の値(例えば、画素内傾斜)のそれぞれが、予め設定された複数のクラスのうちのいずれのクラスに属するのかを検出し、それらの検出結果を1つにまとめたものをパターンとして出力する。
【2365】
例えば、いま、図309で示されるようなパターンが検出されたとする。即ち、図309は、クラスタップのパターンの1例を表している。
【2366】
図309において、図中水平方向の軸は、クラスタップを表しており、図中垂直方向の軸は、画素内傾斜を表している。また、画素内傾斜により、クラス3631、クラス3632、およびクラス3633の3つのクラスが予め設定されているとする。
【2367】
この場合、図309で示されるパターンは、クラスタップ3621−0はクラス3631に、クラスタップ3621−1はクラス3631に、クラスタップ3621−2はクラス3633に、クラスタップ3621−3はクラス3631に、クラスタップ3621−4はクラス3632に、それぞれ属するパターンを表している。
【2368】
このように、5個のクラスタップ3621−0乃至3621−4のそれぞれは、3つのクラス3631乃至3633のうちのいずれかに属することになる。従って、この例においては、図309で示されるパターンを含めて総計273(=3^5)個のパターンが存在することになる。
【2369】
図307に戻り、ステップS3544において、クラスコード決定部3553は、予め設定されている複数のクラスコードの中から、供給されたクラスタップのパターンに適合するクラスコードを決定し、補正係数メモリ3554と領域抽出部3555のそれぞれに供給する。いまの場合、273個のパターンが存在するので、予め設定されているクラスコードの数も273個(または、それ以上)となる。
【2370】
ステップS3545において、補正係数メモリ3554は、予め学習処理により決定された複数の補正係数(群)の中から、供給されたクラスコードに基づいてこれから使用する補正係数(群)を読み出し、補正演算部3556に供給する。補正係数メモリ3554に記憶されている補正係数(群)のそれぞれは、予め設定されたクラスコードのうちのいずれかに対応付けられているので、いまの場合、補正係数(群)の数は、予め設定されているクラスコードの数と同数(273個以上)となる。
【2371】
なお、学習処理については、図311のフローチャートを参照して後述する。
【2372】
ステップS3546において、領域抽出部3555は、供給されたクラスコードに対応して、入力画像の中から、注目画素(SD画素)、および、予め設定された注目画素からの相対位置(1以上の位置であって、クラスタップの位置とは独立して設定された位置。ただし、クラスタップの位置と同一の位置でもよい)のそれぞれに位置する画素(SD画素)を、予測タップとして抽出し、補正演算部3556に供給する。
【2373】
具体的には、この例においては、例えば、図310で示されるような予測タップ(群)3641が抽出されるとする。即ち、図310は、予測タップ配置の1例を表している。
【2374】
図310において、図中水平方向は、空間方向の1方向であるX方向とされており、図中垂直方向は、空間方向の他方向であるY方向とされている。また、注目画素は、画素3641−1とされている。即ち、画素3641−1は、クラスタップ3621−2(図308)に対応する画素である。
【2375】
この場合、図310の例では、注目画素3641−1を中心とする5×5の画素群(総計25個の画素からなる画素群)3641が、予測タップ(群)として抽出されることになる。
【2376】
勿論、予測タップ配置は、注目画素3641−1を含む配置であれば、図310の例に限定されず、様々な配置が可能である。
【2377】
図307に戻り、ステップS3547において、補正演算部3556は、領域抽出部3555より供給された予測タップを、補正係数メモリ3554より供給された補正係数を用いて演算し、差分予測画像(HD画像)を生成し、補正画像として加算部3503に出力する。
【2378】
より詳細には、補正演算部3556は、領域抽出部3555より供給された予測タップのそれぞれをai(iは、1乃至nのうちのいずれかの整数)とし、かつ、補正係数メモリ3554より供給された補正係数のそれぞれをgiとして、上述した式(226)の右辺を演算することにより、注目画素(SD画素)におけるHD画素u’を算出し、それを補正画像(HD画像)を構成する1つの画素として加算部3503に出力する。これにより、クラス分類適応処理の補正処理は終了となる。
【2379】
次に、図311のフローチャートを参照して、学習装置(図291)の学習処理、即ち、クラス分類適応処理部3501(図290)が使用する予測係数と、クラス分類適応処理補正部3502(図299)が使用する補正係数のそれぞれを学習により生成する学習処理について説明する。
【2380】
ステップS3561において、クラス分類適応処理用学習部3521は、クラス分類適応処理部3501が使用する予測係数を生成する。
【2381】
即ち、クラス分類適応処理用学習部3521は、所定の画像を第1の教師画像(HD画像)として入力し、その第1の教師画像の解像度を下げて第1の生徒画像(SD画像)を生成する。
【2382】
そして、クラス分類適応処理用学習部3521は、クラス分類適応処理により第1の生徒画像(SD画像)から第1の教師画像(HD画像)を適切に予測することが可能な予測係数を生成し、クラス分類適応処理部3501の係数メモリ3514(図290)に記憶させる。
【2383】
なお、以下、このようなクラス分類適応処理用学習部3521が実行するステップS3561の処理を、「クラス分類適応処理用学習処理」と称する。この例の「クラス分類適応処理用学習処理」の詳細については、図312のフローチャートを参照して後述する。
【2384】
クラス分類適応処理部3501が使用する予測係数が生成されると、ステップS3562において、クラス分類適応処理補正用学習部3561は、クラス分類適応処理補正部3502が使用する補正係数を生成する。
【2385】
即ち、クラス分類適応処理補正用学習部3561は、クラス分類適応処理用学習部3521より、第1の教師画像、第1の生徒画像、および学習用予測画像(クラス分類適応処理用学習部3521により生成された予測係数を用いて、第1の教師画像を予測した画像)のそれぞれを入力する。
【2386】
次に、クラス分類適応処理補正用学習部3561は、第2の教師画像として、第1の教師画像と学習用予測画像の差分画像を生成するとともに、第2の生徒画像として、第1の生徒画像から特徴量画像を生成する。
【2387】
そして、クラス分類適応処理補正用学習部3561は、クラス分類適応処理により第2の生徒画像(SD画像)から第2の教師画像(HD画像)を適切に予測することが可能な予測係数を生成し、それを補正係数としてクラス分類適応処理補正部3502の補正係数メモリ3554に記憶させる。これにより、学習処理は終了となる。
【2388】
なお、以下、このようなクラス分類適応処理補正用学習部3561が実行するステップS3562の処理を、「クラス分類適応処理補正用学習処理」と称する。この例の「クラス分類適応処理補正用学習処理」の詳細については、図313のフローチャートを参照して後述する。
【2389】
次に、図面を参照して、この例における「クラス分類適応処理用学習処理(ステップS3561の処理)」、および、「クラス分類適応処理補正用学習処理(ステップS3562の処理)」のそれぞれの詳細について、その順番で個別に説明する。
【2390】
はじめに、図312のフローチャートを参照して、クラス分類適応処理用学習部3521(図292)が実行する「クラス分類適応処理用学習処理」の詳細について説明する。
【2391】
ステップS3581において、ダウンコンバート部3531と正規方程式生成部3536のそれぞれは、供給された所定の画像を、第1の教師画像(HD画像)として入力する。なお、第1の教師画像は、上述したように、クラス分類適応処理補正用学習部3561にも入力される。
【2392】
ステップS3582において、ダウンコンバート部3531は、入力された第1の教師画像をダウンコンバートして(解像度を落として)第1の生徒画像(SD画像)を生成し、領域抽出部3532と領域抽出部3535のそれぞれに供給するとともに、クラス分類適応処理補正用学習部3561にも出力する。
【2393】
ステップS3583において、領域抽出部3532は、供給された第1の生徒画像からクラスタップを抽出してパターン検出部3533に出力する。なお、ステップS3583の処理は、ブロックに入力される情報と、ブロックから出力される情報は厳密には違う情報であるが(以下、このような違いを、単に、入出力の違いと称する)、上述したステップS3522(図306)の処理と基本的に同様の処理である。
【2394】
ステップS3584において、パターン検出部3533は、供給されたクラスタップよりクラスコードを決定するためのパターンを検出し、クラスコード決定部3534に供給する。なお、ステップS3584の処理は、入出力の違いはあるが、上述したステップS3523(図306)の処理と基本的に同様の処理である。
【2395】
ステップS3585において、クラスコード決定部3534は、供給されたクラスタップのパターンに基づいてクラスコードを決定し、領域抽出部3535と正規方程式生成部3536のそれぞれに供給する。なお、ステップS3585の処理は、入出力の違いはあるが、上述したステップS3524(図306)の処理と基本的に同様の処理である。
【2396】
ステップS3586において、領域抽出部3535は、供給されたクラスコードに対応して、第1の生徒画像の中から予測タップを抽出し、正規方程式生成部3536と予測演算部3538のそれぞれに供給する。なお、ステップS3586の処理は、入出力の違いはあるが、上述したステップS3526(図306)の処理と基本的に同様の処理である。
【2397】
ステップS3587において、正規方程式生成部3536は、領域抽出部3535より供給された予測タップ(SD画素)、および、第1の教師画像(HD画像)を構成するHD画素のうちの所定のHD画素から、上述した式(220)(即ち、式(221))で示される正規方程式を生成し、クラスコード決定部3534より供給されたクラスコードとともに係数決定部3537に供給する。
【2398】
ステップS3588において、係数決定部3537は、供給された正規方程式を解いて予測係数を決定し、即ち、上述した式(225)の右辺を演算することで予測係数を算出し、供給されたクラスコードに対応付けて係数メモリ3514に記憶させるとともに、予測演算部3538に供給する。
【2399】
ステップS3589において、予測演算部3538は、領域抽出部3535より供給された予測タップを、係数決定部3537より供給された予測係数を用いて演算し、学習用予測画像(HD画素)を生成する。
【2400】
具体的には、予測演算部3538は、領域抽出部3535より供給された予測タップのそれぞれをci(iは、1乃至nのうちのいずれかの整数)とし、かつ、係数決定部3537より供給された予測係数のそれぞれをdiとして、上述した式(218)の右辺を演算することにより、第1の教師画像の所定のHD画素qを予測したHD画素q’を算出し、たHD画素q’を学習用予測画像の1つの画素とする。
【2401】
ステップS3590において、全ての画素について処理が施されたか否かが判定され、全ての画素について処理が施されていないと判定された場合、その処理は、ステップS3583に戻る。即ち、全ての画素の処理が終了されるまで、ステップS3583乃至S3590の処理が繰り返される。
【2402】
そして、ステップS3590において、全ての画素について処理が施されたと判定された場合、ステップS3591において、予測演算部3538は、学習予測画像(ステップS3589の処理毎に生成された各HD画素q’から構成されるHD画像)を、クラス分類適応処理補正用学習部3561に出力する。これにより、クラス分類適応処理用学習処理は終了となる。
【2403】
このように、この例においては、全ての画素の処理が終了された後、第1の教師画像を予測したHD画像である学習用予測画像がクラス分類適応処理補正用学習部3561に出力される。即ち、全てのHD画素(予測画素)が一括して出力される。
【2404】
しかしながら、全ての画素が一括して出力されることは必須ではなく、ステップS3589の処理でHD画素(予測画素)が生成される毎に、クラス分類適応処理補正用学習部3561に出力されてもよい。この場合、ステップS3591の処理は省略される。
【2405】
次に、図313のフローチャートを参照して、クラス分類適応処理補正用学習部3561(図300)が実行する「クラス分類適応処理補正用学習処理」の詳細について説明する。
【2406】
クラス分類適応処理用学習部3521より第1の教師画像(HD画像)と学習用予測画像(HD画像)が入力されると、ステップS3601において、加算部3571は、第1の教師画像から学習用予測画像を減算し、差分画像(HD画像)を生成し、それを第2の教師画像として正規方程式生成部3578に供給する。
【2407】
また、クラス分類適応処理用学習部3521より第1の生徒画像(SD画像)が入力されると、ステップS3602において、データ定常性検出部3572と実世界推定部3573は、入力された第1の生徒画像(SD画像)から特徴量画像を生成し、それを第2の生徒画像として領域抽出部3574と領域抽出部3577のそれぞれに供給する。
【2408】
即ち、データ定常性検出部3572は、第1の生徒画像に含まれるデータの定常性を検出し、その検出結果(いまの場合、角度)をデータ定常性情報として実世界推定部3573に出力する。なお、ステップS3602のデータ定常性検出部3572の処理は、入出力の違いはあるが、上述した図40のステップS101の処理と基本的に同様の処理である。
【2409】
実世界推定部3573は、入力した角度(データ定常性情報)に基づいて、実世界推定情報(いまの場合、SD画像である特徴量画像)を生成し、それを第2の生徒画像として領域抽出部3574と領域抽出部3577のそれぞれに供給する。なお、ステップS3602の実世界推定部3573の処理は、入出力の違いはあるが、上述した図40のステップS102の処理と基本的に同様の処理である。
【2410】
また、ステップS3601とS3602の処理の順番は、図313の例に限定されない。即ち、ステップS3602の処理が先に実行されてもよいし、ステップS3601とS3602の処理が同時に実行されてもよい。
【2411】
ステップS3603において、領域抽出部3574は、供給された第2の生徒画像(特徴量画像)からクラスタップを抽出してパターン検出部3575に出力する。なお、ステップS3603の処理は、入出力の違いはあるが、上述したステップS3542(図307)の処理と基本的に同様の処理である。即ち、いまの場合、図308で示される配置の画素群3621がクラスタップとして抽出される。
【2412】
ステップS3604において、パターン検出部3575は、供給されたクラスタップよりクラスコードを決定するためのパターンを検出し、クラスコード決定部3576に供給する。なお、ステップS3604の処理は、入出力の違いはあるが、上述したステップS3543(図307)の処理と基本的に同様の処理である。即ち、いまの場合、学習処理が終了されるときには、少なくとも273個のパターンが検出されることになる。
【2413】
ステップS3605において、クラスコード決定部3576は、供給されたクラスタップのパターンに基づいてクラスコードを決定し、領域抽出部3577と正規方程式生成部3578のそれぞれに供給する。なお、ステップS3605の処理は、入出力の違いはあるが、上述したステップS3544(図307)の処理と基本的に同様の処理である。即ち、いまの場合、学習処理が終了されるときには、少なくとも273個のクラスコードが決定されることになる。
【2414】
ステップS3606において、領域抽出部3577は、供給されたクラスコードに対応して、第2の生徒画像(特徴量画像)の中から予測タップを抽出し、正規方程式生成部3578に供給する。なお、ステップS3606の処理は、入出力の違いはあるが、上述したステップS3546(図307)の処理と基本的に同様の処理である。即ち、いまの場合、図310で示される配置の画素群3641が予測タップとして抽出される。
【2415】
ステップS3607において、正規方程式生成部3578は、領域抽出部3577より供給された予測タップ(SD画素)、および、第2の教師画像(HD画像である、第1の教師画像と学習用予測画像の差分画像)を構成するHD画素のうちの所定のHD画素から、上述した式(229)(即ち、式(230))で示される正規方程式を生成し、クラスコード決定部3576より供給されたクラスコードとともに補正係数決定部3579に供給する。
【2416】
ステップS3608において、補正係数決定部3579は、供給された正規方程式を解いて補正係数を決定し、即ち、上述した式(234)の右辺を演算することで補正係数を算出し、供給されたクラスコードに対応付けて補正係数メモリ3554に記憶させる。
【2417】
ステップS3609において、全ての画素について処理が施されたか否かが判定され、全ての画素について処理が施されていないと判定された場合、その処理は、ステップS3603に戻る。即ち、全ての画素の処理が終了されるまで、ステップS3603乃至S3609の処理が繰り返される。
【2418】
そして、ステップS3609において、全ての画素について処理が施されたと判定された場合、クラス分類適応処理補正用学習処理は終了となる。
【2419】
以上、説明したように、クラス分類適応補正処理手法においては、クラス分類適応処理部3501より出力された予測画像に対して、クラス分類適応処理補正部3502より出力された補正画像(差分予測画像)が加算されて出力される。
【2420】
例えば、上述した図293で示されるHD画像3541の解像度を落とした画像であるSD画像3542が入力画像とされた場合、クラス分類適応処理部3501からは、図314で示される予測画像3543が出力される。そして、この予測画像3543に、クラス分類適応処理補正部3502より出力された補正画像(図示せず)が加算されると(補正画像により補正されると)、図294で示される出力画像3651となる。
【2421】
出力画像3651、予測画像3543、および、元の画像であるHD画像3541(図293)のそれぞれを比較するに、出力画像3651は、予測画像3543よりもHD画像3541により近い画像になっていることがわかる。
【2422】
このように、クラス分類適応処理補正手法においては、クラス分類適応処理を含む従来の他の手法に比較して、元の画像(センサ2に入射される前の実世界1の信号)により近い画像の出力が可能になる。
【2423】
換言すると、クラス分類適応処理補正手法においては、例えば、図289のデータ定常性検出部101が、それぞれ時空間積分効果を有する、センサ(例えば、図289のセンサ2)の複数の検出素子により図289の実世界1の光信号が射影され、現実世界の光信号の定常性の一部が欠落した、検出素子により射影された画素値を有する複数の画素からなる入力画像(図289)におけるデータの定常性を検出する。
【2424】
例えば、図289の実世界推定部102は、検出されたデータの定常性に対応して、実世界1の光信号を表す光信号関数F(x)(図298)が有する実世界特徴(例えば、図289の特徴量画像を構成する画素に対応する特徴量)を検出することで、実世界1の光信号を推定する。
【2425】
詳細には、例えば、実世界推定部102は、出されたデータの定常性に対応する線(例えば、図303の線3604)からの少なくとも1次元方向に沿った距離(例えば、図303の断面方向距離Xn’)に対応する画素の画素値が、少なくとも1次元方向の積分効果により取得された画素値であるとして、光信号関数F(x)を、例えば、図301の近似関数f5(x)で近似し、所定画素(例えば、図303の画素3603)内における近似関数f5(x)の傾斜である画素内傾斜(例えば、上述した式(234)のgradであり、式(236)のxの係数w1‘)を、実世界特徴として検出することで、実世界1の光信号を推定する。
【2426】
そして、例えば、図289の画像生成部103が、実世界推定手段により検出された実世界特徴に基いて、入力画像よりも高質な出力画像(図289)を予測し生成する。
【2427】
詳細には、例えば、画像生成部103において、例えば、図289のクラス分類適応処理部3501が、出力画像における注目画素の周辺に位置する、実世界1の光信号の定常性が欠落した入力画像内の複数の画素の画素値から注目画素の画素値(例えば、図289の予測画像の画素であり、上述した式(224)のq’)を予測する。
【2428】
一方、例えば、図289のクラス分類適応処理補正部3502は、例えば、図289の実世界推定部102より供給された特徴量画像(実世界推定情報)から、クラス分類適応処理部3501により予測された予測画像の注目画素の画素値を補正する補正項(例えば、図289の補正画像(差分予測画像)の画素であり、式(227)のu‘)を予測する。
【2429】
そして、例えば、図289の加算部3503は、クラス分類適応処理部3501により予測された予測画像の注目画素の画素値を、クラス分類適応処理部3501により予測された補正項で補正する(例えば、式(224)のように演算する)。
【2430】
また、クラス分類適応処理補正手法においては、例えば、図290の係数メモリ3514に記憶される予測係数を学習により決定する図291のクラス分類適応処理学習部3521と、例えば、図299の補正係数メモリ3554に記憶される補正係数を学習により決定する図291のクラス分類適応処理補正用学習部3561を有する図291の学習装置3504が設けられている。
【2431】
詳細には、例えば、図292のクラス分類適応処理学習部3521には、学習用画像データをダウンコンバートするダウンコンバート部3531、並びに、学習用画像データを第1の教師画像とし、ダウンコンバート部3531によりダウンコンバートされた学習用画像データを第1の生徒画像とし、第1の教師画像と第1の生徒画像の関係を学習することにより、予測係数を生成する係数決定部3537、および、領域抽出部3532乃至正規方程式生成部3536が設けられている。
【2432】
クラス分類適応処理学習部3521にはさらに、例えば、係数決定部3537により生成(決定)された予測係数を使用して、第1の生徒画像から第1の教師画像を予測する画像データとして、学習用予測画像を生成する予測演算部3538が設けられている。
【2433】
また、例えば、図300のクラス分類適応処理補正用学習部3561には、第1の生徒画像におけるデータの定常性を検出し、検出したデータの定常性に基づいて、第1の生徒画像を構成する各画素のそれぞれに対応する実世界特徴を検出し、検出した実世界特徴に対応する値を画素値とする特徴量画像(具体的には、例えば、図302の特徴量画像3591)を、第2の生徒画像(例えば、図300の第2の生徒画像)として生成するデータ定常性検出部3572および実世界推定部3573、第1の教師画像と、学習用予測画像の差分からなる画像データ(差分画像)を、第2教師画像として生成する加算部3571、並びに、第2の教師画像と、第2の生徒画像の関係を学習することにより、補正係数を生成する補正係数決定部3579、および領域抽出部3574乃至正規方程式生成部3578が設けられている。
【2434】
従って、クラス分類適応処理補正手法においては、クラス分類適応処理を含む従来の他の手法に比較して、元の画像(センサ2に入射される前の実世界1の信号)により近い画像の出力が可能になる。
【2435】
なお、クラス分類適応処理は、上述したように、SD画像には含まれていないが、HD画像に含まれる成分が再現される点で、例えば、単なる補間処理とは異なる。即ち、上述した式(218)や式(226)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一に見えるが、クラス分類適応処理では、その補間フィルタの係数に相当する予測係数diまたは補足係数giが、教師データと生徒データ(第1の教師画像と第1の生徒画像、または、第2の教師画像と第2の生徒画像)を用いての学習により求められるため、HD画像に含まれる成分を再現することができる。このことから、上述したようなクラス分類適応処理は、いわば画像の創造(解像度創造)作用がある処理と称することができる。
【2436】
さらに、上述した例では、空間解像度を向上させる場合を例にして説明したが、クラス分類適応処理によれば、教師データおよび生徒データを変えて学習を行うことにより得られる種々の係数を用いることで、例えば、S/N(Signal to Noise Ratio) の向上や、ぼけの改善、その他の各種の処理を行うことが可能である。
【2437】
即ち、例えば、S/Nの向上やぼけの改善を、クラス分類適応処理によって行うには、S/Nの高い画像データを教師データとするとともに、その教師データのS/Nを低下させた画像(あるいは、ぼかした画像)を生徒データとして、係数を求めればよい。
【2438】
以上、本発明の実施の形態として、図3の構成の信号処理装置について説明したが、本発明の実施の形態は、図3の例に限定されず、様々な形態を取ることが可能である。即ち、図1の信号処理装置4の実施の形態は、図3の例に限定されず、様々な形態を取ることが可能である。
【2439】
例えば、図3の構成の信号処理装置は、画像である、実世界1の信号が有する定常性に基づいて信号処理を行う。このため、図3の構成の信号処理装置は、実世界1の信号のうちの定常性が存在する部分に対しては、他の信号処理装置の信号処理に比べて、精度のよい信号処理を実行することができ、その結果、より実世界1の信号に近い画像データを出力することが可能になる。
【2440】
しかしながら、図3の構成の信号処理装置は、定常性に基づいて信号処理を実行する以上、実世界1の信号のうちの明確な定常性が存在しない部分に対しては、定常性が存在する部分に対する処理と同等の精度で、信号処理を実行することができず、その結果、実世界1の信号に対して誤差を含む画像データを出力することになる。
【2441】
そこで、図3の構成の信号処理装置に対してさらに、定常性を利用しない他の信号処理を行う装置(または、プログラム等)を付加することができる。この場合、実世界1の信号のうちの定常性が存在する部分については、図3の構成の信号処理装置が信号処理を実行し、実世界1の信号のうちの明確な定常性が存在しない部分については、付加した他の装置(または、プログラム等)が信号処理を実行することになる。なお、以下、このような実施形態を併用手法と称する。
【2442】
以下、図315乃至図328を参照して、具体的な5つの併用手法(以下、それぞれの併用手法を、第1乃至第5の併用手法と称する)について説明する。
【2443】
なお、各併用手法が適用される信号処理装置の各機能をハードウェアで実現するか、ソフトウェアで実現するかは問わない。つまり、後述する図315乃至図317、図321、図323、図325、および図327のそれぞれのブロック図は、ハードウェアのブロック図と考えても、ソフトウェアによる機能ブロック図と考えても良い。
【2444】
図315は、第1の併用手法が適用される信号処理装置の構成例を表している。
【2445】
図315の信号処理装置においては、データ3(図1)の一例である画像データが入力され、入力された画像データ(入力画像)に基づいて、後述する画像処理が施されて画像が生成され、生成された画像(出力画像)が出力される。即ち、図315は、画像処理装置である信号処理装置4(図1)の構成を示す図である。
【2446】
信号処理装置4に入力された入力画像(データ3の一例である画像データ)は、データ定常性検出部4101、実世界推定部4102、および画像生成部4104のそれぞれに供給される。
【2447】
データ定常性検出部4101は、入力画像からデータの定常性を検出して、検出した定常性を示すデータ定常性情報を実世界推定部4102および画像生成部4103に供給する。
【2448】
このように、データ定常性検出部4101は、図3のデータ定常性検出部101と基本的に同様の構成と機能を有するものである。従って、データ定常性検出部4101は、上述した様々な実施の形態を取ることが可能である。
【2449】
ただし、データ定常性検出部4101はさらに、注目画素の領域を特定するための情報(以下、領域特定情報と称する)を生成し、領域検出部4111に供給する。
【2450】
この領域特定情報は、特に限定されず、データ定常性情報が生成された後に新たに生成された情報でもよいし、データ定常性情報が生成される場合に付帯して生成される情報でもよい。
【2451】
具体的には、例えば、領域特定情報として、推定誤差が使用可能である。即ち、例えば、データ定常性検出部4101が、データ定常性情報として角度を算出し、かつ、その角度を最小自乗法により演算する場合、最小自乗法の演算で推定誤差が付帯的に算出される。この推定誤差が、領域特定情報として使用可能である。
【2452】
実世界推定部4102は、入力画像、およびデータ定常性検出部4101から供給されたデータ定常性情報に基づいて、実世界1(図1)の信号を推定する。即ち、実世界推定部4102は、入力画像が取得されたときセンサ2(図1)に入射された、実世界1の信号である画像を推定する。実世界推定部4102は、実世界1の信号の推定の結果を示す実世界推定情報を画像生成部4103に供給する。
【2453】
このように、実世界推定部4102は、図3の実世界推定部102と基本的に同様の構成と機能を有するものである。従って、実世界推定部4102は、上述した様々な実施の形態を取ることが可能である。
【2454】
画像生成部4103は、実世界推定部4102から供給された、推定された実世界1の信号を示す実世界推定情報に基づいて、実世界1の信号により近似した信号を生成して、生成した信号をセレクタ4112に供給する。または、画像生成部4103は、データ定常性検出部4101から供給されたデータ定常性情報、および実世界推定部4102から供給された、推定された実世界1の信号を示す実世界推定情報に基づいて、実世界1の信号により近似した信号を生成して、生成した信号をセレクタ4112に供給する。
【2455】
即ち、画像生成部4103は、実世界推定情報に基づいて、実世界1の画像により近似した画像を生成し、セレクタ4112に供給する。または、画像生成部4103は、データ定常性情報、および実世界推定情報に基づいて、実世界1の画像により近似した画像を生成し、セレクタ4112に供給する。
【2456】
このように、画像生成部4103は、図3の画像生成部103と基本的に同様の構成と機能を有するものである。従って、画像生成部4103は、上述した様々な実施の形態を取ることが可能である。
【2457】
画像生成部4104は、入力画像に対して所定の画像処理を施して、画像を生成し、セレクタ4112に供給する。
【2458】
なお、画像生成部4104が実行する画像処理は、データ定常性検出部4101、実世界推定部4102、および画像生成部4103が実行する画像処理とは異なる画像処理であれば、特に限定されない。
【2459】
例えば、画像生成部4104は、従来のクラス分類適応処理を行うことができる。このクラス分類適応処理を実行する画像生成部4104の構成例が、図316に示されている。なお、図316の説明、即ち、クラス分類適応処理を実行する画像生成部4104の詳細の説明については後述する。また、クラス分類適応処理についても、図316の説明をするときに併せて説明する。
【2460】
定常領域検出部4105には、領域検出部4111、およびセレクタ4112が設けられている。
【2461】
領域検出部4111は、データ定常性検出部4101より供給された領域特定情報に基づいて、セレクタ4112に供給された画像(注目画素)が、定常領域であるか、或いは非定常領域であるかを検出し、その検出結果をセレクタ4112に供給する。
【2462】
なお、領域検出部4111が実行する領域検出の処理は、特に限定されず、例えば、上述した推定誤差が領域特定情報として供給される場合、領域検出部4111は、供給された推定誤差が所定の閾値よりも小さいとき、入力画像の注目画素は定常領域であると検出し、一方、供給された推定誤差が所定の閾値以上であるとき、入力画像の注目画素は非定常領域であると検出する。
【2463】
セレクタ4112は、領域検出部4111より供給された検出結果に基づいて、画像生成部4103より供給された画像、または、画像生成部4104より供給された画像のうちのいずれか一方を選択し、選択した画像を出力画像として外部に出力する。
【2464】
即ち、領域検出部4111により注目画素が定常領域であると検出された場合、セレクタ4112は、画像生成部4103より供給された画像(入力画像の注目画素における、画像生成部4103により生成された画素)を出力画像として選択する。
【2465】
これに対して、領域検出部4111により注目画素が非定常領域であると検出された場合、セレクタ4112は、画像生成部4104より供給された画像(入力画像の注目画素における、画像生成部4104により生成された画素)を出力画像として選択する。
【2466】
なお、外部の出力先に応じて、セレクタ4112は、画素単位で、出力画像を出力する(選択した画素毎に出力する)こともできるし、全ての画素の処理が終了するまで処理済みの画素を格納しておき、全ての画素の処理が終了したとき、全ての画素を一括して(出力画像全体を1単位として)出力することもできる。
【2467】
次に、図316を参照して、画像処理の1例であるクラス分類適応処理を実行する画像生成部4104の詳細について説明する。
【2468】
図316において、画像生成部4104が実行するクラス分類適応処理は、例えば、入力画像の空間解像度を向上する処理であるとする。即ち、標準解像度の画像である入力画像を、高解像度の画像である予測画像に変換する処理であるとする。
【2469】
なお、以下の説明においても、標準解像度の画像を、適宜、SD(Standard Definition)画像と称するとともに、SD画像を構成する画素を、適宜、SD画素と称することにする。
【2470】
また、以下の説明においても、高解像度の画像を、適宜、HD(High Definition)画像と称するとともに、HD画像を構成する画素を、適宜、HD画素と称することにする。
【2471】
具体的には、画像生成部4104が実行するクラス分類適応処理とは、次のようなものである。
【2472】
即ち、はじめに、入力画像(SD画像)の注目画素(SD画素)における、予測画像(HD画像)のHD画素を求めるために、注目画素を含めた、その付近に配置されるSD画素(以下の説明においても、このようなSD画素を、クラスタップと称することにする)の特徴量のそれぞれを求めて、その特徴量毎に予め分類されたクラスを特定する(クラスタップ群のクラスコードを特定する)。
【2473】
そして、予め設定された複数の係数群(各係数群のそれぞれは、所定の1つのクラスコードに対応している)のうちの、特定されたクラスコードに対応する係数群を構成する各係数と、注目画素を含めた、その付近のSD画素(以下の説明においても、このような入力画像のSD画素を、予測タップと称することにする。なお、予測タップは、クラスタップと同じこともある)とを用いて積和演算を実行することで、入力画像(SD画像)の注目画素(SD画素)における、予測画像(HD画像)のHD画素を求めるものである。
【2474】
より詳細には、図1において、画像である、実世界1の信号(光の強度の分布)がセンサ2に入射されると、センサ2からは入力画像が出力される。
【2475】
図316において、この入力画像(SD画像)は、画像生成部4104のうちの領域抽出部4121と領域抽出部4125にそれぞれ供給される。領域抽出部4125は、供給された入力画像から、クラス分類を行うために必要なクラスタップ(注目画素(SD画素)を含む予め設定された位置に存在するSD画素)を抽出し、パターン検出部4122に出力する。パターン検出部4122は、入力されたクラスタップに基づいて入力画像のパターンを検出する。
【2476】
クラスコード決定部4123は、パターン検出部4122で検出されたパターンに基づいてクラスコードを決定し、係数メモリ4124、および、領域抽出部4125に出力する。係数メモリ4124は、学習により予め求められたクラスコード毎の係数を記憶しており、クラスコード決定部4123より入力されたクラスコードに対応する係数を読み出し、予測演算部4126に出力する。
【2477】
なお、係数メモリ4124の係数の学習処理については、図317の学習装置のブロック図を参照して後述する。
【2478】
また、係数メモリ4124に記憶される係数は、後述するように、予測画像(HD画像)を生成するときに使用される係数である。従って、以下、係数メモリ4124に記憶される係数を予測係数と称する。
【2479】
領域抽出部4125は、クラスコード決定部4123より入力されたクラスコードに基づいて、センサ2より入力された入力画像(SD画像)から、予測画像(HD画像)を予測生成するのに必要な予測タップ(注目画素を含む予め設定された位置に存在するSD画素)をクラスコードに対応して抽出し、予測演算部4126に出力する。
【2480】
予測演算部4126は、領域抽出部4125より入力された予測タップと、係数メモリ4124より入力された予測係数とを用いて積和演算を実行し、入力画像(SD画像)の注目画素(SD画素)における、予測画像(HD画像)のHD画素を生成し、セレクタ4112に出力する。
【2481】
より詳細には、係数メモリ4124は、クラスコード決定部4123より供給されるクラスコードに対応する予測係数を、予測演算部4126に出力する。予測演算部4126は、領域抽出部4125より供給される入力画像の所定の画素位置の画素値から抽出された予測タップと、係数メモリ4124より供給された予測係数とを用いて、次の式(240)で示される積和演算を実行することにより、予測画像(HD画像)のHD画素を求める(予測推定する)。
【2482】
【数190】
【2483】
式(240)において、q’は、予測画像(HD画像)のHD画素を表している。ci(iは、1乃至nの整数値)のそれぞれは、予測タップ(SD画素)のそれぞれを表している。また、d iのそれぞれは、予測係数のそれぞれを表している。
【2484】
このように、画像生成部4104は、SD画像(入力画像)から、それに対するHD画像を予測推定するので、ここでは、画像生成部4104から出力されるHD画像を、予測画像と称している。
【2485】
図317は、このような画像生成部4104の係数メモリ4124に記憶される予測係数(式(237)におけるd i)を決定するための学習装置(予測係数の算出装置)を表している。
【2486】
図317において、所定の画像が、教師画像(HD画像)としてダウンコンバート部4141と正規方程式生成部4146のそれぞれに入力される。
【2487】
ダウンコンバート部4146は、入力された教師画像(HD画像)から、教師画像よりも解像度の低い生徒画像(SD画像)を生成し(教師画像をダウンコンバートしたものを生徒画像とし)、領域抽出部4142と領域抽出部4145のそれぞれに出力する。
【2488】
このように、学習装置4131には、ダウンコンバート部4141が設けられているので、教師画像(HD画像)は、センサ2(図1)からの入力画像よりも高解像度の画像である必要は無い。なぜならば、教師画像がダウンコンバートされた(解像度が下げられた)生徒画像をSD画像とすれば、生徒画像に対する教師画像がHD画像になるからである。従って、教師画像は、例えば、センサ2からの入力画像そのものとされてもよい。
【2489】
領域抽出部4142は、ダウンコンバート部4141より供給された生徒画像(SD画像)から、クラス分類を行うために必要なクラスタップ(SD画素)を抽出し、パターン検出部4143に出力する。パターン検出部4143は、入力されたクラスタップのパターンを検出し、その検出結果をクラスコード決定部4144に出力する。クラスコード決定部4144は、入力されたパターンに対応するクラスコードを決定し、そのクラスコードを領域抽出部4145、および、正規方程式生成部4146のそれぞれに出力する。
【2490】
領域抽出部4145は、クラスコード決定部4144より入力されたクラスコードに基づいて、ダウンコンバート部4141より入力された生徒画像(SD画像)から予測タップ(SD画素)を抽出し、正規方程式生成部4146に出力する。
【2491】
なお、以上の領域抽出部4142、パターン検出部4143、クラスコード決定部4144、および領域抽出部4145のそれぞれは、図316の画像生成部4104の領域抽出部4121、パターン検出部4122、クラスコード決定部4123、および、領域抽出部4125のそれぞれと、基本的に同様の構成と機能を有するものである。
【2492】
正規方程式生成部4146は、クラスコード決定部4144より入力された全てのクラスコードに対して、クラスコード毎に、領域抽出部4145より入力される生徒画像(SD画像)の予測タップ(SD画素)と、教師画像(HD画像)のHD画素とから正規方程式を生成し、係数決定部4147に供給する。
【2493】
係数決定部4147は、正規方程式生成部4146より所定のクラスコードに対応する正規方程式が供給されてきたとき、その正規方程式より予測係数のそれぞれを演算し、係数メモリ4124にクラスコードと関連付けて記憶させる。
【2494】
正規方程式生成部4146と、係数決定部4147についてさらに詳しく説明する。
【2495】
上述した式(240)において、学習前は予測係数diのそれぞれが未定係数である。学習は、クラスコード毎に複数の教師画像(HD画像)のHD画素を入力することによって行う。所定のクラスコードに対応するHD画素がm個存在し、m個のHD画素のそれぞれを、qk(kは、1乃至mの整数値)と記述する場合、式(240)から、次の式(241)が設定される。
【2496】
【数191】
【2497】
即ち、式(241)は、右辺の演算をすることで、所定のHD画素qkを予測推定することができることを表している。なお、式(241)において、ekは、誤差を表している。即ち、右辺の演算結果である予測画像(HD画像)のHD画素qk’が、実際のHD画素qkと厳密には一致せず、所定の誤差ekを含む。
【2498】
そこで、式(241)において、誤差ekの自乗和を最小にする予測係数diが学習により求まれば、その予測係数diは、実際のHD画素qkを予測するのに最適な係数であると言える。
【2499】
従って、例えば、学習により集められたm個(ただし、mは、nより大きい整数)のHD画素qkを用いて、最小自乗法により最適な予測係数diを一意に決定することができる。
【2500】
即ち、式(241)の右辺の予測係数diを最小自乗法で求める場合の正規方程式は、次の式(242)で表される。
【2501】
【数192】
【2502】
従って、式(242)で示される正規方程式が生成されれば、その正規方程式を解くことで予測係数diが一意に決定されることになる。
【2503】
具体的には、式(242)で示される正規方程式の各行列のそれぞれを、次の式(243)乃至(245)のように定義すると、正規方程式は、次の式(246)のように表される。
【2504】
【数193】
【2505】
【数194】
【2506】
【数195】
【2507】
【数196】
【2508】
式(244)で示されるように、行列DMATの各成分は、求めたい予測係数diである。従って、式(246)において、左辺の行列CMATと右辺の行列QMATが決定されれば、行列解法によって行列DMAT(即ち、予測係数di)の算出が可能である。
【2509】
より具体的には、式(243)で示されるように、行列CMATの各成分は、予測タップcikが既知であれば演算可能である。予測タップcikは、領域抽出部4145により抽出されるので、正規方程式生成部4146は、領域抽出部4145より供給されてくる予測タップcikのそれぞれを利用して行列CMATの各成分を演算することができる。
【2510】
また、式(245)で示されるように、行列QMATの各成分は、予測タップcikとHD画素qkが既知であれば演算可能である。予測タップcikは、行列CMATの各成分に含まれるものと同一のものであり、また、HD画素qkは、予測タップcikに含まれる注目画素(生徒画像のSD画素)に対する教師画像のHD画素である。従って、正規方程式生成部4146は、領域抽出部4145より供給された予測タップcikと、教師画像を利用して行列QMATの各成分を演算することができる。
【2511】
このようにして、正規方程式生成部4146は、クラスコード毎に、行列CMATと行列QMATの各成分を演算し、その演算結果をクラスコードに対応付けて係数決定部4147に供給する。
【2512】
係数決定部4147は、供給された所定のクラスコードに対応する正規方程式に基づいて、上述した式(246)の行列DMATの各成分である予測係数diを演算する。
【2513】
具体的には、上述した式(246)の正規方程式は、次の式(247)のように変形できる。
【2514】
【数197】
【2515】
式(247)において、左辺の行列DMATの各成分が、求めたい予測係数diである。また、行列CMATと行列QMATのそれぞれの各成分は、正規方程式生成部4146より供給されるものである。従って、係数決定部4147は、正規方程式生成部4146より所定のクラスコードに対応する行列CMATと行列QMATのそれぞれの各成分が供給されてきたとき、式(247)の右辺の行列演算を行うことで行列DMATを演算し、その演算結果(予測係数di)をクラスコードに対応付けて係数メモリ4124に記憶させる。
【2516】
なお、クラス分類適応処理は、上述したように、SD画像には含まれていないが、HD画像に含まれる成分が再現される点で、例えば、単なる補間処理とは異なる。即ち、適応処理では、上述した式(240)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一に見えるが、その補間フィルタの係数に相当する予測係数diが、教師データと生徒データを用いての学習により求められるため、HD画像に含まれる成分を再現することができる。このことから、上述したようなクラス分類適応処理は、いわば画像の創造(解像度創造)作用がある処理と称することができる。
【2517】
さらに、上述した例では、空間解像度を向上させる場合を例にして説明したが、クラス分類適応処理によれば、教師データおよび生徒データを変えて学習を行うことにより得られる種々の係数を用いることで、例えば、S/N(Signal to Noise Ratio) の向上や、ぼけの改善、その他の各種の処理を行うことが可能である。
【2518】
即ち、例えば、S/Nの向上やぼけの改善を、クラス分類適応処理によって行うには、S/Nの高い画像データを教師データとするとともに、その教師データのS/Nを低下させた画像(あるいは、ぼかした画像)を生徒データとして、係数を求めればよい。
【2519】
以上、クラス分類適応処理を実行する画像生成部4104と、その学習装置4131のそれぞれの構成について説明した。
【2520】
なお、上述したように、画像生成部4104は、クラス分類適応処理以外の画像処理を実行する構成とすることも可能であるが、説明の簡略上、以下の説明においては、画像生成部4104の構成は、上述した図316の構成とされる。即ち、以下、画像生成部4104は、クラス分類適応処理を実行することで、入力画像より空間解像度の高い画像を生成し、セレクタ4112に供給するとする。
【2521】
次に、図318を参照して、第1の併用手法が適用される信号処理装置(図315)の信号の処理について説明する。
【2522】
なお、ここでは、データ定常性検出部4101は、角度(画像である、実世界1(図1)の信号の注目位置における、定常性の方向(空間方向)と、空間方向の1方向であるX方向(センサ2(図1)の検出素子の所定の一辺と平行な方向)とのなす角度)を最小自乗法により演算し、演算した角度をデータ定常性情報として出力するとする。
【2523】
データ定常性検出部4101はまた、角度を演算するときに併せて算出される推定誤差(最小自乗法の誤差)を、領域特定情報として出力するとする。
【2524】
図1において、画像である、実世界1の信号がセンサ2に入射されると、センサ2からは入力画像が出力される。
【2525】
図315において、この入力画像は、データ定常性検出部4101、および実世界推定部4102に入力されるとともに、画像生成部4104に入力される。
【2526】
そこで、図318のステップS4101において、画像生成部4104は、入力画像(SD画像)の所定のSD画素を注目画素として、上述したクラス分類適応処理を実行し、予測画像(HD画像)のHD画素(注目画素におけるHD画素)を生成し、セレクタ4112に供給する。
【2527】
なお、以下、画像生成部4104より出力される画素と、画像生成部4103より出力される画素のそれぞれを区別する場合、画像生成部4104より出力される画素を第1の画素と称し、画像生成部4103より出力される画素を第2の画素と称する。
【2528】
また、以下、このような画像生成部4104が実行する処理(いまの場合、ステップS4101の処理)を、「クラス分類適応処理の実行処理」と称する。この例の「クラス分類適応処理の実行処理」の詳細については、図319のフローチャートを参照して後述する。
【2529】
一方、ステップS4102において、データ定常性検出部4101は、定常性の方向に対応する角度を検出するとともに、その推定誤差を演算する。検出された角度は、データ定常性情報として実世界推定部4102と画像生成部4103のそれぞれに供給される。また、演算された推定誤差は、領域特定情報として領域検出部4111に供給される。
【2530】
ステップS4103において、実世界推定部4102は、データ定常性検出部4101により検出された角度と、入力画像に基づいて、実世界1の信号を推定する。
【2531】
なお、上述したように、実世界推定部4102が実行する推定の処理は、特に限定されず、上述した様々な手法を利用することができる。ここでは、例えば、実世界推定部4102は、実世界1の信号を表す関数F(以下の説明においても、関数Fを光信号関数Fと称することにする)を、所定の関数f(以下の説明においても、関数fを近似関数fと称することにする)で近似することで、実世界1の信号(光信号関数F)を推定するとする。
【2532】
また、ここでは、例えば、実世界推定部4102は、近似関数fの特徴量(係数)を、実世界推定情報として画像生成部4103に供給するとする。
【2533】
ステップS4104において、画像生成部4103は、実世界推定部4102により推定された実世界1の信号に基づいて、画像生成部4104のクラス分類適応処理により生成された第1の画素(HD画素)に対応する第2の画素(HD画素)を生成し、セレクタ4112に供給する。
【2534】
いまの場合、実世界推定部4102より近似関数fの特徴量(係数)が供給されてくるので、画像生成部4103は、例えば、供給された近似関数fの特徴量に基づいて、近似関数fを所定の積分範囲で積分することで、第2の画素(HD画素)を生成する。
【2535】
ただし、積分範囲は、画像生成部4104より出力される第1の画素(HD画素)と同一の大きさ(同一の解像度)の第2の画素が生成可能な範囲とされる。即ち、空間方向においては、積分範囲は、これから生成される第2の画素の画素幅となる。
【2536】
なお、ステップS4101の「クラス分類適応処理の実行処理」と、ステップS4102乃至S4104の一連の処理の順番は、図318の例に限定されず、ステップS4102乃至S4104の一連の処理が先に実行されても構わないし、ステップS4101の「クラス分類適応処理の実行処理」と、ステップS4102乃至S4104の一連の処理が同時に実行されても構わない。
【2537】
ステップS4105において、領域検出部4111は、ステップS4102の処理でデータ定常性検出部4101により演算された推定誤差(領域特定情報)に基づいて、ステップS4104の処理で画像生成部4103により生成された第2の画素(HD画素)の領域を検出する。
【2538】
即ち、第2の画素は、データ定常性検出部4101が注目画素として使用した入力画像のSD画素におけるHD画素である。従って、注目画素(入力画像のSD画素)と第2の画素(HD画素)の領域の種類(定常領域、または非定常領域)は同一である。
【2539】
また、データ定常性検出部4101が出力する領域特定情報は、注目画素における角度が最小自乗法により算出された場合の推定誤差である。
【2540】
そこで、領域検出部4111は、データ定常性検出部4101より供給された注目画素(入力画像のSD画素)に対する推定誤差と、予め設定された閾値を比較し、その比較の結果が、推定誤差が閾値よりも小さい場合、第2の画素は定常領域であると検出し、一方、推定誤差が閾値以上である場合、第2の画素は非定常領域であると検出する。そして、検出結果は、セレクタ4112に供給される。
【2541】
この領域検出部4111の検出結果がセレクタ4112に供給されると、ステップS4106において、セレクタ4112は、検出された領域が、定常領域であるか否かを判定する。
【2542】
ステップS4106において、検出された領域が、定常領域であると判定した場合、セレクタ4112は、ステップS4107において、画像生成部4103より供給された第2の画素を、出力画像として外部に出力する。
【2543】
これに対して、ステップS4106において、検出された領域が、定常領域ではない(非定常領域である)と判定した場合、セレクタ4112は、ステップS4108において、画像生成部4104より供給された第1の画素を、出力画像として外部に出力する。
【2544】
その後、ステップS4109において、全画素の処理を終了したか否かが判定され、全画素の処理がまだ終了していないと判定された場合、その処理は、ステップS4101に戻る。即ち、全ての画素の処理が終了されるまで、ステップS4101乃至S4109の処理が繰り返される。
【2545】
そして、ステップS4109において、全画素の処理を終了したと判定された場合、その処理は終了となる。
【2546】
このように、図318のフローチャートの例においては、第1の画素(HD画素)と第2の画素(HD画素)が生成される毎に、出力画像として第1の画素または第2の画素が画素単位で出力される。
【2547】
しかしながら、上述したように、画素単位で出力されることは必須ではなく、全ての画素の処理が終了された後、出力画像として、全ての画素が一括して出力されてもよい。この場合、ステップS4107とステップS4108のそれぞれの処理においては、画素(第1の画素または第2の画素)は出力されずに、セレクタ4112に一次格納され、ステップS4109の処理の後、全ての画素を出力する処理が追加される。
【2548】
次に、図319のフローチャートを参照して、図316の構成の画像生成部4104が実行する「クラス分類適応処理の実行処理」(例えば、上述した図318のステップS4101の処理)の詳細について説明する。
【2549】
センサ2からの入力画像(SD画像)が画像生成部4104に入力されると、ステップS4121において、領域抽出部4121と領域抽出部4125のそれぞれは、入力画像を入力する。
【2550】
ステップS4122において、領域抽出部4121は、入力画像の中から、注目画素(SD画素)、および、予め設定された注目画素からの相対位置(1以上の位置)のそれぞれに位置する画素(SD画素)を、クラスタップとして抽出し、パターン検出部4122に供給する。
【2551】
ステップS4123において、パターン検出部4122は、供給されたクラスタップのパターンを検出し、クラスコード決定部4123に供給する。
【2552】
ステップS4124において、クラスコード決定部4123は、予め設定されている複数のクラスコードの中から、供給されたクラスタップのパターンに適合するクラスコードを決定し、係数メモリ4124と領域抽出部4125のそれぞれに供給する。
【2553】
ステップS4125において、係数メモリ4124は、供給されたクラスコードに基づいて、予め学習処理により決定された複数の予測係数(群)の中から、これから使用する予測係数(群)を読み出し、予測演算部4126に供給する。
【2554】
なお、学習処理については、図320のフローチャートを参照して後述する。
【2555】
ステップS4126において、領域抽出部4125は、供給されたクラスコードに対応して、入力画像の中から、注目画素(SD画素)、および、予め設定された注目画素からの相対位置(1以上の位置であって、クラスタップの位置とは独立して設定された位置。ただし、クラスタップの位置と同一の位置でもよい)のそれぞれに位置する画素(SD画素)を、予測タップとして抽出し、予測演算部4126に供給する。
【2556】
ステップS4127において、予測演算部4126は、領域抽出部4125より供給された予測タップを、係数メモリ4124より供給された予測係数を用いて演算し、予測画像(第1の画素)を生成して外部(図315の例では、セレクタ4112)に出力する。
【2557】
具体的には、予測演算部4126は、領域抽出部4125より供給された予測タップのそれぞれをci(iは、1乃至nのうちのいずれかの整数)とし、かつ、係数メモリ4124より供給された予測係数のそれぞれをdiとして、上述した式(240)の右辺を演算することにより、注目画素(SD画素)におけるHD画素q’を算出し、それを予測画像(HD画像)の所定の1つの画素(第1の画素)として外部に出力する。その後、処理は終了となる。
【2558】
次に、図320のフローチャートを参照して、画像生成部4104に対する学習装置4131(図317)が実行する学習処理(画像生成部4104が使用する予測係数を学習により生成する処理)について説明する。
【2559】
ステップS4141において、ダウンコンバート部4141と正規方程式生成部4146のそれぞれは、供給された所定の画像を、教師画像(HD画像)として入力する。
【2560】
ステップS4142において、ダウンコンバート部4141は、入力された教師画像をダウンコンバートして(解像度を落として)生徒画像(SD画像)を生成し、領域抽出部4142と領域抽出部4145のそれぞれに供給する。
【2561】
ステップS4143において、領域抽出部4142は、供給された生徒画像からクラスタップを抽出してパターン検出部4143に出力する。なお、ステップS4143の処理は、上述したステップS4122(図319)の処理と基本的に同様の処理である。
【2562】
ステップS4144において、パターン検出部4143は、供給されたクラスタップよりクラスコードを決定するためのパターンを検出し、クラスコード決定部4144に供給する。なお、ステップS4144の処理は、上述したステップS4123(図319)の処理と基本的に同様の処理である。
【2563】
ステップS4145において、クラスコード決定部4144は、供給されたクラスタップのパターンに基づいてクラスコードを決定し、領域抽出部4145と正規方程式生成部4146のそれぞれに供給する。なお、ステップS4145の処理は、上述したステップS4124(図319)の処理と基本的に同様の処理である。
【2564】
ステップS4146において、領域抽出部4145は、供給されたクラスコードに対応して、生徒画像の中から予測タップを抽出し、正規方程式生成部4146に供給する。なお、ステップS4146の処理は、上述したステップS4126(図319)の処理と基本的に同様の処理である。
【2565】
ステップS4147において、正規方程式生成部4146は、領域抽出部4145より供給された予測タップ(SD画素)、および、教師画像(HD画像)の所定のHD画素から、上述した式(242)(即ち、式(243))で示される正規方程式を生成し、生成した正規方程式と、クラスコード決定部4144より供給されたクラスコードを関連付けて係数決定部4147に供給する。
【2566】
ステップS4148において、係数決定部4147は、供給された正規方程式を解いて予測係数を決定し、即ち、上述した式(247)の右辺を演算することで予測係数を算出し、供給されたクラスコードに対応付けて係数メモリ4124に記憶させる。
【2567】
その後、ステップS4149において、全ての画素について処理が施されたか否かが判定され、全ての画素について処理が施されていないと判定された場合、その処理は、ステップS4143に戻る。即ち、全ての画素の処理が終了されるまで、ステップS4143乃至S4149の処理が繰り返される。
【2568】
そして、ステップS4149において、全ての画素について処理が施されたと判定された場合、処理は終了となる。
【2569】
次に、図321と図322を参照して、第2の併用手法について説明する。
【2570】
図321は、第2の併用手法が適用される信号処理装置の構成例を表している。
【2571】
図321において、第1の併用手法が適用される信号処理装置(図315)と対応する部分には、対応する符号が付してある。
【2572】
図315の構成例(第1の併用手法)においては、領域特定情報は、データ定常性検出部4101より出力され、領域検出部4111に入力されていたが、図321の構成例(第2の併用手法)においては、領域特定情報は、実世界推定部4102より出力され、領域検出部4111に入力される。
【2573】
この領域特定情報は、特に限定されず、実世界推定部4102が実世界1(図1)の信号を推定した後に新たに生成された情報でもよいし、実世界1の信号が推定される場合に付帯して生成される情報でもよい。
【2574】
具体的には、例えば、領域特定情報として、推定誤差が使用可能である。
【2575】
ここで、推定誤差について説明する。
【2576】
上述したように、データ定常性検出部4101より出力される推定誤差(図315の領域特定情報)は、例えば、データ定常性検出部4101より出力されるデータ定常性情報が角度であり、かつ、その角度が最小自乗法により演算される場合、その最小自乗法の演算で付帯的に算出される推定誤差である。
【2577】
これに対して、実世界推定部4102より出力される推定誤差(図321の領域特定情報)は、例えば、マッピング誤差である。
【2578】
即ち、実世界推定部4102により実世界1の信号が推定されているので、推定された実世界1の信号から任意の大きさの画素を生成する(画素値を演算する)ことが可能である。ここでは、このように、新たな画素を生成することを、マッピングと称している。
【2579】
従って、実世界推定部4102は、実世界1の信号を推定した後、その推定した実世界1の信号から、入力画像の注目画素(実世界1が推定される場合に注目画素として使用された画素)が配置されていた位置における新たな画素を生成する(マッピングする)。即ち、実世界推定部4102は、推定した実世界1の信号から、入力画像の注目画素の画素値を予測演算する。
【2580】
そして、実世界推定部4102は、マッピングした新たな画素の画素値(予測した入力画像の注目画素の画素値)と、実際の入力画像の注目画素の画素値との差分を演算する。この差分を、ここでは、マッピング誤差と称している。
【2581】
このようにして実世界推定部4102は、マッピング誤差(推定誤差)を演算することで、演算したマッピング誤差(推定誤差)を、領域特定情報として領域検出部4111に供給することができる。
【2582】
なお、領域検出部4111が実行する領域検出の処理は、上述したように、特に限定されないが、例えば、実世界推定部4102が、上述したマッピング誤差(推定誤差)を領域特定情報として領域検出部4111に供給する場合、領域検出部4111は、供給されたマッピング誤差(推定誤差)が所定の閾値よりも小さいとき、入力画像の注目画素は定常領域であると検出し、一方、供給されたマッピング誤差(推定誤差)が所定の閾値以上であるとき、入力画像の注目画素は非定常領域であると検出する。
【2583】
その他の構成は、図315のそれと基本的に同様である。即ち、第2の併用手法が適用される信号処理装置(図321)においても、第1の併用手法が適用される信号処理装置(図315)と基本的に同様の構成と機能を有する、データ定常性検出部4101、実世界推定部4102、画像生成部4103、画像生成部4104、並びに定常領域検出部4105(領域検出部4111およびセレクタ4112)が設けられている。
【2584】
図322は、図321の構成の信号処理装置の信号の処理(第2の併用手法の信号の処理)を説明するフローチャートである。
【2585】
第2の併用手法の信号の処理は、第1の併用手法の信号の処理(図318のフローチャートで示される処理)と類似している。そこで、ここでは、第1の併用手法において説明した処理については、その説明を適宜省略し、以下、図322のフローチャートを参照して、第1の併用手法とは異なる第2の併用手法の信号の処理を中心に説明する。
【2586】
なお、ここでは、データ定常性検出部4101は、第1の併用手法と同様に、角度(実世界1(図1)の信号の注目位置における、定常性の方向(空間方向)と、空間方向の1方向であるX方向(センサ2(図1)の検出素子の所定の一辺と平行な方向)とのなす角度)を最小自乗法により演算し、演算した角度をデータ定常性情報として出力するとする。
【2587】
ただし、上述したように、第1の併用手法においては、データ定常性検出部4101が領域特定情報(例えば、推定誤差)を領域検出部4111に供給していたのに対して、第2の併用手法においては、実世界推定部4102が領域特定情報(例えば、推定誤差(マッピング誤差))を領域検出部4111に供給する。
【2588】
従って、第2の併用手法においては、データ定常性検出部4101の処理として、ステップS4162の処理が実行される。この処理は、第1の併用手法における、図318のステップS4102の処理に相当する。即ち、ステップS4162において、データ定常性検出部4101は、入力画像に基づいて、定常性の方向に対応する角度を検出し、検出した角度をデータ定常性情報として、実世界推定部4102と画像生成部4103のそれぞれに供給する。
【2589】
また、第2の併用手法においては、実世界推定部4102の処理として、ステップS4163の処理が実行される。この処理は、第1の併用手法における、図318のステップS4103の処理に相当する。即ち、ステップS4163において、実世界推定部4102は、ステップS4162の処理でデータ定常性検出部4101により検出された角度に基づいて、実世界1(図1)の信号を推定するとともに、推定された実世界1の信号の推定誤差、即ち、マッピング誤差を演算し、それを領域特定情報として領域検出部4111に供給する。
【2590】
その他の処理は、第1の併用手法の対応する処理(図318のフローチャートで示される処理のうちの対応する処理)と基本的に同様であるので、その説明は省略する。
【2591】
次に、図323と図324を参照して、第3の併用手法について説明する。
【2592】
図323は、第3の併用手法が適用される信号処理装置の構成例を表している。
【2593】
図323において、第1の併用手法が適用される信号処理装置(図315)と対応する部分には、対応する符号が付してある。
【2594】
図315の構成例(第1の併用手法)においては、定常領域検出部4105は、画像生成部4103と画像生成部4104の後段に配設されていたが、図323の構成例(第3の併用手法)においては、それに対応する定常領域検出部4161が、データ定常性検出部4101の後段であって、実世界推定部4102と画像生成部4104の前段に配設されている。
【2595】
このような配設位置の違いにより、第1の併用手法における定常領域検出部4105と、第3の併用手法における定常領域検出部4161は若干差異がある。そこで、この差異を中心に、定常領域検出部4161について説明する。
【2596】
定常領域検出部4161には、領域検出部4171と実行指令生成部4172が設けられている。このうちの領域検出部4171は、定常領域検出部4105の領域検出部4111(図315)と基本的に同様の構成と機能を有している。一方、実行指令生成部4172の機能は、定常領域検出部4105のセレクタ4112(図315)のそれと若干差異がある。
【2597】
即ち、上述したように、第1の併用手法におけるセレクタ4112は、領域検出部4111の検出結果に基づいて、画像生成部4103からの画像と、画像生成部4104からの画像のうちのいずれか一方を選択し、選択した画像を出力画像として出力する。このように、セレクタ4112は、領域検出部4111の検出結果の他に、画像生成部4103からの画像と、画像生成部4104からの画像を入力し、出力画像を出力する。
【2598】
一方、第3の併用手法における実行指令生成部4172は、領域検出部4171の検出結果に基づいて、入力画像の注目画素(データ定常性検出部4101が注目画素とした画素)における新たな画素の生成の処理を実行するのは、画像生成部4103であるのか画像生成部4104であるのかを選択する。
【2599】
即ち、領域検出部4171が、入力画像の注目画素は定常領域であるという検出結果を実行指令生成部4172に供給した場合、実行指令生成部4172は、画像生成部4103を選択し、実世界推定部4102に対して、その処理の実行を開始させる指令(このような指令を、以下、実行指令と称する)を供給する。すると、実世界推定部4102が、その処理を開始し、実世界推定情報を生成し、画像生成部4103に供給する。画像生成部4103は、供給された実世界推定情報(必要に応じて、それに加えてデータ定常性検出部4101より供給されたデータ定常性情報)に基づいて新たな画像を生成し、それを出力画像として外部に出力する。
【2600】
これに対して、領域検出部4171が、入力画像の注目画素は非定常領域であるという検出結果を実行指令生成部4172に供給した場合、実行指令生成部4172は、画像生成部4104を選択し、画像生成部4104に対して実行指令を供給する。すると、画像生成部4104が、その処理を開始し、入力画像に対して所定の画像処理(いまの場合、クラス分類適応処理)を施して、新たな画像を生成し、それを出力画像として外部に出力する。
【2601】
このように、第3の併用手法における実行指令生成部4172は、領域検出部4171の検出結果を入力し、実行指令を出力する。即ち、実行指令生成部4172は、画像を入出力しない。
【2602】
なお、定常領域検出部4161以外の構成は、図315のそれと基本的に同様である。即ち、第2の併用手法が適用される信号処理装置(図323の信号処理装置)においても、第1の併用手法が適用される信号処理装置(図315)と基本的に同様の構成と機能を有する、データ定常性検出部4101、実世界推定部4102、画像生成部4103、および、画像生成部4104が設けられている。
【2603】
ただし、第3の併用手法においては、実世界推定部4102と画像生成部4104のそれぞれは、実行指令生成部4172からの実行指令が入力されない限り、その処理を実行しない。
【2604】
ところで、図323の例では、画像の出力単位は画素単位とされている。そこで、図示はしないが、出力単位を1フレームの画像全体とするために(全ての画素を一括して出力するために)、例えば、画像生成部4103と画像生成部4104の後段に、画像合成部をさらに設けることもできる。
【2605】
この画像合成部は、画像生成部4103から出力された画素値と、画像生成部4104より出力された画素値を加算し(合成し)、加算した値を対応する画素の画素値とする。この場合、画像生成部4103と画像生成部4104のうちの、実行指令が供給されていない方は、その処理を実行せず、所定の一定値(例えば、0)を画像合成部に常時供給する。
【2606】
画像合成部は、このような処理を全ての画素について繰り返し実行し、全ての画素の処理を終了すると、全ての画素を一括して(1フレームの画像データとして)外部に出力する。
【2607】
次に、図324のフローチャートを参照して、第3の併用手法が適用される信号処理装置(図323)の信号の処理について説明する。
【2608】
なお、ここでは、第1の併用手法のときと同様に、データ定常性検出部4101は、角度(実世界1(図1)の信号の注目位置における、定常性の方向(空間方向)と、空間方向の1方向であるX方向(センサ2(図1)の検出素子の所定の一辺と平行な方向)とのなす角度)を最小自乗法により演算し、演算した角度をデータ定常性情報として出力するとする。
【2609】
データ定常性検出部4101はまた、角度を演算するときに併せて算出される推定誤差(最小自乗法の誤差)を、領域特定情報として出力するとする。
【2610】
図1において、実世界1の信号がセンサ2に入射されると、センサ2からは入力画像が出力される。
【2611】
図323において、この入力画像は、画像生成部4104に入力されるとともに、データ定常性検出部4101、および実世界推定部4102にも入力される。
【2612】
そこで、図324のステップS4181において、データ定常性検出部4101は、入力画像に基づいて、定常性の方向に対応する角度を検出するとともに、その推定誤差を演算する。検出された角度は、データ定常性情報として実世界推定部4102と画像生成部4103のそれぞれに供給される。また、演算された推定誤差は、領域特定情報として領域検出部4171に供給される。
【2613】
なお、ステップS4181の処理は、上述したステップS4102(図318)の処理と基本的に同様の処理である。
【2614】
また、上述したように、いまの時点においては(実行指令生成部4172から実行指令が供給されない限り)、実世界推定部4102も画像生成部4104もその処理を実行しない。
【2615】
ステップS4182において、領域検出部4171は、データ定常性検出部4101により演算された推定誤差(供給された領域特定情報)に基づいて、入力画像の注目画素(データ定常性検出部4101が角度を検出する場合に注目画素とした画素)の領域を検出し、その検出結果を実行指令生成部4172に供給する。なお、ステップS4182の処理は、上述したステップS4105(図318)の処理と基本的に同様の処理である。
【2616】
領域検出部4171の検出結果が実行指令生成部4172に供給されると、ステップS4183において、実行指令生成部4172は、検出された領域が、定常領域であるか否かを判定する。なお、ステップS4183の処理は、上述したステップS4106(図318)の処理と基本的に同様の処理である。
【2617】
ステップS4183において、検出された領域が定常領域ではないと判定した場合、実行指令生成部4172は、実行指令を画像生成部4104に供給する。すると、画像生成部4104は、ステップS4184において、「クラス分類適応処理の実行処理」を実行して、第1の画素(注目画素(入力画像のSD画素)におけるHD画素)を生成し、ステップS4185において、クラス分類適応処理により生成された第1の画素を、出力画像として外部に出力する。
【2618】
なお、ステップS4184の処理は、上述したステップS4101(図318)の処理と基本的に同様の処理である。即ち、図319のフローチャートは、ステップS4184の処理の詳細を説明するフローチャートでもある。
【2619】
これに対して、ステップS4183において、検出された領域が定常領域であると判定した場合、実行指令生成部4172は、実行指令を実世界推定部4102に供給する。すると、ステップS4186において、実世界推定部4102は、データ定常性検出部4101により検出された角度と、入力画像に基づいて、実世界1の信号を推定する。なお、ステップS4186の処理は、上述したステップS4103(図318)の処理と基本的に同様の処理である。
【2620】
そして、画像生成部4103は、ステップS4187において、実世界推定部4102により推定された実世界1の信号に基づいて、検出された領域(即ち、入力画像の注目画素(SD画素))における第2の画素(HD画素)を生成し、ステップS4188において、その第2の画素を出力画像として出力する。なお、ステップS4187の処理は、上述したステップS4104(図318)の処理と基本的に同様の処理である。
【2621】
第1の画素または第2の画素が出力画像として出力されると(ステップS4185、またはステップS4188の処理の後)、ステップS4189において、全画素の処理を終了したか否かが判定され、全画素の処理がまだ終了していないと判定された場合、その処理は、ステップS4181に戻る。即ち、全ての画素の処理が終了されるまで、ステップS4181乃至S4189の処理が繰り返される。
【2622】
そして、ステップS4189において、全画素の処理を終了したと判定された場合、その処理は終了となる。
【2623】
このように、図324のフローチャートの例においては、第1の画素(HD画素)と第2の画素(HD画素)が生成される毎に、出力画像として第1の画素または第2の画素が画素単位で出力される。
【2624】
しかしながら、上述したように、図323の構成の信号処理装置の最終段(画像生成部4103と画像生成部4104の後段)に画像合成部(図示せず)をさらに設ければ、全ての画素の処理が終了された後、出力画像として、全ての画素を一括して出力することが可能になる。この場合、ステップS4185とステップS4188のそれぞれに処理においては、画素(第1の画素または第2の画素)は外部ではなく画像合成部に出力される。そして、ステップS4189の処理の前に、画像合成部が、画像生成部4103から供給される画素の画素値と、画像生成部4104から供給される画素の画素値を合成して、出力画像の画素を生成する処理と、ステップS4189の処理の後に、画像合成部が、全ての画素を出力する処理が追加される。
【2625】
次に、図325と図326を参照して、第4の併用手法について説明する。
【2626】
図325は、第4の併用手法が適用される信号処理装置の構成例を表している。
【2627】
図325において、第3の併用手法が適用される信号処理装置(図323)と対応する部分には、対応する符号が付してある。
【2628】
図323の構成例(第3の併用手法)においては、領域特定情報は、データ定常性検出部4101より出力され領域検出部4171に入力されていたが、図325の構成例(第4の併用手法)においては、領域特定情報は、実世界推定部4102より出力され領域検出部4171に入力される。
【2629】
その他の構成は、図323のそれと基本的に同様である。即ち、第4の併用手法が適用される信号処理装置(図325)においても、第3の併用手法が適用される信号処理装置(図323)と基本的に同様の構成と機能を有する、データ定常性検出部4101、実世界推定部4102、画像生成部4103、画像生成部4104、並びに定常領域検出部4161(領域検出部4171および実行指令生成部4172)が設けられている。
【2630】
なお、第3の併用方法と同様に、図示はしないが、全ての画素を一括して出力するために、例えば、画像生成部4103と画像生成部4104の後段に、画像合成部をさらに設けることもできる。
【2631】
図326は、図325の構成の信号処理装置の信号の処理(第4の併用手法の信号の処理)を説明するフローチャートである。
【2632】
第4の併用手法の信号の処理は、第3の併用手法の信号の処理(図324のフローチャートで示される処理)と類似している。そこで、ここでは、第3の併用手法において説明した処理については、その説明を適宜省略し、以下、図326のフローチャートを参照して、第3の併用手法とは異なる第4の併用手法の信号の処理を中心に説明する。
【2633】
なお、ここでは、データ定常性検出部4101は、第3の併用手法と同様に、角度(実世界1(図1)の信号の注目位置における、定常性の方向(空間方向)と、空間方向の1方向であるX方向(センサ2(図1)の検出素子の所定の一辺と平行な方向)とのなす角度)を最小自乗法により演算し、演算した角度をデータ定常性情報として出力するとする。
【2634】
ただし、上述したように、第3の併用手法においては、データ定常性検出部4101が領域特定情報(例えば、推定誤差)を領域検出部4171に供給していたのに対して、第4の併用手法においては、実世界推定部4102が領域特定情報(例えば、推定誤差(マッピング誤差))を領域検出部4171に供給する。
【2635】
従って、第4の併用手法においては、データ定常性検出部4101の処理として、ステップS4201の処理が実行される。この処理は、第3の併用手法における、図324のステップS4181の処理に相当する。即ち、ステップS4201において、データ定常性検出部4101は、入力画像に基づいて、定常性の方向に対応する角度を検出し、検出した角度をデータ定常性情報として、実世界推定部4102と画像生成部4103のそれぞれに供給する。
【2636】
また、第4の併用手法においては、実世界推定部4102の処理として、ステップS4202の処理が実行される。この処理は、第3の併用手法における、図318のステップS4182の処理に相当する。即ち、実世界推定部4102は、ステップS4202の処理でデータ定常性検出部4101により検出された角度に基づいて、実世界1(図1)の信号を推定するとともに、推定された実世界1の信号の推定誤差、即ち、マッピング誤差を演算し、それを領域特定情報として領域検出部4171に供給する。
【2637】
その他の処理は、第3の併用手法の対応する処理(図324のフローチャートで示される処理のうちの対応する処理)と基本的に同様であるので、その説明は省略する。
【2638】
次に、図327と図328を参照して、第5の併用手法について説明する。
【2639】
図327は、第5の併用手法が適用される信号処理装置の構成例を表している。
【2640】
図327において、第3と第4の併用手法が適用される信号処理装置(図323と図325)と対応する部分には、対応する符号が付してある。
【2641】
図323の構成例(第3の併用手法)においては、データ定常性検出部4101の後段であって、実世界推定部4102と画像生成部4104の前段に、1つの定常領域検出部4161が配設されている。
【2642】
また、図325の構成例(第4の併用手法)においては、実世界推定部4102の後段であって、画像生成部4103と画像生成部4104の前段に、1つの定常領域検出部4161が配設されている。
【2643】
これらに対して、図327の構成例(第5の併用手法)においては、第3の併用方法と同様に、データ定常性検出部4101の後段であって、実世界推定部4102と画像生成部4104の前段に、定常領域検出部4181が配設されている。さらに、第4の併用方法と同様に、実世界推定部4102の後段であって、画像生成部4103と画像生成部4104の前段に、定常領域検出部4182が配設されている。
【2644】
定常領域検出部4181と定常領域検出部4182のそれぞれは、定常領域検出部4161(図323または図325)と基本的に同様の構成と機能を有している。即ち、領域検出部4191と領域検出部4201はいずれも、領域検出部4171と基本的に同様の構成と機能を有している。また、実行指令生成部4192と実行指令生成部4202はいずれも、実行指令生成部4172と基本的に同様の構成と機能を有している。
【2645】
換言すると、第5の併用手法は、第3の併用手法と第4の併用手法を組み合わせたものである。
【2646】
即ち、第3の併用手法や第4の併用手法においては、1つの領域特定情報(第3の併用手法においては、データ定常性検出部4101からの領域特定情報であり、第4の併用手法においては、実世界推定部4102からの領域特定情報である)に基づいて、入力画像の注目画素が定常領域であるか非定常領域であるかが検出される。従って、第3の併用手法や第4の併用手法では、本来、非定常領域であるにも関わらず、定常領域であると検出される恐れもある。
【2647】
そこで、第5の併用手法においては、はじめにデータ定常性検出部4101からの領域特定情報(第5の併用手法の説明においては、第1の領域特定情報と称する)に基づいて、入力画像の注目画素が定常領域であるか非定常領域であるかが検出された後、さらに、実世界推定部4102からの領域特定情報(第5の併用手法の説明においては、第2の領域特定情報と称する)に基づいて、入力画像の注目画素が定常領域であるか非定常領域であるかが検出される。
【2648】
このように、第5の併用手法においては、領域の検出の処理が2回行われるので、第3の併用手法や第4の併用手法に比較して、定常領域の検出精度が上がることになる。さらに、第1の併用手法や第2の併用手法においても、第3の併用手法や第4の併用手法と同様に、1つの定常領域検出部4105(図315または図321)しか設けられていない。従って、第1の併用手法や第2の併用手法と比較しても、定常領域の検出精度が上がることになる。その結果、第1乃至第4の併用手法のいずれよりも実世界1(図1)の信号に近い画像データを出力することが可能になる。
【2649】
ただし、第1乃至第4の併用手法でも、従来の画像処理を行う画像生成部4104と、本発明が適用されるデータの定常性を利用して画像を生成する装置またはプログラム等(即ち、データ定常性検出部4101、実世界推定部4102、および、画像生成部4103)を併用していることに変わりはない。
【2650】
従って、第1乃至第4の併用手法でも、従来の信号処理装置や、図3の構成の本発明の信号処理のいずれよりも実世界1(図1)の信号に近い画像データを出力することが可能になる。
【2651】
一方、処理速度の観点からは、第1乃至第4の併用手法においては、領域の検出の処理が1回だけで済むので、領域の検出の処理を2回行う第5の併用手法よりも優れていることになる。
【2652】
従って、ユーザ(または製造者)等は、必要とされる出力画像の品質と、必要とされる処理時間(出力画像が出力されるまでの時間)に合致した併用手法を選択的に利用することができる。
【2653】
なお、図327におけるその他の構成は、図323、または、図325のそれと基本的に同様である。即ち、第5の併用手法が適用される信号処理装置(図327)においても、第3または第4の併用手法が適用される信号処理装置(図323、または図325)と基本的に同様の構成と機能を有する、データ定常性検出部4101、実世界推定部4102、画像生成部4103、および画像生成部4104が設けられている。
【2654】
ただし、第5の併用手法においては、実世界推定部4102は、実行指令生成部4192からの実行指令が入力されない限り、画像生成部4103は、実行指令生成部4202からの実行指令が入力されない限り、画像生成部4104は、実行指令生成部4192、または実行指令生成部4202からの実行指令が入力されない限り、その処理を実行しない。
【2655】
また、第5の併用手法においても、第3や第4の併用方法と同様に、図示はしないが、全ての画素を一括して出力するために、例えば、画像生成部4103と画像生成部4104の後段に、画像合成部をさらに設けることもできる。
【2656】
次に、図328のフローチャートを参照して、第5の併用手法が適用される信号処理装置(図327)の信号の処理について説明する。
【2657】
なお、ここでは、第3や第4の併用手法のときと同様に、データ定常性検出部4101は、角度(実世界1(図1)の信号の注目位置における、定常性の方向(空間方向)と、空間方向の1方向であるX方向(センサ2(図1)の検出素子の所定の一辺と平行な方向)とのなす角度)を最小自乗法により演算し、演算した角度をデータ定常性情報として出力するとする。
【2658】
また、ここでは、第3の併用手法のときと同様に、データ定常性検出部4101はまた、角度を演算するときに併せて算出される推定誤差(最小自乗法の誤差)を、第1の領域特定情報として出力するとする。
【2659】
さらに、ここでは、第4の併用手法のときと同様に、実世界推定部4102は、マッピング誤差(推定誤差)を、第2の領域特定情報として出力するとする。
【2660】
図1において、実世界1の信号がセンサ2に入射されると、センサ2からは入力画像が出力される。
【2661】
図327において、この入力画像は、データ定常性検出部4101、実世界推定部4102、および、画像生成部4104のそれぞれに入力される。
【2662】
そこで、図328のステップS4221において、データ定常性検出部4101は、入力画像に基づいて、定常性の方向に対応する角度を検出するとともに、その推定誤差を演算する。検出された角度は、データ定常性情報として実世界推定部4102と画像生成部4103のそれぞれに供給される。また、演算された推定誤差は、第1の領域特定情報として領域検出部4191に供給される。
【2663】
なお、ステップS4221の処理は、上述したステップS4181(図324)の処理と基本的に同様の処理である。
【2664】
また、上述したように、いまの時点においては(実行指令生成部4192から実行指令が供給されない限り)、実世界推定部4102も画像生成部4104もその処理を実行しない。
【2665】
ステップS4222において、領域検出部4191は、データ定常性検出部4101により演算された推定誤差(供給された第1の領域特定情報)に基づいて、入力画像の注目画素(データ定常性検出部4101が角度を検出する場合に注目画素とした画素)の領域を検出し、その検出結果を実行指令生成部4192に供給する。なお、ステップS4222の処理は、上述したステップS4182(図324)の処理と基本的に同様の処理である。
【2666】
領域検出部4181の検出結果が実行指令生成部4192に供給されると、ステップS4223において、実行指令生成部4192は、検出された領域が、定常領域であるか否かを判定する。なお、ステップS4223の処理は、上述したステップS4183(図324)の処理と基本的に同様の処理である。
【2667】
ステップS4223において、検出された領域が定常領域ではない(非定常領域である)と判定した場合、実行指令生成部4192は、実行指令を画像生成部4104に供給する。すると、画像生成部4104は、ステップS4224において、「クラス分類適応処理の実行処理」を実行して、第1の画素(注目画素(入力画像のSD画素)におけるHD画素)を生成し、ステップS4225において、クラス分類適応処理により生成された第1の画素を、出力画像として外部に出力する。
【2668】
なお、ステップS4224の処理は、上述したステップS4184(図324)の処理と基本的に同様の処理である。即ち、図319のフローチャートは、ステップS4186の処理の詳細を説明するフローチャートでもある。また、ステップS4225の処理は、上述したステップS4185(図324)の処理と基本的に同様の処理である。
【2669】
これに対して、ステップS4223において、検出された領域が定常領域であると判定した場合、実行指令生成部4192は、実行指令を実世界推定部4102に供給する。すると、ステップS4226において、実世界推定部4102は、ステップS4221の処理でデータ定常性検出部4101により検出された角度に基づいて、実世界1の信号を推定するとともに、その推定誤差(マッピング誤差)を演算する。推定された実世界1の信号は、実世界推定情報として画像生成部4103に供給される。また、演算された推定誤差は、第2の領域特定情報として領域検出部4201に供給される。
【2670】
なお、ステップS4226の処理は、上述したステップS4202(図326)の処理と基本的に同様の処理である。
【2671】
また、上述したように、いまの時点においては(実行指令生成部4192、または実行指令生成部4202から実行指令が供給されない限り)、画像生成部4103も画像生成部4104もその処理を実行しない。
【2672】
ステップS4227において、領域検出部4201は、実世界推定部4102により演算された推定誤差(供給された第2の領域特定情報)に基づいて、入力画像の注目画素(データ定常性検出部4101が角度を検出する場合に注目画素とした画素)の領域を検出し、その検出結果を実行指令生成部4202に供給する。なお、ステップS4227の処理は、上述したステップS4203(図326)の処理と基本的に同様の処理である。
【2673】
領域検出部4201の検出結果が実行指令生成部4202に供給されると、ステップS4228において、実行指令生成部4202は、検出された領域が、定常領域であるか否かを判定する。なお、ステップS4228の処理は、上述したステップS4204(図326)の処理と基本的に同様の処理である。
【2674】
ステップS4228において、検出された領域が定常領域ではない(非定常領域である)と判定した場合、実行指令生成部4202は、実行指令を画像生成部4104に供給する。すると、画像生成部4104は、ステップS4224において、「クラス分類適応処理の実行処理」を実行して、第1の画素(注目画素(入力画像のSD画素)におけるHD画素)を生成し、ステップS4225において、クラス分類適応処理により生成された第1の画素を、出力画像として外部に出力する。
【2675】
なお、いまの場合のステップS4224の処理は、上述したステップS4205(図326)の処理と基本的に同様の処理である。また、いまの場合のステップS4225の処理は、上述したステップS4206(図326)の処理と基本的に同様の処理である。
【2676】
これに対して、ステップS4228において、検出された領域が定常領域であると判定した場合、実行指令生成部4202は、実行指令を画像生成部4103に供給する。すると、ステップS4229において、画像生成部4103は、実世界推定部4102により推定された実世界1の信号(および、必要に応じてデータ定常性検出部4101からのデータ定常性情報)に基づいて、領域検出部4201により検出された領域(即ち、入力画像の注目画素(SD画素))における、第2の画素(HD画素)を生成する。そして、ステップS4230において、画像生成部4103は、生成された第2の画素を、出力画像として外部に出力する。
【2677】
なお、ステップS4229とS4230のそれぞれの処理は、上述したステップS4207とS4208(図326)のそれぞれの処理と基本的に同様の処理である。
【2678】
第1の画素または第2の画素が出力画像として出力されると(ステップS4225、またはステップS4230の処理の後)、ステップS4231において、全画素の処理を終了したか否かが判定され、全画素の処理がまだ終了していないと判定された場合、その処理は、ステップS4221に戻る。即ち、全ての画素の処理が終了されるまで、ステップS4221乃至S4231の処理が繰り返される。
【2679】
そして、ステップS4231において、全画素の処理を終了したと判定された場合、その処理は終了となる。
【2680】
以上、図315乃至図328を参照して、本発明の信号処理装置4(図1)の実施の形態の1例として、併用手法について説明した。
【2681】
上述したように、併用手法においては、図3の構成の本発明の信号処理装置に対してさらに、定常性を利用しない他の信号処理を行う装置(または、プログラム等)が付加されている。
【2682】
換言すると、併用手法においては、従来の信号処理装置(または、プログラム等)に対して、図3の構成の本発明の信号処理装置(または、プログラム等)が付加されている。
【2683】
即ち、併用手法においては、例えば、図315や図321の定常領域検出部4105が、実世界1の光信号が射影され、実世界1の光信号の定常性の一部が欠落した画像データ(例えば、図315や図321の入力画像)内において、画像データのデータの定常性を有する領域(例えば、図318のステップS4106や図322のステップS4166に記載の定常領域)を検出する。
【2684】
また、図315や図321の実世界推定部4102が、実世界1の光信号の定常性の一部が欠落した画像データのデータの定常性に基づいて、欠落した実世界1の光信号の定常性を推定することにより光信号を推定する。
【2685】
さらに、例えば、図315や図321のデータ定常性検出部4101が、実世界1の光信号が射影され、実世界1の光信号の定常性の一部が欠落した画像データ内において、画像データのデータの定常性の基準軸に対する角度(例えば、図318のステップS4102や図322のステップS4162に記載の角度)を検出する。この場合、例えば、図315や図321の定常領域検出部4105は、角度に基いて画像データのデータの定常性を有する領域を検出し、実世界推定部4102は、その領域に対して、欠落した実世界1の光信号の定常性を推定することにより光信号を推定する。
【2686】
ただし、図315においては、定常領域検出部4105は、角度に沿って定常であるモデルと入力画像との誤差(即ち、例えば、図中の領域特定情報であって、図318のステップS4102の処理で演算される推定誤差)に基づいて入力画像のデータの定常性を有する領域を検出する。
【2687】
これに対して、図321においては、定常領域検出部4105は、実世界推定部4102の後段に配され、実世界推定部4102により演算される、入力画像に対応する実世界1の光信号を表す実世界モデルと、入力画像との誤差(即ち、例えば、図中の領域特定情報であって、図318のステップS4163の処理で演算される実世界の信号の推定誤差(マッピング誤差))に基いて、実世界推定部4102により推定された実世界モデル、即ち、画像生成部4103から出力される画像を選択的に出力する(例えば、図321のセレクタ4112が、図322のステップS4166乃至S4168の処理を実行する)。
【2688】
以上、図315と図321の例で説明したが、以上のことは、図323、図325、および図327においても同様である。
【2689】
従って、併用手法においては、実世界1の信号のうちの定常性が存在する部分(画像データのデータの定常性を有する領域)については、図3の構成の信号処理装置に相当する装置(またはプログラム等)が信号処理を実行し、実世界1の信号のうちの明確な定常性が存在しない部分については、従来の信号処理装置(または、プログラム等)が信号処理を実行することが可能になる。その結果、従来の信号処理装置や、図3の構成の本発明の信号処理のいずれよりも実世界1(図1)の信号に近い画像データを出力することが可能になる。
【2690】
次に、図329,図330を参照して、データ定常性検出部101より直接画像を生成する例について説明する。
【2691】
図329のデータ定常性検出部101は、図165のデータ定常性検出部101に画像生成部4501を付加したものである。画像生成部4501は、実世界推定部802より出力される実世界の近似関数f(x)の係数を実世界推定情報として取得し、この係数に基づいて、各画素を再積分することにより画像を生成して出力する。
【2692】
次に、図330のフローチャートを参照して、図329のデータの定常性の検出の処理について説明する。尚、図330のフローチャートのステップS4501乃至S4504、および、ステップS4506乃至S4511の処理に付いては、図166のフローチャートのステップS801乃至S810の処理と同様であるのでその説明は省略する。
【2693】
ステップS4504において、画像生成部4501は、実世界推定部802より入力された係数に基づいて各画素を再積分して、画像を生成し出力する。
【2694】
以上の処理により、データ定常性検出部101は、領域情報のみならず、その領域判定に用いた(実世界推定情報に基づいて生成された画素からなる)画像を出力することができる。
【2695】
このように、図329のデータ定常性検出部101においては、画像生成部4501が設けられている。即ち、図329のデータ定常性検出部101は、入力画像のデータの定常性に基づいて出力画像を生成することができる。従って、図329で示される構成を有する装置を、データ定常性検出部101の実施の形態と捉えるのではなく、図1の信号処理装置(画像処理装置)4の他の実施の形態と捉えることもできる。
【2696】
さらに、上述した併用手法が適用される信号処理装置において、実世界1の信号のうちの定常性が存在する部分に対して信号処理を施す信号処理部として、図329で示される構成を有する装置(即ち、図329のデータ定常性検出部101と同様の機能と構成を有する信号処理装置)を適用することも可能である。
【2697】
具体的には、例えば、第1の併用手法が適用される図315の信号処理装置においては、実世界1の信号のうちの定常性が存在する部分に対して信号処理を施す信号処理部は、データ定常性検出部4101、実世界推定部4102、および画像生成部4103とされている。図示はしないが、これらのデータ定常性検出部4101、実世界推定部4102、および画像生成部4103の代わりに、図329の構成の信号処理装置(画像処理装置)を適用することも可能である。この場合、図329の比較部804が、その出力を領域特定情報をとして領域検出部4111に供給し、また、画像生成部4501が、出力画像(第2の画素)をセレクタ4112に供給することになる。
【2698】
以上においては、画像の処理にあたり、積分効果を利用したセンサ2により取得された画像データを処理することにより、実世界を推定し、実世界に即した画像処理を行っていく例について説明してきた。
【2699】
しかしながら、センサ2に入射する光信号は、実際には、センサ2の直前に設けられたレンズなどからなる光学系を介して入射される。従って、センサ2により取得された画像から実世界を推定して画像を処理するには、光学系による影響を考慮する必要がある。
【2700】
図331は、センサ2の前段に設けられる光学系(光学ブロック5110)の構成例を示す図である。
【2701】
実世界の光信号は、光学ブロック5110のレンズ5101を経て、IRカットフィルタ5102に入射される。IRカットフィルタは、CCD5104(センサ2に対応する)で受光可能な光の周波数成分のうち、赤外領域の光の成分を除去する。この処理により、人の目では認識できない余分な光が除去される。さらに、光信号は、IRカットフィルタ5102を透過した後、OLPF(Optical Low Pass Filter)5103に入射する。
【2702】
OLPF5103は、CCD5104の画素面積以下の範囲で変化する高周波の光信号を平滑化して、CCD5104の1画素分の面積内に入射される光の量のばらつきを小さくする。
【2703】
従って、光学ブロック5110による影響を考慮するには、IRカットフィルタ5102、および、OLPF5103のそれぞれについてなされる処理による影響を考慮する必要がある。ところで、このIRカットフィルタ5102、および、OLPF5103は、図332で示されるように、一体型のフィルタ5112となっており、その着脱は、一体的になされる形式となる場合がある。また、IRカットフィルタ5102の影響は、例えば、図332で示されるように、短波長の光のみを透過させるフィルタ5111を設けることによりその影響を抑制することができる。
【2704】
そこで、ここでは、OLPF5103による影響を考慮した画像処理について説明する。
【2705】
OLPF5103は、図333で示されるように2個の水晶5121a,bと、その2個の水晶5121a,bに挟まれるように位相板5122が設けられている。
【2706】
水晶板5121a,bは、図334で示されるように、それぞれの厚さがtであり、また、光の進入方向に対して所定の角度で結晶軸が設定されている。この角度で水晶板5121aに対して、z方向に光が入射されると、その入射光と同じ方向に常光線を、また、入射光に対して所定の角度に異常光線をそれぞれ分離して、所定の間隔d(x方向に)で後段の結晶5121bに出射する。このとき、水晶板5121aは、入射光のうち、相互に90度異なる2つの波形の光を抽出して常光線(例えば、y方向の波形)L1と異常光線L2(例えば、x方向の波形)として出射する。
【2707】
位相板5122(図334においては、図示せず)は、常光線、および、異常光線のそれぞれの波形を入射された波形を透過させると共に、その波形と垂直方向の波形の光を発生して結晶板5121bに出射する。すなわち、今の場合、位相板5122は、入射された常光線がy方向の波形であるので、入射された常光線の波形を透過させると共に、x方向の波形を発生し、異常光線については、入射される際にx方向の波形であるので、入射された異常光線そのものを透過させると共に、その波形と90度ことなるy方向の波形を発生して、結晶板5121bに出射する。
【2708】
結晶板5121bは、入射された常光線L1と異常光線L2のそれぞれを入射位置で、それぞれ常光線と異常光線(L1とL3、および、L2とL4)に分離して、相互の距離がdとなるように出射する。その結果、図335で示されるように、例えば、紙面裏側から入射される光L1は、水晶5121aにより光L1,L2にそれぞれ分離され、さらに、水晶5121bによりL1とL3、および、L2とL4にそれぞれ分離される。尚、このとき光のエネルギーは、一回の分離で1/2に分離されているので、OLPF5103は、入射された光を25%ずつ水平方向、および、垂直方向に距離d(OLPF移動量dとも称する)だけ離れた位置に分散して出射している。結果として、CCD5104の各画素には、異なる4画素分の光が25%ずつ重畳された光が受光されて画素値に変換され、画像データが生成されていることになる。
【2709】
このOLPF移動量dは、以下の式(248)により求められる。
【2710】
d=t×(ne 2−no 2)/(2×ne×no)・・・(248)
【2711】
尚、OLPF5103は、上述のように、入射光を4画素に分散するのみではなく、さらに、多くの水晶を用いて、それ以外の画素数に分散させるようにしてもよい。
【2712】
このように光学ブロック5110により、センサ2に入射される光は実世界ものとは異なるものに変化している。そこで、上述した光学ブロック5110の特性を考慮した(ここでは、特に、OLPF5103の特性を考慮した)画像データの処理について説明する。
【2713】
図336は、上述の光学ブロック5110の特性を考慮して画像データを処理できるようにした信号処理装置の構成を示すブロック図である。尚、図3を参照して説明した構成と同様の部位については、同一の符号を付してあり、その説明は、適宜省略するものとする。
【2714】
OLPF除去部5131は、入力画像中に含まれている上述の光学ブロック5110のうち、特にOLPF5103の特性を考慮して、入力画像を光学ブロック5110に入射する前の画像に変換して(推定して)、データ定常性検出部102、および、実世界推定部102に出力する。
【2715】
次に、図337を参照して、図336のOLPF除去部5131の構成について説明する。
【2716】
クラスタップ抽出部5141は、入力された画像データの各画素について、対応する位置の複数の画素(例えば、図338で示されるような注目画素を含む水平方向、垂直方向、または、上下左右の斜方向に隣接した合計9画素。尚、図338においては、2重丸が注目画素であり、それ以外の画素は丸で示されている)の画素値をクラスタップとして抽出し、特徴量演算部5142に出力する。
【2717】
特徴量演算部5142は、クラスタップ抽出部5141より入力されたクラスタップの画素値に基づいて特徴量を演算して、クラス分類部5143に出力する。例えば、その特徴量は、クラスタップの各画素の画素値の総和であるとか、または、隣接する画素間の差分の和などである。
【2718】
クラス分類部5143は、特徴量演算部5142より入力された特徴量に基づいて、各画素のクラス(クラスコード)を決定し、決定したクラスの情報を予測タップ抽出部5145に抽出すると共に、係数メモリ5144を制御して、その決定したクラスに対応する予測係数を画素値演算部5146に供給させる。このクラスは、例えば、特徴量が隣接する画素間の差分の和であるとした場合、その和となる値の範囲に応じて設定されるものである。例えば、その和が0乃至10の場合は、クラス1、和の値が11乃至20の場合は、クラス2といったようにクラスコードは設定される。
【2719】
係数メモリ5144に記憶されている、特徴量に基づいたクラスコード毎の予測係数は、図341を参照して、後述する学習装置5150により予め学習処理により演算されて記憶されている。
【2720】
予測タップ抽出部5145は、クラス分類部5143より入力されたクラスの情報に基づいて、入力画像の注目画素に対応する予測タップとなる複数の画素(クラスタップと同じこともある)の画素値を抽出して画素値演算部5146に出力する。予測タップは、クラス毎に設定されるものであり、例えば、クラス1の場合は、注目画素のみであり、クラス2の場合は、注目画素を中心とした3画素×3画素であり、クラス3の場合は、注目画素を中心とした5画素×5画素などといったものである。
【2721】
画素値演算部5146は、予測タップ抽出部5145より入力された予測タップとなる各画素の画素値と、係数メモリ5144より供給された予測係数の値に基づいて画素値を演算して、演算された画素値に基づいて出力画像を生成し、出力する。画素値演算部5146は、例えば、次の式(249)で示される積和演算を実行することにより、予測画像の画素を求める(予測推定する)。
【2722】
【数198】
【2723】
式(249)において、q’は、予測画像(生徒画像から予測される画像)の画素を表している。ci(iは、1乃至nの整数値)のそれぞれは、予測タップのそれぞれを表している。また、diのそれぞれは、予測係数のそれぞれを表している。
【2724】
このように、OLPF除去部5131は、入力画像から、それに対するOLPFによる影響を除去した画像を予測推定する。
【2725】
次に、図339のフローチャートを参照して、図336を参照して説明した信号処理装置による信号の処理について説明する。尚、図339のフローチャートにおけるステップS5102乃至S5104の処理は、図40を参照して説明した処理と同様であるので、その説明は省略する。
【2726】
ステップS5101において、OLPF除去部5131は、OLPFの除去の処理を実行する。
【2727】
ここで、図340のフローチャートを参照して、OLPFの除去の処理を説明する。
【2728】
ステップS5011において、クラスタップ抽出部5141は、入力画像の各画素についてクラスタップを抽出して、抽出したクラスタップの各画素の画素値を特徴量演算部5142に出力する。
【2729】
ステップS5012において、特徴量演算部5142は、クラスタップ抽出部5141より入力されたクラスタップの各画素の画素値に基づいて所定の特徴量を演算してクラス分類部5143に出力する。
【2730】
ステップS5013において、クラス分類部5143は、特徴量演算部5142より入力された特徴量に基づいてクラスを分類し、分類したクラスコードを予測タップ抽出部5145に出力する。
【2731】
ステップS5014において、予測タップ抽出部5145は、クラス分類部5143より入力されたクラスコードの情報に基づいて、入力画像より予測タップとなる複数の画素の画素値を抽出して、画素値演算部5146に出力する。
【2732】
ステップS5015において、クラス分類部5143は、係数メモリ5144を制御して、分類したクラス(クラスコード)に応じて、対応する予測係数を画素値演算部5146に読み出させる。
【2733】
ステップS5016において、画素値演算部5146は、予測タップ抽出部5145より入力された予測タップとなる各画素の画素値と、係数メモリ5144より供給された予測係数に基づいて、画素値を演算する。
【2734】
ステップS5017において、画素値演算部5146は、全画素について画素値を演算したか否かを判定し、全ての画素について画素値を演算していないと判定された場合、その処理は、ステップS5011に戻る。すなわち、全画素について、画素値が演算されたと判定されるまで、ステップS5011乃至S5017の処理が繰り返されることになる。
【2735】
ステップS5017において、全画素について画素値が演算されたと判定された場合、画素値演算部5146は、演算された画像を出力する。
【2736】
以上によれば、光学ブロック5110により生じたOLPF5103により生じる画像への影響を除去することが可能となる。
【2737】
次に、図341を参照して、図337の係数メモリ5144に予め記憶される予測係数を学習する学習装置5150について説明する。
【2738】
学習装置5150は、入力画像として高解像度画像を使用して、標準解像度画像からなる生徒画像と教師画像を生成して学習処理を実行する。なお、以下、標準解像度の画像を、適宜、SD(Standard Definition)画像と称する。また、SD画像を構成する画素を、適宜、SD画素と称する。また、これに対して、以下、高解像度の画像を、適宜、HD(High Definition)画像と称する。また、HD画像を構成する画素を、適宜、HD画素と称する。
【2739】
さらに、学習部5152のクラスタップ抽出部5162、特徴量演算部5163、および、予測タップ抽出部5165は、図337のOLPF除去部5131のクラスタップ抽出部5141、特徴量演算部5142、および、予測タップ抽出部5145と同様のものであるので、その説明は省略する。
【2740】
生徒画像生成部5151は、入力画像であるHD画像をOLPF5103を考慮してSD画像に変換し、OLPF5103により光学的に影響を受けた生徒画像を生成して、学習部5152の画像メモリ5161に出力する。
【2741】
学習部5152の画像メモリ5161は、入力されたSD画像からなる生徒画像を一時的に記憶した後、順次クラスタップ抽出部5162、および、予測タップ抽出部5165に出力する。
【2742】
クラス分類部5164は、特徴量抽出部5163より入力された各画素毎のクラスの分類結果(上述のクラスコード)を予測タップ抽出部5165、および、学習メモリ5167に出力する。
【2743】
足し込み演算部5166は、予測タップ抽出部5165より入力される予測タップの各画素の画素値と、教師画像生成部5153より入力される画像の画素の画素値から後述する正規方程式を生成する際に必要とされる各項のサメーションの項を足し込みにより生成し、学習メモリ5167に出力する。
【2744】
学習メモリ5167は、クラス分類部5164より供給されるクラスコードと、足し込み演算部5166より入力される足し込み結果を対応付けて記憶し、適宜正規方程式演算部5168に供給する。
【2745】
正規方程式演算部5168は、学習メモリ5167に記憶されているクラスコードと、足し込み結果に基づいて正規方程式を生成すると共に、その正規方程式を演算して、各予測係数を求めて、係数メモリ5154にクラスコードに対応付けて記憶させる。尚、この係数メモリ5154に記憶された予測係数が、図337のOLPF除去部5131の係数メモリに記憶されることになる。
【2746】
正規方程式演算部5168についてさらに詳しく説明する。
【2747】
上述した式(249)において、学習前は予測係数diのそれぞれが未定係数である。学習は、クラスコード毎に複数の教師画像の画素を入力することによって行う。所定のクラスコードに対応する教師画像の画素がm個存在し、m個の教師画像の画素のそれぞれを、qk(kは、1乃至mの整数値)と記述する場合、式(249)から、次の式(250)が設定される。
【数199】
【2748】
即ち、式(250)は、右辺の演算をすることで、所定の教師画像の画素qkを予測推定することができることを表している。なお、式(250)において、ekは誤差を表している。即ち、右辺の演算結果である予測画像(生徒画像から予測演算することにより得られる画像)の画素qk’が、実際の教師画像の画素qkと厳密には一致せず、所定の誤差ekを含む。
【2749】
そこで、式(250)において、例えば、誤差ekの自乗和を最小にするような予測係数diが、学習により求まればよい。
【2750】
具体的には、例えば、m>nとなるように、教師画像の画素qkを学習により集めることができれば、最小自乗法によって予測係数diが一意に決定される。
【2751】
即ち、式(250)の右辺の予測係数diを最小自乗法で求める場合の正規方程式は、次の式(251)で表される。
【2752】
【数200】
【2753】
従って、式(251)で示される正規方程式が生成されれば、その正規方程式を解くことで予測係数diが一意に決定されることになる。
【2754】
具体的には、式(251)で示される正規方程式の各行列のそれぞれを、次の式(252)乃至(254)のように定義すると、正規方程式は、次の式(255)のように表される。
【2755】
【数201】
【2756】
【数202】
【2757】
【数203】
【2758】
【数204】
【2759】
式(253)で示されるように、行列DMATの各成分は、求めたい予測係数diである。従って、式(255)において、左辺の行列CMATと右辺の行列QMATが決定されれば、行列解法によって行列DMAT(即ち、予測係数di)の算出が可能である。
【2760】
より具体的には、式(252)で示されるように、行列CMATの各成分は、予測タップcikが既知であれば演算可能である。予測タップcikは、予測タップ抽出部5165により抽出されるので、足し込み演算部5166は、予測タップ抽出部5165より供給された予測タップcikのそれぞれを利用して行列CMATの各成分を足し込み演算することができる。
【2761】
また、式(254)で示されるように、行列QMATの各成分は、予測タップcikと教師画像の画素qkが既知であれば演算可能である。予測タップcikは、行列CMATの各成分に含まれるものと同一のものであり、また、教師画像の画素qkは、予測タップcikに含まれる注目画素(生徒画像のSD画素)に対する教師画像のSD画素である。従って、足し込み演算部5166は、予測タップ抽出部5165より供給された予測タップcikと、教師画像を利用して行列QMATの各成分を足し込み演算することができる。
【2762】
このようにして、足し込み演算部5166は、行列CMATと行列QMATの各成分を演算し、その演算結果をクラスコードに対応付けて、学習メモリ5167に記憶させる。
【2763】
正規方程式演算部5168は、学習メモリ5167に記憶されているクラスコードに対応して正規方程式を生成し、上述した式(255)の行列DMATの各成分である予測係数diを演算する。
【2764】
具体的には、上述した式(255)の正規方程式は、次の式(256)のように変形できる。
【2765】
【数205】
【2766】
式(256)において、左辺の行列DMATの各成分が、求めたい予測係数diである。また、行列CMATと行列QMATのそれぞれの各成分は、学習メモリ5167より供給されるものである。従って、正規方程式演算部5168は、学習メモリに記憶された所定のクラスコードに対応する行列CMATと行列QMATのそれぞれの各成分が供給されてきたとき、式(255)の右辺の行列演算を行うことで行列DMATを演算し、その演算結果(予測係数di)をクラスコードに対応付けて係数メモリ5154に記憶させる。
【2767】
次に、上述の図337のOLPF除去部5131と学習部5131との関係から、学習に用いられる生徒画像と教師画像について説明する。
【2768】
図342で示されるように、学習部5152は、OLPF5103によりフィルタ処理された画像(以下、OLPF有り画像と称する)と、OLPF5103によりフィルタ処理されていない画像(以下、OLPF無し画像と称する)を用いて学習により予測係数を求める。
【2769】
そして、学習部5152により予め学習で求められた予測係数を用いて、OLPF除去部5131は、OLPF有り画像をOLPF5103によるフィルタ処理の影響を除去した画像(以下、OLPF除去画像と称する)に変換する(上述の図339のフローチャートを参照して説明した処理)。
【2770】
すなわち、図343で示されているように、学習部5152でなされる学習処理は、OLPF無し画像である教師画像と、OLPF有り画像である生徒画像からなる学習対を用いて実行される。
【2771】
このため、OLPFを設けた状態で入射される光をセンサ2で受光した場合の画像と、OLPFを設けない状態でセンサ2で受光した画像とを生成して学習対とすることになるが、実際には、それぞれの画像を画素単位で正確に位置合わせして使用することが極めて困難である。
【2772】
そこで、学習装置5110は、入力画像に高解像度画像を用いて、OLPF有り画像とOLPF無し画像をシミュレーションにより生成している。
【2773】
ここでは、学習装置5110における教師画像生成部5153による教師画像の生成手法と、生徒画像生成部5151による生徒画像の生成手法について説明する。
【2774】
図344は、学習装置5110の教師画像生成部5153と、生徒画像生成部5151のそれぞれの詳細な構成を示すブロック図である。
【2775】
教師画像生成部5153の1/16平均処理部5153aは、入力画像である高解像度画像の全範囲において、4画素×4画素の合計16画素の画素値の平均画素値を求め、その16画素の全ての画素値を求められた平均画素値に置き換えて教師画像を生成して出力する。このように処理することにより、HD画像の画素数は、見かけ上1/16の画素数(水平方向、および、垂直方向に各々1/4の画素数となる)となる。
【2776】
すなわち、この1/16平均処理部5153aは、入力画像であるHD画像の各画素をセンサ2に入射される光に見立て、HD画像の4画素×4画素の範囲をSD画像の1画素と見立てることにより、一種の空間的な積分効果を生じさせ、OLPF5103による影響のない、センサ2で生成される画像(OLPF無し画像)を仮想的に生成する。
【2777】
生徒画像生成部5151のOLPFシミュレーション処理部5151aは、入力されたHD画像の各画素について、図334、および、図335を参照して説明したように、各画素の画素値を25%ずつ分散させて、重畳することにより、HD画像の各画素を光と見てたときにOLPF5103により生じる作用をシミュレーションする。
【2778】
1/16平均処理部5135bは、教師画像生成部5153の1/16平均処理部5153aと同様のものであり、4画素×4画素の合計16画素の平均画素値を16画素の全ての画素値と置き換え、SD画像の生徒画像を生成する。
【2779】
より詳細には、OLPFシミュレーション処理部5151aは、例えば、図345で示されるように、入射位置の画素P1の画素値を1/4にした値を画素P1乃至P4のそれぞれに分散し、この処理を全ての画素において実施し、それぞれに分散した値を重畳することにより画素値を求める。この処理により、例えば、図345における画素P4は、画素P1乃至P4の平均画素値となる。
【2780】
ここで、図345において、各マス目は、HD画像の1画素に対応する。また、点線で囲まれる4画素×4画素がSD画像の1画素に対応する。
【2781】
すなわち、図345においては、画素P1,P2との距離、画素P1,P3との距離、および、画素P2,P4の距離は、図335で示されるOLPF5103による移動量dに相当する。
【2782】
画素P1,P2との距離、画素P1,P3との距離、および、画素P2,P4の距離が、2画素となるのは、図346で示されるように、実際のOLPF5103によるOLPF移動量dが3.35μmであるのに対して、実際のCCD5104の画素のピッチ(画素間の水平方向、および、垂直方向の幅)が6.45μmであり、その相対比が1.93であるからである。すなわち、図中の点線で囲まれているようにOLPF移動量を2画素に設定し、画素ピッチを4画素とすることにより、相対比が2.0となるので、実測値の1.93に近い状態で、センサ2に入射される前のOLPF5103により生じる現象をシミュレーションすることができる。
【2783】
同様にして、図346で示されているように、OLPF移動量を4画素にして、画素ピッチを8画素にしてもよく、この比率を維持しつつOLPF移動量と画素ピッチを設定すれば、その他のOLPF移動量と画素ピッチでもよい。さらに、OLPF移動量を6画素として、画素ピッチを11画素にすることにしても、相対比は1.83とすることができるため、この比率による処理シミュレーションを行ってもよい。
【2784】
教師画像生成部5153が、図347で示されるような画像を生成する場合、生徒画像生成部5151は、図348で示されるような画像を生成する。両者ともHD画像の4画素×4画素が実質的にSD画像の1画素として表示されているので、モザイク状の画像となっているが、図347で示される教師画像は、図中の白で示されるエッジ部分が、図348で示される生徒画像に比べてはっきりとしており、生徒画像にOLPF5103の影響が生じたような画像が生成されている。
【2785】
次に、図349のフローチャートを参照して、学習の処理について説明する。
【2786】
ステップS5031において、生徒画像生成部5151のOLPFシミュレーション処理部5151aは、入力されたHD画像の各画素の画素値を図345を参照して説明したように、25%ずつ4画素に分散し、各画素位置に分散された画素値を重畳することにより画素値を生成して、OLPF5103による作用をシミュレーションして、処理結果を1/16平均処理部5151bに出力する。
【2787】
ステップS5032において、1/16平均処理部5151bは、OLPFシミュレーション処理部5151aより入力されたOLPFシミュレーション処理された画像を4画素×4画素の合計16画素単位で平均画素値を求め、さらに、その16画素の画素値をその平均画素値に順次置き換えて、見かけ上のSD画像となった生徒画像を生成し学習部5152の画像メモリ5161に出力する。
【2788】
ステップS5033において、クラスタップ抽出部5162は、画像メモリ5161に記憶された画像データより注目画素のクラスタップとなる画素の画素値を抽出し、抽出した画素の画素値を特徴量演算部5163に出力する。
【2789】
ステップS5034において、特徴量抽出部5163は、クラスタップ抽出部5162より入力されたクラスタップの画素の画素値の情報を用いて、注目画素に対応する特徴量を演算し、クラス分類部5164に出力する。
【2790】
ステップS5035において、クラス分類部5164は、入力された特徴量に基づいて、注目画素となる画素に対応するクラスを分類してクラスコードを決定し、予測タップ抽出部5165に出力すると共に、学習メモリに記憶させる。
【2791】
ステップS5036において、予測タップ抽出部5165は、クラス分類部5164より入力されたクラスコードに基づいて、画像メモリ5161に記憶された画像データの注目画素に対応する予測タップの画素の画素値の情報を抽出して、足し込み演算部5166に出力する。
【2792】
ステップS5037において、教師画像生成部5153の1/16平均処理部5153aは、入力画像であるHD画像を4画素×4画素の合計16画素単位で平均画素値を求め、求められた平均画素値を、その16画素の画素値に置き換えることにより、OLPF5103による影響を受けていないOLPF無し画像(見かけ上SD画像)を生成して足し込み演算部5166に出力する。
【2793】
ステップS5038において、足し込み演算部5166は、予測タップ抽出部5165より入力された予測タップの画素の画素値と、教師画像生成部5153より入力された教師画像の各画素の画素値に基づいて、正規方程式の各項のサメーションとなる値を足し込み、学習メモリ5167に出力して、クラスコードに対応付けて記憶させる。
【2794】
ステップS5039において、正規方程式演算部5168は、入力画像について、全画素について足し込み処理が終了したか否かを判定し、全画素について足し込み処理が終了していないと判定した場合、その処理は、ステップS5032に戻り、それ以降の処理が繰り返される。すなわち、全画素について足し込み処理が終了するまでステップS5032乃至S5039の処理が繰り返されることになる。
【2795】
ステップS5039において、全画素について足し込みが終了したと判定された場合、ステップS5040において、正規方程式演算部5168は、学習メモリ5167に記憶されている足し込み結果に基づいて、クラスコードに対応付けて正規方程式を演算し、予測係数を求め係数メモリ5154に出力する。
【2796】
ステップS5041において、正規方程式演算部5168は、全クラスの予測係数の演算が終了したか否かを判定し、全クラスについて予測係数の演算が終了していないと判定した場合、その処理は、ステップS5040に戻る。すなわち、全クラスについて予測係数の演算が終了するまで、ステップS5040の処理が繰り返される。
【2797】
ステップS5041において、全クラスについて予測係数の演算が終了したと判定された場合、その処理は終了する。
【2798】
以上の学習の処理により、係数メモリ5154に記憶されている予測係数を係数メモリ5144にコピーするなどして、使用することでOLPF除去部5131は、OLPF5103によりフィルタ処理された入力画像から、OLPFの処理効果を除去した実世界の画像に近い画像を生成することが可能となる。
【2799】
例えば、このようにして求められた予測係数を用いることにより、OLPF除去部5131は、図348で示されるような、OLPF5103によるフィルタ処理がなされた画像(OLPF5103による処理をシミュレーションして得られた画像)が入力された場合、図340のフローチャートを参照して説明したOLPFの除去の処理により図350で示されるような画像を生成する。
【2800】
このように処理された図350で示される画像は、図347で示されるようなOLPF5103によるフィルタ処理がない状態の入力画像と比較してもほぼ同様の画像となっているのがわかる。
【2801】
また、図351で示されるように、図347,図348、および、図350の画像のy方向の所定の同位置で、x方向に画素値の変化を比較しても、OLPFによる効果を除去した画像は、OLPFによるフィルタ処理がなされた画像よりも、OLPFによる効果を与えなかった画像に近い値となっていることがわかる。
【2802】
尚、図351においては、実線が、図347の画像(OLPF無し画像)に対応する画素値の変化であり、点線が、図348の画像(OLPF有り画像)であり、さらに、一点鎖線が、図350の画像(OLPF除去画像)である。
【2803】
以上によれば、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影された画像データが取得され、光学ローパスフィルタにより空間方向のうち少なくとも1次元方向に光信号が分散して積分されていることが考慮されて光学ローパスフィルタに入射される光信号を推定するようにしたので、データが取得された現実世界を考慮し、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることが可能となる。
【2804】
以上の例においては、データ定常性検出部101の前段で、OLPF5103によるフィルタ処理の影響を除去する例について説明してきたが、実世界推定部102によりOLPF5103の影響を考慮して実世界を推定するようにしてもよい。従って、この場合、信号処理装置の構成は、図3を参照して説明した構成となる。
【2805】
図352は、OLPF5103の影響を考慮して実世界を推定するようにした実世界推定部102の構成を示すブロック図である。
【2806】
図352で示されるように、実世界推定部102には、条件設定部5201、入力画像記憶部5202、入力画素値取得部5203、積分成分演算部5204、正規方程式生成部5205、および近似関数生成部5206が設けられている。
【2807】
条件設定部5201は、注目画素に対応する関数F(x,y)を推定するために使用する画素の範囲(タップ範囲)や、近似関数f(x,y),g(x,y)の次数nを設定する。
【2808】
入力画像記憶部5202は、センサ2からの入力画像(画素値)を一次格納する。
【2809】
入力画素値取得部5203は、入力画像記憶部5202に記憶された入力画像のうちの、条件設定部5201により設定されたタップ範囲に対応する入力画像の領域を取得し、それを入力画素値テーブルとして正規方程式生成部5205に供給する。即ち、入力画素値テーブルは、入力画像の領域に含まれる各画素のそれぞれの画素値が記述されたテーブルである。なお、入力画素値テーブルの具体例については後述する。
【2810】
ところで、図344,図345を参照して説明したように、OLPF5103は、入射してきた光をOLPF移動量dで4点に分散している。従って、画像上の各画素は、図353で示されるように、自らの位置を含めた4点の画素値の25%ずつが重畳されて画素値が生成される。尚、図353においては、点線で囲まれている範囲が異なる4画素のポイントを示しており、各々の25%が重畳されていることが示されている。
【2811】
以上のことから、OLPF5103によって図354で示されるように4点に分散されており、この分散された、センサ2の直前の光の分布を示す近似関数g(x,y)は、実世界を近似する近似関数f(x,y)を用いて、以下の式(257)で示されるような関係式となる。尚、図354においては、各上に凸の曲線が近似関数f(x,y)を示しており、これらが4個に分散された後、重畳された近似関数がg(x,y)である。
【2812】
【2813】
また、実世界の近似関数f(x,y)は、以下の式(258)で示される。
【数206】
【2814】
ここで、wiは、近似関数の係数を示し、s(=cotθ:θは定常性の角度)は、定常性の傾きを示す。
【2815】
従って、センサ2直前の光の分布を示す近似関数g(x,y)は、以下の式(259)で示される。
【2816】
【数207】
実世界推定部102は、上述したように、近似関数f(x,y)の特徴量wiを演算する。
【2817】
式(259)は、次の式(260)のように表現することができる。
【2818】
【数208】
【2819】
式(260)において、Si(x−0.5,x+0.5,y−0.5,y+0.5)は、i次項の積分成分を表している。即ち、積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)は、次の式(261)で示される通りである。
【2820】
【数209】
【2821】
積分成分演算部5204は、この積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)を演算する。
【2822】
具体的には、式(261)で示される積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)は、相対画素位置(x,y)、傾きs、および、i次項のiが既知であれば、演算可能である。これらのうちの、相対画素位置(x,y)は注目画素とタップ範囲により、変数sはcotθであるので角度θにより、iの範囲は次数nにより、それぞれ決定される。
【2823】
従って、積分成分演算部5204は、条件設定部5201により設定されたタップ範囲および次数、並びにデータ定常性検出部101より出力されたデータ定常性情報のうちの角度θに基づいて積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)を演算し、その演算結果を積分成分テーブルとして正規方程式生成部5205に供給する。
【2824】
正規方程式生成部5205は、入力画素値取得部5203より供給された入力画素値テーブルと、積分成分演算部5204より供給された積分成分テーブルを利用して、上述した式(260)を最小自乗法で求める場合の正規方程式を生成し、それを正規方程式テーブルとして近似関数生成部5206に出力する。なお、正規方程式の具体例については後述する。
【2825】
近似関数生成部5206は、正規方程式生成部5205より供給された正規方程式テーブルに含まれる正規方程式を行列解法で解くことにより、上述した式(259)の特徴量wi(即ち、2次元多項式である近似関数f(x,y)の係数wi)のそれぞれを演算し、画像生成部103に出力する。
【2826】
次に、図355のフローチャートを参照して、OLPF5103の影響を考慮した実世界の推定処理(図40のステップS102の処理)について説明する。
【2827】
例えば、いま、傾きGFで表される空間方向の定常性を有する実世界1の光信号が、センサ2により検出されて、1フレームに対応する入力画像として、入力画像記憶部5202に既に記憶されているとする。また、データ定常性検出部101が、ステップS101(図40)の定常性の検出の処理において、入力画像のうちの、データ定常性情報として角度θを既に出力しているとする。
【2828】
この場合、ステップS5201において、条件設定部5201は、条件(タップ範囲と次数)を設定する。
【2829】
例えば、いま、図356で示されるタップ範囲5241が設定されるとともに、次数として5次が設定されたとする。
【2830】
即ち、図356は、タップ範囲の1例を説明する図である。図356において、X方向とY方向は、センサ2のX方向とY方向を表している。また、タップ範囲5241は、X方向に4画素分、かつY方向に5画素分の総計20個の画素(図中、20個の正方形)からなる画素群を表している。
【2831】
さらに、図356に示されるように、注目画素が、タップ範囲5241のうちの、図中、左から2画素目であって、下から3画素目の画素に設定されるとする。また、各画素のそれぞれに対して、注目画素からの相対画素位置(x,y)(注目画素の中心(0,0)を原点とする注目画素座標系の座標値)に応じて、図356で示されるような番号l(lは、0乃至19のうちのいずれかの整数値)が付されるとする。
【2832】
図355に戻り、ステップS5202において、条件設定部5201は、注目画素を設定する。
【2833】
ステップS5203において、入力画素値取得部5203は、条件設定部5201により設定された条件(タップ範囲)に基づいて入力画素値を取得し、入力画素値テーブルを生成する。即ち、いまの場合、入力画素値取得部5203は、入力画素値テーブルとして、20個の入力画素値P(l)からなるテーブルを生成する。
【2834】
なお、いまの場合、入力画素値P(l)と、上述した入力画素値P(x,y)の関係は、次の式(262)で示される関係とされる。ただし、式(262)において、左辺が入力画素値P(l)を表し、右辺が入力画素値P(x,y)を表している。
【2835】
【数210】
【2836】
ステップS5204において、積分成分演算部5204は、条件設定部5201により設定された条件(タップ範囲および次数)、並びにデータ定常性検出部101より供給されたデータ定常性情報(角度θ)に基づいて積分成分を演算し、積分成分テーブルを生成する。
【2837】
いまの場合、上述したように、入力画素値は、P(x,y)でなくP(l)といった、画素の番号lの値として取得されるので、積分成分演算部5204は、上述した式(261)の積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)を、次の式(263)の左辺で示される積分成分Si(l)といったlの関数として演算する。
【2838】
Si(l) = Si(x−0.5,x+0.5,y−0.5,y+0.5) ・・・(263)
【2839】
具体的には、いまの場合、次の式(264)で示される積分成分Si(l)が演算される。
【2840】
【数211】
【2841】
なお、式(264)において、左辺が積分成分Si(l)を表し、右辺が積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)を表している。即ち、いまの場合、iは0乃至5であるので、20個のS0(l),20個のS1(l),20個のS2(l),20個のS3(l),20個のS4(l),20個のS5(l)の総計120個のSi(l)が演算されることになる。
【2842】
より具体的には、はじめに、積分成分演算部5204は、データ定常性検出部101より供給された角度θに対するcotθを演算し、それを変数sとする。次に、積分成分演算部5204は、演算した変数sを使用して式(264)の右辺で示される20個の積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)のそれぞれを、i=0乃至5のそれぞれについて演算する。即ち、120個の積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)が演算されることになる。なお、この積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)の演算においては、上述した式(261)が使用される。そして、積分成分演算部5204は、式(264)に従って、演算した120個の積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)のそれぞれを、対応するSi(l)のそれぞれに変換し、変換した120個のSi(l)を含む積分成分テーブルを生成する。
【2843】
なお、ステップS5203の処理とステップS5204の処理の順序は、図355の例に限定されず、ステップS5204の処理が先に実行されてもよいし、ステップS5203の処理とステップS5204の処理が同時に実行されてもよい。
【2844】
次に、ステップS5205において、正規方程式生成部5205は、ステップS5203の処理で入力画素値取得部5203により生成された入力画素値テーブルと、ステップS5204の処理で積分成分演算部5204により生成された積分成分テーブルに基づいて、正規方程式テーブルを生成する。
【2845】
具体的には、いまの場合、上述した式(260)を利用して最小自乗法により特徴量wiが演算される(ただし、式(258)において、積分成分Si(x−0.5,x+0.5,y−0.5,y+0.5)は、式(262)により変換されるSi(l)が使用される)ので、それに対応する正規方程式は、次の式(265)のように表される。
【2846】
【数212】
【2847】
なお、式(265)において、Lは、タップ範囲の画素の番号lのうちの最大値を表している。nは、多項式である近似関数f(x)の次数を表している。具体的には、いまの場合、n=5となり、L=19となる。
【2848】
式(265)で示される正規方程式の各行列のそれぞれを、次の式(266)乃至(268)のように定義すると、正規方程式は、次の式(269)のように表現される。
【2849】
【数213】
【2850】
【数214】
【2851】
【数215】
【2852】
【数216】
【2853】
式(267)で示されるように、行列WMATの各成分は、求めたい特徴量wiである。従って、式(269)において、左辺の行列SMATと右辺の行列PMATが決定されれば、行列解法によって行列WMATの演算が可能になる。
【2854】
具体的には、式(266)で示されるように、行列SMATの各成分は、上述した積分成分Si(l)で演算可能である。即ち、積分成分Si(l)は、積分成分演算部5204より供給された積分成分テーブルに含まれているので、正規方程式生成部5205は、積分成分テーブルを利用して行列SMATの各成分を演算することができる。
【2855】
また、式(268)で示されるように、行列PMATの各成分は、積分成分Si(l)と入力画素値P(l)で演算可能である。即ち、積分成分Si(l)は、行列SMATの各成分に含まれるものと同一のものであり、また、入力画素値P(l)は、入力画素値取得部5203より供給された入力画素値テーブルに含まれているので、正規方程式生成部5205は、積分成分テーブルと入力画素値テーブルを利用して行列PMATの各成分を演算することができる。
【2856】
このようにして、正規方程式生成部5205は、行列SMATと行列PMATの各成分を演算し、その演算結果(行列SMATと行列PMATの各成分)を正規方程式テーブルとして近似関数生成部5206に出力する。
【2857】
正規方程式生成部5205より正規方程式テーブルが出力されると、ステップS5206において、近似関数生成部5206は、正規方程式テーブルに基づいて、上述した式(267)の行列WMATの各成分である特徴量wi(即ち、2次元多項式である近似関数f(x,y)の係数wi)を演算する。
【2858】
具体的には、上述した式(269)の正規方程式は、次の式(270)のように変形できる。
【2859】
【数217】
【2860】
式(270)において、左辺の行列WMATの各成分が、求めたい特徴量wiである。また、行列SMATと行列PMATのそれぞれの各成分は、正規方程式生成部5205より供給された正規方程式テーブルに含まれている。従って、近似関数生成部5206は、正規方程式テーブルを利用して、式(270)の右辺の行列演算を行うことで行列WMATを演算し、その演算結果(特徴量wi)を画像生成部103に出力する。
【2861】
ステップS5207において、近似関数生成部5206は、全画素の処理を終了したか否かを判定する。
【2862】
ステップS5207において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS5202に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS5202乃至S5207の処理が繰り返される。
【2863】
そして、全画素の処理が終了すると(ステップS5207において、全画素の処理が終了されたと判定されると)、実世界1の推定処理は終了となる。
【2864】
図357Aは、高精細の入力画像(自転車のスポークの画像)を示しており、図357Bは、図357Aの画像がOLPF5103により処理された画像であり、図357Cは、上述した図355のフローチャートを参照して説明した処理により図357Bの画像から推定された実世界の近似関数を用いて画素を生成した画像であり、図357Dは、図357Bの画像を従来のクラス分類適応処理により生成した画像である。
【2865】
図357Cの画像は、図357Dの画像に比べて、エッジが強く表示されスポークの輪郭がはっきりと表示されていることがわかる。
【2866】
また、図358は、図357A乃至Dの画像の所定の垂直方向の位置における水平方向の画素値の変化を示した図である。図358においては、1点鎖線は、52−6Aの画像に、実線は、図357Bの画像に、点線は、図357Cの画像に、2点鎖線は、図357Dの画像にそれぞれ対応している。図358で示されるように、スポークの像を表示している空間方向X=10付近において、図352の実世界推定部102によりOLPF5103の影響を考慮した処理の画像である点線の方が、2点鎖線で示される従来のクラス分類適応処理により生成された画像よりも、入力画像に近い値が得られているのがわかる。
【2867】
特に、画素値の値が小さい部分は、スポークのエッジ部分の照り返し部分であるが、この部分については、OLPFを考慮した処理により表現力が向上している。
【2868】
図352の実世界推定部102によれば、OLPF5103による影響を考慮した実世界の近似関数f(x)を求めることが可能となり、さらに、OLPF5103による影響を考慮した実世界の近似関数f(x)からOLPF5103による影響を考慮した画素を生成することが可能となる。
【2869】
以上、2次元多項式近似手法の説明として、空間方向(X方向とY方向)に対する近似関数f(x,y)の係数(特徴量)wiを演算する例を用いたが、もちろん、空間方向(X方向、または、Y方向)のいずれかのみに適用し、1次元多項式近似手法としてもよい。
【2870】
以上によれば、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影され、現実世界の光信号の定常性の一部が欠落した画像データの空間方向のうち少なくとも1次元方向の位置に対応する注目画素の画素値が、光学ローパスフィルタに対応した複数の実世界関数の少なくとも1次元方向の積分により取得された画素値であるとして複数の実世界関数を推定することにより、現実世界の光信号に対応する関数を推定するようにしたので、より忠実に実世界を推定することが可能となる。
【2871】
以上においては、図336の信号処理装置においては、センサ2から入力される画像よりOLPF5103の影響を除去するようにして信号処理を実行し、図352の実世界推定部102では、OLPF5103の影響を考慮して実世界の近似関数を推定する処理により、結果的に信号処理においてOLPF5103の影響を考慮した処理を行ってきたが、例えば、OLPF無しのHD画像を教師画像とし、OLPF有りのSD画像を生徒画像として学習により予測係数を設定し、クラス分類適応処理により画像を生成するようにしてもよい。
【2872】
図359は、OLPF無しのHD画像を教師画像とし、OLPF有りのSD画像を生徒画像として学習により予測係数を設定し、クラス分類適応処理により画像を生成するようにした信号処理装置5221の構成を示すブロック図である。
【2873】
尚、図359における信号処理装置5221は、実質的に、図337のOLPF除去部5131と同様の構成であり、信号処理装置5221のクラスタップ抽出部5241、特徴量演算部5242、クラス分類部5243、係数メモリ5244、予測タップ抽出部5245、および、画素値演算部5246は、OLPF除去部5131の信号処理装置5141のクラスタップ抽出部5141、特徴量演算部5142、クラス分類部5143、係数メモリ5144、予測タップ抽出部5145、および、画素値演算部5146は、同様のものであるのでその説明は省略する。ただし、係数メモリ5244に記憶されている予測係数は、係数メモリ5144とは異なる学習により得られたものであり、異なるものである。係数メモリ5244に記憶される予測係数の学習については、図361の学習装置を参照して後述する。
【2874】
次に、図360のフローチャートを参照して、図359の信号処理装置5221による信号の処理について説明するが、実質的に、図340のフローチャートにおける処理と同様であるので、その説明は省略する。
【2875】
以上によれば、それぞれ空間積分効果を有する複数の画素に現実世界の光信号が光学ローパスフィルタを介して射影されることにより取得される第1の画像データを取得し、第2の画像データ内の注目画素に対応する複数の画素を第1の画像データから抽出し、第1の画像データから光学ローパスフィルタに入射される光信号が直接射影されることにより取得される第2の画像データを予測するように予め学習し、抽出した複数の画素と予測に基いて第2の画像データ内の注目画素の画素値を予測するようにしたので、実世界に忠実な画像を生成することが可能となる。
【2876】
次に、図361を参照して、図359の信号処理装置の係数メモリ5244に記憶される予測係数を学習する(上述における図359の信号処理装置は、予測係数を用いて画素値を予測する予測手段であるので、予測係数を学習することは、すなわち、この予測手段を学習することになる)学習装置について説明する。尚、図361の学習部5252は、図341の学習部5152と実質的に同様のものであり、学習部5252の画像メモリ5261、クラスタップ抽出部5262、特徴量抽出部5263、クラス分類部5264、予測タップ抽出部5265、足し込み演算部5266、学習メモリ5267、正規方程式演算部5268、および、係数メモリ5254は、学習部5152の画像メモリ5161、クラスタップ抽出部5162、特徴量抽出部5163、クラス分類部5164、予測タップ抽出部5165、足し込み演算部5166、学習メモリ5167、正規方程式演算部5168、および、係数メモリ5154と同様のものであるので、その説明は省略する。
【2877】
また、図362で示されるように、教師画像生成部5253の1/16平均処理部5253a、および、生徒画像生成部5251のOLPFシミュレーション処理部5251aは、図344の教師画像生成部5153の1/16平均処理部5153a、および、生徒画像生成部5151のOLPFシミュレーション処理部5151aと同様であるので、その説明も省略する。
【2878】
生徒画像生成部5251の1/64平均処理部5251bは、OLPFシミュレーションによりOLPF5103による処理がなされたHD画像の各画素をセンサ2に入射される光に見立て、HD画像の8画素×8画素の範囲をSD画像の1画素と見立てることにより、一種の空間的な積分効果を生じさせ、OLPF5103による影響のない、センサ2で生成される画像(OLPF無しSD画像)を仮想的に生成する。
【2879】
次に、図363のフローチャートを参照して、図361の学習装置による学習の処理について説明する。
【2880】
尚、ステップS5231の処理、および、S5233乃至S5241の処理は、図349のフローチャートを参照して説明したステップS5031の処理、および、ステップS5033乃至S5041の処理と同様であるので、その説明は省略する。
【2881】
ステップS5232において、1/64平均処理部5251bは、OLPFシミュレーション処理部5251aより入力されたOLPFシミュレーション処理された画像を8画素×8画素の合計64画素単位で平均画素値を求め、さらに、その64画素の画素値をその平均画素値に順次置き換えて、見かけ上のSD画像となった生徒画像を生成し学習部5252の画像メモリ5261に出力する。
【2882】
以上の処理により、係数メモリ5254には、OLPF無しのHD画像を教師画像とし、OLPF有りのSD画像を生徒画像としたときの予測係数が記憶されることになる。さらに、この係数メモリ5254に記憶された予測係数を、信号処理装置5221の係数メモリ5244にコピーするなどすることにより、図360の信号の処理を実行することが可能となり、さらには、OLPF有りのSD画像をOLPF無しのHD画像に変換することが可能となる。
【2883】
以上の処理をまとめると、実世界の画像にOLPFの処理が施され、さらに、撮像素子(センサ2)撮像されたSD画像(図中の実世界+LPF+撮像素子)は、図337のOLPF除去部5131により図364の矢印Aで示されるように、OLPFによる処理が除去されたSD画像(図中の実世界+撮像素子)に変換され、さらに、定常性検出部101、および、実世界推定部102により、図364の矢印A’で示されるように、OLPFによる処理前の実世界が推定される。
【2884】
また、図352で示される実世界推定部102は、SD画像(図中の実世界+LPF+撮像素子)から、図364の矢印Bで示されるようにOLPFによる処理前の実世界を推定する。
【2885】
さらに、図359で示される信号処理装置5221は、図364の矢印Cで示されるように、SD画像(図中の実世界+LPF+撮像素子)から実世界をOLPFの影響を受けない状態で撮像素子により撮像した画像を生成する。
【2886】
また、従来のクラス分類適応処理は、図364の矢印Dで示されるように、SD画像(図中の実世界+LPF+撮像素子)から実世界をOLPFを介した状態で撮像素子により撮像したHD画像を生成する。
【2887】
さらに、図3の信号処理装置は、図364の矢印Eで示されるように、SD画像(図中の実世界+LPF+撮像素子)からOLPFにより影響を受けた実世界を推定する。
【2888】
以上によれば、第2の画像データに対応する光信号が光学ローパスフィルタを通過したときの光信号に対応する画像データを演算し、第1の画像データとして出力し、第2の画像データ内の注目画素に対応する複数の画素を第1の画像データから抽出し、抽出した複数の画素の画素値から、注目画素の画素値を予測するように学習するようにしたので、実世界に忠実な画像を生成することが可能となる。
【2889】
また、以上においては、実世界を近似する近似関数f(x)を連続関数として扱ってきたが、例えば、領域毎に不連続に近似関数f(x)を設定するようにしてもよい。
【2890】
すなわち、以上においては、図365で示されるように実世界の光の強度の分布を示す1次元の断面となる曲線(図中の点線で示された曲線)の関数(近似関数)を多項式により近似し、定常性の方向にこの曲線が連続して存在することを利用して実世界を推定していた。
【2891】
しかしながら、この断面となる曲線は、必ずしも多項式のような連続関数である必要はなく、例えば、図366で示されるように領域毎に異なる不連続な関数であってもよい。すなわち、図366の場合、領域a1≦x<a2のとき、近似関数はf(x)=w1であり、領域a2≦x<a3のとき、近似関数はf(x)=w2であり、領域a3≦x<a4のとき、近似関数はf(x)=w3であり、領域a4≦x<a5のとき、近似関数はf(x)=w4であり、さらに、領域a5≦x<a6のとき、近似関数はf(x)=w5であり、それぞれ領域毎に異なる近似関数f(x)が設定されている。また、wiは、実質的に、各領域における光の強度のレベルと考えることができる。
【2892】
このように図366で示されるような不連続関数は、以下の式(271)の一般式で定義される。
【2893】
f(x)=wi(ai≦x<ai+1)・・・(271)
【2894】
ここで、iは、領域が設定された数を示している。
【2895】
このように図366で示されたような断面の分布(断面の曲線に対応するもの)は、各領域毎に定数として設定されている。尚、図366で示される、画素値の断面の分布は、図365の点線で示される曲線の分布と比較して、その形状が大きく異なるものとなっているが、実際には、各関数f(x)が設定される範囲(ここでは、ai≦x<ai+1)の幅を微小なものとすることにより、不連続関数の断面の分布と、連続関数の断面の曲線は、幾何学的に近似できるレベルとすることが可能である。
【2896】
従って、式(271)で定義される、実世界の不連続関数からなる近似関数f(x)を用いることにより、以下の式(272)により画素値Pが求められることになる。
【数218】
【2897】
ここで、xe,xsは、X方向の積分範囲を示す値を示し、xSが積分開始位置を、xeが積分終了位置をそれぞれ示している。
【2898】
しかしながら、実際には、上述の式(271)で示されるような実世界を近似する関数を直接求めることは困難である。
【2899】
図366で示されるような画素値の断面の分布は、定常性の方向に対して連続して存在するものと仮定されるので、空間における光の強度の分布は、図367で示されるようなものとなる。ここで、図367の左部は、連続関数からなる近似関数f(x)が定常性の方向に連続的に存在した場合の画素値の分布に対応したものであり、図367の右部は、左部に対応する同じ分布を、図366の不連続関数からなる近似関数f(x)を用いて、定常性の方向に対して連続して存在した場合の画素値の分布に対応したものである。
【2900】
すなわち、定常性の方向に沿って、図366で示された断面の形状が連続した状態となるため、不連続関数を用いた近似関数f(x)を用いた場合、各レベルwiは、定常性の方向に沿って帯状に分布することになる。
【2901】
図367の右部で示されるような不連続関数により定義された近似関数f(x)を用いて、各領域のレベルを決定するには、各画素の総面積のうち、各レベル(各関数)が設定された範囲に占める、領域毎の面積の割合に応じた重みと、そのレベルとの積和を求め、対応する画素の画素値を用いて正規方程式を生成し、最小自乗法を用いて、各領域の画素値を求める必要がある。
【2902】
すなわち、図368で示されるように、図368の左部に示されるように不連続関数が分布する場合、図368の太線で囲まれたマス目で示される注目画素(尚、図368は、紙面をXY平面としたときの画素の配列を示す上面図であり、各マス目が画素に相当する)の画素値を求める場合、注目画素中の斜線部で示された部分より上部に存在する三角形状(底辺が上部の三角形)の範囲がf(x)=w2で設定された範囲であり、斜線部がf(x)=w3で設定された範囲であり、斜線部の下部に存在する三角形状(底辺が下部の三角形)の範囲がf(x)=w4で設定された範囲となっている。注目画素の面積が1である場合、f(x)=w2で設定された範囲の占める割合が0.2、f(x)=w3で設定された範囲の占める割合が0.5、および、f(x)=w4で設定された範囲の占める割合が0.3であるものとしたとき、注目画素の画素値Pは、各範囲の画素値と割合の積和で表されるので、以下の式(273)で示される演算により求められる。
【2903】
P=0.2×w2+0.5×w3+0.3×w4・・・(273)
【2904】
従って、各画素について、式(273)で示される関係を用いて画素値との関係式を生成することで、例えば、レベルw1乃至w5を求めるには、全てのレベルを含む最低5画素分の画素値との関係を示す式(273)が得られれば、例えば、最小自乗法(関係式の数と未知数が同数である場合は連立方程式)により画素値のレベルを示すw1乃至w5を得ることが可能となる。
【2905】
このように定常性を用いた2次元の関係を利用することにより、不連続関数からなる近似関数f(x)を求めることが可能となる。
【2906】
定常性検出部101により定常性の角度θが決定されていることから、原点(0,0)を通る角度θの直線は一意に決まり、Y方向の任意の位置yにおける、直線のX方向の位置xlが、次の式(274)のように表される。ただし、式(274)において、sは定常性の傾きを示しており、定常性の傾きが角度θで表されるとき、cotθ(=s)で表されるものである。
【2907】
xl=s×y・・・(274)
【2908】
即ち、データの定常性に対応する直線上の点は、座標値(xl,y)で表される。
【2909】
式(274)より、断面方向距離x’(定常性の存在する直線に沿ってX方向にずれた距離)は、次の式(275)のように表される。
【2910】
従って、入力画像の任意の位置(x,y)における近似関数f(x,y)は、式(271)と式(275)より、次の式(276)のように示される。
【2911】
f(x,y)=wi(ai≦(x−s×y)<ai+1)・・・(276)
【2912】
なお、式(276)において、wiは、各領域における光の強度のレベルを示す特徴量であるといえる。尚、以下において、wiは、特徴量とも称する。
【2913】
従って、実世界推定部102は、式(276)の各領域毎の特徴量wiを演算することができれば、不連続関数からなる近似関数f(x,y)を推定することにより、波形F(x,y)を推定することができる。
【2914】
そこで、以下、式(276)の特徴量wiを演算する手法について説明する。
【2915】
即ち、式(276)で表される近似関数f(x,y)を、画素(センサ2の検出素子)に対応する積分範囲(空間方向の積分範囲)で積分すれば、その積分値が、画素の画素値の推定値となる。このことを、式で表現したものが、次の式(277)である。なお、不連続関数を用いた2次元の近似手法においては、フレーム方向Tは一定値とみなされるので、式(277)は、空間方向(X方向とY方法)の位置x,yを変数とする方程式とされている。
【2916】
【数219】
【2917】
式(277)において、P(x,y)は、センサ2からの入力画像のうちの、その中心位置が位置(x,y)(注目画素からの相対位置(x,y))に存在する画素の画素値を表している。
【2918】
このように、2次元近似手法においては、入力画素値P(x,y)と、2次元の近似関数f(x,y)の関係を、式(277)で表現することが可能であるので、実世界推定部102は、式(277)を利用して、特徴量wiを、例えば、最小自乗法等により演算することで、2次元の関数F(x,y)(空間方向の定常性を有する実世界1の光信号を、空間方向に着目して表した波形F(x,y))を推定することが可能となる。
【2919】
ここで、図369を参照して、以上のような、不連続関数により近似関数f(x)を設定し、実世界を推定する実世界推定部102の構成について説明する。
【2920】
図369で示されるように、実世界推定部102には、条件設定部5301、入力画像記憶部5302、入力画素値取得部5303、積分成分演算部5304、正規方程式生成部5305、および近似関数生成部5306が設けられている。
【2921】
条件設定部5301は、注目画素に対応する関数F(x,y)を推定するために使用する画素の範囲(タップ範囲)や、近似関数f(x,y)の範囲の(例えば、ai≦x<ai+1の幅、iの数)を設定する。
【2922】
入力画像記憶部5302は、センサ2からの入力画像(画素値)を一時格納する。
【2923】
入力画素値取得部5303は、入力画像記憶部5302に記憶された入力画像のうちの、条件設定部5301により設定されたタップ範囲に対応する入力画像の領域を取得し、それを入力画素値テーブルとして正規方程式生成部5305に供給する。即ち、入力画素値テーブルは、入力画像の領域に含まれる各画素のそれぞれの画素値が記述されたテーブルである。なお、入力画素値テーブルの具体例については後述する。
【2924】
ところで、上述したように、2次元近似手法を利用する実世界推定部102は、上述した式(277)を最小自乗法で解くことにより、上述した式(276)で示される近似関数f(x,y)の特徴量wiを演算する。
【2925】
式(277)は、次の式(278)のように表現することができる。
【2926】
【数220】
【2927】
式(278)において、Ti(xs,xe,ys,ye)は、積分範囲となる領域のうち、特徴量wiとなる領域(光のレベルwiとなる領域)の積分結果、すなわち、面積を表している。尚、以下、Ti(xs,xe,ys,ye)は、積分成分と称する。
【2928】
積分成分演算部5304は、この積分成分Ti(xs,xe,ys,ye)(=(x−0.5,x+0.5,y−0.5,y+0.5):1画素分の領域を取る場合)を演算する。
【2929】
具体的には、式(278)で示される積分成分Ti(xs,xe,ys,ye)は、図368を参照して上述したように、求めようとする画素中の、所定の特徴量wiの面積を求めるものである。従って、積分成分演算部5304は、積分成分Ti(xs,xe,ys,ye)を、各特長量毎の幅dとデータの定常性の角度θの情報に基づいて、幾何学的に各特徴量wi毎に占める面積を求めるようにしてもよいし、シンプソンの公式に従って多重分割して積分して求めるようにしてもよく、面積を求める方法はそれらに限るものではなく、例えば、モンテカルロ法によって面積を求めるようにしてもよい。
【2930】
図368で説明したように、ai≦(x−s×y)<ai+1の幅と、定常性の傾きを示す変数s、および、相対画素位置(x,y)が既知であれば、特徴量wiの演算は可能である。これらのうち、相対画素位置(x,y)は注目画素とタップ範囲により、変数sはcotθであるので角度θにより、ai≦(x−s×y)<ai+1の幅は、予め設定されるため、それぞれの値は既知となる。
【2931】
従って、積分成分演算部5304は、条件設定部5301により設定されたタップ範囲および幅、並びにデータ定常性検出部101より出力されたデータ定常性情報のうちの角度θに基づいて積分成分Ti(x−0.5,x+0.5,y−0.5,y+0.5)を演算し、その演算結果を積分成分テーブルとして正規方程式生成部5305に供給する。
【2932】
正規方程式生成部5305は、入力画素値取得部5303より供給された入力画素値テーブルと、積分成分演算部5304より供給された積分成分テーブルを利用して、上述した式(277)、即ち、式(278)を最小自乗法で求める場合の正規方程式を生成し、それを正規方程式テーブルとして近似関数生成部5306に出力する。なお、正規方程式の具体例については後述する。
【2933】
近似関数生成部5306は、正規方程式生成部5305より供給された正規方程式テーブルに含まれる正規方程式を行列解法で解くことにより、上述した式(278)の特徴量wiのそれぞれを演算し、画像生成部103に出力する。
【2934】
次に、図370のフローチャートを参照して、不連続関数を用いた2次元の近似手法が適用される実世界の推定処理(図40のステップS102の処理)について説明する。
【2935】
例えば、いま、傾きGFで表される空間方向の定常性を有する実世界1の光信号が、センサ2により検出されて、1フレームに対応する入力画像として、入力画像記憶部5302に既に記憶されているとする。また、データ定常性検出部101が、ステップS101(図406)の定常性の検出の処理において、入力画像のうちのデータ定常性情報として角度θを既に出力しているものとする。
【2936】
この場合、ステップS5301において、条件設定部5301は、条件(タップ範囲、ai≦x<ai+1の幅(同じ特徴量の幅)、および、iの数)を設定する。
【2937】
例えば、いま、図371で示されるタップ範囲が設定されるとともに、幅としてdが設定されたとする。
【2938】
即ち、図371は、タップ範囲の1例を説明する図である。図371において、X方向とY方向は、センサ2のX方向とY方向を表している。また、タップ範囲は、図371の右部の総計15個の画素(図中右部の太線で囲まれた15個のマス目)からなる画素群を表している。
【2939】
さらに、図371に示されるように、注目画素が、タップ範囲のうちの、図中、斜線部の画素に設定されるとする。また、各画素のそれぞれに対して、注目画素からの相対画素位置(x,y)(注目画素の中心(0,0)を原点とする注目画素座標系の座標値)に応じて、図371で示されるような番号l(lは、0乃至14のうちのいずれかの整数値)が付されるとする。
【2940】
図370に戻り、ステップS5302において、条件設定部5301は、注目画素を設定する。
【2941】
ステップS5303において、入力画素値取得部5303は、条件設定部5301により設定された条件(タップ範囲)に基づいて入力画素値を取得し、入力画素値テーブルを生成する。即ち、いまの場合、入力画素値取得部5303は、入力画像の領域(図371中の番号0乃至14が付された画素)の画素の画素値を取得し、入力画素値テーブルとして、15個の入力画素値P(l)からなるテーブルを生成する。
【2942】
ステップS5304において、積分成分演算部5304は、条件設定部5301により設定された条件(タップ範囲、幅、iの数)、並びにデータ定常性検出部101より供給されたデータ定常性情報(角度θ)に基づいて積分成分を演算し、積分成分テーブルを生成する。
【2943】
いまの場合、積分成分演算部5304は、上述した式(278)の積分成分Ti(xs,xe,ys,ye)(=Ti(x−0.5,x+0.5,y−0.5,y+0.5):1画素の大きさを1×1で表現する場合)を、次の式(279)の左辺で示される積分成分Ti(l)といったlの関数として演算する。
【2944】
Ti(l) = Ti(x−0.5,x+0.5,y−0.5,y+0.5) ・・・(279)
【2945】
即ち、いまの場合、例えば、iが0乃至5であるとすれば、15個のT0(l),15個のT1(l),15個のT2(l),15個のT3(l),15個のT4(l),15個のT5(l)の総計90個のTi(l)が演算され、それらを含む積分成分テーブルが生成される。
【2946】
なお、ステップS5303の処理とステップS5304の処理の順序は、図370の例に限定されず、ステップS5304の処理が先に実行されてもよいし、ステップS5303の処理とステップS5304の処理が同時に実行されてもよい。
【2947】
次に、ステップ5305において、正規方程式生成部5305は、ステップS5303の処理で入力画素値取得部5303により生成された入力画素値テーブルと、ステップS5304の処理で積分成分演算部5304により生成された積分成分テーブルに基づいて、正規方程式テーブルを生成する。
【2948】
具体的には、いまの場合、上述した式(278)を利用して最小自乗法により特徴量wiが演算されるので、それに対応する正規方程式は、次の式(280)のように表される。
【2949】
【数221】
【2950】
なお、式(280)において、Lは、タップ範囲の画素の番号lのうちの最大値を表している。nは、近似関数f(x)を定義する特徴量wiのiの数を表している。vlは、重みを表している。具体的には、いまの場合、L=15となる。
【2951】
式(280)で示される正規方程式の各行列のそれぞれを、次の式(281)乃至(283)のように定義すると、正規方程式は、次の式(284)のように表現される。
【2952】
【数222】
【2953】
【数223】
【2954】
【数224】
【2955】
【数225】
【2956】
式(282)で示されるように、行列WMATの各成分は、求めたい特徴量wiである。従って、式(284)において、左辺の行列TMATと右辺の行列PMATが決定されれば、行列解法によって行列WMATの演算が可能になる。
【2957】
具体的には、式(281)で示されるように、行列TMATの各成分は、上述した積分成分Ti(l)で演算可能である。即ち、積分成分Ti(l)は、積分成分演算部5304より供給された積分成分テーブルに含まれているので、正規方程式生成部5305は、積分成分テーブルを利用して行列TMATの各成分を演算することができる。
【2958】
また、式(283)で示されるように、行列PMATの各成分は、積分成分Ti(l)と入力画素値P(l)で演算可能である。即ち、積分成分Ti(l)は、行列TMATの各成分に含まれるものと同一のものであり、また、入力画素値P(l)は、入力画素値取得部5303より供給された入力画素値テーブルに含まれているので、正規方程式生成部5305は、積分成分テーブルと入力画素値テーブルを利用して行列PMATの各成分を演算することができる。
【2959】
このようにして、正規方程式生成部5305は、行列TMATと行列PMATの各成分を演算し、その演算結果(行列TMATと行列PMATの各成分)を正規方程式テーブルとして近似関数生成部5306に出力する。
【2960】
正規方程式生成部5305より正規方程式テーブルが出力されると、ステップS5306において、近似関数生成部5306は、正規方程式テーブルに基づいて、上述した式(284)の行列WMATの各成分である特徴量wi(即ち、不連続関数からなる2次元の近似関数f(x,y)の領域毎に定義される関数であるレベルwi)を演算する。
【2961】
具体的には、上述した式(284)の正規方程式は、次の式(285)のように変形できる。
【2962】
【数226】
【2963】
式(285)において、左辺の行列WMATの各成分が、求めたい特徴量wiである。また、行列TMATと行列PMATのそれぞれの各成分は、正規方程式生成部5305より供給された正規方程式テーブルに含まれている。従って、近似関数生成部5306は、正規方程式テーブルを利用して、式(285)の右辺の行列演算を行うことで行列WMATを演算し、その演算結果(特徴量wi)を画像生成部103に出力する。
【2964】
ステップS5307において、近似関数生成部5306は、全画素の処理を終了したか否かを判定する。
【2965】
ステップS5307において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS5302に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS5302乃至S5307の処理が繰り返される。
【2966】
そして、全画素の処理が終了すると(ステップS5307において、全画素の処理が終了されたと判定されると)、実世界1の推定処理は終了となる。
【2967】
以上、不連続関数を用いた2次元の近似手法の説明として、空間方向(X方向とY方向)に対する近似関数f(x,y)の特徴量wiを演算する例を用いたが、不連続関数を用いた2次元の近似手法は、時空間方向(X方向とT方向、または、Y方向とT方向)に対しても適用可能である。
【2968】
即ち、上述した例は、実世界1の光信号が、例えば、空間方向の定常性を有する場合の例であったので、上述した式(277)で示されるような、空間方向(X方向とY方向)の2次元積分が含まれる式が利用された。しかしながら、2次元積分の考え方は、空間方向だけによるものではなく、時空間方向(X方向とT方向、または、Y方向とT方向)に対して適用することも可能である。
【2969】
換言すると、不連続関数を用いた2次元近似手法においては、推定したい光信号関数F(x,y,t)が、空間方向の定常性のみならず、時空間方向(ただし、X方向とT方向、または、Y方向とT方向)の定常性を有している場合であっても、2次元の不連続関数により近似することが可能である。
【2970】
具体的には、例えば、図372で示されるような、物体(図中のおもちゃの飛行機)D1(図中の下段のフレームの画像)が、X方向に水平に等速で動いて、物体D2(図中の中段のフレームの画像)まで移動する場合、X−T平面において、その物体の動きは図372の上部で示されるように、軌跡L1のように表される。尚、図372の上段は、図中のOPQRを各頂点とした面の画素値の変化を示したものである。
【2971】
換言すると、軌跡L1は、X−T平面における時空間方向の定常性の方向を表しているとも言える。従って、データ定常性検出部101は、上述した角度θ(X−Y平面における、所定の傾き(角度)で表される空間方向の定常性に対応するデータ定常性情報)と同様に、X−T平面における時空間方向の定常性を表す傾き(定常性の角度)に対応するデータ定常性情報として、図372で示されるような軌跡のなす角度(厳密には、図示はしないが、物体がD1からD2に移動するときの軌跡(上述した動き)としてのデータの定常性の方向と、空間方向のX方向とのなす角度)を出力することが可能である。
【2972】
従って、2次元の不連続関数を用いた近似手法を利用する実世界推定部102は、動きθを上述した角度θの代わりとして使用すれば、上述した方法と同様な方法で、近似関数f(x,t)の特徴量wiを演算することが可能になる。ただし、この場合、使用される式は、上述した式(277)ではなく、次の式(286)である。
【2973】
【数227】
【2974】
X−T平面上の処理である場合、図371の右部で示されている各画素と不連続関数との関係は、図373で示されるようになる。すなわち、図373においては、空間方向Xの断面形状(不連続関数による断面形状)がフレーム方向Tに対して所定の定常性の方向に沿って連続することになる。結果として、レベルが、レベルw1乃至w5の5種類である場合、図371の左部で示したような同一のレベルとなる帯が定常性の方向に沿って分布することになる。
【2975】
従って、この場合、画素値は、図373の右部にあるようにX−T平面上に存在する画素を用いることで、求めることができる。尚、図373の右部において、各マス目は画素を示すが、X方向は、画素の幅であるが、フレーム方向については、各マス目の単位が1フレーム分に相当する。
【2976】
また、空間方向Xの代わりに、空間方向Yに注目した近似関数f(y,t)も、上述した近似関数f(x,t)と全く同様に取り扱うことが可能である。
【2977】
以上においては、不連続関数からなる2次元の近似関数を設定し、実世界を推定する手法について説明したが、さらに、不連続関数からなる3次元の近似関数による実世界の推定も可能である。
【2978】
例えば、図374で示されるように領域毎に異なる2次元の不連続な関数を考える。すなわち、図374の場合、領域a1≦x<a2で、かつ、b1≦y<b2とき、近似関数はf(x,y)=w1であり、領域a2≦x<a3で、かつ、b3≦y<b4とき、近似関数はf(x,y)=w2であり、領域a3≦x<a4で、かつ、b5≦y<b6とき、近似関数はf(x,y)=w3であり、領域a4≦x<a5で、かつ、b7≦y<b8とき、近似関数はf(x,y)=w4であり、さらに、領域a3≦x<a4で、かつ、b9≦y<b10とき、近似関数はf(x,y)=w5であるように、それぞれ領域毎に異なる近似関数f(x,y)が設定されている。また、wiは、実質的に、各領域における光の強度のレベルと考えることができる。
【2979】
このように図374で示されるような不連続関数は、以下の式(287)の一般式で定義される。
【2980】
f(x,y)=wi(aj≦x<aj+1 & b2k−1≦y<b2k)・・・(287)
【2981】
尚、ここで、j,kは、任意の整数であるが、iは、jとkの組み合わせにより表現可能な領域を識別する通し番号である。
【2982】
このように図374で示されたような断面の分布(断面の曲線に対応するもの)は、各領域毎に定数として設定されている。
【2983】
従って、式(287)で定義される、実世界の、不連続関数からなる近似関数f(x,y)を用いることにより、以下の式(288)により画素値P(x,y)が求められることになる。
【数228】
【2984】
ここで、xe,xsは、X方向の積分範囲を示す値を示し、xSがX方向の積分開始位置を、xeがX方向の積分終了位置をそれぞれ示している。同様に、ye,ysは、Y方向の積分範囲を示す値を示し、ySがY方向の積分開始位置を、yeがY方向の積分終了位置をそれぞれ示している。
【2985】
しかしながら、実際には、上述の式(287)で示されるような実世界を近似する関数を直接求めることは困難である。
【2986】
図374で示されるような画素値の断面の分布は、フレーム方向の定常性の方向に対して連続して存在するものと仮定されるので、空間における光の強度の分布は、図375で示されるようなものとなる。ここで、図375の左部は、不連続関数からなる近似関数f(x,y)がフレーム方向とX方向の定常性の方向に連続的に存在した場合の画素値の分布のX−T平面により表現したものであり、図中右部には、図374で、X−Y平面上の光の強度のレベルの断面が、フレーム方向に連続した分布が示されている。
【2987】
すなわち、定常性の方向に沿って、図374で示された断面の形状が連続した状態となるため、図375の右部に示されるように、各レベルwiの領域は、定常性の方向に沿った棒状の分布となる。
【2988】
図375の右部で示されるような不連続関数により定義された近似関数f(x,y)を用いて、各3次元の領域の画素値を決定するには、上述した2次元において、面積を用いていた方法と同様にして、体積による割合を用いて計算する。すなわち、各画素の総体積(X方向、Y方向、および、T方向からなる3次元の体積)のうち、各レベルが設定された範囲の占める体積の割合に応じた重みと、そのレベルとの積和を求めて、対応する画素の画素値を用いることにより、例えば、最小自乗法を用いて、各領域の画素値を求める。
【2989】
すなわち、図376で示されるように、境界Rを境として、一方の領域のレベルがf(x,y)=w1であり、他方の領域のレベルがf(x,y)=w2であるものとする。また、XYT空間上で図中のABCDEFGHからなる立方体が、注目画素を示しているものとする。さらに、注目画素における境界Rとの断面は、IJKLからなる長方形であるものとする。
【2990】
また、画素Pの体積のうち、IBJ−KFLからなる三角柱となる部分の占める割合をM1、および、それ以外の部分(ADCJI−EGHLKからなる5角柱)の体積の占める割合をM2で表すものとする。尚、ここでいう体積とは、XYt空間上の専有領域の大きさを示すものである。
【2991】
このとき、注目画素の画素値Pは、各範囲の画素値と割合の積和で表されるので、以下の式(289)で示される演算により求められる。
【2992】
P=M1×w1+M2×w2・・・(289)
【2993】
従って、各画素について、式(289)で示される関係を用いて画素値との関係を示す式を生成することで、例えば、画素値を示す係数としてw1乃至w2を求めるには、それぞれの係数を含む最低2画素分以上の画素値と、その画素の式(289)の関係を示すが得られれば、例えば、最小自乗法(未知数と関係式が同数の場合は、連立方程式)により画素値のレベルを示すw1乃至w2を得ることが可能となる。
【2994】
このように定常性を用いた3次元の関係を利用することにより、不連続関数からなる近似関数f(x,y)を求めることが可能となる。
【2995】
例えば、定常性検出部101により出力されてくる、X−Y平面状の定常性の角度θに相当する、動きθに基づいて、X−T平面上、および、Y−T平面状の速度vx,vy(実質的に、X−T平面、および、Y−T平面の傾き)を求めることができることから、X方向およびY方向の任意の位置(x,y)における、定常性の直線のX方向の位置xlおよびX方向の位置ylが、次の式(290)のように表される。
【2996】
xl=vx×t,yl=vy×t・・・(290)
【2997】
即ち、データの定常性に対応する直線上の点は、座標値(xl,yl)で表される。
【2998】
式(290)より、断面方向距離x’,y’(定常性の存在する直線に沿ってX方向、および、Y方向にずれた距離)は、次の式(291)のように表される。
【2999】
従って、入力画像の任意の位置(x,y)における近似関数f(x,y)は、式(287)と式(291)より、次の式(292)のように示される。
【3000】
【3001】
従って、実世界推定部102は、式(292)の各領域毎の特徴量wiを演算することができれば、不連続関数からなる近似関数f(x,y,t)を推定することにより、波形F(x,y,t)を推定することができる。
【3002】
そこで、以下、式(292)の特徴量wiを演算する手法について説明する。
【3003】
即ち、式(292)で表される近似関数f(x,y,t)を、画素(センサ2の検出素子)に対応する積分範囲(空間方向の積分範囲)で積分すれば、その積分値が、画素の画素値の推定値となる。このことを、式で表現したものが、次の式(293)である。
【3004】
【数229】
【3005】
式(293)において、P(x,y,t)は、センサ2からの入力画像のうちの、その中心位置が位置(x,y,t)(注目画素からの相対位置(x,y,t))に存在する画素の画素値を表している。
【3006】
このように、3次元の近似手法においては、入力画素値P(x,y,t)と、不連続関数からなる3次元の近似関数f(x,y,t)の関係を、式(293)で表現することが可能であるので、実世界推定部102は、式(293)を利用して、特徴量wiを、例えば、最小自乗法等により演算することで、3次元の関数F(x,y,t)(空間方向の定常性を有する実世界1の光信号を、時空間方向に着目して表した波形F(x,y,t))を推定することが可能となる。
【3007】
次に、図377を参照して、以上のような、不連続関数からなる3次元の近似関数f(x,y,t)を設定し、実世界を推定する実世界推定部102の構成について説明する。
【3008】
図377で示されるように、実世界推定部102には、条件設定部5321、入力画像記憶部5322、入力画素値取得部5323、積分成分演算部5304、正規方程式生成部5325、および近似関数生成部5326が設けられている。
【3009】
条件設定部5321は、注目画素に対応する関数F(x,y,t)を推定するために使用する画素の範囲(タップ範囲)や、近似関数f(x,y,t)の範囲の(例えば、aj≦(x−vx×t)<aj+1、および、b2k−1≦(y−vy×t)<b2kの幅、iの数)を設定する。
【3010】
入力画像記憶部5322は、センサ2からの入力画像(画素値)を一時格納する。
【3011】
入力画素値取得部5323は、入力画像記憶部5322に記憶された入力画像のうちの、条件設定部5321により設定されたタップ範囲に対応する入力画像の領域を取得し、それを入力画素値テーブルとして正規方程式生成部5325に供給する。即ち、入力画素値テーブルは、入力画像の領域に含まれる各画素のそれぞれの画素値が記述されたテーブルである。なお、入力画素値テーブルの具体例については後述する。
【3012】
ところで、上述したように、3次元近似手法を利用する実世界推定部102は、上述した式(293)を最小自乗法で解くことにより、上述した式(292)で示される近似関数f(x,y,t)の特徴量wiを演算する。
【3013】
式(293)は、次の式(294)のように表現することができる。
【3014】
【数230】
【3015】
式(294)において、Ti(xs,xe,ys,ye,ts,te)は、積分範囲となる領域のうち、特徴量wiとなる領域(光のレベルwiとなる領域)の積分結果、すなわち、体積を表している。尚、以下、Ti(xs,xe,ys,ye,ts,te)は、積分成分と称する。尚、この式(294)は、2次元の演算における積分成分Ti(xs,xe,ys,ye)に対応するものである。
【3016】
積分成分演算部5324は、この積分成分Ti(xs,xe,ys,ye,ts,te)(=(x−0.5,x+0.5,y−0.5,y+0.5,t−0.5,t+0.5):1画素分の領域を取る場合)を演算する。
【3017】
具体的には、式(294)で示される積分成分Ti(xs,xe,ys,ye,ts,te)は、図376を参照して上述したように、求めようとする画素中の、所定の特徴量wiの体積を求めるものである。従って、積分成分演算部5324は、積分成分Ti(xs,xe,ys,ye,ts,te)を、各特長量毎の幅d,e、並びに、定常性の方向の情報(すなわち、例えば、速度vx,vy、または、定常性の所定の軸に対する角度θ)に基づいて、幾何学的に各特徴量wi毎に占める体積を求めるようにしてもよいし、シンプソンの公式に従って多重分割して積分して求めるようにしてもよく、体積を求める方法はそれらに限るものではなく、例えば、モンテカルロ法によって体積を求めるようにしてもよい。
【3018】
図376で説明したように、aj≦(x−vx×t)<aj+1、および、b2k−1≦(y−vy×t)<b2kのそれぞれの幅と、定常性の方向の情報(すなわち、例えば、速度vx,vy、または、定常性の所定の軸に対する角度θ)、および、相対画素位置(x,y,t)が既知であれば、特徴量wiの演算は可能である。これらのうち、相対画素位置(x,y,t)は注目画素とタップ範囲により、定常性の情報は、定常性検出部101により検出された情報より、また、aj≦(x−vx×t)<aj+1、および、b2k−1≦(y−vy×t)<b2kの幅は、予め設定されるため、それぞれの値は既知となる。
【3019】
従って、積分成分演算部5324は、条件設定部5321により設定されたタップ範囲および幅、並びにデータ定常性検出部101より出力されたデータ定常性情報に基づいて積分成分Ti(x−0.5,x+0.5,y−0.5,y+0.5,t−0.5,t+0.5)を演算し、その演算結果を積分成分テーブルとして正規方程式生成部5325に供給する。
【3020】
正規方程式生成部5325は、入力画素値取得部5323より供給された入力画素値テーブルと、積分成分演算部5324より供給された積分成分テーブルを利用して、上述した式(293)、即ち、式(294)を最小自乗法で求める場合の正規方程式を生成し、それを正規方程式テーブルとして近似関数生成部5326に出力する。
【3021】
近似関数生成部5326は、正規方程式生成部5325より供給された正規方程式テーブルに含まれる正規方程式を行列解法で解くことにより、上述した式(294)の特徴量wiのそれぞれを演算し、画像生成部103に出力する。
【3022】
次に、図378のフローチャートを参照して、不連続関数を用いた3次元の近似手法が適用される実世界の推定処理(図40のステップS102の処理)について説明する。
【3023】
例えば、いま、X−t平面、および、Y−t平面に対してそれぞれ速度vx,vyで表される時空間方向の定常性を有する実世界1の光信号が、センサ2により検出されて、1フレームに対応する入力画像として、入力画像記憶部5322に既に記憶されているとする。また、データ定常性検出部101が、ステップS101(図406)の定常性の検出の処理において、入力画像のうちのデータ定常性情報として速度vx,vyが得られているものとする。
【3024】
この場合、ステップS5321において、条件設定部5321は、条件(タップ範囲、aj≦(x−vx×t)<aj+1、および、b2k−1≦(y−vy×t)<b2kの幅(同じ特徴量(同じ近似関数となる領域の幅d,e))、および、iの数)を設定する。
【3025】
例えば、いま、図379で示されるタップ範囲が設定されるとともに、幅として水平方向の幅×垂直方向の幅=d×eが設定されたとする。
【3026】
設定されたタップの範囲は、例えば、図379で示されているものとする。図379において、X方向とY方向は、センサ2のX方向とY方向を表している。また、tは、フレームの番号を示しており、また、タップ範囲は、図379の右部各フレーム9個で3フレーム分となる画素P0乃至P26の合計27個の画素からなる画素群を表している。
【3027】
さらに、図379に示されるように、注目画素が、フレーム番号t=nの図中、中央部の画素P13に設定されるとする。また、各画素のそれぞれに対して、注目画素からの相対画素位置(x,y,t)(注目画素の中心(0,0,0)を原点とする注目画素座標系の座標値)に応じて、図379で示されるような番号l(lは、P0乃至P26のうちのいずれかを示す整数値)が付されるとする。
【3028】
図378に戻り、ステップS5322において、条件設定部5321は、注目画素を設定する。
【3029】
ステップS5323において、入力画素値取得部5323は、条件設定部5321により設定された条件(タップ範囲)に基づいて入力画素値を取得し、入力画素値テーブルを生成する。即ち、いまの場合、入力画素値取得部5323は、入力画像の領域(図379中の番号P0乃至P26が付された画素)の画素の画素値を取得し、入力画素値テーブルとして、27個の入力画素値P(l)からなるテーブルを生成する。
【3030】
ステップS5324において、積分成分演算部5324は、条件設定部5321により設定された条件(タップ範囲、幅、iの数)、並びにデータ定常性検出部101より供給されたデータ定常性情報に基づいて積分成分を演算し、積分成分テーブルを生成する。
【3031】
いまの場合、積分成分演算部5324は、上述した式(294)の積分成分Ti(xs,xe,ys,ye,ts,te)(=Ti(x−0.5,x+0.5,y−0.5,y+0.5,t−0.5,t+0.5):1画素の大きさをX方向×Y方向×フレーム方向t=1×1×1で表現する場合)を、次の式(295)の左辺で示される積分成分Ti(l)といったlの関数として演算する。
【3032】
【3033】
即ち、いまの場合、例えば、iが0乃至5であるとすれば、27個のT0(l),27個のT1(l),27個のT2(l),27個のT3(l),27個のT4(l),27個のT5(l)の総計162個のTi(l)が演算され、それらを含む積分成分テーブルが生成される。
【3034】
なお、ステップS5323の処理とステップS5324の処理の順序は、図378の例に限定されず、ステップS5324の処理が先に実行されてもよいし、ステップS5323の処理とステップS5324の処理が同時に実行されてもよい。
【3035】
次に、ステップ5325において、正規方程式生成部5325は、ステップS5323の処理で入力画素値取得部5323により生成された入力画素値テーブルと、ステップS5304の処理で積分成分演算部5324により生成された積分成分テーブルに基づいて、正規方程式テーブルを生成する。
【3036】
具体的には、いまの場合、上述した式(295)を利用して最小自乗法により特徴量wiが演算されるので、それに対応する正規方程式は、次の式(296)のように表される。
【3037】
【数231】
【3038】
なお、式(296)において、Lは、タップ範囲の画素の番号lのうちの最大値を表している。nは、近似関数f(x)を定義する特徴量wiのiの数を表している。vlは、重みを表している。具体的には、いまの場合、L=27となる。
【3039】
この正規方程式は、上述した式(280)と同様の形式であり、上述した2次元における手法と同様であるので、以降の正規方程式の解法についての説明は省略する。
【3040】
ステップS5327において、近似関数生成部5326は、全画素の処理を終了したか否かを判定する。
【3041】
ステップS5327において、全画素の処理がまだ終了されていないと判定された場合、処理はステップS5322に戻り、それ以降の処理が繰り返される。即ち、まだ注目画素とされない画素が、順次注目画素とされて、ステップS5322乃至S5327の処理が繰り返される。
【3042】
そして、全画素の処理が終了すると(ステップS5327において、全画素の処理が終了されたと判定されると)、実世界1の推定処理は終了となる。
【3043】
結果として、例えば、図380で示されるように、定常性の方向(X方向の速度がvx,Y方向の速度がvy)に沿った太線で描かれた棒状の領域毎に各特徴量であるレベル(不連続関数)w1乃至w5が設定され、実世界の近似関数が推定される。今の場合、各棒状の領域はX−Y平面に対する断面の大きさはd×eである。
【3044】
また、細線で描かれた棒状の領域は、Y方向の速度がvy=0である場合を示している。すなわち、単純に水平方向に移動する場合は、各レベルwiが設定される棒状の領域は、X−t平面に対して平行な関係を保つ。これは、X方向の速度がvx=0である場合も同様のことが言える。すなわち、この場合は、各棒状の領域が、Y−t平面に対して平行な関係が保たれることになる。
【3045】
さらに、時間方向に変化が無く、X−Y平面上に定常性がある場合、各関数毎の棒状の領域は、X−Y平面に対して平行な位置を保つことになる。すなわち、時間方向に変化が無く、X−Y平面に定常性が存在する場合、細線、または、2値エッジが存在する。
【3046】
また、以上においては、不連続に関数が設定される各領域が2次元空間に配置される(棒状の領域が、面を構成するように配置される)場合について説明してきたが、例えば、図381で示されるように、各領域は、XYTの3次元の空間内に立体的に配置されるようにしてもよい。
【3047】
また、以上の例においては、不連続関数として各領域毎に定数の特徴量wiが設定される場合について説明してきたが、定数ではない連続関数であっても同様のことが可能である。すなわち、例えば、図382で示されるように、X方向についての関数であるとき、画像中のX0≦X<X1の領域では、特徴量w1は、w1=f0(x)に設定し、画像中のX1≦X<X2の領域では、特徴量w2は、w2=f1(x)に設定するようにしてもよい。連続する関数であっても、領域毎に異なる関数として設定するようにしてもよい。この場合、設定される関数は、例えば、多項式近似を用いてもよいし、それ以外の関数であってもよい。
【3048】
さらに、不連続関数として各領域毎に定数の特徴量wiが設定される場合、それぞれの領域で全く連続することの無い関数を設定するようにしてもよい。すなわち、例えば、図383で示されるように、X方向についての関数であるとき、画像中のX0≦X<X1の領域では、特徴量w1は、w1=f0(x)に設定し、画像中のX1≦X<X2の領域では、特徴量w2は、w2=f1(x)に設定するようにして、それぞれの関数(例えば、f0(x)とf1(x))が、それぞれ不連続であっても同様の処理をすることができる。この場合も、設定される関数は、例えば、多項式近似を用いてもよいし、それ以外の関数であってもよい。
【3049】
このように、図377の実世界推定部102は、各画素値を不連続関数により設定する場合、定常性の方向(角度、または、動き(動きから求められる速度の方向))に沿った棒状の領域毎に、不連続に関数を設定することで、実世界の近似関数を設定することが可能となる。
【3050】
次に、図384を参照して、上述の図369の実世界推定部102により推定された実世界推定情報に基づいて、画像を生成する画像生成部103について説明する。
【3051】
図384の画像生成部103は、実世界推定情報取得部5341、重み計算部5342、および、画素生成部5343から構成されている。
【3052】
実世界推定情報取得部5341は、図369の実世界推定部102より出力される実世界推定情報としての特徴量、すなわち、定常性の方向に沿って分割された領域毎に設定される画素値を設定する関数(不連続関数からなる近似関数f(x))を取得し、重み計算部5342に出力する。
【3053】
重み計算部5342は、実世界推定情報取得部5341より入力される実世界推定情報である、定常性の方向に沿って分割された領域の情報に基づいて、生成しようとする画素に含まれる各領域の面積の割合を重みとして計算し、実世界推定情報取得部5341より入力された各領域毎に設定された関数の情報と共に画素生成部5343に出力する。
【3054】
画素生成部5343は、重み計算部より入力された生成しようとする画素に含まれる領域毎の面積の割合に基づいて計算された重みの情報と、各領域毎に設定されたレベルの関数(不連続関数からなる近似関数f(x))に基づいて、レベルを求め、生成しようとする画素毎に、求められたレベルと重みの積和を求めて、その画素の画素値として出力する。
【3055】
次に、図385のフローチャートを参照して、図384の画像生成部103による画像生成の処理について説明する。
【3056】
ステップS5341において、実世界推定情報取得部5341は、図369の実世界推定部102より入力されてくる実世界推定情報(不連続関数からなる近似関数f(x))を取得し、重み計算部5342に出力する。
【3057】
ステップS5342において、重み計算部5342は、生成しようとする画素を設定し、ステップS5343において、入力された実世界推定情報に基づいて、生成しようとする画素について、その生成しようとする画素に含まれる、設定された領域毎の、生成しようとする画素に対する面積の割合を求め、これを、各領域の重みとして計算し、実世界推定情報取得部5341より入力された、各領域毎のレベルを設定する関数と共に画素生成部5343に出力する。
【3058】
例えば、図386で示されるように、特徴量が設定された場合について説明する。ここで、入力された画像の画素が細線のマス目で示されており、生成しようとする画素が太線のマス目で示されているものとする。すなわち、今の場合、4倍密度の画素が生成される。また、w1乃至w5で示される画素の配列に対して右上がりに帯状に設定された5個の領域が定常性の方向に沿って設定された領域であり、各領域のレベルは、w1乃至w5であるものとする。
【3059】
図386で示される斜線状で塗られている画素を生成しようとする注目画素であるものとする場合、注目画素は、領域w3,w4に跨っているので、注目画素内の、各領域の占める面積がそれぞれm1,m2であったとき、生成される重みは、生成しようとする画素の面積がmであれば、それぞれ領域w3の重みは、m1/mとなり、領域w4の重みは、m2/mとなる。このように、重み計算部5342は、求められた領域毎の重みの情報と、各領域のレベルを設定する関数の情報を画素生成部5343に出力する。
【3060】
ステップS5344において、画素生成部5343は、重み計算部5342より入力された、注目画素に跨る領域毎の重みと、各領域毎のレベルに基づいて、画素値を決定し、画素を生成する。
【3061】
すなわち、図386を参照して説明した注目画素の場合、画素生成部5343には、それぞれ重みの情報として、領域w3はm1/mであり、領域w4はm2/mであるとの情報を取得することになる。さらに、同時に取得する各領域毎のレベルとの積和を求めて画素値を決定し、画素を生成する。
【3062】
すなわち、例えば、領域w3,w4のレベルを決定する近似関数が、それぞれの領域でw3,w4(いずれも、定数)であった場合、重みとの積和を求めることで、以下の式(297)で示されるように画素値が決定される。
【3063】
P=w3×m1/m+w4×m2/m・・・(297)
【3064】
ステップS5345において、実世界推定情報取得部5341は、生成しようとする画像の全ての画素について処理が終了したか否かを判定し、全ての画素について処理が終了していないと判定した場合、その処理は、ステップS5342に戻り、それ以降の処理が繰り返される。すなわち、全ての画素について処理が完了したと判定されるまで、ステップS5342乃至S5345の処理が繰り返される。
【3065】
ステップS5345において、全ての画素について処理が終了したと判定された場合、その処理は終了する。
【3066】
すなわち、例えば、水平方向に物体が時間的に右方向に移動する場合、実世界におけるX−T空間の実際の画素値の変化は、図387Aで示されるように、定常性の方向に沿って、同一の画素値レベルとなる領域が続くことが分かっている。このため、図387Bで示されるようなモデルを用いて、それ以上の密度の画素生成を行うと、画素の形状が、実際の右上がりの直線的な動きを表現することができないため、例えば、拡大画像を生成しようとすると、画素値が変化する境界付近では幾何学的に階段状に配置された画素値の変化により正確な画素値を拡大画像の画素生成に反映することができなかった。
【3067】
これに対して、図369の実世界推定部102の実世界の近似関数の推定におけるモデルは、図387Cで示されるように、実際の動きに忠実なモデルを定常性の方向に沿って生成することになるので、画素以下の変化も正確に表現することができ、例えば、拡大画像に使用する、高密度画素をより正確に生成することが可能となる。
【3068】
以上の処理により、画素以下の領域における光の強度の分布を考慮して画素を生成することができ、より高密度の画素を正確に生成することが可能となるため、例えば、拡大画像を鮮明に生成することが可能となる。
【3069】
次に、図388を参照して、上述の図377の実世界推定部102により推定された実世界推定情報に基づいて、画像を生成する画像生成部103について説明する。
【3070】
図388の画像生成部103は、実世界推定情報取得部5351、重み計算部5352、および、画素生成部5353から構成されている。
【3071】
実世界推定情報取得部5351は、図377の実世界推定部102より出力される実世界推定情報としての特徴量、すなわち、定常性の方向に沿って分割された領域毎に設定される画素値を設定する関数(不連続関数からなる近似関数f(x))を取得し、重み計算部5352に出力する。
【3072】
重み計算部5352は、実世界推定情報取得部5351より入力される実世界推定情報である、定常性の方向に沿って分割された領域の情報に基づいて、生成しようとする画素に含まれる各領域の体積(ここで言う体積は、X方向、Y方向、およびフレーム方向tの3次元空間上の体積)の割合を重みとして計算し、実世界推定情報取得部5351より入力された各領域毎に設定された関数の情報と共に画素生成部5353に出力する。
【3073】
画素生成部5353は、重み計算部より入力された生成しようとする画素に含まれる領域毎の体積の割合に基づいて計算された重みの情報と、各領域毎に設定されたレベルの関数(不連続関数からなる近似関数f(x))に基づいて、レベルを求め、生成しようとする画素毎に、求められたレベルと重みの積和を求めて、その画素の画素値として出力する。
【3074】
次に、図389のフローチャートを参照して、図388の画像生成部103による画像生成の処理について説明する。
【3075】
ステップS5351において、実世界推定情報取得部5351は、図377の実世界推定部102より入力されてくる実世界推定情報(不連続関数からなる近似関数f(x))を取得し、重み計算部5352に出力する。
【3076】
ステップS5352において、重み計算部5342は、生成しようとする画素を設定し、ステップS5353において、入力された実世界推定情報に基づいて、生成しようとする画素について、その生成しようとする画素に含まれる、設定された領域毎の、生成しようとする画素に対する体積の割合を求め、これを、各領域の重みとして計算し、実世界推定情報取得部5351より入力された、各領域毎のレベルを設定する関数と共に画素生成部5353に出力する。
【3077】
例えば、図390で示されるように、X方向、Y方向、および、フレーム方向Tの3次元空間内において、生成しようとする画素として注目画素が設定されるものとする。尚、図390においては、太線で示される立方体が注目画素ある。また、細線で描かれている立方体は、注目画素に隣接する画素を示している。
【3078】
例えば、図391で示されるように、特徴量が設定された場合について説明する。尚、図391で示されるw1乃至w3で示される棒状に設定された3個の領域が定常性の方向に沿って設定された領域であり、各領域のレベルは、w1乃至w3であるものとする。
【3079】
図391で示されるように、注目画素は、領域w1乃至w3に跨っているので、注目画素内の、各領域の占める体積がそれぞれM1乃至M3であったとき、生成される重みは、生成しようとする画素の体積がMであれば、それぞれ領域w1の重みは、M1/Mとなり、領域w2の重みは、M2/Mとなり、領域w3の重みは、M3/Mとなる。このように求められた領域毎の重みの情報と、各領域のレベルを設定する関数の情報を画素生成部5353に出力する。
【3080】
ステップS5354において、画素生成部5353は、重み計算部5342より入力された、注目画素に跨る領域毎の重みと、各領域毎のレベルに基づいて、画素値を決定し、画素を生成する。
【3081】
すなわち、図391を参照して説明した注目画素の場合、画素生成部5353には、それぞれ重みの情報として、領域w1はM1/Mであり、領域w2はM2/Mであり、領域w3はM3/Mであるとの情報を取得することになる。さらに、同時に取得する各領域毎のレベルとの積和を求めて画素値を決定し、画素を生成する。
【3082】
すなわち、例えば、領域w1乃至w3のレベルを決定する近似関数が、それぞれの領域でw1乃至w3(いずれも、定数)であった場合、重みとの積和を求めることで、以下の式(298)で示されるように画素値を決定する。
P=w1×M1/M+w2×M2/M+w3×M3/M・・・(298)
【3083】
ステップS5355において、実世界推定情報取得部5351は、生成しようとする画像の全ての画素について処理が終了したか否かを判定し、全ての画素について処理が終了していないと判定した場合、その処理は、ステップS5352に戻り、それ以降の処理が繰り返される。すなわち、全ての画素について処理が完了したと判定されるまで、ステップS5352乃至S5355の処理が繰り返される。
【3084】
ステップS5355において、全ての画素について処理が終了したと判定された場合、その処理は終了する。
【3085】
図392A乃至Dは、原画像に対して16倍密度(水平方向、および、垂直方向にそれぞれ4倍の密度)の画素を生成した場合の処理結果を示している。ここで、図392Aは、原画像であり、図392Bは、従来のクラス分類適応処理による処理結果であり、図392Cは、上述した多項式からなる実世界の近似関数による処理結果であり、さらに、図392Dは、不連続関数からなる実世界の近似関数による処理結果をそれぞれ示している。
【3086】
不連続関数からなる実世界の近似関数による処理結果は、画像のにじみが少なく、原画像に近い鮮明な画像が生成されることがわかる。
【3087】
また、図393は、高密度の原画像における、水平方向、および、垂直方向に4画素×4画素ずつ平均画素値を求め、さらに、その16画素の画素値を求められた平均画素値として、空間解像度を16分の1にまで低下させた後、上述した多項式からなる実世界の近似関数による処理結果と、不連続関数からなる実世界の近似関数による処理結果を比較したものである。尚、図393において、実線は、原画像であり、点線は、多項式からなる実世界の近似関数による処理結果であり、一点鎖線が、不連続関数からなる実世界の近似関数による処理結果である。また、図中横軸は、X方向の座標位置であり、縦軸は画素値を示している。
【3088】
不連続関数からなる実世界の近似関数による処理結果は、多項式からなる実世界の近似関数による処理結果と比べて、X=651乃至655において、原画像と原画像に対してより一致しており、16倍密度の画素生成においても正確に画素値を再現していることがわかる。
【3089】
以上の処理により、画素以下の領域における光の強度の分布を考慮して画素を生成することができ、より高密度の画素を正確に生成することが可能となるため、例えば、拡大画像を鮮明に生成することが可能となる。
【3090】
さらに、上述のように、不連続関数からなる実世界の近似関数を設定する方法により、画像に動きボケが生じても除去することができる。
【3091】
ここで、図394乃至図409を参照して、入力画像と動きボケについて説明する。
【3092】
図394は、センサ2による撮像を説明する図である。センサ2は、例えば、固体撮像素子であるCCD(Charge−Coupled Device)エリアセンサを備えたCCDビデオカメラなどで構成される。現実世界における、前景に対応するオブジェクトは、現実世界における、背景に対応するオブジェクトと、センサとの間を、例えば、図中の左側から右側に水平に移動する。
【3093】
センサ2は、前景に対応するオブジェクトを、背景に対応するオブジェクトと共に撮像する。センサ2は、撮像した画像を1フレーム単位で出力する。例えば、センサ2は、1秒間に30フレームから成る画像を出力する。センサ2の露光時間は、1/30秒とすることができる。露光時間は、センサ2が入力された光の電荷への変換を開始してから、入力された光の電荷への変換を終了するまでの期間である。以下、露光時間をシャッタ時間とも称する。
【3094】
図395は、画素の配置を説明する図である。図395中において、A乃至Iは、個々の画素を示す。画素は、画像に対応する平面上に配置されている。1つの画素に対応する1つの検出素子は、センサ2上に配置されている。センサ2が画像を撮像するとき、1つの検出素子は、画像を構成する1つの画素に対応する画素値を出力する。例えば、検出素子のX方向の位置は、画像上の横方向の位置に対応し、検出素子のY方向の位置は、画像上の縦方向の位置に対応する。
【3095】
図396に示すように、例えば、CCDである検出素子は、シャッタ時間に対応する期間、入力された光を電荷に変換して、変換された電荷を蓄積する。電荷の量は、入力された光の強さと、光が入力されている時間にほぼ比例する。検出素子は、シャッタ時間に対応する期間において、入力された光から変換された電荷を、既に蓄積されている電荷に加えていく。すなわち、検出素子は、シャッタ時間に対応する期間、入力される光を積分して、積分された光に対応する量の電荷を蓄積する。検出素子は、時間に対して、積分効果があるとも言える。
【3096】
検出素子に蓄積された電荷は、図示せぬ回路により、電圧値に変換され、電圧値は更にデジタルデータなどの画素値に変換されて出力される。従って、センサ2から出力される個々の画素値は、前景または背景に対応するオブジェクトの空間的に広がりを有するある部分を、シャッタ時間について積分した結果である、1次元の空間に射影された値を有する。
【3097】
図397は、動いている前景に対応するオブジェクトと、静止している背景に対応するオブジェクトとを撮像して得られる画像を説明する図である。図397Aは、動きを伴う前景に対応するオブジェクトと、静止している背景に対応するオブジェクトとを撮像して得られる画像を示している。図397Aに示す例において、前景に対応するオブジェクトは、画面に対して水平に左から右に動いている。
【3098】
図397Bは、図397Aに示す画像の1つのラインに対応する画素値を時間方向に展開したモデル図である。図397Bの横方向は、図397Aの空間方向Xに対応している。
【3099】
背景領域の画素は、背景の成分、すなわち、背景のオブジェクトに対応する画像の成分のみから、その画素値が構成されている。前景領域の画素は、前景の成分、すなわち、前景のオブジェクトに対応する画像の成分のみから、その画素値が構成されている。
【3100】
混合領域の画素は、背景の成分、および前景の成分から、その画素値が構成されている。混合領域は、背景の成分、および前景の成分から、その画素値が構成されているので、歪み領域ともいえる。混合領域は、更に、カバードバックグラウンド領域およびアンカバードバックグラウンド領域に分類される。
【3101】
カバードバックグラウンド領域は、前景領域に対して、前景のオブジェクトの進行方向の前端部に対応する位置の混合領域であり、時間の経過に対応して背景成分が前景に覆い隠される領域をいう。
【3102】
これに対して、アンカバードバックグラウンド領域は、前景領域に対して、前景のオブジェクトの進行方向の後端部に対応する位置の混合領域であり、時間の経過に対応して背景成分が現れる領域をいう。
【3103】
図398は、以上のような、背景領域、前景領域、混合領域、カバードバックグラウンド領域、およびアンカバードバックグラウンド領域を説明する図である。図397に示す画像に対応する場合、背景領域は、静止部分であり、前景領域は、動き部分であり、混合領域のカバードバックグラウンド領域は、背景から前景に変化する部分であり、混合領域のアンカバードバックグラウンド領域は、前景から背景に変化する部分である。
【3104】
図399は、静止している前景に対応するオブジェクトおよび静止している背景に対応するオブジェクトを撮像した画像における、隣接して1列に並んでいる画素の画素値を時間方向に展開したモデル図である。例えば、隣接して1列に並んでいる画素として、画面の1つのライン上に並んでいる画素を選択することができる。
【3105】
図399に示すF01乃至F04の画素値は、静止している前景のオブジェクトに対応する画素の画素値である。図399に示すB01乃至B04の画素値は、静止している背景のオブジェクトに対応する画素の画素値である。
【3106】
図399における縦方向は、時間に対応し、図中の上から下に向かって時間が経過する。図399中の矩形の上辺の位置は、センサ2が入力された光の電荷への変換を開始する時刻に対応し、図399中の矩形の下辺の位置は、センサ2が入力された光の電荷への変換を終了する時刻に対応する。すなわち、図399中の矩形の上辺から下辺までの距離は、シャッタ時間に対応する。
【3107】
以下において、シャッタ時間とフレーム間隔とが同一である場合を例に説明する。
【3108】
図399における横方向は、図397で説明した空間方向Xに対応する。より具体的には、図399に示す例において、図399中の”F01”と記載された矩形の左辺から”B04”と記載された矩形の右辺までの距離は、画素のピッチの8倍、すなわち、連続している8つの画素の間隔に対応する。
【3109】
前景のオブジェクトおよび背景のオブジェクトが静止している場合、シャッタ時間に対応する期間において、センサ2に入力される光は変化しない。
【3110】
ここで、シャッタ時間に対応する期間を2つ以上の同じ長さの期間に分割する。仮想分割数は、前景に対応するオブジェクトのシャッタ時間内での動き量vなどに対応して設定される。例えば、図400に示すように、4である動き量vに対応して、仮想分割数は、4とされ、シャッタ時間に対応する期間は4つに分割される。
【3111】
図400中の最も上の行は、シャッタが開いて最初の、分割された期間に対応する。図中の上から2番目の行は、シャッタが開いて2番目の、分割された期間に対応する。図中の上から3番目の行は、シャッタが開いて3番目の、分割された期間に対応する。図中の上から4番目の行は、シャッタが開いて4番目の、分割された期間に対応する。
【3112】
以下、動き量vに対応して分割されたシャッタ時間をシャッタ時間/vとも称する。
【3113】
前景に対応するオブジェクトが静止しているとき、センサ2に入力される光は変化しないので、前景の成分F01/vは、画素値F01を仮想分割数で除した値に等しい。同様に、前景に対応するオブジェクトが静止しているとき、前景の成分F02/vは、画素値F02を仮想分割数で除した値に等しく、前景の成分F03/vは、画素値F03を仮想分割数で除した値に等しく、前景の成分F04/vは、画素値F04を仮想分割数で除した値に等しい。
【3114】
背景に対応するオブジェクトが静止しているとき、センサ2に入力される光は変化しないので、背景の成分B01/vは、画素値B01を仮想分割数で除した値に等しい。同様に、背景に対応するオブジェクトが静止しているとき、背景の成分B02/vは、画素値B02を仮想分割数で除した値に等しく、B03/vは、画素値B03を仮想分割数で除した値に等しく、B04/vは、画素値B04を仮想分割数で除した値に等しい。
【3115】
すなわち、前景に対応するオブジェクトが静止している場合、シャッタ時間に対応する期間において、センサ2に入力される前景のオブジェクトに対応する光が変化しないので、シャッタが開いて最初の、シャッタ時間/vに対応する前景の成分F01/vと、シャッタが開いて2番目の、シャッタ時間/vに対応する前景の成分F01/vと、シャッタが開いて3番目の、シャッタ時間/vに対応する前景の成分F01/vと、シャッタが開いて4番目の、シャッタ時間/vに対応する前景の成分F01/vとは、同じ値となる。F02/v乃至F04/vも、F01/vと同様の関係を有する。
【3116】
背景に対応するオブジェクトが静止している場合、シャッタ時間に対応する期間において、センサ2に入力される背景のオブジェクトに対応する光は変化しないので、シャッタが開いて最初の、シャッタ時間/vに対応する背景の成分B01/vと、シャッタが開いて2番目の、シャッタ時間/vに対応する背景の成分B01/vと、シャッタが開いて3番目の、シャッタ時間/vに対応する背景の成分B01/vと、シャッタが開いて4番目の、シャッタ時間/vに対応する背景の成分B01/vとは、同じ値となる。B02/v乃至B04/vも、同様の関係を有する。
【3117】
次に、前景に対応するオブジェクトが移動し、背景に対応するオブジェクトが静止している場合について説明する。
【3118】
図401は、前景に対応するオブジェクトが図中の右側に向かって移動する場合の、カバードバックグラウンド領域を含む、1つのライン上の画素の画素値を時間方向に展開したモデル図である。図401において、前景の動き量vは、4である。1フレームは短い時間なので、前景に対応するオブジェクトが剛体であり、等速で移動していると仮定することができる。図401において、前景に対応するオブジェクトの画像は、あるフレームを基準として次のフレームにおいて4画素分右側に表示されるように移動する。
【3119】
図401において、最も左側の画素乃至左から4番目の画素は、前景領域に属する。図401において、左から5番目乃至左から7番目の画素は、カバードバックグラウンド領域である混合領域に属する。図401において、最も右側の画素は、背景領域に属する。
【3120】
前景に対応するオブジェクトが時間の経過と共に背景に対応するオブジェクトを覆い隠すように移動しているので、カバードバックグラウンド領域に属する画素の画素値に含まれる成分は、シャッタ時間に対応する期間のある時点で、背景の成分から、前景の成分に替わる。
【3121】
例えば、図401中に太線枠を付した画素値Mは、式(299)で表される。
【3122】
M=B02/v+B02/v+F07/v+F06/v・・・(299)
【3123】
例えば、左から5番目の画素は、1つのシャッタ時間/vに対応する背景の成分を含み、3つのシャッタ時間/vに対応する前景の成分を含むので、左から5番目の画素の混合比αは、1/4である。左から6番目の画素は、2つのシャッタ時間/vに対応する背景の成分を含み、2つのシャッタ時間/vに対応する前景の成分を含むので、左から6番目の画素の混合比αは、1/2である。左から7番目の画素は、3つのシャッタ時間/vに対応する背景の成分を含み、1つのシャッタ時間/vに対応する前景の成分を含むので、左から7番目の画素の混合比αは、3/4である。
【3124】
前景に対応するオブジェクトが、剛体であり、前景の画像が次のフレームにおいて4画素右側に表示されるように等速で移動すると仮定できるので、例えば、図401中の左から4番目の画素の、シャッタが開いて最初の、シャッタ時間/vの前景の成分F07/vは、図401中の左から5番目の画素の、シャッタが開いて2番目のシャッタ時間/vに対応する前景の成分に等しい。同様に、前景の成分F07/vは、図401中の左から6番目の画素の、シャッタが開いて3番目のシャッタ時間/vに対応する前景の成分と、図401中の左から7番目の画素の、シャッタが開いて4番目のシャッタ時間/vに対応する前景の成分とに、それぞれ等しい。
【3125】
前景に対応するオブジェクトが、剛体であり、前景の画像が次のフレームにおいて4画素右側に表示されるように等速で移動すると仮定できるので、例えば、図401中の左から3番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分F06/vは、図401中の左から4番目の画素の、シャッタが開いて2番目のシャッタ時間/vに対応する前景の成分に等しい。同様に、前景の成分F06/vは、図401中の左から5番目の画素の、シャッタが開いて3番目のシャッタ時間/vに対応する前景の成分と、図401中の左から6番目の画素の、シャッタが開いて4番目のシャッタ時間/vに対応する前景の成分とに、それぞれ等しい。
【3126】
前景に対応するオブジェクトが、剛体であり、前景の画像が次のフレームにおいて4画素右側に表示されるように等速で移動すると仮定できるので、例えば、図401中の左から2番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分F05/vは、図401中の左から3番目の画素の、シャッタが開いて2番目のシャッタ時間/vに対応する前景の成分に等しい。同様に、前景の成分F05/vは、図401中の左から4番目の画素の、シャッタが開いて3番目のシャッタ時間/vに対応する前景の成分と、図401中の左から5番目の画素の、シャッタが開いて4番目のシャッタ時間/vに対応する前景の成分とに、それぞれ等しい。
【3127】
前景に対応するオブジェクトが、剛体であり、前景の画像が次のフレームにおいて4画素右側に表示されるように等速で移動すると仮定できるので、例えば、図401中の最も左側の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分F04/vは、図401中の左から2番目の画素の、シャッタが開いて2番目のシャッタ時間/vに対応する前景の成分に等しい。同様に、前景の成分F04/vは、図401中の左から3番目の画素の、シャッタが開いて3番目のシャッタ時間/vに対応する前景の成分と、図401中の左から4番目の画素の、シャッタが開いて4番目のシャッタ時間/vに対応する前景の成分とに、それぞれ等しい。
【3128】
このような動いているオブジェクトに対応する前景の領域の状態が、動きボケである。また、動いているオブジェクトに対応する前景の領域は、このように動きボケを含むので、歪み領域とも言える。
【3129】
図402は、前景が図中の右側に向かって移動する場合の、アンカバードバックグラウンド領域を含む、1つのライン上の画素の画素値を時間方向に展開したモデル図である。図402において、前景の動き量vは、4である。1フレームは短い時間なので、前景に対応するオブジェクトが剛体であり、等速で移動していると仮定することができる。図402において、前景に対応するオブジェクトの画像は、あるフレームを基準として次のフレームにおいて4画素分右側に移動する。
【3130】
図402において、最も左側の画素乃至左から4番目の画素は、背景領域に属する。図402において、左から5番目乃至左から7番目の画素は、アンカバードバックグラウンドである混合領域に属する。図402において、最も右側の画素は、前景領域に属する。
【3131】
背景に対応するオブジェクトを覆っていた前景に対応するオブジェクトが時間の経過と共に背景に対応するオブジェクトの前から取り除かれるように移動しているので、アンカバードバックグラウンド領域に属する画素の画素値に含まれる成分は、シャッタ時間に対応する期間のある時点で、前景の成分から、背景の成分に替わる。
【3132】
例えば、図402中に太線枠を付した画素値M’は、式(300)で表される。
【3133】
M’=F02/v+F01/v+B26/v+B26/v・・・(300)
【3134】
例えば、左から5番目の画素は、3つのシャッタ時間/vに対応する背景の成分を含み、1つのシャッタ時間/vに対応する前景の成分を含むので、左から5番目の画素の混合比αは、3/4である。左から6番目の画素は、2つのシャッタ時間/vに対応する背景の成分を含み、2つのシャッタ時間/vに対応する前景の成分を含むので、左から6番目の画素の混合比αは、1/2である。左から7番目の画素は、1つのシャッタ時間/vに対応する背景の成分を含み、3つのシャッタ時間/vに対応する前景の成分を含むので、左から7番目の画素の混合比αは、1/4である。
【3135】
式(299)および式(300)をより一般化すると、画素値Mは、式(301)で表される。
【3136】
【数232】
ここで、αは、混合比である。Bは、背景の画素値であり、Fi/vは、前景の成分である。
【3137】
前景に対応するオブジェクトが剛体であり、等速で動くと仮定でき、かつ、動き量vが4であるので、例えば、図402中の左から5番目の画素の、シャッタが開いて最初の、シャッタ時間/vの前景の成分F01/vは、図402中の左から6番目の画素の、シャッタが開いて2番目のシャッタ時間/vに対応する前景の成分に等しい。同様に、F01/vは、図402中の左から7番目の画素の、シャッタが開いて3番目のシャッタ時間/vに対応する前景の成分と、図402中の左から8番目の画素の、シャッタが開いて4番目のシャッタ時間/vに対応する前景の成分とに、それぞれ等しい。
【3138】
前景に対応するオブジェクトが剛体であり、等速で動くと仮定でき、かつ、仮想分割数が4であるので、例えば、図402中の左から6番目の画素の、シャッタが開いて最初の、シャッタ時間/vの前景の成分F02/vは、図402中の左から7番目の画素の、シャッタが開いて2番目のシャッタ時間/vに対応する前景の成分に等しい。同様に、前景の成分F02/vは、図402中の左から8番目の画素の、シャッタが開いて3番目のシャッタ時間/vに対応する前景の成分に等しい。
【3139】
前景に対応するオブジェクトが剛体であり、等速で動くと仮定でき、かつ、動き量vが4であるので、例えば、図402中の左から7番目の画素の、シャッタが開いて最初の、シャッタ時間/vの前景の成分F03/vは、図402中の左から8番目の画素の、シャッタが開いて2番目のシャッタ時間/vに対応する前景の成分に等しい。
【3140】
図400乃至図402の説明において、仮想分割数は、4であるとして説明したが、仮想分割数は、動き量vに対応する。動き量vは、一般に、前景に対応するオブジェクトの移動速度に対応する。例えば、前景に対応するオブジェクトが、あるフレームを基準として次のフレームにおいて4画素分右側に表示されるように移動しているとき、動き量vは、4とされる。動き量vに対応し、仮想分割数は、4とされる。同様に、例えば、前景に対応するオブジェクトが、あるフレームを基準として次のフレームにおいて6画素分左側に表示されるように移動しているとき、動き量vは、6とされ、仮想分割数は、6とされる。
【3141】
図403および図404に、以上で説明した、前景領域、背景領域、カバードバックグラウンド領域若しくはアンカバードバックグラウンド領域から成る混合領域と、分割されたシャッタ時間に対応する前景の成分および背景の成分との関係を示す。
【3142】
図403は、静止している背景の前を移動しているオブジェクトに対応する前景を含む画像から、前景領域、背景領域、および混合領域の画素を抽出した例を示す。図403に示す例において、前景に対応するオブジェクトは、画面に対して水平に移動している。
【3143】
フレーム#n+1は、フレーム#nの次のフレームであり、フレーム#n+2は、フレーム#n+1の次のフレームである。
【3144】
フレーム#n乃至フレーム#n+2のいずれかから抽出した、前景領域、背景領域、および混合領域の画素を抽出して、動き量vを4として、抽出された画素の画素値を時間方向に展開したモデルを図404に示す。
【3145】
前景領域の画素値は、前景に対応するオブジェクトが移動するので、シャッタ時間/vの期間に対応する、4つの異なる前景の成分から構成される。例えば、図404に示す前景領域の画素のうち最も左側に位置する画素は、F01/v,F02/v,F03/v、およびF04/vから構成される。すなわち、前景領域の画素は、動きボケを含んでいる。
【3146】
背景に対応するオブジェクトが静止しているので、シャッタ時間に対応する期間において、センサ2に入力される背景に対応する光は変化しない。この場合、背景領域の画素値は、動きボケを含まない。
【3147】
カバードバックグラウンド領域若しくはアンカバードバックグラウンド領域から成る混合領域に属する画素の画素値は、前景の成分と、背景の成分とから構成される。
【3148】
次に、オブジェクトに対応する画像が動いているとき、複数のフレームにおける、隣接して1列に並んでいる画素であって、フレーム上で同一の位置の画素の画素値を時間方向に展開したモデルについて説明する。例えば、オブジェクトに対応する画像が画面に対して水平に動いているとき、隣接して1列に並んでいる画素として、画面の1つのライン上に並んでいる画素を選択することができる。
【3149】
図405は、静止している背景に対応するオブジェクトを撮像した画像の3つのフレームの、隣接して1列に並んでいる画素であって、フレーム上で同一の位置の画素の画素値を時間方向に展開したモデル図である。フレーム#nは、フレーム#n−1の次のフレームであり、フレーム#n+1は、フレーム#nの次のフレームである。他のフレームも同様に称する。
【3150】
図405に示すB01乃至B12の画素値は、静止している背景のオブジェクトに対応する画素の画素値である。背景に対応するオブジェクトが静止しているので、フレーム#n−1乃至フレームn+1において、対応する画素の画素値は、変化しない。例えば、フレーム#n−1におけるB05の画素値を有する画素の位置に対応する、フレーム#nにおける画素、およびフレーム#n+1における画素は、それぞれ、B05の画素値を有する。
【3151】
図406は、静止している背景に対応するオブジェクトと共に図中の右側に移動する前景に対応するオブジェクトを撮像した画像の3つのフレームの、隣接して1列に並んでいる画素であって、フレーム上で同一の位置の画素の画素値を時間方向に展開したモデル図である。図406に示すモデルは、カバードバックグラウンド領域を含む。
【3152】
図406において、前景に対応するオブジェクトが、剛体であり、等速で移動すると仮定でき、前景の画像が次のフレームにおいて4画素右側に表示されるように移動するので、前景の動き量vは、4であり、仮想分割数は、4である。
【3153】
例えば、図406中のフレーム#n−1の最も左側の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F12/vとなり、図406中の左から2番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F12/vとなる。図406中の左から3番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分、および図406中の左から4番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F12/vとなる。
【3154】
図406中のフレーム#n−1の最も左側の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分は、F11/vとなり、図406中の左から2番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分も、F11/vとなる。図406中の左から3番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F11/vとなる。
【3155】
図406中のフレーム#n−1の最も左側の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分は、F10/vとなり、図406中の左から2番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分も、F10/vとなる。図406中のフレーム#n−1の最も左側の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F09/vとなる。
【3156】
背景に対応するオブジェクトが静止しているので、図406中のフレーム#n−1の左から2番目の画素の、シャッタが開いて最初のシャッタ時間/vの背景の成分は、B01/vとなる。図406中のフレーム#n−1の左から3番目の画素の、シャッタが開いて最初および2番目のシャッタ時間/vの背景の成分は、B02/vとなる。図406中のフレーム#n−1の左から4番目の画素の、シャッタが開いて最初乃至3番目のシャッタ時間/vの背景の成分は、B03/vとなる。
【3157】
図406中のフレーム#n−1において、最も左側の画素は、前景領域に属し、左側から2番目乃至4番目の画素は、カバードバックグラウンド領域である混合領域に属する。
【3158】
図406中のフレーム#n−1の左から5番目の画素乃至12番目の画素は、背景領域に属し、その画素値は、それぞれ、B04乃至B11となる。
【3159】
図406中のフレーム#nの左から1番目の画素乃至5番目の画素は、前景領域に属する。フレーム#nの前景領域における、シャッタ時間/vの前景の成分は、F05/v乃至F12/vのいずれかである。
【3160】
前景に対応するオブジェクトが、剛体であり、等速で移動すると仮定でき、前景の画像が次のフレームにおいて4画素右側に表示されるように移動するので、図406中のフレーム#nの左から5番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F12/vとなり、図406中の左から6番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F12/vとなる。図406中の左から7番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分、および図406中の左から8番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F12/vとなる。
【3161】
図406中のフレーム#nの左から5番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分は、F11/vとなり、図406中の左から6番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分も、F11/vとなる。図406中の左から7番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F11/vとなる。
【3162】
図406中のフレーム#nの左から5番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分は、F10/vとなり、図406中の左から6番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分も、F10/vとなる。図406中のフレーム#nの左から5番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F09/vとなる。
【3163】
背景に対応するオブジェクトが静止しているので、図406中のフレーム#nの左から6番目の画素の、シャッタが開いて最初のシャッタ時間/vの背景の成分は、B05/vとなる。図406中のフレーム#nの左から7番目の画素の、シャッタが開いて最初および2番目のシャッタ時間/vの背景の成分は、B06/vとなる。図406中のフレーム#nの左から8番目の画素の、シャッタが開いて最初乃至3番目の、シャッタ時間/vの背景の成分は、B07/vとなる。
【3164】
図406中のフレーム#nにおいて、左側から6番目乃至8番目の画素は、カバードバックグラウンド領域である混合領域に属する。
【3165】
図406中のフレーム#nの左から9番目の画素乃至12番目の画素は、背景領域に属し、画素値は、それぞれ、B08乃至B11となる。
【3166】
図406中のフレーム#n+1の左から1番目の画素乃至9番目の画素は、前景領域に属する。フレーム#n+1の前景領域における、シャッタ時間/vの前景の成分は、F01/v乃至F12/vのいずれかである。
【3167】
前景に対応するオブジェクトが、剛体であり、等速で移動すると仮定でき、前景の画像が次のフレームにおいて4画素右側に表示されるように移動するので、図406中のフレーム#n+1の左から9番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F12/vとなり、図406中の左から10番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F12/vとなる。図406中の左から11番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分、および図406中の左から12番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F12/vとなる。
【3168】
図406中のフレーム#n+1の左から9番目の画素の、シャッタが開いて2番目のシャッタ時間/vの期間の前景の成分は、F11/vとなり、図406中の左から10番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分も、F11/vとなる。図406中の左から11番目の画素の、シャッタが開いて4番目の、シャッタ時間/vの前景の成分は、F11/vとなる。
【3169】
図406中のフレーム#n+1の左から9番目の画素の、シャッタが開いて3番目の、シャッタ時間/vの前景の成分は、F10/vとなり、図406中の左から10番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分も、F10/vとなる。図406中のフレーム#n+1の左から9番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F09/vとなる。
【3170】
背景に対応するオブジェクトが静止しているので、図406中のフレーム#n+1の左から10番目の画素の、シャッタが開いて最初のシャッタ時間/vの背景の成分は、B09/vとなる。図406中のフレーム#n+1の左から11番目の画素の、シャッタが開いて最初および2番目のシャッタ時間/vの背景の成分は、B10/vとなる。図406中のフレーム#n+1の左から12番目の画素の、シャッタが開いて最初乃至3番目の、シャッタ時間/vの背景の成分は、B11/vとなる。
【3171】
図406中のフレーム#n+1において、左側から10番目乃至12番目の画素は、カバードバックグラウンド領域である混合領域に対応する。
【3172】
図407は、図406に示す画素値から前景の成分を抽出した画像のモデル図である。
【3173】
図408は、静止している背景と共に図中の右側に移動するオブジェクトに対応する前景を撮像した画像の3つのフレームの、隣接して1列に並んでいる画素であって、フレーム上で同一の位置の画素の画素値を時間方向に展開したモデル図である。図408において、アンカバードバックグラウンド領域が含まれている。
【3174】
図408において、前景に対応するオブジェクトは、剛体であり、かつ等速で移動していると仮定できる。前景に対応するオブジェクトが、次のフレームにおいて4画素分右側に表示されるように移動しているので、動き量vは、4である。
【3175】
例えば、図408中のフレーム#n−1の最も左側の画素の、シャッタが開いて最初の、シャッタ時間/vの前景の成分は、F13/vとなり、図408中の左から2番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F13/vとなる。図408中の左から3番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分、および図408中の左から4番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F13/vとなる。
【3176】
図408中のフレーム#n−1の左から2番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F14/vとなり、図408中の左から3番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F14/vとなる。図408中の左から3番目の画素の、シャッタが開いて最初の、シャッタ時間/vの前景の成分は、F15/vとなる。
【3177】
背景に対応するオブジェクトが静止しているので、図408中のフレーム#n−1の最も左側の画素の、シャッタが開いて2番目乃至4番目の、シャッタ時間/vの背景の成分は、B25/vとなる。図408中のフレーム#n−1の左から2番目の画素の、シャッタが開いて3番目および4番目の、シャッタ時間/vの背景の成分は、B26/vとなる。図408中のフレーム#n−1の左から3番目の画素の、シャッタが開いて4番目のシャッタ時間/vの背景の成分は、B27/vとなる。
【3178】
図408中のフレーム#n−1において、最も左側の画素乃至3番目の画素は、アンカバードバックグラウンド領域である混合領域に属する。
【3179】
図408中のフレーム#n−1の左から4番目の画素乃至12番目の画素は、前景領域に属する。フレームの前景の成分は、F13/v乃至F24/vのいずれかである。
【3180】
図408中のフレーム#nの最も左側の画素乃至左から4番目の画素は、背景領域に属し、画素値は、それぞれ、B25乃至B28となる。
【3181】
前景に対応するオブジェクトが、剛体であり、等速で移動すると仮定でき、前景の画像が次のフレームにおいて4画素右側に表示されるように移動するので、図408中のフレーム#nの左から5番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F13/vとなり、図408中の左から6番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F13/vとなる。図408中の左から7番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分、および図408中の左から8番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F13/vとなる。
【3182】
図408中のフレーム#nの左から6番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F14/vとなり、図408中の左から7番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F14/vとなる。図408中の左から8番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F15/vとなる。
【3183】
背景に対応するオブジェクトが静止しているので、図408中のフレーム#nの左から5番目の画素の、シャッタが開いて2番目乃至4番目のシャッタ時間/vの背景の成分は、B29/vとなる。図408中のフレーム#nの左から6番目の画素の、シャッタが開いて3番目および4番目のシャッタ時間/vの背景の成分は、B30/vとなる。図408中のフレーム#nの左から7番目の画素の、シャッタが開いて4番目のシャッタ時間/vの背景の成分は、B31/vとなる。
【3184】
図408中のフレーム#nにおいて、左から5番目の画素乃至7番目の画素は、アンカバードバックグラウンド領域である混合領域に属する。
【3185】
図408中のフレーム#nの左から8番目の画素乃至12番目の画素は、前景領域に属する。フレーム#nの前景領域における、シャッタ時間/vの期間に対応する値は、F13/v乃至F20/vのいずれかである。
【3186】
図408中のフレーム#n+1の最も左側の画素乃至左から8番目の画素は、背景領域に属し、画素値は、それぞれ、B25乃至B32となる。
【3187】
前景に対応するオブジェクトが、剛体であり、等速で移動すると仮定でき、前景の画像が次のフレームにおいて4画素右側に表示されるように移動するので、図408中のフレーム#n+1の左から9番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F13/vとなり、図408中の左から10番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F13/vとなる。図408中の左から11番目の画素の、シャッタが開いて3番目のシャッタ時間/vの前景の成分、および図408中の左から12番目の画素の、シャッタが開いて4番目のシャッタ時間/vの前景の成分は、F13/vとなる。
【3188】
図408中のフレーム#n+1の左から10番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F14/vとなり、図408中の左から11番目の画素の、シャッタが開いて2番目のシャッタ時間/vの前景の成分も、F14/vとなる。図408中の左から12番目の画素の、シャッタが開いて最初のシャッタ時間/vの前景の成分は、F15/vとなる。
【3189】
背景に対応するオブジェクトが静止しているので、図408中のフレーム#n+1の左から9番目の画素の、シャッタが開いて2番目乃至4番目の、シャッタ時間/vの背景の成分は、B33/vとなる。図408中のフレーム#n+1の左から10番目の画素の、シャッタが開いて3番目および4番目のシャッタ時間/vの背景の成分は、B34/vとなる。図408中のフレーム#n+1の左から11番目の画素の、シャッタが開いて4番目のシャッタ時間/vの背景の成分は、B35/vとなる。
【3190】
図408中のフレーム#n+1において、左から9番目の画素乃至11番目の画素は、アンカバードバックグラウンド領域である混合領域に属する。
【3191】
図408中のフレーム#n+1の左から12番目の画素は、前景領域に属する。フレーム#n+1の前景領域における、シャッタ時間/vの前景の成分は、F13/v乃至F16/vのいずれかである。
【3192】
図409は、図408に示す画素値から前景の成分を抽出した画像のモデル図である。
【3193】
入力画像と動きボケについて説明してきたが、以上においては、仮想分割数により画素内の成分の変化を説明してきたが、仮想分割数を無限にすることにより、各成分は、例えば、図373の右部にあるレベルw1乃至w5で示される帯状の領域と同様な構成となる。
【3194】
すなわち、X−T平面上(X−Y平面でも同じ)の定常性の方向に沿った領域毎に不連続関数としてレベルを設定することは、シャッタ時間内の成分の変化を分割数によらず、直線的な領域として設定したものであると言える。
【3195】
このため、定常性の方向に沿った領域毎に不連続関数からなる近似関数を用いて、実世界を推定することにより、上述の動きボケの生じるメカニズムを推定することができる。
【3196】
従って、この特性を利用することで、1回のシャッタ時間内の画素(フレーム方向に1画素以下の画素)を生成することにより、実質的に動きボケを除去することが可能となる。
【3197】
図410は、クラス分類適応処理により動きボケを除去した場合の処理結果と、定常性の方向に沿った領域毎に不連続関数を設定することにより得られる実世界の近似関数を用いて動きボケを除去した場合の処理結果を比較したものである。尚、図410においては、点線が、入力画像(動きボケの存在する画像)の画素値の変化を示したものであり、実線は、クラス分類適応処理により動きボケを除去した場合の処理結果を示したものであり、一点鎖線が、定常性の方向に沿った領域毎に不連続関数を設定することにより得られる実世界の近似関数を用いて動きボケを除去した場合の処理結果を示している。さらに、横軸は、入力画像のX方向の座標を示し、縦軸は、画素値を示している。
【3198】
領域毎の不連続関数からなる実世界の近似関数を用いて動きボケを除去した場合の処理結果は、クラス分類適応処理により動きボケを除去した場合の処理結果に比べて、X=379,376付近を中心として、エッジ部分の画素値の変化が激しくなっており、動きボケが除去されて、画像のコントラストがはっきりした画像となっていることがわかる。
【3199】
また、図411で示されるように、おもちゃの飛行機状の物体が水平方向に移動する際に動きボケが生じたときの画像を、定常性の方向に沿った領域毎に不連続関数を設定して実世界の近似関数を用いて動きボケを除去した場合の処理結果(図369の実世界推定部102と図384の画像生成部103を用いて生成された動きボケが除去された画像)と、その他の方式で動きボケを除去した処理結果との比較が、図412A乃至Dに示されている。
【3200】
すなわち、図412Aは、図411中の黒枠部分の動きボケが生じた画像そのもの(ボケ除去の処理前の画像)であり、図412Bは、図412Aの動きボケが生じた画像を、領域毎に設定される不連続関数からなる実世界の近似関数を用いて動きボケを除去した画像であり、図412Cは、入力画像の被写体が静止した状態で撮像された画像であり、図412Dは、その他の方式で動きボケを除去した処理結果の画像である。
【3201】
領域毎に設定される不連続関数からなる実世界の近似関数を用いて動きボケを除去した画像(図412Bの画像)は、その他の方式で動きボケを除去した処理結果の画像(図412Dの画像)と比べて、図中の「C」と「A」の隣接している部位が、より鮮明な画像となっており、また、文字の存在する領域が、よりはっきりと表示されているのがわかる。これにより、領域毎に設定される不連続関数からなる実世界の近似関数を用いて動きボケを除去する処理により、細部が鮮明に表示されることがわかる。
【3202】
さらに、図413で示されるように、おもちゃの飛行機状の物体が斜方向(斜右上がり方向)に移動する際に動きボケが生じたときの画像を、定常性の方向に沿った領域毎に不連続関数を設定して実世界の近似関数を用いて動きボケを除去した場合の処理結果(図377の実世界推定部102と図388の画像生成部103を用いて生成された動きボケが除去された画像)と、その他の方式で動きボケを除去した処理結果との比較が、図414A乃至Dに示されている。
【3203】
すなわち、図414Aは、図413中の黒枠部分の動きボケが生じたボケ除去の処理前の画像であり、図414Bは、図414Aの動きボケが生じた画像を、領域毎に設定される不連続関数からなる実世界の近似関数を用いて動きボケを除去した画像であり、図414Cは、入力画像の被写体が静止した状態で撮像された画像であり、図414Dは、その他の方式で動きボケを除去した処理結果の画像である。尚、画像は、図413の図中に太線で長方状の印のついた位置付近のものである。
【3204】
領域毎に設定される不連続関数からなる実世界の近似関数を用いて動きボケを除去した画像は、図412を参照して説明したように、その他の方式で動きボケを除去した処理結果の画像と比べて、図中の「C」と「A」の隣接している部位が、より鮮明な画像となっており、また、文字の存在する領域が、よりはっきりと表示されているのがわかる。これにより、領域毎に設定される不連続関数からなる実世界の近似関数を用いて動きボケを除去する処理により、細部が鮮明に表示されることがわかる。
【3205】
さらに、領域毎に設定される不連続関数からなる実世界の近似関数を用いて動きボケを除去する場合、図415Aで示される右上がりの方向に動きボケが生じた斜方向に上段の原画像が入力されると、図415Bで示されるような画像が出力される。すなわち、原画像の中央部の縦じまに動きボケが生じた画像の場合、領域毎に設定される不連続関数からなる実世界の近似関数を用いて動きボケを除去することにより、縦じま部分が、鮮明な画像となる。
【3206】
すなわち、図412A乃至D、および、図415A,Bで示されるように、図377の実世界推定部、および、図388の画像生成部103は、図391で示されるような3次元の棒状の領域毎に、それぞれに不連続な関数として実世界を推定する近似関数を設定することから、水平方向、および、垂直方向のみならず、それらの動きの組み合わせとなる斜方向の動きにより生じる動きボケをも除去することも可能である。
【3207】
以上によれば、それぞれ時空間積分効果を有する複数の画素に現実世界の光信号が射影され、現実世界の光信号の定常性の一部が欠落した画像データの定常性を検出し、画像データ定常性検出手段により検出された画像データの定常性に対応して、画像データの時空間方向のうち少なくとも1次元方向の位置に対応する各画素の画素値が少なくとも1次元方向の積分により取得された画素値であるとして画像データを不連続な関数で近似することにより、現実世界の光信号に対応する関数を推定するようにしたので、拡大画像に用いる高密度画素の生成や、新たなフレームの画素を生成することが可能となり、いずれにおいても、より鮮明な画像を生成することが可能となる。
【3208】
なお、センサ2は、固体撮像素子である、例えば、BBD(Bucket Brigade Device)、CID(Charge Injection Device)、またはCPD(Charge Priming Device)などのセンサでもよい。
【3209】
本発明の信号処理を行うプログラムを記録した記録媒体は、図2で示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク51(フレキシブルディスクを含む)、光ディスク52(CD−ROM(Compaut Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク53(MD(Mini−Disk)(商標)を含む)、もしくは半導体メモリ54などよりなるパッケージメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM22や、記憶部28に含まれるハードディスクなどで構成される。
【3210】
なお、上述した一連の処理を実行させるプログラムは、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を介してコンピュータにインストールされるようにしてもよい。
【3211】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【3212】
【発明の効果】
以上のように、本発明によれば、正確で、精度の高い処理結果を得ることができるようになる。
【3213】
また、本発明によれば、現実世界の事象に対して、より正確で、より精度の高い処理結果を得ることができるようになる。
【図面の簡単な説明】
【図1】本発明の原理を示す図である。
【図2】信号処理装置4の構成の例を示すブロック図である。
【図3】信号処理装置4を示すブロック図である。
【図4】従来の信号処理装置121の処理の原理を説明する図である。
【図5】信号処理装置4の処理の原理を説明する図である。
【図6】本発明の原理をより具体的に説明する図である。
【図7】本発明の原理をより具体的に説明する図である。
【図8】イメージセンサ上の画素の配置の例を説明する図である。
【図9】CCDである検出素子の動作を説明する図である。
【図10】画素D乃至画素Fに対応する検出素子に入射される光と、画素値との関係を説明する図である。
【図11】時間の経過と、1つの画素に対応する検出素子に入射される光と、画素値との関係を説明する図である。
【図12】実世界1の線状の物の画像の例を示す図である。
【図13】実際の撮像により得られた画像データの画素値の例を示す図である。
【図14】画像データの模式図である。
【図15】背景とは異なる色であって、単色の、直線状の縁を有する物の実世界1の画像の例を示す図である。
【図16】実際の撮像により得られた画像データの画素値の例を示す図である。
【図17】画像データの模式図である。
【図18】本発明の原理を説明する図である。
【図19】本発明の原理を説明する図である。
【図20】高解像度データ181の生成の例を説明する図である。
【図21】モデル161による近似を説明する図である。
【図22】M個のデータ162によるモデル161の推定を説明する図である。
【図23】実世界1の信号とデータ3との関係を説明する図である。
【図24】式を立てるときに注目するデータ3の例を示す図である。
【図25】式を立てる場合における、実世界1における2つの物体に対する信号および混合領域に属する値を説明する図である。
【図26】式(18)、式(19)、および式(22)で表される定常性を説明する図である。
【図27】データ3から抽出される、M個のデータ162の例を示す図である。
【図28】データ3である画素値が取得された領域を説明する図である。
【図29】画素の時空間方向の位置の近似を説明する図である。
【図30】データ3における、時間方向および2次元の空間方向の実世界1の信号の積分を説明する図である。
【図31】空間方向により解像度の高い高解像度データ181を生成するときの、積分の領域を説明する図である。
【図32】時間方向により解像度の高い高解像度データ181を生成するときの、積分の領域を説明する図である。
【図33】動きボケを除去した高解像度データ181を生成するときの、積分の領域を説明する図である。
【図34】時間空間方向により解像度の高い高解像度データ181を生成するときの、積分の領域を説明する図である。
【図35】入力画像の元の画像を示す図である。
【図36】入力画像の例を示す図である。
【図37】従来のクラス分類適応処理を適用して得られた画像を示す図である。
【図38】細線の領域を検出した結果を示す図である。
【図39】信号処理装置4から出力された出力画像の例を示す図である。
【図40】信号処理装置4による、信号の処理を説明するフローチャートである。
【図41】データ定常性検出部101の構成を示すブロック図である。
【図42】背景の前に細線がある実世界1の画像を示す図である。
【図43】平面による背景の近似を説明する図である。
【図44】細線の画像が射影された画像データの断面形状を示す図である。
【図45】細線の画像が射影された画像データの断面形状を示す図である。
【図46】細線の画像が射影された画像データの断面形状を示す図である。
【図47】頂点の検出および単調増減領域の検出の処理を説明する図である。
【図48】頂点の画素値が閾値を超え、隣接する画素の画素値が閾値以下である細線領域を検出する処理を説明する図である。
【図49】図48の点線AA’で示す方向に並ぶ画素の画素値を表す図である。
【図50】単調増減領域の連続性の検出の処理を説明する図である。
【図51】平面での近似により定常成分を抽出した画像の例を示す図である。
【図52】単調減少している領域を検出した結果を示す図である。
【図53】連続性が検出された領域を示す図である。
【図54】連続性が検出された領域の画素値を示す図である。
【図55】細線の画像が射影された領域の検出の他の処理の例を示す図である。
【図56】定常性検出の処理を説明するフローチャートである。
【図57】時間方向のデータの定常性を検出の処理を説明する図である。
【図58】非定常成分抽出部201の構成を示すブロック図である。
【図59】棄却される回数を説明する図である。
【図60】入力画像の例を示す図である。
【図61】棄却をしないで平面で近似した結果得られる標準誤差を画素値とした画像を示す図である。
【図62】棄却をして平面で近似した結果得られる標準誤差を画素値とした画像を示す図である。
【図63】棄却された回数を画素値とした画像を示す図である。
【図64】平面の空間方向Xの傾きを画素値とした画像を示す図である。
【図65】平面の空間方向Yの傾きを画素値とした画像を示す図である。
【図66】平面で示される近似値からなる画像を示す図である。
【図67】平面で示される近似値と画素値との差分からなる画像を示す図である。
【図68】非定常成分の抽出の処理を説明するフローチャートである。
【図69】定常成分の抽出の処理を説明するフローチャートである。
【図70】定常成分の抽出の他の処理を説明するフローチャートである。
【図71】定常成分の抽出のさらに他の処理を説明するフローチャートである。
【図72】データ定常性検出部101の他の構成を示すブロック図である。
【図73】データの定常性を有する入力画像におけるアクティビティを説明する図である。
【図74】アクティビティを検出するためのブロックを説明する図である。
【図75】アクティビティに対するデータの定常性の角度を説明する図である。
【図76】データ定常性検出部101のより詳細な構成を示すブロック図である。
【図77】画素の組を説明する図である。
【図78】画素の組の位置とデータの定常性の角度との関係を説明する図である。
【図79】データの定常性の検出の処理を説明するフローチャートである。
【図80】時間方向および空間方向のデータの定常性の角度を検出するとき、抽出される画素の組を示す図である。
【図81】データ定常性検出部101のより詳細な他の構成を示すブロック図である。
【図82】設定された直線の角度の範囲に応じた数の画素からなる画素の組を説明する図である。
【図83】設定された直線の角度の範囲を説明する図である。
【図84】設定された直線の角度の範囲と、画素の組の数、および画素の組毎の画素の数を説明する図である。
【図85】画素の組の数および画素の組毎の画素の数を説明する図である。
【図86】画素の組の数および画素の組毎の画素の数を説明する図である。
【図87】画素の組の数および画素の組毎の画素の数を説明する図である。
【図88】画素の組の数および画素の組毎の画素の数を説明する図である。
【図89】画素の組の数および画素の組毎の画素の数を説明する図である。
【図90】画素の組の数および画素の組毎の画素の数を説明する図である。
【図91】画素の組の数および画素の組毎の画素の数を説明する図である。
【図92】画素の組の数および画素の組毎の画素の数を説明する図である。
【図93】データの定常性の検出の処理を説明するフローチャートである。
【図94】データ定常性検出部101のさらに他の構成を示すブロック図である。
【図95】データ定常性検出部101のより詳細な構成を示すブロック図である。
【図96】ブロックの例を説明する図である。
【図97】注目ブロックと参照ブロックとの、画素値の差分の絶対値の算出の処理を説明する図である。
【図98】注目画素の周辺の画素の位置と、角度θを有する直線との空間方向Xの距離を説明する図である。
【図99】シフト量γと角度θとの関係を示す図である。
【図100】シフト量γに対する、注目画素の周辺の画素の位置と、注目画素を通り、角度θを有する直線との空間方向Xの距離を示す図である。
【図101】注目画素を通り、空間方向Xの軸に対して角度θの直線との距離が最小の参照ブロックを示す図である。
【図102】検出するデータの定常性の角度の範囲を1/2にする処理を説明する図である。
【図103】データの定常性の検出の処理を説明するフローチャートである。
【図104】間方向および空間方向のデータの定常性の角度を検出するとき、抽出されるブロックを示す図である。
【図105】入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行するデータ定常性検出部101の構成を示すブロック図である。
【図106】入力画像のコンポーネント信号を基に、データの定常性の検出の処理を実行するデータ定常性検出部101の構成を示すブロック図である。
【図107】データ定常性検出部101のさらに他の構成を示すブロック図である。
【図108】入力画像における、基準軸を基準としたデータの定常性の角度を説明する図である。
【図109】入力画像における、基準軸を基準としたデータの定常性の角度を説明する図である。
【図110】入力画像における、基準軸を基準としたデータの定常性の角度を説明する図である。
【図111】入力画像における、画素の空間方向の位置に対する、画素値の変化と、回帰直線との関係を示す図である。
【図112】回帰直線Aと、例えば、基準軸である空間方向Xを示す軸との角度を説明する図である。
【図113】領域の例を示す図である。
【図114】図107で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明するフローチャートである。
【図115】データ定常性検出部101のさらに他の構成を示すブロック図である。
【図116】入力画像における、画素の空間方向の位置に対する、画素値の変化と、回帰直線との関係を示す図である。
【図117】標準偏差とデータの定常性を有する領域との関係を説明する図である。
【図118】領域の例を示す図である。
【図119】図115で構成が示されるデータ定常性検出部101による、データの定常性の検出の処理を説明するフローチャートである。
【図120】図115で構成が示されるデータ定常性検出部101による、データの定常性の検出の他の処理を説明するフローチャートである。
【図121】本発明を適用した細線、または、2値エッジの角度をデータ定常性情報として検出するデータ定常性検出部の構成を示すブロック図である。
【図122】データ定常性情報の検出方法を説明する図である。
【図123】データ定常性情報の検出方法を説明する図である。
【図124】図121のデータ定常性検出部のより詳細な構成を示す図である。
【図125】水平・垂直判定処理を説明する図である。
【図126】水平・垂直判定処理を説明する図である。
【図127】現実世界の細線とセンサにより撮像される細線の関係を説明する図である。
【図128】現実世界の画像の細線と背景の関係を説明する図である。
【図129】センサにより撮像された画像の細線と背景の関係を説明する図である。
【図130】センサにより撮像された画像の細線と背景の関係の例を説明する図である。
【図131】現実世界の画像の細線と背景の関係を説明する図である。
【図132】センサにより撮像された画像の細線と背景の関係を説明する図である。
【図133】センサにより撮像された画像の細線と背景の関係の例を説明する図である。
【図134】細線の角度を求めるためのモデルを示す図である。
【図135】細線の角度を求めるためのモデルを示す図である。
【図136】注目画素に対応するダイナミックレンジブロックの画素値の最大値と最小値を説明する図である。
【図137】細線の角度の求め方を説明する図である。
【図138】細線の角度の求め方を説明する図である。
【図139】抽出ブロックとダイナミックレンジブロックを説明する図である。
【図140】最小自乗法の解法を説明する図である。
【図141】最小自乗法の解法を説明する図である。
【図142】2値エッジを説明する図である。
【図143】センサにより撮像された画像の2値エッジを説明する図である。
【図144】センサにより撮像された画像の2値エッジの例を説明する図である。
【図145】センサにより撮像された画像の2値エッジを説明する図である。
【図146】2値エッジの角度を求めるためのモデルを示す図である。
【図147】2値エッジの角度を求める方法を説明する図である。
【図148】2値エッジの角度を求める方法を説明する図である。
【図149】細線、または、2値エッジの角度をデータ定常性と検出する処理を説明するフローチャートである。
【図150】データ抽出処理を説明するフローチャートである。
【図151】正規方程式への足し込み処理を説明するフローチャートである。
【図152】本発明を適用して求めた細線の傾きと、相関を用いて求めた細線の角度とを比較する図である。
【図153】本発明を適用して求めた2値エッジの傾きと、相関を用いて求めた細線の角度とを比較する図である。
【図154】本発明を適用した混合比をデータ定常性情報として検出するデータ定常性検出部の構成を示すブロック図である。
【図155】混合比の求め方を説明する図である。
【図156】混合比をデータ定常性と検出する処理を説明するフローチャートである。
【図157】正規方程式への足し込み処理を説明するフローチャートである。
【図158】細線の混合比の分布例を示す図である。
【図159】2値エッジの混合比の分布例を示す図である。
【図160】混合比の直線近似を説明する図である。
【図161】物体の動きをデータ定常性情報として求める方法を説明する図である。
【図162】物体の動きをデータ定常性情報として求める方法を説明する図である。
【図163】物体の動きによる混合比をデータ定常性情報として求める方法を説明する図である。
【図164】物体の動きによる混合比をデータ定常性情報として求める際の混合比の直線近似を説明する図である。
【図165】本発明を適用した処理領域をデータ定常性情報として検出するデータ定常性検出部の構成を示すブロック図である。
【図166】図165のデータ定常性検出部による定常性の検出の処理を説明するフローチャートである。
【図167】図165のデータ定常性検出部による定常性の検出の処理の積分範囲を説明する図である。
【図168】図165のデータ定常性検出部による定常性の検出の処理の積分範囲を説明する図である。
【図169】本発明を適用した処理領域をデータ定常性情報として検出するデータ定常性検出部のその他の構成を示すブロック図である。
【図170】図169のデータ定常性検出部による定常性の検出の処理を説明するフローチャートである。
【図171】図169のデータ定常性検出部による定常性の検出の処理の積分範囲を説明する図である。
【図172】図169のデータ定常性検出部による定常性の検出の処理の積分範囲を説明する図である。
【図173】データ定常性検出部の他の実施の形態の構成を示すブロック図である。
【図174】図173のデータ定常性検出部の簡易式角度検出部の構成の例を示すブロック図である。
【図175】図173のデータ定常性検出部の回帰式角度検出部の構成の例を示すブロック図である。
【図176】図173のデータ定常性検出部の勾配式角度検出部の構成の例を示すブロック図である。
【図177】図173のデータ定常性検出部によるデータの定常性の検出の処理を説明するフローチャートである。
【図178】簡易式角度検出部により検出された角度に対応する角度の検出方法を説明する図である。
【図179】図177のフローチャートのステップS904の処理である回帰式角度検出処理を説明するフローチャートである。
【図180】度数の変換処理を行うスコープ範囲となる画素を説明する図である。
【図181】度数の変換処理を行うスコープ範囲となる画素を説明する図である。
【図182】度数の変換処理を行うスコープ範囲となる画素を説明する図である。
【図183】度数の変換処理を行うスコープ範囲となる画素を説明する図である。
【図184】度数の変換処理を行うスコープ範囲となる画素を説明する図である。
【図185】データ定常性検出部の他の実施の形態の構成を示すブロック図である。
【図186】図185のデータ定常性検出部によるデータの定常性の検出の処理を説明するフローチャートである。
【図187】実世界推定部102の構成を示すブロック図である。
【図188】実世界1の信号における、細線の幅を検出する処理を説明する図である。
【図189】実世界1の信号における、細線の幅を検出する処理を説明する図である。
【図190】実世界1の信号における、細線の信号のレベルを推定する処理を説明する図である。
【図191】実世界の推定の処理を説明するフローチャートである。
【図192】実世界推定部102の他の構成を示すブロック図である。
【図193】境界検出部2121の構成を示すブロック図である。
【図194】分配比の算出の処理を説明する図である。
【図195】分配比の算出の処理を説明する図である。
【図196】分配比の算出の処理を説明する図である。
【図197】単調増減領域の境界を示す回帰直線の算出の処理を説明する図である。
【図198】単調増減領域の境界を示す回帰直線の算出の処理を説明する図である。
【図199】実世界の推定の処理を説明するフローチャートである。
【図200】境界検出の処理を説明するフローチャートである。
【図201】空間方向の微分値を実世界推定情報として推定する実世界推定部の構成を示すブロック図である。
【図202】図201の実世界推定部による実世界推定の処理を説明するフローチャートである。
【図203】参照画素を説明する図である。
【図204】空間方向の微分値を求める位置を説明する図である。
【図205】空間方向の微分値とシフト量の関係を説明する図である。
【図206】空間方向の傾きを実世界推定情報として推定する実世界推定部の構成を示すブロック図である。
【図207】図206の実世界推定部による実世界推定の処理を説明するフローチャートである。
【図208】空間方向の傾きを求める処理を説明する図である。
【図209】空間方向の傾きを求める処理を説明する図である。
【図210】フレーム方向の微分値を実世界推定情報として推定する実世界推定部の構成を示すブロック図である。
【図211】図210の実世界推定部による実世界推定の処理を説明するフローチャートである。
【図212】参照画素を説明する図である。
【図213】フレーム方向の微分値を求める位置を説明する図である。
【図214】フレーム方向の微分値とシフト量の関係を説明する図である。
【図215】フレーム方向の傾きを実世界推定情報として推定する実世界推定部の構成を示すブロック図である。
【図216】図215の実世界推定部による実世界推定の処理を説明するフローチャートである。
【図217】フレーム方向の傾きを求める処理を説明する図である。
【図218】フレーム方向の傾きを求める処理を説明する図である。
【図219】図3の実世界推定部の実施の形態の1例である、関数近似手法の原理を説明する図である。
【図220】センサがCCDとされる場合の積分効果を説明する図である。
【図221】図220のセンサの積分効果の具体的な例を説明する図である。
【図222】図220のセンサの積分効果の具体的な他の例を説明する図である。
【図223】図221で示される細線含有実世界領域を表した図である。
【図224】図3の実世界推定部の実施の形態の1例の原理を、図219の例と対比させて説明する図である。
【図225】図221で示される細線含有データ領域を表した図である。
【図226】図225の細線含有データ領域に含まれる各画素値のそれぞれをグラフ化した図である。
【図227】図226の細線含有データ領域に含まれる各画素値を近似した近似関数をグラフ化した図である。
【図228】図221で示される細線含有実世界領域が有する空間方向の定常性を説明する図である。
【図229】図225の細線含有データ領域に含まれる各画素値のそれぞれをグラフ化した図である。
【図230】図229で示される入力画素値のそれぞれを、所定のシフト量だけシフトさせた状態を説明する図である。
【図231】空間方向の定常性を考慮して、図226の細線含有データ領域に含まれる各画素値を近似した近似関数をグラフ化した図である。
【図232】空間混合領域を説明する図である。
【図233】空間混合領域における、実世界の信号を近似した近似関数を説明する図である。
【図234】センサの積分特性と空間方向の定常性の両方を考慮して、図226の細線含有データ領域に対応する実世界の信号を近似した近似関数をグラフ化した図である。
【図235】図219で示される原理を有する関数近似手法のうちの、1次多項式近似手法を利用する実世界推定部の構成例を説明するブロック図である。
【図236】図235の構成の実世界推定部が実行する実世界の推定処理を説明するフローチャートである。
【図237】タップ範囲を説明する図である。
【図238】空間方向の定常性を有する実世界の信号を説明する図である。
【図239】センサがCCDとされる場合の積分効果を説明する図である。
【図240】断面方向距離を説明する図である。
【図241】図219で示される原理を有する関数近似手法のうちの、2次多項式近似手法を利用する実世界推定部の構成例を説明するブロック図である。
【図242】図241の構成の実世界推定部が実行する実世界の推定処理を説明するフローチャートである。
【図243】タップ範囲を説明する図である。
【図244】時空間方向の定常性の方向を説明する図である。
【図245】センサがCCDとされる場合の積分効果を説明する図である。
【図246】空間方向の定常性を有する実世界の信号を説明する図である。
【図247】時空間方向の定常性を有する実世界の信号を説明する図である。
【図248】図219で示される原理を有する関数近似手法のうちの、3次元関数近似手法を利用する実世界推定部の構成例を説明するブロック図である。
【図249】図248の構成の実世界推定部が実行する実世界の推定処理を説明するフローチャートである。
【図250】図3の実世界推定部に入力される入力画像の例を示す図である。
【図251】図250の注目画素の中心における実世界の光信号のレベルと、断面方向距離x’における実世界の光信号のレベルの差を示す図である。
【図252】断面方向距離x’について説明する図である。
【図253】断面方向距離x’について説明する図である。
【図254】ブロック内の各画素の断面方向距離を表した図である。
【図255】正規方程式において重みを考慮せずに処理した結果を示す図である。
【図256】正規方程式において重みを考慮して処理した結果を示す図である。
【図257】正規方程式において重みを考慮せずに処理した結果を示す図である。
【図258】正規方程式において重みを考慮して処理した結果を示す図である。
【図259】図3の画像生成部の実施の形態の1例である、再積分手法の原理を説明する図である。
【図260】入力画素と、その入力画素に対応する、実世界の信号を近似する近似関数の例を説明する図である。
【図261】図260で示される近似関数から、図260で示される1つの入力画素における、高解像度の4つの画素を創造する例を説明する図である。
【図262】図259で示される原理を有する再積分手法のうちの、1次元再積分手法を利用する画像生成部の構成例を説明するブロック図である。
【図263】図262の構成の画像生成部が実行する画像の生成処理を説明するフローチャートである。
【図264】入力画像の元の画像の例を表す図である。
【図265】図264の画像に対応する画像データの例を表す図である。
【図266】入力画像の例を表す図である。
【図267】図266の画像に対応する画像データの例を表す図である。
【図268】入力画像に対して従来のクラス分類適応処理を施して得られる画像の例を表す図である。
【図269】図268の画像に対応する画像データの例を表す図である。
【図270】入力画像に対して本発明の1次元再積分手法の処理を施して得られる画像の例を表す図である。
【図271】図270の画像に対応する画像データの例を表す図である。
【図272】空間方向の定常性を有する実世界の信号を説明する図である。
【図273】図259で示される原理を有する再積分手法のうちの、2次元再積分手法を利用する画像生成部の構成例を説明するブロック図である。
【図274】断面方向距離を説明する図である。
【図275】図273の構成の画像生成部が実行する画像の生成処理を説明するフローチャートである。
【図276】入力画素の1例を説明する図である。
【図277】2次元再積分手法により、図276で示される1つの入力画素における、高解像度の4つの画素を創造する例を説明する図である。
【図278】時空間方向の定常性の方向を説明する図である。
【図279】図259で示される原理を有する再積分手法のうちの、3次元再積分手法を利用する画像生成部の構成例を説明するブロック図である。
【図280】図279の構成の画像生成部が実行する画像の生成処理を説明するフローチャートである。
【図281】本発明を適用した画像生成部のその他の構成を示すブロック図である。
【図282】図281の画像生成部による画像の生成の処理を説明するフローチャートである。
【図283】入力画素から4倍密度の画素を生成する処理を説明する図である。
【図284】画素値を示す近似関数とシフト量との関係を示す図である。
【図285】本発明を適用した画像生成部のその他の構成を示すブロック図である。
【図286】図285の画像生成部による画像の生成の処理を説明するフローチャートである。
【図287】入力画素から4倍密度の画素を生成する処理を説明する図である。
【図288】画素値を示す近似関数とシフト量との関係を示す図である。
【図289】図3の画像生成部の実施の形態の1例である、クラス分類適応処理補正手法の1次元再積分手法を利用する画像生成部の構成例を説明するブロック図である。
【図290】図289の画像生成部のクラス分類適応処理部の構成例を説明するブロック図である。
【図291】図289のクラス分類適応処理部と、クラス分類適応処理補正部が使用する係数を学習により決定する学習装置の構成例を示すブロック図である。
【図292】図291のクラス分類適応処理用学習部の詳細な構成例を説明するブロック図である。
【図293】図290のクラス分類適応処理部の処理結果の例を示す図である。
【図294】図293の予測画像とHD画像の差分画像を示す図である。
【図295】図294で示される領域に含まれるX方向に連続した6個のHD画素のうちの、図中左から4個のHD画素に対応する、図293のHD画像の具体的な画素値、SD画像の具体的な画素値、および、実際の波形(実世界の信号)のそれぞれをプロットしたものを示す図である。
【図296】図293の予測画像とHD画像の差分画像を示す図である。
【図297】図296で示される領域に含まれるX方向に連続した6個のHD画素のうちの、図中左から4個のHD画素に対応する、図293のHD画像の具体的な画素値、SD画像の具体的な画素値、および、実際の波形(実世界の信号)のそれぞれをプロットしたものを示す図である。
【図298】図295乃至図297に示される内容に基づいて得られた知見を説明する図である。
【図299】図289の画像生成部のクラス分類適応処理補正部の構成例を説明するブロック図である。
【図300】図291のクラス分類適応処理補正用学習部の詳細な構成例を説明するブロック図である。
【図301】画素内傾斜を説明する図である。
【図302】図293のSD画像と、そのSD画像の各画素の画素内傾斜を画素値とする特徴量画像を示す図である。
【図303】画素内傾斜の算出方法を説明する図である。
【図304】画素内傾斜の算出方法を説明する図である。
【図305】図289の構成の画像生成部が実行する画像の生成処理を説明するフローチャートである。
【図306】図305の画像の生成処理の入力画像クラス分類適応処理の詳細を説明するフローチャートである。
【図307】図305の画像の生成処理のクラス分類適応処理の補正処理の詳細を説明するフローチャートである。
【図308】クラスタップの配置例を説明する図である。
【図309】クラス分類の1例を説明する図である。
【図310】予測タップ配置例を説明する図である。
【図311】図291の学習装置の学習処理を説明するフローチャートである。
【図312】図311の学習処理のクラス分類適応処理用学習処理の詳細を説明するフローチャートである。
【図313】図311の学習処理のクラス分類適応処理補正用学習処理の詳細を説明するフローチャートである。
【図314】図293の予測画像と、その予測画像に補正画像を加算した画像(図289の画像生成部により生成される画像)を表した図である。
【図315】図1の信号処理装置の実施の形態の他の例である、併用手法を利用する信号処理装置の第1の構成例を説明するブロック図である。
【図316】図315の信号処理装置の、クラス分類適応処理を実行する画像生成部の構成例を説明するブロック図である。
【図317】図316の画像生成部に対する学習装置の構成例を説明するブロック図である。
【図318】図315の構成の信号処理装置が実行する信号の処理を説明するフローチャートである。
【図319】図318の信号の処理のクラス分類適応処理の実行処理の詳細を説明するフローチャートである。
【図320】図317の学習装置の学習処理を説明するフローチャートである。
【図321】図1の信号処理装置の実施の形態の他の例である、併用手法を利用する信号処理装置の第2の構成例を説明するブロック図である。
【図322】図319の構成の信号処理装置が実行する信号の処理を説明するフローチャートである。
【図323】図1の信号処理装置の実施の形態の他の例である、併用手法を利用する信号処理装置の第3の構成例を説明するブロック図である。
【図324】図321の構成の信号処理装置が実行する信号の処理を説明するフローチャートである。
【図325】図1の信号処理装置の実施の形態の他の例である、併用手法を利用する信号処理装置の第4の構成例を説明するブロック図である。
【図326】図323の構成の信号処理装置が実行する信号の処理を説明するフローチャートである。
【図327】図1の信号処理装置の実施の形態の他の例である、併用手法を利用する信号処理装置の第5の構成例を説明するブロック図である。
【図328】図325の構成の信号処理装置が実行する信号の処理を説明するフローチャートである。
【図329】データ定常性検出部の他の実施の形態の構成を示すブロック図である。
【図330】図329のデータ定常性検出部によるデータの定常性の検出処理を説明するフローチャートである。
【図331】光学ブロックの構成を説明する図である。
【図332】光学ブロックの構成を説明する図である。
【図333】OLPFの構成を説明する図である。
【図334】OLPFの機能を説明する図である。
【図335】OLPFの機能を説明する図である。
【図336】本発明のその他の信号処理装置の構成を示すブロック図である。
【図337】図336のOLPF除去部の構成を示すブロック図である。
【図338】クラスタップの例を説明する図である。
【図339】図336の信号処理装置による信号の処理を説明するフローチャートである。
【図340】図339のフローチャートのステップS5101の処理である、OLPF除去の処理を説明するフローチャートである。
【図341】図337のOLPF除去部の係数を学習する学習装置である。
【図342】学習方法を説明する図である。
【図343】教師画像と生徒画像を説明する図である。
【図344】図342の学習装置の教師画像生成部と生徒画像生成部の構成を示すブロック図である。
【図345】生徒画像と教師画像の生成方法を説明する図である。
【図346】OLPFのシミュレーション方法を説明する図である。
【図347】教師画像の例を示す図である。
【図348】生徒画像の例を示す図である。
【図349】学習の処理を説明するフローチャートである。
【図350】OLPFの除去処理を行った画像を示す図である。
【図351】OLPFの除去処理を行った画像と、除去していない画像との比較を説明する図である。
【図352】実世界推定部のその他の構成例を示すブロック図である。
【図353】OLPFによる影響を説明する図である。
【図354】OLPFによる影響を説明する図である。
【図355】図352の実世界推定部による実世界の推定処理を説明するフローチャートである。
【図356】抽出されるタップの例を示す図である。
【図357】図352の実世界推定部により推定された実世界の近似関数より生成された画像と、それ以外の手法で生成された画像を比較する図である。
【図358】図352の実世界推定部により推定された実世界の近似関数より生成された画像と、それ以外の手法で生成された画像を比較する図である。
【図359】信号処理装置のその他の構成を示すブロック図である。
【図360】図359の信号処理装置による信号の処理を説明すうフローチャートである。
【図361】図359の信号処理装置の係数を学習する学習装置の構成を示すブロック図である。
【図362】図361の教師画像生成部と生徒画像生成部の構成を示すブロック図である。
【図363】図361の学習装置による学習の処理を説明するフローチャートである。
【図364】各種の画像処理の関係を説明する図である。
【図365】連続関数からなる近似関数による実世界の推定を説明する図である。
【図366】不連続関数からなる近似関数を説明する図である。
【図367】連続関数と不連続関数からなる近似関数を説明する図である。
【図368】不連続関数からなる近似関数を用いた画素値の求め方を説明する図である。
【図369】実世界推定部のその他の構成を示すブロック図である。
【図370】図369の実世界推定部による実世界の推定処理を説明するフローチャートである。
【図371】抽出されるタップの例を示す図である。
【図372】X−t平面上の不連続関数からなる近似関数を説明する図である。
【図373】抽出されるタップのその他の例を示す図である。
【図374】2次元の不連続関数からなる近似関数を説明する図である。
【図375】2次元の不連続関数からなる近似関数を説明する図である。
【図376】注目画素の領域毎の体積の割合を説明する図である。
【図377】実世界推定部のその他の構成を示すブロック図である。
【図378】図377の実世界推定部による実世界の推定処理を説明するフローチャートである。
【図379】抽出されるタップのその他の例を示す図である。
【図380】2次元の不連続関数からなる近似関数を説明する図である。
【図381】2次元の不連続関数からなる近似関数のその他の例を説明する図である。
【図382】領域毎の多項式の連続関数からなる近似関数を説明する図である。
【図383】領域毎の多項式の不連続関数からなる近似関数を説明する図である。
【図384】画像生成部のその他の構成を説明するブロック図である。
【図385】図384の画像生成部による画像生成の処理を説明するフローチャートである。
【図386】4倍密度の画素の生成手法を説明する図である。
【図387】従来の手法と、不連続関数からなる近似関数を用いた場合との関係を説明する図である。
【図388】画像生成部のその他の構成を説明するブロック図である。
【図389】図388の画像生成部による画像生成の処理を説明するフローチャートである。
【図390】注目画素を説明する図である。
【図391】注目画素の画素値を演算する方法を説明する図である。
【図392】空間方向の不連続関数からなる近似関数を用いた処理結果と、その他の処理結果を説明する図である。
【図393】不連続関数からなる近似関数を用いた処理結果と、その他の処理結果を説明する図である。
【図394】センサによる撮像を説明する図である。
【図395】画素の配置を説明する図である。
【図396】検出素子の動作を説明する図である。
【図397】動いている前景に対応するオブジェクトと、静止している背景に対応するオブジェクトとを撮像して得られる画像を説明する図である。
【図398】背景領域、前景領域、混合領域、カバードバックグラウンド領域、およびアンカバードバックグラウンド領域を説明する図である。
【図399】静止している前景に対応するオブジェクトおよび静止している背景に対応するオブジェクトを撮像した画像における、隣接して1列に並んでいる画素の画素値を時間方向に展開したモデル図である。
【図400】画素値を時間方向に展開し、シャッタ時間に対応する期間を分割したモデル図である。
【図401】画素値を時間方向に展開し、シャッタ時間に対応する期間を分割したモデル図である。
【図402】画素値を時間方向に展開し、シャッタ時間に対応する期間を分割したモデル図である。
【図403】前景領域、背景領域、および混合領域の画素を抽出した例を示す図である。
【図404】画素と画素値を時間方向に展開したモデルとの対応を示す図である。
【図405】画素値を時間方向に展開し、シャッタ時間に対応する期間を分割したモデル図である。
【図406】画素値を時間方向に展開し、シャッタ時間に対応する期間を分割したモデル図である。
【図407】画素値を時間方向に展開し、シャッタ時間に対応する期間を分割したモデル図である。
【図408】画素値を時間方向に展開し、シャッタ時間に対応する期間を分割したモデル図である。
【図409】画素値を時間方向に展開し、シャッタ時間に対応する期間を分割したモデル
【図410】時空間方向の不連続関数からなる近似関数を用いた処理結果と、その他の処理結果を説明する図である。
【図411】水平方向の動きボケを含む画像を説明する図である。
【図412】図411の画像を時空間方向の不連続関数からなる近似関数を用いた処理結果と、その他の処理結果を説明する図である。
【図413】斜方向の動きボケを含む画像を説明する図である。
【図414】図413の画像を時空間方向の不連続関数からなる近似関数を用いた処理結果と、その他の処理結果を説明する図である。
【図415】斜方向に動きボケを含む画像を時空間方向の不連続関数からなる近似関数を用いた処理結果を示す図である。
【符号の説明】
4 信号処理装置, 21 CPU, 22 ROM, 23 RAM, 28 記憶部, 51 磁気ディスク, 52 光ディスク, 53 光磁気ディスク, 54 半導体メモリ, 101 データ定常性検出部, 102 実世界推定部, 103 画像生成部, 201 非定常成分抽出部, 202 頂点検出部, 203 単調増減検出部, 204 連続性検出部, 221 ブロック抽出部, 222 平面近似部, 223 繰り返し判定部, 401 アクティビティ検出部, 402 データ選択部, 403 誤差推定部, 404 定常方向導出部, 411−1乃至411−L 画素選択部, 412−1乃至412−L 推定誤差算出部, 413 最小誤差角度選択部, 421−1乃至421−L 画素選択部, 422−1乃至422−L 推定誤差算出部, 441 データ選択部, 442 誤差推定部, 443 定常方向導出部, 461−1乃至461−L 画素選択部, 462−1乃至462−L 推定誤差算出部, 463 最小誤差角度選択部, 481−1乃至481−3データ定常性検出部, 482 決定部, 491 コンポーネント処理部,492 データ定常性検出部, 502 画素取得部, 503 度数検出部, 504 回帰直線演算部, 505 角度算出部, 602 画素取得部,603 度数検出部, 604 回帰直線演算部, 605 領域算出部, 701 データ選択部, 702 データ足し込み部, 703 定常方向導出部, 711 水平・垂直判定部, 712 データ取得部, 721 差分足し込み部, 722 MaxMin取得部, 723 差分足し込み部, 731 定常方向演算部, 751 データ足し込み部, 752 MaxMin取得部, 753 足し込み部, 754 差分演算部, 755 足し込み部, 761 混合比導出部, 762 混合比算出部, 801 角度検出部, 802 実世界推定部, 803 誤差演算部, 804 比較部, 821 動き検出部,822 実世界推定部, 823 誤差演算部, 824 比較部, 901簡易式角度検出部, 902 判定部, 903 スイッチ, 904 回帰式角度検出部, 905 勾配式角度検出部, 911 データ選択部, 912 誤差推定部, 913 定常方向導出部, 921−1乃至921−L 画素選択部, 922−1乃至922−L 推定誤差算出部, 923 最小誤差角度選択部, 2101 線幅検出部, 2102 信号レベル推定部, 2121 境界検出部, 2131 分配比算出部, 2132 回帰直線算出部,2201 実世界推定部, 2202 近似関数推定部, 2203 微分処理部, 2211 参照画素抽出部, 2212 傾き推定部, 2231 実世界推定部, 2232 近似関数推定部, 2233 微分処理部, 2251 参照画素抽出部, 2252 傾き推定部, 2331 条件設定部, 2332 入力画像記憶部, 2333 入力画素値取得部, 2334 積分成分演算部, 2335 正規方程式生成部, 2336 近似関数生成部, 2341 入力画素値テーブル, 2342 積分成分テーブル, 2343 正規方程式テーブル, 2421 条件設定部, 2422 入力画像記憶部, 2423入力画素値取得部, 2424 積分成分演算部, 2425 正規方程式生成部, 2426 近似関数生成部, 2431 入力画素値テーブル, 2432積分成分テーブル, 2433 正規方程式テーブル, 2521 条件設定部, 2522 入力画像記憶部, 2523 入力画素値取得部, 2524 積分成分演算部, 2525 正規方程式生成部, 2526 近似関数生成部,2531 入力画素値テーブル, 2532 積分成分テーブル, 2533 正規方程式テーブル, 3121 条件設定部, 3122 特徴量記憶部, 3123 積分成分演算部, 3124 出力画素値演算部, 3131 特徴量テーブル, 3132 積分成分テーブル, 3201 条件設定部, 3202 特徴量記憶部, 3203 積分成分演算部, 3204 出力画素値演算部, 3211 特徴量テーブル, 3212 積分成分テーブル, 3301 条件設定部, 3302 特徴量記憶部, 3303 積分成分演算部, 3304 出力画素値演算部, 3311 特徴量テーブル, 3312 積分成分テーブル, 3201 傾き取得部, 3202 外挿補間部, 3211 傾き取得部, 3212 外挿補間部, 3501 クラス分類適応処理部, 3502 クラス分類適応処理補正部, 3503 加算部, 3504 学習装置, 3521 クラス分類適応処理用学習部, 3561 クラス分類適応処理補正用学習部, 4101 データ定常性検出部4101 実世界推定部, 4103画像生成部, 4104 画像生成部, 4105 定常領域検出部, 4111 領域検出部, 4112 セレクタ, 4161 定常領域検出部, 4171 領域検出部, 4172 実行指令生成部, 4181,4182 定常領域検出部, 4191 領域検出部, 4192 実行指令生成部, 4201 領域検出部, 4202 実行指令生成部, 4501 画像生成部, 5101 レンズ, 5102 IRカットフィルタ, 5103 OLPF, 5104 CCD, 5110 光学ブロック, 5121a,b 水晶, 5122位相板, 5131 OLPF除去部, 5141 クラスタップ検出部, 5142 特徴量抽出部, 5143 クラス分類部, 5144 係数メモリ, 5145 予測タップ抽出部, 5146 画素値演算部, 5151 生徒画像生成部, 5151a 1/16平均処理部, 5152 学習部, 5153 教師画像生成部, 5153a OLPFシミュレーション部, 5153b 1/16平均処理部, 5154 係数メモリ, 5161 画像メモリ, 5162 クラスタップ抽出部, 5163 特徴量抽出部, 5164 クラス分類部,5165 予測タップ抽出部, 5166 足し込み演算部, 5167 学習メモリ, 5168 正規方程式演算部, 5201 条件設定部, 5202 入力画像記憶部, 5203 入力画素値取得部, 5204 積分成分演算部, 5205 正規方程式生成部, 5206 近似関数生成部, 5241 クラスタップ抽出部, 5242 特徴量演算部, 5243 クラス分類部,5244 係数メモリ, 5245 予測タップ抽出部, 5246 画素値演算部, 5251 生徒画像生成部, 5251a OLPFシミュレーション処理部, 5251b 1/64平均処理部, 5252 学習部, 5253 教師画像生成部, 5253 1/16平均処理部, 5254 係数メモリ, 5261 画像メモリ, 5262 クラスタップ抽出部, 5263 特徴量演算部, 5264 クラス分類部, 5265 予測タップ抽出部, 5266 足し込み演算部, 5267 学習メモリ, 5268 正規方程式演算部, 5301 条件設定部, 5302 入力画像記憶部, 5303 入力画素値取得部, 5304 積分成分演算部, 5305 正規方程式生成部, 5306 近似関数生成部, 5321 条件設定部, 5322 入力画像記憶部, 5323 入力画素値取得部, 5324 積分成分演算部, 5325 正規方程式生成部, 5326 近似関数生成部, 5341 実世界推定情報取得部, 5342 重み計算部, 5343 画素生成部, 5351 実世界推定情報取得部, 5352 重み計算部, 5353 画素生成部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and method, a recording medium, and a program, and more particularly, to an image processing apparatus and method, a recording medium, and a program in consideration of a real world from which data is acquired.
[0002]
[Prior art]
2. Description of the Related Art A technology for detecting an event in the real world (real world) with a sensor and processing sampling data output from the sensor is widely used. For example, an image processing technique of imaging the real world with an image sensor and processing sampling data as image data is widely used.
[0003]
Further, the first signal having a second dimension having a smaller dimension than the first dimension, obtained by detecting a first signal which is a real-world signal having a first dimension by a sensor. Acquiring a second signal including a distortion with respect to the second signal, and performing a signal processing based on the second signal to generate a third signal whose distortion is reduced as compared with the second signal. (For example, see Patent Document 1).
[0004]
[Patent Document 1]
JP 2001-250119 A
[0005]
[Problems to be solved by the invention]
However, image processing that takes into account the real world from which the data was acquired has not been considered.
[0006]
The present invention has been made in view of such a situation, and it is possible to obtain a more accurate and more accurate processing result with respect to a real world event in consideration of the real world from which data is acquired. The purpose is to be.
[0007]
[Means for Solving the Problems]
The first image processing apparatus according to the present invention includes: an acquisition unit configured to acquire image data in which a real-world optical signal is projected through a low-pass filter onto a plurality of pixels each having a spatial integration effect; Estimating means for estimating an optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one dimension among the directions.
[0008]
A first image processing method according to the present invention includes: an acquiring step of acquiring image data in which a real-world optical signal is projected onto a plurality of pixels each having a spatial integration effect via an optical low-pass filter; Estimating an optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one dimensional direction among the directions.
[0009]
The program of the first recording medium of the present invention comprises: an acquiring step of acquiring image data in which a real-world optical signal is projected onto a plurality of pixels each having a spatial integration effect via an optical low-pass filter; Estimating the optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one dimension in the spatial direction. It is characterized by having.
[0010]
A first program according to the present invention includes: an acquiring step of acquiring image data in which a real-world optical signal is projected through a low-pass filter onto a plurality of pixels each having a spatial integration effect; And estimating the optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one-dimensional direction.
[0011]
In the second image processing apparatus of the present invention, a real-world optical signal is projected onto a plurality of pixels each having a spatial integration effect via an optical low-pass filter, and a part of the continuity of the real-world optical signal is lost. It is assumed that the pixel value of the target pixel corresponding to at least the one-dimensional position in the spatial direction of the image data is a pixel value obtained by integrating at least one-dimensional direction of a plurality of real-world functions corresponding to the optical low-pass filter. A real world estimating means for estimating a function corresponding to an optical signal in the real world by estimating a plurality of real world functions is provided.
[0012]
Image data continuity detecting means for detecting continuity of the image data may be further provided. The pixel value of the pixel of interest corresponding to at least the one-dimensional direction in the spatial direction is a plurality of pixel values obtained by integrating at least one-dimensional direction of a plurality of real-world functions corresponding to the optical low-pass filter. By estimating the real world function, it is possible to estimate the function corresponding to the optical signal in the real world.
[0013]
Pixel value generating means for generating a pixel value corresponding to a pixel of a desired size by integrating the real world function estimated by the real world estimating means in a desired unit in at least one dimension is further provided. be able to.
[0014]
A second image processing method according to the present invention includes: an acquiring step of acquiring image data in which a real-world optical signal is projected through a low-pass filter onto a plurality of pixels each having a spatial integration effect; Estimating an optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one dimensional direction among the directions.
[0015]
The program of the second recording medium of the present invention comprises: an acquisition step of acquiring image data in which a real-world optical signal is projected onto a plurality of pixels each having a spatial integration effect via an optical low-pass filter; Estimating the optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one dimension in the spatial direction. It is characterized by having.
[0016]
According to a second program of the present invention, there are provided an acquiring step of acquiring image data in which a real-world optical signal is projected through a low-pass filter onto a plurality of pixels each having a spatial integration effect, and a spatial direction by an optical low-pass filter. And estimating the optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one-dimensional direction.
[0017]
According to the first image processing apparatus, method, and program of the present invention, image data in which a real-world optical signal is projected through a low-pass filter onto a plurality of pixels each having a spatial integration effect is obtained, The optical signal to be incident on the optical low-pass filter is estimated in consideration of the fact that the optical signal is dispersed and integrated in at least one dimension in the spatial direction by the filter.
[0018]
According to the second image processing apparatus, method, and program of the present invention, a real-world optical signal is projected via a low-pass filter onto a plurality of pixels each having a spatial integration effect, and the continuity of the real-world optical signal is improved. The pixel value of the target pixel corresponding to at least the one-dimensional position in the spatial direction of the image data in which a part of the image data is missing is obtained by integrating at least one-dimensional direction of a plurality of real world functions corresponding to the optical low-pass filter. By estimating a plurality of real-world functions as pixel values, functions corresponding to real-world optical signals are estimated.
[0019]
The first image processing device and the second image processing device of the present invention may be independent devices, or may be blocks that perform image processing.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 illustrates the principle of the present invention. As shown in the figure, an event (phenomenon) in the
[0021]
Focusing on the
[0022]
That is, the
[0023]
Hereinafter, the distribution of events such as images, sounds, pressures, temperatures, masses, concentrations, brightness / darkness, or odors in the
[0024]
Data 3 (detection signal) output from the
[0025]
In this manner, by projecting a signal that is information indicating an event of the
[0026]
However, although a part of the information indicating the event of the
[0027]
In the present invention, information having continuity included in the
[0028]
Here, focusing on the
[0029]
Therefore, information indicating an event in the
[0030]
To give a more specific example, a linear object such as a thread, a string, or a rope has a certain characteristic in the longitudinal direction, that is, the spatial direction, that the cross-sectional shape is the same at any position in the longitudinal direction. Having. The feature in the spatial direction that the cross-sectional shape is the same at an arbitrary position in the length direction arises from the feature that the linear object is long.
[0031]
Therefore, the image of the linear object has a certain feature in the longitudinal direction, that is, the spatial direction, that the cross-sectional shape is the same at an arbitrary position in the longitudinal direction.
[0032]
In addition, it can be said that a single-color object, which is a tangible object extending in the spatial direction, has a certain characteristic in the spatial direction that it has the same color regardless of the region.
[0033]
Similarly, an image of a monochrome object, which is a tangible object extending in the spatial direction, has a certain feature in the spatial direction that it has the same color regardless of the region.
[0034]
As described above, since the event of the real world 1 (real world) has a certain characteristic in the direction of the predetermined dimension, the signal of the
[0035]
In the present specification, such a feature that is fixed in the direction of the predetermined dimension is called continuity. The continuity of the signal of the real world 1 (real world) refers to a characteristic of a signal indicating an event of the real world 1 (real world), which is constant in a direction of a predetermined dimension.
[0036]
In the real world 1 (real world), there are countless such stationarities.
[0037]
Next, paying attention to the
[0038]
However, as described above, the
[0039]
In other words, the
[0040]
In the present invention, the data continuity of the
[0041]
For example, in the present invention, information indicating a missing event of the
[0042]
In the present invention, of the dimension of a signal, which is information indicating an event in the
[0043]
Returning to FIG. 1, the
[0044]
The
[0045]
The
[0046]
An input /
[0047]
The
[0048]
Alternatively, a program may be obtained via the
[0049]
The
[0050]
FIG. 3 is a block diagram illustrating the
[0051]
Note that it does not matter whether each function of the
[0052]
In the
[0053]
The input image (image data as an example of the data 3) input to the
[0054]
The data
[0055]
The real
[0056]
The
[0057]
That is, the
[0058]
For example, based on the real world estimation information, the
[0059]
Details of the configuration of the
[0060]
Next, the principle of the present invention will be described with reference to FIGS.
[0061]
FIG. 4 is a diagram illustrating the principle of processing in the conventional
[0062]
Further, in the conventional
[0063]
As described above, in the conventional signal processing, the (real signal) of the
[0064]
On the other hand, in the signal processing of the present invention, the processing is executed in consideration of (the signal of) the
[0065]
FIG. 5 is a diagram illustrating the principle of processing in the
[0066]
It is the same as the related art in that the
[0067]
However, in the present invention, a signal which is information indicating an event of the
[0068]
By doing so, in the signal processing of the present invention, the result of the processing is not limited by the information and distortion included in the
[0069]
6 and 7 are diagrams for more specifically explaining the principle of the present invention.
[0070]
As shown in FIG. 6, for example, a signal of the
[0071]
In the signal processing of the present invention, the relationship between the image of the
[0072]
More specifically, as shown in FIG. 7, the
[0073]
In order to predict the
[0074]
That is, when the
[0075]
Here, if the number M of the
[0076]
As described above, by predicting the
[0077]
Next, the integration effect of the
[0078]
An image sensor, such as a CCD or a CMOS (Complementary Metal-Oxide Semiconductor) sensor, which is an
[0079]
The spatial and temporal integration of an image will be described with reference to FIGS.
[0080]
The image sensor captures an image of an object in the real world, and outputs image data obtained as a result of the capture in units of one frame. That is, the image sensor acquires a signal of the
[0081]
For example, the image sensor outputs image data composed of 30 frames per second. In this case, the exposure time of the image sensor can be set to 1/30 second. The exposure time is a period from when the image sensor starts to convert incident light into electric charges until the image sensor finishes converting the incident light into electric charges. Hereinafter, the exposure time is also referred to as a shutter time.
[0082]
FIG. 8 is a diagram illustrating an example of the arrangement of pixels on the image sensor. In FIG. 8, A to I indicate individual pixels. The pixels are arranged on a plane corresponding to the image displayed by the image data. One detection element corresponding to one pixel is arranged on the image sensor. When the image sensor captures an image of the
[0083]
The distribution of the light intensity of the
[0084]
As shown in FIG. 9, for example, a detection element such as a CCD converts light input to a light receiving surface (light receiving area) (detection area) into electric charges for a period corresponding to a shutter time, and converts the converted electric charges. To accumulate. Light is information (signal) in the
[0085]
The amount of charge stored in the detection element, which is a CCD, is substantially proportional to the intensity of light incident on the entire light receiving surface having a two-dimensional spatial spread and the time during which the light is incident. During a period corresponding to the shutter time, the detection element adds the charge converted from the light incident on the entire light receiving surface to the already accumulated charge. That is, the detection element integrates light incident on the entire light receiving surface having a two-dimensional spatial spread for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. It can be said that the detection element has an integration effect on space (light receiving surface) and time (shutter time).
[0086]
The electric charge accumulated in the detection element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output as
[0087]
That is, the pixel value of one pixel is represented by integration of F (x, y, t). F (x, y, t) is a function representing the distribution of light intensity on the light receiving surface of the detection element. For example, the pixel value P is represented by Expression (1).
[0088]
(Equation 1)
[0089]
In equation (1), x1Is the spatial coordinate (X coordinate) of the left boundary of the light receiving surface of the detection element. x2Is the spatial coordinate (X coordinate) of the right boundary of the light receiving surface of the detection element. In equation (1), y1Is the spatial coordinate (Y coordinate) of the upper boundary of the light receiving surface of the detection element. y2Is the spatial coordinate (Y coordinate) of the lower boundary of the light receiving surface of the detection element. Also, t1Is the time at which the conversion of the incident light into charge has started. t2Is the time at which the conversion of the incident light into charges has been completed.
[0090]
Actually, the gain of the pixel value of the image data output from the image sensor is corrected for, for example, the entire frame.
[0091]
Each pixel value of the image data is an integral value of the light incident on the light receiving surface of each detection element of the image sensor. Of the light incident on the image sensor, the
[0092]
Hereinafter, in the present specification, a waveform of a signal expressed on the basis of a predetermined dimension is also simply referred to as a waveform.
[0093]
As described above, since the image of the
[0094]
The integration effect in the spatial direction of the image captured by the image sensor having the integration effect will be further described.
[0095]
FIG. 10 is a diagram illustrating a relationship between light incident on the detection elements corresponding to the pixels D to F and pixel values. F (x) in FIG. 10 is an example of a function that represents the distribution of light intensity in the
[0096]
The pixel value of one pixel is represented by integration of F (x). For example, the pixel value P of the pixel E is represented by Expression (2).
[0097]
(Equation 2)
[0098]
In equation (2), x1Is the spatial coordinate in the spatial direction X of the left boundary of the light receiving surface of the detection element corresponding to the pixel E. x2Is the spatial coordinate in the spatial direction X of the right boundary of the light receiving surface of the detection element corresponding to the pixel E.
[0099]
Similarly, the integration effect in the time direction of the image captured by the image sensor having the integration effect will be further described.
[0100]
FIG. 11 is a diagram illustrating the relationship between the passage of time, light incident on a detection element corresponding to one pixel, and a pixel value. F (t) in FIG. 11 is a function representing the distribution of light intensity in the
[0101]
The frame # n-1 is a frame temporally before the frame #n, and the frame # n + 1 is a frame temporally after the frame #n. That is, frame # n-1, frame #n, and frame # n + 1 are displayed in the order of frame # n-1, frame #n, and frame # n + 1.
[0102]
Note that, in the example shown in FIG.sAnd the frame interval are the same.
[0103]
The pixel value of one pixel is represented by integration of F (t). For example, the pixel value P of the pixel in frame #n is represented by Expression (3).
[0104]
(Equation 3)
[0105]
In equation (3), t1Is the time at which the conversion of the incident light into charge has started. t2Is the time at which the conversion of the incident light into charges has been completed.
[0106]
Hereinafter, the integration effect in the spatial direction by the
[0107]
Next, an example of the continuity of the data included in the
[0108]
FIG. 12 is a diagram illustrating an image of a linear object (for example, a thin line) in the
[0109]
The image of the linear object in the
[0110]
FIG. 13 is a diagram illustrating an example of pixel values of image data obtained by actual imaging corresponding to the image illustrated in FIG.
[0111]
FIG. 14 is a schematic diagram of the image data shown in FIG.
[0112]
The schematic diagram shown in FIG. 14 shows a linear object having a diameter shorter than the length L of the light receiving surface of each pixel, which extends in a direction deviated from the arrangement of pixels (vertical or horizontal arrangement of pixels) of the image sensor. FIG. 3 is a schematic diagram of image data obtained by capturing an image with an image sensor. The image incident on the image sensor when the image data shown in FIG. 14 is acquired is the image of the linear object in the
[0113]
In FIG. 14, the upper position in the drawing indicates a pixel value, the upper right position in the drawing indicates a position in the spatial direction X that is one direction in the spatial direction of the image, and the right position in the drawing is , The position in the spatial direction Y which is another direction in the spatial direction of the image. The direction indicating the pixel value in FIG. 14 corresponds to the level direction in FIG. 12, and the spatial direction X and the spatial direction Y in FIG. 14 are the same as the directions in FIG.
[0114]
When an image of a linear object having a diameter shorter than the length L of the light receiving surface of each pixel is captured by the image sensor, the linear object is schematically illustrated in image data obtained as a result of the imaging, for example, It is represented by a plurality of circular arc shapes (kamaboko type) having a predetermined length, which are arranged obliquely. Each arc shape is almost the same shape. One arc shape is formed vertically on one row of pixels or horizontally on one row of pixels. For example, one arc shape in FIG. 14 is formed on one column of pixels vertically.
[0115]
As described above, for example, in image data captured and acquired by an image sensor, a cross section in the spatial direction Y at an arbitrary position in the length direction, which has an image of a linear object in the
[0116]
FIG. 15 is a diagram showing an example of the
[0117]
An image of the
[0118]
FIG. 16 is a diagram illustrating an example of pixel values of image data obtained by actual imaging corresponding to the image illustrated in FIG. As shown in FIG. 16, the image data is composed of pixel values in units of pixels, and thus has a stepped shape.
[0119]
FIG. 17 is a schematic diagram of the image data shown in FIG.
[0120]
The schematic diagram illustrated in FIG. 17 is a color different from the background, in which the edge extends in a direction displaced from the arrangement of the pixels (vertical or horizontal arrangement of the pixels) of the image sensor. FIG. 2 is a schematic diagram of image data obtained by imaging an image of the
[0121]
In FIG. 17, the upper position in the figure indicates the pixel value, the upper right position in the figure indicates the position in the spatial direction X which is one direction in the spatial direction of the image, and the right position in the figure is , The position in the spatial direction Y which is another direction in the spatial direction of the image. The direction indicating the pixel value in FIG. 17 corresponds to the level direction in FIG. 15, and the spatial direction X and the spatial direction Y in FIG. 17 are the same as the directions in FIG.
[0122]
When an image of the
[0123]
Thus, for example, in the image data captured and acquired by the image sensor, the image of the
[0124]
The data
[0125]
In addition, the data
[0126]
Further, for example, the data
[0127]
Further, for example, the data
[0128]
Hereinafter, the portion of the
[0129]
Next, the principle of the present invention will be described more specifically.
[0130]
As shown in FIG. 18, in the conventional signal processing, for example, desired high-
[0131]
On the other hand, in the signal processing according to the present invention, the
[0132]
In order to generate the high-
[0133]
The
[0134]
When this is applied to the high-
[0135]
In other words, as shown in FIG. 20, if the signal of the
[0136]
For example, when the change of the signal of the
[0137]
That is, for each detection element of the virtual high-resolution sensor, the high-
[0138]
In the present invention, for example, the
[0139]
Next, in order to estimate the
[0140]
Here, the term “mixing” means that signals of two objects in the
[0141]
Spatial mixing refers to mixing of signals for two objects in the spatial direction due to the spatial integration effect of the
[0142]
The
[0143]
Similarly, it is not possible to predict all the signals of the
[0144]
Therefore, as shown in FIG. 21, in the present invention, attention is paid to a part of the signal of the
[0145]
To enable the
[0146]
In other words, the part of the signal of the
[0147]
The data
[0148]
For example, as shown in FIG. 23, in the image of the
[0149]
When an image of the
[0150]
The
[0151]
When formulating an expression using N variables indicating the relationship between the
[0152]
In this case, in the
[0153]
In FIG. 24, A indicates the position of interest of the edge, and A ′ indicates (the position of) the pixel with respect to the position of interest (A) of the edge in the image of the
[0154]
Here, the mixed region refers to a data region in which signals of two objects in the
[0155]
FIG. 25 is a diagram illustrating signals for two objects in the
[0156]
The left side in FIG. 25 shows a signal of the
[0157]
L in FIG. 25 indicates the signal level of the
[0158]
Here, the mixture ratio α indicates a ratio of (area of) a signal to two objects that is incident on a detection region having a predetermined spread in the spatial direction X and the spatial direction Y of one detection element of the
[0159]
In this case, the relationship between the level L, the level R, and the pixel value P can be expressed by Expression (4).
[0160]
α × L + (1−α) × R = P (4)
[0161]
Note that the level R may be the pixel value of the pixel of the
[0162]
The mixing ratio α and the mixing region can be considered in the time direction as in the spatial direction. For example, when the object in the
[0163]
Mixing of signals for two objects in the time direction due to the time integration effect of the
[0164]
The data
[0165]
Then, the real
[0166]
Further, a specific estimation of the
[0167]
Of the real-world signals represented by the function F (x, y, z, t), the real-world signal represented by the function F (x, y, t) in the cross section in the spatial direction Z (the position of the sensor 2) Consider that a signal is approximated by an approximate function f (x, y, t) determined by a position x in the spatial direction X, a position y in the spatial direction Y, and a time t.
[0168]
Here, the detection area of the
[0169]
It is assumed that the value P (x, y, t) of the
[0170]
Here, when the projection by the
[0171]
There are the following problems in obtaining the projection function S (x, y, t).
[0172]
First, in general, the function F (x, y, z, t) representing the
[0173]
Second, even if real-world signals can be described as functions, it is generally not possible to define a projection function S (x, y, t) via the projection of the
[0174]
For the first problem, a function f that is a function (for example, a function of a finite order) that can describe a function f (x, y, t) that approximates the signal of the real world 1i(X, y, t) and variable wiConsider expressing the product sum of
[0175]
For the second problem, by formulating the projection by the
[0176]
That is, a function f (x, y, t) approximating the signal of the
[0177]
(Equation 4)
[0178]
For example, as shown in Expression (6), by formulating the projection of the
[0179]
(Equation 5)
[0180]
(Equation 6)
In Expression (7), j is an index of data.
[0181]
N variables w in equation (7)iIf there are M data groups (j = 1 to M) having the same (i = 1 to N), Expression (8) is satisfied, so that the
[0182]
N ≦ M (8)
N is the number of variables expressing the
[0183]
By expressing a function f (x, y, t) approximating the signal of the
[0184]
Therefore, the function fiVariable wiN can be defined, and the variable wiVariable w in the relationship between the number N of data and the number M of dataiCan be requested.
[0185]
That is, by using the following three, the
[0186]
First, N variables are determined, that is, equation (5) is determined. This is made possible by describing the
[0187]
Second, for example, the projection by the
[0188]
Third,
[0189]
As described above, the relationship between the
[0190]
More specifically, when N = M, since the number N of variables is equal to the number M of equations, the simultaneous equations are established to obtain the variable w.iCan be requested.
[0191]
When N <M, various solutions can be applied. For example, by the least square method, the variable wiCan be requested.
[0192]
Here, the solution by the least squares method will be described in detail.
[0193]
First, Expression (9) for predicting
[0194]
(Equation 7)
[0195]
In equation (9), P ′j(Xj, Yj,tj) Is a predicted value.
[0196]
The sum of squares E of the difference between the predicted value P ′ and the actually measured value P is represented by Expression (10).
[0197]
(Equation 8)
[0198]
The variable w is set so that the sum of squared differences E is minimized.iIs required. Therefore, each variable wkIs set to 0. That is, equation (11) holds.
[0199]
(Equation 9)
[0200]
Equation (12) is derived from equation (11).
[0201]
(Equation 10)
[0202]
When Equation (12) holds for K = 1 to N, a solution by the least squares method is obtained. The normal equation at this time is represented by Expression (13).
[0203]
(Equation 11)
However, in equation (13), Si(Xj, Yj, Tj) Is Si(J).
[0204]
(Equation 12)
[0205]
(Equation 13)
[0206]
[Equation 14]
[0207]
From Expressions (14) to (16), Expression (13) is expressed as SMATWMAT= PMATIt can be expressed as.
[0208]
In equation (13), SiRepresents the projection of the
[0209]
Therefore,
[0210]
[0211]
Note that SMATIf is not regular, SMATUsing the transpose ofMATCan be requested.
[0212]
The real-
[0213]
Here, an even more specific example will be described. For example, a cross-sectional shape of a signal in the
[0214]
Equations (18) and (19) are obtained on the assumption that the cross-sectional shape of the signal in the
[0215]
[Equation 15]
[0216]
(Equation 16)
Where vxAnd vyIs constant.
[0217]
The cross-sectional shape of the signal in the
[0218]
f (x ', y') = f (x + vxt, y + vyt) (20)
[0219]
If the projection of the signal of the
[0220]
[Equation 17]
[0221]
In the equation (21), S (x, y, t) represents the position x in the spatial direction X.sFrom position xeUp to the position y in the spatial direction YsFrom position yeUp to time t in the time direction tsTo time te, Ie, the integrated value of the region represented by the rectangular parallelepiped in space and time.
[0222]
By solving Expression (13) using a desired function f (x ′, y ′) that can determine Expression (21), the signal of the
[0223]
In the following, as an example of the function f (x ', y'), the function shown in Expression (22) is used.
[0224]
[0225]
That is, it is assumed that the signal of the
[0226]
By substituting equation (22) into equation (21), equation (23) is obtained.
[0227]
(Equation 18)
However,
Volume = (xe-Xs) (Ye-Ys)(Te-Ts)
S0(X, y, t) = Volume / 2 × (xe+ Xs+ Vx(Te+ Ts))
S1(X, y, t) = Volume / 2 × (ye+ Ys+ Vy(Te+ Ts))
S2(X, y, t) = 1
It is.
[0228]
FIG. 27 is a diagram illustrating an example of M pieces of
[0229]
In the example shown in FIG. 27, the pixel value of the pixel corresponding to the position of interest at time t, which is n, is PThirteen(X, y, t), and the direction in which pixel values of pixels having data continuity are arranged (for example, the direction in which the same claw shape detected by the data
[0230]
Here, the area where the pixel value as the
[0231]
27 pixel values P0(X, y, t) through P26By generating Expression (13) from (x, y, t) and Expression (23) and obtaining W, the
[0232]
As described above, the real
[0233]
Note that the function fiAs (x, y, t), a Gaussian function, a sigmoid function, or the like can be used.
[0234]
An example of a process of generating higher-resolution high-
[0235]
As shown in FIG. 30, the
[0236]
On the other hand, as shown in FIG. 31, the high-
[0237]
When the high-
[0238]
Further, as shown in FIG. 32, the high-
[0239]
When the high-
[0240]
As shown in FIG. 33, the high-
[0241]
Further, as shown in FIG. 34, the high-
[0242]
In this case, the region and time in which the estimated signal of the
[0243]
As described above, the
[0244]
As described above, by estimating the signal of the
[0245]
35 to 39, an example of an input image and an example of a processing result of the
[0246]
FIG. 35 is a diagram showing the original image of the input image. FIG. 36 is a diagram illustrating an example of an input image. The input image shown in FIG. 36 is an image in which the average value of the pixel values of the pixels belonging to the block of 2 × 2 pixels of the image shown in FIG. 35 is generated as the pixel value of one pixel. That is, the input image is an image obtained by applying spatial integration that imitates the integration characteristics of the sensor to the image shown in FIG.
[0247]
The original image shown in FIG. 35 includes an image of a thin line inclined approximately 5 degrees clockwise from the vertical direction. Similarly, the input image shown in FIG. 36 includes a thin line image inclined approximately 5 degrees clockwise from the vertical direction.
[0248]
FIG. 37 is a diagram showing an image obtained by applying the conventional classification adaptive processing to the input image shown in FIG. Here, the class classification adaptation process includes a class classification process and an adaptation process. The class classification process classifies the data into classes based on their properties, and performs an adaptation process for each class. In the adaptive processing, for example, an image of low image quality or standard image quality is converted into a high image quality image by mapping (mapping) using a predetermined tap coefficient.
[0249]
In the image shown in FIG. 37, it can be seen that the thin line image is different from the original image in FIG.
[0250]
FIG. 38 is a diagram illustrating a result of detecting a thin line region from the input image illustrated in the example of FIG. 36 by the data
[0251]
FIG. 39 is a diagram illustrating an example of an output image output from the
[0252]
FIG. 40 is a flowchart illustrating signal processing by the
[0253]
In step S101, the data
[0254]
The data
[0255]
For example, the data
[0256]
The details of the processing for detecting the stationarity in step S101 will be described later.
[0257]
Note that the data continuity information can be used as a feature amount indicating the feature of the
[0258]
In step S102, the real
[0259]
For example, the real
[0260]
Details of the process of estimating the real world in step S102 will be described later.
[0261]
Note that the real world estimation information can be used as a feature amount indicating the feature of the
[0262]
In step S103, the
[0263]
For example, in the process of step S103, the
[0264]
As described above, the
[0265]
As described above, when processing is performed by estimating a signal in the real world, an accurate and high-accuracy processing result can be obtained.
[0266]
A first signal, which is a real-world signal having the first dimension, is projected, and a second dimension of the second dimension is smaller than the first dimension in which a part of the continuity of the real-world signal is missing. By detecting the stationarity of data corresponding to the stationarity of the missing real-world signal of the signal and estimating the stationarity of the missing real-world signal based on the stationarity of the detected data, Is estimated, a more accurate and more accurate processing result can be obtained for a real-world event.
[0267]
Next, details of the configuration of the data
[0268]
FIG. 41 is a block diagram illustrating a configuration of the data
[0269]
The data
[0270]
More specifically, the data
[0271]
The data
[0272]
The non-stationary
[0273]
For example, as shown in FIG. 42, when an image of the
[0274]
As described above, the pixel values of a plurality of pixels in the image data portion having data continuity are discontinuous with respect to the non-stationary component.
[0275]
The non-stationary
[0276]
The details of the process of extracting the unsteady component in the unsteady
[0277]
The
[0278]
Since the background can be removed from the input image, the
[0279]
Note that the non-stationary
[0280]
In the example of the processing described below, image data obtained by removing non-stationary components from an input image, that is, image data consisting only of pixels including a stationary component, is targeted.
[0281]
Here, image data on which a fine line image is projected, which is to be detected by the
[0282]
The image sensor on which the thin line image shown in FIG. 42 is projected in the spatial direction Y (the change in pixel value with respect to the change in the position in the spatial direction) has no optical LPF. From the spatial integration effect of, it can be considered that a trapezoid shown in FIG. 44 or a triangle shown in FIG. 45 is obtained. However, a normal image sensor includes an optical LPF, and the image sensor acquires an image that has passed through the optical LPF and projects the acquired image on the
[0283]
The
[0284]
Further, the
[0285]
First, a description will be given of a process of detecting a region where pixels of which a thin line image is projected and in which the same arc shape is arranged at regular intervals in the vertical direction of the screen.
[0286]
The
[0287]
One screen includes a frame or a field. The same applies to the following description.
[0288]
For example, the
[0289]
The
[0290]
The monotone increase /
[0291]
More specifically, the monotonous increase /
[0292]
In addition, the monotonous increase /
[0293]
Hereinafter, the process for the region including the pixel having the monotonically increasing pixel value is the same as the process for the region including the pixel having the monotonically decreasing pixel value, and the description thereof will be omitted. In the process of detecting a region in which a thin line image is projected and in which the same arc shape is arranged at a constant interval in the horizontal direction of the screen, a region including a pixel having a monotonically increasing pixel value Is also the same as the processing for an area composed of pixels having monotonically decreasing pixel values, and a description thereof will be omitted.
[0294]
For example, the monotonous increase /
[0295]
Further, the monotonous increase /
[0296]
For example, the monotonous increase /
[0297]
As described above, the monotonous increase /
[0298]
FIG. 47 is a diagram illustrating a process of detecting a vertex and detecting a monotonously increasing / decreasing region, which detects a region of a pixel on which a thin line image is projected, from a pixel value with respect to a position in the spatial direction Y.
[0299]
47 to 49, P indicates a vertex. In the description of the data
[0300]
The
[0301]
The region including the vertex P and the pixels on both sides in the spatial direction Y of the vertex P is a monotonically decreasing region in which the pixel values of the pixels on both sides in the spatial direction Y monotonously decrease with respect to the pixel value of the vertex P. In FIG. 47, the arrow indicated by A and the arrow indicated by B indicate monotonically decreasing regions existing on both sides of the vertex P.
[0302]
The monotone increase /
[0303]
In FIG. 47, the boundary of the thin line region that is the boundary between the pixel whose sign of the difference changes and the pixel on the near side (vertex P side) is indicated by C.
[0304]
Further, the monotone increase /
[0305]
In FIG. 47, the boundary of the thin line region that is the boundary between the pixel whose sign of the difference changes and the pixel on the near side (vertex P side) is indicated by D.
[0306]
As shown in FIG. 47, a thin line region F composed of pixels onto which a thin line image is projected is a region sandwiched between a thin line region boundary C and a thin line region boundary D.
[0307]
The monotone increase /
[0308]
Further, from the thin line region F thus detected, the monotonous increase /
[0309]
In other words, the pixel value of the vertex P is equal to or less than the threshold value, the pixel value of the pixel on the right side of the vertex P exceeds the threshold value, or the pixel value of the pixel on the left side of the vertex P exceeds the threshold value. F is determined not to include the component of the thin line image, and is removed from the candidate of the region including the pixel including the component of the thin line image.
[0310]
That is, as shown in FIG. 48, the monotonous increase /
[0311]
FIG. 49 is a diagram illustrating pixel values of pixels arranged in the spatial direction X indicated by a dotted line AA ′ in FIG. The pixel value of the vertex P is equal to the threshold ThS, The pixel value of a pixel adjacent to the vertex P in the spatial direction X is the threshold value ThSThe following thin line region F to which the vertex P belongs includes a thin line component.
[0312]
Note that the monotonous increase /
[0313]
The monotone increase /
[0314]
In the case of detecting a region which is arranged in a line in the vertical direction of the screen and which is formed by projecting a thin line image, the pixels belonging to the region indicated by the monotonous increase / decrease region information are arranged in the vertical direction, Image includes pixels projected. That is, the area indicated by the monotone increase / decrease area information is pixels arranged in a line in the vertical direction of the screen and includes an area formed by projecting a thin line image.
[0315]
As described above, the
[0316]
The
[0317]
In the pixels on which the fine lines are projected, the arc shapes are arranged at regular intervals so as to be adjacent to each other. Therefore, the detected continuous region includes the pixels on which the fine lines are projected.
[0318]
Since the detected continuous area includes pixels on which fine lines are projected and pixels arranged at regular intervals so that arc shapes are adjacent to each other, the detected continuous area is regarded as a steady area, and the continuity detection unit is used. 204 outputs data continuity information indicating the detected continuous area.
[0319]
That is, the
[0320]
FIG. 50 is a diagram illustrating a process of detecting the continuity of the monotone increase / decrease region.
[0321]
As shown in FIG. 50, the
[0322]
In this manner, the
[0323]
As described above, the
[0324]
Note that the order of processing does not limit the present invention, and it goes without saying that the processing may be executed in parallel.
[0325]
That is, the
[0326]
For example, the
[0327]
The
[0328]
The monotonous increase /
[0329]
More specifically, the monotonous increase /
[0330]
For example, the monotonous increase /
[0331]
Further, the monotonous increase /
[0332]
For example, the monotonous increase /
[0333]
As described above, the monotonous increase / decrease detecting
[0334]
The monotone increase /
[0335]
Further, from among the fine line regions detected in this way, the monotonous increase /
[0336]
In other words, the thin line region to which the vertex whose pixel value is less than or equal to the threshold value, the pixel value of the pixel above the vertex exceeds the threshold value, or the pixel value of the pixel below the vertex which exceeds the threshold value belongs to the thin line region. Is determined not to include the component of the image of the thin line, and is removed from the candidate of the region including the pixel including the component of the image of the thin line.
[0337]
Note that the monotonous increase /
[0338]
The monotonous increase /
[0339]
When detecting an area that is a pixel arranged in a line in the horizontal direction of the screen and formed by projecting a thin line image, pixels belonging to the area indicated by the monotonous increase / decrease area information are arranged in the horizontal direction, Image includes pixels projected. In other words, the region indicated by the monotone increase / decrease region information is a line of pixels arranged in the horizontal direction of the screen, and includes a region formed by projecting a thin line image.
[0340]
The
[0341]
In the pixels on which the fine lines are projected, the arc shapes are arranged at regular intervals so as to be adjacent to each other. Therefore, the detected continuous region includes the pixels on which the fine lines are projected.
[0342]
Since the detected continuous area includes pixels on which fine lines are projected and pixels arranged at regular intervals so that arc shapes are adjacent to each other, the detected continuous area is regarded as a steady area, and the continuity detection unit is used. 204 outputs data continuity information indicating the detected continuous area.
[0343]
That is, the
[0344]
FIG. 51 is a diagram illustrating an example of an image in which a steady component is extracted by approximation on a plane. FIG. 52 is a diagram illustrating a result of detecting a vertex from the image illustrated in FIG. 51 and detecting a monotonically decreasing region. In FIG. 52, the part shown in white is the detected area.
[0345]
FIG. 53 is a diagram illustrating a region where continuity is detected by detecting continuity of adjacent regions from the image illustrated in FIG. 52. In FIG. 53, a portion shown in white is a region where continuity is detected. It can be seen from the continuity detection that the region is further specified.
[0346]
FIG. 54 is a diagram showing the pixel values of the region shown in FIG. 53, that is, the pixel values of the region where continuity is detected.
[0347]
As described above, the data
[0348]
FIG. 55 is a diagram illustrating an example of another process of detecting an area having continuity, on which a thin line image is projected, in the
[0349]
As shown in FIG. 55, the
[0350]
When the non-stationary components included in the pixel values P0, P1, and P2 are the same, only the value corresponding to the thin line component is set as the difference d0 and the difference d1.
[0351]
Therefore, the
[0352]
The
[0353]
FIG. 56 is a flowchart for explaining the processing of the continuity detection.
[0354]
In step S201, the non-stationary
[0355]
In step S202, the
[0356]
That is, when executing the processing based on the vertical direction of the screen, the
[0357]
The
[0358]
In step S203, the monotonous increase /
[0359]
When executing the process based on the vertical direction of the screen, the monotonous increase /
[0360]
The monotonous increase /
[0361]
In addition, when executing the processing based on the horizontal direction of the screen, the monotonous increase /
[0362]
The monotonous increase /
[0363]
In step S204, the monotonous increase /
[0364]
If it is determined in step S204 that the processing of all the pixels has not been completed, that is, it is determined that there is still a pixel that has not been subjected to the processing of the detection of the vertex and the detection of the monotonous increase / decrease area, the process returns to step S202, and the processing returns to step S202. A pixel to be processed is selected from the pixels not subjected to the detection and the detection of the monotonous increase / decrease area, and the processing of the vertex detection and the detection of the monotonous increase / decrease area is repeated.
[0365]
If it is determined in step S204 that the processing of all the pixels has been completed, that is, it is determined that the vertices and the monotone increasing / decreasing area have been detected for all the pixels, the process proceeds to step S205, and the
[0366]
The
[0367]
In step S206, the continuity direction detection unit 205 determines whether the processing for all pixels has been completed. That is, the continuity direction detection unit 205 determines whether or not the continuity of the area has been detected for all pixels of a predetermined frame of the input image.
[0368]
If it is determined in step S206 that the processing of all the pixels has not been completed, that is, it is determined that there is still a pixel that has not been subjected to the processing for detecting the continuity of the region, the process returns to step S205 and the continuity of the region is determined. The pixel to be processed is selected from the pixels not to be subjected to the detection processing, and the processing for detecting the continuity of the area is repeated.
[0369]
If it is determined in step S206 that the processing of all pixels has been completed, that is, it is determined that the continuity of the area has been detected for all the pixels, the processing ends.
[0370]
Thus, the continuity contained in the
[0371]
The data
[0372]
For example, as illustrated in FIG. 57, the
[0373]
The frame # n-1 is a frame temporally before the frame #n, and the frame # n + 1 is a frame temporally after the frame #n. That is, frame # n-1, frame #n, and frame # n + 1 are displayed in the order of frame # n-1, frame #n, and frame # n + 1.
[0374]
More specifically, in FIG. 57, G is an area having continuity of detected data in frame #n, an area having continuity of detected data in frame # n-1, and frame # n-1. At n + 1, a motion vector obtained by connecting one end of each of the regions having the stationarity of the detected data is shown, and G ′ represents the other end of each of the regions having the stationarity of the detected data. This shows a motion vector obtained by linking. The motion vector G and the motion vector G 'are an example of the continuity of data in the time direction.
[0375]
Further, the data
[0376]
FIG. 58 is a block diagram showing a configuration of a non-stationary
[0377]
The non-stationary
[0378]
The input image is supplied to the
[0379]
The
[0380]
The
[0381]
z = ax + by + c (24)
[0382]
In Expression (24), x indicates the position of the pixel on the screen in one direction (spatial direction X), and y indicates the position of the pixel on the screen in one other direction (spatial direction Y). z indicates an approximate value indicated by a plane. a shows the inclination of the plane in the spatial direction X, and b shows the inclination of the plane in the spatial direction Y. In Expression (24), c indicates a plane offset (intercept).
[0383]
For example, the
[0384]
For example, the
[0385]
Although the
[0386]
The
[0387]
[Equation 19]
[0388]
In Expression (25), z hat (a character in which z is indicated by ^ is referred to as z hat. Hereinafter, similarly described in this specification) is an approximation indicated by a plane approximating the pixel value of a block. A represents the inclination in the spatial direction X of the plane approximating the pixel value of the block, and b represents the inclination in the spatial direction Y of the plane approximating the pixel value of the block. In Equation (25), c hat indicates an offset (intercept) of a plane approximating the pixel value of the block.
[0389]
The
[0390]
Further, the
[0391]
Since the pixels having the stationarity are rejected, the plane approximates the non-stationary component by approximating the pixels excluding the rejected pixels with a plane.
[0392]
The
[0393]
For a block of 5 × 5 pixels, the standard error esIs calculated by, for example, Expression (26).
[0394]
(Equation 20)
Here, n is the number of pixels.
[0395]
The
[0396]
Here, when a block shifted by one pixel in the raster scan direction is approximated by a plane, as shown in FIG. 59, a pixel having continuity, that is, a pixel including a thin line component, indicated by a black circle in the figure, is a plurality of times. Will be rejected.
[0397]
When the approximation by the plane is finished, the
[0398]
Note that the
[0399]
With reference to FIG. 60 to FIG. 67, an example of the result of the unsteady component extraction processing will be described.
[0400]
FIG. 60 is a diagram illustrating an example of an input image in which an average value of pixel values of 2 × 2 pixels of an original image is generated as a pixel value from an image including a thin line.
[0401]
FIG. 61 is a diagram showing an image in which a standard error obtained as a result of approximating the image shown in FIG. 60 by a plane without rejection is used as a pixel value. In the example shown in FIG. 61, a block composed of 5 × 5 pixels for one pixel of interest is approximated by a plane. In FIG. 61, a white pixel is a pixel having a larger pixel value, that is, a pixel having a larger standard error, and a black pixel is a pixel having a smaller pixel value, that is, a pixel having a smaller standard error.
[0402]
From FIG. 61, it can be confirmed that when a standard error obtained as a result of approximation on a plane without rejection is used as a pixel value, a large and large value is obtained around an unsteady part.
[0403]
In the examples shown in FIGS. 62 to 67, a block composed of 7 × 7 pixels for one pixel of interest is approximated by a plane. When a block composed of 7 × 7 pixels is approximated by a plane, one pixel is repeatedly included in 49 blocks. Therefore, pixels including a stationary component are rejected at most 49 times. .
[0404]
FIG. 62 is an image in which, when the image shown in FIG. 60 is rejected and approximated by a plane, the standard error obtained is a pixel value.
[0405]
In FIG. 62, a white pixel is a pixel having a larger pixel value, that is, a pixel having a larger standard error, and a black pixel is a pixel having a smaller pixel value, that is, a pixel having a smaller standard error. It can be seen that the standard error is smaller as a whole when rejected than when not rejected.
[0406]
FIG. 63 is a diagram showing an image in which, when the image shown in FIG. 60 is rejected and approximated by a plane, the number of rejections is set as a pixel value. In FIG. 63, a white pixel is a pixel having a larger pixel value, that is, a pixel having a larger number of rejections, and a black pixel is a pixel having a smaller pixel value, that is, a pixel having a smaller number of rejections.
[0407]
From FIG. 63, it can be seen that the pixels on which the fine line image is projected are rejected more. It is also possible to generate an image that masks a non-stationary part of the input image using an image in which the number of rejections is a pixel value.
[0408]
FIG. 64 is a diagram illustrating an image in which the inclination in the spatial direction X of the plane approximating the pixel value of the block is set as the pixel value. FIG. 65 is a diagram illustrating an image in which the inclination in the spatial direction Y of the plane approximating the pixel value of the block is set as the pixel value.
[0409]
FIG. 66 is a diagram illustrating an image including approximate values indicated by a plane approximating the pixel values of the block. It can be seen from the image shown in FIG. 66 that the thin line has disappeared.
[0410]
FIG. 67 shows an image shown in FIG. 60 in which an average value of a block of 2 × 2 pixels of the original image is generated as a pixel value of a pixel, and an image shown in FIG. FIG. 6 is a diagram showing an image composed of a difference from the above. Since the non-stationary component is removed from the pixel values of the image in FIG. 67, the pixel values include only the values on which the fine line images are projected. As can be seen from FIG. 67, it can be confirmed that in the image composed of the difference between the original pixel value and the approximate value indicated by the approximate plane, the steady component of the original image has been successfully extracted.
[0411]
The number of rejections, the inclination in the spatial direction X of the plane approximating the pixel value of the pixel of the block, the inclination in the spatial direction Y of the plane approximating the pixel value of the pixel of the block, and the plane approximating the pixel value of the pixel of the block The indicated approximate value and error ei can also be used as a feature amount of the input image.
[0412]
FIG. 68 is a flowchart corresponding to step S201 and illustrating a process of extracting a non-stationary component by the non-stationary
[0413]
In step S221, the
[0414]
In step S222, the
[0415]
In step S224, the
[0416]
In step S224, the
[0417]
In step S225, the
[0418]
In step S225, when a block shifted by one pixel in the raster scan direction is extracted by the process of step S221, as shown in FIG. 59, pixels including a thin line component (shown by black circles in the figure) are removed a plurality of times. Will be rejected.
[0419]
If it is determined in step S224 that the standard error is not equal to or larger than the threshold, the block is approximated by a plane, and the process proceeds to step S226.
[0420]
In step S224, the
[0421]
In step S226, the
[0422]
In step S227, the
[0423]
If it is determined in step S227 that the processing has been completed for all pixels of one screen of the input image, the processing ends.
[0424]
As described above, the non-stationary
[0425]
The standard error when rejected, the standard error when not rejected, the number of rejected pixels, the inclination of the plane in the spatial direction X (a hat in equation (24)), which are calculated in the approximation process using the plane, The inclination of the plane in the spatial direction Y (b hat in equation (24)), the level when replaced by the plane (c hat in equation (24)), and the difference between the pixel value of the input image and the approximate value indicated by the plane Can be used as a feature value.
[0426]
FIG. 69 is a flowchart illustrating a process of extracting a stationary component by the non-stationary
[0427]
In step S246, the
[0428]
Note that the
[0429]
The process in step S247 is the same as the process in step S227, and a description thereof will not be repeated.
[0430]
Since the plane approximates the non-stationary component, the non-stationary
[0431]
FIG. 70 is a flowchart for explaining another process of extracting a steady component by the unsteady
[0432]
In step S266, the
[0433]
If it is determined in step S264 that the standard error is not equal to or larger than the threshold, the block is approximated by a plane, and the process proceeds to step S267, and the
[0434]
If it is determined in step S267 that the process has been completed for all pixels of one screen of the input image, the process proceeds to step S268, and the
[0435]
If it is determined in step S268 that the number of rejections for the selected pixel is equal to or greater than the threshold value, the selected pixel includes a stationary component, and the process proceeds to step S269, where the
[0436]
If it is determined in step S268 that the number of rejections for the selected pixel is not greater than or equal to the threshold, the selected pixel does not include a stationary component, and thus the process of step S269 is skipped, and the procedure proceeds to step S270. Proceed to. In other words, no pixel value is output for a pixel for which it is determined that the number of rejections is not greater than or equal to the threshold.
[0437]
Note that the
[0438]
In step S270, the
[0439]
If it is determined in step S270 that the processing has been completed for all the pixels of one screen of the input image, the processing ends.
[0440]
As described above, the non-stationary
[0441]
FIG. 71 is a flowchart for explaining still another process of extracting a steady component by the unsteady
[0442]
In step S289, the
[0443]
The process in step S290 is the same as the process in step S270, and a description thereof will not be repeated.
[0444]
As described above, the non-stationary
[0445]
As described above, the real-world optical signal is projected, and a part of the continuity of the real-world optical signal is lost. The optical signal is estimated by detecting the stationarity of the data from the discontinuity that has been detected, and estimating the stationarity of the optical signal in the real world based on the stationarity of the detected data. When the image data is converted into the second image data, it is possible to obtain a more accurate and more accurate processing result with respect to a real world event.
[0446]
FIG. 72 is a block diagram showing another configuration of the data
[0447]
The data
[0448]
The data continuity angle refers to an angle formed between the reference axis and a direction of a predetermined dimension, which
[0449]
The reference axis may be, for example, an axis indicating the spatial direction X (horizontal direction of the screen) or an axis indicating the spatial direction Y (vertical direction of the screen).
[0450]
The input image is supplied to the
[0451]
The
[0452]
For example, the
[0453]
The
[0454]
When the change in the pixel value in the horizontal direction is larger than the change in the pixel value in the vertical direction, for example, as shown in FIG. 73, one row of pixels in the vertical direction has an arc shape (kamaboko shape) or a claw shape. Is formed, and the arc shape or the claw shape is repeatedly formed in a direction closer to the vertical. That is, when the change in the pixel value in the horizontal direction is large compared to the change in the pixel value in the vertical direction, assuming that the reference axis is the axis indicating the spatial direction X, the steady state of the data in the input image with respect to the reference axis is assumed. The sex angle is any value between 45 degrees and 90 degrees.
[0455]
If the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction, for example, an arc shape or a nail shape is formed in one row of pixels in the horizontal direction, and the arc shape or the nail shape is in the horizontal direction. Are repeatedly formed in a direction closer to That is, when the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction, if the reference axis is the axis indicating the spatial direction X, the steady state of the data with respect to the reference axis in the input image is assumed. The sex angle is any value between 0 and 45 degrees.
[0456]
For example, the
[0457]
hdiff= Σ (Pi + 1, j-Pi, j) ・ ・ ・ (27)
[0458]
Similarly, the sum v of the pixel value differences of vertically adjacent pixelsdiffIs obtained by Expression (28).
[0459]
vdiff= Σ (Pi, j + 1-Pi, j) (28)
[0460]
In Expressions (27) and (28), P indicates a pixel value, i indicates a horizontal position of the pixel, and j indicates a vertical position of the pixel.
[0461]
The
[0462]
For example, the change in the pixel value in the horizontal direction with respect to the arc formed on one row of pixels horizontally is larger than the change in the pixel value in the vertical direction, and the change in the arc value formed on one row of pixels horizontally is large. The change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction, and the direction of the data continuity, that is, the predetermined characteristic of the input image which is the
[0463]
For example, as shown in FIG. 75, the
[0464]
For example, the
[0465]
Note that the
[0466]
The
[0467]
For example, when the activity information indicates that the change in the pixel value in the horizontal direction is larger than the change in the pixel value in the vertical direction, the data continuity angle is any one of 45 degrees to 135 degrees. Value, the
[0468]
When the activity information indicates that the change in the pixel value in the vertical direction is larger than the change in the pixel value in the horizontal direction, the data continuity angle is 0 to 45 degrees or 135 to 180 degrees. The
[0469]
Further, for example, when the activity information indicates that the angle of the data continuity is any value of 45 degrees to 135 degrees, the
[0470]
When the activity information indicates that the continuity angle of the data is any value of 0 to 45 degrees or 135 to 180 degrees, the
[0471]
The
[0472]
The
[0473]
For example, the
[0474]
The
[0475]
Based on the correlation information supplied from the
[0476]
In the following description, it is assumed that the angle of data continuity in the range of 0 to 90 degrees (the so-called first quadrant) is appropriately detected.
[0477]
FIG. 76 is a block diagram showing a more detailed configuration of data
[0478]
The
[0479]
First, the processing of the pixel selection units 411-1 to 411-L when the data continuity angle indicated by the activity information is any value of 45 degrees to 135 degrees will be described.
[0480]
The pixel selection units 411-1 to 411-L set straight lines having different predetermined angles that pass through the pixel of interest, with the axis indicating the spatial direction X as a reference axis. The pixel selection units 411-1 to 411-L are pixels belonging to one vertical pixel column to which the target pixel belongs, and a predetermined number of pixels above the target pixel and a pixel below the target pixel. A predetermined number of pixels on the side and the pixel of interest are selected as a set of pixels.
[0481]
For example, as illustrated in FIG. 77, the pixel selection units 411-1 to 411-L may include nine pixels centered on the pixel of interest from pixels belonging to one vertical pixel column to which the pixel of interest belongs. Is selected as a set of pixels.
[0482]
In FIG. 77, one square (one square) in a grid shape indicates one pixel. In FIG. 77, a circle shown at the center indicates a target pixel.
[0483]
The pixel selection units 411-1 to 411-L are pixels belonging to one vertical pixel column to which the pixel of interest belongs and one vertical pixel column to the left, and are respectively set. The pixel closest to the straight line is selected. In FIG. 77, the lower left circle of the target pixel indicates an example of the selected pixel. The pixel selection units 411-1 to 411-L are pixels belonging to one vertical pixel column to the left and one vertical pixel column to which the target pixel belongs. A predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
[0484]
For example, as shown in FIG. 77, the pixel selection units 411-1 to 411-L are arranged in one vertical column of pixels to which the pixel of interest belongs and one vertical column of pixels on the left side. Nine pixels are selected as a set of pixels from the belonging pixels, centering on the pixel closest to the straight line.
[0485]
The pixel selection units 411-1 to 411-L are pixels belonging to the second vertically one pixel column to the left of the vertically one pixel column to which the pixel of interest belongs, respectively. The pixel at the position closest to the straight line set in is selected. In FIG. 77, the leftmost circle shows an example of the selected pixel. The pixel selection units 411-1 to 411-L are pixels belonging to the second vertically one pixel column to the left of the vertically one pixel column to which the pixel of interest belongs. , A predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
[0486]
For example, as illustrated in FIG. 77, the pixel selection units 411-1 to 411-L include a second vertically one pixel on the left side of a vertically one pixel column to which the pixel of interest belongs. , Nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
[0487]
The pixel selection units 411-1 to 411-L are pixels belonging to one vertical pixel column to which the pixel of interest belongs, and one vertical pixel column to the right. The pixel closest to the straight line is selected. In FIG. 77, a circle on the upper right side of the pixel of interest indicates an example of the selected pixel. The pixel selection units 411-1 to 411-L are pixels belonging to one vertical column of pixels to which the target pixel belongs and one vertical column of pixels to the right. A predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel are selected as a set of pixels.
[0488]
For example, as shown in FIG. 77, the pixel selection units 411-1 to 411-L are configured to display one vertical pixel column to which the pixel of interest belongs and one vertical pixel column to the right. Nine pixels are selected as a set of pixels from the belonging pixels, centering on the pixel closest to the straight line.
[0489]
The pixel selection units 411-1 to 411-L are pixels belonging to a second vertically one pixel column to the right of a vertically one pixel column to which the pixel of interest belongs, respectively. The pixel closest to the straight line set in is selected. In FIG. 77, the rightmost circle shows an example of the pixel thus selected. The pixel selection units 411-1 to 411-L are pixels belonging to the second vertically one pixel column on the right side of the vertically one pixel column to which the pixel of interest belongs. , A predetermined number of pixels above the selected pixel, a predetermined number of pixels below the selected pixel, and the selected pixel as a set of pixels.
[0490]
For example, as illustrated in FIG. 77, the pixel selection units 411-1 to 411-L are configured to include a second vertical pixel on the right side of a vertical one pixel column to which the pixel of interest belongs. , Nine pixels are selected as a set of pixels centering on the pixel closest to the straight line.
[0490]
Thus, each of the pixel selection units 411-1 to 411-L selects five sets of pixels.
[0492]
The pixel selection units 411-1 to 411-L select a set of pixels at different angles (straight lines set to). For example, the pixel selection unit 411-1 selects a set of pixels for 45 degrees, the pixel selection unit 411-2 selects a set of pixels for 47.5 degrees, and the pixel selection unit 411-3. Selects a set of pixels for 50 degrees. The pixel selection units 411-1 to 411-L select a set of pixels at an angle of 2.5 degrees from 52.5 degrees to 135 degrees.
[0493]
Note that the number of pixel sets can be an arbitrary number, such as three or seven, and does not limit the present invention. Further, the number of pixels selected as one set can be an arbitrary number such as five or thirteen, and does not limit the present invention.
[0494]
Note that the pixel selection units 411-1 to 411-L can select a set of pixels from a predetermined range of pixels in the vertical direction. For example, the pixel selection units 411-1 to 411-L select a set of pixels from 121 pixels in the vertical direction (60 pixels upward and 60 pixels downward with respect to the pixel of interest). I do. In this case, the data
[0495]
The pixel selection unit 411-1 supplies the selected pixel pair to the estimation error calculation unit 412-1, and the pixel selection unit 411-2 supplies the selected pixel pair to the estimation error calculation unit 412-2. Similarly, each of the pixel selection units 411-3 to 411-L supplies the selected pixel set to each of the estimation error calculation units 412-3 to 412-L.
[0496]
The estimation error calculation unit 412-1 to the estimation error calculation unit 412-L calculates a pixel value of a pixel at a corresponding position in a plurality of sets supplied from any of the pixel selection units 411-1 to 411-L. Detect the correlation of For example, the estimation error calculation units 412-1 to 412-L include the target pixel supplied from any of the pixel selection units 411-1 to 411-L as a value indicating the correlation. The sum of the absolute value of the difference between the pixel value of the pixel of the set and the pixel value of the pixel at the corresponding position in another set is calculated.
[0497]
More specifically, the estimation error calculator 412-1 to the estimation error calculator 412-L include a set including a target pixel supplied from any of the pixel selection units 411-1 to 411-L. Based on the pixel value of the pixel and the pixel value of a set of pixels belonging to one vertical column on the left side of the pixel of interest, calculate the difference between the pixel values of the uppermost pixel, As in the case of calculating the pixel value difference of the second pixel, the absolute value of the pixel value difference is calculated in order from the upper pixel, and further, the sum of the calculated absolute values of the differences is calculated. The estimation error calculation unit 412-1 to the estimation error calculation unit 412-L include a pixel value of a set of pixels including the pixel of interest supplied from any of the pixel selection units 411-1 to 411-L, Calculating the absolute value of the difference between the pixel values in order from the pixel above, based on the pixel values of a set of pixels belonging to the second vertical column of pixels to the left of the pixel of interest; The sum of the absolute values of the obtained differences is calculated.
[0498]
Then, the estimation error calculation units 412-1 to 412-L calculate the pixel values of the set of pixels including the target pixel supplied from any of the pixel selection units 411-1 to 411-L. And the pixel value of the pixel of the uppermost pixel is calculated based on the pixel value of a set of pixels belonging to one vertical column of pixels to the right of the target pixel, and the second pixel from the top is calculated. , The absolute value of the pixel value difference is calculated in order from the upper pixel, and the sum of the calculated absolute values of the differences is calculated. The estimation error calculation unit 412-1 to the estimation error calculation unit 412-L include a pixel value of a set of pixels including the pixel of interest supplied from any of the pixel selection units 411-1 to 411-L, The absolute value of the difference between the pixel values is calculated in order from the upper pixel based on the pixel value of a set of pixels belonging to the second vertical column of pixels to the right of the target pixel, and calculated. The sum of the absolute values of the obtained differences is calculated.
[0499]
The estimation error calculation units 412-1 to 412-L add up all the sums of the absolute values of the pixel value differences calculated in this way, and calculate the sum of the absolute values of the pixel value differences. .
[0500]
The estimation error calculation units 412-1 to 412-L supply information indicating the detected correlation to the minimum error
[0501]
Note that the estimation error calculation units 412-1 to 412-L are not limited to the sum of the absolute values of the pixel value differences, but may be the sum of the squares of the pixel value differences or a phase relationship based on the pixel values. Another value such as a number can be calculated as the correlation value.
[0502]
The minimum error
[0503]
For example, the minimum error
[0504]
As shown in FIG. 77, the minimum error
[0505]
θ = tan-1(S / 2) (29)
[0506]
Next, the pixel selection units 411-1 to 411-L when the data continuity angle indicated by the activity information is any one of 0 to 45 degrees and 135 to 180 degrees. The processing will be described.
[0507]
The pixel selection units 411-1 to 411-L set a straight line having a predetermined angle passing through the pixel of interest, using the axis indicating the spatial direction X as a reference axis, and forming one horizontal row of pixels to which the pixel of interest belongs. , A predetermined number of pixels above the target pixel, a predetermined number of pixels below the target pixel, and the target pixel are selected as a set of pixels.
[0508]
The pixel selection units 411-1 to 411-L are pixels belonging to one horizontal row of pixels to which the target pixel belongs and one horizontal row of pixels to the upper side. The pixel closest to the straight line is selected. The pixel selection units 411-1 to 411-L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs and one vertical row of pixels. A predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels.
[0509]
The pixel selection units 411-1 to 411-L are pixels belonging to the second horizontal row of pixels to which the target pixel belongs and the second horizontal row of pixels to which the pixel of interest belongs. The pixel closest to the straight line set in is selected. The pixel selection units 411-1 to 411-L are pixels that belong to the second horizontal pixel column of the first horizontal pixel column to which the target pixel belongs. , A predetermined number of pixels to the left of the selected pixel, a predetermined number of pixels to the right of the selected pixel, and the selected pixel are selected as a set of pixels.
[0510]
The pixel selection units 411-1 to 411-L are pixels belonging to one horizontal row of pixels to which the target pixel belongs and one horizontal row of pixels to the lower side. The pixel closest to the straight line is selected. The pixel selection units 411-1 to 411-L are pixels belonging to one horizontal row of pixels to which the target pixel belongs and one horizontal row of pixels to the lower side. A predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels.
[0511]
The pixel selection units 411-1 to 411-L are pixels belonging to the second horizontal row of pixels to which the pixel of interest belongs, and the second horizontal row of pixels to the lower side. The pixel closest to the set straight line is selected. The pixel selection units 411-1 to 411-L are pixels belonging to a second row of pixels of the first row of pixels to which the pixel of interest belongs, and a second row of pixels below. Then, a predetermined number of pixels on the left side of the selected pixel, a predetermined number of pixels on the right side of the selected pixel, and the selected pixel are selected as a set of pixels.
[0512]
Thus, each of the pixel selection units 411-1 to 411-L selects five sets of pixels.
[0513]
The pixel selection units 411-1 to 411-L select a set of pixels at different angles. For example, the pixel selection unit 411-1 selects a pixel set for 0 degrees, the pixel selection unit 411-2 selects a pixel set for 2.5 degrees, and the pixel selection unit 411-3. Selects a set of pixels for 5 degrees. The pixel selection units 411-1 to 411-L select a set of pixels at angles of 2.5 degrees from 7.5 degrees to 45 degrees and from 135 degrees to 180 degrees.
[0514]
The pixel selection unit 411-1 supplies the selected pixel pair to the estimation error calculation unit 412-1, and the pixel selection unit 411-2 supplies the selected pixel pair to the estimation error calculation unit 412-2. Similarly, each of the pixel selection units 411-3 to 411-L supplies the selected pixel set to each of the estimation error calculation units 412-3 to 412-L.
[0515]
The estimation error calculation unit 412-1 to the estimation error calculation unit 412-L calculates a pixel value of a pixel at a corresponding position in a plurality of sets supplied from any of the pixel selection units 411-1 to 411-L. Detect the correlation of The estimation error calculation units 412-1 to 412-L supply information indicating the detected correlation to the minimum error
[0516]
The minimum error
[0517]
Next, processing for detecting data continuity by the data
[0518]
In step S401, the
[0519]
In step S402, the
[0520]
The
[0521]
In step S403, the
[0522]
In step S404, the
[0523]
The
[0524]
In step S405, the
[0525]
The continuity angle of the data may be detected based on the mutual correlation of the set of pixels selected for each angle.
[0526]
The
[0527]
In step S406, the stationary
[0528]
The stationary
[0529]
In step S407, the
[0530]
If it is determined in step S407 that the processing for all pixels has been completed, the processing ends.
[0531]
As described above, the data
[0532]
Note that the
[0533]
For example, as illustrated in FIG. 80, the
[0534]
The frame # n-1 is a frame temporally before the frame #n, and the frame # n + 1 is a frame temporally after the frame #n. That is, frame # n-1, frame #n, and frame # n + 1 are displayed in the order of frame # n-1, frame #n, and frame # n + 1.
[0535]
The
[0536]
FIG. 81 is a block diagram showing another more detailed configuration of data
[0537]
The
[0538]
In the data
[0539]
First, the processing of the pixel selection units 421-1 to 421-L when the data continuity angle indicated by the activity information is any value of 45 degrees to 135 degrees will be described.
[0540]
As shown on the left side of FIG. 82, in the data
[0541]
The pixel selection units 421-1 to 421-L set straight lines having predetermined angles different from each other and passing through the pixel of interest, with the axis indicating the spatial direction X as a reference axis in the range of 45 to 135 degrees. I do.
[0542]
The pixel selection units 421-1 to 421-L are pixels belonging to one vertical column of pixels to which the pixel of interest belongs, and have a number corresponding to the range of the angle of the straight line set for each of the pixels. The pixel above the pixel of interest, the pixel below the pixel of interest, and the pixel of interest are selected as a set of pixels.
[0543]
The pixel selection units 421-1 to 421-L are located at a predetermined distance in the horizontal direction with respect to the pixel, with respect to the one vertical column of the pixel to which the pixel of interest belongs. A pixel belonging to one pixel column, the pixel closest to the set straight line is selected, and the selected pixel is vertically shifted from one row of pixels to the selected straight line. The number of pixels above the selected pixel, the number of pixels below the selected pixel, and the number of selected pixels corresponding to the angle range are selected as a set of pixels.
[0544]
That is, the pixel selection units 421-1 to 421-L select a number of pixels according to the set range of the angle of the straight line as a set of pixels. The pixel selection units 421-1 to 421-L select a number of pixel sets according to the set angle range of the straight line.
[0545]
For example, when an image of a thin line located at an angle of approximately 45 degrees with respect to the spatial direction X and having the same width as the width of the detection region of the detection element is captured by the
[0546]
Assuming that the same number of pixels are included in the set of pixels, if the thin line is located at an angle of approximately 45 degrees with respect to the spatial direction X, the number of pixels on which the image of the thin line is projected is reduced in the set of pixels. , The resolution is reduced. Conversely, when the thin line is located almost perpendicular to the spatial direction X, processing is performed on some of the pixels on which the image of the thin line is projected in the set of pixels, May decrease.
[0547]
Therefore, the pixel selection units 421-1 to 421-L determine that the straight line to be set is closer to the spatial direction X by an angle of 45 degrees so that the pixels on which the thin line images are projected are substantially equal. If the number of pixels included in each set of pixels is reduced and the number of sets of pixels is increased, and the straight line to be set is closer to being perpendicular to the spatial direction X, the number of pixels included in each set of pixels is reduced. Pixels and pixel sets are selected such that the number is increased and the number of pixel sets is reduced.
[0548]
For example, as illustrated in FIG. 83 and FIG. 84, the pixel selection units 421-1 to 421-L determine that the angle of the set straight line is in a range of 45 degrees or more and less than 63.4 degrees (see FIG. In FIG. 84, when the pixel is in the range indicated by A), five pixels centered on the pixel of interest are selected as a set of pixels from one vertical column of pixels, and On the other hand, five pixels are selected as a set of pixels from pixels belonging to one vertical pixel column on the left and right sides within a distance of five pixels in the horizontal direction.
[0549]
That is, the pixel selection units 421-1 to 421-L each include five pixels from the input image when the angle of the set straight line is in the range of 45 degrees or more and less than 63.4 degrees. A set of 11 pixels is selected. In this case, the pixel selected as the pixel closest to the set straight line is located at a position vertically away from the target pixel by 5 to 9 pixels.
[0550]
In FIG. 84, the number of columns indicates the number of columns of pixels to which a pixel is selected as a pixel set on the left or right side of the target pixel. In FIG. 84, the number of pixels in one column indicates the number of pixels that are selected as a set of pixels from a column of one pixel vertically or a column on the left or right side of the pixel of interest with respect to the pixel of interest. . In FIG. 84, the pixel selection range indicates the vertical position of the selected pixel as the pixel closest to the set straight line with respect to the target pixel.
[0551]
As shown in FIG. 85, for example, when the angle of the set straight line is 45 degrees, the pixel selection unit 421-1 shifts the pixel of interest from the column of one pixel vertically to the pixel of interest. Are selected as a set of pixels, and a pixel belonging to one vertical column of pixels on the left and right sides within a distance of 5 pixels in the horizontal direction with respect to the pixel of interest, In each case, five pixels are selected as a set of pixels. That is, the pixel selection unit 421-1 selects a set of 11 pixels, each including 5 pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the target pixel is located five pixels away from the target pixel in the vertical direction. .
[0552]
Note that in FIGS. 85 to 92, a square represented by a dotted line (one square separated by a dotted line) represents one pixel, and a square represented by a solid line represents a set of pixels. In FIGS. 85 to 92, the coordinates of the pixel of interest in the spatial direction X are set to 0, and the coordinates of the pixel of interest in the spatial direction Y are set to 0.
[0553]
In FIGS. 85 to 92, the hatched squares indicate the target pixel or the pixel closest to the set straight line. In FIG. 85 to FIG. 92, squares represented by thick lines indicate a set of pixels selected with the target pixel as the center.
[0554]
As shown in FIG. 86, for example, when the angle of the set straight line is 60.9 degrees, the pixel selection unit 421-2 shifts the pixel of interest from one vertical column of pixels to the target pixel. Five pixels centered on the target pixel are selected as a set of pixels, and pixels belonging to one vertical column of pixels on the left and right sides within a distance of 5 pixels or less from the target pixel in the horizontal direction. , Each of the five pixels is selected as a set of pixels. That is, the pixel selection unit 421-2 selects a set of 11 pixels each including 5 pixels from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the target pixel is located nine pixels away from the target pixel in the vertical direction. .
[0555]
For example, as shown in FIGS. 83 and 84, the pixel selection units 421-1 to 421-L determine that the angle of the set straight line is in a range of 63.4 degrees or more and less than 71.6 degrees (see FIG. 83 and in FIG. 84), seven pixels centered on the pixel of interest are selected as a set of pixels from a single vertical column of pixels with respect to the pixel of interest. Seven pixels are selected as a set of pixels from pixels belonging to one vertical pixel column on the left and right sides within a distance of four pixels in the horizontal direction.
[0556]
That is, when the angle of the set straight line is in the range of not less than 63.4 degrees and less than 71.6 degrees, the pixel selection units 421-1 to 421-L each determine seven pixels from the input image. , A set of nine pixels is selected. In this case, the vertical position of the pixel closest to the set straight line is 8 to 11 pixels with respect to the target pixel.
[0557]
As shown in FIG. 87, for example, when the angle of the set straight line is 63.4 degrees, the pixel selection unit 421-3 shifts the pixel of interest from one pixel column vertically to the pixel of interest. Seven pixels centered on the target pixel are selected as a set of pixels, and pixels belonging to one vertical pixel row on the left and right sides within a distance of four pixels or less from the target pixel in the horizontal direction. , Each of the seven pixels is selected as a set of pixels. That is, the pixel selection unit 421-3 selects a set of nine pixels, each including seven pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the target pixel is located eight pixels away from the target pixel in the vertical direction. .
[0558]
Further, as shown in FIG. 88, for example, when the angle of the set straight line is 70.0 degrees, the pixel selection unit 421-4 determines that the pixel of interest From the above, seven pixels centering on the target pixel are selected as a set of pixels, and one vertical pixel column on the left and right sides within a distance of 4 pixels or less with respect to the target pixel. Each of the seven pixels is selected as a set of pixels from the belonging pixels. That is, the pixel selection unit 421-4 selects a set of nine pixels, each including seven pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is 11 pixels away from the pixel of interest in the vertical direction. .
[0559]
For example, as shown in FIG. 83 and FIG. 84, the pixel selection units 421-1 to 421-L determine that the angle of the set straight line is in a range from 71.6 degrees to less than 76.0 degrees (see FIG. 83 and in FIG. 84), nine pixels centered on the target pixel are selected as a set of pixels from one vertical column of pixels with respect to the target pixel. Nine pixels are selected as a set of pixels from pixels belonging to one vertical pixel column on the left and right sides within a distance of three pixels in the horizontal direction with respect to the pixels.
[0560]
That is, when the angle of the set straight line is in the range of not less than 71.6 degrees and less than 76.0 degrees, the pixel selection units 421-1 to 421-L determine whether the input image has nine pixels from the input image. , A set of seven pixels is selected. In this case, the vertical position of the pixel closest to the set straight line is 9 to 11 pixels with respect to the target pixel.
[0561]
As illustrated in FIG. 89, for example, when the angle of the set straight line is 71.6 degrees, the pixel selection unit 421-5 shifts the pixel of interest from the column of one vertical pixel to the pixel of interest. Nine pixels centering on the target pixel are selected as a set of pixels, and pixels belonging to one vertical pixel column on the left and right sides within a distance of three pixels in the horizontal direction with respect to the target pixel , Each of which selects nine pixels as a set of pixels. That is, the pixel selection unit 421-5 selects a set of seven pixels, each including nine pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the target pixel is located nine pixels away from the target pixel in the vertical direction. .
[0562]
Further, as shown in FIG. 90, for example, when the angle of the set straight line is 74.7 degrees, the pixel selection unit 421-6 determines that the pixel of interest is one column of pixels vertically. From the above, nine pixels centering on the target pixel are selected as a set of pixels, and one pixel column on the left and right sides within a horizontal distance of three pixels or less from the target pixel. Nine pixels are selected as a set of pixels from the belonging pixels. That is, the pixel selection unit 421-6 selects a set of seven pixels, each including nine pixels, from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the pixel of interest is 11 pixels away from the pixel of interest in the vertical direction. .
[0563]
For example, as shown in FIG. 83 and FIG. 84, the pixel selection units 421-1 to 421-L determine that the angle of the set straight line is in the range of 76.0 degrees or more and 87.7 degrees or less (see FIG. 83 and the range indicated by D in FIG. 84), 11 pixels centered on the target pixel are selected as a set of pixels from one vertical column of pixels with respect to the target pixel. Eleven pixels are selected as a set of pixels from pixels belonging to one vertical pixel column on the left and right sides within a distance of less than two pixels in the horizontal direction. That is, when the angle of the set straight line is in the range of not less than 76.0 degrees and not more than 87.7 degrees, the pixel selection units 421-1 to 421-L determine whether or not each of the pixels is 11 pixels from the input image. , A set of five pixels is selected. In this case, the vertical position of the pixel closest to the set straight line is 8 to 50 pixels with respect to the target pixel.
[0564]
As illustrated in FIG. 91, for example, when the angle of the set straight line is 76.0 degrees, the pixel selection unit 421-7 shifts the pixel of interest from one pixel column vertically to the target pixel. The 11 pixels centered on the pixel of interest are selected as a set of pixels, and the pixels belonging to one vertical column on the left and right sides that are within 2 pixels horizontally from the pixel of interest. , Each of which selects 11 pixels as a set of pixels. That is, the pixel selection unit 421-7 selects a set of five pixels each including 11 pixels from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the target pixel is located eight pixels away from the target pixel in the vertical direction. .
[0565]
Also, as shown in FIG. 92, for example, when the angle of the set straight line is 87.7 degrees, the pixel selection unit 421-8 determines that the pixel of interest From the above, 11 pixels centered on the target pixel are selected as a set of pixels, and one vertical column of pixels on the left and right sides within a horizontal distance of 2 pixels or less from the target pixel. Eleven pixels are selected as a set of pixels from the belonging pixels. That is, the pixel selection unit 421-8 selects a set of five pixels each including eleven pixels from the input image. In this case, among the pixels selected as the pixels closest to the set straight line, the pixel farthest from the target pixel is located 50 pixels away from the target pixel in the vertical direction. .
[0566]
As described above, each of the pixel selection units 421-1 to 421-L selects a predetermined number of pixel sets corresponding to the angle range, each including a predetermined number of pixels corresponding to the angle range. I do.
[0567]
The pixel selection unit 421-1 supplies the selected pixel pair to the estimation error calculation unit 422-1, and the pixel selection unit 421-2 supplies the selected pixel pair to the estimation error calculation unit 422-2. Similarly, each of the pixel selection units 421-3 to 421-L supplies the selected set of pixels to each of the estimation error calculation units 422-3 to 422-L.
[0568]
The estimation error calculation units 422-1 to 422-L calculate the pixel values of the pixels at the corresponding positions in the plurality of sets supplied from any of the pixel selection units 421-1 to 421-L. Detect the correlation of For example, the estimation error calculation unit 422-1 to the estimation error calculation unit 422-L are configured to output the pixels of the pixel set including the pixel of interest supplied from any of the pixel selection units 421-1 to 421-L. Calculate the sum of the absolute value of the difference between the pixel value and the pixel value of the pixel at the corresponding position in the other pixel set, and calculate the number of pixels included in the pixel set other than the pixel set including the target pixel. Divide the sum. The calculated sum is divided by the number of pixels included in a group other than the group including the pixel of interest because the number of pixels selected according to the angle of the set straight line differs, so that the value indicating the correlation is calculated. In order to normalize.
[0569]
The estimation error calculation units 422-1 to 422-L supply the information indicating the detected correlation to the minimum error
[0570]
Next, the pixel selection units 421-1 to 421-L when the data continuity angle indicated by the activity information is any one of 0 to 45 degrees and 135 to 180 degrees. The processing will be described.
[0571]
The pixel selection units 421-1 to 421-L are different from each other in a predetermined range different from each other and passing through the pixel of interest using an axis indicating the spatial direction X in a range of 0 to 45 degrees or 135 to 180 degrees. Set a straight line at an angle of.
[0572]
The pixel selection units 421-1 to 421-L are pixels belonging to one horizontal row of pixels to which the pixel of interest belongs, and the number of pixels of interest corresponding to the range of the angle of the set straight line And the pixel on the right side of the target pixel and the target pixel are selected as a set of pixels.
[0573]
The pixel selection unit 421-1 to the pixel selection unit 421-L are located at a predetermined distance in the vertical direction based on the pixel with respect to one horizontal row of pixels to which the pixel of interest belongs. A pixel belonging to one horizontal row of pixels and located closest to the set straight line is selected, and the angle of the set straight line is determined from one horizontal row of pixels with respect to the selected pixel. The pixels on the left side of the selected pixel, the pixels on the right side of the selected pixel, and the selected pixels are selected as a set of pixels according to the range.
[0574]
That is, the pixel selection units 421-1 to 421-L select a number of pixels according to the set range of the angle of the straight line as a set of pixels. The pixel selection units 421-1 to 421-L select a number of pixel sets according to the set angle range of the straight line.
[0575]
The pixel selection unit 421-1 supplies the selected pixel pair to the estimation error calculation unit 422-1, and the pixel selection unit 421-2 supplies the selected pixel pair to the estimation error calculation unit 422-2. Similarly, each of the pixel selection units 421-3 to 421-L supplies the selected set of pixels to each of the estimation error calculation units 422-3 to 422-L.
[0576]
The estimation error calculation units 422-1 to 422-L calculate the pixel values of the pixels at the corresponding positions in the plurality of sets supplied from any of the pixel selection units 421-1 to 421-L. Detect the correlation of
[0577]
The estimation error calculation units 422-1 to 422-L supply the information indicating the detected correlation to the minimum error
[0578]
Next, processing for detecting data continuity by the data
[0579]
The processing in steps S421 and S422 is the same as the processing in steps S401 and S402, and a description thereof will be omitted.
[0580]
In step S423, the
[0581]
In step S424, the
[0582]
The
[0583]
In step S425, the
[0584]
The continuity angle of the data may be detected based on the mutual correlation of the set of pixels selected for each angle.
[0585]
The
[0586]
The processing of steps S426 and S427 is the same as the processing of steps S406 and S407, and a description thereof will be omitted.
[0587]
As described above, the data
[0588]
Note that the data
[0589]
FIG. 94 is a block diagram showing still another configuration of the data
[0590]
In the data
[0591]
The
[0592]
For example, the
[0593]
The
[0594]
For example, for each angle range, the
[0595]
Based on the correlation information supplied from the
[0596]
FIG. 95 is a block diagram showing a more detailed configuration of data
[0597]
The
[0598]
For example, the
[0599]
Each of the pixel selection units 461-1 to 461-L corresponds to a block including a predetermined number of pixels around the pixel of interest and a range of a predetermined angle with respect to the pixel of interest and the reference axis. Then, two blocks each including a predetermined number of pixels are extracted.
[0600]
FIG. 96 is a diagram illustrating an example of a 5 × 5 pixel block extracted by the pixel selection units 461-1 to 461-L. The center position in FIG. 96 indicates the position of the pixel of interest.
[0601]
Note that a block of 5 × 5 pixels is an example, and the number of pixels included in the block does not limit the present invention.
[0602]
For example, the pixel selection unit 461-1 extracts a block of 5 × 5 pixels centered on the pixel of interest, and corresponds to a range of 0 to 18.4 degrees and a range of 161.6 to 180.0 degrees. 96. A 5 × 5 pixel block (indicated by A in FIG. 96) centering on a pixel at a position shifted by 5 pixels to the right with respect to the pixel of interest is extracted, and 5 pixels to the left of the pixel of interest are extracted. A block of 5 × 5 pixels (indicated by A ′ in FIG. 96) centering on the pixel at the moved position is extracted. The pixel selection unit 461-1 supplies the extracted three blocks of 5 × 5 pixels to the estimation error calculation unit 462-1.
[0603]
The pixel selection unit 461-2 extracts a block of 5 × 5 pixels centered on the pixel of interest, and 10 pixels to the right with respect to the pixel of interest corresponding to the range of 18.4 degrees to 33.7 degrees. A pixel is moved, and a block of 5 × 5 pixels (indicated by B in FIG. 96) is extracted around a pixel at a position shifted by 5 pixels to the upper side. A block of 5 × 5 pixels (indicated by B ′ in FIG. 96) centering on the pixel at the position shifted by 5 pixels downward is extracted. The pixel selection unit 461-2 supplies the extracted three blocks of 5 × 5 pixels to the estimation error calculation unit 462-2.
[0604]
The pixel selection unit 461-3 extracts a block of 5 × 5 pixels centered on the pixel of interest, and 5 pixels to the right of the pixel of interest corresponding to the range from 33.7 degrees to 56.3 degrees. 96. Pixels are moved and a block of 5 × 5 pixels (indicated by C in FIG. 96) centering on a pixel at a position moved 5 pixels to the upper side is extracted, and 5 pixels are moved to the left side with respect to the target pixel, A block of 5 × 5 pixels (indicated by C ′ in FIG. 96) with the pixel at the position shifted by 5 pixels downward is extracted. The pixel selection unit 461-3 supplies the extracted three blocks of 5 × 5 pixels to the estimation error calculation unit 462-3.
[0605]
The pixel selection unit 461-4 extracts a block of 5 × 5 pixels centered on the pixel of interest, and 5 pixels to the right of the pixel of interest corresponding to the range of 56.3 to 71.6 degrees. 96. Pixels are moved and a block of 5 × 5 pixels (indicated by D in FIG. 96) is extracted, centered on the pixel at the position moved 10 pixels to the upper side, and moved 5 pixels to the left with respect to the pixel of interest. A block of 5 × 5 pixels (indicated by D ′ in FIG. 96) centering on the pixel at the position shifted 10 pixels downward is extracted. The pixel selection unit 461-4 supplies the extracted three blocks of 5 × 5 pixels to the estimation error calculation unit 462-4.
[0606]
The pixel selection unit 461-5 extracts a block of 5 × 5 pixels centered on the pixel of interest, and extracts 5 pixels upward from the pixel of interest corresponding to the range of 71.6 to 108.4 degrees. A block of 5 × 5 pixels (indicated by E in FIG. 96) centering on the pixel at the position shifted by the pixel is extracted. A 5 × 5 pixel block (indicated by E ′ in FIG. 96) is extracted. The pixel selection unit 461-5 supplies the extracted three blocks of 5 × 5 pixels to the estimation error calculation unit 462-5.
[0607]
The pixel selection unit 461-6 extracts a block of 5 × 5 pixels centered on the pixel of interest, and extracts 5 blocks on the left side of the pixel of interest corresponding to the range of 108.4 ° to 123.7 °. The pixel is moved, and a block of 5 × 5 pixels (indicated by F in FIG. 96) centering on the pixel at the position shifted by 10 pixels to the upper side is extracted, and 5 pixels are moved to the right with respect to the target pixel, A block of 5 × 5 pixels (indicated by F ′ in FIG. 96) centering on the pixel at the position shifted 10 pixels downward is extracted. The pixel selection unit 461-6 supplies the extracted three blocks of 5 × 5 pixels to the estimation error calculation unit 462-6.
[0608]
The pixel selecting unit 461-7 extracts a block of 5 × 5 pixels centered on the pixel of interest, and extracts 5 pixels on the left side of the pixel of interest corresponding to the range of 123.7 degrees to 146.3 degrees. The pixel is moved, and a block of 5 × 5 pixels (indicated by G in FIG. 96) centering on the pixel at the position shifted by 5 pixels to the upper side is extracted, and 5 pixels are shifted to the right with respect to the target pixel, A block of 5 × 5 pixels (indicated by G ′ in FIG. 96) centering on the pixel at the position shifted 5 pixels downward is extracted. The pixel selection unit 461-7 supplies the extracted three blocks of 5 × 5 pixels to the estimation error calculation unit 462-7.
[0609]
The pixel selecting unit 461-8 extracts a block of 5 × 5 pixels centered on the pixel of interest, and extracts 10 blocks on the left side of the pixel of interest corresponding to the range of 146.3 degrees to 161.6 degrees. The pixel is moved, and a block of 5 × 5 pixels (indicated by H in FIG. 96) centering on the pixel at the position shifted by 5 pixels to the upper side is extracted, and 10 pixels are moved to the right with respect to the target pixel, A block of 5 × 5 pixels (indicated by H ′ in FIG. 96) centering on the pixel at the position shifted by 5 pixels downward is extracted. The pixel selection unit 461-8 supplies the extracted three blocks of 5 × 5 pixels to the estimation error calculation unit 462-8.
[0610]
Hereinafter, a block including a predetermined number of pixels around the target pixel is referred to as a target block.
[0611]
Hereinafter, a block composed of a predetermined number of pixels corresponding to a range of a predetermined angle with respect to the target pixel and the reference axis is referred to as a reference block.
[0612]
As described above, the pixel selection units 461-1 to 461-8 extract, for example, a target block and a reference block from a range of 25 × 25 pixels around the target pixel.
[0613]
The estimation error calculation units 462-1 to 462-L detect the correlation between the target block and the two reference blocks supplied from the pixel selection units 461-1 to 461-L. The correlation information indicating the detected correlation is supplied to the minimum error
[0614]
For example, the estimation error calculation unit 462-1 corresponds to a block of interest including 5 × 5 pixels centered on the pixel of interest, and ranges of 0 ° to 18.4 ° and 161.6 ° to 180.0 °. With respect to a reference block of 5 × 5 pixels centered on a pixel at a position shifted by 5 pixels to the right with respect to the pixel of interest extracted as described above, the pixel value of the pixel included in the block of interest and the reference block The absolute value of the difference between the included pixel and the pixel value is calculated.
[0615]
In this case, as shown in FIG. 97, the estimation error calculation unit 462-1 determines the absolute value of the difference between the pixel values based on the position where the center pixel of the target block and the center pixel of the reference block overlap. In order to use the pixel value of the target pixel in the calculation, the position of the target block with respect to the reference block is selected from two pixels on the left side and two pixels on the right side, and two pixels on the upper side and two pixels on the lower side. Is calculated, the absolute value of the difference between the pixel values of the pixels at the overlapping position when the pixel is moved is calculated. That is, the absolute value of the difference between the pixel values of the pixels at the corresponding positions in the 25 types of positions of the target block and the reference block is calculated. In other words, when the absolute value of the difference between the pixel values is calculated, the range of the relatively moved target block and the reference block is 9 × 9 pixels.
[0616]
In FIG. 97, squares indicate pixels, A indicates a reference block, and B indicates a target block. In FIG. 97, a bold line indicates a target pixel. That is, FIG. 97 is a diagram illustrating an example in which the target block moves two pixels to the right and one pixel to the upper side with respect to the reference block.
[0617]
Further, the estimation error calculation unit 462-1 corresponds to a target block composed of 5 × 5 pixels centered on the target pixel and ranges from 0 ° to 18.4 ° and 161.6 ° to 180.0 °. With respect to a reference block of 5 × 5 pixels centered on a pixel at a position shifted by 5 pixels to the left with respect to the target pixel extracted by the above, the pixel value of the pixel included in the target block and the reference block The absolute value of the difference between the included pixel and the pixel value is calculated.
[0618]
Then, the estimation error calculation unit 462-1 obtains the sum of the calculated absolute values of the differences, and supplies the sum of the absolute values of the differences to the minimum error
[0619]
The estimation error calculation unit 462-2 calculates a target block composed of 5 × 5 pixels and two reference blocks of 5 × 5 pixels extracted corresponding to a range of 18.4 degrees to 33.7 degrees. The absolute value of the difference between the pixel values is calculated, and the sum of the absolute values of the calculated differences is calculated. The estimated error calculator 462-1 supplies the sum of the absolute values of the calculated differences to the minimum
[0620]
Similarly, each of the estimation error calculation units 462-3 to 462-8 includes a 5 × 5 pixel attention block and a 5 × 5 pixel extraction block corresponding to a predetermined angle range. The absolute value of the difference between the pixel values of the two reference blocks is calculated, and the sum of the absolute values of the calculated differences is calculated. Each of the estimation error calculation units 462-3 to 462-8 supplies the sum of the calculated absolute values of the differences to the minimum error
[0621]
The minimum error
[0622]
Here, the relationship between the position of the reference block and the range of the data continuity angle will be described.
[0623]
When an approximation function f (x) approximating a signal in the real world is approximated by an n-dimensional one-dimensional polynomial, the approximation function f (x) can be expressed by Expression (30).
[0624]
(Equation 21)
[0625]
When the waveform of the signal of the
[0626]
(Equation 22)
[0627]
γ indicates a ratio of a change in the position in the spatial direction X to a change in the position in the spatial direction Y. Hereinafter, γ is also referred to as a shift amount.
[0628]
FIG. 98 shows the case where the distance in the spatial direction X between the position of the target pixel and the straight line having the angle θ is 0, that is, the position of the pixel around the target pixel and the angle when the straight line passes through the target pixel. FIG. 6 is a diagram illustrating a distance in a spatial direction X from a straight line having θ. Here, the position of the pixel is the position of the center of the pixel. The distance between the position and the straight line is indicated by a negative value when the position is on the left side of the straight line, and is indicated by a positive value when the position is on the right side of the straight line.
[0629]
For example, the distance in the spatial direction X between the position of the pixel adjacent to the right side of the target pixel, that is, the position where the coordinate x in the spatial direction X increases by 1, and the straight line having the angle θ is 1, and The distance in the spatial direction X between the position of the adjacent pixel, that is, the position at which the coordinate x in the spatial direction X decreases by 1 and the straight line having the angle θ is −1. The distance in the spatial direction X between the position of the pixel adjacent to the upper side of the target pixel, that is, the position where the coordinate y in the spatial direction Y increases by 1 and the straight line having the angle θ is −γ. The distance in the space direction X between the position of the adjacent pixel, that is, the position where the coordinate y in the space direction Y decreases by 1 and the straight line having the angle θ is γ.
[0630]
When the angle θ is more than 45 degrees and less than 90 degrees, and the shift amount γ is more than 0 and less than 1, there is a relational expression of γ = 1 / tan θ between the shift amount γ and the angle θ. Holds. FIG. 99 is a diagram showing the relationship between the shift amount γ and the angle θ.
[0631]
Here, attention is paid to a change in the distance in the spatial direction X between the position of the pixel around the target pixel and a straight line passing through the target pixel and having an angle θ with respect to the change in the shift amount γ.
[0632]
FIG. 100 is a diagram illustrating a distance in the spatial direction X between a position of a pixel around the target pixel and a straight line passing through the target pixel and having an angle θ with respect to the shift amount γ. In FIG. 100, the one-dot chain line rising to the right indicates the distance in the spatial direction X between the position of the pixel adjacent to the lower side of the target pixel and the straight line with respect to the shift amount γ, and the one-dot chain line falling to the left indicates the shift amount γ. , The distance in the spatial direction X between the position of the pixel adjacent above the pixel of interest and the straight line.
[0633]
In FIG. 100, the two-dot chain line that rises to the right indicates the distance in the spatial direction X between the position of the pixel located one pixel to the left and two pixels below the target pixel in the spatial direction X with respect to the shift amount γ. The two-dot chain line indicates the distance in the spatial direction X between the position of the pixel located two pixels above and one pixel to the right of the target pixel and the straight line with respect to the shift amount γ.
[0634]
In FIG. 100, the three-dot chain line rising to the right indicates the distance in the spatial direction X between the position of the pixel located one pixel below and one pixel left from the target pixel and the straight line with respect to the shift amount γ, The three-dot chain line indicates the distance in the spatial direction X between the straight line and the position of the pixel located one pixel above and one pixel to the right of the target pixel with respect to the shift amount γ.
[0635]
From FIG. 100, it can be seen that the pixel having the smallest distance with respect to the shift amount γ.
[0636]
That is, when the shift amount γ is 0 to 1/3, the distance from the pixel adjacent above the target pixel and the pixel adjacent below the target pixel to the straight line is the minimum. That is, when the angle θ is 71.6 degrees to 90 degrees, the distance from the pixel adjacent above the target pixel and the pixel adjacent below the target pixel to the straight line is the minimum.
[0637]
When the shift amount γ is 3 to /, the pixel located two pixels above and one pixel to the right of the target pixel, and two pixels below and one pixel left of the target pixel Is the shortest distance from the pixel located at. That is, when the angle θ is 56.3 degrees to 71.6 degrees, the pixel located two pixels above the pixel of interest and one pixel to the right, and two pixels below the pixel of interest, The distance from the pixel located one pixel to the left to the straight line is minimum.
[0638]
When the shift amount γ is / to 1, the pixel located one pixel above and one pixel to the right of the target pixel, and one pixel below and one pixel left of the target pixel Is the shortest distance from the pixel located at. That is, when the angle θ is 45 degrees to 56.3 degrees, the pixel located one pixel above and one pixel to the right of the target pixel, and one pixel lower and one pixel below the target pixel The distance from the pixel located on the left side to the straight line is minimum.
[0639]
The relationship between a pixel and a straight line in which the angle θ ranges from 0 to 45 degrees can be similarly considered.
[0640]
98, the distance in the spatial direction X between the reference block and the straight line can be considered.
[0641]
FIG. 101 shows a reference block that passes through the pixel of interest and has a minimum distance from a straight line having an angle θ with respect to the axis in the spatial direction X.
[0642]
A to H and A 'to H' in FIG. 101 indicate reference blocks A to H and A 'to H' in FIG.
[0643]
That is, a straight line passing through the pixel of interest and having any angle θ of 0 to 18.4 degrees and 161.6 to 180.0 degrees with respect to the axis in the spatial direction X, and A to H and A Among the distances in the spatial direction X from each of the reference blocks' to H ', the distance between the straight line and the reference blocks A and A' is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference blocks of A and A 'is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference blocks of A and A'. Therefore, it can be said that the continuity angles of the data are in the range of 0 to 18.4 degrees and 161.6 to 180.0 degrees.
[0644]
A straight line passing through the pixel of interest and having an angle θ of 18.4 degrees to 33.7 degrees with respect to the axis in the spatial direction X, and reference blocks A to H and A ′ to H ′ Among the distances in the spatial direction X, the distance between the straight line and the reference blocks B and B ′ is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference blocks of B and B 'is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference blocks of B and B'. Therefore, it can be said that the continuity angle of the data is in the range of 18.4 degrees to 33.7 degrees.
[0645]
A straight line passing through the pixel of interest and having an angle θ of 33.7 degrees to 56.3 degrees with reference to the axis in the spatial direction X, and reference blocks A to H and A ′ to H ′ Among the distances in the spatial direction X, the distance between the straight line and the reference blocks C and C ′ is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference blocks of C and C ′ is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference blocks of C and C ′. Therefore, it can be said that the continuity angle of the data is in the range of 33.7 degrees to 56.3 degrees.
[0646]
A straight line passing through the target pixel and having an angle θ of 56.3 degrees to 71.6 degrees with reference to the axis in the spatial direction X, and reference blocks A to H and A ′ to H ′ Among the distances in the spatial direction X, the distance between the straight line and the reference blocks D and D ′ is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference blocks of D and D 'is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference blocks of D and D'. Therefore, it can be said that the data continuity angle ranges from 56.3 degrees to 71.6 degrees.
[0647]
A straight line passing through the pixel of interest and having an angle θ of any of 71.6 degrees to 108.4 degrees with reference to the axis in the spatial direction X, and reference blocks A to H and A ′ to H ′ Among the distances in the spatial direction X, the distance between the straight line and the reference blocks E and E ′ is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference blocks of E and E 'is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference blocks of E and E'. Therefore, it can be said that the continuity angle of the data is in the range of 71.6 degrees to 108.4 degrees.
[0648]
A straight line passing through the pixel of interest and having an angle θ of 108.4 degrees to 123.7 degrees with reference to the axis in the spatial direction X, and reference blocks A to H and A ′ to H ′ Among the distances in the spatial direction X, the distance between the straight line and the reference blocks F and F ′ is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference blocks of F and F ′ is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference blocks of F and F ′. Therefore, it can be said that the data continuity angle is in the range of 108.4 degrees to 123.7 degrees.
[0649]
A straight line passing through the pixel of interest and having an angle θ of 123.7 degrees to 146.3 degrees with respect to the axis in the spatial direction X, and reference blocks A to H and A ′ to H ′ Among the distances in the spatial direction X, the distance between the straight line and the reference blocks G and G ′ is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference blocks of G and G ′ is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference blocks of G and G ′. Therefore, it can be said that the continuity angle of the data is in the range of 123.7 degrees to 146.3 degrees.
[0650]
A straight line passing through the pixel of interest and having an angle θ of 146.3 degrees to 161.6 degrees with respect to the axis in the spatial direction X, and reference blocks A to H and A ′ to H ′ Among the distances in the spatial direction X, the distance between the straight line and the reference blocks H and H ′ is the smallest. Therefore, when considered conversely, when the correlation between the block of interest and the reference blocks of H and H 'is the strongest, certain features repeatedly appear in the direction connecting the block of interest and the reference blocks of H and H'. Therefore, it can be said that the data continuity angle is in the range of 146.3 degrees to 161.6 degrees.
[0651]
Thus, the data
[0652]
Note that the data
[0653]
Further, the data
[0654]
For example, when the correlation between the block of interest and the reference blocks of E and E ′ is the strongest, the minimum error
[0655]
If the correlation between the reference block of F and F ′ with respect to the block of interest is stronger than the correlation of the reference blocks of D and D ′ with respect to the block of interest, the minimum error
[0656]
The minimum error
[0657]
The method described with reference to FIG. 102 is also referred to as a simple 16 direction detection method.
[0658]
As described above, the data
[0659]
Next, processing for detecting data continuity by the data
[0660]
In step S441, the
[0661]
In step S442, the
[0662]
In step S443, the
[0663]
The
[0664]
In step S444, the
[0665]
In step S445, the stationary
[0666]
The stationary
[0667]
In step S446, the
[0668]
If it is determined in step S446 that the processing for all pixels has been completed, the processing ends.
[0669]
As described above, the data
[0670]
It should be noted that the
[0671]
For example, as illustrated in FIG. 104, the
[0672]
The
[0673]
Further, the data
[0674]
FIG. 105 is a block diagram illustrating a configuration of the data
[0675]
Each of the data continuity detection units 481-1 to 481-3 has the same configuration as the above-described or data
[0676]
The data continuity detecting unit 481-1 detects data continuity based on the first component signal of the input image, and determines information indicating the continuity of the data detected from the first component signal. To supply. For example, the data continuity detection unit 481-1 detects data continuity based on the luminance signal of the input image, and supplies information indicating the continuity of the data detected from the luminance signal to the
[0677]
The data continuity detecting unit 481-2 detects data continuity based on the second component signal of the input image, and determines information indicating the continuity of the detected data from the second component signal. To supply. For example, the data continuity detecting unit 481-2 detects data continuity based on the I signal which is a color difference signal of the input image, and determines information indicating the continuity of the data detected from the I signal. To supply.
[0678]
The data continuity detecting unit 481-3 detects data continuity based on the third component signal of the input image, and determines information indicating the continuity of the detected data from the third component signal. To supply. For example, the data continuity detection unit 481-2 detects data continuity based on the Q signal that is a color difference signal of the input image, and determines information indicating the continuity of the data detected from the Q signal. To supply.
[0679]
The deciding
[0680]
For example, the
[0681]
Further, for example, the determining
[0682]
Further, for example, based on the signal input from the outside, the
[0683]
The determining
[0684]
FIG. 106 is a diagram illustrating another configuration of the data
[0685]
The
[0686]
For example, the
[0687]
The data
[0688]
The data
[0689]
As described above, the data
[0690]
The component signal is not limited to the luminance signal and the color difference signal, and may be another type of component signal such as an RGB signal or a YUV signal.
[0691]
As described above, the real-world optical signal is projected, and the continuity of the data corresponding to the continuity of the missing real-world optical signal of the image data in which part of the continuity of the real-world optical signal is missing If the optical signal is estimated by detecting an angle with respect to the reference axis and estimating the continuity of the missing real-world optical signal based on the detected angle, for a real-world event, More accurate and more accurate processing results can be obtained.
[0692]
In addition, a predetermined number of pixels are provided for each pixel of interest and the angle with respect to the reference axis of the image data in which the real-world optical signal is projected and image data in which a part of the continuity of the real-world optical signal is missing. A plurality of sets are extracted, a plurality of sets are extracted, and a pixel value of a pixel at a corresponding position in the plurality of sets, which is extracted for each angle, is detected, and based on the detected correlation, missing pixels are detected. Detects an angle of data continuity with respect to the reference axis in the image data corresponding to the continuity of the real-world optical signal obtained based on the angle of data continuity with respect to the reference axis in the detected image data. When the optical signal is estimated by estimating the stationarity of the missing real-world optical signal, a more accurate and more accurate processing result can be obtained for the real-world event. Become like
[0693]
FIG. 107 is a block diagram showing still another configuration of the data
[0694]
In the data
[0696]
The
[0696]
The
[0697]
The size of the region selected by the
[0698]
The
[0699]
Based on the pixel values of the pixels in the selected region supplied from the
[0700]
The
[0701]
The regression
[0702]
The
[0703]
With reference to FIGS. 108 to 110, the continuity angle of data in the input image with reference to the reference axis will be described.
[0704]
In FIG. 108, a circle indicates one pixel, and a double circle indicates a target pixel. The circle color indicates an outline of the pixel value of the pixel, and the lighter color indicates a larger pixel value. For example, black indicates a pixel value of 30 and white indicates a pixel value of 120.
[0705]
When a person views the image including the pixels illustrated in FIG. 108, the person who views the image can recognize that the straight line extends obliquely to the upper right.
[0706]
The data
[0707]
FIG. 109 is a diagram showing the pixel values of the pixels shown in FIG. 108 by numerical values. A circle indicates one pixel, and a numerical value in the circle indicates a pixel value.
[0708]
For example, the pixel value of the pixel of interest is 120, the pixel value of the pixel above the pixel of interest is 100, and the pixel value of the pixel below the pixel of interest is 100. The pixel value of the pixel on the left side of the target pixel is 80, and the pixel value of the pixel on the right side of the target pixel is 80. Similarly, the pixel value of the lower left pixel of the target pixel is 100, and the pixel value of the upper right pixel of the target pixel is 100. The pixel value of the upper left pixel of the target pixel is 30, and the pixel value of the lower right pixel of the target pixel is 30.
[0709]
The data
[0710]
FIG. 111 is a diagram illustrating a relationship between a change in pixel value and a regression line A with respect to a position of a pixel in the spatial direction in an input image. The pixel value of the pixel in the region having the data continuity changes, for example, in a mountain range as shown in FIG.
[0711]
The data
[0712]
As shown in FIG. 112, an angle θ between the regression line A and, for example, an axis indicating the spatial direction X, which is a reference axis, is determined as shown in FIG. Is detected by
[0713]
Next, a specific calculation method of the regression line in the data
[0714]
The
[0715]
For example, the
[0716]
(Equation 23)
[0717]
In equation (32), P0,0Indicates the pixel value of the target pixel, and Pi, jIs the coordinates (xi, Yj3) shows the pixel value of the pixel. Th indicates a threshold value.
[0718]
i indicates the order of pixels in the spatial direction X in the region, and 1 ≦ i ≦ k. j indicates the order of pixels in the spatial direction Y in the region, and 1 ≦ j ≦ l.
[0719]
k indicates the number of pixels in the space direction X in the region, and l indicates the number of pixels in the space direction Y in the region. For example, when the region is composed of 9 pixels in the spatial direction X and 5 pixels in the spatial direction Y, a total of 45 pixels, K is 9 and 1 is 5.
[0720]
FIG. 113 is a diagram illustrating an example of an area acquired by the
[0721]
For example, as shown in FIG. 113, the region is composed of 9 pixels centered on the pixel of interest in the spatial direction X and 5 pixels centered on the pixel of interest in the spatial direction Y, and the coordinates (x, When y) is (0,0), the coordinates (x, y) of the upper left pixel of the area are (-4,2), and the coordinates (x, y) of the upper right pixel of the area are (x, y). 4,2), the coordinates (x, y) of the lower left pixel of the area are (-4, -2), and the coordinates (x, y) of the lower right pixel of the area are (4,- 2).
[0722]
The pixel order i in the spatial direction X of the pixel on the left side of the region is 1, and the pixel order i in the spatial direction X of the pixel on the right side of the region is 9. The pixel order j in the spatial direction Y of the pixels on the lower side of the region is 1, and the pixel order j in the spatial direction Y of the pixels on the upper side of the region is 5.
[0723]
That is, the coordinates (x5, Y3) Is (0,0), the coordinates (x1, Y5) Is (-4, 2), and the coordinates (x9, Y5) Is (4, 2), and the coordinates (x1, Y1) Is (-4, -2), and the coordinates (x9, Y1) Is (4, -2).
[0724]
Since the
[0725]
The
[0726]
Further, in the equation (32), the reason why the exponential function is applied is to make the frequency greatly different from the difference in pixel value, and another function may be applied.
[0727]
The threshold value Th can be an arbitrary value. For example, the threshold Th can be set to 30.
[0728]
As described above, the
[0729]
Further, for example, the
[0730]
[Equation 24]
[0731]
Coordinates (xi, Yj) Is Li, j(1 ≦ i ≦ k, 1 ≦ j ≦ l), the coordinate xiAt the frequency L in the spatial direction Yi, jSum ofiIs represented by equation (34), and the coordinate yjAt the frequency L in the spatial direction Xi, jSum hjIs represented by equation (35).
[0732]
(Equation 25)
[0733]
(Equation 26)
[0734]
The sum of frequencies u is represented by equation (36).
[0735]
[Equation 27]
[0736]
In the example shown in FIG. 113, the frequency L of the coordinates of the pixel of interest5,3Is 3, the frequency L of the coordinates of the pixel above the pixel of interest5,4Is 1, and the frequency L of the coordinates of the pixel on the upper right side of the pixel of interest is6,4Is 4, the frequency L of the coordinates of the pixel two pixels above and one pixel to the right of the pixel of interest6,5Is 2, the frequency L of the coordinates of the pixel two pixels above and two pixels to the right of the pixel of interest7,5Is 3. Also, the frequency L of the coordinates of the pixel below the target pixel5,2Is 2, the frequency L of the coordinates of the pixel on the left side of the pixel of interest4,3Is 1, and the frequency L of the coordinates of the lower left pixel of the pixel of interest is4,2Is 3, the frequency L of the coordinates of the pixel one pixel below and two pixels to the left of the pixel of interest3,2Is 2, the frequency L of the coordinates of the pixel located two pixels below and two pixels to the left of the pixel of interest3,1Is 4. The frequency of the coordinates of the other pixels in the region shown in FIG. 113 is 0, and the description of the frequency of 0 in FIG. 113 is omitted.
[0737]
In the area shown in FIG. 113, the sum q of the frequencies in the spatial direction Y1Is 0 since the frequencies L where i is 1 are all 0, and q2Is 0 because all the frequencies L where i is 2 are 0. q3Is the frequency L3,2Is 2 and the frequency L3,1Is 4, so it is 6. Similarly, q4Is 4 and q5Is 6, and q6Is 6, and q7Is 3 and q8Is 0 and q9Is 0.
[0738]
In the region shown in FIG. 113, the sum h of the frequencies in the spatial direction X1Is the frequency L3,1Is 4, so it is 4. h2Is the frequency L3,2Is 2 and the frequency L4,2Is 3 and the frequency L5,2Is 2, so it is 7. Similarly, h3Is 4 and h4Is 5 and h5Is 5.
[0739]
In the area shown in FIG. 113, the sum of frequencies u is 25.
[0740]
Frequency L in spatial direction Yi, jSum ofiAnd the coordinate xiSum T obtained by adding the result of multiplicationxIs represented by equation (37).
[0741]
[Equation 28]
[0742]
Frequency L in spatial direction Xi, jSum hjAnd the coordinate yjSum T obtained by adding the result of multiplicationyIs represented by equation (37).
[0734]
(Equation 29)
[0744]
For example, in the region shown in FIG.1Is 0 and x1Is -4, so q1x1Is 0 and q2Is 0 and x2Is -3, so q2x2Is 0. Similarly, q3Is 6, and x3Is -2, so q3x3Is -12 and q4Is 4 and x4Is -1, so q4x4Is -4 and q5Is 6, and x5Is 0, so q5x5Is 0. Similarly, q6Is 6, and x6Is 1, so q6x6Is 6, and q7Is 3 and x7Is 2, so q7x7Is 6, and q8Is 0 and x8Is 3, so q8x8Is 0 and q9Is 0 and x9Is 4, so q9x9Is 0. Therefore, q1x1Or q9x9T which is the sum ofxIs -4.
[0745]
For example, in the region shown in FIG.1Is 4 and y1Is -2, so h1y1Is -8 and h2Is 7 and y2Is -1, so h2y2Is -7. Similarly, h3Is 4 and y3Is 0, so h3y3Is 0 and h4Is 5 and y4Is 1 so h4y4Is 5 and h5Is 5 and y5Is 2 so h5y5Is 10. Therefore, h1y1To h5y5T which is the sum ofy
[0746]
Also, QiIs defined as follows.
[0747]
[Equation 30]
[0748]
Variation S of xxIs represented by equation (40).
[0749]
[Equation 31]
[0750]
fluctuation S of yyIs represented by equation (41).
[0751]
(Equation 32)
[0752]
Covariance SxyIs represented by equation (42).
[0753]
[Equation 33]
[0754]
Consider obtaining a first-order regression line shown in Expression (43).
[0755]
y = ax + b (43)
[0756]
The slope a and the intercept b can be obtained by the least square method as follows.
[0757]
[Equation 34]
[0758]
(Equation 35)
[0759]
However, a necessary condition for obtaining a correct regression line is a frequency Li, jIs distributed in a Gaussian distribution with respect to the regression line. Conversely, the
[0760]
The regression
[0761]
The
[0762]
θ = tan-1(A) ... (46)
[0763]
When the regression
[0764]
Here, in order to detect the continuity of data for each pixel, the intercept b is unnecessary. Therefore, it is considered to obtain a first-order regression line shown in Expression (47).
[0765]
y = ax (47)
[0766]
In this case, the regression
[0767]
[Equation 36]
[0768]
With reference to the flowchart of FIG. 114, a description will be given of a process of detecting data continuity by the data
[0769]
In step S501, the
[0770]
In step S503, the
[0771]
In step S504, the regression
[0772]
In step S505, the
[0773]
Note that the
[0774]
In step S506, the
[0775]
If it is determined in step S506 that the processing of all pixels has been completed, the processing ends.
[0776]
As described above, the data
[0777]
In particular, the data
[0778]
As described above, the real-world optical signal is projected, and a region corresponding to the target pixel, which is the target pixel of the image data in which part of the continuity of the real-world optical signal is missing, is selected. By setting the frequency based on the correlation value to the pixel whose correlation value between the pixel value of the pixel and the pixel value of the pixel belonging to the selected region is equal to or larger than the threshold, the frequency of the pixel belonging to the region is detected and detected. By detecting the regression line based on the frequency, the stationarity of the image data corresponding to the stationarity of the missing optical signal in the real world is detected, and based on the stationarity of the data of the detected image data. If the optical signal is estimated by estimating the stationarity of the missing real-world optical signal, a more accurate and more accurate processing result can be obtained for the real-world event. Become like
[0779]
Note that the data
[0780]
FIG. 115 is a block diagram showing still another configuration of data
[0781]
In the data
[0782]
The
[0783]
The
[0784]
The size of the region selected by the
[0785]
The
[0786]
The
[0787]
The
[0788]
The regression
[0789]
The
[0790]
FIG. 116 is a diagram illustrating a relationship between a change in pixel value and a regression line A with respect to a position of a pixel in the spatial direction in an input image. The pixel value of the pixel in the region having the data continuity changes, for example, in a mountain range as shown in FIG.
[0791]
The data
[0792]
Drawing a regression line means approximation based on a Gaussian function. As illustrated in FIG. 117, the data
[0793]
Next, a specific calculation method of the regression line in the data
[0794]
The
[0795]
For example, the
[0796]
(37)
[0797]
In equation (49), P0,0Indicates the pixel value of the target pixel, and Pi, jIs the coordinates (xi, Yj3) shows the pixel value of the pixel. Th indicates a threshold value.
[0798]
i indicates the order of pixels in the spatial direction X in the region, and 1 ≦ i ≦ k. j indicates the order of pixels in the spatial direction Y in the region, and 1 ≦ j ≦ l.
[0799]
k indicates the number of pixels in the space direction X in the region, and l indicates the number of pixels in the space direction Y in the region. For example, when the region is composed of 9 pixels in the spatial direction X and 5 pixels in the spatial direction Y, a total of 45 pixels, K is 9 and 1 is 5.
[0800]
FIG. 118 is a diagram illustrating an example of an area acquired by the
[0801]
For example, as shown in FIG. 118, the region is composed of 9 pixels centered on the pixel of interest in the spatial direction X and 5 pixels centered on the pixel of interest in the spatial direction Y, and the coordinates (x, When y) is (0,0), the coordinates (x, y) of the upper left pixel of the region are (-4,2), and the coordinates (x, y) of the upper right pixel of the region are (x, y). 4,2), the coordinates (x, y) of the lower left pixel of the area are (-4, -2), and the coordinates (x, y) of the lower right pixel of the area are (4,- 2).
[0802]
The pixel order i in the spatial direction X of the pixel on the left side of the region is 1, and the pixel order i in the spatial direction X of the pixel on the right side of the region is 9. The pixel order j in the spatial direction Y of the pixels on the lower side of the region is 1, and the pixel order j in the spatial direction Y of the pixels on the upper side of the region is 5.
[0803]
That is, the coordinates (x5, Y3) Is (0,0), the coordinates (x1, Y5) Is (-4, 2), and the coordinates (x9, Y5) Is (4, 2), and the coordinates (x1, Y1) Is (-4, -2), and the coordinates (x9, Y1) Is (4, -2).
[0804]
Since the
[0805]
Note that the
[0806]
In addition, the reason why the exponential function is applied in the equation (49) is to make a large difference in frequency with respect to the difference in pixel value, and another function may be applied.
[0807]
The threshold value Th can be an arbitrary value. For example, the threshold Th can be set to 30.
[0808]
As described above, the
[0809]
Further, for example, the
[0810]
[Equation 38]
[0811]
Coordinates (xi, Yj) Is Li, j(1 ≦ i ≦ k, 1 ≦ j ≦ l), the coordinate xiAt the frequency L in the spatial direction Yi, jSum ofiIs represented by equation (51), and the coordinate yjAt the frequency L in the spatial direction Xi, jSum hjIs represented by equation (52).
[0812]
[Equation 39]
[0813]
(Equation 40)
[0814]
The sum u of frequencies is represented by equation (53).
[0815]
(Equation 41)
[0816]
In the example shown in FIG. 118, the frequency L of the coordinates of the pixel of interest5,3Is 3, the frequency L of the coordinates of the pixel above the pixel of interest5,4Is 1, and the frequency L of the coordinates of the pixel on the upper right side of the pixel of interest is6,4Is 4, the frequency L of the coordinates of the pixel two pixels above and one pixel to the right of the pixel of interest6,5Is 2, the frequency L of the coordinates of the pixel two pixels above and two pixels to the right of the pixel of interest7,5Is 3. Also, the frequency L of the coordinates of the pixel below the target pixel5,2Is 2, the frequency L of the coordinates of the pixel on the left side of the pixel of interest4,3Is 1, and the frequency L of the coordinates of the lower left pixel of the pixel of interest is4,2Is 3, the frequency L of the coordinates of the pixel one pixel below and two pixels to the left of the pixel of interest3,2Is 2, the frequency L of the coordinates of the pixel located two pixels below and two pixels to the left of the pixel of interest3,1Is 4. The frequency of the coordinates of the other pixels in the region shown in FIG. 118 is 0, and the description of the frequency of 0 in FIG. 118 is omitted.
[0817]
In the region shown in FIG. 118, the sum q of the frequencies in the spatial direction Y1Is 0 since the frequencies L where i is 1 are all 0, and q2Is 0 because all the frequencies L where i is 2 are 0. q3Is the frequency L3,2Is 2 and the frequency L3,1Is 4, so it is 6. Similarly, q4Is 4 and q5Is 6, and q6Is 6, and q7Is 3 and q8Is 0 and q9Is 0.
[0818]
In the region shown in FIG. 118, the sum h of the frequencies in the spatial direction X1Is the frequency L3,1Is 4, so it is 4. h2Is the frequency L3,2Is 2 and the frequency L4,2Is 3 and the frequency L5,2Is 2, so it is 7. Similarly, h3Is 4 and h4Is 5 and h5Is 5.
[0819]
In the region shown in FIG. 118, the sum u of frequencies is 25.
[0820]
Frequency L in spatial direction Yi, jSum ofiAnd the coordinate xiSum T obtained by adding the result of multiplicationxIs represented by equation (54).
[0821]
(Equation 42)
[0822]
Frequency L in spatial direction Xi, jSum hjAnd the coordinate yjSum T obtained by adding the result of multiplicationyIs represented by equation (55).
[0823]
[Equation 43]
[0824]
For example, in the region shown in FIG.1Is 0 and x1Is -4, so q1x1Is 0 and q2Is 0 and x2Is -3, so q2x2Is 0. Similarly, q3Is 6, and x3Is -2, so q3x3Is -12 and q4Is 4 and x4Is -1, so q4x4Is -4 and q5Is 6, and x5Is 0, so q5x5Is 0. Similarly, q6Is 6, and x6Is 1, so q6x6Is 6, and q7Is 3 and x7Is 2, so q7x7Is 6, and q8Is 0 and x8Is 3, so q8x8Is 0 and q9Is 0 and x9Is 4, so q9x9Is 0. Therefore, q1x1Or q9x9T which is the sum ofxIs -4.
[0825]
For example, in the area shown in FIG.1Is 4 and y1Is -2, so h1y1Is -8 and h2Is 7 and y2Is -1, so h2y2Is -7. Similarly, h3Is 4 and y3Is 0, so h3y3Is 0 and h4Is 5 and y4Is 1 so h4y4Is 5 and h5Is 5 and y5Is 2 so h5y5Is 10. Therefore, h1y1To h5y5T which is the sum ofy
[0826]
Also, QiIs defined as follows.
[0827]
[Equation 44]
[0828]
Variation S of xxIs represented by equation (57).
[0829]
[Equation 45]
[0830]
fluctuation S of yyIs represented by equation (58).
[0831]
[Equation 46]
[0832]
Covariance SxyIs represented by equation (59).
[0832]
[Equation 47]
[0834]
Consider obtaining a first-order regression line shown in Expression (60).
[0835]
y = ax + b (60)
[0836]
The slope a and the intercept b can be obtained by the least square method as follows.
[0837]
[Equation 48]
[0838]
[Equation 49]
[0839]
However, a necessary condition for obtaining a correct regression line is a frequency Li, jIs distributed in a Gaussian distribution with respect to the regression line. Conversely, the
[0840]
The regression
[0841]
In order to detect the continuity of data for each pixel, the intercept b is unnecessary. Therefore, it is considered to obtain a first-order regression line shown in Expression (63).
[0842]
y = ax (63)
[0843]
In this case, the regression
[0844]
[Equation 50]
[0845]
In the first method for specifying a region having data continuity, the estimation error of the regression line shown in Expression (60) is used.
[0846]
fluctuation S of yy ・ xIs obtained by an operation represented by Expression (65).
[0847]
(Equation 51)
[0848]
The variance of the estimation error is obtained by the calculation represented by Expression (66) using the fluctuation.
[0849]
(Equation 52)
[0850]
Therefore, the standard deviation is derived by the following equation.
[0851]
(Equation 53)
[0852]
However, since the standard deviation is an amount corresponding to the width of the thin line when targeting the area where the image of the thin line is projected, it is generally determined that the large standard deviation is not an area having a steady state of the data. It is not possible. However, for example, the classification adaptation process fails because the thin line width is narrow even in the region where the data is stationary, so that the area where the classification adaptation process is likely to fail is standardized. Information indicating an area detected using the deviation can be used.
[0853]
The
[0854]
In the second technique, frequency correlation is used to detect a region having a steady state of data.
[0855]
Correlation coefficient rxyIs the variation S of xx, Y variation Sy, And covariation SxyCan be obtained by the calculation represented by the equation (68).
[0856]
(Equation 54)
[0857]
Since the correlation has a positive correlation and a negative correlation, the
[0858]
With reference to the flowchart of FIG. 119, a description will be given of a process of detecting data continuity by the data
[0859]
In step S601, the
[0860]
In step S603, the
[0861]
In step S604, the regression
[0862]
In step S605, the
[0863]
In step S606, the
[0864]
The
[0865]
In step S607, the
[0866]
If it is determined in step S607 that the processing of all pixels has been completed, the processing ends.
[0867]
With reference to the flowchart of FIG. 120, another process of detecting data continuity by the data
[0868]
In step S625, the
[0869]
In step S626, the
[0870]
The
[0871]
The process in step S627 is the same as the process in step S607, and a description thereof will not be repeated.
[0873]
As described above, the data
[0873]
As described above, the real-world optical signal is projected, and a region corresponding to the target pixel, which is the target pixel of the image data in which part of the continuity of the real-world optical signal is missing, is selected. By setting the frequency based on the correlation value to the pixel whose correlation value between the pixel value of the pixel and the pixel value of the pixel belonging to the selected region is equal to or larger than the threshold, the frequency of the pixel belonging to the region is detected and detected. By detecting the regression line based on the frequency, an area having data continuity in the image data corresponding to the continuity of the missing real-world optical signal is detected, and the data continuity of the detected image data is detected. If the optical signal is estimated by estimating the stationarity of the missing real-world optical signal based on the gender, a more accurate and more accurate processing result is obtained for the real-world event I can do it To become.
[0874]
FIG. 121 shows the configuration of another embodiment of the data
[0875]
The data
[0876]
The
[0877]
The
[0878]
The stationary
[0877]
Next, an outline of an operation of detecting continuity (direction or angle) in the data
[0880]
As shown in FIG. 122, a signal (for example, an image) of the
[0881]
Therefore, as shown in FIG. 123, the data
[0882]
The data
[0883]
In other words, the
[0884]
Here, if the number M of the
[0885]
Further, the data
[0886]
Next, the data
[0887]
The
[0888]
More specifically, for example, another method may be used in the sense of this method. For example, a simple 16 azimuth detection technique may be used here. As shown in FIG. 125, the horizontal /
[0889]
Based on the difference sum hdiff of the pixel values between the pixels in the horizontal direction and the sum vdiff of the pixel values between the pixels in the vertical direction thus obtained, the horizontal /
[0890]
The horizontal /
[0891]
In FIG. 125, the sum of the differences between the pixel values in the vertical direction and the horizontal direction in the range of 3 × 3 pixels around the pixel of interest is compared to determine whether the thin line is close to the vertical direction or Although the example of determining whether the pixel is close to the horizontal direction has been described, the direction of the fine line may be determined using a similar method using a larger number of pixels. The determination may be made based on a pixel or a block having a larger number of pixels such as 7 pixels × 7 pixels.
[0892]
The
[0893]
The
[0894]
The
[0895]
The
[0896]
The steady
[0897]
Here, a method of calculating the direction of the thin line (the inclination or angle of the thin line) will be described.
[0898]
When a portion surrounded by a white line in the input image as shown in FIG. 127A is enlarged, a thin line (white line ascending in the figure and obliquely in the figure) is actually displayed as shown in FIG. 127B. ing. That is, in the real world, as shown in FIG. 127C, the image has two types of levels, that is, the level of the thin line (the shaded area with a low density in FIG. 127C) and the background level, and the other levels are the boundaries. It does not exist. On the other hand, as shown in FIG. 127B, an image captured by the
[0899]
As shown in FIG. 128A, when a thin line exists on the background of the real world, as shown in FIG. 128B, the image of the real world is the level on the horizontal axis and the image of the portion corresponding to the level on the vertical axis. The upper area indicates the relationship between the area corresponding to the background in the image and the area corresponding to the thin line in the image.
[0900]
Similarly, in the image picked up by the
[0901]
As a result, the same result is obtained as shown in FIG. 130B even in a portion (image of 31 pixels × 31 pixels) surrounded by a white line in the actual image of FIG. 130A. That is, in the background portion shown in FIG. 130A (the portion that looks black in FIG. 130A), as shown in FIG. 130B, many pixels having low pixel value levels (pixel values near 20) are distributed. The portions where these changes are small form an image of the background region. On the other hand, the portion where the pixel value level is not low in FIG. 130B, that is, the pixels in which the pixel value level is distributed in the vicinity of 40 to 160 is a pixel belonging to the spatial mixing area forming a thin line image. Although the number of pixels for each pixel value is small, it is distributed over a wide range of pixel values.
[0902]
By the way, the respective levels of the background and the thin line in the image of the real world change as shown in FIG. 131B, for example, when viewed in the arrow direction (Y coordinate direction) shown in FIG. 131A. That is, in the background area from the starting point of the arrow to the thin line, the background level becomes a relatively low level, and in the thin line area, the level becomes a high level thin line. A low background level. As a result, a pulse-like waveform having a high level only in the thin line region is obtained.
[0903]
On the other hand, of the images captured by the
[0904]
That is, as shown in FIG. 132B, since the pixel corresponding to the center pixel in FIG. 132A has the highest pixel value, the position of each pixel in the spatial direction Y is Becomes higher as approaching the pixel, and gradually decreases after passing through the center position. As a result, a mountain-shaped waveform is formed as shown in FIG. 132B. Further, the change in the pixel value of each pixel corresponding to the spatial direction X = X0, X2 in FIG. 132A has the same outer shape, although the peak position in the spatial direction Y is shifted according to the inclination of the fine line.
[0905]
For example, in the case of an image actually captured by the
[0906]
As described above, the waveform indicating the level change near the thin line of the image in the real world is a pulse-like waveform, whereas the waveform indicating the change in the pixel value of the image captured by the
[0907]
In other words, in other words, the level of the image in the real world should have a waveform as shown in FIG. 131B, but is captured by the
[0908]
Therefore, in order to acquire the stationarity information of the image of the real world from the image captured by the
[0909]
At this time, since the left and right portions of the background area can be approximated as being the same, they are unified as B (= B1 = B2) as shown in FIG. 135. It is assumed that the width of the thin line is one pixel or more. When the
[0910]
That is, the pixel existing at the position on the thin line in the real world has the level closest to the level of the thin line, and the pixel value decreases as the distance from the thin line in the vertical direction (the direction of the space direction Y) decreases, and the pixel contacts the thin line region. The pixel value of a pixel existing at a position where there is no occurrence, that is, the pixel of the background area has a pixel value of the background level. At this time, the pixel value of a pixel existing at a position straddling the thin line region and the background region is a pixel value obtained by mixing the pixel value B of the background level and the pixel value L of the thin line level with a mixture ratio α.
[0911]
As described above, when each pixel of the captured image is set as a target pixel, the
[0912]
That is, as shown in FIG. 136B, in the pixel pix1, a portion occupying approximately 1 / of the left portion is a background region, and a portion occupying approximately / of the right portion is a thin line region. Substantially the entire area of the pixel pix2 is a thin line area. In the pixel pix3, a portion occupying approximately 7/8 of the left portion is a thin line region, and a portion occupying the right 1/8 area is a thin line region. In the pixel pix4, a portion occupying approximately / of the left portion is a thin line region, and a portion occupying approximately 3 of the right portion is a background region. In the pixel pix5, a portion occupying approximately 1/3 of the area on the left side is a thin line region, and a portion occupying approximately 2/3 of the area on the right side is a background region. In the pixel pix6, a portion occupying approximately 1 / of the left portion is a thin line region, and a portion occupying approximately / of the right portion is a background region. Further, the pixel pix7 is entirely a background area.
[0913]
As a result, the pixel values of the pixels pix1 to pix7 of the dynamic range block shown in FIG. 136 are obtained by mixing the pixel value obtained by mixing the background level and the thin line level with a mixing ratio corresponding to the ratio of the area of the thin line region to the background region. Become. That is, the mixing ratio of the background level and the foreground level is about 1: 7 for the pixel pix1, about 0: 1 for the pixel pix2, about 1: 7 for the pixel pix3, about 1: 2 for the pixel pix4, and about 2: 2 for the pixel pix5. 1, the pixel pix6 is approximately 7: 1, and the pixel pix7 is approximately 1: 0.
[0914]
Accordingly, the pixel values of the pixels pix1 to pix7 of the extracted dynamic range block are the highest in the pixel pix2, followed by the pixels pix1, 3 and the pixels pix4, 5, 6, 7 in the descending order of the pixel value. Become. Therefore, in the case shown in FIG. 136B, the maximum value is the pixel value of the pixel pix2, and the minimum value is the pixel value of the pixel pix7.
[0915]
In addition, as shown in FIG. 137A, the direction of the thin line is a direction in which the pixels having the maximum pixel value are continuous, and the direction in which the pixel having the maximum value is arranged is the direction of the thin line. .
[0916]
Here, the gradient G indicating the direction of the thin linefl137 is the ratio of the change in the spatial direction Y (change in distance) to the unit distance in the spatial direction X, so in the case shown in FIG. The distance in the spatial direction Y is the gradient GflBecomes
[0917]
As shown in FIG. 137B, the change of the pixel value in each of the spatial directions X0 to X2 in the spatial direction Y is a mountain-shaped waveform repeated at a predetermined interval for each spatial direction X. As described above, in the image captured by the
[0918]
θ = Tan-1(Gfl) (= Tan-1(S)) ... (69)
[0919]
In addition, a model as shown in FIG. 135 is set, and the relationship between the pixels in the spatial direction Y and the pixel value is changed such that a mountain-shaped waveform shown in FIG. 137B is a complete triangular waveform (rising or falling). 138 changes linearly, an isosceles triangular waveform), as shown in FIG. 138, the pixel value of each pixel existing on the spatial direction Y in the spatial direction X of the predetermined target pixel Is the maximum value of Max = L (here, the pixel value corresponding to the level of the thin line in the real world), and the minimum value is Min = B (here, the pixel value corresponding to the level of the background of the real world). The relationship represented by the following equation (70) holds.
[0920]
LB = Gfl× d_y (70)
[0921]
Here, d_y indicates a difference in pixel value between pixels in the spatial direction Y.
[0922]
That is, the spatial gradient GflIs larger, the thin line approaches a more vertical one, so the mountain-shaped waveform becomes an isosceles triangular waveform with a larger base, and conversely, the smaller the slope S, the smaller isosceles triangular waveform with a smaller base . As a result, the slope GflIs larger, the difference d_y in pixel value between pixels in the spatial direction Y is smaller, and as the slope S is smaller, the difference d_y in pixel value between pixels in the spatial direction Y is larger.
[0923]
Therefore, the gradient G that satisfies the relationship of the above equation (70)fl, The angle θ of the fine line with respect to the reference axis can be obtained. Equation (70) gives the slope GflIs a function of one variable, and the difference (vertical direction) d_y of the pixel value between neighboring pixels and the difference (LB) between the maximum value and the minimum value of the target pixel are 1 Although it can be obtained by using a set, as described above, since the approximation formula based on the assumption that the change in the pixel value in the spatial direction Y is a complete triangular waveform is used, A dynamic range block is extracted for each pixel of the extracted block, and a dynamic range Dr is obtained from the maximum value and the minimum value, and a difference d_y of a pixel value between pixels in the spatial direction Y of each pixel of the extracted block is calculated. And statistically obtained by the least squares method.
[0924]
Here, in describing the statistical processing by the least squares method, first, details of the extraction block and the dynamic range block will be described.
[0925]
For example, as shown in FIG. 139, the extraction block includes three pixels in the spatial direction Y and three pixels in the spatial direction X of the pixel of interest (the square pixel drawn by a black solid line in the figure). A total of 15 pixels for one pixel on the left and right may be used. In this case, the difference d_y between the pixels of each pixel of the extraction block is, for example, the difference corresponding to the pixel pix11 is indicated by d_y11. When the spatial direction X = X0, the pixels pix11 and pix12, pix12 are used. Pix13, pix13 and pix14, pix15 and pix16, and pixel value differences d_y11 to d_y16 between pixels pix16 and pix17. At this time, also in the spatial direction X = X1, X2, a difference in pixel value between pixels is obtained in a similar manner. As a result, in this case, there are 18 pixel value differences d_y between the pixels.
[0926]
Further, for each pixel of the extracted block, the pixel of the dynamic range block is determined to be in the vertical direction in this case based on the determination result of the horizontal /
[0927]
Next, the solution of the least square method of one variable will be described. Here, it is assumed that the determination result of the horizontal /
[0928]
The one-variable least-squares method solves, for example, the gradient G of a straight line composed of the predicted value Dri_c, which minimizes the distance to all measured values indicated by black points in FIG.flIs what you want. Therefore, the slope S is obtained from the relationship represented by the above equation (70) by the following method.
[0929]
That is, when the difference between the maximum value and the minimum value is the dynamic range Dr, the above equation (70) is described as shown in the following equation (71).
[0930]
Dr = Gfl× d_y ... (71)
[0931]
The dynamic range Dri_c is obtained by substituting the difference d_yi between the pixels of the extraction block into the above equation (71). Therefore, the relationship of the following equation (72) is satisfied for each pixel.
[0932]
Dri_c = Gfl× d_yi ... (72)
[0933]
Here, the difference d_yi is a difference in pixel value between pixels in the spatial direction Y of each pixel i (for example, the difference in pixel value between pixels adjacent to the pixel i in the upward or downward direction). Dri_c is the difference, and the dynamic range obtained when Expression (70) holds for pixel i.
[0934]
As described above, the least squares method here is a method of calculating the difference between the dynamic range Dri_c of the pixel i of the extracted block and the dynamic range Dri_r obtained by the method described with reference to FIG. The gradient G when the sum of squares Q is minimum in all pixels in the imageflIt is a method of seeking. Therefore, the sum of squares of difference Q is obtained by the following equation (73).
[0935]
[Equation 55]
[0936]
Since the sum of squared differences Q represented by the equation (73) is a quadratic function, the variable Gfl(Slope Gfl) Is a downwardly convex curve as shown in FIG.flG that minimizesflmin is the solution of the least squares method.
[0937]
The sum of squared differences Q expressed by the equation (73)flWhen differentiated by the following equation, dQ / dG expressed by the following equation (74) is obtained.flBecomes
[0938]
[Equation 56]
[0939]
Expression (74) indicates that GflIs the minimum value of the sum of squared differences Q shown in FIG.flmin, the equation when equation (74) becomes 0 is expanded to obtain the gradient G in equation (75) below.flWill be required.
[0940]
[Equation 57]
[0941]
The above equation (75) is a so-called one variable (slope Gfl) Is the normal equation.
[0942]
In this manner, the obtained gradient GflIs substituted into the above equation (69) to obtain the gradient G of the thin line.fl, The angle θ of the thin line when the horizontal direction is used as the reference axis can be obtained.
[0943]
In the above description, an example has been described in which the target pixel is a pixel on a thin line in which the angle θ when the horizontal direction is the reference axis is in the range of 45 degrees ≦ θ <135 degrees. However, for example, when the target pixel is on a thin line close to the horizontal direction where the angle θ of the thin line with respect to the reference axis with respect to the horizontal direction is 0 ° ≦ θ <45 ° or 135 ° ≦ θ <108 ° If the pixel is a pixel, the difference in pixel value between pixels adjacent to the pixel i is the difference d_xi between pixel values between pixels adjacent in the horizontal direction. When the value or the minimum value is obtained, the pixels of the dynamic range block to be extracted are also selected from a plurality of pixels existing in the horizontal direction with respect to the pixel i. Regarding the processing in this case, since the relationship between the horizontal direction and the vertical direction in the above description is merely interchanged, the description is omitted.
[0944]
Further, an angle corresponding to the inclination of the binary edge can be obtained by a similar method.
[0945]
That is, when a portion surrounded by a white line in the input image as shown in FIG. 142A is enlarged, an edge portion in the image (in FIG. 142, a character “10” drawn below a white flag drawn on a black flag). (Hereinafter, the edge portion on the image composed of the binary levels is also referred to as a binary edge in this manner.) Is actually displayed as shown in FIG. 142B. That is, in the real world, as shown in FIG. 142C, in the image, the first level (the level of the place of the flag) and the second level (the level of the character (the shaded area with a low density in FIG. 142C)) ) Is formed, and there are no other levels. On the other hand, as shown in FIG. 142B, an image captured by the
[0946]
That is, as shown in FIG. 143A, for the spatial directions X = X0, X1, and X2, the change of the pixel value in each spatial direction Y is shown in FIG. The pixel value has a predetermined minimum value up to near the boundary of the value edge (the straight line rising to the right in FIG. 143A). However, near the boundary of the binary edge, the pixel value gradually increases. Exceeds point P in the figureEIn, the pixel value becomes a predetermined maximum value. More specifically, the change in the spatial direction X = X0 is, as shown in FIG. 143B, the point P at which the pixel value becomes the minimum value.S, The pixel value gradually increases, and a point P0 at which the pixel value reaches the maximum value is reached. On the other hand, since the change in the pixel value of each pixel corresponding to the spatial direction X = X1 has a waveform shifted in the spatial direction, the pixel value gradually decreases from the minimum value of the pixel value as shown in FIG. 143B. Is shifted in the positive direction of the spatial direction Y, and increases to the maximum pixel value via the point P1 in the figure. Further, the change of the pixel value in the spatial direction Y in the spatial direction X = X2 decreases via the point P2 in the figure further shifted in the positive direction of the spatial direction Y, and changes from the maximum value of the pixel value to the minimum value. Become.
[0947]
The same tendency is observed in a portion surrounded by a white line in an actual image. That is, in the portion (image of 31 pixels × 31 pixels) surrounded by the white line in the actual image of FIG. 144A, the background portion (the portion that looks black in FIG. 144A) is a pixel as shown in FIG. 144B. A large number of pixels having low values (pixel values near 90) are distributed, and the portions with little change form an image of the background region. On the other hand, the portion where the pixel value is not low in FIG. 144B, that is, the pixel whose pixel value is distributed in the vicinity of 100 to 200 is the distribution of the pixel belonging to the spatial mixed region of the character region and the background region. Although the number of pixels for each pixel value is small, it is distributed over a wide range of pixel values. Further, a large number of pixels in a character region having a high pixel value (a portion that looks white in FIG. 144A) are distributed near the pixel value indicated by 220.
[0948]
As a result, the change of the pixel value in the spatial direction Y with respect to the predetermined spatial direction X in the edge image shown in FIG. 145A is as shown in FIG. 145B.
[0949]
That is, FIG. 145B shows that the pixel values near the edge of the range surrounded by the white line in the image of FIG. 145A correspond to the spatial direction Y in each predetermined spatial direction X (X = 658, 659, 660 in the figure). 3 shows the change in the pixel value. As described above, also in the image captured by the
[0950]
Therefore, in order to obtain the continuity information of the image of the real world from the image captured by the
[0951]
Here, since the inclination indicating the direction of the edge is a ratio of a change in the spatial direction Y (change in distance) to a unit distance in the spatial direction X, in the case shown in FIG. The distance in the spatial direction Y relative to the distance of one pixel to X is the slope.
[0952]
As shown in FIG. 147B, the change of the pixel value in each of the spatial directions X0 to X2 in the spatial direction Y is such that a similar waveform is repeated at a predetermined interval in each spatial direction X. As described above, in the image captured by the
[0953]
Incidentally, this relationship is based on the inclination G of the thin line described above with reference to FIGS.flIs the same as Therefore, the same holds true for the relational expression. That is, the relational expression in the case of the binary edge is as shown in FIG. 148, and the pixel value of the background area is V1, the pixel value of the character area is V2, and the minimum value and the maximum value are respectively. Further, the mixture ratio of the pixels near the edge is α, and the gradient of the edge is G.feThen, the relational expression to be satisfied is similar to the above-described expressions (69) to (71) (however, GflIs GfeIs replaced by.)
[0954]
Therefore, the data
[0955]
Next, the process of detecting data continuity will be described with reference to the flowchart in FIG.
[0956]
In step S701, the horizontal /
[0957]
In step S702, the horizontal /
[0958]
Here, the process of extracting data will be described with reference to the flowchart of FIG.
[0959]
In step S711, the horizontal /
[0960]
On the other hand, when the difference (hdiff−vdiff) <0, the horizontal /
[0961]
That is, the fact that the inclination of the thin line or the binary edge is close to the vertical direction means that, for example, as shown in FIG. 131A, the part where the arrow in the figure intersects the thin line increases. An extraction block with a larger number of pixels in the vertical direction is set (a vertically long extraction block is set). Similarly, even when the inclination of the thin line is close to the horizontal direction, an extraction block with a larger number of pixels in the horizontal direction is set (a horizontally long extraction block is set). By doing so, accurate calculation of the maximum value and the minimum value can be performed without increasing an unnecessary calculation amount.
[0962]
In step S712, the
[0963]
In step S713, the
[0964]
That is, by this data extraction processing, information on the pixels necessary for the calculation of the normal equation is stored in the
[0965]
Here, the description returns to the flowchart of FIG.
[0966]
In step S703, the
[0967]
Here, the process of adding to the normal equation will be described with reference to the flowchart of FIG.
[0968]
In step S721, the
[0969]
In step S722, the
[0970]
In step S724, the
[0971]
Here, the description returns to the flowchart of FIG.
[0972]
In step S704, the
[0973]
If it is determined in step S704 that the difference between the pixel values of all the pixels in the extracted block has been added, in step S705, the
[0974]
In step S706, the stationary
[0975]
In step S707, the
[0976]
If it is determined in step S707 that the processing has been performed on all the pixels of the input image, in step S709, the
[0977]
If it is determined in step S709 that there is no next input image, the process ends.
[0978]
Through the above processing, the angle of the thin line or the binary edge is detected and output as the continuity information.
[0979]
As described above, the angle of the thin line or the edge of the edge obtained by the statistical processing substantially matches the angle of the thin line or the binary edge obtained by using the correlation. That is, as for the image in the range surrounded by the white line of the image as shown in FIG. 152A, the change in the inclination in the spatial direction Y on the predetermined horizontal coordinate on the fine line has a correlation as shown in FIG. 152B. The angle indicating the inclination of the thin line obtained by the used method (black circle in the figure) and the angle of the thin line obtained by statistical processing by the data
[0980]
Similarly, for the image in the range surrounded by the white line of the image as shown in FIG. 153A, the change in the inclination in the spatial direction Y on the predetermined horizontal coordinate on the binary edge is as shown in FIG. 153B. The angle indicating the inclination of the binary edge obtained by the method using the correlation (the black circle in the figure) and the angle of the binary edge obtained by the statistical processing by the data
[0981]
As a result, the data
[0982]
Further, in the above description, an example has been described in which the data
[0983]
Further, in the above, in the equation (75), the dynamic range Dri_r has been calculated as required for each pixel of the extraction block. However, this dynamic range is obtained by setting the dynamic range block sufficiently large, that is, By setting many pixels of interest using many pixels around them, the maximum and minimum pixel values of the pixels in the image should always be selected. Therefore, the dynamic range Dri_r is not calculated for each pixel of the extracted block, but is calculated as a fixed value of the dynamic range obtained from the maximum value and the minimum value of the pixel in the extracted block or in the image data. Good.
[0984]
That is, as shown in the following equation (76), by adding only the difference between pixel values between pixels, the angle θ (inclination Gf) May be obtained. As described above, by fixing the dynamic range, the arithmetic processing can be further simplified, and the processing can be performed at high speed.
[0985]
[Equation 58]
[0986]
Next, with reference to FIG. 154, the data
[0987]
In the data
[0988]
The data
[0989]
The
[0990]
The adding
[0991]
The
[0992]
The adding
[0993]
The mixture
[0994]
Next, a method for deriving the mixture ratio will be described.
[0995]
As shown in FIG. 155A, when a thin line exists on the image, the image captured by the
[0996]
PS= Α × B + (1−α) × L (77)
[0997]
Here, α is the mixture ratio, and more specifically, indicates the ratio of the area occupied by the background region in the pixel of interest. Therefore, it can be said that (1−α) indicates the ratio of the area occupied by the thin line region. Note that the pixels in the background area can also be considered as background object components because they can be considered as components of objects existing in the background. Also, the pixels in the thin line region are considered to be components of the foreground object with respect to the background object, and thus can be said to be the foreground object components.
[0998]
As a result, the mixture ratio α can be expressed by the following expression (78) by expanding expression (77).
[0999]
α = (PS−L) / (B−L) (78)
[1000]
Further, in this case, the pixel value is assumed to exist at a position that straddles the region of the first pixel value (pixel value B) and the region of the second pixel value (pixel value L). The pixel value L can be replaced with the maximum pixel value Max, and the pixel value B can be replaced with the minimum pixel value. Therefore, the mixture ratio α can also be expressed by the following equation (79).
[1001]
α = (PS−Max) / (Min−Max) (79)
[1002]
As a result, the mixture ratio α is determined from the difference between the dynamic range of the dynamic range block (corresponding to (Min−Max)) for the target pixel and the maximum value of the target pixel and the pixels in the dynamic range block. However, in order to further improve the accuracy, here, the mixture ratio α is statistically obtained by the least square method.
[1003]
That is, the above equation (79) is expanded to the following equation (80).
[1004]
(PS−Max) = α × (Min−Max) (80)
[1005]
This equation (80) is a one-variable least squares equation similar to the above equation (71). That is, in the equation (71), the gradient GfIs obtained, but here, the mixture ratio α is obtained. Therefore, the mixture ratio α is statistically obtained by solving the normal equation represented by the following equation (81).
[1006]
[Equation 59]
[1007]
Here, i identifies each pixel of the extracted block. Therefore, in equation (81), the number of pixels in the extracted block is n.
[1008]
Next, a process of detecting data continuity when the mixture ratio is set to data continuity will be described with reference to the flowchart in FIG.
[1009]
In step S731, the horizontal /
[1010]
In step S732, the horizontal /
[1011]
In step S733, the
[1012]
Here, the process of adding to the normal equation will be described with reference to the flowchart in FIG.
[1013]
In step S751, the
[1014]
In step S752, the
[1015]
In step S753, the adding
[1016]
In step S754, the
[1017]
In step S755, the adding
[1018]
As described above, the
[1019]
Here, the description returns to the flowchart of FIG.
[1020]
In step S734, the
[1021]
If it is determined in step S734 that the addition has been completed for all the pixels of the extraction block, in step S735, the
[1022]
In step S736, the mixture
[1023]
In step S737, the
[1024]
That is, the processes of steps S732 to S738 are repeated until the pixel to be processed in the input image is changed and the mixture ratio is calculated for all the pixels of the input image. The change of the pixel by the counter U may be, for example, a raster scan or the like, or may change sequentially according to other rules.
[1025]
If it is determined in step S737 that the processing has been performed on all the pixels of the input image, in step S739, the
[1026]
If it is determined in step S739 that there is no next input image, the process ends.
[1027]
Through the above processing, the mixture ratio of each pixel is detected and output as continuity information.
[1028]
By the above-described method, for example, for a thin line image within a white line in the image shown in FIG. 158A, a change in the mixture ratio in a predetermined spatial direction X (= 561, 562, 563) is shown in FIG. 158B. I have. As shown in FIG. 158B, the change in the mixing ratio in the spatial direction Y that is continuous in the horizontal direction is such that when the spatial direction X = 563, the mixing ratio rises around the spatial direction Y = 660 and nears Y = 685. , And decreases to Y = 710. When the spatial direction X = 562, the mixture ratio rises near the spatial direction Y = 680, reaches a peak near Y = 705, and decreases to Y = 735. Further, when the spatial direction X = 561, the mixture ratio rises near the spatial direction Y = 705, reaches a peak near Y = 725, and decreases to Y = 755.
[1029]
Thus, as shown in FIG. 158B, the change of each mixing ratio in the continuous spatial direction X is the same as the change of the pixel value changing by the mixing ratio (the change of the pixel value shown in FIG. 133B). It can be seen that the mixture ratio of the pixels near the fine line is accurately represented because they are periodically continuous.
[1030]
Similarly, for the image of the binary edge within the white line in the image shown in FIG. 159A, the change in the mixture ratio in the predetermined spatial direction X (= 658, 659, 660) is shown in FIG. 159B. ing. As shown in FIG. 159B, the change in the mixture ratio in the spatial direction Y that is continuous in the horizontal direction is such that when the spatial direction X = 660, the mixture ratio rises near the spatial direction Y = 750 and nears Y = 765. And peaks. When the spatial direction X = 659, the mixture ratio rises near the spatial direction Y = 760 and reaches a peak near Y = 775. Further, when the spatial direction X = 658, the mixture ratio rises near the spatial direction Y = 770 and peaks near Y = 785.
[1031]
Thus, as shown in FIG. 159B, the change in the mixture ratio of the binary edge is almost the same as the change similar to the change in the pixel value (the change in the pixel value shown in FIG. 145B) that changes according to the mixture ratio. It can be seen that the mixture ratio of the pixel values near the binary edge is accurately represented because they are periodically continuous.
[1032]
According to the above, the mixture ratio of each pixel can be statistically obtained as data continuity information by the least square method. Further, it is possible to directly generate the pixel value of each pixel based on the mixture ratio.
[1033]
Further, when the change in the mixture ratio has a stationarity, and when the change in the mixture ratio is approximated by a linear one, a relationship represented by the following equation (82) is established.
[1034]
α = m × y + n (82)
[1035]
Here, m indicates the slope when the mixture ratio α changes with respect to the spatial direction Y, and n corresponds to the intercept when the mixture ratio α changes linearly.
[1036]
That is, as shown in FIG. 160, the straight line indicating the mixture ratio is a straight line indicating the boundary between the pixel value B corresponding to the level of the background area and the level L corresponding to the level of the thin line. The amount of change in the mixture ratio when the unit distance has advanced for Y is the slope m.
[1037]
Therefore, the following equation (83) is derived by substituting equation (82) into equation (77).
[1038]
M = (m * y + n) * B + (1- (m * y + n)) * L (83)
[1039]
Further, when this equation (83) is expanded, the following equation (84) is derived.
[1040]
M−L = (y × B−y × L) × m + (B−L) × n (84)
[1041]
In the equation (84), m in the first term indicates a spatial gradient of the mixture ratio, and the second term indicates an intercept of the mixture ratio. Therefore, it is also possible to generate and obtain a normal equation using m and n in the above equation (84) using the least square method of two variables.
[1042]
However, the inclination m of the mixture ratio α is the inclination of the thin line or the binary edge (the inclination G described above).f) Itself, the gradient G of the thin line or the binary edge is determined in advance using the method described above.fThen, by using the slope and substituting it into equation (84), it becomes a function of one variable for the term of the intercept, and is obtained by the least square method of one variable in the same manner as described above. Is also good.
[1043]
In the above example, the data
[1044]
More specifically, as shown in FIG. 161A, when the object is moving upward in the space direction Y in the space direction Y as time progresses, a portion corresponding to a thin line in the diagram (a portion corresponding to FIG. 131A). In the comparison, the locus of the movement of the object appears. Accordingly, in FIG. 161A, the inclination of the thin line in the time direction T indicates the direction in which the object moves (the angle indicating the movement of the object) (equivalent to the direction of the motion vector). Therefore, in the real world, in a frame at a predetermined time indicated by an arrow in FIG. 161A, a portion that becomes the trajectory of the object becomes the (color) level of the object as shown in FIG. , A pulse-like waveform having a background level.
[1045]
Thus, when the moving object is imaged by the
[1046]
Similarly, as shown in FIG. 163A, when the object moves in the spatial direction Y for each frame direction T, as shown in FIG. 163B, the space on the frame corresponding to the predetermined time T1 In the direction Y, each pixel value is obtained corresponding to the movement of the object. At this time, for example, as shown in FIG. 163C, the pixel value of the pixel surrounded by the solid black line in FIG. 163B is obtained by mixing the background level and the object level in the frame direction in accordance with the motion of the object. The pixel values are mixed at the ratio β.
[1047]
This relationship is similar to the relationship described with reference to FIGS. 155A, 155B, and 155C.
[1048]
Further, as shown in FIG. 164, the level O of the object and the level B of the background can be linearly approximated by a mixture ratio β in the frame direction (time direction). This relationship is similar to the linear approximation of the mixture ratio in the spatial direction described with reference to FIG.
[1049]
Therefore, the mixing ratio β in the time (frame) direction can be obtained as the data continuity information by the same method as the mixing ratio α in the spatial direction.
[1050]
Further, either one of the frame direction and the spatial direction may be selected to determine the steadiness angle or the direction of the motion vector. Similarly, the mixture ratios α and β may be selectively determined. May be requested.
[1051]
According to the above, a real-world optical signal is projected, an area corresponding to a target pixel in image data in which a part of the continuity of the real-world optical signal is missing is selected, and a missing area in the selected area is selected. A feature for detecting an angle with respect to a reference axis of continuity of image data corresponding to continuity of an optical signal in the real world is detected, and an angle is statistically detected based on the detected feature. Since the optical signal is estimated by estimating the stationarity of the missing optical signal in the real world based on the angle with respect to the reference axis of the stationarity, the angle of stationarity (the direction of the motion vector) or ( It is possible to determine the mixing ratio (spatiotemporal).
[1052]
Next, with reference to FIG. 165, the data continuity
[1053]
The
[1054]
The real
[1055]
The
[1056]
The comparing
[1057]
Next, with reference to the flowchart of FIG. 166, a description will be given of the processing of the continuity detection by the data
[1058]
In step S801, the
[1059]
In step S803, the real-
[1060]
[Equation 60]
[1061]
Here, wi is a coefficient of a polynomial, and the real
[1062]
[Equation 61]
[1063]
That is, the above equation (86) is obtained by calculating the shift width caused by the one-dimensional approximation function f (x) described in the equation (85) moving parallel to the spatial direction Y by the shift amount α (= − dy / Gf: Dy describes a two-dimensional function f (x, y) obtained by expressing it in the spatial direction Y).
[1064]
Therefore, the real
[1065]
Here, the description returns to the flowchart of FIG.
[1066]
In step S804, the
[1067]
(Equation 62)
[1068]
Where SSShows the integration result in the spatial direction shown in FIG. As shown in FIG. 167, the integration range is x in the spatial direction X.mOr xm + BAnd for the spatial direction Y, ymOr ym + AIt is. In FIG. 167, each square (square) indicates one pixel, and is 1 in both spatial directions X and Y.
[1069]
Accordingly, as shown in FIG. 168, the
[1070]
[Equation 63]
[1071]
That is, by this processing, the
[1072]
In step S805, the
[1073]
In step S806, the
[1074]
If it is determined in step S806 that the error is equal to or less than the predetermined threshold, in step S807, the comparing
[1075]
On the other hand, when it is determined in step S806 that the error is not less than the predetermined threshold, in step S808, the
[1076]
In step S809, the comparing
[1077]
In step S809, for all the pixels, the pixel value obtained by the reintegration is compared with the input pixel value, and when it is determined that the determination processing as to whether or not the pixel is in the processing area is completed, in step S810, The comparing
[1078]
According to the above processing, the pixel value obtained by the integration result of the range corresponding to each pixel using the approximation function f (x) calculated based on the continuity information, and the pixel value in the actual input image Is evaluated for each region (for each pixel) based on the error of the approximation function, and a region having a small error, that is, a pixel value obtained by integration based on the approximation function is calculated as follows. Only areas where pixels are likely to exist are treated as processing areas, and other areas are treated as non-processing areas, so that processing based on spatial continuity information can be performed only on areas that are likely to be necessary. Processing can be executed only, so that the processing speed can be improved, and the processing can be executed only in a certain area, so that image quality deterioration due to this processing can be suppressed. It is possible.
[1079]
Next, with reference to FIG. 169, another embodiment of the data continuity
[1080]
The
[1081]
The real
[1082]
The
[1083]
The comparing
[1084]
Next, with reference to the flowchart of FIG. 170, the processing of the continuity detection by the data
[1085]
In step S821, the
[1086]
In step S823, the real
[1087]
[Equation 64]
[1088]
Here, wi is a coefficient of a polynomial, and the real
[1089]
[Equation 65]
[1090]
That is, the above equation (90) is obtained by calculating the shift width caused by the one-dimensional approximation function f (t) described in the equation (89) being translated in the spatial direction Y, by the shift amount αt (= − dy). / Vf: Dy describes a two-dimensional function f (t, y) obtained by expressing it in the spatial direction Y).
[1091]
Therefore, the real
[1092]
Here, the description returns to the flowchart of FIG.
[1093]
In step S824, the
[1094]
[Equation 66]
[1095]
Where StShows the integration result in the frame direction shown in FIG. Further, as shown in FIG. 171, the integration range is T in the frame direction T.mOr Tm + BAnd for the spatial direction Y, ymOr ym + AIt is. In FIG. 171, each square (square) indicates one pixel, and both the frame direction T and the spatial direction Y are one. Here, “1” in the frame direction T means that the shutter time for one frame is “1”.
[1096]
Therefore, as shown in FIG. 172, the
[1097]
[Equation 67]
[1098]
That is, by this processing, the
[1099]
In step S825, the
[1100]
In step S826, the comparing
[1101]
If it is determined in step S826 that the error is equal to or less than the predetermined threshold, in step S827, the comparing
[1102]
On the other hand, when it is determined in step S826 that the error is not smaller than or equal to the predetermined threshold, in step S828, the comparing
[1103]
In step S829, the comparing
[1104]
In step S829, for all the pixels, the pixel value obtained by the reintegration is compared with the input pixel value, and when it is determined that the determination processing as to whether or not the pixel is the processing area is completed, in step S830, The comparing
[1105]
According to the above processing, the pixel value obtained by the integration result of the range corresponding to each pixel using the approximate function f (t) calculated based on the continuity information, and the pixel value in the actual input image And the likelihood of the approximation function expression is evaluated for each region (for each pixel) based on the error of the approximation function. Only the region where there is a certain pixel is regarded as the processing region, and the other region is regarded as the non-processing region, so that it is possible to perform processing based on the continuity information in the frame direction only for the certain region. Can be executed only, the processing speed can be improved, and the processing can be executed only in a certain area, so that the image quality deterioration due to this processing is suppressed. It becomes possible.
[1106]
By combining the configurations of the data continuity
[1107]
According to the above, a real-world optical signal is projected by a plurality of detection elements of a sensor, each having a spatio-temporal integration effect, and a part of the continuity of the real-world optical signal is lacking, and is projected by a detection element. Detecting the continuity of data in the image data composed of a plurality of pixels having pixel values, and corresponding to the detected continuity, the pixel of each pixel corresponding to at least one-dimensional position in the spatiotemporal direction of the image data A function corresponding to a real-world optical signal is estimated by approximating a function corresponding to a real-world optical signal assuming that the value is a pixel value obtained by at least a one-dimensional direction integration effect. A difference value between a pixel value obtained by integrating at least a unit corresponding to each pixel in the one-dimensional direction and a pixel value of each pixel is detected, and a function is selectively output according to the difference value. Therefore, it is possible to set only a region where a pixel having a pixel value obtained by integration based on an approximation function is likely to be a processing region and a region other than that as a non-processing region, Only the necessary processing can be executed based on the continuity information in the frame direction, and only the necessary processing can be executed, so that the processing speed can be improved and the processing is executed only in a certain area. Therefore, it is possible to suppress image quality deterioration due to this processing.
[1108]
Next, with reference to FIG. 173, a description will be given of the
[1109]
The simplified
[1110]
The
[1111]
More specifically, when the determining
[1112]
The regression
[1113]
The gradient
[1114]
Next, the configuration of the simplified
[1115]
Next, the configuration of the regression
[1116]
Here, the regression
[1117]
Next, the configuration of the gradient
[1118]
Next, the process of detecting data continuity will be described with reference to the flowchart in FIG.
[1119]
In step S901, the simple
[1120]
In step S902, the
[1121]
If it is determined in step S902 that the data continuity angle is the horizontal direction or the vertical direction, the process proceeds to step S903.
[1122]
In step S903, the
[1123]
In step S904, the regression equation
[1124]
In step S905, the
[1125]
On the other hand, if it is determined in step S902 that the direction of data continuity is not the horizontal direction or the vertical direction, the process proceeds to step S906.
[1126]
In step S906, the
[1127]
In step S907, the gradient-type
[1128]
That is, when the continuity angle of the data detected by the simplified
[1129]
In addition, when the continuity angle of the data detected by the simple-type
[1130]
The regression equation
[1131]
On the other hand, as the angle of data continuity becomes closer to the horizontal direction or the vertical direction, the gradient
[1132]
On the other hand, when the continuity angle of the data is close to 45 degrees or 135 degrees, the distance between pixels having the maximum value and the minimum value in the dynamic range block becomes short. Therefore, the number of pixels having the same inclination (gradient indicating a change in the pixel value) in the extraction block is reduced, and the accuracy of the data continuity angle is reduced by the statistical processing.
[1133]
On the other hand, when the continuity angle of the data is around 45 degrees or around 135 degrees, the regression
[1134]
As a result, based on the angle detected by the simplified
[1135]
Next, the regression angle detection processing, which is the processing of step S904 in the flowchart of FIG. 177, will be described with reference to the flowchart of FIG. 179.
[1136]
Note that the regression equation angle detection processing performed by the regression equation
[1137]
In step S923, the
[1138]
That is, for example, when the range of the angle θ detected by the simplified
[1139]
As a more detailed example of the scope range corresponding to each angle, for example, when the continuity angle of the data detected by the simplified
[1140]
That is, as shown in FIG. 181, the pixels that are in the scope range are arranged with a certain range of width along an angle of about 50 degrees around the target pixel.
[1141]
Similarly, when the angle detected by the simple type
[1142]
Further, when the angle detected by the simple-type
[1143]
If the angle detected by the simple type
[1144]
As described above, since the pixels outside the scope are excluded from the processing target range, in the process of converting each pixel value into a frequency, which is the process of step S924, the pixels existing at positions distant from the data continuity. Can be omitted, and only pixels having a high correlation along the direction of stationarity of data to be processed are processed, so that the processing speed can be improved. In addition, the frequency can be calculated using only pixels with high correlation along the direction of the continuity of the data to be processed, so that the continuity angle of the data can be detected with higher accuracy It becomes.
[1145]
It should be noted that the pixels belonging to the scope range are not limited to the ranges shown in FIGS. 181 to 184, and various pixels existing at positions along the angle detected by the simple
[1146]
In the data
[1147]
185. FIG. 185 shows the input image input to both the regression-type
[1148]
The configuration of the data
[1149]
Next, a process of detecting data continuity by the data
[1150]
In step S942, the
[1151]
In step S946, the
[1152]
In step S948, the
[1153]
In the flowchart of FIG. 186, the processing order of steps S943 and S944 may be interchanged.
[1154]
According to the above, the real-world optical signal is projected, and in the image data in which a part of the continuity of the real-world optical signal is missing, the stationary state of the image data corresponding to the missing continuity of the real-world optical signal. The simple-type
[1155]
Next, estimation of the signal of the
[1156]
FIG. 187 is a block diagram illustrating a configuration of the real
[1157]
In the real
[1158]
The line
[1159]
The signal
[1160]
188 and 189 are diagrams illustrating a process of detecting the width of a thin line in a signal of the
[1161]
In FIGS. 188 and 189, a region surrounded by a thick line (a region formed by four squares) indicates one pixel, and a region surrounded by a dotted line indicates a thin line region formed by pixels onto which a thin line image is projected. Indicates the center of gravity of the thin line region. In FIG. 188 and FIG. 189, the oblique lines indicate the images of the fine lines incident on the
[1162]
In FIGS. 188 and 189, S indicates the inclination calculated from the position of the center of gravity of the thin line region, and D indicates the overlap of the thin line region. Here, the slope S is the distance between the centers of gravity in pixels because the thin line areas are adjacent to each other. Further, the overlap D of the thin line regions is the number of adjacent pixels in two thin line regions.
[1163]
In FIGS. 188 and 189, W indicates the width of the thin line.
[1164]
In FIG. 188, the slope S is 2, and the overlap D is 2.
[1165]
In FIG. 189, the slope S is 3, and the overlap D is 1.
[1166]
Since the distance between the center of gravity and the center of gravity in the direction in which the thin line region is adjacent and the thin line region is adjacent is one pixel, W: D = 1: S is established, and the width W of the thin line is obtained by the overlap D / slope S. be able to.
[1167]
For example, as shown in FIG. 188, when the slope S is 2 and the overlap D is 2, 2/2 is 1, so the width W of the thin line is 1. Further, for example, as shown in FIG. 189, when the slope S is 3 and the overlap D is 1, the width W of the thin line is 1/3.
[1168]
The line
[1169]
FIG. 190 is a diagram illustrating a process of estimating a signal level of a thin line in a signal of the
[1170]
In FIG. 190, a region surrounded by a thick line (a region formed by four squares) indicates one pixel, and a region surrounded by a dotted line indicates a thin line region formed by pixels onto which a thin line image is projected. In FIG. 190, E indicates the length of the thin line region in units of pixels in the thin line region, and D indicates the overlap of the thin line regions (the number of pixels adjacent to other thin line regions).
[1171]
The level of the signal of the thin line is approximated to be constant within the processing unit (the thin line area), and the level of the image other than the thin line projected on the pixel value of the pixel on which the thin line is projected is the level of the adjacent pixel. Approximate to be equal to the level for the pixel value.
[1172]
Assuming that the level of the thin line signal is C, the level of the left portion of the portion of the signal (image) projected on the thin line region where the thin line signal is projected is A, and the thin line in the diagram is Let B be the level of the part on the right side of the part where the signal is projected.
[1173]
At this time, equation (93) holds.
[1174]
Sum of pixel values in thin line region = (ED) / 2 * A + (ED) / 2 * B + D * C (93)
[1175]
Since the width of the thin line region is constant and the width of the thin line region is one pixel, the area of the thin line (the portion where the signal is projected) of the thin line region is equal to the overlap D of the thin line region. Since the width of the fine line region is one pixel, the area of the fine line region in units of pixels of the fine line region is equal to the length E of the fine line region.
[1176]
In the thin line region, the area on the left side of the thin line is (ED) / 2. In the thin line region, the area on the right side of the thin line is (ED) / 2.
[1177]
The first term on the right side of Expression (93) is a portion of a pixel value where a signal of the same level as that of a signal projected on a pixel adjacent to the left is projected, and can be expressed by Expression (94). it can.
[1178]
[Equation 68]
[1179]
In equation (94), AiIndicates the pixel value of the pixel adjacent to the left side.
[1180]
In equation (94), αiIndicates a ratio of an area where a signal having the same level as a signal projected to a pixel adjacent to the left side is projected to a pixel in a thin line region. That is, αiIndicates the proportion of the same pixel value as the pixel value of the pixel adjacent to the left, which is included in the pixel value of the pixel in the thin line region.
[1181]
i indicates the position of the pixel adjacent to the left side of the thin line region.
[1182]
For example, in FIG. 190, the pixel value A of the pixel adjacent to the left side of the thin line region included in the pixel value of the pixel in the thin line region0The ratio of the same pixel value as α0It is. In FIG. 190, the pixel value A of the pixel adjacent to the left side of the thin line region, which is included in the pixel value of the pixel in the thin line region,1The ratio of the same pixel value as α1It is. In FIG. 190, the pixel value A of the pixel adjacent to the left side of the thin line region, which is included in the pixel value of the pixel in the thin line region,2The ratio of the same pixel value as α2It is.
[1183]
The second term on the right side of Expression (93) is a portion of a pixel value where a signal of the same level as the level of the signal projected on the right adjacent pixel is projected, and can be expressed by Expression (95). it can.
[1184]
[Equation 69]
[1185]
In equation (95), BjIndicates the pixel value of the pixel adjacent to the right side.
[1186]
In equation (95), βjIndicates a ratio of an area where a signal having the same level as a signal projected to a pixel adjacent to the right side is projected to a pixel in a thin line region. That is, βjIndicates the ratio of the same pixel value as the pixel value of the pixel adjacent to the right included in the pixel value of the pixel in the thin line region.
[1187]
j indicates the position of a pixel adjacent to the right side of the thin line region.
[1188]
For example, in FIG. 190, the pixel value B of the pixel adjacent to the right side of the thin line region included in the pixel value of the pixel in the thin line region0The ratio of the same pixel value as β0It is. In FIG. 190, the pixel value B of the pixel adjacent to the right side of the thin line region included in the pixel value of the pixel in the thin line region1The ratio of the same pixel value as β1It is. In FIG. 190, the pixel value B of the pixel adjacent to the right side of the thin line region included in the pixel value of the pixel in the thin line region2The ratio of the same pixel value as β2It is.
[1189]
As described above, the signal
[1190]
The signal
[1191]
In the method of the present invention, since the waveform of the thin line is described geometrically instead of the pixel, any resolution can be used.
[1192]
Next, the process of estimating the real world corresponding to the process of step S102 will be described with reference to the flowchart in FIG.
[1193]
In step S2101, the line
[1194]
In step S2102, the signal
[1195]
As described above, the real
[1196]
As described above, the optical signal of the real world is projected, the stationarity of the data of the first image data in which a part of the stationarity of the optical signal of the real world is missing is detected, and the stationarity of the data is detected. Based on a model representing the waveform of the optical signal in the real world, the waveform of the optical signal in the real world is estimated from the continuity of the first image data, and the estimated optical signal is converted into the second image data. In this case, a more accurate and more accurate processing result can be obtained for the optical signal in the real world.
[1197]
FIG. 192 is a block diagram illustrating another configuration of the real
[1198]
In the real
[1199]
The data continuity information supplied from the data
[1200]
The data continuity information input to the real
[1201]
The
[1202]
FIG. 193 is a block diagram illustrating a configuration of the
[1203]
The distribution
[1204]
The distribution
[1205]
The distribution
[1206]
The processing of calculating the distribution ratio in the distribution
[1207]
The numerical values in the two columns on the left side of FIG. 194 are obtained by subtracting the approximate values approximated by the plane indicated by the slope and the intercept included in the steady component information from the pixel values of the input image. The pixel values of two columns of pixels are shown vertically. Two regions surrounded by a square on the left side of FIG. 194 indicate a monotone increase / decrease region 2141-1 and a monotone increase / decrease region 2141-2 which are two adjacent monotone increase / decrease regions. That is, the numerical values shown in the monotone increase / decrease area 2141-1 and the monotone increase / decrease area 2141-2 indicate the pixel values of the pixels belonging to the monotone increase / decrease area which is the continuity area detected by the data
[1208]
The numerical value in one column on the right side of FIG. 194 indicates a value obtained by adding the pixel values of the pixels arranged horizontally among the pixel values of the two columns on the left side in FIG. 194. That is, the numerical value of one column on the right side of FIG. 194 is a monotone increasing / decreasing area composed of one column of pixels vertically, and a thin line image is projected for two horizontally adjacent pixels for two adjacent pixels. Indicates a value obtained by adding pixel values.
[1209]
For example, when each pixel is composed of pixels in one column vertically and belongs to one of the adjacent monotone increase / decrease regions 2141-1 and 2141-2, and the pixel values of the horizontally adjacent pixels are 2 and 58, , Is 60. Each pixel is composed of pixels in one column vertically, belongs to either the monotone increasing / decreasing area 2141-1 or the monotonous increasing / decreasing area 2141-2 adjacent thereto, and when the pixel values of the horizontally adjacent pixels are 1 and 65, the addition is performed. The value obtained is 66.
[1210]
The numerical value in one column on the right side of FIG. 194, that is, the value obtained by adding the pixel values projected from the thin line image to the pixels that are composed of pixels in one column vertically and horizontally adjacent to two adjacent monotone increasing / decreasing areas. Is almost constant.
[1211]
Similarly, the value obtained by adding the pixel values of the thin line image projected to the vertically adjacent pixels of two adjacent monotone increasing / decreasing areas, which are composed of one row of pixels, is substantially constant.
[1212]
The distribution
[1213]
As shown in FIG. 195, the distribution
[1214]
For example, as shown in FIG. 195, when the pixel value of a horizontally adjacent pixel belonging to two adjacent ones is a monotone increasing / decreasing area composed of one column of pixels vertically, and is 2 and 58, respectively. Since the sum is 60, distribution ratios of 3.5 and 95.0 are calculated for each pixel. When the pixel values of horizontally adjacent pixels belonging to two adjacent ones belonging to two adjacent ones are 1 and 65, respectively, since the added value is 65, the added value is 65. For pixels, distribution ratios of 1.5 and 98.5 are calculated.
[1215]
In this case, when three monotonous increase / decrease regions are adjacent to each other, from which column the calculation is performed, as shown in FIG. 196, the pixel value on which the image of the thin line is projected is added for each horizontally adjacent pixel. The distribution ratio is calculated based on the value closer to the pixel value of the vertex P among the two values.
[1216]
For example, when the pixel value of the vertex P is 81 and the pixel value of the pixel belonging to the monotone increasing / decreasing area of interest is 79, the pixel value of the pixel adjacent to the left is 3 and the pixel value of the pixel adjacent to the right is When the pixel value is −1, the value obtained by adding the pixel values of the adjacent pixels on the left side is 82, and the value obtained by adding the pixel values of the adjacent pixels on the right side is 78. Is selected, and the distribution ratio is calculated based on the pixels adjacent to the left side. Similarly, when the pixel value of the vertex P is 81 and the pixel value of the pixel belonging to the monotonous increase / decrease region of interest is 75, the pixel value of the pixel adjacent to the left is 0, and the pixel adjacent to the right is Is 3, the value obtained by adding the pixel values of the pixels adjacent to the left side is 75, and the value obtained by adding the pixel values of the pixels adjacent to the right side is 78, so the
[1217]
As described above, the distribution
[1218]
The distribution
[1219]
The regression
[1220]
With reference to FIG. 197 and FIG. 198, a process of calculating the regression line indicating the boundary of the monotonous increase / decrease region in the regression
[1221]
In FIG. 197, white circles indicate pixels located on the upper boundary of the monotone increase / decrease regions 2141-1 to 2141-5. The regression
[1222]
In FIG. 197, black circles indicate pixels located at lower boundaries of the monotone increase / decrease regions 2141-1 to 2141-5. The regression
[1223]
The regression
[1224]
As shown in FIG. 198, the regression
[1225]
As shown in FIG. 198, the regression
[1226]
As described above, the regression
[1227]
As described above, the
[1228]
The line
[1229]
The processing of signal
[1230]
FIG. 199 is a flowchart illustrating the process of estimating the real world by the real
[1231]
In step S2121, the
[1232]
The processing in steps S2122 and S2123 is the same as the processing in steps S2101 and S2102, and a description thereof will be omitted.
[1233]
FIG. 200 is a flowchart illustrating a process of detecting a boundary corresponding to the process of step S2121.
[1234]
In step S <b> 2131, the distribution
[1235]
The distribution ratio calculation
[1236]
In step S2132, the regression
[1237]
The regression
[1238]
As described above, the real
[1239]
As described above, the discontinuity of the pixel values of the plurality of pixels is detected and detected in the first image data in which the real-world optical signal is projected and part of the continuity of the real-world optical signal is missing. From the detected discontinuity, a stationary region having data continuity is detected, the region is detected again based on the pixel value of a pixel belonging to the detected stationary region, and the real world is detected again based on the detected region. Is estimated, a more accurate and more accurate processing result can be obtained for a real-world event.
[1240]
Next, with reference to FIG. 201, the real
[1241]
The reference
[1242]
The approximate function estimating
[1243]
Based on the approximation function input from the approximation
[1244]
Next, the processing of the real world estimation by the real
[1245]
In step S <b> 2201, the reference
[1246]
In step S2202, the reference
[1247]
In step S2203, the reference
[1248]
In step S2204, the reference
[1249]
In step S2205, the reference
[1250]
That is, the reference
[1251]
Conversely, if it is determined that the pixel is in the horizontal direction, the pixel is long in the horizontal direction so that the total of 15 pixels is 1 pixel in the vertical (up / down) direction and 2 pixels in the horizontal (left / right) direction with respect to the target pixel. The pixels in the range are extracted as reference pixels and output to the approximate function estimating
[1252]
In step S2206, the approximate function estimating
[1253]
That is, the approximation function f (x) is a polynomial represented by the following equation (96).
[1254]
[Equation 70]
[1255]
Thus, each coefficient W of the polynomial of equation (96)1Or Wn + 1Is obtained, an approximate function f (x) that approximates the real world is obtained. However, since more reference pixel values are required than the number of coefficients, for example, in the case where the reference pixels are as shown in FIG. 203, there are a total of 15 pixels, so that only up to 15 coefficients of the polynomial are determined. I can't. Therefore, in this case, the polynomial is a polynomial up to the 14th order, and the coefficient W1Or WFifteen, An approximate function is estimated. In this case, an approximate function f (x) composed of a 15th-order polynomial may be set as a simultaneous equation.
[1256]
Therefore, when using the fifteen reference pixel values shown in FIG. 203, the approximate
[1257]
[1258]
The number of reference pixels may be changed according to the degree of the polynomial.
[1259]
Here, Cx (ty) is the shift amount, and the slope of the stationarity is GfWhere Cx (ty) = ty / GfIs defined by This shift amount Cx (ty) is obtained by calculating the approximate function f (x) defined on the position in the spatial direction Y = 0 by the gradient Gf, The deviation width with respect to the spatial direction X at the position of the spatial direction Y = ty, assuming that they are continuous (having a continuity). Therefore, for example, when the approximation function is defined as f (x) on the position in the spatial direction Y = 0, the approximation function f (x) has the gradient G in the spatial direction Y = ty.fShould be shifted by Cx (ty) in the spatial direction X along f (x−ty / G / f).f)).
[1260]
In step S2207, the
[1261]
That is, when generating pixels so that the density is twice as high in the horizontal direction and the vertical direction (a total of four times the density), for example, the
[1262]
In step S2208, the
[1263]
In step S2209, the
[1264]
In step S2207, the
[1265]
In step S2208, the
[1266]
That is, when the reference pixel shown in FIG. 203 is used, the
[1267]
In step S2209, the
[1268]
In step S2211, the reference
[1269]
As described above, when pixels are generated such that the input image has a density that is four times higher in the horizontal and vertical directions, the pixels use the differential value of the approximate function of the center position of the divided pixels. In addition, since division is performed by extrapolation, information on a total of three differential values is required to generate a quadruple density pixel.
[1270]
That is, as shown in FIG. 204, four pixels P01, P02, P03, and P04 are finally formed for one pixel (in FIG. 204, the pixels P01, P02, P03, and P04 are four (The pixels P01, P02, P03, and P04 each have a length of approximately 0.5 because each pixel has a length of 1 at each pixel Pin.) In order to generate a quadruple-density pixel, first, a double-density pixel is generated in the horizontal direction or the vertical direction (in this case, the vertical direction) (see above). In the first steps S2207 and S2208), and further divides the two divided pixels in a direction (horizontal direction in this case) perpendicular to the direction of the first division (the above-described second step S2207, S2207).
[1271]
Note that, in the above example, the differential value when calculating a quadruple density pixel has been described as an example. However, when calculating a pixel with a higher density, the processing of steps S2207 to S2209 is repeated. More differential values required for calculating the pixel value may be obtained. In the above example, an example of obtaining a double-density pixel value has been described. However, since the approximate function f (x) is a continuous function, it is necessary to obtain a necessary differential value for pixel values other than the double-density. Becomes possible.
[1272]
According to the above, using the pixel values of the pixels in the vicinity of the pixel of interest, an approximation function that approximately represents the real world is obtained, and the differential value of the position at which the generation of pixels in the spatial direction is necessary is output as real world estimation information It is possible to do.
[1273]
In the real
[1274]
Therefore, next, referring to FIG. 206, only the slope on the approximate function f (x) necessary for pixel generation is directly obtained without obtaining the approximate function f (x), and is output as real world estimation information. The real
[1275]
The reference
[1276]
The
[1277]
Next, the processing of the real world estimation by the real
[1278]
In step S2221, the reference
[1279]
In step S2222, the reference
[1280]
In step S2223, the reference
[1281]
In step S2224, the reference
[1282]
In step S2225, the reference
[1283]
In other words, the reference
[1284]
Conversely, if it is determined that the pixel is in the horizontal direction, pixels in a long range in the horizontal direction are extracted as reference pixels so that a total of five pixels, two pixels in the horizontal (left / right) direction, centering on the target pixel, Output to approximation
[1285]
In step S2226, the
[1286]
Therefore, the
[1287]
In step S2227, the
[1288]
That is, assuming that there is an approximate function f (x) that approximately describes the real world, the relationship between the above-described shift amount and the pixel value of each reference pixel is as shown in FIG. Here, the pixel value of each pixel in FIG. 208 is P (0,2), P (0,1), P (0,0), P (0, −1), P (0, −2) from the top. ). As a result, the pixel value P and the shift amount Cx in the vicinity of the target pixel (0, 0) are (P, Cx) = (P (0, 2), −Cx (2)), (P (0, 1), -Cx (1)), (P (0, -1)), -Cx (-1)), (P (0, -2), -Cx (-2)), (P (0,0), 0) is obtained.
[1289]
Incidentally, the pixel value P, the shift amount Cx, and the gradient Kx (gradient on the approximation function f (x)) have a relationship represented by the following expression (98).
[1290]
P = Kx × Cx (98)
[1291]
Since the above equation (98) is a function of one variable for the variable Kx, the
[1292]
That is, the
[1293]
[Equation 71]
[1294]
Here, i is a number for identifying a set of the pixel value P of the reference pixel and the shift amount C, and is 1 to m. M is the number of reference pixels including the target pixel.
[1295]
In step S2229, the reference
[1296]
The inclination output as the real world estimation information by the above-described processing is used when extrapolating and calculating the pixel value finally obtained. Further, in the above example, the inclination at the time of calculating a pixel having a double density has been described as an example. However, when calculating a pixel having a higher density, more positions required for calculating a pixel value are required. May be obtained.
[1297]
For example, as shown in FIG. 204, when pixels having a density twice as high in the horizontal direction and a total of four times the density in the spatial direction having twice the density in the vertical direction are generated as described above, as shown in FIG. The slope Kx of the approximate function f (x) corresponding to each position of Pin, Pa, and Pb in 204 may be obtained.
[1298]
In the above example, an example of obtaining a double-density pixel value has been described. However, since the approximation function f (x) is a continuous function, a necessary gradient is also required for pixel values of pixels at positions other than the double-density. Can be obtained.
[1299]
According to the above, the slope of the approximate function of the position where the pixel needs to be generated in the spatial direction can be calculated without using the pixel value of the pixel near the target pixel to find an approximate function that approximately represents the real world. It can be generated as world estimation information and further output.
[1300]
Next, with reference to FIG. 210, a description will be given of the real
[1301]
The reference
[1302]
The approximate
[1303]
The
[1304]
Next, the processing of the real world estimation by the real
[1305]
In step S <b> 2241, the reference
[1306]
In step S2242, the reference
[1307]
In step S2243, the reference
[1308]
In step S2244, the reference
[1309]
In step S2245, the reference
[1310]
That is, the reference
[1311]
Conversely, when it is determined that the frame direction is the frame direction, a total of 15 pixels for 1 frame in the space (vertical direction in the figure) × 2 frames in the frame (left and right directions in the figure) centering on the target pixel. As described above, pixels in a long range in the frame direction are extracted as reference pixels, and output to the approximate
[1312]
In step S2246, the approximate
[1313]
That is, the approximation function f (t) is a polynomial as shown in the following equation (100).
[1314]
[Equation 72]
[1315]
Thus, each coefficient W of the polynomial of equation (100)1Or Wn + 1Is obtained, an approximate function f (t) in the frame direction that approximates the real world is obtained. However, since more reference pixel values are required than the number of coefficients, for example, in the case where the reference pixels are as shown in FIG. I can't. Therefore, in this case, the polynomial is a polynomial up to the 14th order, and the coefficient W1Or WFifteen, An approximate function is estimated. In this case, an approximate function f (x) composed of a 15th-order polynomial may be set as a simultaneous equation.
[1316]
Therefore, when using the fifteen reference pixel values shown in FIG. 212, the approximate
[1317]
[1318]
The number of reference pixels may be changed according to the degree of the polynomial.
[1319]
Here, Ct (ty) is a shift amount, which is similar to the above-mentioned Cx (ty), and the slope of the stationarity is VfWhere Ct (ty) = ty / VfIs defined by This shift amount Ct (ty) is obtained by calculating the approximate function f (t) defined on the position in the spatial direction Y = 0 by using the slope VfIndicates a shift width with respect to the frame direction T at the position of the spatial direction Y = ty, assuming that the position is continuous (has a continuity) along the frame. Therefore, for example, when the approximation function is defined as f (t) on the position of the space direction Y = 0, the approximation function f (t) is expressed in the frame direction (time direction) in the space direction Y = ty. The function should be f (t−Ct (ty)) (= f (t−ty / V) because T should be shifted by Ct (ty).f)).
[1320]
In step S2247, the
[1321]
That is, when generating pixels so as to have twice the density in each of the frame direction and the spatial direction (a total of four times the density), for example, the
[1322]
In step S2248, the
[1323]
In step S2249, the
[1324]
In step S2247, the
[1325]
In step S2248, the
[1326]
That is, when the reference pixel shown in FIG. 212 is used, the
[1327]
In step S2249, the
[1328]
In step S2251, the reference
[1329]
As described above, when pixels are generated such that the density of the input image is four times higher in the frame direction (time direction) and in the spatial direction, the pixel is an approximate function of the central position of the divided pixel. Since division is performed by extrapolation using differential values, information on a total of three differential values is required to generate a quadruple-density pixel.
[1330]
That is, as shown in FIG. 213, for one pixel, finally, four pixels P01t, P02t, P03t, and P04t (in FIG. 213, the pixels P01t, P02t, P03t, and P04t are four pixels in the figure). (The pixels P01t, P02t, P03t, and P04t are each approximately 0.5 because each pixel has a length of 1 on each side, and each pixel has a length of 0.5.) In order to generate a quadruple-density pixel, first, a double-density pixel is generated in the frame direction or the spatial direction (the first steps S2247 and S2248 described above). Processing), and further divides the two divided pixels in a direction (in this case, the frame direction) perpendicular to the direction in which the two pixels were first divided (the second step S22 described above). 7, the processing of S2248) is due.
[1331]
In the above example, the differential value when calculating a quadruple-density pixel has been described as an example. However, when calculating a pixel with a higher density, the processing of steps S2247 to S2249 is repeated. More differential values required for calculating the pixel value may be obtained. In the above example, an example of obtaining a double-density pixel value has been described. However, since the approximate function f (t) is a continuous function, it is necessary to obtain a necessary differential value for pixel values other than the double-density. Becomes possible.
[1332]
According to the above, it is possible to obtain an approximation function that approximately represents the real world using the pixel values of the pixels in the vicinity of the target pixel, and output the differential value of the position where the pixel needs to be generated as real world estimation information. It becomes possible.
[1333]
In the real
[1334]
Therefore, referring to FIG. 215, a real-world estimating unit that directly obtains only the inclination in the frame direction on the approximate function required for pixel generation without outputting an approximate function, and outputs it as real-
[1335]
The reference
[1336]
The
[1337]
Next, the processing of the real world estimation by the real
[1338]
In step S2261, the reference
[1339]
In step S2262, the reference
[1340]
In step S2263, the reference
[1341]
In step S2264, the reference
[1342]
In step S2265, the reference
[1343]
That is, the reference
[1344]
On the other hand, if it is determined that the pixel is in the frame direction, a long range of pixels in the horizontal direction is extracted as a reference pixel so that a total of 5 pixels including 2 pixels in the frame (left and right directions in the drawing) centering on the target pixel. Then, it outputs the result to the approximate
[1345]
In step S2266, the
[1346]
Therefore, the
[1347]
In step S2267, the
[1348]
That is, assuming that there is a function f (t) that approximately describes the real world, the relationship between the above-described shift amount and the pixel value of each reference pixel is as shown in FIG. Here, the pixel value of each pixel in FIG. 218 is P (0,2), P (0,1), P (0,0), P (0, −1), P (0, −2) from the top. ). As a result, the pixel value P and the shift amount Ct in the vicinity of the target pixel (0, 0) are (P, Ct) = (P (0, 2), −Ct (2)), (P (0, 1), −Ct (1)), (P (0, −1)), −Ct (−1)), (P (0, −2), −Ct (−2)), (P (0,0), 0) is obtained.
[1349]
By the way, the pixel value P, the shift amount Ct, and the gradient Kt (gradient on the approximation function f (t)) have a relationship represented by the following expression (102).
[1350]
P = Kt × Ct (102)
[1351]
Since the above equation (102) is a function of one variable with respect to the variable Kt, the
[1352]
That is, the
[1353]
[Equation 73]
[1354]
Here, i is a number for identifying a set of the pixel value P of the reference pixel and the shift amount Ct, and is 1 to m. M is the number of reference pixels including the target pixel.
[1355]
In step S2269, the reference
[1356]
The inclination in the frame direction output as the real world estimation information by the above-described processing is used when the pixel value finally obtained is calculated by extrapolation interpolation. Further, in the above example, the inclination at the time of calculating a pixel having a double density has been described as an example. However, when calculating a pixel having a higher density, more positions required for calculating a pixel value are required. May be obtained.
[1357]
For example, as shown in FIG. 204, when generating a pixel having a density twice as high in the horizontal direction and a total density of four times in the spatio-temporal direction having a density twice as high in the frame direction, as described above, The slope Kt of the approximate function f (t) corresponding to each position of Pin, Pat, and Pbt in FIG. 204 may be obtained.
[1358]
In the above example, an example of obtaining a double-density pixel value has been described. However, since the approximation function f (t) is a continuous function, a necessary gradient is also required for pixel values of pixels at positions other than the double-density. Can be obtained.
[1359]
Needless to say, the order of the processing for obtaining the gradient on the approximate function or the differential value with respect to the frame direction or the spatial direction does not matter. Furthermore, in the spatial direction, in the above example, the description has been made using the relationship between the spatial direction Y and the frame direction T, but the relationship between the spatial direction X and the frame direction T may be used. . Further, a slope or a differential value (in any one-dimensional direction) or a differential value may be selectively obtained from any two-dimensional relationship in the spatiotemporal direction.
[1360]
According to the above, a real-world optical signal is projected by a plurality of detection elements of a sensor, each of which has a spatio-temporal integration effect, and a part of the continuity of the real-world optical signal is lacking, and is projected by a detection element. Detects data continuity in image data consisting of a plurality of pixels having pixel values, and, corresponding to the detected continuity, corresponds to a one-dimensional position in a spatiotemporal direction with respect to a target pixel in the image data. Of the pixel values of a plurality of pixels to be estimated as a function corresponding to the optical signal of the real world, the pixel direction of the pixel in the vicinity of the pixel of interest is used to roughly represent the real world. , It is possible to generate and further output a gradient on the approximate function in the frame direction (time direction) of a position where a pixel is required to be generated as real world estimation information without obtaining the approximate function of.
[1361]
Next, another example of the embodiment of the real world estimating unit 102 (FIG. 3) will be described with reference to FIGS.
[1362]
FIG. 219 is a diagram for explaining the principle of the embodiment of this example.
[1363]
As shown in FIG. 219, a signal (distribution of light intensity) of the
[1364]
In the embodiment of this example, when the optical signal of the
[1365]
In other words, in the embodiment of this example, the real-
[1366]
Here, prior to a specific description of the function approximation method, the background that led the present applicant to invent the function approximation method will be described.
[1368]
FIG. 220 is a view for explaining the integration effect when the
[1368]
As shown in FIG. 220, a plurality of detection elements 2-1 are arranged on the plane of the
[1369]
In the example of FIG. 220, the direction parallel to a predetermined side of the detection element 2-1 is the X direction, which is one direction in the spatial direction, and the direction perpendicular to the X direction is the other direction in the spatial direction. It is a certain Y direction. The direction perpendicular to the XY plane is the t direction, which is the time direction.
[1370]
In the example of FIG. 220, the spatial shape of each detection element 2-1 of the
[1371]
Further, in the example of FIG. 220, the center of one predetermined detection element 2-1 of the
[1372]
In this case, the detection element 2-1 having its center at the origin (x = 0, y = 0) in the spatial direction is in the range of -0.5 to 0.5 in the X direction and -0.5 in the Y direction. The optical signal function F (x, y, t) is integrated in the range of 0.5 to 0.5 and in the range of -0.5 to 0.5 in the t direction, and the integrated value is output as the pixel value P. .
[1373]
That is, the pixel value P output from the detection element 2-1 having its center at the origin in the spatial direction is represented by the following equation (104).
[1374]
[Equation 74]
[1375]
Similarly, by setting the center of the target detection element 2-1 as the origin in the spatial direction, the other detection elements 2-1 output the pixel value P represented by Expression (104).
[1376]
FIG. 221 is a diagram illustrating a specific example of the integration effect of the
[1377]
In FIG. 221, the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 220).
[1378]
A
[1379]
Note that the
[1380]
A white portion in the drawing of the
[1381]
In this case, when the thin-line-containing real world region 2301 (a part of the optical signal of the real world 1) is detected by the
[1382]
Each pixel in the thin line containing
[1383]
FIG. 222 is a view for explaining another specific example of the integration effect of the sensor 2 (an example different from FIG. 221).
[1384]
In FIG. 222, the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 220).
[1385]
A part (region) 2303 of the optical signal of the
[1386]
Note that the
[1387]
The
[1388]
In this case, when the binary edge-containing real world region 2303 (a part of the optical signal of the real world 1) is detected by the
[1389]
Each of the pixel values in the binary edge-containing
[1390]
The conventional image processing apparatus uses the image data output from the
[1391]
As a result, in the conventional image processing apparatus, it is very difficult to restore the original details from the waveform (image data) in which the details in the real world are collapsed at the stage of output from the
[1392]
Therefore, in the function approximation method, in order to solve this problem, as described above (as shown in FIG. 219), the real
[1393]
Thus, at a stage subsequent to the real world estimation unit 102 (in this case, the
[1394]
Hereinafter, three specific methods (first to third function approximation methods) among such function approximation methods will be individually described with reference to the drawings.
[1395]
First, the first function approximation method will be described with reference to FIGS. 223 to 237.
[1396]
FIG. 223 is a diagram again showing the thin-line-containing
[1397]
In FIG. 223, the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 220).
[1398]
The first function approximation method projects, for example, an optical signal function F (x, y, t) corresponding to a thin-line-containing
[1399]
In the one-dimensional polynomial approximation method, the X-section waveform F (x) to be approximated is not limited to the one corresponding to the fine-line-containing
[1400]
Further, the direction of projection of the optical signal function F (x, y, t) is not limited to the X direction, but may be the Y direction or the t direction. That is, in the one-dimensional polynomial approximation method, a function F (y) obtained by projecting the optical signal function F (x, y, t) in the Y direction can be approximated by a predetermined approximation function f (y). Then, a function F (t) obtained by projecting the optical signal function F (x, y, t) in the t direction can be approximated by a predetermined approximation function f (t).
[1401]
More specifically, in the one-dimensional polynomial approximation method, for example, the X-section waveform F (x) is approximated by an approximation function f (x) that is an n-th order polynomial as shown in the following equation (105). Method.
[1402]
[Equation 75]
[1403]
That is, in the one-dimensional polynomial approximation method, the real
[1404]
This feature amount wiIs not particularly limited. For example, the following first to third methods can be used.
[1405]
That is, the first method is a method conventionally used.
[1406]
On the other hand, the second method is a method newly invented by the applicant of the present application, and is a method in which the continuity in the spatial direction is further taken into consideration with respect to the first method.
[1407]
However, as described later, the integration effect of the
[1408]
Therefore, the applicant of the present application considers the feature amount w in the second method by further considering the integration effect of the sensor 2.iInvented a third method of calculating The feature amount w calculated by the third methodiCan be said to be an approximate function of the X-section waveform F (x) in that the integration effect of the
[1409]
Thus, strictly speaking, the first method and the second method cannot be said to be the one-dimensional polynomial approximation method, and only the third method is the one-dimensional polynomial approximation method.
[1410]
In other words, as shown in FIG. 224, the second method is an embodiment of the real
[1411]
As shown in FIG. 224, in the embodiment corresponding to the second method, when the optical signal of the
[1412]
As described above, the second method does not consider the integration effect of the
[1413]
Hereinafter, details of each of the first method, the second method, and the third method will be individually described in that order.
[1414]
Hereinafter, when each of the approximation functions f (x) generated by the first method, the second method, and the third method is to be distinguished from those of the other methods, the approximation function f1(X), approximation function f2(X) and the approximate function f3(X).
[1415]
First, the details of the first method will be described.
[1416]
In the first method, the approximation function f expressed by the above equation (105) is used.1The following prediction equation (106) is defined assuming that (x) is satisfied in the thin-line-containing
[1417]
[Equation 76]
[1418]
In Expression (106), x represents a pixel position relative to the X direction from the pixel of interest. y represents the pixel position relative to the Y direction from the pixel of interest. e represents an error. Specifically, for example, as shown in FIG. 225, the target pixel is a thin line containing data area 2302 (the thin line containing real world area 2301 (FIG. 223) is detected and output by the sensor 2). Of these, it is assumed that the pixel is the second pixel in the X direction from the left and the third pixel in the Y direction from the bottom in the drawing. Also, a coordinate system (hereinafter referred to as a target pixel coordinate system) having the center of the target pixel as the origin (0, 0) and the x-axis and the y-axis parallel to the X direction and the Y direction (FIG. 220) of the
[1419]
In equation (106), P (x, y) represents a pixel value at a relative pixel position (x, y). Specifically, in this case, P (x, y) in the thin line containing
[1420]
FIG. 226 shows a graph of the pixel value P (x, y).
[1421]
In FIG. 226, the vertical axis of each graph represents a pixel value, and the horizontal axis represents a relative position x in the X direction from the pixel of interest. In the figure, the dotted line in the first graph from the top indicates the input pixel value P (x, -2), the three-dot chain line in the second graph from the top indicates the input pixel value P (x, -1), , The solid line in the third graph represents the input pixel value P (x, 0), the dashed line in the fourth graph from the top represents the input pixel value P (x, 1), and the fifth from the top (first from the bottom). 2) indicate the input pixel value P (x, 2), respectively.
[1422]
For the above equation (106), 20 input pixel values P (x, -2), P (x, -1), P (x, 0), P (x, 1) shown in FIG. , P (x, 2) (where x is an integer of any one of −1 to 2), 20 equations represented by the following equation (107) are generated. Note that ekEach (k is an integer value of any one of 1 to 20) represents an error.
[1423]
[Equation 77]
[1424]
Since the expression (107) is composed of 20 equations, the approximation function f1(X) characteristic amount wiIs less than 20, ie, the approximate function f1If (x) is a polynomial of degree less than 19, for example, the feature amount wiCan be calculated. A specific solution of the least squares method will be described later.
[1425]
For example, now the approximation function f1When the order of (x) is set to the fifth order, the approximate function f calculated by the least square method using the equation (107)1(X) (calculated feature amount wiApproximate function f generated by1(X)) becomes a curve shown in FIG.
[1426]
In FIG. 227, the vertical axis represents the pixel value, and the horizontal axis represents the relative position x from the pixel of interest.
[1427]
That is, each of the 20 pixel values P (x, y) constituting the thin line containing
[1428]
However, in FIG. 227, the dotted line indicates the input pixel value P (x, -2), the three-dot chain line indicates the input pixel value P (x, -1), the solid line indicates the input pixel value P (x, 0), An alternate long and short dash line indicates the input pixel value P (x, 1), and an alternate long and two short dash line indicates the input pixel value P (x, 2). In addition, in the case of the same pixel value, two or more lines actually overlap, but in FIG. 227, each line is drawn so as not to overlap so that each line can be distinguished.
[1429]
The 20 input pixel values P (x, -2), P (x, -1), P (x, 0), P (x, 1), and P (x, 2) distributed in this manner Each and the value f1A regression curve that minimizes the error of (x) (the feature amount w calculated by the least squares method)iInto the above equation (104)1(X)) is a curve (approximate function f) shown in FIG.1(X)).
[1430]
Thus, the approximation function f1(X) is a pixel value in the Y direction (a pixel value having the same relative position x in the X direction from the pixel of interest) P (x, -2), P (x, -1), P (x, 0), The average value of P (x, 1) and P (x, 2) merely represents a curve connecting in the X direction. That is, without considering the spatial continuity of the optical signal, the approximation function f1(X) has been generated.
[1431]
For example, in this case, the approximation target is the thin-line-containing real world region 2301 (FIG. 223). As shown in FIG. 228, the thin-line-containing
[1432]
Therefore, the data continuity detecting unit 101 (FIG. 219) calculates the gradient G of the continuity in the spatial direction.FAs data continuity information corresponding to the angle θ (inclination GFSlope G corresponding tofAnd the angle θ between the X direction and the continuity direction of the data represented by
[1433]
However, in the first method, the data continuity information output from the data
[1434]
In other words, as shown in FIG. 228, the direction of continuity in the spatial direction of the thin-line-containing
[1435]
Therefore, the approximation function f1(X) is a function in which the waveform is dull and the detail is smaller than the original pixel value. In other words, although not shown, the approximate function f generated by the first method is1(X) is a waveform significantly different from the actual X-section waveform F (x).
[1436]
Therefore, the applicant of the present application has considered the first method by further considering the continuity in the spatial direction (using the angle θ).iA second method of calculating the following is invented.
[1437]
That is, the second method assumes that the direction of the stationarity of the thin-line-containing
[1438]
Specifically, for example, a gradient G representing the stationarity of data corresponding to the stationarity in the spatial directionfIs represented by the following equation (108).
[1439]
[Equation 78]
[1440]
In Expression (108), dx represents a minute movement amount in the X direction as shown in FIG. 228, and dy represents a minute movement amount in the Y direction with respect to dx as shown in FIG. I have.
[1441]
In this case, the shift amount CxWhen (y) is defined as in the following equation (109), in the second method, an equation corresponding to equation (106) used in the first method is expressed as in the following equation (110). Become.
[1442]
[Expression 79]
[1443]
[Equation 80]
[1444]
That is, the expression (106) used in the first method indicates that the position x in the X direction of the center position (x, y) of the pixel is the pixel value P (x, y) of the pixel located at the same position. ) Indicates that they have the same value. In other words, Expression (106) indicates that pixels having the same pixel value continue in the Y direction (there is continuity in the Y direction).
[1445]
On the other hand, the expression (110) used in the second method is that the pixel value P (x, y) of the pixel whose center position is (x, y) is the target pixel (the center position). Is a pixel value (≒ f) of a pixel located at a position x away from the origin (0,0) in the X direction by x.2(X)), and the shift amount C from the pixel in the X directionxA pixel located at a position separated by (y) (x + C in the X direction from the pixel of interest)xThe pixel value (≒ f) of the pixel located at a position separated by (y)2(X + Cx(Y))). In other words, Expression (110) indicates that the pixels having the same pixel value have the shift amount Cx(Y) is continued in the angle θ direction (substantially stationary in the angle θ direction).
[1446]
Thus, the shift amount Cx(Y) is the continuity in the spatial direction (in this case, the gradient G in FIG. 228)F(Strictly speaking, the slope GfIs a correction amount that takes into account the stationarity of the data represented byxEquation (110) is obtained by correcting equation (106) by (y).
[1449]
In this case, 20 pixel values P (x, y) of the thin line containing
[1448]
(Equation 81)
[1449]
Equation (111) is composed of 20 equations, similarly to equation (107) described above. Therefore, in the second method as well as in the first method, the approximation function f2(X) characteristic amount wiIs less than 20, ie, the approximate function f2If (x) is a polynomial of degree less than 19, for example, the feature amount wiCan be calculated. A specific solution of the least squares method will be described later.
[1450]
For example, similar to the first method, the approximate function f2When the degree of (x) is set to the fifth order, in the second method, the characteristic amount w is set as follows.iIs calculated.
[1451]
That is, FIG. 229 shows a graph of the pixel value P (x, y) shown on the left side of Expression (111). Each of the five graphs shown in FIG. 229 is basically the same as that shown in FIG.
[1452]
As shown in FIG. 229, the maximum pixel value (the pixel value corresponding to the thin line) has a gradient GfThis follows the direction of data continuity represented by.
[1453]
Therefore, in the second method, the input pixel values P (x, -2), P (x, -1), P (x, 0), P (x, 1), P (x , 2) are added, for example, along the x-axis, as in the first method (they are assumed to be constant, and five graphs are superimposed in the state shown in FIG. 229). Instead, the state is changed to the state shown in FIG. 230 and then added.
[1454]
That is, FIG. 230 shows the input pixel values P (x, -2), P (x, -1), P (x, 0), P (x, 1), and P (x, 2) shown in FIG. Is calculated by the shift amount C expressed by the above-described equation (109).xThe state shifted by (y) is shown. In other words, FIG. 230 plots the five graphs shown in FIG. 229 with the slope G, which represents the actual direction of data continuity.FAs if the gradient GF(In the figure, the dotted straight line is replaced by a solid straight line).
[1455]
In the state of FIG. 230, each of the input pixel values P (x, -2), P (x, -1), P (x, 0), P (x, 1), and P (x, 2) is, for example, 231 (when five graphs are overlapped in the state shown in FIG. 230) along the x-axis, a plurality of lines parallel to the x-axis (dotted line, three-dot chain line, solid line, And a two-dot chain line).
[1456]
In FIG. 231, the vertical axis represents the pixel value, and the horizontal axis represents the relative position x from the pixel of interest. The dotted line indicates the input pixel value P (x, -2), the three-dot chain line indicates the input pixel value P (x, -1), the solid line indicates the input pixel value P (x, 0), and the one-dot chain line indicates the input pixel value. The pixel value P (x, 1) is shown, and the two-dot chain line represents the input pixel value P (x, 2). Further, in the case of the same pixel value, two or more lines actually overlap, but in FIG. 231, each line is drawn so as not to overlap so that each line can be distinguished.
[1457]
Then, each of the 20 input pixel values P (x, y) distributed in this manner (where x is any integer value from −1 to 2; y is the integer value from −2 to 2) Any integer value) and the value f2(X + Cx(Y)) a regression curve that minimizes the error (the feature amount w calculated by the least squares method)iInto the above equation (104)2(X)) is a curve f indicated by a solid line in FIG.2(X).
[1458]
Thus, the approximation function f generated by the second method2(X) indicates the average value of the input pixel values P (x, y) in the angle θ direction (ie, the direction of the continuity substantially in the spatial direction) output from the data continuity detecting unit 101 (FIG. 219) in the X direction. Represents the curve connected to.
[1458]
On the other hand, as described above, the approximate function f generated by the first method is used.1(X) merely represents a curve connecting the average value of the input pixel values P (x, y) in the Y direction (that is, a direction different from the spatial continuity) in the X direction.
[1460]
Therefore, as shown in FIG. 231, the approximation function f generated by the second method2(X) is the approximate function f generated by the first method.1The function becomes a function in which the degree of bluntness of the waveform is reduced and the degree of reduction in detail with respect to the original pixel value is reduced as compared with (x). In other words, although not shown, the approximation function f generated by the second method2(X) is an approximate function f generated by the first method.1The waveform becomes closer to the actual X-section waveform F (x) than (x).
[1461]
However, as described above, the approximation function f2(X) takes into account the continuity in the spatial direction, but is nothing but an image generated using the input image (input pixel value) as the origin (reference). That is, as shown in FIG.2(X) only approximates an input image different from the X-sectional waveform F (x), and it cannot be said that it approximates the X-sectional waveform F (x). In other words, the second method assumes that the above equation (110) holds, and the feature amount wiWhich does not take into account the relationship of the above equation (104) (the integration effect of the
[1462]
Therefore, the applicant of the present application considers the integration function of the
[1463]
That is, the third method is a method in which the concept of a space mixing region is introduced.
[1464]
Before describing the third method, the spatial mixing region will be described with reference to FIG.
[1465]
In FIG. 232, a
[1466]
When the
[1467]
The
[1468]
On the other hand, the
[1469]
As described above, the portion corresponding to one pixel (detection element of the sensor 2) of the optical signal of the
[1470]
Accordingly, in the third method, the real world estimating unit 102 (FIG. 219) calculates the
[1471]
That is, FIG. 233 shows the approximation function f corresponding to the pixel value 2322 (FIG. 232) which is a spatial mixed area.3(X), that is, an approximation function f approximating the X-section waveform F (x) corresponding to the solid line (FIG. 232) in the
[1472]
In FIG. 233, the approximate function f3(X) is xsTo xeThe following equation (112) is defined assuming that the value integrated in the range (pixel width) substantially coincides with the pixel value P (x, y) output from the sensor 2 (there is only an error e).
[1473]
(Equation 82)
[1474]
In this case, 20 pixel values P (x, y) in the fine line containing
[1475]
Also, as in the second method, it is necessary to consider the continuity in the spatial direction, and therefore, the starting position x of the integration range in Expression (112)sAnd end position xeAre shift amounts CxIt will also depend on (y). That is, the starting position x of the integration range of Expression (112)sAnd end position xeAre expressed as in the following equation (113).
[1476]
[Equation 83]
[1377]
In this case, each pixel value of the thin line containing
[1478]
[Equation 84]
[Equation 85]
[1479]
Equation (114) is composed of 20 equations, similar to equation (111) described above. Therefore, in the third method as well as in the second method, the approximate function f3(X) characteristic amount wiIs less than 20, ie, the approximate function f3If (x) is a polynomial of degree less than 19, for example, the feature amount wiCan be calculated. A specific solution of the least squares method will be described later.
[1480]
For example, the approximation function f3When the order of (x) is set to the fifth order, the approximate function f calculated by the least square method using the equation (114)3(X) (calculated feature amount wiApproximate function f generated by3(X)) becomes a curve shown by a solid line in FIG.
[1481]
In FIG. 234, the vertical axis represents a pixel value, and the horizontal axis represents a relative position x from a target pixel.
[1482]
As shown in FIG. 234, the approximate function f generated by the third method3(X) (a curve shown by a solid line in the figure) represents an approximate function f generated by the second method.2Compared with (x) (the curve shown by the dotted line in the figure), the pixel value at x = 0 becomes large, and the curve has a steep waveform. This is because the number of details is greater than that of the input pixels and is independent of the resolution of the input pixels. That is, the approximate function f3It can be said that (x) approximates the X-section waveform F (x). Therefore, although not shown, the approximation function f3(X) is the approximate function f2The waveform becomes closer to the X-section waveform F (x) than (x).
[1483]
FIG. 235 shows a configuration example of the real
[1484]
In FIG. 235, the real
[1485]
As shown in FIG. 235, the real
[1486]
The
[1487]
The input
[1488]
The input pixel
[1489]
By the way, here, the real
[1490]
[Equation 86]
[1491]
In equation (115), Si(Xs, Xe) Represents the integral component of the i-th order term. That is, the integral component Si(Xs, Xe) Is represented by the following equation (116).
[1492]
[Equation 87]
[1493]
The
[1494]
Specifically, the integral component S expressed by equation (116)i(Xs, Xe) (However, the value xsAnd the value xeIs the value represented by the above equation (112)) is the relative pixel position (x, y) and the shift amount CxIf (y) and i of the i-th term are known, calculation is possible. The relative pixel position (x, y) among them is determined by the shift amount C depending on the target pixel and the tap range.x(Y) is determined by the angle θ (from the above-described equations (107) and (109)), and the range of i is determined by the order n.
[1495]
Therefore, the integral
[1496]
The normal
[1497]
The approximation function generation unit 2336 solves the normal equation included in the normal equation table supplied from the normal
[1498]
Next, with reference to the flowchart in FIG. 236, the real world estimation processing (the processing in step S102 in FIG. 40) of the real world estimation unit 102 (FIG. 235) using the one-dimensional polynomial approximation method will be described.
[1499]
For example, it is assumed that an input image of one frame output from the
[1500]
In this case, in step S2301 of FIG. 236, the
[1501]
For example, it is assumed that the
[1502]
That is, FIG. 237 is a diagram illustrating an example of the tap range. In FIG. 237, the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 220). The
[1503]
Further, as shown in FIG. 237, it is assumed that the target pixel is the second pixel from the left and the third pixel from the bottom in the
[1504]
Returning to FIG. 236, in step S2302, the
[1505]
In step S2303, the input pixel
[1506]
In this case, the relationship between the input pixel value P (l) and the above-described input pixel value P (x, y) is represented by the following expression (117). However, in equation (117), the left side represents the input pixel value P (l), and the right side represents the input pixel value P (x, y).
[1507]
[Equation 88]
[1508]
In step S2304, the integral
[1509]
In this case, as described above, the input pixel value is obtained as the value of the
[1510]
Si(L) = Si(Xs, Xe) (118)
[1511]
Specifically, in this case, the integral component S expressed by the following equation (119)i(L) is calculated.
[1512]
[Equation 89]
[1513]
In equation (119), the left side is the integral component Si(L), and the right side is the integral component Si(Xs, Xe). That is, in this case, since i is 0 to 5, 20 S0(L), 20 S1(L), 20 S2(L), 20 S3(L), 20 S4(L), 20 S5(L) 120 S in totali(L) is calculated.
[1514]
More specifically, first, the
[1515]
The order of the processing in step S2303 and the processing in step S2304 is not limited to the example in FIG. 236, and the processing in step S2304 may be performed first, or the processing in step S2303 and the processing in step S2304 are performed simultaneously. May be done.
[1516]
Next, in step S2305, the normal
[1517]
Specifically, in this case, the characteristic amount w of the following equation (120) corresponding to the above equation (115) is obtained by the least square method.iIs calculated. Then, the corresponding normal equation is represented by the following equation (121).
[1518]
[Equation 90]
[1519]
[Equation 91]
[1520]
In Expression (121), L represents the maximum value of the
[1521]
If each of the matrices of the normal equation represented by the equation (121) is defined as in the following equations (122) to (124), the normal equation is represented as the following equation (125).
[1522]
[Equation 92]
[1523]
[Equation 93]
[1524]
[Equation 94]
[1525]
[Equation 95]
[1526]
As shown in equation (123), the matrix WMATIs a feature amount w to be obtained.iIt is. Therefore, in equation (125), the matrix S on the left sideMATAnd the matrix P on the right sideMATIs determined, the matrix W isMAT(That is, the feature amount wi) Can be calculated.
[1527]
Specifically, as shown in equation (122), the matrix SMATAre the integral components S described above.iIf (l) is known, it can be calculated. Integral component SiSince (l) is included in the integral component table supplied from the integral
[1528]
Also, as shown in equation (124), the matrix PMATAre integral components SiIf (l) and the input pixel value P (l) are known, calculation is possible. Integral component Si(L) is a matrix SMATIn addition, since the input pixel value P (l) is included in the input pixel value table supplied from the input pixel
[1529]
In this manner, the normal
[1530]
When the normal equation table is output from the normal
[1531]
Specifically, the normal equation of the above equation (125) can be modified as the following equation (126).
[1532]
[Equation 96]
[1533]
In equation (126), the matrix W on the left sideMATIs a feature value w to be obtained.iIt is. Also, the matrix SMATAnd matrix PMATAre included in the normal equation table supplied from the normal
[1534]
In step S2307, the approximate function generation unit 2336 determines whether or not processing of all pixels has been completed.
[1535]
If it is determined in step S2307 that the processing of all pixels has not been completed, the process returns to step S2302, and the subsequent processing is repeated. That is, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing of steps S2302 to S2307 is repeated.
[1536]
Then, when the processing of all the pixels is completed (when it is determined in step S2307 that the processing of all the pixels is completed), the estimation processing of the
[1537]
The coefficient (feature amount) w calculated as described aboveiThe waveform of the approximate function f (x) generated by the approximate function f (x) shown in FIG.3The waveform is as shown in (x).
[1538]
As described above, in the one-dimensional polynomial approximation method, assuming that a waveform having the same shape as the one-dimensional X-sectional waveform F (x) is connected in the direction of the stationarity, the approximation function f which is a one-dimensional polynomial is obtained. The feature amount of (x) is calculated. Therefore, in the one-dimensional polynomial approximation method, it is possible to calculate the feature amount of the approximation function f (x) with a smaller amount of operation processing compared to other function approximation methods.
[1539]
In other words, in the one-dimensional polynomial approximation method, for example, the data
[1540]
For example, the real
[1541]
More specifically, for example, the real
[1542]
Therefore, in the one-dimensional polynomial approximation method, it is possible to calculate the feature amount of the approximation function f (x) with a smaller amount of operation processing compared to other function approximation methods.
[1543]
Next, a second function approximation method will be described with reference to FIGS.
[1544]
That is, the second function approximation method is, for example, a gradient G as shown in FIG.FThe optical signal of the
[1545]
In FIG. 238, the horizontal direction indicates the X direction which is one direction in the spatial direction, the upper right direction indicates the Y direction which is the other direction in the spatial direction, and the vertical direction indicates the light level in FIG. ing. GFRepresents the gradient of stationarity in the spatial direction.
[1546]
Also, in the description of the two-dimensional polynomial approximation method, the
[1547]
In the example of FIG. 239, a direction parallel to a predetermined side of the detection element 2-1 is defined as an X direction which is one direction in the spatial direction, and a direction perpendicular to the X direction is defined as another direction in the spatial direction. It is a certain Y direction. The direction perpendicular to the XY plane is the t direction, which is the time direction.
[1548]
In the example of FIG. 239, the spatial shape of each detection element 2-1 of the
[1549]
Furthermore, in the example of FIG. 239, the center of one predetermined detection element 2-1 of the
[1550]
In this case, the detection element 2-1 having its center at the origin (x = 0, y = 0) in the spatial direction is in the range of -0.5 to 0.5 in the X direction and -0.5 in the Y direction. The optical signal function F (x, y, t) is integrated in the range of 0.5 to 0.5 and in the range of -0.5 to 0.5 in the t direction, and the integrated value is output as the pixel value P. .
[1551]
That is, the pixel value P output from the detection element 2-1 having the center at the origin in the spatial direction is represented by the following equation (127).
[1552]
[Equation 97]
[1553]
Similarly, the other detection elements 2-1 output the pixel value P expressed by the expression (127) by setting the center of the target detection element 2-1 as the origin in the spatial direction.
[1554]
As described above, the two-dimensional polynomial approximation method treats the optical signal of the
[1555]
Therefore, first, a method of expressing such an approximate function f (x, y) by a two-dimensional polynomial will be described.
[1556]
As described above, the optical signal in the
[1557]
Focusing on the X-section waveform F (x), if the signal in the
[1558]
Therefore, the waveform of the approximate function f (x, y) approximating the waveform F (x, y) is formed by a series of waveforms having the same shape as the approximate function f (x) approximating the X-section waveform F (x). Thus, the approximation function f (x, y) can be represented by a two-dimensional polynomial.
[1559]
A method of expressing the approximate function f (x, y) will be described in more detail.
[1560]
For example, the optical signal of the
[1561]
Further, as shown in FIG. 240, the data continuity detecting unit 101 (FIG. 3) outputs a total of 20 pixels (4 pixels in the X direction and 5 pixels in the Y direction) of the input image. In the figure, the processing is executed for an
[1562]
In the
[1563]
In FIG. 240, the second pixel from the left and the third pixel from the bottom are taken as the target pixel, and the (x, y) coordinates are set so that the center of the target pixel is the origin (0, 0). The system has been set. Then, a straight line of the angle θ passing through the origin (0, 0) (the gradient G representing the direction of data continuity)f(Hereinafter referred to as a cross-sectional direction distance) is described as x '.
[1564]
Further, the graph on the right side in FIG. 240 is a function obtained by approximating the X-sectional waveform F (x ′), and represents an approximate function f (x ′) which is an n-th order (n is an arbitrary integer) polynomial. Represents. Of the axes in the graph on the right side, the horizontal axis in the figure represents the distance in the cross-sectional direction, and the vertical axis in the figure represents the pixel value.
[1565]
In this case, the approximation function f (x ') shown in FIG. 240 is an n-th order polynomial, and is expressed as the following equation (128).
[1566]
[Equation 98]
[1567]
Further, since the angle θ is determined, the straight line of the angle θ passing through the origin (0, 0) is uniquely determined, and the position x of the straight line in the X direction at an arbitrary position y in the Y directionlIs expressed as in the following equation (129). However, in equation (129), s represents cot θ.
[1568]
xl = S × y (129)
[1569]
That is, as shown in FIG.fThe point on the straight line corresponding to the stationarity of the data represented by the coordinate value (xl, Y).
[1570]
From Expression (129), the cross-sectional direction distance x ′ is expressed as in the following Expression (130).
[1571]
x '= xxl = X-s x y (130)
[1572]
Therefore, the approximate function f (x, y) at an arbitrary position (x, y) in the
[1573]
[Equation 99]
[1574]
In addition, in equation (131), wiRepresents a coefficient of the approximation function f (x, y). Note that the coefficient w of the approximate function f including the approximate function f (x, y)iCan be positioned as a feature amount of the approximation function f. Therefore, hereinafter, the coefficient w of the approximation function fiWith the feature w of the approximate function fiAlso called.
[1575]
In this manner, if the angle θ is known, the approximation function f (x, y) of the two-dimensional waveform can be expressed as a polynomial of Expression (131).
[1576]
Therefore, if the real-
[1577]
Therefore, a method of calculating the characteristic amount wi of Expression (131) will be described below.
[1578]
That is, the approximation function f (x, y) represented by Expression (131) is integrated in the integration range (the integration range in the spatial direction) corresponding to the pixel (the detection element 2-1 of the sensor 2 (FIG. 239)). For example, the integrated value is an estimated value of the pixel value of the pixel. This is expressed by the following equation (132). In the two-dimensional polynomial approximation method, since the time direction t is regarded as a constant value, the expression (132) is an equation using the positions x and y in the spatial direction (X direction and Y method) as variables. .
[1579]
[Equation 100]
[1580]
In Expression (132), P (x, y) has a center position at a position (x, y) (relative position (x, y) from a pixel of interest) in an input image from the
[1581]
Thus, in the two-dimensional polynomial approximation method, the relationship between the input pixel value P (x, y) and the approximation function f (x, y), which is a two-dimensional polynomial, can be expressed by equation (132). Since it is possible, the real
[1582]
FIG. 241 illustrates a configuration example of the real
[1583]
As shown in FIG. 241, the real
[1584]
The
[1585]
The input
[1586]
The input pixel
[1587]
By the way, as described above, the real
[1588]
The expression (132) can be expressed as the following expression (137) by using the following expression (136) obtained by using the following expressions (133) to (135).
[1589]
[Equation 101]
[1590]
[Equation 102]
[1591]
[Equation 103]
[1592]
[Equation 104]
[1593]
[Equation 105]
[1594]
In equation (137), Si(X-0.5, x + 0.5, y-0.5, y + 0.5) represents the integral component of the i-th term. That is, the integral component Si(X−0.5, x + 0.5, y−0.5, y + 0.5) is as shown in the following equation (138).
[1595]
[Equation 106]
[1596]
The
[1597]
Specifically, the integral component S shown in equation (138)i(X−0.5, x + 0.5, y−0.5, y + 0.5) is obtained by knowing the relative pixel position (x, y), the variable s in the above equation (131), and the i-th term i. If so, it can be calculated. Of these, the relative pixel position (x, y) is determined by the target pixel and the tap range, the variable s is cot θ, and the range of i is determined by the angle θ, and the range of i is determined by the order n.
[1598]
Therefore, the integral
[1599]
The normal
[1600]
The approximation function generation unit 2426 solves the normal equation included in the normal equation table supplied from the normal
[1601]
Next, the estimation process of the real world to which the two-dimensional polynomial approximation method is applied (the process of step S102 in FIG. 40) will be described with reference to the flowchart in FIG.
[1602]
For example, now the slope GFIs detected by the sensor 2 (FIG. 239) and has already been stored in the input
[1603]
In this case, in step S2401, the
[1604]
For example, it is assumed that the
[1605]
That is, FIG. 243 is a diagram illustrating an example of the tap range. In FIG. 243, the X direction and the Y direction represent the X direction and the Y direction of the sensor 2 (FIG. 239). The
[1606]
Further, as shown in FIG. 243, it is assumed that the target pixel is the second pixel from the left and the third pixel from the bottom in the
[1607]
Returning to FIG. 242, in step S2402, the
[1608]
In step S2403, the input pixel
[1609]
In this case, the relationship between the input pixel value P (l) and the above-described input pixel value P (x, y) is represented by the following equation (139). However, in Expression (139), the left side represents the input pixel value P (l), and the right side represents the input pixel value P (x, y).
[1610]
[Equation 107]
[1611]
In step S2404, the integral
[1612]
In this case, as described above, the input pixel value is obtained as the value of the
[1613]
Si(L) = Si(X−0.5, x + 0.5, y−0.5, y + 0.5) (140)
[1614]
Specifically, in this case, the integral component S represented by the following equation (141)i(L) is calculated.
[1615]
[Equation 108]
[1616]
In equation (141), the left side is the integral component Si(L), and the right side is the integral component Si(X-0.5, x + 0.5, y-0.5, y + 0.5). That is, in this case, since i is 0 to 5, 20 S0(L), 20 S1(L), 20 S2(L), 20 S3(L), 20 S4(L), 20 S5(L) 120 S in totali(L) is calculated.
[1617]
More specifically, first, the integral
[1618]
The order of the processing in step S2403 and the processing in step S2404 is not limited to the example of FIG. 242, and the processing in step S2404 may be performed first, or the processing in step S2403 and the processing in step S2404 may be performed simultaneously. May be done.
[1619]
Next, in step S2405, the normal
[1620]
Specifically, in this case, the feature amount w is calculated by the least squares method using the above equation (137).i(Where, in equation (136), the integral component Si(X-0.5, x + 0.5, y-0.5, y + 0.5) uses Si (l) converted by equation (140), so the corresponding normal equation is (142).
[1621]
(Equation 109)
[1622]
In Expression (142), L represents the maximum value of the
[1623]
When the respective matrices of the normal equation represented by Expression (142) are defined as in the following Expressions (143) to (145), the normal equation is expressed as in the following Expression (146).
[1624]
[Equation 110]
[1625]
(Equation 111)
[1626]
[Equation 112]
[1627]
[Equation 113]
[1628]
As shown in equation (144), the matrix WMATIs a feature amount w to be obtained.iIt is. Therefore, in equation (146), the matrix S on the left sideMATAnd the matrix P on the right sideMATIs determined, the matrix W isMATCan be calculated.
[1629]
Specifically, as shown in Expression (143), the matrix SMATAre the integral components S described above.iThe calculation can be performed in (l). That is, the integral component SiSince (l) is included in the integral component table supplied from the integral
[1630]
Also, as shown in equation (145), the matrix PMATAre integral components Si(L) and the input pixel value P (l) can be calculated. That is, the integral component Si(L) is a matrix SMATSince the input pixel value P (l) is included in the input pixel value table supplied from the input pixel
[1631]
In this way, the normal
[1632]
When the normal equation table is output from the normal
[1633]
Specifically, the above-described normal equation of Equation (146) can be modified as in the following Equation (147).
[1634]
[Equation 114]
[1635]
In equation (147), the matrix W on the left sideMATIs a feature value w to be obtained.iIt is. Also, the matrix SMATAnd matrix PMATAre included in the normal equation table supplied from the normal
[1636]
In step S2407, the approximate function generation unit 2426 determines whether or not processing of all pixels has been completed.
[1637]
If it is determined in step S2407 that the processing for all the pixels has not been completed, the process returns to step S2402, and the subsequent processing is repeated. That is, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing of steps S2402 to S2407 is repeated.
[1638]
Then, when the processing of all the pixels is completed (when it is determined in step S2407 that the processing of all the pixels is completed), the estimation processing of the
[1639]
As described above, as a description of the two-dimensional polynomial approximation method, the coefficient (feature amount) w of the approximation function f (x, y) in the spatial direction (X direction and Y direction)iIs used, but the two-dimensional polynomial approximation method is also applicable to the spatio-temporal direction (X direction and t direction, or Y direction and t direction).
[1640]
That is, in the above-described example, the optical signal of the
[1641]
In other words, in the two-dimensional polynomial approximation method, the optical signal function F (x, y, t) to be estimated not only has the spatial continuity but also the spatiotemporal direction (however, the X direction and the t direction, or the Y direction). (Direction and t direction) can be approximated by a two-dimensional polynomial.
[1642]
Specifically, for example, when there is an object moving at a constant speed horizontally in the X direction, the direction of the movement of the object is represented by a gradient V in the Xt plane as shown in FIG.FIs represented as In other words, the slope VFRepresents the direction of continuity in the spatiotemporal direction on the Xt plane. Therefore, the data
[1643]
Therefore, the real-
[1644]
[Equation 115]
[1645]
In equation (148), s is cot θ (where θ is a motion).
[1646]
Further, instead of the spatial direction X, the approximate function f (y, t) focused on the spatial direction Y can be handled in exactly the same manner as the above-described approximate function f (x, t).
[1647]
As described above, in the two-dimensional polynomial approximation method, for example, the data
[1648]
Then, for example, the real-world estimating unit 102 (configuration is FIG. 241) in FIG. 219 (FIG. 3) outputs the image data in the spatio-temporal direction corresponding to the continuity of the data detected by the data
[1649]
More specifically, for example, the real
[1650]
As described above, since the two-dimensional polynomial approximation method considers not a one-dimensional but a two-dimensional integration effect, it is possible to more accurately estimate the optical signal of the
[1651]
Next, a third function approximation method will be described with reference to FIGS.
[1652]
That is, the third function approximation method is, for example, an optical signal of the
[1653]
Also in the description of the three-dimensional function approximation method, the
[1654]
In the example of FIG. 245, the direction parallel to a predetermined side of the detection element 2-1 is the X direction, which is one direction in the spatial direction, and the direction perpendicular to the X direction is the other direction in the spatial direction. It is a certain Y direction. The direction perpendicular to the XY plane is the t direction, which is the time direction.
[1655]
In the example of FIG. 245, the spatial shape of each detection element 2-1 of the
[1656]
Furthermore, in the example of FIG. 245, the center of one predetermined detection element 2-1 of the
[1657]
In this case, the detection element 2-1 having its center at the origin (x = 0, y = 0) in the spatial direction is in the range of -0.5 to 0.5 in the X direction and -0.5 in the Y direction. The optical signal function F (x, y, t) is integrated in the range of 0.5 to 0.5 and in the range of -0.5 to 0.5 in the t direction, and the integrated value is output as the pixel value P. .
[1658]
That is, the pixel value P output from the detection element 2-1 having the center at the origin in the spatial direction is represented by the following equation (149).
[1659]
[Equation 116]
[1660]
Similarly, the other detection elements 2-1 output the pixel value P represented by the equation (149) by setting the center of the target detection element 2-1 as the origin in the spatial direction.
[1661]
By the way, as described above, in the three-dimensional function approximation method, the optical signal function F (x, y, t) is approximated to the three-dimensional approximation function f (x, y, t).
[1662]
Specifically, for example, the approximation function f (x, y, t) is a function having N variables (features), and the input pixel value P (x, y, t) corresponding to the equation (149) is set. And the approximate expression f (x, y, t). As a result, if M input pixel values P (x, y, t) larger than N have been acquired, N variables (feature amounts) can be calculated from the defined relational expression. That is, the real-
[1663]
In this case, the real
[1664]
For example, as shown in FIG. 246, the optical signal function F (x, y, t) corresponding to the input image has a gradient GFWhen the data
[1665]
In this case, a one-dimensional waveform obtained by projecting the optical signal function F (x, y, t) in the X direction (here, such a waveform is referred to as an X sectional waveform) is determined at any position in the Y direction. It is assumed that they have the same shape even when projected by.
[1666]
That is, it is assumed that there is a two-dimensional (spatial) waveform in which the X-sectional waveforms of the same shape are connected in the direction of stationarity (the angle θ with respect to the X direction), and such a two-dimensional waveform is represented by A three-dimensional waveform connected in the direction t is approximated by an approximation function f (x, y, t).
[1667]
In other words, in the X-sectional waveform shifted from the center of the target pixel by the position y in the Y direction, the X-sectional waveform passing through the center of the target pixel has moved in the X direction by a predetermined amount (an amount that changes according to the angle θ). (Shifted) waveform. Hereinafter, such an amount is referred to as a shift amount.
[1668]
This shift amount can be calculated as follows.
[1669]
That is, the slope Vf(For example, the slope V in FIG. 246)FSlope V representing the direction of data continuity corresponding tof) And the angle θ are represented by the following equation (150).
[1670]
[Formula 117]
[1671]
In Expression (150), dx represents a minute movement amount in the X direction, and dy represents a minute movement amount in the Y direction with respect to dx.
[1672]
Therefore, the shift amount in the X direction is CxIf it is described as (y), it is expressed as the following equation (151).
[1673]
[Equation 118]
[1674]
Thus, the shift amount CxWhen (y) is defined, a relational expression between the input pixel value P (x, y, t) corresponding to the expression (149) and the approximate function f (x, y, t) is expressed by the following expression (152). expressed.
[1675]
[Equation 119]
[1676]
In Expression (152), e represents an error. tsRepresents the integration start position in the t direction, and teRepresents the integration end position in the t direction. Similarly, ysRepresents the integration start position in the Y direction.eRepresents the integration end position in the Y direction. Also, xsRepresents the integration start position in the X direction, and xeRepresents the integration end position in the X direction. However, each of the specific integration ranges is as shown by the following equation (153).
[1677]
[Equation 120]
[1678]
As shown in Expression (153), the integration range in the X direction for a pixel located at a distance (x, y) in the spatial direction from the pixel of interest is represented by a shift amount CxBy moving by (y), it is possible to indicate that the X-sectional waveforms of the same shape are continuous in the direction of continuity (the direction of the angle θ with respect to the X direction).
[1679]
As described above, in the three-dimensional function approximation method, the relationship between the pixel value P (x, y, t) and the three-dimensional approximation function f (x, y, t) is expressed by Expression (152) (the integration range is expressed by Expression (152)). (153)), the N feature quantities of the approximate function f (x, y, t) are calculated using the equations (152) and (153) by, for example, the least square method. By performing the calculation, the optical signal function F (x, y, t) (for example, the slope V as shown in FIG. 246)FIt is possible to estimate an optical signal having stationarity in the spatial direction represented).
[1680]
The optical signal represented by the optical signal function F (x, y, t) has, for example, a slope V as shown in FIG.FIn the case of having the spatial continuity represented by the following equation, the optical signal function F (x, y, t) may be approximated as follows.
[1681]
That is, a one-dimensional waveform obtained by projecting the optical signal function F (x, y, t) in the Y direction (hereinafter, such a waveform is referred to as a Y-section waveform) is projected at any position in the X direction. Are assumed to have the same shape.
[1682]
In other words, it is assumed that there is a two-dimensional (spatial direction) waveform in which the Y-shaped waveform having the same shape is connected in the direction of the stationarity (the angle θ with respect to the X direction). A three-dimensional waveform connected in the time direction t is approximated by an approximate function f (x, y, t).
[1683]
Therefore, in the Y-section waveform shifted by x in the X direction from the center of the pixel of interest, the Y-section waveform passing through the center of the pixel of interest has shifted in the Y direction by a predetermined shift amount (shift amount that varies according to the angle θ). It becomes a waveform.
[1684]
This shift amount can be calculated as follows.
[1885]
That is, the gradient GFIs expressed as in the above expression (150), and the shift amount in the Y direction is represented by CyWhen it is described as (x), it is expressed as the following equation (154).
[1686]
[Equation 121]
[1687]
Thus, the shift amount CyWhen (x) is defined, a relational expression between the input pixel value P (x, y, t) corresponding to the expression (149) and the approximate function f (x, y, t) is represented by a shift amount CxAs in the case where (y) is defined, it is expressed by the above-described equation (152).
[1688]
However, this time, each of the specific integration ranges is as shown in the following equation (155).
[1689]
[Equation 122]
[1690]
As shown in Expression (155) (and Expression (152) described above), the integration range in the Y direction with respect to the pixel located at (x, y) away from the target pixel is represented by a shift amount CyBy moving only by (x), it is possible to indicate that the Y-section waveforms of the same shape are connected in the direction of continuity (the direction of the angle θ with respect to the X direction).
[1691]
As described above, in the three-dimensional function approximation method, since the integration range on the right side of the above-mentioned expression (152) can be set not only to expression (153) but also to expression (155), expression (155) is used as the integration range. The optical signal function F (x, y) is calculated by using the adopted equation (152) to calculate n feature amounts of the approximate function f (x, y, t) by, for example, the least square method. , T) (slope GFThe optical signal of the
[1692]
As described above, the formulas (153) and (155) representing the integration range shift the peripheral pixels in the X direction (in the case of the formula (153)) or shift in the Y direction according to the continuity direction. Or (in the case of equation (155)), essentially indicating the same.
[1693]
However, the direction of stationarity (slope GF), It is different whether the optical signal function F (x, y, t) is regarded as a group of X-section waveforms or a group of Y-section waveforms. That is, when the direction of the continuity is close to the Y direction, it is preferable to regard the optical signal function F (x, y, t) as a group of X-section waveforms. On the other hand, when the direction of the continuity is close to the X direction, it is preferable to regard the optical signal function F (x, y, t) as a group of Y section waveforms.
[1694]
Therefore, the real
[1695]
As described above, the optical signal function F (x, y, t) is stationary in the spatial direction (X direction and Y direction) (for example, the gradient G in FIG. 246).F, The three-dimensional function method has a case where the optical signal function F (x, y, t) is, as shown in FIG. Stationaryness (slope V in the spatiotemporal direction (X direction, Y direction, and t direction))FIs also applicable.
[1696]
That is, in FIG. 247, the optical signal function corresponding to the frame of frame number # N-1 is F (x, y, # N-1), and the optical signal function corresponding to the frame of frame number #N is F ( x, y, #N), and the optical signal function corresponding to the frame of frame number # N + 1 is F (x, y, # N + 1).
[1697]
Note that in FIG. 247, the horizontal direction is the X direction which is one direction in the spatial direction, the diagonally upper right direction is the Y direction which is the other direction in the spatial direction, and the vertical direction in FIG. The direction is the t direction, which is the time direction.
[1698]
The frame # N-1 is a frame temporally before the frame #N, and the frame # N + 1 is a frame temporally after the frame #N. That is, frame # N-1, frame #N, and frame # N + 1 are displayed in the order of frame # N-1, frame #N, and frame # N + 1.
[1699]
In the example of FIG.F(The direction from the lower left to the upper right in the figure) is substantially constant. Therefore, in the example of FIG. 247, the optical signal function F (x, y, t) has the slope VFIt can be said that it has the continuity in the spatiotemporal direction represented by
[1700]
In this case, a function C (x, y, t) representing stationarity in the spatiotemporal direction is defined, and the defined function C (x, y, t) is used to define the above equation (152). If the integration range is defined, it is possible to calculate the N feature amounts of the approximate function f (x, y, t), as in the above-described equations (153) and (155).
[1701]
The function C (x, y, t) is not particularly limited as long as it is a function representing the direction of stationarity. However, in the following, the shift amount C, which is a function representing the above-described spatial direction continuity, is defined as a function C (x, y, t) corresponding to the linear continuity.x(Y) (Equation (151)) and shift amount Cy(X) C corresponding to (Equation (153))x(T) and CyLet (t) be defined as follows:
[1702]
That is, the gradient G representing the stationarity of the data in the spatial direction described above.fIs the slope of the continuity of the data in the spatiotemporal direction corresponding to VfThen, this slope VfWith the inclination in the X direction (hereinafter, Vfx) And a tilt in the Y direction (hereinafter VfyDivided into two), the slope VfxIs the following equation (156), and the slope VfyIs represented by the following equation (157).
[1703]
[Equation 123]
[1704]
[Expression 124]
[1705]
In this case, the function Cx(T) is the slope V represented by equation (156).fxIs used and is expressed as in the following equation (158).
[1706]
[Equation 125]
[1707]
Similarly, the function Cy(T) is the slope V represented by equation (157).fyIs used and is expressed as in the following equation (159).
[1708]
[Equation 126]
[1709]
In this way, the function C representing the continuity 2511 in the spatiotemporal direction isx(T) and function CyWhen (t) is defined, the integration range of Expression (152) is represented by the following Expression (160).
[1710]
[Equation 127]
[1711]
As described above, in the three-dimensional function approximation method, the relationship between the pixel value P (x, y, t) and the three-dimensional approximation function f (x, y, t) can be expressed by Expression (152). By using equation (160) as the integration range on the right side of equation (152), n + 1 feature amounts of the approximate function f (x, y, t) are calculated by, for example, the least square method or the like. , It is possible to estimate the optical signal function F (x, y, t) (the optical signal of the
[1712]
FIG. 248 illustrates a configuration example of the real
[1713]
The approximation function f (x, y, t) (actually, the feature amount (coefficient) is calculated) calculated by the real
[1714]
As shown in FIG. 248, the real
[1715]
The
[1716]
The input
[1717]
The input pixel
[1718]
By the way, as described above, the real-
[1719]
The right side of Expression (152) can be expressed as in Expression (161) by calculating the integral.
[1720]
[Equation 128]
[1721]
In equation (161), wiRepresents the coefficient (feature amount) of the i-th order term.i(Xs, Xe, Ys, Ye, Ts, Te) Represents the integral component of the i-th order term. Where xsIs the start position of the integration range in the X direction, xeIs the end position of the integration range in the X direction, and y issIs the start position of the integration range in the Y direction, and y iseRepresents the end position of the integration range in the Y direction, tsIs the start position of the integration range in the t direction, and t iseRepresents the end position of the integration range in the t direction.
[1722]
The integral
[1723]
That is, the integral
[1724]
The normal
[1725]
The approximation function generation unit 2526 solves the normal equation included in the normal equation table supplied from the normal
[1726]
Next, the estimation process of the real world to which the three-dimensional function approximation method is applied (the process of step S102 in FIG. 40) will be described with reference to the flowchart in FIG.
[1727]
First, in step S2501, the
[1728]
For example, it is assumed that a tap range including L pixels has been set. Further, it is assumed that a predetermined number 1 (1 is an integer value from 0 to L−1) is assigned to each of the pixels.
[1729]
Next, in step S2502, the
[1730]
In step S2503, the input pixel
[1731]
In step S2504, the integral
[1732]
However, in this case, as described above, the input pixel value is obtained as the value of the
[1733]
The order of the processing of step S2503 and the processing of step S2504 is not limited to the example of FIG. 249, and the processing of step S2504 may be performed first, or the processing of step S2503 and the processing of step S2504 may be performed simultaneously. May be done.
[1733]
Next, in step S2505, the normal
[1735]
Specifically, in this case, the characteristic amount w of the following equation (162) corresponding to the above equation (161) is obtained by the least square method.iIs calculated. And the corresponding normal equation is represented by the following equation (163).
[1736]
129
[1737]
[Equation 130]
[1736]
When each of the matrices of the normal equation represented by the equation (163) is defined as in the following equations (164) to (166), the normal equation is represented as the following equation (167).
[1739]
[Equation 131]
[1740]
(Equation 132)
[1741]
[Equation 133]
[1742]
[Equation 134]
[1743]
As shown in equation (165), the matrix WMATIs a feature amount w to be obtained.iIt is. Therefore, in equation (167), the matrix S on the left sideMATAnd the matrix P on the right sideMATIs determined, the matrix W isMAT(That is, the feature amount wi) Can be calculated.
[1744]
Specifically, as shown in equation (164), the matrix SMATAre the integral components S described above.iIf (l) is known, it can be calculated. Integral component SiSince (l) is included in the integral component table supplied from the integral
[1745]
Also, as shown in equation (166), the matrix PMATAre integral components SiIf (l) and the input pixel value P (l) are known, calculation is possible. Integral component Si(L) is a matrix SMATSince the input pixel value P (l) is included in the input pixel value table supplied from the input pixel
[1746]
In this way, the normal
[1747]
When the normal equation table is output from the normal equation generation unit 2526, in step S2506, the approximation function generation unit 2526 uses the matrix W of the above-described equation (167) based on the normal equation table.MATFeature w which is each component ofi(That is, the coefficient w of the approximate function f (x, y, t)i) Is calculated.
[1748]
Specifically, the normal equation of Expression (167) described above can be modified as in the following Expression (168).
[1748]
[Equation 135]
[1750]
In equation (168), the matrix W on the left sideMATIs a feature value w to be obtained.iIt is. Also, the matrix SMATAnd matrix PMATAre included in the normal equation table supplied from the normal
[1751]
In step S2507, the approximate function generation unit 2526 determines whether or not processing of all pixels has been completed.
[1752]
If it is determined in step S2507 that the processing for all pixels has not been completed, the process returns to step S2502, and the subsequent processing is repeated. That is, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing of steps S2502 to S2507 is repeated.
[1753]
Then, when the processing of all the pixels is completed (when it is determined in step S5407 that the processing of all the pixels is completed), the estimation processing of the
[1754]
As described above, the three-dimensional function approximation method considers not a one-dimensional or two-dimensional but a three-dimensional integration effect in a spatio-temporal direction. As a result, it is possible to more accurately estimate the optical signal of the
[1755]
In other words, in the three-dimensional function approximation method, for example, the real-world estimating unit 102 (configuration is, for example, FIG. 248) in FIG. 219 (FIG. 3) includes a plurality of detection elements of a sensor each having a spatiotemporal integration effect. The optical signal of the
[1756]
Further, for example, when the data
[1775]
More specifically, for example, the real
[1758]
Therefore, the three-dimensional function approximation method can more accurately estimate the optical signal of the
[1759]
Next, with reference to FIG. 250 to FIG. 259, another example of the extraction method in which the real
[1760]
In the following example, a weight is assigned according to the importance of each pixel, the pixel value of each pixel is extracted, and the extracted value is used as data 162 (FIG. 7), and 1 is approximated by the model 161 (FIG. 7).
[1761]
Specifically, for example, it is assumed that an
[1762]
In FIG. 250, the horizontal direction in the figure is the X direction, which is one direction in the spatial direction, and the vertical direction in the figure is the Y direction, which is the other direction in the spatial direction.
[1763]
The
[1764]
The pixel of interest is a pixel having a pixel value of 2701-1 (hereinafter, a pixel having a pixel value of 2701-1 is referred to as a pixel of interest 2701-1), and the direction of data continuity in the pixel of interest 2701-1. Is the slope GfIt is represented by
[1765]
FIG. 251 shows a difference between the level of the optical signal of the
[1766]
Here, the cross-sectional direction distance x 'will be described with reference to FIGS. 252 and 253.
[1767]
FIG. 252 shows a block of 5 × 5 pixels centered on the pixel of interest 2701-1 in the
[1768]
At this time, for example, the center of the pixel of interest 2701-1 is defined as the origin (0, 0) in the spatial direction, and passes through the origin and in the direction of data continuity (in the example of FIG.fIf a straight line parallel to the data continuity direction is drawn, the relative distance in the X direction to the straight line is referred to as a cross-sectional direction distance x '. In the example of FIG. 252, the cross-sectional direction distance x 'at the center point of the pixel 2701-2 separated by two pixels in the Y direction from the pixel of interest 2701-1 is shown.
[1770]
FIG. 253 is a diagram illustrating a cross-sectional distance of each pixel in the block illustrated in FIG. 252 in the
[1770]
However, as described above, each pixel width LcIs 1 in both the X and Y directions. The positive direction of the X direction is the right direction in the figure. Β represents the distance in the cross-section direction of the pixel 2701-3 which is one adjacent (one lower in the figure) with respect to the Y direction of the target pixel 2701-1. This β is the angle θ as shown in FIG.fIs output from the data
[1771]
β = 1 / tan θ (169)
[1772]
Returning to FIG. 251, it is difficult to draw the actual level difference. Therefore, in the example of FIG. 251, an image (not shown) having a higher resolution than the
[1773]
In FIG. 251, as shown by the plotted level difference, the gradient G ′ falls within the range of approximately −0.5 to approximately 1.5 in the sectional direction.f(Hereinafter, such a region is referred to as a stationary region in the description of weighting).
[1774]
Therefore, a pixel having a smaller cross-sectional direction distance x '(a pixel of the input image 2701) has a higher probability of including the stationary region. That is, the pixel value of a pixel having a small cross-sectional direction distance x ′ (the pixel of the input image 2701) is
[1775]
On the other hand, the probability that the pixel includes the stationary region decreases as the pixel in the cross-sectional direction distance x ′ becomes larger (the pixel of the input image 2701). That is, a pixel having a large cross-sectional direction distance x ′ (a pixel of the input image 2701) is assigned importance as
[1776]
The above relationship of importance applies not only to the
[1777]
Therefore, when approximating the signal of the
[1778]
Furthermore, as shown in FIG. 254, when approximating the signal of the
[1779]
Of the two weights described above (the weight shown in FIG. 251 and the weight shown in FIG. 254), only one of them may be used, or both may be used simultaneously. When both are used at the same time, the method of calculating the finally used weight is not particularly limited. For example, the product of both weights may be used as the final weight, or the gradient G may be used with respect to the weight determined by the weighting shown in FIG.f(For example, a weight that decreases by a predetermined value each time the distance in the direction of data continuity increases by 1) is used. Is also good.
[1780]
The real
[1781]
Specifically, for example, as described above, the real world estimation unit 102MATWMAT= PMAT(That is, by the method of least squares), the feature quantity of the approximation function as the model 161 (that is, the matrix WMAT, The signals of the
[1782]
In this case, the weight of each pixel of the input image whose pixel number is 1 (1 is any integer value from 1 to M) is vlThen, the real
[1783]
136
[1784]
137
[1785]
As described above, the real
[1786]
That is, the real-
[1787]
Specifically, for example, FIG. 255 shows that the real-
[1788]
On the other hand, FIG. 256 shows that the real-
[1789]
When comparing the image of FIG. 255 and the image of FIG. 256, for example, both the
[1790]
In the
[1791]
Considering that the tip of the fork is actually formed continuously (visible to the human eye as one continuous line), the
[1792]
FIG. 257 shows that the real
[1793]
On the other hand, FIG. 258 shows that the real-
[1794]
When comparing the image of FIG. 257 and the image of FIG. 258, for example, both the
[1795]
In the
[1796]
Considering that the beams are actually formed continuously (visible to the human eye as one continuous line), the
[1797]
According to the above, a real-world optical signal is projected by a plurality of detection elements of a sensor, each of which has a spatio-temporal integration effect, and a part of the continuity of the real-world optical signal is lacking, and is projected by a detection element. Detecting the continuity of the data in the image data composed of a plurality of pixels having pixel values, and corresponding to the continuity of the detected data, at least one-dimensional direction of the space-time direction from the pixel of interest in the image data; Each pixel in the image data is weighted according to the distance, and the weighted pixel value of the pixel corresponding to at least the one-dimensional position in the image data is converted into at least one-dimensional value. The first function representing the optical signal in the real world is approximated by a second function, which is a polynomial, assuming that the pixel value is obtained by the directional integration effect, thereby estimating the first function. Because it was Unishi, an image can be more faithfully express.
[1798]
Next, an example of the embodiment of the image generation unit 103 (FIG. 3) will be described with reference to FIGS.
[1799]
FIG. 259 is a diagram for explaining the principle of the embodiment of this example.
[1800]
As shown in FIG. 259, in the embodiment of this example, it is assumed that the real
[1801]
Hereinafter, also in the description of the embodiment of this example, a signal of the
[1802]
Therefore, in the embodiment of this example, based on such a premise, the
[1803]
In other words, the optical signal function F is integrated once to obtain an input pixel value P, and the optical signal function F is estimated from the input pixel value P (approximate by the approximate function f), and the estimated optical signal function F (that is, the estimated optical signal function F) , Approximation function f) is again integrated to produce an output pixel value M. Therefore, hereinafter, the integration of the approximation function f executed by the
[1804]
As described later, in the reintegration method, the integration range of the approximation function f when the output pixel value M is generated is the integration range of the optical signal function F when the input pixel value P is generated (that is, In the spatial direction, the vertical width and the horizontal width of the detection element of the
[1805]
For example, when the output pixel value M is generated, by changing the integration range in the spatial direction of the integration range of the approximation function f, the pixel pitch of the output image can be changed according to the integration range. Become. That is, it is possible to create a spatial resolution.
[1806]
Similarly, for example, when the output pixel value M is generated, the time resolution can be created by changing the integration range in the time direction of the integration range of the approximation function f.
[1807]
Hereinafter, three specific methods among such reintegration methods will be individually described with reference to the drawings.
[1808]
That is, the three specific methods are reintegration methods corresponding to the three specific methods of the function approximation method (the above three specific examples of the embodiment of the real world estimation unit 102). is there.
[1809]
Specifically, the first method is a reintegration method corresponding to the above-described one-dimensional polynomial approximation method (one method of a function approximation method). Therefore, in the first method, one-dimensional reintegration is performed, and such a reintegration method is hereinafter referred to as a one-dimensional reintegration method.
[1810]
The second method is a reintegration method corresponding to the above-described two-dimensional polynomial approximation method (one method of the function approximation method). Therefore, in the second method, two-dimensional reintegration is performed, and such a reintegration method is hereinafter referred to as a two-dimensional reintegration method.
[1811]
The third method is a reintegration method corresponding to the above-described three-dimensional function approximation method (one method of the function approximation method). Therefore, in the third method, three-dimensional reintegration is performed, and such a reintegration method is hereinafter referred to as a three-dimensional reintegration method.
[1812]
Hereinafter, details of each of the one-dimensional reintegration method, the two-dimensional reintegration method, and the three-dimensional reintegration method will be described in that order.
[1813]
First, a one-dimensional reintegration method will be described.
[1814]
In the one-dimensional reintegration method, it is assumed that the approximation function f (x) has already been generated by the one-dimensional polynomial approximation method.
[1815]
That is, the optical signal function F (x, y, t) using the three-dimensional positions x, y, and z and the time t as variables is converted into spatial directions such as an X direction, a Y direction, and a Z direction. In addition, a one-dimensional waveform projected in one predetermined direction (for example, the X direction) of the t direction, which is a time direction (also in the description of the reintegration method, a waveform projected in the X direction among such waveforms) , X section waveform F (x)) is assumed to be approximated by an approximation function f (x), which is an n-th order (n is an arbitrary integer) polynomial.
[1816]
In this case, in the one-dimensional reintegration method, the output pixel value M is calculated as in the following equation (172).
[1817]
138
[1818]
Note that, in equation (172), xsRepresents the integration start position, and xeRepresents the integration end position. GeRepresents a predetermined gain.
[1819]
Specifically, for example, the real-
[1820]
In the example of FIG. 260, the pixel value (input pixel value) of the
[1821]
The lower part of FIG. 260 shows a coordinate system (hereinafter, referred to as a target pixel coordinate system) in a spatial direction (X direction and Y direction) where the center of the
[1822]
Further, a graph of the approximate function f (x) at y = 0 (y is the coordinate value in the Y direction of the target pixel coordinate system shown in the lower part of the figure) is shown above FIG. . In this graph, the axis parallel to the horizontal direction in the figure is the same axis as the x-axis in the X direction of the target pixel coordinate system shown in the lower part of the figure (the origin is also the same), and is perpendicular to the figure. An axis parallel to the direction is an axis representing a pixel value.
[1823]
In this case, the following equation (173) holds between the approximation function f (x) and the pixel value P of the
[1824]
139
[1825]
Further, as shown in FIG. 260, the
[1826]
In this case, for example, in the one-dimensional reintegration method, as shown in FIG. 261, a range of -0.5 to 0.5 in the X direction and a range of -0.5 to 0.5 in the Y direction ( It is possible to newly create four
[1827]
The lower part of FIG. 261 shows the same target pixel coordinate system as that of FIG. 260, and the
[1828]
Specifically, as shown in FIG. 261, in the one-dimensional re-integration method, calculation of the pixel value M (1) of the
[1829]
[Equation 140]
[1830]
[Equation 141]
[1831]
[Equation 142]
[1832]
143
[1833]
Note that x in Expression (174)s1, X in equation (175)s2, X in equation (176)s3, And x in equation (177)s4Represents the integration start position of the corresponding equation. In addition, x in Expression (174)e1, X in equation (175)e2, X in equation (176)e3, And x in equation (177)e4Represents the integration end position of the corresponding equation.
[1834]
The integration range on the right side of each of Expressions (174) to (177) is the pixel width (length in the X direction) of each of the
[1835]
However, in this case, a one-dimensional waveform having the same shape as the approximation function f (x) at y = 0 has a gradient G instead of the Y direction.f(Actually, the waveform having the same shape as the X-section waveform F (x) at y = 0 is the direction of the continuity). Is linked to). That is, when the pixel value f (0) at the origin (0, 0) (the center of the
[1836]
In other words, when considering the waveform of the approximation function f (x) at the predetermined position y (where y is a numerical value other than 0) in the Y direction, the position that becomes the pixel value f1 is not the position (0, y). , From the position (0, y) in the X direction by a predetermined amount (again, such an amount is referred to as a shift amount. Further, since the shift amount is an amount dependent on the position y in the Y direction, This shift amount is Cx(To be described as (y))) (C)x(Y), y).
[1837]
Therefore, the center of the pixel value M (l) (where l is any integer from 1 to 4) to be obtained is defined as the integration range on the right side of each of the above equations (174) to (177). In the Y direction where the position y exists, that is, the shift amount CxIt is necessary to set the integration range in consideration of (y).
[1838]
Specifically, for example, the position y in the Y direction where the centers of the
[1839]
Therefore, the waveform of the approximation function f (x) at y = 0.25 is obtained by shifting the waveform of the approximation function f (x) at y = 0 by a shift amount C in the X direction.xThis corresponds to a waveform shifted by (0.25).
[1840]
In other words, in the above equation (174), the pixel value M (1) for the
[1841]
Similarly, in the above equation (175), the pixel value M (2) for the
[1842]
Further, for example, the position y in the Y direction where the centers of the
[1843]
Therefore, the waveform of the approximate function f (x) at y = −0.25 is obtained by shifting the waveform of the approximate function f (x) at y = 0 by a shift amount C in the X direction.xThis corresponds to a waveform shifted by (−0.25).
[1844]
In other words, in the above equation (176), the pixel value M (3) for the
[1845]
Similarly, in equation (177) described above, the pixel value M (4) for the
[1846]
Therefore, the image generation unit 102 (FIG. 259) substitutes a corresponding one of the above-described integration ranges into each of the above-described equations (174) to (177), performs calculations, and calculates the calculation results. Output is performed as each of the output pixel values M (1) to M (4).
[1847]
As described above, by using the one-dimensional reintegration method, the
[1848]
FIG. 262 illustrates a configuration example of the
[1849]
As shown in FIG. 262, the
[1850]
The
[1851]
The
[1852]
The feature
[1853]
By the way, as described above, the
[1854]
[Equation 144]
[1855]
Note that in equation (178), wiRepresents the feature amount of the approximate function f (x) supplied from the real
[1856]
Therefore, when the approximation function f (x) of the equation (178) is substituted for the approximation function f (x) on the right side of the equation (172), and the right side of the equation (172) is expanded (calculated), the output pixel The value M is expressed as in the following equation (179).
[1857]
[Equation 145]
[1858]
In equation (179), Ki(Xs, Xe) Represents the integral component of the i-th order term. That is, the integral component Ki(Xs, Xe) Is as shown in the following equation (180).
[1859]
[Equation 146]
[1860]
The
[1861]
Specifically, as shown in equation (180), the integral component Ki(Xs, Xe) Is the start position x of the integration ranges, And end position xe, Gain Ge, And i, if i of the term is known.
[1862]
Of these, the gain GeIs determined by the spatial resolution magnification (integration range) set by the
[1863]
The range of i is determined by the order n set by the
[1864]
Also, the starting position x of the integration ranges, And end position xeAre the center pixel position (x, y) and pixel width of the output pixel to be generated, and the shift amount C representing the direction of data continuity.x(Y). Note that (x, y) represents a relative position from the center position of the target pixel when the real
[1865]
Further, each of the center pixel position (x, y) and the pixel width of an output pixel to be generated is determined by the spatial resolution magnification (integration range) set by the
[1866]
Also, the shift amount Cx(Y) and the angle θ supplied from the data
[1867]
147
[1868]
[Equation 148]
[1869]
Note that, in equation (181), GfRepresents an inclination indicating the direction of data continuity, and θ represents an angle (in one spatial direction) which is one of the data continuity information output from the data continuity detecting unit 101 (FIG. 259). An X direction and a gradient Gf(Angle formed with the direction of the stationarity of the data represented by). Dx represents a minute movement amount in the X direction, and dy represents a minute movement amount in the Y direction (space direction perpendicular to the X direction) with respect to dx.
[1870]
Therefore, the integral
[1871]
The output pixel
[1872]
Next, an image generation process (the process of step S103 in FIG. 40) of the image generation unit 103 (FIG. 262) using the one-dimensional reintegration method will be described with reference to the flowchart in FIG. 263.
[1873]
For example, in the process of step S102 in FIG. 40 described above, the real
[1874]
It is also assumed that the data
[1875]
In this case, in step S3101 in FIG. 263, the
[1876]
For example, suppose that the order is set to 5 and the integration range is set to a spatial quadruple density (spatial resolution magnification at which the pixel pitch width is 1/2 times in both the upper, lower, left, and right directions).
[1877]
That is, in this case, as shown in FIG. 261, a range of -0.5 to 0.5 in the X direction and a range of -0.5 to 0.5 in the Y direction (range of the
[1878]
In step S3102, the feature
[1879]
In step S3103, the integral
[1880]
More specifically, for example, if it is assumed that numbers (such numbers are hereinafter referred to as mode numbers) 1 to 4 are respectively assigned to the
[1881]
Ki(L) = Ki(Xs, Xe) (183)
[1882]
Specifically, in this case, the integral component K represented by the following equation (184)i(L) is calculated.
[1883]
149
[1884]
In equation (184), the left side is the integral component Ki(L), and the right side is the integral component Ki(Xs, Xe). That is, in this case, l is any one of 1 to 4 and i is any one of 0 to 5, so that 6 Ki(1), 6 Ki(2), 6 Ki(3), 6 Ki(4) a total of 24 Ki(L) is calculated.
[1885]
More specifically, first, the integral
[1886]
Next, the integral
[1888]
Then, the integral
[1888]
The order of the processing of step S3102 and the processing of step S3103 is not limited to the example of FIG. 263, and the processing of step S3103 may be performed first, or the processing of step S3102 and the processing of step S3103 may be performed simultaneously. May be done.
[1889]
Next, in step S3104, the output pixel
[1890]
More specifically, in this case, the output pixel
[1891]
[Equation 150]
[1892]
[Equation 151]
[1893]
[Equation 152]
[1894]
[Equation 153]
[1895]
In step S3105, the output pixel
[1896]
If it is determined in step S3105 that the processing for all pixels has not been completed, the process returns to step S3102, and the subsequent processing is repeated. That is, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing of steps S3102 to S3104 is repeated.
[1897]
Then, when the processing on all pixels is completed (when it is determined in step S3105 that the processing on all pixels is completed), the output pixel
[1898]
Next, referring to FIGS. 264 to 271, an output image obtained by applying the one-dimensional reintegration method to a predetermined input image and another method (conventional class classification adaptive processing) are applied. The difference between the output images obtained as described above will be described.
[1899]
FIG. 264 is a diagram illustrating an original image of the input image, and FIG. 265 illustrates image data corresponding to the original image of FIG. 264. In FIG. 265, the axis in the vertical direction in the figure indicates the pixel value, the axis in the lower right direction in the figure indicates the X direction which is one direction in the spatial direction of the image, and the axis in the upper right direction in the figure indicates the axis of the image. The Y direction, which is another direction in the spatial direction, is shown. Note that each of the axes in FIGS. 267, 269, and 271 described below corresponds to the axis in FIG. 265.
[1900]
FIG. 266 is a diagram illustrating an example of an input image. The input image illustrated in FIG. 266 is an image in which the average value of the pixel values of the pixels belonging to the block including the 2 × 2 pixels of the image illustrated in FIG. 264 is generated as the pixel value of one pixel. That is, the input image is an image obtained by applying spatial integration that imitates the integration characteristics of the sensor to the image shown in FIG. FIG. 267 shows image data corresponding to the input image of FIG. 266.
[1901]
The original image shown in FIG. 264 includes a thin line image inclined approximately 5 degrees clockwise from the vertical direction. Similarly, the input image shown in FIG. 266 includes a thin line image inclined approximately 5 degrees clockwise from the vertical direction.
[1902]
FIG. 268 is a diagram illustrating an image obtained by applying the conventional classification adaptive processing to the input image illustrated in FIG. 266 (hereinafter, the image illustrated in FIG. 268 is referred to as a conventional image). FIG. 269 shows image data corresponding to a conventional image.
[1903]
The class classification adaptation process includes a class classification process and an adaptation process. The class classification process classifies data into classes based on their properties, and performs an adaptation process for each class. In the adaptive processing, for example, an image of low image quality or standard image quality is converted into a high image quality image by mapping (mapping) using a predetermined tap coefficient.
[1904]
FIG. 270 is an image obtained by applying the one-dimensional reintegration method to which the present invention is applied to the input image shown in FIG. 266 (hereinafter, the image shown in FIG. 270 is referred to as an image of the present invention). FIG. FIG. 271 shows image data corresponding to the image of the present invention.
[1905]
When comparing the conventional image of FIG. 268 with the image of the present invention of FIG. 270, in the conventional image, the thin line image is different from the original image of FIG. In the image of the present invention, it can be seen that the thin line image is almost the same as the original image in FIG.
[1906]
The difference is that the conventional classification adaptive processing is a method of performing processing using the input image of FIG. 266 as a reference (origin), whereas the one-dimensional reintegration method of the present invention reduces the continuity of fine lines. In consideration of this, the original image in FIG. 264 is estimated (an approximate function f (x) corresponding to the original image is generated), and processing is performed using the estimated original image as a reference (origin) (re-integration is performed). This is because the pixel value is calculated.
[1907]
As described above, in the one-dimensional reintegration method, the approximation function f (x) which is a one-dimensional polynomial generated by the one-dimensional polynomial approximation method (the approximation function f (x )) As a reference (origin), an output image (pixel value) is generated by integrating the approximate function f (x) into an arbitrary range.
[1908]
Therefore, in the one-dimensional reintegration method, it is possible to output an image closer to the original image (the optical signal of the
[1909]
In other words, in the one-dimensional reintegration method, the data
[1910]
In detail, for example, the pixel value of each pixel corresponding to the distance along the one-dimensional direction from the line corresponding to the stationarity of the detected data is the pixel value obtained by the one-dimensional direction integration effect. It is assumed that the X-section waveform F (x) is approximated by an approximation function f (x).
[1911]
Then, in the one-dimensional reintegration method, based on such a premise, for example, the
[1912]
Therefore, in the one-dimensional reintegration method, it is possible to output an image closer to the original image (the optical signal of the
[1913]
Further, in the one-dimensional reintegration method, as described above, since the integration range is arbitrary, it is possible to create a resolution (temporal resolution or spatial resolution) different from the resolution of the input image by changing the integration range. Will be possible. That is, it is possible to generate an image having a resolution of any magnification, not only an integer value, with respect to the resolution of the input image.
[1914]
Furthermore, in the one-dimensional reintegration method, it is possible to calculate an output image (pixel value) with a smaller amount of processing compared to other reintegration methods.
[1915]
Next, a two-dimensional reintegration method will be described with reference to FIGS.
[1916]
In the two-dimensional reintegration method, it is assumed that the approximate function f (x, y) has already been generated by the two-dimensional polynomial approximation method.
[1917]
That is, for example, as shown in FIG.FA waveform obtained by projecting an image function F (x, y, t) representing an optical signal of the real world 1 (FIG. 259) having spatial continuity expressed in the spatial direction (X direction and Y direction), that is, , XY plane is assumed to be approximated to an approximate function f (x, y) which is an n-th order (n is an arbitrary integer) polynomial.
[1918]
In FIG. 272, the horizontal direction indicates the X direction which is one direction in the spatial direction, the upper right direction indicates the Y direction which is the other direction in the spatial direction, and the vertical direction indicates the light level. . GFRepresents the gradient of stationarity in the spatial direction.
[1919]
In the example of FIG. 272, since the direction of the continuity is the spatial direction (X direction and Y direction), the projection function of the optical signal to be approximated is the function F (x, y). However, as described later, the function F (x, t) or the function F (y, t) may be approximated according to the direction of the stationarity.
[1920]
In the case of the example in FIG. 272, in the two-dimensional reintegration method, the output pixel value M is calculated as in the following equation (189).
[1921]
[Equation 154]
[1922]
Note that in equation (189), ysRepresents the integration start position in the Y direction.eRepresents the integration end position in the Y direction. Similarly, xsRepresents the integration start position in the X direction, and xeRepresents the integration end position in the X direction. GeRepresents a predetermined gain.
[1923]
In the equation (189), the integration range can be set arbitrarily. In the two-dimensional reintegration method, by changing this integration range appropriately, the original pixel (the pixel of the input image from the sensor 2 (FIG. 259)) can be obtained. ) Can be created without deteriorating pixels having a spatial resolution of any magnification.
[1924]
FIG. 273 illustrates a configuration example of the
[1925]
As shown in FIG. 273, the
[1926]
The
[1927]
The
[1928]
The
[1929]
Here, details of the approximate function f (x, y) will be described.
[1930]
For example, the gradient G as shown in FIG.FThe optical signal of the real world 1 (FIG. 259) having the stationarity in the spatial direction represented by the following equation (optical signal represented by the waveform F (x, y)) is detected by the sensor 2 (FIG. 259), and the input image is obtained. (Pixel value).
[1931]
Further, for example, as shown in FIG. 274, the data continuity detecting unit 101 (FIG. 3) outputs a total of 20 pixels of 4 pixels in the X direction and 5 pixels in the Y direction of the input image. The process is performed on an
[1932]
From the viewpoint of the real
[1933]
In the
[1934]
Further, in FIG. 274, the second pixel from the left and the third pixel from the bottom are taken as the target pixel, and the (x, y) coordinates are set so that the center of the target pixel is the origin (0, 0). The system has been set. Then, a straight line of the angle θ passing through the origin (0, 0) (the gradient G representing the direction of data continuity)fX ′ is a relative distance in the X direction (hereinafter referred to as a cross-sectional direction distance) with respect to the straight line x ′.
[1935]
Further, the graph on the right side in FIG. 274 shows the image function F (x, y, t) using the position x, y, and z in the three-dimensional space and the time t as variables at any position in the Y direction. In y, a one-dimensional waveform projected in the X direction (hereinafter, such a waveform is referred to as an X-section waveform F (x ′)) is an approximated function, and is an n-th order (n is an arbitrary integer) ) Represents an approximate function f (x ′), which is a polynomial. Of the axes in the graph on the right side, the horizontal axis in the figure represents the distance in the cross-sectional direction, and the vertical axis in the figure represents the pixel value.
[1936]
In this case, since the approximation function f (x ') shown in FIG. 274 is an n-th order polynomial, it is expressed as the following equation (190).
[1937]
[Equation 155]
[1938]
Further, since the angle θ is determined, the straight line of the angle θ passing through the origin (0, 0) is uniquely determined, and the position x of the straight line in the X direction at an arbitrary position y in the Y directionlIs expressed as in the following equation (191). However, in equation (191), s represents cot θ.
[1939]
xl = S × y (191)
[1940]
That is, as shown in FIG.fThe point on the straight line corresponding to the stationarity of the data represented by the coordinate value (xl, Y).
[1941]
From Expression (191), the cross-sectional direction distance x ′ is expressed as in the following Expression (192).
[1942]
x '= xxl = X-s x y (192)
[1943]
Therefore, the approximate function f (x, y) at an arbitrary position (x, y) in the
[1944]
[Equation 156]
[1945]
Note that in equation (193), wiRepresents the feature amount of the approximation function f (x, y).
[1946]
Returning to FIG. 273, the feature amount w included in Expression (193)iIs supplied from the real
[1947]
Further, the approximation function f (x, y) of the equation (193) is substituted for the approximation function f (x, y) of the right side of the equation (189), and the right side of the equation (189) is expanded (calculated). Then, the output pixel value M is represented by the following equation (194).
[1948]
[Equation 157]
[1949]
In equation (194), Ki(Xs, Xe, Ys, Ye) Represents the integral component of the i-th order term. That is, the integral component Ki(Xs, Xe, Ys, Ye) Is as shown in the following equation (195).
[1950]
[Equation 158]
[1951]
The integral
[1952]
Specifically, as shown in Expressions (194) and (195), the integral component Ki(Xs, Xe, Ys, Ye) Is the start position x in the X direction of the integration range.s, And the end position x in the X directione, The start position y in the Y direction of the integration ranges, And the end position y in the Y directione, Variable s, gain Ge, And i, if i of the term is known.
[1953]
Of these, the gain GeIs determined by the spatial resolution magnification (integration range) set by the
[1954]
The range of i is determined by the order n set by the
[1955]
Since the variable s is cot θ as described above, the variable s is determined by the angle θ output from the data
[1956]
Also, the start position x in the X direction of the integration ranges, And the end position x in the X directione, And the start position y in the Y direction of the integration ranges, And the end position y in the Y directioneAre determined by the center pixel position (x, y) and the pixel width of the output pixel to be generated. Note that (x, y) represents a relative position from the center position of the target pixel when the real
[1957]
Further, each of the center pixel position (x, y) and the pixel width of the output pixel to be generated is determined by the spatial resolution magnification (integration range) set by the
[1958]
Therefore, the integral
[1959]
The output pixel
[1960]
Next, an image generation process (the process of step S103 in FIG. 40) of the image generation unit 103 (FIG. 274) using the two-dimensional reintegration method will be described with reference to the flowchart in FIG. 275.
[1961]
For example, now, an optical signal represented by a function F (x, y) shown in FIG. 272 is incident on the
[1962]
Note that in FIG. 276, the pixel value (input pixel value) of the
[1963]
In FIG. 276, in the process of step S101 in FIG. 40 described above, the data
[1964]
Returning to FIG. 275, in this case, in step S3201, the
[1965]
For example, suppose that the order is set to 5 and the integration range is set to a spatial quadruple density (spatial resolution magnification at which the pixel pitch width is 1/2 times in both the upper, lower, left, and right directions).
[1966]
That is, in this case, as shown in FIG. 277, a range of -0.5 to 0.5 in the X direction and a range of -0.5 to 0.5 in the Y direction (range of the
[1967]
In FIG. 277, M (1) indicates the pixel value of the
[1968]
Returning to FIG. 275, in step S3202, the feature
[1969]
In step S3203, the integral
[1970]
Specifically, for example, assuming that
[1971]
Ki(L) = Ki(Xs, Xe, Ys, Ye・ ・ ・ ・ ・ ・ (196)
[1972]
Specifically, in this case, the integral component K expressed by the following equation (197)i(L) is calculated.
[1973]
[Equation 159]
[1974]
In equation (197), the left side is the integral component Ki(L), and the right side is the integral component Ki(Xs, Xe, Ys, Ye). That is, in this case, l is any one of 1 to 4 and i is any one of 0 to 5, so that 6 Ki(1), 6 Ki(2), 6 Ki(3), 6 Ki(4) a total of 24 Ki(L) is calculated.
[1975]
More specifically, first, the integral
[1976]
Next, the integral
[1977]
Then, the integral
[1978]
The order of the processing in step S3202 and the processing in step S3203 is not limited to the example in FIG. 275, and the processing in step S3203 may be performed first, or the processing in step S3202 and the processing in step S3203 may be performed simultaneously. May be done.
[1979]
Next, in step S3204, the output pixel
[1980]
Specifically, in this case, the output pixel
[1981]
[Equation 160]
[1982]
[Equation 161]
[1983]
[Equation 162]
[1984]
[Equation 163]
[1985]
However, in this case, n in Expressions (198) to (201) is all 5.
[1986]
In step S3205, the output pixel
[1987]
If it is determined in step S3205 that the processing for all pixels has not been completed, the process returns to step S3202, and the subsequent processing is repeated. That is, the pixels that are not yet set as the target pixel are sequentially set as the target pixel, and the processing of steps S3202 to S3204 is repeated.
[1988]
Then, when the processing on all the pixels is completed (when it is determined in step S3205 that the processing on all the pixels is completed), the output pixel
[1989]
As described above, by using the two-dimensional reintegration method, four pixels having higher spatial resolution than the
[1990]
As an explanation of the two-dimensional reintegration method, an example in which the approximation function f (x, y) in the spatial direction (X direction and Y direction) is two-dimensionally integrated has been used. (X direction and t direction, or Y direction and t direction).
[1991]
That is, in the above-described example, the optical signal of the real world 1 (FIG.FSince the above is an example of the case where there is a continuity in the spatial direction represented by the following equation, an equation including a two-dimensional integral in the spatial direction (X direction and Y direction) as shown in the above equation (189) is used. Was done. However, the concept of two-dimensional integration is not limited to the spatial direction, but can be applied to a spatio-temporal direction (X direction and t direction or Y direction and t direction).
[1992]
In other words, in the two-dimensional polynomial approximation method that is a premise of the two-dimensional reintegration method, the image function F (x, y, t) representing the optical signal is not only in the spatial direction continuity but also in the spatiotemporal direction (however, , X direction and t direction, or Y direction and t direction), it is possible to approximate by a two-dimensional polynomial.
[1993]
Specifically, for example, when there is an object moving at a constant speed horizontally in the X direction, the direction of the movement of the object is represented by a slope V in the Xt plane as shown in FIG.FIs represented as In other words, the slope VFRepresents the direction of continuity in the spatiotemporal direction on the Xt plane. Therefore, the data continuity detecting unit 101 (FIG. 259) calculates the above-described angle θ (the gradient G representing the continuity in the spatial direction on the XY plane).F, The inclination V representing the stationarity in the spatiotemporal direction on the Xt plane.FAs the data continuity information corresponding to, the motion θ as shown in FIG.FSlope V corresponding tofIt is possible to output a motion θ) which is an angle between the direction of the continuity of the data represented by the following formula and the spatial X direction.
[1994]
Also, the real world estimating unit 102 (FIG. 259) using the two-dimensional polynomial approximation method can use an approximation function f (x, It is possible to calculate the coefficient (feature amount) wi of t). However, in this case, the equation used is not the above equation (193) but the following equation (202).
[1995]
[Equation 164]
[1996]
In equation (202), s is cot θ (where θ is a motion).
[1997]
Therefore, the image generation unit 103 (FIG. 259) using the two-dimensional reintegration method performs the operation by substituting f (x, t) of the above-described equation (202) into the right side of the following equation (203). This makes it possible to calculate the pixel value M.
[1998]
[Equation 165]
[1999]
Note that, in equation (203), tsRepresents the integration start position in the t direction, and teRepresents the integration end position in the t direction. Similarly, xsRepresents the integration start position in the X direction, and xeRepresents the integration end position in the X direction. GeRepresents a predetermined gain.
[2000]
Further, instead of the spatial direction X, the approximate function f (y, t) focused on the spatial direction Y can be handled in exactly the same manner as the above-described approximate function f (x, t).
[2001]
By the way, in equation (199), it is possible to obtain data that is not integrated in the time direction, that is, data without motion blur, by assuming that the t direction is assumed to be constant, that is, by ignoring the integration in the t direction. become. In other words, this method may be regarded as one of the two-dimensional reintegration methods in that reintegration is performed with a predetermined one of the two-dimensional polynomials being constant. May be regarded as one of the one-dimensional re-integration methods in that the re-integration is performed.
[2002]
In addition, in equation (203), the integration range can be set arbitrarily. In the two-dimensional reintegration method, by appropriately changing the integration range, the original pixel (input image from sensor 2 (FIG. 259)) can be obtained. ), It is possible to create a pixel having a resolution of an arbitrary magnification without deteriorating.
[2003]
That is, in the two-dimensional reintegration method, the time resolution can be created by appropriately changing the integration range in the time direction t. Also, by appropriately changing the integration range in the spatial direction X (or the spatial direction Y), it is possible to create a spatial resolution. Further, by appropriately changing each of the integration ranges in the time direction t and the space direction X, it is possible to create both the time resolution and the space resolution.
[2004]
As described above, creation of either the temporal resolution or the spatial resolution can be performed by the one-dimensional reintegration technique, but creation of both resolutions is impossible in principle by the one-dimensional reintegration technique. It is only possible to perform reintegration in two or more dimensions. That is, it is possible to create both resolutions only by the two-dimensional reintegration method and the three-dimensional reintegration method described later.
[2005]
In addition, since the two-dimensional reintegration method considers not a one-dimensional but a two-dimensional integration effect, it is also possible to generate an image closer to the optical signal of the real world 1 (FIG. 259).
[2006]
In other words, in the two-dimensional re-integration method, for example, the data
[2007]
Then, for example, the real-
[2008]
More specifically, for example, the real-
[2009]
In the two-dimensional reintegration method, based on such a premise, for example, the image generation unit 103 (the configuration is FIG. 273) in FIG. 259 (FIG. 3) performs the function F ( x, y), that is, the approximation function f (x, y) is integrated in at least a desired unit in the two-dimensional direction (for example, by calculating the right side of the above-described equation (186)) to obtain a desired size. A pixel value corresponding to a pixel (for example, an output image (pixel value M) in FIG. 259. For example, a
[2010]
Therefore, in the two-dimensional reintegration method, it is possible to create not only one of the temporal resolution and the spatial resolution but also create both resolutions. Further, in the two-dimensional reintegration method, it is possible to generate an image closer to the optical signal of the real world 1 (FIG. 259) as compared with the one-dimensional reintegration method.
[2011]
Next, a three-dimensional reintegration method will be described with reference to FIGS. 279 and 280.
[2012]
In the three-dimensional reintegration method, it is assumed that the approximate function f (x, y, t) has already been generated by the three-dimensional function approximation method.
[2013]
In this case, in the three-dimensional reintegration method, the output pixel value M is calculated as in the following expression (204).
[2014]
166
[2015]
Note that, in equation (204), tsRepresents the integration start position in the t direction, and teRepresents the integration end position in the t direction. Similarly, ysRepresents the integration start position in the Y direction.eRepresents the integration end position in the Y direction. Also, xsRepresents the integration start position in the X direction, and xeRepresents the integration end position in the X direction. Furthermore, GeRepresents a predetermined gain.
[2016]
In the expression (204), the integration range can be set arbitrarily. In the three-dimensional reintegration method, the integration range is appropriately changed to obtain the original pixel (the pixel of the input image from the sensor 2 (FIG. 259)). ) Can be created without deteriorating pixels having an arbitrary spatio-temporal resolution. That is, if the integration range in the spatial direction is reduced, the pixel pitch can be made finer. Conversely, if the integration range in the spatial direction is increased, the pixel pitch can be freely increased. If the integration range in the time direction is reduced, a time resolution can be created based on the real world waveform.
[2017]
FIG. 279 illustrates a configuration example of the
[2018]
As shown in FIG. 279, the
[2019]
The
[2020]
The
[2021]
The feature
[2022]
By the way, when the right side of the approximation function f (x, y) on the right side of the above equation (204) is expanded (calculated), the output pixel value M is expressed as the following equation (205).
[2023]
167
[2024]
In equation (205), Ki(Xs, Xe, Ys, Ye, Ts, Te) Represents the integral component of the i-th order term. Where xsIs the start position of the integration range in the X direction, xeIs the end position of the integration range in the X direction, and y issIs the start position of the integration range in the Y direction, and y iseRepresents the end position of the integration range in the Y direction, tsIs the start position of the integration range in the t direction, and t iseRepresents the end position of the integration range in the t direction.
[2025]
The integral
[2026]
Specifically, the integral
[2027]
The output pixel
[2028]
Next, with reference to the flowchart in FIG. 280, the image generation process (the process in step S103 in FIG. 40) of the image generation unit 103 (FIG. 279) using the three-dimensional reintegration method will be described.
[2029]
For example, in the process of step S102 in FIG. 40 described above, the real-world estimating unit 102 (FIG. 259) sets an optical signal of the real world 1 (FIG. 259) with a predetermined pixel in the input image as a target pixel. It is assumed that an approximation function f (x, y, t) for approximating has already been generated.
[2030]
In the process of step S101 in FIG. 40 described above, the data continuity detecting unit 101 (FIG. 259) uses the same pixel as that of the real
[2031]
In this case, in step S3301 of FIG. 280, the
[2032]
In step S3302, the feature
[2033]
In step S3303, the integral
[2034]
The order of the processing in step S3302 and the processing in step S3303 is not limited to the example of FIG. 280, and the processing in step S3303 may be performed first, or the processing in step S3302 and the processing in step S3303 may be performed simultaneously. May be done.
[2035]
Next, in step S3304, the output pixel
[2036]
In step S3305, the output pixel
[2037]
If it is determined in step S3305 that the processing for all pixels has not been completed, the process returns to step S3302, and the subsequent processing is repeated. That is, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing of steps S3302 to S3304 is repeated.
[2038]
Then, when the processing on all pixels is completed (when it is determined in step S3305 that the processing on all pixels is completed), the output pixel
[2039]
As described above, in the above-described equation (204), the integration range can be set arbitrarily. Therefore, in the three-dimensional reintegration method, by changing this integration range appropriately, the original pixel (sensor 2 (FIG. 259) ) Can be created without deteriorating pixels of any resolution with respect to the pixels of the input image from).
[2040]
That is, in the three-dimensional reintegration method, the time resolution can be created by appropriately changing the integration range in the time direction. By appropriately changing the integration range in the spatial direction, it is possible to create a spatial resolution. Further, by appropriately changing each of the integration ranges in the temporal direction and the spatial direction, it is possible to create both the temporal resolution and the spatial resolution.
[2041]
Specifically, in the three-dimensional reintegration method, since there is no approximation when dropping to two dimensions or one dimension, highly accurate processing can be performed. In addition, it is possible to process the movement in the oblique direction without being reduced two-dimensionally. Furthermore, since it is not reduced to two dimensions, machining in each dimension becomes possible. For example, in the two-dimensional reintegration method, when the space is degenerated in the spatial direction (X direction and Y direction), processing in the t direction, which is the time direction, cannot be performed. On the other hand, in the three-dimensional reintegration method, any processing in the spatiotemporal direction can be performed.
[2042]
As described above, creation of either the temporal resolution or the spatial resolution can be performed by the one-dimensional reintegration technique, but creation of both resolutions is impossible in principle by the one-dimensional reintegration technique. It is only possible to perform reintegration in two or more dimensions. That is, it is possible to create both resolutions only by the two-dimensional reintegration method and the three-dimensional reintegration method described above.
[2043]
In addition, since the three-dimensional reintegration method considers a three-dimensional integration effect instead of one-dimensional or two-dimensional, an image closer to the optical signal of the real world 1 (FIG. 259) can be generated. .
[2044]
In other words, in the three-dimensional reintegration-similar method, for example, the real-
[2045]
Further, for example, when the data
[2046]
Specifically, for example, the real-
[2047]
In the three-dimensional reintegration method, for example, the image generation unit 103 (the configuration is FIG. 279) in FIG. 259 (FIG. 3) converts the optical signal function F estimated by the real
[2048]
Therefore, the three-dimensional reintegration method can generate an image closer to the optical signal of the real world 1 (FIG. 259) than the conventional image generation method or the one-dimensional or two-dimensional reintegration method described above. Will be possible.
[2049]
Next, referring to FIG. 281, the real world estimation information input from the real
[2050]
Note that the differential value here is obtained by obtaining an approximate function f (x) that approximately represents the real world, and then obtaining a first-order differential expression f (x) ′ (approximate function) obtained from the approximate function f (x). Is in the frame direction, a value obtained at a predetermined position using a first-order differential equation f (t) ′) obtained from the approximate function f (t). Further, the slope referred to here is a value obtained by calculating the approximate function f (x) (or f (t)) without using the approximate function f (x) (or f (t)). This indicates a tilt at a predetermined position. However, since the differential value is a slope at a predetermined position of the approximate function f (x), each of the differential values is a slope at a predetermined position on the approximate function f (x) that approximately describes the real world. Therefore, regarding the differential value and the slope as the real world estimation information input from the real
[2051]
The
[2052]
The
[2053]
Next, an image generation process performed by the
[2054]
In step S3401, the
[2055]
At this time, for example, when generating an image composed of pixels having a density twice (a total of four times) each in the spatial direction X and the spatial direction Y with respect to the input image, the real
[2056]
In step S3402, the
[2057]
In step S3403, the
[2058]
Here, as for the shift amount Cx (ty), the gradient of the stationarity is GfWhere Cx (ty) = ty / GfIs defined by The shift amount Cx (ty) indicates a shift width of the approximate function f (x) defined on the position in the spatial direction Y = 0 with respect to the spatial direction X at the position in the spatial direction Y = ty. Therefore, for example, when the approximation function is defined as f (x) on the position in the space direction Y = 0, the approximation function f (x) is Cx ( ty), the approximate function is f (x−Cx (ty)) (= f (x−ty / Gf)).
[2059]
For example, in the case of a pixel Pin as shown in FIG. 283, one pixel in the figure (the size of one pixel in the figure is 1 in both the horizontal direction and the vertical direction) is 2 in the vertical direction. When dividing (when generating double-density pixels in the vertical direction), the
[2060]
In step S3404, the
[2061]
Pa = Pin−f (Xin) ′ × Cx (−0.25) (206)
[2062]
Pb = Pin−f (Xin) ′ × Cx (0.25) (207)
[2063]
In the above equations (206) and (207), Pa, Pb, and Pin indicate the pixel values of the pixels Pa, Pb, and Pin.
[2064]
That is, as shown in FIG. 284, the amount of change in the pixel value is set by multiplying the inclination f (Xin) ′ of the target pixel Pin by the moving distance in the X direction, that is, the shift amount, and the pixel value of the target pixel Pin is set. Is set as a reference, the pixel value of a newly generated pixel is set.
[2065]
In step S3405, the
[2066]
In step S3403, the
[2067]
In step S3404, the
[2068]
P01 = Pa + f (Xin−Cx (−0.25)) ′ × (−0.25) (208)
[2069]
P02 = Pa + f (Xin−Cx (−0.25)) ′ × (0.25) (209)
[2070]
P03 = Pb + f (Xin−Cx (0.25)) ′ × (−0.25) (210)
[2071]
P04 = Pb + f (Xin−Cx (0.25)) ′ × (0.25) (211)
[2072]
In the above formulas (208) to (211), P01 to P04 indicate pixel values of the pixels P01 to P04.
[2073]
In step S3405, the extrapolation /
[2074]
In step S3406, the
[2075]
In step S3406, when the
[2076]
That is, as shown in FIG. 284, using a slope f (x) ′ on the approximation function f (x), a new pixel is determined according to the distance in the spatial direction X from the pixel of interest whose slope is obtained. Are obtained by extrapolation.
[2077]
In the above example, the inclination (differential value) when calculating a quadruple-density pixel has been described as an example. However, if information on the inclination at more positions can be obtained as real world estimation information. It is also possible to calculate pixels having a higher density in the spatial direction by the same method as described above.
[2078]
In the above example, an example of obtaining a double-density pixel value has been described. However, since the approximation function f (x) is a continuous function, a necessary gradient (differential value) is required for pixel values other than double-density. Is obtained, it becomes possible to generate an image composed of even higher density pixels.
[2079]
According to the above, based on the information of the gradient (or differential value) f (x) ′ of the approximation function f (x) that approximates the real world of each pixel of the input image in the spatial direction, supplied as the real world estimation information. Thus, it is possible to generate pixels of an image having a higher resolution than the input image.
[2080]
Next, referring to FIG. 285, the real-world estimation information input from the real-
[2081]
The
[2082]
The
[2083]
Next, an image generation process performed by the
[2084]
In step S3421, the
[2085]
At this time, for example, when generating an image composed of pixels having a density twice (in total, four times) each in the spatial direction and the frame direction with respect to the input image, the real
[2086]
In step S3422, the
[2087]
In step S3423, the
[2088]
Here, the shift amount Ct (ty) is expressed as follows:fWhere Ct (ty) = ty / VfIs defined by The shift amount Ct (ty) indicates a shift width of the approximate function f (t) defined on the position in the spatial direction Y = 0 with respect to the frame direction T at the position in the spatial direction Y = ty. Therefore, for example, when an approximation function is defined as f (t) on the position in the spatial direction Y = 0, the approximation function f (t) is Ct ( ty), the approximate function is f (t−Ct (ty)) (= f (t−ty / Vf)).
[2089]
For example, in the case of a pixel Pin as shown in FIG. 287, one pixel in the figure (the size of one pixel in the figure is 1 in both the frame direction and the spatial direction) is 2 in the spatial direction. When dividing (when generating double-density pixels in the spatial direction), the
[2090]
In step S3424, the
[2091]
Pat = Pin−f (Tin) ′ × Ct (−0.25) (212)
[2092]
Pbt = Pin−f (Xin) ′ × Ct (0.25) (213)
[2093]
In the above equations (212) and (213), Pat, Pbt, and Pin indicate the pixel values of the pixels Pat, Pbt, and Pin.
[2094]
That is, as shown in FIG. 288, the amount of change in the pixel value is set by multiplying the inclination f (Xin) ′ of the target pixel Pin by the moving distance in the X direction, that is, the shift amount, and the pixel value of the target pixel Pin is set. Is set as a reference, the pixel value of a newly generated pixel is set.
[2095]
In step S3425, the
[2096]
In step S3423, the
[2097]
In step S3424, the
[2098]
P01t = Pat + f (Tin−Ct (−0.25)) ′ × (−0.25) (214)
[2099]
P02t = Pat + f (Tin−Ct (−0.25)) ′ × (0.25) (215)
[2100]
P03t = Pbt + f (Tin−Ct (0.25)) ′ × (−0.25) (216)
[2101]
P04t = Pbt + f (Tin−Ct (0.25)) ′ × (0.25) (217)
[2102]
In the above equations (208) to (211), P01t to P04t indicate the respective pixel values of the pixels P01t to P04t.
[2103]
In step S3425, the extrapolation /
[2104]
In step S3426, the
[2105]
If it is determined in step S3426 that the inclination has been processed for all the pixels, in step S3427 the
[2106]
That is, as shown in FIG. 288, using a slope f (t) ′ on the approximation function f (t), a new slope is obtained in accordance with the number of frames separated in the frame direction T from the pixel of interest whose slope is obtained. The pixel value of the pixel is determined by extrapolation.
[2107]
In the above example, the inclination (differential value) when calculating a quadruple-density pixel has been described as an example. However, if information on the inclination at more positions can be obtained as real world estimation information. It is also possible to calculate pixels having a higher density in the frame direction by the same method as described above.
[2108]
In the above example, an example of obtaining a double-density pixel value has been described. However, since the approximation function f (t) is a continuous function, a necessary gradient (differential value) is required for pixel values other than double-density. Is obtained, it becomes possible to generate an image composed of even higher density pixels.
[2109]
By the above processing, the slope (or differential value) f (t) ′ of the approximation function f (t) which approximates the real world of each pixel of the input image in the frame direction supplied as the real world estimation information is obtained. Thus, it is possible to generate pixels of an image having a higher resolution than the input image also in the frame direction.
[2110]
According to the above, a real-world optical signal is projected by a plurality of detection elements of a sensor, each having a spatio-temporal integration effect, and a part of the continuity of the real-world optical signal is lacking, and is projected by a detection element. The stationarity of the data in the image data composed of a plurality of pixels having pixel values is detected, and the pixel of interest in the image data is shifted in a one-dimensional direction in the spatio-temporal direction according to the detected stationarity. The inclination of the pixel values of a plurality of pixels at the position is estimated as a function corresponding to an optical signal in the real world, and a straight line having an inclination centered on a position shifted in a one-dimensional direction from the center position of the pixel of interest within the pixel of interest. Are generated as the pixel values of the pixels having higher resolution than the target pixel, it is possible to generate pixels having higher resolution in the spatiotemporal direction than the input image.
[2111]
Next, still another example of the embodiment of the image generation unit 103 (FIG. 3) will be described with reference to FIGS.
[2112]
FIG. 289 illustrates a configuration example of the
[2113]
The
[2114]
Hereinafter, the image output from the classification
[2115]
In the embodiment of this example, it is assumed that the classification adaptive processing is, for example, processing for improving the spatial resolution of an input image. That is, it is assumed that the input image, which is a standard resolution image, is converted into a predicted image, which is a high resolution image.
[2116]
Hereinafter, the image of the standard resolution is appropriately referred to as an SD (Standard Definition) image. Further, pixels constituting the SD image are appropriately referred to as SD pixels.
[2117]
On the other hand, a high-resolution image is hereinafter appropriately referred to as an HD (High Definition) image. In addition, pixels constituting an HD image are appropriately referred to as HD pixels.
[2118]
Specifically, in the embodiment of this example, the classification adaptive processing is the following processing.
[2119]
That is, first, in order to find the HD pixel of the prediction image (HD image) in the target pixel (SD pixel) of the input image (SD image), the SD pixel (hereinafter, referred to as the target pixel) including the target pixel is disposed. Such SD pixels are referred to as class taps), and each of the feature amounts is obtained, and a class preliminarily classified for each of the feature amounts is specified (a class code of a class tap group is specified).
[2120]
Then, among a plurality of preset coefficient groups (each of the coefficient groups corresponds to one predetermined class code), each of the coefficients constituting the coefficient group corresponding to the specified class code is , Using the SD pixels in the vicinity thereof including the target pixel (hereinafter, such SD pixels of the input image are referred to as prediction taps. The prediction taps may be the same as the class taps). By executing the calculation, the HD pixel of the predicted image (HD image) in the target pixel (SD pixel) of the input image (SD image) is obtained.
[2121]
Therefore, in the embodiment of this example, the input image (SD image) is subjected to conventional class classification adaptive processing in the class classification
[2122]
That is, from the viewpoint of continuity, the embodiment of this example can be said to be one embodiment of the
[2123]
Therefore, hereinafter, the embodiment of this example will be referred to as a classification adaptive processing correction method with respect to the above-described reintegration method.
[2124]
The
[2125]
In FIG. 289, when a signal of the real world 1 (distribution of light intensity), which is an image, is incident on the
[2126]
The classification
[2127]
As described above, the classification
[2128]
As a result, even if the input image (SD image) in which the details of the
[2129]
Therefore, in order to solve this problem, in the class classification adaptive processing correction method, the class classification adaptive
[2130]
This real world estimation information is generated by the data
[2131]
That is, the data
[2132]
Although the data continuity information is an angle in the example of FIG. 289, the information is not limited to the angle, and various information described above can be used.
[2133]
The real
[2134]
Note that the real world estimation information is a feature amount image (details thereof will be described later) in the example of FIG. 289, but is not limited to the feature amount image, and various kinds of information described above can be used.
[2135]
The classification adaptive
[2136]
The addition unit 3503 adds the predicted image output from the classification
[2137]
The output image thus output is an image closer to the signal (image) of the
[2138]
Furthermore, by configuring the signal processing device (image processing device) 4 as shown in FIG. 289, it becomes possible to apply processing for one frame as a whole. That is, in a signal processing device (for example, FIG. 315 described later) that uses a combined method described later, it is necessary to specify an area of a pixel and then generate an output image, but the
[2139]
Next, details of the classification
[2140]
FIG. 290 illustrates a configuration example of the classification
[2141]
In FIG. 290, an input image (SD image) input from the
[2142]
The class
[2143]
Note that the coefficient learning process of the
[2144]
The coefficients stored in the
[2145]
The
[2146]
The
[2147]
More specifically, the
[2148]
168
[2149]
In Expression (218), q ′ represents an HD pixel of the predicted image (HD image). ciEach (i is an integer value of 1 to n) represents each prediction tap (SD pixel). Also, diRepresents each of the prediction coefficients.
[2150]
As described above, since the classification
[2151]
FIG. 291 shows prediction coefficients (d in Expression (215)) stored in the
[2152]
In the class classification adaptive processing correction method, a coefficient memory (
[2153]
Accordingly, hereinafter, the teacher image in the class classification adaptive
[2154]
The class classification adaptive processing
[2155]
FIG. 292 illustrates a detailed configuration example of the class classification adaptive
[2156]
In FIG. 292, a predetermined image is input to each of the down-converting
[2157]
The down-converting
[2158]
As described above, since the down-converting
[2159]
The
[2160]
The
[2161]
Note that each of the above-described
[2162]
The normal equation generation unit 3536 calculates, for each class code, the prediction taps of the first student image (SD image) input from the
[2163]
The normal equation generating unit 3536 and the
[2164]
In the above equation (218), before learning, the prediction coefficient diAre undetermined coefficients. Learning is performed by inputting HD pixels of a plurality of teacher images (HD images) for each class code. There are m HD pixels corresponding to the predetermined class code, and each of the m HD pixels is represented by qkWhen (k is an integer value of 1 to m), the following equation (219) is set from the equation (218).
[2165]
169
[2166]
That is, Expression (219) calculates the predetermined HD pixel q by calculating the right side.kCan be estimated and estimated. Note that, in equation (219), ekRepresents an error. That is, the HD pixel q of the predicted image (HD image) which is the operation result on the right sidek’Is the actual HD pixel qkDoes not exactly coincide with the predetermined error ekincluding.
[2167]
Therefore, in equation (219), for example, the error ekPrediction coefficient d that minimizes the sum of squares ofiMay be obtained by learning.
[2168]
Specifically, for example, the HD pixel q is set so that m> n.kCan be collected by learning, the prediction coefficient diIs uniquely determined.
[2169]
That is, the prediction coefficient d on the right side of the equation (219)iIs obtained by the following method (220).
[2170]
[Equation 170]
[2171]
Therefore, if the normal equation represented by the equation (220) is generated, the prediction coefficient d is solved by solving the normal equation.iIs uniquely determined.
[2172]
Specifically, when each of the matrices of the normal equation represented by the equation (220) is defined as in the following equations (221) to (223), the normal equation is represented by the following equation (224). expressed.
[2173]
[Equation 171]
[2174]
[Equation 172]
[2175]
173
[2176]
[Equation 174]
[2177]
As shown in equation (222), the matrix DMATIs a prediction coefficient d to be obtained.iIt is. Therefore, in equation (224), the matrix C on the left sideMATAnd the matrix Q on the right sideMATIs determined, the matrix DMAT(Ie, the prediction coefficient di) Can be calculated.
[2178]
More specifically, as shown in equation (221), matrix CMATIs a prediction tap cikCan be calculated if is known. Prediction tap cikIs extracted by the
[2179]
Also, as shown in equation (223), the matrix QMATIs a prediction tap cikAnd HD pixel qkCan be calculated if is known. Prediction tap cikIs the matrix CMATAre the same as those contained in each of the components, and the HD pixel qkIs the prediction tap cikIs the HD pixel of the first teacher image with respect to the pixel of interest (SD pixel of the first student image) included in. Therefore, the normal equation generation unit 3536 calculates the prediction tap c supplied from the region extraction unit 3535.ikAnd the matrix Q using the first teacher imageMATCan be calculated.
[2180]
In this way, the normal equation generation unit 3536 determines, for each class code, the matrix CMATAnd matrix QMATAre calculated, and the calculation result is supplied to the
[2181]
The
[2182]
Specifically, the above-mentioned normal equation of Expression (224) can be modified as in the following Expression (225).
[2183]
[Equation 175]
[2184]
In equation (225), the matrix D on the left sideMATIs the prediction coefficient d to be obtainediIt is. Also, the matrix CMATAnd matrix QMATAre supplied from the normal equation generating unit 3536. Therefore, the
[2185]
The
[2186]
More specifically, the
[2187]
Here, referring to FIGS. 293 to 298, the problem of the above-described conventional class classification adaptive processing (class classification adaptive processing section 3501), that is, in FIG. Even if the input image (SD image) whose detail has been collapsed is converted into an HD image (a predicted image that predicts the signal of the real world 1) by the classification
[2188]
FIG. 293 illustrates an example of a processing result of the classification
[2189]
In FIG. 293, the
[2190]
In other words, it is assumed that the
[2191]
The
[2192]
Comparing the
[2193]
The comparison result indicates that the classification
[2194]
However, comparing the predicted
[2195]
In order to investigate why the predicted
[2196]
Similarly, the present applicant uses a
[2197]
The applicant of the present application obtained the following investigation result by comparing the
[2198]
In other words, the region where the difference between the
[2199]
In other words, an area where the predicted
[2200]
Therefore, the applicant of the present application has further conducted the following investigation in order to elucidate the factors of this investigation result.
[2201]
That is, the applicant of the present application first sets the specific pixel value of the
[2202]
FIG. 294 shows one example of the investigated area. In FIG. 294, the horizontal direction is the X direction which is one direction in the spatial direction, and the vertical direction is the Y direction which is the other direction in the spatial direction.
[2203]
That is, the applicant of the present application has investigated an area 3544-1 of the
[2204]
FIG. 295 is a specific example of the
[2205]
In FIG. 295, the vertical axis represents the pixel value, and the horizontal axis represents the x-axis parallel to the spatial direction X. On the x-axis, the origin is the leftmost position of the third HD pixel from the left in the figure among the six HD pixels of the
[2206]
In FIG. 295, the solid line represents the pixel value of the
[2207]
Next, as in the above-described investigation of the region with a small difference, the applicant of the present application also specifies the specifics of the
[2208]
FIG. 296 shows one example of the investigated area. In FIG. 296, in the figure, the horizontal direction is the X direction, which is one direction in the spatial direction, and the vertical direction is the Y direction, which is the other direction in the spatial direction.
[2209]
That is, the applicant of the present application has investigated a region 3544-2 of the
[2210]
FIG. 297 is a specific example of the
[2211]
In FIG. 297, the vertical axis represents the pixel value, and the horizontal axis represents the x-axis parallel to the spatial direction X. On the x-axis, the origin is the leftmost position of the third HD pixel from the left in the figure among the six HD pixels of the
[2212]
In FIG. 297, the solid line represents the pixel value of the
[2213]
Comparing FIG. 295 and FIG. 297, it can be seen from the waveform shapes of both approximation functions f (x) that each of the regions includes a thin line region.
[2214]
However, in FIG. 295, the area of the thin line exists substantially in the range of x = 0 to x = 1, whereas in FIG. 297, the area of the thin line is substantially in the range of x = −0.5 to x = It is in the range of 0.5. That is, in FIG. 295, a thin line region is almost included in one SD pixel of the
[2215]
Therefore, in the case of the state shown in FIG. 295, the difference between the pixel values (solid lines in the figure) of the two HD pixels of the
[2216]
In such a state (in the state shown in FIG. 295), one SD pixel of the
[2217]
On the other hand, in the state shown in FIG. 297, the difference between the pixel values (solid lines in the figure) of the two HD pixels of the
[2218]
In such a state (in the state shown in FIG. 297), one SD pixel of the
[2219]
By the way, comparing each of the approximation functions f (x) (indicated by a dashed line in the figure) of the signal of the
[2220]
Therefore, one SD pixel of the
[2221]
From this point of view, if the above-mentioned investigation results are rephrased, for example, an approximate function f in an SD pixel such as an SD pixel in the range of x = 0 to x = 1.0 shown in FIG. When the HD pixel is generated from the SD pixel having a small change in (x) (that is, the change in the signal of the
[2222]
On the other hand, one SD pixel of the
[2223]
From this point of view, if the above-mentioned investigation results are rephrased, for example, an approximate function f in an SD pixel such as an SD pixel existing in the range of x = 0 to x = 1.0 shown in FIG. When the HD pixel is generated by the conventional classification adaptive processing from the SD pixel having a large change of (x) (that is, the change of the signal of the
[2224]
Summarizing the above investigation results, it is difficult to restore the detail in the pixel by the conventional signal processing between pixels (for example, the classification adaptive processing) in the state shown in FIG. 298. It is.
[2225]
That is, FIG. 298 is a diagram for explaining the knowledge obtained as a result of the above-described investigation performed by the applicant of the present application.
[2226]
In FIG. 298, the horizontal direction in the figure represents the X direction, which is one of the directions (spatial directions) in which the detection elements of the sensor 2 (FIG. 289) are arranged, and the vertical direction in the figure represents the light direction. Represents a level or pixel value. The dotted line represents an X-sectional waveform F (x) of a signal of the real world 1 (FIG. 289), which is an image, and the solid line represents a signal (image) of the
[2227]
Meanwhile, since the above-described SD image 3542 (FIG. 293) is an image of the input image (FIG. 289) from the
[2228]
Further, in the above-described investigation, the investigation is performed on the signal of the real world 1 (approximate function f (x)) corresponding to the thin line. However, the present invention is not limited to the thin line, and the level of the signal of the
[2229]
Therefore, when the above-described investigation result is applied to the state shown in FIG. 298, the result is as follows.
[2230]
That is, as shown in FIG. 298, the SD pixel (the output pixel from the sensor 2) in which the change amount of the signal of the real world 1 (the change amount of the X-sectional waveform F (x)) △ P is large in the pixel is the target pixel. When HD pixels (for example, pixels of a predicted image output from the classification
[2231]
Specifically, in the conventional method including the classification adaptive processing, image processing between pixels of the
[2232]
That is, as shown in FIG. 298, in the
[2233]
In the conventional method, the pixel value P is set as a reference, and the pixel value P is set as a processing target, and image processing is performed. In other words, in the conventional method, image processing is performed ignoring changes in the
[2234]
As described above, as long as the pixel is processed as the minimum unit, even if any image processing (even in the class classification adaptive processing) is performed, it is not possible to accurately reproduce the change of the signal of the
[2235]
In other words, the problem of the above-described class classification adaptation processing, that is, in FIG. 289, the input image (SD image) in which the details of the
[2236]
This problem is not limited to the classification adaptive processing, but is a problem that all conventional image processing methods have, and the cause of the problem is exactly the same.
[2237]
The problem of the conventional image processing method and the cause of the problem have been described above.
[2238]
By the way, as described above, the data
[2239]
Therefore, it is possible to estimate the amount of change in the signal of the
[2240]
Therefore, the applicant of the present application estimates a predicted image (an image that predicts the
[2241]
That is, in FIG. 289, the data
[2242]
The details of the class classification
[2243]
Therefore, the details of the remaining classification adaptive
[2244]
First, the principle of the classification adaptive
[2245]
As described above, in FIG. 293, the
[2246]
An image obtained by subtracting the predicted
[2247]
Therefore, if the classification adaptive
[2248]
That is, the class classification adaptive
[2249]
By the way, as described above, the degree of difference (error) between the signal of the real world 1 (the original image before being incident on the sensor 2) and the predicted image output from the classification
[2250]
Therefore, the class classification adaptive
[2251]
Therefore, for example, the class classification adaptive
[2252]
At this time, the resolution of the feature image is the same as the resolution of the input image from the
[2253]
Accordingly, the class classification adaptive
[2254]
The principle of the class classification adaptive
[2255]
FIG. 299 illustrates a configuration example of the class classification adaptive
[2256]
In FIG. 299, the feature amount image (SD image) input from the real
[2257]
The class
[2258]
Note that the coefficient learning processing of the
[2259]
The coefficient stored in the
[2260]
The
[2261]
More specifically, the
[2262]
176
[2263]
In Expression (226), u ′ represents an HD pixel of the difference prediction image (HD image). aiEach (i is an integer value of 1 to n) represents each prediction tap (SD pixel). Also, giRepresents each of the correction coefficients.
[2264]
Therefore, in FIG. 289, while the HD pixel q ′ of the predicted image represented by the above equation (218) is output from the classification
[2265]
That is, the HD pixel o 'of the output image finally output from the
[2266]
177
[2267]
FIG. 300 shows a correction coefficient (g in the above-described equation (222)) stored in the
[2268]
In FIG. 291, as described above, when the learning process for class classification
[2269]
Referring back to FIG. 300, the first student image among these is input to the data
[2270]
On the other hand, the first teacher image and the learning prediction image are input to the adding
[2271]
The adding
[2272]
Data
[2273]
The real
[2274]
The
[2275]
The
[2276]
Note that each of the above-described
[2277]
The normal equation generation unit 3578 calculates a prediction tap of the second student image (SD image) input from the
[2278]
The normal equation generation unit 3578 and the correction coefficient determination unit 3579 will be described in more detail.
[2279]
In the above equation (226), before learning, the correction coefficient giAre undetermined coefficients. Learning is performed by inputting HD pixels of a plurality of teacher images (HD images) for each class code. There are m HD pixels corresponding to the predetermined class code, and each of the m HD pixels is represented by ukWhen (k is an integer value of 1 to m), the following equation (228) is set from the equation (226).
[2280]
178
[2281]
That is, Expression (228) indicates that a predetermined HD pixel can be predicted and estimated by calculating the right side. Note that in equation (228), ekRepresents an error. That is, the HD pixel u of the difference prediction image (HD image) which is the calculation result on the right sidek′ Is the HD pixel u of the actual difference imagekDoes not exactly coincide with the predetermined error ekincluding.
[2282]
Therefore, in equation (228), for example, the error ekCorrection coefficient a that minimizes the sum of squares ofiMay be obtained by learning.
[2283]
For example, the HD pixel u of the difference image is set so that m> n.kCan be collected by learning, the correction coefficient aiIs uniquely determined.
[2284]
That is, the correction coefficient a on the right side of the equation (228)iIs obtained by the least squares method as shown in the following equation (229).
[2285]
179
[2286]
When the respective matrices of the normal equation represented by the equation (229) are defined as in the following equations (230) to (232), the normal equation is represented as the following equation (233).
[2287]
[Equation 180]
[2288]
[Equation 181]
[2289]
[Equation 182]
[2290]
183
[2291]
As shown in equation (231), the matrix GMATIs a correction coefficient g to be obtained.iIt is. Therefore, in equation (233), the matrix A on the left sideMATAnd the matrix U on the right sideMATIs determined, the matrix G isMAT(That is, the correction coefficient gi) Can be calculated.
[2292]
Specifically, as shown in equation (230), matrix AMATIs a prediction tap aikCan be calculated if is known. Prediction tap aikIs extracted by the
[2293]
Also, as shown in equation (232), the matrix UMATIs a prediction tap aikAnd the HD pixel u of the difference imagekCan be calculated if is known. Prediction tap aikIs the matrix AMAT, And the HD pixel u of the difference imagekAre HD pixels of the second teacher image output from the
[2294]
In this way, the normal equation generation unit 3578 outputs the matrix A for each class code.MATAnd matrix UMATIs calculated, and the calculation result is supplied to the correction coefficient determination unit 3579 in association with the class code.
[2295]
The correction coefficient determination unit 3579 calculates the matrix G of the above-described equation (233) based on the normal equation corresponding to the supplied predetermined class code.MATCorrection coefficient g which is each component ofiIs calculated.
[2296]
Specifically, the normal equation of the above-mentioned equation (233) can be transformed into the following equation (234).
[2297]
[Equation 184]
[2298]
In equation (234), the matrix G on the left sideMATIs the correction coefficient g to be obtainediIt is. Also, matrix AMATAnd matrix UMATAre supplied from the normal equation generation unit 3578. Accordingly, the correction coefficient determining unit 3579 outputs the matrix A corresponding to the predetermined class code from the normal equation generating unit 3578.MATAnd matrix UMATIs supplied, the matrix G is calculated by performing a matrix operation on the right side of Expression (234).MATIs calculated, and the calculation result (correction coefficient gi) Is stored in the
[2299]
The details of the classification adaptive
[2300]
The form of the feature amount image is not particularly limited as long as the class classification adaptive
[2301]
For example, it is possible to apply the in-pixel inclination as the feature amount.
[2302]
The term “in-pixel tilt” is a newly defined word. Therefore, the in-pixel tilt will be described below.
[2303]
As described above, in FIG. 289, the signal of the
[2304]
Further, for example, when the signal of the
[2305]
Therefore, the real-
[2306]
FIG. 301 shows f as an example of such an approximate function f (x) expressed by the following equation (235).4(X) (f is a fifth-order polynomial4(X)) and f expressed by the following equation (236).5(X) (f is a first-order polynomial5(X)) is plotted.
[2307]
[Equation 185]
[2308]
186
[2309]
It should be noted that w in equation (235)0Or w5, And w in equation (236)0’And w1′ Represents the following coefficients calculated by the real
[2310]
In FIG. 301, the x-axis in the horizontal direction in the figure represents the relative position in the spatial direction X from the target pixel when the left end of the target pixel is the origin (x = 0). However, on the x-axis, the width L of the detection element of the
[2311]
As shown in FIG. 301, a first-order approximation function f5(X) (approximate function f expressed by equation (232)5(X)) is a straight line approximation of the X-section waveform F (x) at the target pixel. Here, the slope of the approximate straight line is referred to as an in-pixel slope. That is, the in-pixel inclination is a coefficient w of x in Expression (236).1’.
[2312]
When the in-pixel inclination is steep, it indicates that the amount of change in the X-sectional waveform F (x) at the pixel of interest is large. On the other hand, when the inclination in the pixel is gentle, it indicates that the change amount of the X-sectional waveform F (x) in the target pixel is small.
[2313]
As described above, the in-pixel tilt can appropriately represent the degree of change of the signal of the
[2314]
For example, FIG. 302 shows a feature amount image actually generated using the in-pixel inclination as a feature amount.
[2315]
That is, in FIG. 302, the image on the left side in the figure represents the same image as the
[2316]
The area 3542-1 of the
[2317]
The area 3542-2 of the
[2318]
Comparing the area 3542-1 of the
[2319]
On the other hand, comparing the area 3542-2 of the
[2320]
As described above, the feature amount image generated by using the value corresponding to the in-pixel inclination as a pixel can appropriately represent the degree of change of the signal of the
[2321]
Next, a specific calculation method of the in-pixel inclination will be described.
[2322]
That is, if the in-pixel inclination of the target pixel is described as grad, the in-pixel inclination grad is expressed by the following equation (237).
[2323]
187
[2324]
In equation (237), PnRepresents the pixel value of the pixel of interest. PcRepresents the pixel value of the center pixel.
[2325]
Specifically, for example, as shown in FIG. 303, the input image from the
[2326]
In addition, in equation (237), xn′ Represents the distance in the cross-sectional direction at the center point of the pixel of interest. Here, the center of the center pixel (
[2327]
FIG. 304 is a diagram illustrating the distance in the cross-section direction of each pixel in the
[2328]
However, each pixel width is set to 1 in both the X and Y directions. The positive direction of the X direction is the right direction in the figure. Further, β represents the distance in the cross-sectional direction of the
[2329]
188
[2330]
As described above, the inclination in the pixel is calculated by a simple calculation using the two input pixel values of the central pixel (the
[2331]
When it is desired to obtain a more accurate in-pixel inclination, the real-
[2332]
189
[2333]
Next, with reference to FIG. 305, an image generation process (the process of step S103 in FIG. 40) of the image generation unit 103 (FIG. 289) using the class classification adaptive processing correction method will be described.
[2334]
In FIG. 289, when a signal of the
[2335]
Therefore, in step S3501 of FIG. 305, the classification
[2336]
Hereinafter, the process of step S3501 performed by the class classification
[2337]
Almost simultaneously with the processing in step S3501, the data
[2338]
The real-
[2339]
Therefore, in step S3502, the classification adaptive
[2340]
Hereinafter, the processing of step S3502 executed by the class classification adaptive
[2341]
Then, in step S3503, the adding unit 3503 corresponds to the target pixel (HD pixel) of the predicted image (HD image) generated by the classification
[2342]
In step S3504, the addition unit 3503 determines whether the processing for all pixels has been completed.
[2343]
If it is determined in step S3504 that the processing of all the pixels has not been completed, the process returns to step S3501, and the subsequent processing is repeated. That is, the pixels that have not been set as the target pixel are sequentially set as the target pixel, and the processing of steps S3501 to S3503 is repeated.
[2344]
Then, when the processing of all the pixels is completed (when it is determined in step S3504 that the processing of all the pixels is completed), the adding
[2345]
Next, with reference to the drawings, the details of “input image class classification adaptive processing (processing of step S3501)” and “correction processing of class classification adaptive processing (processing of step S3502)” in this example will be described. It will be described individually in that order.
[2346]
First, with reference to the flowchart in FIG. 306, details of the “input image class classification adaptive processing” executed by the class classification adaptive processing unit 3501 (FIG. 290) will be described.
[2347]
When the input image (SD image) is input to the classification
[2348]
In step S3522, the
[2349]
In step S3523, the
[2350]
In step S3524, the class
[2351]
In step S3525, the
[2352]
The learning process will be described later with reference to the flowchart in FIG.
[2353]
In step S3526, the
[2354]
In step S3527, the
[2355]
Specifically, the
[2356]
Next, with reference to the flowchart of FIG. 307, details of the “correction processing of the classification adaptive processing” executed by the classification adaptive processing correcting unit 3502 (FIG. 299) will be described.
[2357]
When the feature image (SD image) is input as real world estimation information from the real
[2358]
In step S3542, the
[2359]
Specifically, in this example, it is assumed that a class tap (group) 3621 as shown in FIG. 308 is extracted, for example. That is, FIG. 308 illustrates an example of the class tap arrangement.
[2360]
In FIG. 308, the horizontal direction in the figure is the X direction, which is one direction in the spatial direction, and the vertical direction in the figure is the Y direction, which is the other direction in the spatial direction. The pixel of interest is pixel 3621-2.
[2361]
In this case, in the example of FIG. 308, the target pixel 3621-2, the pixels 3621-1 and 362-4 adjacent to the target pixel 3621-2 in the Y direction, and the target pixel 3621-2 in the X direction. , A
[2362]
Of course, the class tap arrangement is not limited to the example of FIG. 308 as long as the arrangement includes the pixel of interest 3621-2, and various arrangements are possible.
[2363]
Referring back to FIG. 307, in step S3543, the
[2364]
Specifically, in this example, for example, the
[2365]
For example, assume that a pattern as shown in FIG. 309 has been detected. That is, FIG. 309 illustrates an example of a class tap pattern.
[2366]
In FIG. 309, the horizontal axis in the figure represents the class tap, and the vertical axis in the figure represents the tilt in the pixel. Further, it is assumed that three classes of a
[2367]
In this case, the pattern shown in FIG. 309 is such that class tap 3621-0 corresponds to
[2368]
Thus, each of the five class taps 3621-0 to 3621-4 belongs to one of the three
[2369]
Returning to FIG. 307, in step S3544, the class
[2370]
In step S3545, the
[2371]
The learning process will be described later with reference to the flowchart in FIG.
[2372]
In step S3546, the
[2373]
Specifically, in this example, it is assumed that a prediction tap (group) 3641 as shown in FIG. 310 is extracted, for example. That is, FIG. 310 illustrates an example of the prediction tap arrangement.
[2374]
In FIG. 310, the horizontal direction in the figure is the X direction, which is one direction in the spatial direction, and the vertical direction in the figure is the Y direction, which is the other direction in the spatial direction. The pixel of interest is pixel 3641-1. That is, the pixel 3641-1 is a pixel corresponding to the class tap 3621-2 (FIG. 308).
[2375]
In this case, in the example of FIG. 310, a 5 × 5 pixel group (pixel group including a total of 25 pixels) 3641 centered on the target pixel 3641-1 is extracted as a prediction tap (group). .
[2376]
Of course, the prediction tap arrangement is not limited to the example of FIG. 310 as long as the arrangement includes the target pixel 3641-1, and various arrangements are possible.
[2377]
Returning to FIG. 307, in step S3546, the
[2378]
More specifically, the
[2379]
Next, referring to the flowchart of FIG. 311, the learning process of the learning device (FIG. 291), that is, the prediction coefficient used by the classification adaptive processing unit 3501 (FIG. 290) and the classification adaptive processing correction unit 3502 (FIG. 299) will be described.
[2380]
In step S3561, the classification adaptive
[2381]
That is, the class classification adaptive
[2382]
Then, the class classification adaptive
[2383]
Hereinafter, the process of step S3561 executed by the learning unit for class classification
[2384]
When the prediction coefficient used by the class classification
[2385]
In other words, the class classification adaptive processing
[2386]
Next, the classifying adaptive processing
[2387]
Then, the class classification adaptive processing
[2388]
Hereinafter, the process of step S3562 executed by the learning unit for class classification
[2389]
Next, referring to the drawings, details of the “classification adaptive processing learning processing (processing of step S3561)” and the “classification adaptive processing correction learning processing (processing of step S3562)” in this example will be described. Will be individually described in that order.
[2390]
First, with reference to the flowchart of FIG. 312, details of the “classification adaptive processing learning process” executed by the class classification adaptive processing learning unit 3521 (FIG. 292) will be described.
[2391]
In step S3581, each of the down-converting
[2392]
In step S3582, the down-converting
[2393]
In step S3583, the
[2394]
In step S3584, the
[2395]
In step S3585, the class
[2396]
In step S3586, the
[2397]
In step S3587, the normal equation generation unit 3536 determines whether or not the prediction tap (SD pixel) supplied from the
[2398]
In step S3588, the
[2399]
In step S3589, the
[2400]
Specifically, the
[2401]
In step S3590, it is determined whether or not processing has been performed on all pixels. If it is determined that processing has not been performed on all pixels, the processing returns to step S3583. That is, the processing of steps S3583 to S3590 is repeated until the processing of all pixels is completed.
[2402]
If it is determined in step S3590 that processing has been performed on all pixels, in step S3591, the
[2403]
As described above, in this example, after the processing of all the pixels is completed, the learning predicted image, which is the HD image obtained by predicting the first teacher image, is output to the classification adaptive processing
[2404]
However, it is not essential that all the pixels are output collectively, and may be output to the class classification adaptive processing
[2405]
Next, the details of the “classification adaptive processing correction learning process” executed by the classification adaptive processing correction learning unit 3561 (FIG. 300) will be described with reference to the flowchart in FIG. 313.
[2406]
When the first teacher image (HD image) and the learning prediction image (HD image) are input from the class classification adaptive
[2407]
Further, when the first student image (SD image) is input from the class classification adaptive
[2408]
That is, the data
[2409]
The real
[2410]
Further, the order of the processes in steps S3601 and S3602 is not limited to the example in FIG. That is, the process of step S3602 may be performed first, or the processes of steps S3601 and S3602 may be performed simultaneously.
[2411]
In step S3603, the
[2412]
In step S3604, the
[2413]
In step S3605, the class
[2414]
In step S3606, the
[2415]
In step S3607, the normal equation generation unit 3578 generates the prediction tap (SD pixel) supplied from the
[2416]
In step S3608, the correction coefficient determination unit 3579 determines the correction coefficient by solving the supplied normal equation, that is, calculates the correction coefficient by calculating the right side of the above equation (234), and calculates the supplied class. The correction coefficient is stored in the
[2417]
In step S3609, it is determined whether or not processing has been performed on all pixels. If it is determined that processing has not been performed on all pixels, the processing returns to step S3603. That is, the processing of steps S3603 to S3609 is repeated until the processing of all pixels is completed.
[2418]
Then, in step S3609, when it is determined that the processing has been performed for all the pixels, the class classification adaptive processing correction learning processing ends.
[2419]
As described above, in the class classification adaptive correction processing method, the predicted image output from the class classification
[2420]
For example, when the
[2421]
When comparing the
[2422]
As described above, in the class classification adaptive processing correction method, an image closer to the original image (the signal of the
[2423]
In other words, in the class classification adaptive processing correction method, for example, the data
[2424]
For example, the real-
[2425]
More specifically, for example, the real-
[2426]
Then, for example, the
[2427]
More specifically, for example, in the
[2428]
On the other hand, for example, the classification adaptive
[2429]
Then, for example, the adding unit 3503 in FIG. 289 corrects the pixel value of the target pixel of the predicted image predicted by the classification
[2430]
Further, in the class classification adaptive processing correction method, for example, the class classification adaptive
[2431]
In detail, for example, the class classification adaptive
[2432]
The class classification adaptive
[2433]
Further, for example, the class classification adaptive processing
[2434]
Therefore, in the class classification adaptive processing correction method, the output of an image closer to the original image (the signal of the
[2435]
Note that, as described above, the class classification adaptation process differs from, for example, a simple interpolation process in that components not included in the SD image but included in the HD image are reproduced. That is, as far as looking at only the above-described equations (218) and (226), it looks the same as the interpolation processing using the so-called interpolation filter. However, in the classification adaptive processing, the prediction coefficient corresponding to the coefficient of the interpolation filter is used. diOr supplemental coefficient giIs obtained by learning using teacher data and student data (the first teacher image and the first student image or the second teacher image and the second student image). Can be reproduced. For this reason, the above-described classification adaptive processing can be called processing having an image creation (resolution creation) effect.
[2436]
Further, in the above-described example, the case of improving the spatial resolution has been described as an example. However, according to the classification adaptive processing, various coefficients obtained by performing learning while changing teacher data and student data are used. Thus, for example, it is possible to perform improvement of S / N (Signal to Noise Ratio), improvement of blur, and other various processes.
[2437]
That is, for example, in order to improve the S / N and the blur by the classification adaptive processing, image data having a high S / N is used as teacher data, and an image in which the S / N of the teacher data is reduced is used. (Or a blurred image) may be used as the student data to determine the coefficient.
[2438]
As described above, the signal processing device having the configuration shown in FIG. 3 has been described as an embodiment of the present invention. However, the embodiment of the present invention is not limited to the example shown in FIG. 3 and can take various forms. . That is, the embodiment of the
[2439]
For example, the signal processing device having the configuration shown in FIG. 3 performs signal processing based on the stationarity of a signal of the
[2440]
However, since the signal processing device having the configuration shown in FIG. 3 executes the signal processing based on the stationarity, stationarity exists in a portion of the
[2441]
Therefore, it is possible to add a device (or a program or the like) for performing other signal processing that does not use stationarity to the signal processing device having the configuration of FIG. In this case, the signal processing device having the configuration shown in FIG. 3 performs signal processing on a portion of the
[2442]
Hereinafter, with reference to FIGS. 315 to 328, five specific combined methods (hereinafter, each combined method will be referred to as first to fifth combined methods) will be described.
[2443]
Note that it does not matter whether each function of the signal processing device to which each of the combined techniques is applied is realized by hardware or software. That is, each block diagram of FIGS. 315 to 317, FIG. 321, FIG. 323, FIG. 325, and FIG. 327 described later may be considered as a hardware block diagram or a software functional block diagram.
[2444]
FIG. 315 illustrates a configuration example of a signal processing device to which the first combination method is applied.
[2445]
In the signal processing device in FIG. 315, image data as an example of data 3 (FIG. 1) is input, and an image is generated by performing image processing described later based on the input image data (input image). The generated image (output image) is output. That is, FIG. 315 is a diagram showing the configuration of the signal processing device 4 (FIG. 1), which is an image processing device.
[2446]
The input image (image data as an example of the data 3) input to the
[2247]
The data
[2448]
As described above, the data
[2449]
However, the data
[2450]
The area specifying information is not particularly limited, and may be information newly generated after the data continuity information is generated, or may be information generated when data continuity information is generated.
[2451]
Specifically, for example, an estimation error can be used as the area specifying information. That is, for example, when the data
[2452]
The real
[2453]
As described above, the real
[2454]
The
[2455]
That is, the
[2456]
As described above, the
[2457]
The
[2458]
Note that the image processing performed by the
[2459]
For example, the
[2460]
The constant
[2461]
The
[2462]
Note that the region detection process performed by the
[2463]
The
[2464]
That is, when the
[2465]
On the other hand, if the
[2466]
Note that the
[2467]
Next, with reference to FIG. 316, details of the
[2468]
In FIG. 316, it is assumed that the class classification adaptive processing executed by the
[2469]
In the following description, a standard resolution image will be appropriately referred to as an SD (Standard Definition) image, and pixels constituting the SD image will be appropriately referred to as SD pixels.
[2470]
Also in the following description, a high-resolution image will be appropriately referred to as an HD (High Definition) image, and pixels constituting the HD image will be appropriately referred to as HD pixels.
[2471]
Specifically, the class classification adaptive processing executed by the
[2472]
That is, first, in order to find the HD pixel of the prediction image (HD image) in the target pixel (SD pixel) of the input image (SD image), the SD pixel (hereinafter, referred to as the following) including the target pixel is arranged. Also in the description, such an SD pixel is referred to as a class tap), and each of the feature amounts is obtained, and a class pre-classified for each of the feature amounts is specified (a class code of a class tap group is specified). Do).
[2473]
Then, among a plurality of preset coefficient groups (each of the coefficient groups corresponds to one predetermined class code), each of the coefficients constituting the coefficient group corresponding to the specified class code is , SD pixels in the vicinity including the target pixel (in the following description, such SD pixels of the input image are referred to as prediction taps. The prediction taps may be the same as the class taps) ) Is used to calculate the HD pixel of the predicted image (HD image) in the target pixel (SD pixel) of the input image (SD image).
[2474]
More specifically, in FIG. 1, when a signal (distribution of light intensity) of the
[2475]
In FIG. 316, this input image (SD image) is supplied to an
[2476]
The class
[2377]
The learning process of the coefficient in the
[2478]
The coefficients stored in the
[2479]
The
[2480]
The
[2481]
More specifically, the
[2482]
[Equation 190]
[2483]
In Expression (240), q ′ represents an HD pixel of the predicted image (HD image). ciEach (i is an integer value of 1 to n) represents each prediction tap (SD pixel). Also, diRepresents each of the prediction coefficients.
[2484]
As described above, since the
[2485]
FIG. 317 shows the prediction coefficients (d in Expression (237)) stored in the
[2486]
In FIG. 317, a predetermined image is input to each of the down-converting unit 4141 and the normal equation generating unit 4146 as a teacher image (HD image).
[2487]
The down-conversion unit 4146 generates a student image (SD image) having a lower resolution than the teacher image from the input teacher image (HD image) (a down-converted teacher image is used as a student image), and an
[2488]
As described above, since the
[2489]
The
[2490]
The
[2491]
Note that each of the above-described
[2492]
The normal equation generation unit 4146 calculates, for each class code, a prediction tap (SD pixel) of a student image (SD image) input from the
[2493]
When a normal equation corresponding to a predetermined class code is supplied from the normal equation generation section 4146, the
[2494]
The normal equation generating unit 4146 and the
[2495]
In the above equation (240), before learning, the prediction coefficient diAre undetermined coefficients. Learning is performed by inputting HD pixels of a plurality of teacher images (HD images) for each class code. There are m HD pixels corresponding to the predetermined class code, and each of the m HD pixels is represented by qkWhen (k is an integer from 1 to m), the following equation (241) is set from equation (240).
[2496]
[Equation 191]
[2497]
That is, Expression (241) calculates the predetermined HD pixel q by calculating the right side.kCan be estimated and estimated. Note that in equation (241), ekRepresents an error. That is, the HD pixel q of the predicted image (HD image) which is the operation result on the right sidek’Is the actual HD pixel qkDoes not exactly coincide with the predetermined error ekincluding.
[2498]
Therefore, in equation (241), the error ekPrediction coefficient d that minimizes the sum of squares ofiIs obtained by learning, the prediction coefficient diIs the actual HD pixel qkIt can be said that this is the most suitable coefficient for predicting.
[2499]
Therefore, for example, m (where m is an integer greater than n) HD pixels q collected by learningkAnd the optimal prediction coefficient d by the least squares methodiCan be uniquely determined.
[2500]
That is, the prediction coefficient d on the right side of the equation (241)iIs obtained by the least square method, is expressed by the following equation (242).
[2501]
[Equation 192]
[2502]
Therefore, if the normal equation represented by the equation (242) is generated, the prediction coefficient d is solved by solving the normal equation.iIs uniquely determined.
[2503]
Specifically, when each of the matrices of the normal equation represented by the equation (242) is defined as in the following equations (243) to (245), the normal equation is represented by the following equation (246). expressed.
[2504]
[Equation 193]
[2505]
[Equation 194]
[2506]
[Equation 195]
[2507]
[Equation 196]
[2508]
As shown in equation (244), the matrix DMATIs a prediction coefficient d to be obtained.iIt is. Therefore, in equation (246), the matrix C on the left sideMATAnd the matrix Q on the right sideMATIs determined, the matrix DMAT(Ie, the prediction coefficient di) Can be calculated.
[2509]
More specifically, as shown in equation (243), the matrix CMATIs a prediction tap cikCan be calculated if is known. Prediction tap cikIs extracted by the
[2510]
Also, as shown in equation (245), the matrix QMATIs a prediction tap cikAnd HD pixel qkCan be calculated if is known. Prediction tap cikIs the matrix CMATAre the same as those contained in each of the components, and the HD pixel qkIs the prediction tap cikAre HD pixels of the teacher image with respect to the target pixel (SD pixel of the student image) included in. Therefore, the normal equation generation unit 4146 calculates the prediction tap c supplied from the region extraction unit 4145.ikAnd the matrix Q using the teacher imageMATCan be calculated.
[2511]
In this way, the normal equation generation unit 4146 outputs the matrix CMATAnd matrix QMATIs calculated, and the calculation result is supplied to the
[2512]
The
[2513]
Specifically, the normal equation of the above equation (246) can be modified as in the following equation (247).
[2514]
[Equation 197]
[2515]
In equation (247), the matrix D on the left sideMATIs the prediction coefficient d to be obtainediIt is. Also, the matrix CMATAnd matrix QMATAre supplied from the normal equation generating unit 4146. Therefore, the
[2516]
Note that, as described above, the class classification adaptation process differs from, for example, a simple interpolation process in that components not included in the SD image but included in the HD image are reproduced. That is, the adaptive processing looks the same as the interpolation processing using the so-called interpolation filter as far as the above equation (240) is viewed, but the prediction coefficient d corresponding to the coefficient of the interpolation filter is used.iIs obtained by learning using teacher data and student data, so that the components included in the HD image can be reproduced. For this reason, the above-described classification adaptive processing can be called processing having an image creation (resolution creation) effect.
[2517]
Further, in the above-described example, the case of improving the spatial resolution has been described as an example. However, according to the classification adaptive processing, various coefficients obtained by performing learning while changing teacher data and student data are used. Thus, for example, it is possible to perform improvement of S / N (Signal to Noise Ratio), improvement of blur, and other various processes.
[2518]
That is, for example, in order to improve the S / N and the blur by the classification adaptive processing, image data having a high S / N is used as teacher data, and an image in which the S / N of the teacher data is reduced is used. (Or a blurred image) may be used as the student data to determine the coefficient.
[2519]
The configuration of the
[2520]
Note that, as described above, the
[2521]
Next, with reference to FIG. 318, signal processing of the signal processing device (FIG. 315) to which the first combination method is applied will be described.
[2522]
Here, the data
[2523]
It is also assumed that the data
[2524]
In FIG. 1, when a signal of the
[2525]
In FIG. 315, this input image is input to a data
[2526]
Therefore, in step S4101 in FIG. 318, the
[2527]
Hereinafter, when distinguishing between the pixel output from the
[2528]
Hereinafter, the processing executed by the image generation unit 4104 (in this case, the processing of step S4101) is referred to as “execution processing of the classification adaptive processing”. Details of the “executing process of the class classification adaptive process” in this example will be described later with reference to the flowchart in FIG.
[2529]
On the other hand, in step S4102, the data
[2530]
In step S4103, the real
[2531]
Note that, as described above, the estimation process performed by the real
[2532]
Also, here, for example, the real
[2533]
In step S4104, the
[2534]
In this case, since the feature amount (coefficient) of the approximation function f is supplied from the real
[2535]
However, the integration range is a range in which a second pixel having the same size (the same resolution) as the first pixel (HD pixel) output from the
[2536]
Note that the order of the “execution process of the class classification adaptation process” in step S4101 and the series of processes in steps S4102 to S4104 are not limited to the example of FIG. Alternatively, the “execution process of the class classification adaptive process” in step S4101 and a series of processes in steps S4102 to S4104 may be performed simultaneously.
[2537]
In step S4105, the
[2538]
That is, the second pixel is an HD pixel in the SD pixel of the input image used as the target pixel by the data
[2539]
The area specifying information output by the data
[2540]
Therefore, the
[2541]
When the detection result of the
[2542]
If it is determined in step S4106 that the detected area is a steady area, the
[2543]
On the other hand, if it is determined in step S4106 that the detected area is not a stationary area (is an unsteady area), the
[2544]
Thereafter, in step S4109, it is determined whether or not processing of all pixels has been completed. If it is determined that processing of all pixels has not been completed, the processing returns to step S4101. That is, the processing of steps S4101 to S4109 is repeated until the processing of all pixels is completed.
[2545]
If it is determined in step S4109 that the processing for all pixels has been completed, the processing ends.
[2546]
As described above, in the example of the flowchart in FIG. 318, every time the first pixel (HD pixel) and the second pixel (HD pixel) are generated, the first pixel or the second pixel is output as the output image. It is output in pixel units.
[2547]
However, as described above, it is not indispensable that the output is performed on a pixel-by-pixel basis, and all the pixels may be output collectively as an output image after all the pixels have been processed. In this case, in each of the processing in step S4107 and step S4108, the pixel (the first pixel or the second pixel) is not output, but is temporarily stored in the
[2548]
Next, with reference to the flowchart of FIG. 319, details of the “execution processing of the classification adaptive processing” (for example, the processing of step S4101 of FIG. 318 described above) executed by the
[2549]
When the input image (SD image) from the
[2550]
In step S4122, the
[2551]
In step S4123, the
[2552]
In step S4124, the class
[2553]
In step S4125, the
[2554]
The learning process will be described later with reference to the flowchart in FIG.
[2555]
In step S4126, the
[2556]
In step S4127, the
[2557]
Specifically, the
[2558]
Next, a learning process (a process of generating a prediction coefficient used by the
[2559]
In step S4141, each of the down-converting unit 4141 and the normal equation generating unit 4146 inputs the supplied predetermined image as a teacher image (HD image).
[2560]
In step S4142, the down-converting unit 4141 generates a student image (SD image) by down-converting (reducing the resolution) the input teacher image, and supplies it to each of the
[2561]
In step S4143, the
[2562]
In step S4144, the
[2563]
In step S4145, the class
[2564]
In step S4146, the
[2565]
In step S4147, the normal equation generation unit 4146 uses the prediction tap (SD pixel) supplied from the
[2566]
In step S4148, the
[2567]
Thereafter, in step S4149, it is determined whether or not processing has been performed on all pixels. If it is determined that processing has not been performed on all pixels, the processing returns to step S4143. That is, the processing of steps S4143 to S4149 is repeated until the processing of all pixels is completed.
[2568]
Then, in step S4149, if it is determined that the processing has been performed on all the pixels, the processing ends.
[2569]
Next, a second combined method will be described with reference to FIGS. 321 and 322.
[2570]
FIG. 321 illustrates a configuration example of a signal processing device to which the second combined technique is applied.
[2571]
In FIG. 321, portions corresponding to the signal processing device (FIG. 315) to which the first combination method is applied are denoted by the corresponding reference numerals.
[2572]
In the configuration example of FIG. 315 (first combination method), the area specifying information is output from the data
[2573]
The area specifying information is not particularly limited, and may be information newly generated after the real
[2574]
Specifically, for example, an estimation error can be used as the area specifying information.
[2575]
Here, the estimation error will be described.
[2576]
As described above, the estimation error (the area specifying information in FIG. 315) output from the data
[2577]
On the other hand, the estimation error (region identification information in FIG. 321) output from the real
[2578]
That is, since the signal of the
[2579]
Therefore, the real
[2580]
Then, the real
[2581]
By calculating the mapping error (estimation error) in this way, the real
[2582]
The region detection process performed by the
[2583]
Other configurations are basically the same as those in FIG. That is, the signal processing apparatus (FIG. 321) to which the second combined technique is applied also has a data and data structure having basically the same configuration and function as the signal processing apparatus (FIG. 315) to which the first combined technique is applied. A
[2584]
FIG. 322 is a flowchart illustrating signal processing (signal processing of the second combined technique) of the signal processing device having the configuration in FIG. 321.
[2585]
The processing of the signal of the second combined technique is similar to the processing of the signal of the first combined technique (the processing shown in the flowchart of FIG. 318). Therefore, here, the description of the processing described in the first combined method will be omitted as appropriate, and the signal of the second combined method different from the first combined method will be described below with reference to the flowchart in FIG. The following description focuses on the processing of (1).
[2586]
Here, the data
[2587]
However, as described above, in the first combined method, the data
[2588]
Therefore, in the second combined method, the process of step S4162 is executed as the process of the data
[2589]
In the second combined technique, the process of step S4163 is executed as the process of the real
[2590]
The other processing is basically the same as the corresponding processing of the first combination method (corresponding processing of the processing shown in the flowchart of FIG. 318), and thus the description thereof is omitted.
[2591]
Next, a third combined method will be described with reference to FIGS. 323 and 324.
[2592]
FIG. 323 illustrates a configuration example of a signal processing device to which the third combination technique is applied.
[2593]
In FIG. 323, parts corresponding to those of the signal processing device (FIG. 315) to which the first combination method is applied are denoted by the corresponding reference numerals.
[2594]
In the configuration example of FIG. 315 (first combination method), the steady
[2595]
Due to such a difference in arrangement position, there is a slight difference between the constant
[2596]
The steady
[2597]
That is, as described above, the
[2598]
On the other hand, the execution
[2599]
That is, when the
[2600]
On the other hand, when the
[2601]
As described above, the execution
[2602]
Note that the configuration other than the steady
[2603]
However, in the third combined method, each of the real
[2604]
By the way, in the example of FIG. 323, the output unit of the image is a pixel unit. Therefore, although not shown, in order to make the output unit the whole image of one frame (to output all the pixels collectively), for example, the
[2605]
This image synthesis unit adds (combines) the pixel value output from the
[2606]
The image synthesizing unit repeatedly executes such processing for all the pixels, and when all the pixels have been processed, outputs all the pixels collectively (as one frame of image data) to the outside.
[2607]
Next, the signal processing of the signal processing device (FIG. 323) to which the third combination technique is applied will be described with reference to the flowchart in FIG. 324.
[2608]
Here, as in the case of the first combination method, the data
[2609]
It is also assumed that the data
[2610]
In FIG. 1, when a signal of the
[2611]
In FIG. 323, this input image is input to an
[2612]
Therefore, in step S4181 in FIG. 324, the data
[2613]
The processing in step S4181 is basically the same as the processing in step S4102 (FIG. 318) described above.
[2614]
Further, as described above, at this point in time (unless an execution command is supplied from the execution command generation unit 4172), neither the real
[2615]
In step S4182, the
[2616]
When the detection result of the
[2617]
If it is determined in step S4183 that the detected area is not the steady area, the execution
[2618]
The processing in step S4184 is basically the same as the processing in step S4101 (FIG. 318) described above. That is, the flowchart in FIG. 319 is also a flowchart for explaining the details of the processing in step S4184.
[2619]
On the other hand, if it is determined in step S4183 that the detected area is a steady area, the execution
[2620]
Then, in step S4187, the
[2621]
When the first pixel or the second pixel is output as the output image (after the processing in step S4185 or step S4188), it is determined in step S4189 whether or not the processing of all pixels has been completed. If it is determined that the process has not been completed, the process returns to step S4181. That is, the processing of steps S4181 to S4189 is repeated until the processing of all pixels is completed.
[2622]
If it is determined in step S4189 that the processing for all pixels has been completed, the processing ends.
[2623]
As described above, in the example of the flowchart in FIG. 324, every time the first pixel (HD pixel) and the second pixel (HD pixel) are generated, the first pixel or the second pixel is output as the output image. It is output in pixel units.
[2624]
However, as described above, if an image synthesizing unit (not shown) is further provided at the final stage (after the
[2625]
Next, a fourth combination method will be described with reference to FIGS. 325 and 326.
[2626]
FIG. 325 illustrates a configuration example of a signal processing device to which the fourth combination method is applied.
[2627]
In FIG. 325, the portions corresponding to the signal processing device (FIG. 323) to which the third combination technique is applied are denoted by the corresponding reference numerals.
[2628]
In the configuration example of FIG. 323 (third combination method), the region specifying information is output from the data
[2629]
The other configuration is basically the same as that of FIG. 323. That is, the signal processing device (FIG. 325) to which the fourth combined method is applied also has a data and data structure basically having the same configuration and function as the signal processing device (FIG. 323) to which the third combined method is applied. A
[2630]
Note that, similarly to the third combination method, although not shown, in order to output all the pixels collectively, for example, an image synthesizing unit is further provided after the
[2631]
FIG. 326 is a flowchart illustrating signal processing (signal processing of the fourth combined technique) of the signal processing device having the configuration in FIG. 325.
[2632]
The processing of the signal of the fourth combination technique is similar to the processing of the signal of the third combination technique (the processing shown in the flowchart of FIG. 324). Therefore, here, the description of the processing described in the third combined method will be omitted as appropriate, and the signal of the fourth combined method different from the third combined method will be described below with reference to the flowchart of FIG. The following description focuses on the processing of.
[2633]
Here, the data
[2634]
However, as described above, in the third combination method, the data
[2635]
Therefore, in the fourth combined method, the process of step S4201 is executed as the process of the data
[2636]
In the fourth combined method, the process of step S4202 is executed as the process of the real
[2637]
The other processing is basically the same as the corresponding processing of the third combined technique (corresponding processing of the processing shown in the flowchart of FIG. 324), and thus the description thereof is omitted.
[2638]
Next, a fifth combination method will be described with reference to FIGS. 327 and 328.
[2639]
FIG. 327 illustrates a configuration example of a signal processing device to which the fifth combination technique is applied.
[2640]
In FIG. 327, the portions corresponding to the signal processing devices (FIGS. 323 and 325) to which the third and fourth combined techniques are applied are denoted by the corresponding reference numerals.
[2641]
In the configuration example of FIG. 323 (third combination technique), one stationary
[2642]
Further, in the configuration example of FIG. 325 (fourth combined technique), one stationary
[2643]
On the other hand, in the configuration example of FIG. 327 (fifth combination method), the real-
[2644]
Each of the constant
[2645]
In other words, the fifth combined technique is a combination of the third combined technique and the fourth combined technique.
[2646]
That is, in the third combined technique and the fourth combined technique, one area specifying information (in the third combined technique, the area identifying information from the data
[2647]
Therefore, in the fifth combined technique, attention is first paid to the input image based on the area specifying information from the data continuity detecting unit 4101 (referred to as first area specifying information in the description of the fifth combined technique). After detecting whether the pixel is a stationary region or a non-stationary region, the region identification information from the real world estimation unit 4102 (hereinafter referred to as second region identification information in the description of the fifth combined method) ), It is detected whether the target pixel of the input image is a stationary region or a non-stationary region.
[2648]
As described above, in the fifth combined method, the region detection process is performed twice, so that the detection accuracy of the steady region is improved as compared with the third combined method and the fourth combined method. . Furthermore, in the first combined technique and the second combined technique, similarly to the third combined technique and the fourth combined technique, only one steady-state region detection unit 4105 (FIG. 315 or FIG. 321) is provided. . Therefore, the detection accuracy of the steady region is improved as compared with the first combined technique and the second combined technique. As a result, it becomes possible to output image data closer to the signal of the real world 1 (FIG. 1) than any of the first to fourth combined methods.
[2649]
However, even in the first to fourth combined methods, an
[2650]
Therefore, even with the first to fourth combined methods, it is possible to output image data closer to the signal of the real world 1 (FIG. 1) than any of the conventional signal processing device and the signal processing of the present invention having the configuration of FIG. Becomes possible.
[2651]
On the other hand, from the viewpoint of processing speed, the first to fourth combined methods require only one region detection process, and therefore are superior to the fifth combined method in which the region detection process is performed twice. Will be.
[2652]
Therefore, the user (or manufacturer) or the like should selectively use a combined method that matches the required quality of the output image and the required processing time (time until the output image is output). Can be.
[2653]
The other configuration in FIG. 327 is basically the same as that in FIG. 323 or FIG. That is, the signal processing device (FIG. 327) to which the fifth combination method is applied is basically the same as the signal processing device (FIG. 323 or 325) to which the third or fourth combination method is applied. A data
[2654]
However, in the fifth combined method, the real
[2655]
Also, in the fifth combination method, similarly to the third and fourth combination methods, although not shown, in order to output all the pixels collectively, for example, the
[2656]
Next, the signal processing of the signal processing device (FIG. 327) to which the fifth combination technique is applied will be described with reference to the flowchart in FIG. 328.
[2657]
Here, as in the case of the third and fourth combined methods, the data
[2658]
Also, here, as in the case of the third combined method, the data
[2659]
Further, here, as in the case of the fourth combination method, it is assumed that real-
[2660]
In FIG. 1, when a signal of the
[2661]
In FIG. 327, this input image is input to each of data
[2662]
Therefore, in step S4221 in FIG. 328, the data
[2663]
The processing in step S4221 is basically the same as the processing in step S4181 (FIG. 324) described above.
[2664]
Further, as described above, at this point in time (unless an execution command is supplied from the execution command generation unit 4192), neither the real
[2665]
In step S4222, the region detection unit 4191 determines the pixel of interest (the data
[2666]
When the detection result of the
[2667]
If it is determined in step S4223 that the detected area is not a steady area (is an unsteady area), the execution
[2668]
The processing in step S4224 is basically the same as the processing in step S4184 (FIG. 324) described above. That is, the flowchart in FIG. 319 is also a flowchart for explaining the details of the processing in step S4186. The processing in step S4225 is basically the same as the processing in step S4185 (FIG. 324) described above.
[2669]
On the other hand, when it is determined in step S4223 that the detected area is the steady area, the execution
[2670]
The processing in step S4226 is basically the same as the processing in step S4202 (FIG. 326) described above.
[2671]
Further, as described above, at this time (unless an execution command is supplied from the execution
[2672]
In step S4227, the region detection unit 4201 determines the target pixel of the input image (the data
[2673]
When the detection result of the region detection unit 4201 is supplied to the execution
[2674]
If it is determined in step S4228 that the detected area is not a steady area (non-steady area), the execution
[2675]
Note that the processing in step S4224 in this case is basically the same as the processing in step S4205 (FIG. 326) described above. Further, the processing in step S4225 in this case is basically the same as the processing in step S4206 (FIG. 326) described above.
[2676]
On the other hand, when it is determined in step S4228 that the detected area is the steady area, the execution
[2677]
The processing in steps S4229 and S4230 is basically the same as the processing in steps S4207 and S4208 (FIG. 326) described above.
[2678]
When the first pixel or the second pixel is output as an output image (after the processing in step S4225 or step S4230), it is determined in step S4231 whether or not processing of all pixels has been completed. If it is determined that the process has not been completed, the process returns to step S4221. That is, the processing of steps S4221 to S4231 is repeated until the processing of all pixels is completed.
[2679]
If it is determined in step S4231 that the processing for all pixels has been completed, the processing ends.
[2680]
As described above, the combined method has been described as an example of the embodiment of the signal processing device 4 (FIG. 1) of the present invention with reference to FIGS. 315 to 328.
[2681]
As described above, in the combined method, a device (or a program or the like) for performing other signal processing that does not use stationarity is added to the signal processing device of the present invention having the configuration shown in FIG.
[2682]
In other words, in the combined method, the signal processing device (or the program or the like) of the present invention having the configuration shown in FIG. 3 is added to the conventional signal processing device (or the program or the like).
[2683]
That is, in the combined method, for example, the steady
[2684]
In addition, the real
[2685]
Further, for example, the data
[2686]
However, in FIG. 315, the steady
[2687]
On the other hand, in FIG. 321, the constant
[2688]
315 and FIG. 321 have been described above, but the same applies to FIGS. 323, 325, and 327.
[2689]
Therefore, in the combined method, for a portion of the
[2690]
Next, an example of generating an image directly from the data
[2691]
The data
[2692]
Next, the process of detecting the continuity of the data in FIG. 329 will be described with reference to the flowchart in FIG. Steps S4501 to S4504 and steps S4506 to S4511 of the flowchart of FIG. 330 are the same as steps S801 to S810 of the flowchart of FIG. 166, and a description thereof will be omitted.
[2693]
In step S4504, the
[2694]
Through the above processing, the data
[2695]
As described above, in the data
[2696]
Further, in the signal processing device to which the above-described combination technique is applied, a device having a configuration shown in FIG. 329 as a signal processing unit that performs signal processing on a portion of the
[2697]
Specifically, for example, in the signal processing device of FIG. 315 to which the first combination method is applied, a signal processing unit that performs signal processing on a portion of the
[2698]
In the above, an example has been described in which, in processing an image, the real world is estimated by processing image data acquired by the
[2699]
However, the optical signal incident on the
[2700]
FIG. 331 is a diagram illustrating a configuration example of an optical system (optical block 5110) provided in a preceding stage of the
[2701]
An optical signal in the real world is incident on an
[2702]
The
[2703]
Therefore, in order to consider the influence of the
[2704]
Therefore, here, image processing in consideration of the influence of the
[2705]
The
[2706]
As shown in FIG. 334, each of the
[2707]
The phase plate 5122 (not shown in FIG. 334) transmits the waveforms of the ordinary light beam and the extraordinary light beam, and generates light having a waveform perpendicular to the waveform. The light is emitted to the
[2708]
The
[2709]
The OLPF movement amount d is obtained by the following equation (248).
[2710]
d = t × (ne 2-No 2) / (2 × ne× no) ... (248)
[2711]
As described above, the
[2712]
As described above, the light incident on the
[2713]
FIG. 336 is a block diagram illustrating a configuration of a signal processing device configured to process image data in consideration of the characteristics of the above-described
[2714]
The
[2715]
Next, the configuration of the
[2716]
The class
[2717]
The feature
[2718]
The
[2719]
The prediction coefficient for each class code based on the feature amount stored in the
[2720]
The prediction
[2721]
The pixel
[2722]
[Equation 198]
[2723]
In Expression (249), q ′ represents a pixel of the predicted image (image predicted from the student image). ci(I is an integer value of 1 to n) represents each of the prediction taps. Also, diRepresents each of the prediction coefficients.
[2724]
As described above, the
[2725]
Next, signal processing by the signal processing device described with reference to FIG. 336 will be described with reference to the flowchart in FIG. 339. Note that the processing of steps S5102 to S5104 in the flowchart of FIG. 339 is the same as the processing described with reference to FIG. 40, and a description thereof will be omitted.
[2726]
In step S5101, the
[2727]
Here, the process of removing the OLPF will be described with reference to the flowchart of FIG.
[2728]
In step S5011, the class
[2729]
In step S5012, the feature
[2730]
In step S5013, the
[2731]
In step S5014, the prediction
[2732]
In step S5015, the
[2733]
In step S5016, the pixel
[2732]
In step S5017, the pixel
[2735]
If it is determined in step S5017 that the pixel values have been calculated for all the pixels, the pixel
[2736]
According to the above, it is possible to remove the influence on the image generated by the
[2737]
Next, with reference to FIG. 341, a
[2738]
The
[2739]
Further, the class
[2740]
The student
[2741]
The
[2742]
The
[2743]
The
[2744]
The learning memory 5167 stores the class code supplied from the
[2745]
The normal
[2746]
The normal
[2747]
In the above equation (249), before learning, the prediction coefficient diAre undetermined coefficients. Learning is performed by inputting pixels of a plurality of teacher images for each class code. There are m pixels of the teacher image corresponding to the predetermined class code, and each of the pixels of the m teacher images is represented by qkWhen (k is an integer from 1 to m), the following equation (250) is set from equation (249).
[Equation 199]
[2748]
That is, equation (250) calculates the pixel q of the predetermined teacher image by calculating the right side.kCan be estimated and estimated. Note that in equation (250), ekRepresents an error. That is, the pixel q of the predicted image (the image obtained by performing the prediction operation from the student image), which is the operation result on the right side,k’Is the pixel q of the actual teacher imagekDoes not exactly coincide with the predetermined error ekincluding.
[2749]
Therefore, in equation (250), for example, a prediction coefficient d that minimizes the sum of squares of error ekiMay be obtained by learning.
[2750]
Specifically, for example, pixels q of the teacher image are set so that m> n.kCan be collected by learning, the prediction coefficient diIs uniquely determined.
[2751]
That is, the prediction coefficient d on the right side of equation (250)iIs obtained by the least square method, is represented by the following equation (251).
[2752]
[Equation 200]
[2753]
Therefore, if the normal equation represented by the equation (251) is generated, the prediction coefficient d is solved by solving the normal equation.iIs uniquely determined.
[2754]
Specifically, when each of the matrices of the normal equation represented by the equation (251) is defined as in the following equations (252) to (254), the normal equation is represented by the following equation (255). expressed.
[2755]
(Equation 201)
[2756]
[Equation 202]
[2775]
[Equation 203]
[2758]
[Equation 204]
[2759]
As shown in equation (253), the matrix DMATIs a prediction coefficient d to be obtained.iIt is. Therefore, in equation (255), the matrix C on the left sideMATAnd the matrix Q on the right sideMATIs determined, the matrix DMAT(Ie, the prediction coefficient di) Can be calculated.
[2760]
More specifically, as shown in equation (252), the matrix CMATIs a prediction tap cikCan be calculated if is known. Prediction tap cikIs extracted by the prediction
[2761]
Also, as shown in equation (254), the matrix QMATIs a prediction tap cikAnd the pixel q of the teacher imagekCan be calculated if is known. Prediction tap cikIs the matrix CMATAre the same as those included in each component ofkIs the prediction tap cikAre SD pixels of the teacher image with respect to the target pixel (SD pixel of the student image) included in. Accordingly, the
[2762]
In this way, the
[2763]
The normal
[2764]
Specifically, the above-described normal equation of Expression (255) can be modified as in the following Expression (256).
[2765]
[Equation 205]
[2766]
In equation (256), the matrix D on the left sideMATIs the prediction coefficient d to be obtainediIt is. Also, the matrix CMATAnd matrix QMATAre supplied from the learning memory 5167. Therefore, the normal
[2767]
Next, the student image and the teacher image used for learning will be described based on the relationship between the
[2768]
As shown in FIG. 342, the
[2770]
Then, the
[2770]
That is, as shown in FIG. 343, the learning processing performed by the
[2771]
For this reason, an image obtained when the light incident on the
[2772]
Therefore, the
[2773]
Here, a method of generating a teacher image by the teacher
[2774]
FIG. 344 is a block diagram illustrating a detailed configuration of each of the teacher
[2775]
The 1/16 average processing unit 5153a of the teacher
[2776]
That is, the 1/16 averaging unit 5153a regards each pixel of the HD image as an input image as light incident on the
[2777]
The OLPF
[2778]
The 1/16 averaging unit 5135b is the same as the 1/16 averaging unit 5153a of the teacher
[2779]
More specifically, the OLPF
[2780]
Here, in FIG. 345, each square corresponds to one pixel of the HD image. Further, 4 pixels × 4 pixels surrounded by a dotted line correspond to one pixel of the SD image.
[2781]
That is, in FIG. 345, the distance to the pixels P1 and P2, the distance to the pixels P1 and P3, and the distance to the pixels P2 and P4 correspond to the movement amount d by the
[2782]
The distance between the pixels P1 and P2, the distance between the pixels P1 and P3, and the distance between the pixels P2 and P4 are two pixels, as shown in FIG. 346, because the actual OLPF movement amount d by the
[2783]
Similarly, as shown in FIG. 346, the OLPF movement amount may be set to 4 pixels and the pixel pitch may be set to 8 pixels. If the OLPF movement amount and the pixel pitch are set while maintaining this ratio, Other OLPF movement amounts and pixel pitches may be used. Furthermore, even if the OLPF movement amount is set to 6 pixels and the pixel pitch is set to 11 pixels, the relative ratio can be 1.83, so that a processing simulation using this ratio may be performed.
[2784]
When the teacher
[2785]
Next, the learning process will be described with reference to the flowchart in FIG.
[2786]
In step S5031, the OLPF
[2787]
In step S5032, the 1/16 average processing unit 5151b calculates an average pixel value of the OLPF simulation processed image input from the OLPF
[2788]
In step S5033, the class
[2789]
In step S5034, the feature amount extraction unit 5163 calculates a feature amount corresponding to the pixel of interest using the pixel value information of the pixel of the class tap input from the class
[2790]
In step S5035, the
[2791]
In step S5036, the prediction
[2792]
In step S5037, the 1/16 average processing unit 5153a of the teacher
[2793]
In step S5038, the
[2794]
In step S5039, the normal
[2795]
If it is determined in step S5039 that addition has been completed for all pixels, in step S5040, the normal
[2796]
In step S5041, the normal
[2797]
If it is determined in step S5041 that the calculation of the prediction coefficients has been completed for all the classes, the process ends.
[2798]
Through the above learning process, the
[2799]
For example, by using the prediction coefficients thus obtained, the
[2800]
It can be seen that the image shown in FIG. 350 processed in this way is substantially the same as the image shown in FIG. 347 when compared with the input image without the filtering process by the
[2801]
As shown in FIG. 351, the effect of the OLPF is also removed by comparing the change in pixel value in the x direction at the same predetermined position in the y direction in the images of FIGS. 347, 348, and 350. It can be seen that the resulting image has a value closer to the image that did not provide the effect of the OLPF than the image that was filtered by the OLPF.
[2802]
Note that in FIG. 351, the solid line is a change in the pixel value corresponding to the image in FIG. 347 (the image without OLPF), the dotted line is the image in FIG. 348 (the image with OLPF), and the one-dot chain line is 350 is an image (OLPF-removed image) in FIG. 350.
[2803]
According to the above, image data in which a real-world optical signal is projected through a plurality of pixels each having a spatial integration effect via an optical low-pass filter is obtained, and the optical low-pass filter emits light in at least one-dimensional direction in the spatial direction. Since the optical signal incident on the optical low-pass filter is estimated in consideration of the fact that the signal is integrated in a dispersed manner, the real world from which the data was obtained is considered, and for the real world event, It is possible to obtain more accurate and more accurate processing results.
[2804]
In the above example, an example has been described in which the influence of the filtering process by the
[2805]
FIG. 352 is a block diagram illustrating a configuration of the real
[2806]
As shown in FIG. 352, the real
[2807]
The
[2808]
The input
[2809]
The input pixel
[2810]
By the way, as described with reference to FIGS. 344 and 345, the
[2811]
From the above, as shown in FIG. 354, the approximate function g (x, y) indicating the distribution of light immediately before the
[2812]
[2813]
The approximate function f (x, y) in the real world is represented by the following equation (258).
[Equation 206]
[2814]
Where wiIndicates the coefficient of the approximation function, and s (= cot θ: θ is the angle of continuity) indicates the slope of continuity.
[2815]
Therefore, the approximation function g (x, y) indicating the light distribution immediately before the
[2816]
[Equation 207]
As described above, the real
[2817]
Equation (259) can be expressed as in the following equation (260).
[2818]
[Equation 208]
[2819]
In equation (260), Si(X-0.5, x + 0.5, y-0.5, y + 0.5) represents the integral component of the i-th term. That is, the integral component Si(X−0.5, x + 0.5, y−0.5, y + 0.5) is as shown in the following equation (261).
[2820]
[Equation 209]
[2821]
The integral
[2822]
Specifically, the integral component S represented by equation (261)i(X−0.5, x + 0.5, y−0.5, y + 0.5) can be calculated if the relative pixel position (x, y), the slope s, and the i of the i-th term are known. is there. Of these, the relative pixel position (x, y) is determined by the target pixel and the tap range, the variable s is cot θ, and the range of i is determined by the angle θ, and the range of i is determined by the order n.
[2823]
Therefore, the integral
[2824]
The normal
[2825]
The approximate function generation unit 5206 solves the normal equation included in the normal equation table supplied from the normal
[2826]
Next, with reference to the flowchart in FIG. 355, the real world estimation processing (the processing in step S102 in FIG. 40) in consideration of the influence of the
[2827]
For example, now the slope GFIt is assumed that the optical signal of the
[2828]
In this case, in step S5201, the
[2829]
For example, it is assumed that the
[2830]
That is, FIG. 356 is a diagram illustrating an example of the tap range. In FIG. 356, the X direction and the Y direction represent the X direction and the Y direction of the
[2831]
Further, as shown in FIG. 356, it is assumed that the target pixel is the second pixel from the left and the third pixel from the bottom of the
[2832]
Returning to FIG. 355, in step S5202, the
[2833]
In step S5203, the input pixel
[2834]
In this case, the relationship between the input pixel value P (l) and the above-described input pixel value P (x, y) is represented by the following expression (262). However, in equation (262), the left side represents the input pixel value P (l), and the right side represents the input pixel value P (x, y).
[2835]
[Equation 210]
[2836]
In step S5204, the integral
[2837]
In this case, as described above, the input pixel value is obtained as the value of the
[2838]
Si (l) = Si (x−0.5, x + 0.5, y−0.5, y + 0.5) (263)
[2839]
Specifically, in this case, the integral component S represented by the following equation (264)i(L) is calculated.
[2840]
[Equation 211]
[2841]
In equation (264), the left side is the integral component Si(L), and the right side represents the integral component Si (x-0.5, x + 0.5, y-0.5, y + 0.5). That is, in this case, since i is 0 to 5, 20 S0(L), 20 S1(L), 20 S2(L), 20 S3(L), 20 S4(L), 20 S5(L) 120 S in totali(L) is calculated.
[2842]
More specifically, first, the integral
[2843]
The order of the processing in step S5203 and the processing in step S5204 is not limited to the example of FIG. 355, and the processing in step S5204 may be performed first, or the processing in step S5203 and the processing in step S5204 may be performed simultaneously. May be done.
[2844]
Next, in step S5205, the normal
[2845]
Specifically, in this case, the feature amount wi is calculated by the least square method using the above-described equation (260) (however, in equation (258), the integral component Si (x−0.5, x + 0) is calculated. .5, y-0.5, y + 0.5) uses Si (l) converted by equation (262), and the corresponding normal equation is expressed by the following equation (265). expressed.
[2846]
[Equation 212]
[2847]
In Expression (265), L represents the maximum value of the
[2848]
When the respective matrices of the normal equation represented by the equation (265) are defined as in the following equations (266) to (268), the normal equation is expressed as in the following equation (269).
[2849]
[Equation 213]
[2850]
[Equation 214]
[2851]
[Equation 215]
[2852]
216
[2853]
As shown in equation (267), the matrix WMATIs a feature amount w to be obtained.iIt is. Therefore, in equation (269), the matrix S on the left sideMATAnd the matrix P on the right sideMATIs determined, the matrix W isMATCan be calculated.
[2854]
Specifically, as shown in equation (266), the matrix SMATAre the integral components S described above.iThe calculation can be performed in (l). That is, the integral component SiSince (l) is included in the integral component table supplied from the integral
[2855]
Also, as shown in equation (268), the matrix PMATAre integral components Si(L) and the input pixel value P (l) can be calculated. That is, the integral component Si(L) is a matrix SMATSince the input pixel value P (l) is included in the input pixel value table supplied from the input pixel
[2856]
In this way, the normal
[2857]
When the normal equation table is output from the normal
[2858]
Specifically, the above-described normal equation of Expression (269) can be modified as in the following Expression (270).
[2859]
[Equation 217]
[2860]
In equation (270), the matrix W on the left sideMATIs a feature value w to be obtained.iIt is. Also, the matrix SMATAnd matrix PMATAre included in the normal equation table supplied from the normal
[2861]
In step S5207, the approximation function generation unit 5206 determines whether the processing for all pixels has been completed.
[2862]
If it is determined in step S5207 that the processing for all pixels has not been completed, the process returns to step S5202, and the subsequent processing is repeated. That is, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing of steps S5202 to S5207 is repeated.
[2863]
Then, when the processing of all pixels is completed (when it is determined in step S5207 that the processing of all pixels is completed), the estimation processing of the
[2864]
357A shows a high-definition input image (image of a spoke of a bicycle), FIG. 357B shows an image obtained by processing the image of FIG. 357A by the
[2865]
It can be seen that the image of FIG. 357C has a stronger edge and a clearer spoke contour than the image of FIG. 357D.
[2866]
FIG. 358 is a diagram showing changes in pixel values in the horizontal direction at predetermined vertical positions in the images of FIGS. 357A to 357D. In FIG. 358, the one-dot chain line corresponds to the image of 52-6A, the solid line corresponds to the image of FIG. 357B, the dotted line corresponds to the image of FIG. 357C, and the two-dot chain line corresponds to the image of FIG. 357D. . As shown in FIG. 358, in the vicinity of the spatial direction X = 10 where the spoke image is displayed, the dotted line which is the image of the processing in which the effect of the
[2867]
In particular, a portion having a small pixel value is a reflection portion of an edge portion of the spoke, and the expressive power of this portion is improved by processing in consideration of the OLPF.
[2868]
According to the real
[2869]
As described above, as a description of the two-dimensional polynomial approximation method, the coefficient (feature amount) w of the approximation function f (x, y) in the spatial direction (X direction and Y direction)iIs used, but it is needless to say that a one-dimensional polynomial approximation method may be applied by applying to only one of the spatial directions (X direction or Y direction).
[2870]
According to the above, a real-world optical signal is projected onto a plurality of pixels each having a spatial integration effect via an optical low-pass filter, and a part of the continuity of the real-world optical signal is lost in a spatial direction of image data. It is assumed that the pixel value of the target pixel corresponding to at least one-dimensional position is a pixel value obtained by integrating at least one-dimensional direction of a plurality of real-world functions corresponding to the optical low-pass filter, By performing the estimation, the function corresponding to the optical signal in the real world is estimated, so that the real world can be estimated more faithfully.
[2871]
In the above, the signal processing device of FIG. 336 performs signal processing so as to remove the influence of the
[2872]
FIG. 359 shows a configuration of a
[2873]
Note that the
[2874]
Next, the signal processing by the
[2875]
According to the above, the first image data acquired by projecting the optical signal of the real world through the optical low-pass filter onto the plurality of pixels each having the spatial integration effect is acquired, and the second image data is acquired. A plurality of pixels corresponding to the target pixel are extracted from the first image data, and the second image data obtained by directly projecting the optical signal incident on the optical low-pass filter from the first image data is Since the pixel value of the pixel of interest in the second image data is predicted based on learning in advance and prediction based on a plurality of extracted pixels, an image faithful to the real world can be generated. It becomes.
[2876]
Next, referring to FIG. 361, the prediction coefficient stored in the
[2877]
Further, as shown in FIG. 362, the 1/16 average processing unit 5253a of the teacher
[2787]
The 1/64 average processing unit 5251b of the student
[2879]
Next, a learning process performed by the learning device in FIG. 361 will be described with reference to the flowchart in FIG. 363.
[2880]
The processing in step S5231 and the processing in steps S5233 to S5241 are the same as the processing in step S5031 and the processing in steps S5033 to S5041 described with reference to the flowchart in FIG. 349, and a description thereof will be omitted. .
[2881]
In step S5232, the 1/64 average processing unit 5251b obtains an average pixel value of the OLPF simulation-processed image input from the OLPF
[2882]
According to the above processing, the prediction memory when the HD image without the OLPF is used as the teacher image and the SD image with the OLPF is used as the student image is stored in the coefficient memory 5254. Further, by copying the prediction coefficients stored in the coefficient memory 5254 to the
[2883]
Summarizing the above processing, the OLPF processing is performed on the image of the real world, and the SD image (real world + LPF + imaging element in the figure) captured by the imaging element (sensor 2) is converted to the OLPF removing unit in FIG. As indicated by an arrow A in FIG. 364 by 5131, the SD image is converted into an SD image (real world + imaging element in the figure) from which the processing by the OLPF has been removed, and further, the
[2884]
Further, the real
[2885]
Further, as shown by an arrow C in FIG. 364, the
[2886]
In the conventional classification adaptation processing, as shown by an arrow D in FIG. 364, an HD image obtained by imaging the real world from an SD image (real world + LPF + imaging element in the figure) via an OLPF by an imaging element Generate
[2887]
Further, the signal processing device of FIG. 3 estimates the real world affected by the OLPF from the SD image (real world + LPF + imaging element in the figure) as indicated by an arrow E in FIG. 364.
[2888]
According to the above, the image data corresponding to the optical signal when the optical signal corresponding to the second image data has passed through the optical low-pass filter is calculated, output as the first image data, and A plurality of pixels corresponding to the pixel of interest are extracted from the first image data, and learning is performed so as to predict the pixel value of the pixel of interest from the pixel values of the extracted pixels. It is possible to generate a perfect image.
[2889]
In the above description, the approximation function f (x) approximating the real world has been treated as a continuous function. However, for example, the approximation function f (x) may be set discontinuously for each region.
[2890]
That is, in the above, a function (approximate function) of a curve (curve indicated by a dotted line in the figure) which is a one-dimensional cross section showing the distribution of light intensity in the real world as shown in FIG. Approximately, the real world was estimated by utilizing the fact that this curve exists continuously in the direction of stationarity.
[2891]
However, the curve serving as the cross section does not necessarily have to be a continuous function such as a polynomial, and may be a discontinuous function that differs for each region as shown in FIG. 366, for example. That is, in the case of FIG.1≦ x <a2, The approximate function is f (x) = w1And the area a2≦ x <a3, The approximate function is f (x) = w2And the area a3≦ x <a4, The approximate function is f (x) = w3And the area a4≦ x <a5, The approximate function is f (x) = w4And the area a5≦ x <a6, The approximate function is f (x) = w5And a different approximation function f (x) is set for each region. Also, wiCan be considered substantially as the level of light intensity in each region.
[2892]
Thus, the discontinuous function as shown in FIG. 366 is defined by the following general expression (271).
[2893]
f (x) = wi(Ai≦ x <ai + 1) ... (271)
[2894]
Here, i indicates the number of areas set.
[2895]
Thus, the distribution of the cross section as shown in FIG. 366 (corresponding to the curve of the cross section) is set as a constant for each region. The distribution of the cross section of the pixel value shown in FIG. 366 is significantly different in shape from the distribution of the curve shown by the dotted line in FIG. 365, but actually, each function f (X) is set (here, ai≦ x <ai + 1), The distribution of the cross section of the discontinuous function and the curve of the cross section of the continuous function can be at a level that can be geometrically approximated.
[2896]
Therefore, by using the approximate function f (x), which is a discontinuous function in the real world defined by the equation (271), the pixel value P is obtained by the following equation (272).
218
[2897]
Where xe, XsIndicates a value indicating the integration range in the X direction, and xSIs the integration start position, xeIndicates the integration end position.
[2898]
However, in practice, it is difficult to directly obtain a function approximating the real world as shown by the above equation (271).
[2899]
Since the distribution of the cross section of the pixel value as shown in FIG. 366 is assumed to exist continuously in the direction of the stationarity, the distribution of the light intensity in space is as shown in FIG. 367. It will be. Here, the left part of FIG. 367 corresponds to the distribution of pixel values when the approximate function f (x) composed of a continuous function continuously exists in the direction of continuity, and the right part of FIG. , And the same distribution corresponding to the left part, which corresponds to the distribution of pixel values when they exist continuously in the direction of continuity using the approximation function f (x) composed of the discontinuous function in FIG. It is.
[2900]
That is, since the shape of the cross section shown in FIG. 366 is continuous along the direction of continuity, when the approximate function f (x) using the discontinuous function is used, each level wiWill be distributed in a band along the direction of stationarity.
[2901]
In order to determine the level of each region using an approximate function f (x) defined by a discontinuous function as shown in the right part of FIG. 367, each level (each function) of the total area of each pixel is determined. ), The weight corresponding to the ratio of the area of each region to the set area, and the product sum of the weight and the level are calculated, a normal equation is generated using the pixel value of the corresponding pixel, and the least square method is used. Therefore, it is necessary to determine the pixel value of each area.
[2902]
That is, as shown in FIG. 368, when a discontinuous function is distributed as shown in the left part of FIG. 368, a target pixel indicated by a square surrounded by a thick line in FIG. 368 (note that FIG. FIG. 4 is a top view showing an array of pixels when the paper surface is an XY plane, and when a pixel value of each cell is obtained, the pixel is located above a shaded portion in the target pixel. The range of the triangular shape (the triangle whose base is the upper part) is f (x) = w2And the shaded portion is f (x) = w3And the range of the triangular shape (the bottom is the lower triangle) existing below the hatched portion is f (x) = w4It is the range set by. If the area of the pixel of interest is 1, f (x) = w2Is 0.2, f (x) = w3Is 0.5, and f (x) = w4If the ratio occupied by the range set in is assumed to be 0.3, the pixel value P of the target pixel is represented by the product sum of the pixel value and the ratio of each range, so that the following formula (273) is used. It is determined by the operation shown.
[2903]
P = 0.2 × w2+ 0.5 × w3+ 0.3 × w4... (273)
[2904]
Therefore, for each pixel, by generating a relational expression with the pixel value using the relation shown in Expression (273), for example, the level w1Or w5Is obtained by obtaining the equation (273) indicating the relationship with the pixel values of at least five pixels including all levels, for example, the least square method (when the number of relational expressions and the unknown are the same, simultaneous W) indicating the level of the pixel value by equation1Or w5Can be obtained.
[2905]
By utilizing the two-dimensional relationship using the stationarity, an approximate function f (x) composed of a discontinuous function can be obtained.
[2906]
Since the continuity angle θ is determined by the
[2907]
xl= S × y (274)
[2908]
That is, a point on a straight line corresponding to data continuity is represented by a coordinate value (xl, Y).
[2909]
From the equation (274), the cross-sectional direction distance x ′ (the distance deviated in the X direction along the straight line having the stationarity) is expressed as the following equation (275).
[2910]
Therefore, the approximate function f (x, y) at an arbitrary position (x, y) of the input image is expressed by the following equation (276) from the equations (271) and (275).
[2911]
f (x, y) = wi(Ai≦ (x−s × y) <ai + 1) ... (276)
[2912]
Note that in equation (276), wiCan be said to be a feature quantity indicating the level of light intensity in each region. In the following, wiIs also referred to as a feature value.
[2913]
Therefore, the real
[2914]
Therefore, hereinafter, the characteristic amount w of the equation (276) will be described.iWill be described.
[2915]
That is, if the approximation function f (x, y) represented by the equation (276) is integrated in an integration range (an integration range in the spatial direction) corresponding to the pixel (the detection element of the sensor 2), the integration value becomes It is an estimated value of the pixel value of the pixel. This is expressed by the following equation (277). In the two-dimensional approximation method using the discontinuous function, since the frame direction T is regarded as a constant value, the expression (277) expresses the positions x and y in the spatial direction (X direction and Y method) as variables. The equation is
[2916]
[Equation 219]
[2917]
In Expression (277), P (x, y) has a center position of a position (x, y) (a relative position (x, y) from a pixel of interest) in an input image from the
[2918]
As described above, in the two-dimensional approximation method, the relationship between the input pixel value P (x, y) and the two-dimensional approximation function f (x, y) can be expressed by Expression (277). The real-
[2919]
Here, with reference to FIG. 369, the configuration of the real
[2920]
As shown in FIG. 369, the real
[2921]
The
[2922]
The input
[2923]
The input pixel
[2924]
By the way, as described above, the real
[2925]
Equation (277) can be expressed as in the following equation (278).
[2926]
[Equation 220]
[2927]
In equation (278), Ti(Xs, Xe, Ys, Ye) Indicates the feature amount w in the region of the integration range.iArea (light level wi), That is, the area is represented. In the following, Ti(Xs, Xe, Ys, Ye) Is referred to as the integral component.
[2928]
The integral
[2929]
Specifically, the integral component T shown in equation (278)i(Xs, Xe, Ys, Ye) Indicates the predetermined feature amount w in the pixel to be obtained as described above with reference to FIG.iThe area of is calculated. Therefore, the integral
[2930]
As described in FIG. 368, ai≦ (x−s × y) <ai + 1, The variable s indicating the slope of the stationarity, and the relative pixel position (x, y) are known, the feature amount wiIs possible. Of these, the relative pixel position (x, y) depends on the target pixel and the tap range, and the variable s is cot θ.i≦ (x−s × y) <ai + 1Are set in advance, and the respective values are known.
[2931]
Therefore, the integral
[2932]
The normal
[2933]
The approximation function generation unit 5306 solves the normal equation included in the normal equation table supplied from the normal
[2934]
Next, with reference to the flowchart in FIG. 370, a description will be given of the real world estimation process (the process in step S102 in FIG. 40) to which the two-dimensional approximation method using the discontinuous function is applied.
[2935]
For example, now the slope GFIt is assumed that the optical signal of the
[2936]
In this case, in step S5301, the
[2937]
For example, it is assumed that the tap range shown in FIG. 371 is set and d is set as the width.
[2938]
That is, FIG. 371 is a diagram illustrating an example of the tap range. In FIG. 371, the X direction and the Y direction represent the X direction and the Y direction of the
[2939]
Further, as shown in FIG. 371, it is assumed that the target pixel is set as a hatched pixel in the drawing in the tap range. FIG. 371 shows, for each pixel, the relative pixel position (x, y) from the target pixel (the coordinate value of the target pixel coordinate system whose origin is at the center (0, 0) of the target pixel). It is assumed that a number 1 (1 is an integer value of any one of 0 to 14) as shown in FIG.
[2940]
Returning to FIG. 370, in step S5302,
[2941]
In step S5303, the input pixel
[2942]
In step S5304, the integral
[2943]
In this case, the integral
[2944]
Ti (l) = Ti (x−0.5, x + 0.5, y−0.5, y + 0.5) (279)
[2945]
That is, in this case, for example, if i is 0 to 5, 15 T0(L), 15 T1(L), 15 T2(L), 15 T3(L), 15 T4(L), 15 T5(L) 90 T in totali(L) is calculated, and an integral component table including them is generated.
[2946]
Note that the order of the processing of step S5303 and the processing of step S5304 is not limited to the example of FIG. 370, and the processing of step S5304 may be performed first, or the processing of step S5303 and the processing of step S5304 may be performed simultaneously. May be done.
[2947]
Next, in
[2948]
Specifically, in this case, the feature amount w is calculated by the least square method using the above-described equation (278).iIs calculated, and the corresponding normal equation is represented by the following equation (280).
[2949]
[Equation 221]
[2950]
In Expression (280), L represents the maximum value of the
[2951]
If each of the matrices of the normal equation represented by the equation (280) is defined as the following equations (281) to (283), the normal equation is expressed as the following equation (284).
[2952]
(Equation 222)
[2953]
223
[2954]
224
[2955]
[Equation 225]
[2956]
As shown in equation (282), the matrix WMATIs a feature amount w to be obtained.iIt is. Therefore, in equation (284), the matrix T on the left sideMATAnd the matrix P on the right sideMATIs determined, the matrix W isMATCan be calculated.
[2957]
Specifically, as shown in Expression (281), the matrix TMATAre the integral components T described above.iThe calculation can be performed in (l). That is, the integral component TiSince (l) is included in the integral component table supplied from the integral
[2958]
Also, as shown in equation (283), the matrix PMATAre the integral components Ti(L) and the input pixel value P (l) can be calculated. That is, the integral component Ti(L) is the matrix TMATSince the input pixel value P (l) is included in the input pixel value table supplied from the input pixel
[2959]
In this way, the normal
[2960]
When the normal equation table is output from the normal
[2961]
Specifically, the above-described normal equation of Equation (284) can be modified as in the following Equation (285).
[2962]
226
[2963]
In equation (285), the matrix W on the left sideMATIs a feature value w to be obtained.iIt is. Also, the matrix TMATAnd matrix PMATAre included in the normal equation table supplied from the normal
[2964]
In step S5307, the approximation function generation unit 5306 determines whether the processing for all pixels has been completed.
[2965]
If it is determined in step S5307 that the processing for all the pixels has not been completed, the process returns to step S5302, and the subsequent processing is repeated. In other words, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing of steps S5302 to S5307 is repeated.
[2966]
Then, when the processing of all the pixels is completed (when it is determined in step S5307 that the processing of all the pixels is completed), the estimation processing of the
[2967]
As described above, as a description of the two-dimensional approximation method using the discontinuous function, the feature amount w of the approximation function f (x, y) in the spatial direction (X direction and Y direction) is described.iIs used, but the two-dimensional approximation method using the discontinuous function is also applicable to the spatio-temporal direction (X direction and T direction or Y direction and T direction).
[2968]
That is, the above-described example is an example in which the optical signal of the
[2969]
In other words, in the two-dimensional approximation method using the discontinuous function, the optical signal function F (x, y, t) to be estimated not only has the continuity in the spatial direction but also the spatio-temporal direction (where the X direction and T Direction, or Y direction and T direction), it is possible to approximate with a two-dimensional discontinuous function.
[2970]
Specifically, for example, as shown in FIG. 372, an object (toy airplane in the figure) D1 (image of the lower frame in the figure) moves horizontally at a constant speed in the X direction, and the object D2 When moving to the (image of the middle frame in the figure), the movement of the object on the X-T plane is represented as a trajectory L1, as shown in the upper part of FIG. 372. The upper part of FIG. 372 shows the change of the pixel value on the surface with OPQR as each vertex in the figure.
[2971]
In other words, it can be said that the trajectory L1 represents the direction of continuity in the spatiotemporal direction on the XT plane. Therefore, the data
[2972]
Therefore, the real-
[2973]
[Equation 227]
[2974]
In the case of the processing on the XT plane, the relationship between each pixel shown in the right part of FIG. 371 and the discontinuous function is as shown in FIG. 373. That is, in FIG. 373, the cross-sectional shape in the spatial direction X (cross-sectional shape by a discontinuous function) is continuous with the frame direction T along a predetermined continuity direction. As a result, the level becomes level w1Or w5In the case of the five types, the bands having the same level as shown in the left part of FIG. 371 are distributed along the direction of the stationarity.
[2975]
Therefore, in this case, the pixel value can be obtained by using a pixel existing on the XT plane as shown in the right part of FIG. 373. In the right part of FIG. 373, each square indicates a pixel, and the X direction is the width of the pixel, but in the frame direction, the unit of each square corresponds to one frame.
[2976]
Further, instead of the spatial direction X, the approximate function f (y, t) focused on the spatial direction Y can be handled in exactly the same manner as the above-described approximate function f (x, t).
[2977]
In the above, the method of setting a two-dimensional approximation function consisting of a discontinuous function and estimating the real world has been described. However, the estimation of the real world by a three-dimensional approximation function consisting of a discontinuous function is also possible. .
[2978]
For example, consider a two-dimensional discontinuous function that differs for each region as shown in FIG. That is, in the case of FIG.1≦ x <a2And b1≦ y <b2Then, the approximate function is f (x, y) = w1And the area a2≦ x <a3And b3≦ y <b4Then, the approximate function is f (x, y) = w2And the area a3≦ x <a4And b5≦ y <b6Then, the approximate function is f (x, y) = w3And the area a4≦ x <a5And b7≦ y <b8Then, the approximate function is f (x, y) = w4And the area a3≦ x <a4And b9≦ y <b10Then, the approximate function is f (x, y) = w5, Different approximation functions f (x, y) are set for each region. Also, wiCan be considered substantially as the level of light intensity in each region.
[2979]
The discontinuous function as shown in FIG. 374 is defined by the following general expression (287).
[2980]
f (x, y) = wi(Aj≦ x <aj + 1 & B2k-1≦ y <b2k) ... (287)
[2981]
Here, j and k are arbitrary integers, and i is a serial number for identifying an area that can be expressed by a combination of j and k.
[2982]
As described above, the distribution of the cross section (corresponding to the curve of the cross section) as shown in FIG. 374 is set as a constant for each region.
[2983]
Accordingly, the pixel value P (x, y) is obtained by the following equation (288) by using the approximation function f (x, y) of the real world, which is formed by a discontinuous function, defined by the equation (287). Will be done.
228
[2984]
Where xe, XsIndicates a value indicating the integration range in the X direction, and xSIs the integration start position in the X direction, xeIndicate integration end positions in the X direction. Similarly, ye, YsIndicates a value indicating an integration range in the Y direction, and y indicatesSIs the integration start position in the Y direction, yeIndicate integration end positions in the Y direction.
[2985]
However, in practice, it is difficult to directly obtain a function approximating the real world as shown by the above equation (287).
[2996]
Since the distribution of the cross section of the pixel value as shown in FIG. 374 is assumed to exist continuously in the direction of continuity in the frame direction, the distribution of light intensity in space is shown in FIG. It will be something like that. Here, the left part of FIG. 375 shows the X-T of the pixel value distribution when the approximation function f (x, y) consisting of the discontinuous function exists continuously in the frame direction and the X-direction continuity direction. FIG. 374 shows a distribution in which the cross section of the light intensity level on the XY plane is continuous in the frame direction in the right part of the drawing.
[2987]
That is, since the shape of the cross section shown in FIG. 374 is continuous along the direction of continuity, as shown in the right part of FIG.iIs a bar-shaped distribution along the direction of stationarity.
[2988]
In order to determine the pixel value of each three-dimensional region using the approximate function f (x, y) defined by a discontinuous function as shown in the right part of FIG. Is calculated using the ratio by volume in the same manner as the method using. That is, of the total volume of each pixel (a three-dimensional volume composed of the X, Y, and T directions), a weight corresponding to the ratio of the volume occupied by the range in which each level is set, and the weight of the level By calculating the sum of products and using the pixel value of the corresponding pixel, the pixel value of each area is determined using, for example, the least square method.
[2988]
That is, as shown in FIG. 376, the level of one area is f (x, y) = w1And the level of the other area is f (x, y) = w2It is assumed that Further, it is assumed that a cube made of ABCDEFGH in the figure on the XYT space indicates a target pixel. Further, it is assumed that the cross section of the target pixel with the boundary R is a rectangle made of IJKL.
[2990]
Further, in the volume of the pixel P, the ratio occupied by a portion that becomes a triangular prism made of IBJ-KFL is represented by M1, and the ratio occupied by a volume of the other portion (a pentagonal prism made of ADCJI-EGHLK) is represented by M2. I do. Here, the volume indicates the size of the exclusive area on the XYt space.
[2991]
At this time, since the pixel value P of the target pixel is represented by the product sum of the pixel value and the ratio of each range, the pixel value P is obtained by the calculation represented by the following equation (289).
[2992]
P = M1 × w1+ M2 × w2... (289)
[2993]
Therefore, for each pixel, by generating an expression indicating the relationship with the pixel value using the relationship indicated by Expression (289), for example, w is used as a coefficient indicating the pixel value.1Or w2In order to obtain the relationship between the pixel value of at least two pixels including the respective coefficients and the equation (289) of the pixel, for example, the least square method (when the unknown number and the relational expression have the same number, Indicates the level of the pixel value by simultaneous equations)1Or w2Can be obtained.
[2994]
By utilizing the three-dimensional relationship using the stationarity, an approximate function f (x, y) composed of a discontinuous function can be obtained.
[2995]
For example, based on the motion θ corresponding to the XY plane continuity angle θ output from the
[2996]
xl= Vx× t, yl= Vy× t (290)
[2997]
That is, a point on a straight line corresponding to data continuity is represented by a coordinate value (xl, Yl).
[2998]
From Expression (290), the cross-sectional direction distances x ′ and y ′ (distances displaced in the X and Y directions along a straight line having stationarity) are expressed as in the following Expression (291). .
[2999]
Therefore, the approximate function f (x, y) at an arbitrary position (x, y) of the input image is expressed by the following equation (292) from the equations (287) and (291).
[3000]
[3001]
Therefore, the real
[3002]
Therefore, hereinafter, the characteristic amount w of Expression (292)iWill be described.
[3003]
That is, if the approximation function f (x, y, t) expressed by the equation (292) is integrated in an integration range (an integration range in the spatial direction) corresponding to the pixel (the detection element of the sensor 2), the integration value is obtained. Is the estimated value of the pixel value of the pixel. This is expressed by the following equation (293).
[3004]
229
[3005]
In the equation (293), P (x, y, t) indicates that the center position of the input image from the
[3006]
As described above, in the three-dimensional approximation method, the relationship between the input pixel value P (x, y, t) and the three-dimensional approximation function f (x, y, t) composed of a discontinuous function is expressed by Expression (293). ), The real
[3007]
Next, referring to FIG. 377, regarding the configuration of the real
[3008]
As shown in FIG. 377, the real
[3009]
The
[3010]
The input
[3011]
The input pixel
[3012]
By the way, as described above, the real
[3013]
Equation (293) can be expressed as the following equation (294).
[3014]
[Equation 230]
[3015]
In equation (294), Ti(Xs, Xe, Ys, Ye, Ts, Te) Indicates the feature amount w in the region of the integration range.iArea (light level wiRepresents the integration result, that is, the volume. In the following, Ti(Xs, Xe, Ys, Ye, Ts, Te) Is referred to as the integral component. Note that this equation (294) represents the integral component T in the two-dimensional operation.i(Xs, Xe, Ys, Ye).
[3016]
The integral
[3017]
Specifically, the integral component T shown in equation (294)i(Xs, Xe, Ys, Ye, Ts, Te) Indicates the predetermined feature amount w in the pixel to be obtained as described above with reference to FIG.iIs to determine the volume of. Therefore, the integral
[3018]
As described with reference to FIG.j≤ (xvx× t) <aj + 1, And b2k-1≦ (y−vy× t) <b2k, And information on the direction of stationarity (ie, for example, the velocity vx, VyOr the angle θ with respect to a predetermined axis of stationarity and the relative pixel position (x, y, t) are known, and the feature amount wiIs possible. Among them, the relative pixel position (x, y, t) is based on the target pixel and the tap range, and the continuity information is based on the information detected by the
[3019]
Therefore, the integral
[3020]
The normal
[3021]
The approximate function generation unit 5326 solves the normal equation included in the normal equation table supplied from the normal
[3022]
Next, with reference to the flowchart in FIG. 378, a description will be given of the real world estimation processing (the processing in step S102 in FIG. 40) to which the three-dimensional approximation method using the discontinuous function is applied.
[3023]
For example, velocities v are now respectively defined for the Xt plane and the Yt plane.x, VyIt is assumed that the optical signal of the
[3024]
In this case, in step S5321, the
[3025]
For example, it is assumed that the tap range shown in FIG. 379 is set, and the width is set to the width in the horizontal direction × the width in the vertical direction = d × e.
[3026]
The set tap range is, for example, as shown in FIG. In FIG. 379, the X direction and the Y direction represent the X direction and the Y direction of the
[3027]
Further, as shown in FIG. 379, it is assumed that the target pixel is set to the pixel P13 at the center in the figure with the frame number t = n. In addition, for each pixel, the relative pixel position (x, y, t) from the target pixel (coordinate value of the target pixel coordinate system whose origin is the center (0, 0, 0) of the target pixel) It is assumed that a number 1 (1 is an integer value indicating any one of P0 to P26) as shown in FIG.
[3028]
Returning to FIG. 378, in step S5322, the
[3029]
In step S5323, the input pixel
[3030]
In step S5324, the integral
[3031]
In this case, the integral
[3032]
[3033]
That is, in this case, for example, if i is 0 to 5, 27 T0(L), 27 T1(L), 27 T2(L), 27 T3(L), 27 T4(L), 27 T5(L) 162 T in totali(L) is calculated, and an integral component table including them is generated.
[3034]
The order of the processing of step S5323 and the processing of step S5324 is not limited to the example of FIG. 378, and the processing of step S5324 may be performed first, or the processing of step S5323 and the processing of step S5324 may be performed simultaneously. May be done.
[3035]
Next, in
[3036]
Specifically, in this case, the feature amount w is calculated by the least square method using the above-described equation (295).iIs calculated, and the corresponding normal equation is represented by the following equation (296).
[3037]
231
[3038]
In equation (296), L represents the maximum value of the
[3039]
This normal equation has the same format as the above-described equation (280), and is similar to the above-described two-dimensional method, so that the description of the solution of the normal equation will be omitted.
[3040]
In step S5327, the approximate function generation unit 5326 determines whether or not processing of all pixels has been completed.
[3041]
If it is determined in step S5327 that the processing for all pixels has not been completed, the process returns to step S5322, and the subsequent processing is repeated. In other words, the pixels that have not yet been set as the target pixel are sequentially set as the target pixel, and the processing of steps S5322 to S5327 is repeated.
[3042]
Then, when the processing of all the pixels is completed (in step S5327, it is determined that the processing of all the pixels is completed), the estimation processing of the
[3043]
As a result, for example, as shown in FIG.x, The velocity in the Y direction is vy) Is a level (discontinuous function) w which is each feature amount for each bar-shaped region drawn by a thick line along1Or w5Is set, and an approximation function in the real world is estimated. In this case, the size of the cross section of each bar-shaped region with respect to the XY plane is d × e.
[3044]
Further, in the bar-shaped area drawn by the thin line, the velocity in the Y direction is vy= 0. That is, when simply moving in the horizontal direction, each level wiIs kept parallel to the Xt plane. This is because the velocity in the X direction is vxThe same can be said for = 0. That is, in this case, each bar-shaped region maintains a relationship parallel to the Yt plane.
[3045]
Furthermore, when there is no change in the time direction and there is continuity on the XY plane, the bar-shaped region for each function maintains a position parallel to the XY plane. That is, when there is no change in the time direction and there is continuity in the XY plane, a thin line or a binary edge exists.
[3046]
Further, in the above description, a case has been described in which the areas where functions are set discontinuously are arranged in a two-dimensional space (bar-shaped areas are arranged so as to form a surface). As indicated by reference numeral 381, each region may be arranged three-dimensionally in an XYT three-dimensional space.
[3047]
Further, in the above example, a constant feature amount w for each region is used as a discontinuous function.iHas been described, but the same can be applied to a continuous function that is not a constant. That is, for example, as shown in FIG. 382, when the function is in the X direction, in the region of X0 ≦ X <X1 in the image, the feature amount w1Is w1= F0(X), and in the region of X1 ≦ X <X2 in the image, the feature amount w2Is w2= F1(X) may be set. Even a continuous function may be set as a different function for each region. In this case, the function to be set may be, for example, polynomial approximation or another function.
[3048]
Further, a constant feature amount w for each region as a discontinuous functioniIs set, a function that is not completely continuous in each region may be set. That is, for example, as shown in FIG. 383, when the function is in the X direction, in the region of X0 ≦ X <X1 in the image, the feature amount w1Is w1= F0(X), and in the region of X1 ≦ X <X2 in the image, the feature amount w2Is w2= F1(X) so that each function (for example, f0(X) and f1(X)), the same processing can be performed even if each is discontinuous. In this case as well, the function to be set may be, for example, polynomial approximation or another function.
[3049]
As described above, when the real-
[3050]
Next, with reference to FIG. 384, the
[3051]
The
[3052]
The real-world estimation
[3053]
The
[3054]
The
[3055]
Next, an image generation process performed by the
[3056]
In step S5341, the real world estimation
[3057]
In step S5342, the
[3058]
For example, a case where a feature amount is set as shown in FIG. 386 will be described. Here, it is assumed that pixels of the input image are indicated by thin-line cells, and pixels to be generated are indicated by thick-line cells. That is, in this case, quadruple density pixels are generated. Also, w1Or w5The five regions set in a band shape ascending to the right with respect to the array of pixels indicated by are the regions set along the direction of continuity, and the level of each region is w1Or w5It is assumed that
[3059]
If it is assumed that the pixel of interest is to generate a hatched pixel shown in FIG. 386, the pixel of interest is the area w3, W4, The area occupied by each region in the target pixel is m1, M2When the area to be generated is m, the weight to be generated is the area w3Is m1/ M and the area w4Is m2/ M. As described above, the
[3060]
In step S5344, the
[3061]
That is, in the case of the pixel of interest described with reference to FIG. 386, the
[3062]
That is, for example, the region w3, W4The approximation function that determines the level of3, W4If both are constants, the pixel value is determined as shown in the following equation (297) by calculating the product sum with the weight.
[3063]
P = w3× m1/ M + w4× m2/ M ・ ・ ・ (297)
[3064]
In step S5345, the real world estimation
[3065]
If it is determined in step S5345 that the processing has been completed for all the pixels, the processing ends.
[3066]
That is, for example, when the object moves in the horizontal direction to the right in time, the change in the actual pixel value in the XT space in the real world changes along the direction of continuity as shown in FIG. 387A. It is known that a region having the same pixel value level continues. For this reason, when a pixel having a higher density is generated by using a model as shown in FIG. 387B, the shape of the pixel cannot express an actual upward-sloping linear motion. When an attempt is made to generate an enlarged image, an accurate pixel value cannot be reflected in the generation of a pixel of the enlarged image due to a change in pixel values that are geometrically arranged stepwise near a boundary where the pixel value changes.
[3067]
On the other hand, as shown in FIG. 387C, the model in the estimation of the approximation function of the real world by the real
[3068]
Through the above processing, pixels can be generated in consideration of the distribution of light intensity in a region below the pixels, and it is possible to accurately generate higher-density pixels. Can be generated.
[3069]
Next, with reference to FIG. 388, the
[3070]
The
[3071]
The real-world estimation
[3072]
The
[3073]
The
[3074]
Next, the image generation processing by the
[3075]
In step S5351, the real world estimation
[3076]
In step S5352, the
[3077]
For example, as shown in FIG. 390, it is assumed that a target pixel is set as a pixel to be generated in a three-dimensional space in the X direction, the Y direction, and the frame direction T. In FIG. 390, the cube indicated by the thick line is the target pixel. The cube drawn by a thin line indicates a pixel adjacent to the pixel of interest.
[3078]
For example, a case where a feature amount is set as shown in FIG. 391 will be described. Note that w shown in FIG.1Or w3Are three regions set in a bar shape along the direction of stationarity, and the level of each region is w1Or w3It is assumed that
[3079]
As shown in FIG. 391, the target pixel is the area w1Or w3, The volume occupied by each region in the target pixel is M1To M3If the volume of the pixel to be generated is M, the weight to be generated is1Is M1/ M and the area w2Is M2/ M and the area w3Is M3/ M. Information on the weight obtained for each area and information on a function for setting the level of each area are output to the
[3080]
In step S5354, the
[3081]
That is, in the case of the pixel of interest described with reference to FIG. 391, the
[3082]
That is, for example, the region w1Or w3The approximation function that determines the level of1Or w3If both are constants, the pixel value is determined as shown by the following equation (298) by calculating the product sum with the weight.
P = w1× M1/ M + w2× M2/ M + w3× M3/M...(298)
[3083]
In step S5355, the real world estimation
[3084]
If it is determined in step S5355 that the processing has been completed for all the pixels, the processing ends.
[3085]
FIGS. 392A to 392D show processing results when pixels having a 16-fold density (4 times the density in the horizontal and vertical directions) with respect to the original image are generated. Here, FIG. 392A shows the original image, FIG. 392B shows the processing result by the conventional classification adaptive processing, and FIG. 392C shows the processing result by the real-world approximation function composed of the above-described polynomial. FIG. 392D shows the processing results of the real-world approximation functions composed of the discontinuous functions, respectively.
[3086]
It can be seen that the processing result by the real-world approximation function composed of the discontinuous function has little blur of the image and generates a clear image close to the original image.
[3087]
FIG. 393 shows the average pixel value of 4 × 4 pixels in the horizontal direction and the vertical direction of the high-density original image, and further, the pixel values of the 16 pixels are calculated as the average pixel value. After the spatial resolution is reduced to 1/16, the processing result of the above-described real-world approximation function composed of the polynomial and the processing result of the real-world approximation function composed of the discontinuous function are compared. Note that in FIG. 393, the solid line is the original image, the dotted line is the processing result by the real world approximation function composed of polynomials, and the dashed line is the processing result by the real world approximation function composed of discontinuous functions. . The horizontal axis in the figure is the coordinate position in the X direction, and the vertical axis is the pixel value.
[3088]
The processing result by the real-world approximation function consisting of the discontinuous function is more consistent with the original image and the original image at X = 651 to 655 than the processing result by the real-world approximation function consisting of the polynomial. It can be seen that the pixel values are accurately reproduced even in the generation of 16-fold density pixels.
[3089]
Through the above processing, pixels can be generated in consideration of the distribution of light intensity in a region below the pixels, and it is possible to accurately generate higher-density pixels. Can be generated.
[3090]
Further, as described above, even if a motion blur occurs in an image, it can be removed by a method of setting a real world approximation function including a discontinuous function.
[3091]
Here, the input image and the motion blur will be described with reference to FIGS. 394 to 409.
[3092]
FIG. 394 is a diagram illustrating imaging by the
[3093]
The
[3094]
FIG. 395 is a diagram illustrating the arrangement of pixels. In FIG. 395, A to I indicate individual pixels. The pixels are arranged on a plane corresponding to the image. One detection element corresponding to one pixel is arranged on the
[3095]
As shown in FIG. 396, for example, a detection element such as a CCD converts input light into electric charges for a period corresponding to a shutter time, and accumulates the converted electric charges. The amount of charge is substantially proportional to the intensity of the input light and the time during which the light is input. The detection element adds the electric charge converted from the input light to the electric charge already stored in a period corresponding to the shutter time. That is, the detection element integrates the input light for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. It can be said that the detection element has an integration effect with respect to time.
[3096]
The electric charge accumulated in the detection element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output. Therefore, each pixel value output from the
[3097]
FIG. 397 is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background. FIG. 397A shows an image obtained by capturing an object corresponding to a foreground with motion and an object corresponding to a stationary background. In the example shown in FIG. 397A, the object corresponding to the foreground is moving horizontally from left to right with respect to the screen.
[3098]
FIG. 397B is a model diagram in which pixel values corresponding to one line of the image shown in FIG. 397A are developed in the time direction. The horizontal direction in FIG. 397B corresponds to the spatial direction X in FIG. 397A.
[3099]
The pixels in the background region have their pixel values formed only from the background components, that is, components of the image corresponding to the background object. The pixel values of the pixels in the foreground area are composed of only the foreground components, that is, the components of the image corresponding to the foreground object.
[3100]
The pixel value of the pixel of the mixed area is configured from the background component and the foreground component. Since the pixel value of the mixed area is composed of the background component and the foreground component, it can be said that the mixed area is a distortion area. The mixed area is further classified into a covered background area and an uncovered background area.
[3101]
The covered background area is a mixed area at a position corresponding to the front end of the foreground object in the traveling direction with respect to the foreground area, and refers to an area where the background component is covered by the foreground as time passes.
[3102]
On the other hand, the uncovered background area is a mixed area at a position corresponding to the rear end of the foreground object in the traveling direction with respect to the foreground area, and an area in which the background component appears over time. Say.
[3103]
FIG. 398 is a diagram illustrating the background area, foreground area, mixed area, covered background area, and uncovered background area as described above. In the case of the image shown in FIG. 397, the background area is a stationary part, the foreground area is a moving part, the covered background area of the mixed area is a part that changes from the background to the foreground, The uncovered background area is a part that changes from the foreground to the background.
[3104]
FIG. 399 is a model diagram in which pixel values of adjacent pixels arranged in one row in an image obtained by capturing an object corresponding to a stationary foreground and an object corresponding to a stationary background are developed in the time direction. It is. For example, the pixels arranged on one line of the screen can be selected as the pixels arranged adjacently in one column.
[3105]
The pixel values of F01 to F04 illustrated in FIG. 399 are the pixel values of the pixels corresponding to the stationary foreground object. The pixel values B01 to B04 illustrated in FIG. 399 are the pixel values of the pixels corresponding to the stationary background object.
[3106]
The vertical direction in FIG. 399 corresponds to time, and time elapses from top to bottom in the figure. The position of the upper side of the rectangle in FIG. 399 corresponds to the time when the
[3107]
Hereinafter, a case where the shutter time and the frame interval are the same will be described as an example.
[3108]
The horizontal direction in FIG. 399 corresponds to the spatial direction X described in FIG. More specifically, in the example shown in FIG. 399, the distance from the left side of the rectangle described as “F01” in FIG. 399 to the right side of the rectangle described as “B04” is eight times the pixel pitch, That is, it corresponds to the interval between eight consecutive pixels.
[3109]
When the foreground object and the background object are stationary, the light input to the
[3110]
Here, the period corresponding to the shutter time is divided into two or more periods of the same length. The number of virtual divisions is set in accordance with the amount of movement v of the object corresponding to the foreground within the shutter time. For example, as shown in FIG. 400, the number of virtual divisions is 4, and the period corresponding to the shutter time is divided into 4 corresponding to the movement amount v of 4.
[3111]
The top row in FIG. 400 corresponds to the first divided period after the shutter has opened. The second row from the top in the figure corresponds to the second divided period from when the shutter has opened. The third row from the top in the figure corresponds to the third divided period from when the shutter has opened. The fourth row from the top in the figure corresponds to the fourth divided period from when the shutter has opened.
[3112]
Hereinafter, the shutter time divided according to the movement amount v is also referred to as a shutter time / v.
[3113]
When the object corresponding to the foreground is stationary, the light input to the
[3114]
When the object corresponding to the background is stationary, the light input to the
[3115]
That is, when the object corresponding to the foreground is stationary, the light corresponding to the object of the foreground input to the
[3116]
When the object corresponding to the background is stationary, the light corresponding to the background object input to the
[3117]
Next, a case where the object corresponding to the foreground moves and the object corresponding to the background is stationary will be described.
[3118]
FIG. 401 is a model diagram in which pixel values of pixels on one line including a covered background area are developed in the time direction when the object corresponding to the foreground moves rightward in the figure. In FIG. 401, the motion amount v of the foreground is 4. Since one frame is a short time, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed. In FIG. 401, the image of the object corresponding to the foreground moves so as to be displayed four pixels to the right in the next frame with reference to a certain frame.
[3119]
In FIG. 401, the leftmost pixel to the fourth pixel from the left belong to the foreground area. In FIG. 401, the fifth to seventh pixels from the left belong to the mixed area that is the covered background area. In FIG. 401, the rightmost pixel belongs to the background area.
[3120]
Since the object corresponding to the foreground moves so as to cover the object corresponding to the background with the passage of time, the component included in the pixel value of the pixel belonging to the covered background area has a period corresponding to the shutter time. At this point, the background component is replaced by the foreground component.
[3121]
For example, a pixel value M with a thick line frame in FIG. 401 is represented by Expression (299).
[3122]
M = B02 / v + B02 / v + F07 / v + F06 / v (299)
[3123]
For example, since the fifth pixel from the left includes a background component corresponding to one shutter time / v and a foreground component corresponding to three shutter times / v, the mixture ratio of the fifth pixel from the left α is 4. Since the sixth pixel from the left includes a background component corresponding to two shutter times / v and a foreground component corresponding to two shutter times / v, the mixture ratio α of the sixth pixel from the left is , 1/2. Since the seventh pixel from the left includes a background component corresponding to three shutter times / v and a foreground component corresponding to one shutter time / v, the mixture ratio α of the seventh pixel from the left is 、 3.
[3124]
Since it can be assumed that the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so as to be displayed four pixels to the right in the next frame, for example, the fourth pixel from the left in FIG. The first foreground component F07 / v of the shutter time / v from the shutter opening is the foreground component of the fifth pixel from the left in FIG. 401 corresponding to the second shutter time / v from the shutter opening. be equivalent to. Similarly, the foreground component F07 / v is the foreground component of the sixth pixel from the left in FIG. 401 corresponding to the third shutter time / v from when the shutter has opened, and the seventh pixel from the left in FIG. , And the foreground component corresponding to the fourth shutter time / v from when the shutter has opened.
[3125]
Since it can be assumed that the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so as to be displayed four pixels to the right in the next frame, for example, the third pixel from the left in FIG. The foreground component F06 / v of the first shutter time / v from when the shutter has opened is the foreground component of the fourth pixel from the left in FIG. 401 corresponding to the second shutter time / v from when the shutter has opened. equal. Similarly, the foreground component F06 / v is the foreground component of the fifth pixel from the left in FIG. 401 corresponding to the third shutter time / v from when the shutter has opened, and the sixth pixel from the left in FIG. , And the foreground component corresponding to the fourth shutter time / v from when the shutter has opened.
[3126]
Since it can be assumed that the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so as to be displayed four pixels to the right in the next frame, for example, the second pixel from the left in FIG. The foreground component F05 / v of the first shutter time / v from when the shutter has opened is the foreground component of the third pixel from the left in FIG. 401 corresponding to the second shutter time / v from when the shutter has opened. equal. Similarly, the foreground component F05 / v is the foreground component of the fourth pixel from the left in FIG. 401 corresponding to the third shutter time / v from when the shutter has opened, and the fifth pixel from the left in FIG. , And the foreground component corresponding to the fourth shutter time / v from when the shutter has opened.
[3127]
Since it can be assumed that the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so as to be displayed four pixels to the right in the next frame, for example, the shutter of the leftmost pixel in FIG. Is open, the foreground component F04 / v of the first shutter time / v is equal to the foreground component of the second pixel from the left in FIG. 401 corresponding to the second shutter time / v from when the shutter has opened. Similarly, the foreground component F04 / v is the foreground component of the third pixel from the left in FIG. 401 corresponding to the third shutter time / v from when the shutter has opened, and the fourth pixel from the left in FIG. , And the foreground component corresponding to the fourth shutter time / v from when the shutter has opened.
[3128]
The state of the foreground area corresponding to such a moving object is motion blur. Further, the foreground area corresponding to the moving object includes the motion blur as described above, and thus can be said to be a distortion area.
[3129]
FIG. 402 is a model diagram in which pixel values of pixels on one line including the uncovered background area are developed in the time direction when the foreground moves toward the right side in the figure. In FIG. 402, the motion amount v of the foreground is 4. Since one frame is a short time, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed. In FIG. 402, the image of the object corresponding to the foreground moves to the right by four pixels in the next frame with respect to a certain frame.
[3130]
In FIG. 402, the leftmost pixel to the fourth pixel from the left belong to the background area. In FIG. 402, the fifth to seventh pixels from the left belong to the mixed area that is the uncovered background. In FIG. 402, the rightmost pixel belongs to the foreground area.
[3131]
Since the object corresponding to the foreground, which covered the object corresponding to the background, has been moved so as to be removed from the front of the object corresponding to the background over time, it is included in the pixel values of the pixels belonging to the uncovered background area. At some point during the period corresponding to the shutter time, the foreground component changes from the foreground component to the background component.
[3132]
For example, a pixel value M ′ with a thick line frame in FIG. 402 is represented by Expression (300).
[3133]
M '= F02 / v + F01 / v + B26 / v + B26 / v (300)
[3134]
For example, since the fifth pixel from the left includes a background component corresponding to three shutter times / v and a foreground component corresponding to one shutter time / v, the mixture ratio of the fifth pixel from the left α is /. Since the sixth pixel from the left includes a background component corresponding to two shutter times / v and a foreground component corresponding to two shutter times / v, the mixture ratio α of the sixth pixel from the left is , 1/2. Since the seventh pixel from the left includes a background component corresponding to one shutter time / v and a foreground component corresponding to three shutter times / v, the mixture ratio α of the seventh pixel from the left is , 1/4.
[3135]
When the expressions (299) and (300) are generalized, the pixel value M is represented by the expression (301).
[3136]
[Equation 232]
Here, α is a mixture ratio. B is the pixel value of the background, and Fi / v is the foreground component.
[3137]
Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the amount of movement v is 4, for example, the fifth pixel from the left in FIG. The foreground component F01 / v of the shutter time / v is equal to the foreground component of the sixth pixel from the left in FIG. 402 corresponding to the second shutter time / v from when the shutter has opened. Similarly, F01 / v is the foreground component of the seventh pixel from the left in FIG. 402 corresponding to the third shutter time / v from when the shutter has opened, and the eighth pixel from the left in FIG. 402. , And the foreground component corresponding to the fourth shutter time / v from when the shutter is opened.
[3138]
Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the number of virtual divisions is 4, for example, the sixth pixel from the left in FIG. The foreground component F02 / v of the shutter time / v is equal to the foreground component of the seventh pixel from the left in FIG. 402 corresponding to the second shutter time / v from when the shutter has opened. Similarly, the foreground component F02 / v is equal to the foreground component of the eighth pixel from the left in FIG. 402 corresponding to the third shutter time / v from when the shutter has opened.
[3139]
Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the movement amount v is 4, for example, the first pixel from the left in FIG. The foreground component F03 / v of the shutter time / v is equal to the foreground component of the eighth pixel from the left in FIG. 402 corresponding to the second shutter time / v from when the shutter has opened.
[3140]
In the description of FIGS. 400 to 402, the virtual division number has been described as four, but the virtual division number corresponds to the motion amount v. The movement amount v generally corresponds to the moving speed of the object corresponding to the foreground. For example, when the object corresponding to the foreground is moving so as to be displayed four pixels to the right in the next frame with respect to a certain frame, the motion amount v is set to 4. The virtual division number is set to 4 corresponding to the movement amount v. Similarly, for example, when the object corresponding to the foreground is moving so as to be displayed 6 pixels to the left in the next frame with respect to a certain frame, the motion amount v is set to 6, and the number of virtual divisions is , 6.
[3141]
FIGS. 403 and 404 illustrate the above-described mixed region including the foreground region, the background region, the covered background region, or the uncovered background region, and the foreground component and the background component corresponding to the divided shutter time. Shows the relationship.
[3142]
FIG. 403 illustrates an example in which pixels in a foreground area, a background area, and a mixed area are extracted from an image including a foreground corresponding to an object moving in front of a stationary background. In the example shown in FIG. 403, the object corresponding to the foreground is moving horizontally with respect to the screen.
[3143]
Frame # n + 1 is a frame next to frame #n, and frame # n + 2 is a frame next to frame # n + 1.
[3144]
The pixels of the foreground area, the background area, and the mixed area extracted from any of the frames #n to # n + 2 are extracted, and the motion amount v is set to 4, and the pixel values of the extracted pixels are developed in the time direction. The model is shown in FIG.
[3145]
The pixel value of the foreground area is composed of four different foreground components corresponding to the shutter time / v period because the object corresponding to the foreground moves. For example, the leftmost pixel among the pixels in the foreground area illustrated in FIG. 404 includes F01 / v, F02 / v, F03 / v, and F04 / v. That is, pixels in the foreground area include motion blur.
[3146]
Since the object corresponding to the background is stationary, the light corresponding to the background input to the
[3147]
The pixel value of a pixel belonging to a mixed area composed of a covered background area or an uncovered background area is composed of a foreground component and a background component.
[3148]
Next, when the image corresponding to the object is moving, the pixel values of the pixels that are adjacently arranged in one row in a plurality of frames and are located at the same position on the frame are developed in the time direction. The model will be described. For example, when the image corresponding to the object is moving horizontally with respect to the screen, the pixels arranged on one line of the screen can be selected as the pixels arranged adjacently in one row.
[3149]
FIG. 405 shows pixel values of pixels that are adjacently arranged in one row in three frames of an image of an object corresponding to a stationary background and that are located at the same position on the frame. It is the model figure developed in the direction. The frame #n is a frame next to the frame # n-1, and the frame # n + 1 is a frame next to the frame #n. Other frames are similarly referred to.
[3150]
The pixel values B01 to B12 illustrated in FIG. 405 are the pixel values of the pixels corresponding to the stationary background object. Since the object corresponding to the background is stationary, the pixel values of the corresponding pixels do not change in frames # n−1 to n + 1. For example, the pixel in frame #n and the pixel in frame # n + 1 corresponding to the position of the pixel having the pixel value of B05 in frame # n-1 each have a pixel value of B05.
[3151]
FIG. 406 shows three adjacent pixels of three frames of an image obtained by capturing an object corresponding to a foreground moving to the right in the figure together with an object corresponding to a stationary background, FIG. 4 is a model diagram in which pixel values of pixels at the same position on a frame are developed in the time direction. The model shown in FIG. 406 includes a covered background area.
[3152]
In FIG. 406, it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the foreground image moves so as to be displayed four pixels to the right in the next frame. , 4 and the number of virtual divisions is 4.
[3153]
For example, the foreground component of the leftmost pixel of frame # n-1 in FIG. 406 at the first shutter time / v from when the shutter has opened is F12 / v, and the second pixel from the left in FIG. The foreground component of the second shutter time / v after the shutter is opened also becomes F12 / v. The foreground component of the third pixel from the left in FIG. 406 at the third shutter time / v from when the shutter has opened, and the fourth shutter time of the fourth pixel from the left in FIG. 406 from the shutter opening. The foreground component of / v is F12 / v.
[3154]
The foreground component of the leftmost pixel in frame # n-1 in FIG. 406 at the second shutter time / v from when the shutter has opened is F11 / v, and the foreground component of the second pixel from the left in FIG. The foreground component at the third shutter time / v after the shutter is opened also becomes F11 / v. The foreground component of the third pixel from the left in FIG. 406 at the fourth shutter time / v from when the shutter has opened is F11 / v.
[3155]
The foreground component of the leftmost pixel of frame # n−1 in FIG. 406 at the third shutter time / v from when the shutter has opened is F10 / v, and the pixel of the second pixel from the left in FIG. The foreground component of the fourth shutter time / v after the shutter is opened also becomes F10 / v. The foreground component of the leftmost pixel of frame # n-1 in FIG. 406 at the fourth shutter time / v from when the shutter has opened is F09 / v.
[3156]
Since the object corresponding to the background is stationary, the background component of the second pixel from the left of frame # n-1 in FIG. 406 corresponding to the first shutter time / v from when the shutter has opened is B01 / v. Become. The background components of the third pixel from the left of frame # n-1 in FIG. 406 corresponding to the first and second shutter time / v from when the shutter has opened are B02 / v. The background component of the fourth pixel from the left of frame # n−1 in FIG. 406 corresponding to the first to third shutter time / v from when the shutter has opened is B03 / v.
[3157]
In frame # n-1 in FIG. 406, the leftmost pixel belongs to the foreground area, and the second to fourth pixels from the left belong to the mixed area that is the covered background area.
[3158]
The fifth to twelfth pixels from the left of frame # n-1 in FIG. 406 belong to the background area, and their pixel values are B04 to B11, respectively.
[3159]
The first to fifth pixels from the left of frame #n in FIG. 406 belong to the foreground area. The foreground component of the shutter time / v in the foreground area of frame #n is one of F05 / v to F12 / v.
[3160]
It can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the image of the foreground moves so as to be displayed four pixels to the right in the next frame. Therefore, from the left of frame #n in FIG. The foreground component of the fifth pixel at the first shutter time / v from when the shutter is opened is F12 / v, and the sixth pixel from the left from the left in FIG. Is also F12 / v. The foreground component of the seventh pixel from the left in FIG. 406 at the third shutter time / v from when the shutter is opened, and the fourth shutter time of the eighth pixel from the left in FIG. 406 from the shutter opened. The foreground component of / v is F12 / v.
[3161]
The foreground component of the fifth pixel from the left of frame #n in FIG. 406 for the second shutter time / v from when the shutter has opened is F11 / v, and the sixth pixel from the left of FIG. The foreground component at the third shutter time / v after the shutter is opened also becomes F11 / v. The foreground component of the seventh pixel from the left in FIG. 406 at the fourth shutter time / v from when the shutter has opened is F11 / v.
[3162]
The foreground component of the fifth pixel from the left of frame #n in FIG. 406 at the third shutter time / v from when the shutter has opened is F10 / v, and the fifth pixel from the left of FIG. The foreground component at the fourth shutter time / v after the shutter is opened also becomes F10 / v. The foreground component of the fifth pixel from the left of frame #n in FIG. 406 at the fourth shutter time / v from when the shutter has opened is F09 / v.
[3163]
Since the object corresponding to the background is stationary, the background component of the sixth pixel from the left of frame #n in FIG. 406 corresponding to the first shutter time / v from when the shutter has opened is B05 / v. The background components of the seventh pixel from the left of frame #n in FIG. 406 corresponding to the first and second shutter times / v from when the shutter has opened are B06 / v. The background component of the eighth pixel from the left of frame #n in FIG. 406 corresponding to the first to third shutter time / v from when the shutter has opened is B07 / v.
[3164]
In frame #n in FIG. 406, the sixth through eighth pixels from the left belong to a mixed area that is a covered background area.
[3165]
The ninth to twelfth pixels from the left of frame #n in FIG. 406 belong to the background area, and have pixel values of B08 to B11, respectively.
[3166]
The first to ninth pixels from the left of frame # n + 1 in FIG. 406 belong to the foreground area. The foreground component of the shutter time / v in the foreground area of frame # n + 1 is one of F01 / v to F12 / v.
[3167]
Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the image of the foreground moves so as to be displayed four pixels to the right in the next frame, the object from the left of frame # n + 1 in FIG. The foreground component of the ninth pixel at the first shutter time / v from when the shutter is opened is F12 / v, and the second shutter time / v at the tenth pixel from the left in FIG. 406 from when the shutter is opened. Is also F12 / v. The foreground component of the eleventh pixel from the left in FIG. 406 at the third shutter time / v from when the shutter has opened, and the fourth shutter time of the twelfth pixel from the left in FIG. 406 from the shutter opening. The foreground component of / v is F12 / v.
[3168]
The foreground component of the ninth pixel from the left of frame # n + 1 in FIG. 406 during the second shutter time / v from when the shutter has opened is F11 / v, and the tenth pixel from the left in FIG. 406 is F11 / v. The foreground component of the third shutter time / v after the shutter is opened also becomes F11 / v. The foreground component of the eleventh pixel from the left in FIG. 406 for the fourth shutter time / v from when the shutter has opened is F11 / v.
[3169]
The foreground component of the ninth pixel from the left of frame # n + 1 in FIG. 406 that is the third shutter time / v from when the shutter has opened is F10 / v, and that of the tenth pixel from the left in FIG. 406 The foreground component of the fourth shutter time / v after the shutter is opened also becomes F10 / v. The foreground component of the ninth pixel from the left of frame # n + 1 in FIG. 406 at the fourth shutter time / v from when the shutter has opened is F09 / v.
[3170]
Since the object corresponding to the background is stationary, the background component of the tenth pixel from the left of frame # n + 1 in FIG. 406 corresponding to the first shutter time / v from when the shutter has opened is B09 / v. The background components of the eleventh pixel from the left of frame # n + 1 in FIG. 406 at the first and second shutter time / v from when the shutter has opened are B10 / v. The background components of the twelfth pixel from the left of frame # n + 1 in FIG. 406 corresponding to the first to third shutter time / v from when the shutter has opened are B11 / v.
[3171]
In frame # n + 1 in FIG. 406, the tenth to twelfth pixels from the left correspond to the mixed area that is the covered background area.
[3172]
FIG. 407 is a model diagram of an image obtained by extracting a foreground component from the pixel values shown in FIG. 406.
[3173]
FIG. 408 illustrates three pixels of an image obtained by capturing a foreground corresponding to an object that moves to the right in the drawing together with a stationary background, in which pixels are arranged in a row and adjacent to each other. FIG. 6 is a model diagram in which pixel values of a pixel at a position are developed in the time direction. In FIG. 408, an uncovered background area is included.
[3174]
In FIG. 408, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed. Since the object corresponding to the foreground is moving so as to be displayed on the right side by four pixels in the next frame, the motion amount v is 4.
[3175]
For example, the first foreground component of the leftmost pixel of frame # n-1 in FIG. 408 at the shutter time / v after the shutter is opened is F13 / v, and the second pixel from the left in FIG. 408 The foreground component of the second shutter time / v after the shutter is opened also becomes F13 / v. The foreground component of the third pixel from the left in FIG. 408 for the third shutter time / v from when the shutter has opened, and the fourth shutter time for the fourth pixel from the left in FIG. 408 since the shutter has opened. The foreground component of / v is F13 / v.
[3176]
The foreground component of the second pixel from the left of frame # n-1 in FIG. 408 for the first shutter time / v from when the shutter has opened is F14 / v, and the component of the third pixel from the left in FIG. 408 is F14 / v. The foreground component of the second shutter time / v after the shutter is opened also becomes F14 / v. The foreground component of the third pixel from the left in FIG. 408 for the first shutter time / v from when the shutter has opened is F15 / v.
[3177]
Since the object corresponding to the background is stationary, the background component of the leftmost pixel of frame # n−1 in FIG. 408, which is the second to fourth shutter time / v from when the shutter has opened is B25. / V. The background components of the second pixel from the left of frame # n-1 in Fig. 408 corresponding to the third and fourth portions of the shutter time / v from when the shutter has opened are B26 / v. The background component of the third pixel from the left of frame # n-1 in FIG. 408 corresponding to the fourth shutter time / v from when the shutter has opened is B27 / v.
[3178]
In frame # n−1 in FIG. 408, the leftmost to third pixels belong to the mixed area that is the uncovered background area.
[3179]
The fourth through twelfth pixels from the left of frame # n-1 in FIG. 408 belong to the foreground area. The foreground component of the frame is one of F13 / v to F24 / v.
[3180]
The leftmost pixel to the fourth pixel from the left of frame #n in FIG. 408 belong to the background area, and have pixel values of B25 to B28, respectively.
[3181]
It can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed. Since the foreground image moves so as to be displayed four pixels to the right in the next frame, the object from the left of frame #n in FIG. The foreground component of the fifth pixel at the first shutter time / v from when the shutter has opened is F13 / v, and the sixth pixel from the left from the left in FIG. 408 has the second shutter time / v after the shutter has opened. Is also F13 / v. The foreground component of the seventh pixel from the left in FIG. 408 at the third shutter time / v from when the shutter is opened, and the fourth shutter time of the eighth pixel from the left in FIG. 408 from the shutter opened. The foreground component of / v is F13 / v.
[3182]
The foreground component of the sixth pixel from the left of frame #n in FIG. 408 for the first shutter time / v from when the shutter has opened is F14 / v, and the shutter of the seventh pixel from the left in FIG. Is opened, the foreground component of the second shutter time / v is also F14 / v. The foreground component of the eighth pixel from the left in FIG. 408 for the first shutter time / v from when the shutter has opened is F15 / v.
[3183]
Since the object corresponding to the background is stationary, the background component of the fifth pixel from the left of frame #n in FIG. 408 corresponding to the second to fourth shutter times / v from when the shutter has opened is B29 / v. The background components of the sixth pixel from the left of frame #n in FIG. 408 corresponding to the third and fourth shutter times / v from when the shutter has opened are B30 / v. The background component of the seventh pixel from the left of frame #n in FIG. 408 for the fourth shutter time / v from when the shutter has opened is B31 / v.
[3184]
In frame #n in FIG. 408, the fifth through seventh pixels from the left belong to the mixed area that is the uncovered background area.
[3185]
The eighth to twelfth pixels from the left of frame #n in FIG. 408 belong to the foreground area. The value corresponding to the shutter time / v period in the foreground area of frame #n is one of F13 / v to F20 / v.
[3186]
The leftmost pixel to the eighth pixel from the left of frame # n + 1 in FIG. 408 belong to the background area, and have pixel values of B25 to B32, respectively.
[3187]
It can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed. Since the foreground image moves so as to be displayed four pixels to the right in the next frame, the object from the left of frame # n + 1 in FIG. The foreground component of the ninth pixel at the first shutter time / v from when the shutter has opened is F13 / v, and the tenth pixel from the left in FIG. 408 has the second shutter time / v after the shutter has opened. Is also F13 / v. The foreground component of the eleventh pixel from the left in FIG. 408 at the third shutter time / v from when the shutter has opened, and the twelfth pixel from the left in FIG. 408 having the fourth shutter time since the shutter has opened. The foreground component of / v is F13 / v.
[3188]
The foreground component of the tenth pixel from the left of frame # n + 1 in FIG. 408 for the first shutter time / v from when the shutter has opened is F14 / v, and the shutter of the eleventh pixel from the left in FIG. Is opened, the foreground component of the second shutter time / v is also F14 / v. The foreground component of the twelfth pixel from the left in FIG. 408 for the first shutter time / v from when the shutter has opened is F15 / v.
[3189]
Since the object corresponding to the background is stationary, the background component of the ninth pixel from the left of frame # n + 1 in FIG. 408 corresponding to the second to fourth shutter time / v from when the shutter has opened is B33. / V. The background components of the tenth pixel from the left of frame # n + 1 in FIG. 408 corresponding to the third and fourth shutter times / v from when the shutter has opened are B34 / v. The background component of the eleventh pixel from the left of frame # n + 1 in FIG. 408 corresponding to the fourth shutter time / v from when the shutter has opened is B35 / v.
[3190]
In frame # n + 1 in FIG. 408, the ninth to eleventh pixels from the left belong to a mixed area that is an uncovered background area.
[3191]
The twelfth pixel from the left of frame # n + 1 in FIG. 408 belongs to the foreground area. The foreground component of the shutter time / v in the foreground area of frame # n + 1 is one of F13 / v to F16 / v.
[3192]
FIG. 409 is a model diagram of an image obtained by extracting a foreground component from the pixel values shown in FIG. 408.
[3193]
The input image and the motion blur have been described. In the above description, the change of the component in the pixel has been described by the number of virtual divisions. By making the number of virtual divisions infinite, each component becomes, for example, as shown in FIG. Level w on the right1Or w5The configuration is similar to that of the band-shaped region indicated by.
[3194]
That is, setting the level as a discontinuous function for each area along the direction of continuity on the XT plane (the same applies to the XY plane) means that the change in the component within the shutter time is independent of the number of divisions. Can be said to be set as a linear region.
[3195]
For this reason, by estimating the real world using an approximation function consisting of a discontinuous function for each region along the direction of continuity, it is possible to estimate the mechanism causing the above-described motion blur.
[3196]
Therefore, by utilizing this characteristic, it is possible to substantially eliminate motion blur by generating pixels within one shutter time (pixels equal to or less than one pixel in the frame direction).
[3197]
FIG. 410 shows a process result when motion blur is removed by the class classification adaptive process, and a motion blur using a real-world approximation function obtained by setting a discontinuous function for each region along the direction of stationarity. Is a comparison of the processing results in the case of removing. In FIG. 410, a dotted line indicates a change in the pixel value of an input image (an image having motion blur), and a solid line indicates a processing result when the motion blur is removed by the classification adaptive processing. The dashed-dotted line indicates the processing result when motion blur is removed using an approximation function of the real world obtained by setting a discontinuous function for each region along the direction of stationarity. I have. Further, the horizontal axis indicates the coordinates of the input image in the X direction, and the vertical axis indicates the pixel values.
[3198]
The processing result when the motion blur is removed using the real world approximation function including the discontinuous function for each area is X = 379, 376 compared with the processing result when the motion blur is removed by the class classification adaptive processing. It can be seen that the pixel value of the edge portion changes greatly around the vicinity, and the motion blur is removed, and the image has a clear image contrast.
[3199]
Further, as shown in FIG. 411, an image when a motion blur occurs when the toy airplane-shaped object moves in the horizontal direction is set as a discontinuous function for each region along the direction of stationarity. (The image from which the motion blur has been removed using the real
[3200]
That is, FIG. 412A is the image itself in which the motion blur of the black frame portion in FIG. 411 has occurred (the image before the process of blur removal), and FIG. 412B is the image in which the motion blur of FIG. FIG. 412C is an image in which the subject of the input image is captured in a stationary state, and FIG. 412D is an image in which the motion blur is removed using a real world approximation function including a set discontinuous function. 3 is an image of a processing result obtained by removing motion blur by the method of FIG.
[3201]
An image (FIG. 412B) from which motion blur has been removed using an approximation function in the real world consisting of a discontinuous function set for each region is an image of a processing result from which motion blur has been removed by another method (FIG. 412D). Image), the portion adjacent to “C” and “A” in the figure is a clearer image, and the area where the character is present is displayed more clearly. I understand. Thus, it can be understood that the details are clearly displayed by the process of removing the motion blur using the approximate function of the real world including the discontinuous function set for each region.
[3202]
Furthermore, as shown in FIG. 413, an image when a motion blur occurs when the toy airplane-like object moves in an oblique direction (upward to the right) is obtained for each region along the direction of stationarity. Processing results when motion blur is removed using a real-world approximation function by setting a discontinuous function (the motion blur generated using the real-
[3203]
That is, FIG. 414A is an image before the process of blur removal in which the motion blur occurs in the black frame portion in FIG. 413, and FIG. 414B is an image in which the motion blur in FIG. 414A is set for each area. FIG. 414C is an image in which the subject of the input image is captured in a stationary state, and FIG. 414D is an image obtained by removing the motion blur using a real-world approximation function composed of a continuous function. It is an image of a processing result after removing blur. The image is the one near the position marked with a bold line and a rectangular mark in FIG. 413.
[3204]
As described with reference to FIG. 412, the image from which the motion blur has been removed using the approximation function of the real world including the discontinuous function set for each region is the processing result obtained by removing the motion blur by another method. Compared to the image, the portion adjacent to “C” and “A” in the figure is a clearer image, and the area where the character is present is more clearly displayed. Understand. Thus, it can be understood that the details are clearly displayed by the process of removing the motion blur using the approximate function of the real world including the discontinuous function set for each region.
[3205]
Furthermore, when motion blur is removed using an approximation function of the real world consisting of a discontinuous function set for each region, the original image on the upper side in the oblique direction in which motion blur occurs in the upward-sloping direction shown in FIG. 415A Is input, an image as shown in FIG. 415B is output. That is, in the case of an image in which motion blur occurs in the vertical stripes in the center of the original image, the motion stripes are removed by using a real-world approximation function consisting of a discontinuous function set for each region, thereby removing the vertical stripes. The image becomes clear.
[3206]
That is, as shown in FIGS. 412A to 412D and FIGS. 415A and 415B, the real-world estimating unit in FIG. 377 and the
[3207]
According to the above, a real-world optical signal is projected onto a plurality of pixels each having a spatio-temporal integration effect, and the continuity of image data in which part of the continuity of the real-world optical signal is missing is detected. According to the continuity of the image data detected by the continuity detecting means, a pixel value of each pixel corresponding to a position in at least one dimensional direction in the spatiotemporal direction of the image data is obtained by integration in at least one dimensional direction. By approximating the image data with a discontinuous function assuming that the pixel value is a pixel value, a function corresponding to the optical signal in the real world is estimated. Can be generated, and in each case, a clearer image can be generated.
[3208]
Note that the
[3209]
As shown in FIG. 2, the recording medium on which the program for performing the signal processing according to the present invention is recorded is a magnetic disk 51 (on which the program is recorded, which is distributed in order to provide the program to the user separately from the computer). An optical disk 52 (including a flexible disk), an optical disk 52 (including a CD-ROM (Compatible Disk-Only Memory), a DVD (Digital Versatile Disk)), a magneto-optical disk 53 (including an MD (Mini-Disk) (trademark)), or It is not only configured by a package medium including a
[3210]
The program for executing the above-described series of processes is installed on a computer via a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via an interface such as a router or a modem as necessary. May be performed.
[3211]
In this specification, a step of describing a program recorded on a recording medium may be performed in chronological order according to the described order, or may be performed in parallel or not necessarily in chronological order. This also includes processes executed individually.
[3212]
【The invention's effect】
As described above, according to the present invention, an accurate and high-accuracy processing result can be obtained.
[3213]
Further, according to the present invention, it is possible to obtain a more accurate and more accurate processing result for a real world event.
[Brief description of the drawings]
FIG. 1 is a diagram showing the principle of the present invention.
FIG. 2 is a block diagram illustrating an example of a configuration of a
FIG. 3 is a block diagram showing a
FIG. 4 is a diagram illustrating the principle of processing of a conventional
FIG. 5 is a diagram for explaining the principle of processing of the
FIG. 6 is a diagram for more specifically explaining the principle of the present invention.
FIG. 7 is a diagram for more specifically explaining the principle of the present invention.
FIG. 8 is a diagram illustrating an example of an arrangement of pixels on an image sensor.
FIG. 9 is a diagram illustrating the operation of a detection element that is a CCD.
FIG. 10 is a diagram illustrating a relationship between light incident on detection elements corresponding to pixels D to F and pixel values.
FIG. 11 is a diagram illustrating a relationship between a lapse of time, light incident on a detection element corresponding to one pixel, and a pixel value.
FIG. 12 is a diagram illustrating an example of an image of a linear object in the
FIG. 13 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
FIG. 14 is a schematic diagram of image data.
FIG. 15 is a diagram showing an example of an image of the
FIG. 16 is a diagram illustrating an example of pixel values of image data obtained by actual imaging.
FIG. 17 is a schematic diagram of image data.
FIG. 18 is a diagram illustrating the principle of the present invention.
FIG. 19 is a diagram illustrating the principle of the present invention.
FIG. 20 is a diagram illustrating an example of generation of high-
FIG. 21 is a diagram illustrating approximation by a
FIG. 22 is a diagram illustrating estimation of a
FIG. 23 is a diagram illustrating a relationship between a signal in the
FIG. 24 is a diagram showing an example of
FIG. 25 is a diagram illustrating signals for two objects in the
FIG. 26 is a diagram illustrating stationarity represented by Expression (18), Expression (19), and Expression (22).
FIG. 27 is a diagram showing an example of
FIG. 28 is a diagram illustrating an area where a pixel value as
FIG. 29 is a diagram illustrating approximation of the position of a pixel in the spatiotemporal direction.
FIG. 30 is a diagram for explaining integration of signals of the
FIG. 31 is a diagram illustrating an integration area when generating high-
FIG. 32 is a diagram illustrating an integration area when generating high-
FIG. 33 is a diagram illustrating an integration area when generating high-
FIG. 34 is a diagram illustrating an integration area when generating high-
FIG. 35 is a diagram showing an original image of an input image.
FIG. 36 is a diagram illustrating an example of an input image.
FIG. 37 is a diagram showing an image obtained by applying the conventional classification adaptive processing.
FIG. 38 is a diagram showing a result of detecting a thin line area.
39 is a diagram illustrating an example of an output image output from the
40 is a flowchart illustrating signal processing by the
FIG. 41 is a block diagram showing a configuration of a data
FIG. 42 is a diagram showing an image of the
FIG. 43 is a diagram illustrating approximation of a background by a plane.
FIG. 44 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
FIG. 45 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
FIG. 46 is a diagram showing a cross-sectional shape of image data on which a thin line image is projected.
FIG. 47 is a diagram illustrating a process of detecting a vertex and detecting a monotone increase / decrease region.
FIG. 48 is a diagram illustrating a process of detecting a thin line region in which the pixel value of a vertex exceeds a threshold value and the pixel value of an adjacent pixel is equal to or less than the threshold value.
FIG. 49 is a diagram illustrating pixel values of pixels arranged in a direction indicated by a dotted line AA ′ in FIG. 48.
FIG. 50 is a diagram illustrating a process of detecting continuity of a monotone increase / decrease region.
FIG. 51 is a diagram illustrating an example of an image in which a stationary component is extracted by approximation on a plane.
FIG. 52 is a diagram illustrating a result of detecting a monotonously decreasing region.
FIG. 53 is a diagram showing an area where continuity is detected.
FIG. 54 is a diagram showing pixel values in an area where continuity is detected.
FIG. 55 is a diagram illustrating an example of another process of detecting a region where a thin line image is projected.
FIG. 56 is a flowchart illustrating a process of stationarity detection.
FIG. 57 is a diagram illustrating a process of detecting continuity of data in the time direction.
FIG. 58 is a block diagram illustrating a configuration of a non-stationary
FIG. 59 is a diagram illustrating the number of rejections.
FIG. 60 is a diagram illustrating an example of an input image.
FIG. 61 is a diagram illustrating an image in which a standard error obtained as a result of approximation on a plane without rejection is used as a pixel value.
FIG. 62 is a diagram showing an image in which a standard error obtained as a result of rejection and approximation on a plane is used as a pixel value.
FIG. 63 is a diagram showing an image in which the number of rejections is set as a pixel value.
FIG. 64 is a diagram showing an image in which the inclination of the plane in the spatial direction X is a pixel value.
FIG. 65 is a diagram showing an image in which the inclination in the spatial direction Y of the plane is a pixel value.
FIG. 66 is a diagram showing an image composed of approximate values indicated by a plane.
FIG. 67 is a diagram illustrating an image including a difference between an approximate value indicated by a plane and a pixel value.
FIG. 68 is a flowchart illustrating a process of extracting an unsteady component.
FIG. 69 is a flowchart illustrating a process of extracting a steady component.
FIG. 70 is a flowchart illustrating another process of extracting a steady component.
FIG. 71 is a flowchart illustrating still another process of extracting a steady component.
FIG. 72 is a block diagram showing another configuration of the data
FIG. 73 is a diagram illustrating activities in an input image having data continuity.
FIG. 74 is a diagram illustrating a block for detecting an activity.
FIG. 75 is a diagram illustrating an angle of data continuity with respect to an activity.
FIG. 76 is a block diagram showing a more detailed configuration of the
FIG. 77 is a diagram illustrating a set of pixels.
FIG. 78 is a diagram illustrating the relationship between the position of a set of pixels and the angle of data continuity.
FIG. 79 is a flowchart illustrating a process of detecting data continuity.
FIG. 80 is a diagram illustrating a set of pixels extracted when detecting the continuity angle of data in the time direction and the spatial direction.
FIG. 81 is a block diagram showing another more detailed configuration of the data
FIG. 82 is a diagram illustrating a set of pixels including a number of pixels corresponding to a range of a set angle of a straight line.
FIG. 83 is a diagram illustrating the range of the angle of a set straight line.
FIG. 84 is a diagram illustrating the range of the angle of the set straight line, the number of pixel sets, and the number of pixels for each pixel set.
FIG. 85 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
FIG. 86 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
FIG. 87 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
FIG. 88 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
FIG. 89 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
FIG. 90 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
FIG. 91 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
FIG. 92 is a diagram illustrating the number of pixel sets and the number of pixels for each pixel set.
FIG. 93 is a flowchart for describing processing for detecting data continuity;
FIG. 94 is a block diagram showing still another configuration of the data
FIG. 95 is a block diagram showing a more detailed configuration of the
FIG. 96 is a diagram illustrating an example of a block.
FIG. 97 is a diagram illustrating a process of calculating an absolute value of a difference between pixel values of a target block and a reference block.
FIG. 98 is a diagram illustrating a distance in the spatial direction X between a position of a pixel around a target pixel and a straight line having an angle θ.
FIG. 99 is a diagram showing a relationship between a shift amount γ and an angle θ.
FIG. 100 is a diagram illustrating a distance in the spatial direction X between a position of a pixel around a target pixel and a straight line passing through the target pixel and having an angle θ with respect to a shift amount γ.
101 is a diagram illustrating a reference block that passes through a pixel of interest and has a minimum distance from a straight line having an angle θ with respect to an axis in a spatial direction X. FIG.
FIG. 102 is a diagram illustrating a process of reducing the range of the continuity angle of detected data to 1 /.
FIG. 103 is a flowchart illustrating a process of detecting data continuity.
FIG. 104 is a diagram showing blocks extracted when detecting the continuity angle of inter-directional and spatial data.
FIG. 105 is a block diagram illustrating a configuration of a data
FIG. 106 is a block diagram illustrating a configuration of a data
FIG. 107 is a block diagram showing still another configuration of the data
FIG. 108 is a diagram illustrating an angle of data continuity with respect to a reference axis in an input image.
FIG. 109 is a diagram illustrating an angle of continuity of data with respect to a reference axis in an input image.
FIG. 110 is a diagram illustrating an angle of continuity of data with respect to a reference axis in an input image.
FIG. 111 is a diagram illustrating a relationship between a change in a pixel value and a regression line with respect to a spatial position of a pixel in an input image.
112 is a diagram illustrating an angle between a regression line A and, for example, an axis indicating a spatial direction X which is a reference axis. FIG.
FIG. 113 is a diagram illustrating an example of a region.
114 is a flowchart for describing processing for detecting data continuity by the data
115 is a block diagram showing still another configuration of the data
FIG. 116 is a diagram illustrating a relationship between a change in a pixel value and a regression line with respect to a position of a pixel in a spatial direction in an input image.
FIG. 117 is a diagram illustrating a relationship between a standard deviation and an area having data continuity.
FIG. 118 is a diagram illustrating an example of a region.
119 is a flowchart illustrating a process of detecting data continuity performed by the data
120 is a flowchart illustrating another process of detecting data continuity by the data
FIG. 121 is a block diagram illustrating a configuration of a data continuity detection unit that detects an angle of a thin line or a binary edge according to the present invention as data continuity information.
FIG. 122 is a diagram illustrating a method for detecting data continuity information.
FIG. 123 is a diagram illustrating a method for detecting data continuity information.
FIG. 124 is a diagram showing a more detailed configuration of a data continuity detector of FIG. 121.
Fig. 125 is a diagram for describing horizontal / vertical determination processing.
Fig. 126 is a diagram for describing horizontal / vertical determination processing.
FIG. 127 is a diagram illustrating a relationship between a thin line in the real world and a thin line captured by a sensor.
FIG. 128 is a diagram illustrating a relationship between a thin line of a real world image and a background.
FIG. 129 is a diagram illustrating a relationship between a thin line of an image captured by a sensor and a background.
FIG. 130 is a diagram illustrating an example of a relationship between a thin line of an image captured by a sensor and a background.
FIG. 131 is a diagram illustrating a relationship between a thin line of a real world image and a background.
FIG. 132 is a diagram illustrating a relationship between a thin line of an image captured by a sensor and a background.
FIG. 133 is a diagram illustrating an example of a relationship between a thin line of an image captured by a sensor and a background.
FIG. 134 is a diagram illustrating a model for determining the angle of a thin line.
FIG. 135 is a diagram showing a model for obtaining the angle of a thin line.
FIG. 136 is a diagram for describing the maximum value and the minimum value of the pixel value of the dynamic range block corresponding to the target pixel.
Fig. 137 is a diagram for describing a method of obtaining an angle of a thin line.
FIG. 138 is a view for explaining how to obtain the angle of a thin line.
FIG. 139 is a diagram illustrating an extraction block and a dynamic range block.
FIG. 140 is a diagram for explaining a solution of the least squares method.
FIG. 141 is a diagram for explaining a solution of the least squares method.
FIG. 142 is a diagram illustrating a binary edge.
FIG. 143 is a diagram illustrating binary edges of an image captured by a sensor.
FIG. 144 is a diagram illustrating an example of a binary edge of an image captured by a sensor.
FIG. 145 is a diagram illustrating binary edges of an image captured by a sensor.
FIG. 146 is a diagram illustrating a model for determining the angle of a binary edge.
FIG. 147 is a view for explaining a method of obtaining the angle of a binary edge.
Fig. 148 is a diagram for describing a method for obtaining the angle of a binary edge.
FIG. 149 is a flowchart illustrating a process of detecting the angle of a thin line or a binary edge as data continuity.
FIG. 150 is a flowchart illustrating a data extraction process.
FIG. 151 is a flowchart illustrating a process of adding to a normal equation.
FIG. 152 is a diagram comparing the inclination of a thin line obtained by applying the present invention and the angle of the thin line obtained by using a correlation.
FIG. 153 is a diagram comparing the slope of a binary edge obtained by applying the present invention with the angle of a thin line obtained using correlation.
FIG. 154 is a block diagram illustrating a configuration of a data continuity detection unit that detects a mixture ratio as data continuity information to which the present invention has been applied.
FIG. 155 is a view for explaining how to obtain a mixture ratio.
FIG. 156 is a flowchart illustrating a process of detecting a mixture ratio as data continuity.
FIG. 157 is a flowchart illustrating a process of adding to a normal equation.
FIG. 158 is a diagram illustrating a distribution example of a mixing ratio of fine lines.
FIG. 159 is a diagram illustrating a distribution example of a mixture ratio of binary edges.
FIG. 160 is a diagram illustrating linear approximation of a mixture ratio.
FIG. 161 is a diagram illustrating a method of obtaining the motion of an object as data continuity information.
FIG. 162 is a diagram illustrating a method of obtaining the motion of an object as data continuity information.
FIG. 163 is a diagram illustrating a method of obtaining a mixture ratio due to the movement of an object as data continuity information.
FIG. 164 is a diagram illustrating linear approximation of the mixture ratio when the mixture ratio due to the motion of the object is obtained as the data continuity information.
FIG. 165 is a block diagram illustrating a configuration of a data continuity detection unit that detects a processing region to which the present invention has been applied as data continuity information.
FIG. 166 is a flowchart illustrating a process of detecting continuity by the data continuity detector of FIG. 165;
FIG. 167 is a diagram illustrating an integration range of a process of detecting continuity by the data continuity detection unit in FIG. 165.
FIG. 168 is a diagram illustrating an integration range of processing for detecting continuity by the data continuity detection unit in FIG. 165.
FIG. 169 is a block diagram illustrating another configuration of a data continuity detection unit that detects a processing region to which the present invention has been applied as data continuity information.
170 is a flowchart illustrating a process of detecting continuity by the data continuity detection unit in FIG. 169.
FIG. 171 is a diagram illustrating an integration range of a process of detecting continuity by the data continuity detection unit in FIG. 169.
FIG. 172 is a diagram illustrating an integration range of a process of continuity detection by the data continuity detection unit in FIG. 169.
FIG. 173 is a block diagram illustrating a configuration of another embodiment of a data continuity detection unit.
FIG. 174 is a block diagram illustrating an example of a configuration of a simplified angle detection unit of the data continuity detection unit in FIG. 173.
FIG. 175 is a block diagram illustrating an example of a configuration of a regression angle detection unit of the data continuity detection unit in FIG. 173.
FIG. 176 is a block diagram illustrating an example of the configuration of a gradient angle detection unit of the data continuity detection unit in FIG. 173.
FIG. 177 is a flowchart illustrating a process of detecting data continuity by the data continuity detection unit in FIG. 173;
FIG. 178 is a diagram illustrating a method of detecting an angle corresponding to the angle detected by the simplified angle detection unit.
FIG. 179 is a flowchart illustrating a regression equation angle detection process that is the process of step S904 in the flowchart of FIG. 177;
FIG. 180 is a diagram illustrating pixels in a scope range in which frequency conversion processing is performed.
FIG. 181 is a diagram for describing pixels in a scope range in which frequency conversion processing is performed.
FIG. 182 is a diagram for describing pixels in a scope range in which frequency conversion processing is performed.
FIG. 183 is a diagram illustrating pixels in a scope range in which frequency conversion processing is performed.
FIG. 184 is a diagram illustrating pixels in a scope range in which frequency conversion processing is performed.
FIG. 185 is a block diagram illustrating a configuration of another embodiment of a data continuity detecting unit.
FIG. 186 is a flowchart illustrating a process of detecting data continuity by the data continuity detection unit in FIG. 185;
187 is a block diagram illustrating a configuration of a real
FIG. 188 is a diagram for describing processing for detecting a width of a thin line in a signal of the
FIG. 189 is a diagram for describing processing for detecting a width of a thin line in a signal of the
190 is a diagram for describing processing for estimating the level of a thin-line signal in a signal of the
FIG. 191 is a flowchart illustrating a process of estimating the real world.
FIG. 192 is a block diagram illustrating another configuration of the real
FIG. 193 is a block diagram illustrating a configuration of a
FIG. 194 is a diagram illustrating a process of calculating a distribution ratio.
FIG. 195 is a diagram illustrating a process of calculating a distribution ratio.
FIG. 196 is a diagram illustrating a process of calculating a distribution ratio.
FIG. 197 is a diagram illustrating a process of calculating a regression line indicating a boundary of a monotonous increase / decrease region.
FIG. 198 is a diagram illustrating a process of calculating a regression line indicating a boundary of a monotonous increase / decrease region.
FIG. 199 is a flowchart illustrating a process of estimating the real world.
FIG. 200 is a flowchart illustrating a boundary detection process.
FIG. 201 is a block diagram illustrating a configuration of a real world estimating unit that estimates a differential value in a spatial direction as real world estimation information.
202 is a flowchart illustrating a process of real world estimation by a real world estimation unit in FIG. 201.
FIG. 203 is a diagram illustrating a reference pixel.
FIG. 204 is a diagram illustrating a position for obtaining a differential value in the spatial direction.
FIG. 205 is a diagram illustrating a relationship between a differential value in the spatial direction and a shift amount.
FIG. 206 is a block diagram illustrating a configuration of a real world estimating unit that estimates a tilt in a spatial direction as real world estimation information.
FIG. 207 is a flowchart illustrating a process of real world estimation by a real world estimation unit in FIG. 206.
FIG. 208 is a diagram for describing processing for obtaining a tilt in a spatial direction.
FIG. 209 is a diagram for describing processing for obtaining a spatial inclination.
FIG. 210 is a block diagram illustrating a configuration of a real world estimating unit that estimates a differential value in a frame direction as real world estimation information.
FIG. 211 is a flowchart illustrating a process of real world estimation by a real world estimation unit in FIG. 210.
FIG. 212 is a diagram illustrating a reference pixel.
FIG. 213 is a diagram illustrating a position where a differential value in a frame direction is obtained.
FIG. 214 is a diagram for explaining a relationship between a differential value in the frame direction and a shift amount.
FIG. 215 is a block diagram illustrating a configuration of a real world estimation unit that estimates a tilt in a frame direction as real world estimation information.
FIG. 216 is a flowchart illustrating a process of real world estimation by a real world estimation unit in FIG. 215.
FIG. 217 is a diagram for describing processing for obtaining a tilt in a frame direction.
FIG. 218 is a diagram for describing processing for obtaining a tilt in a frame direction.
FIG. 219 is a diagram illustrating the principle of a function approximation method, which is an example of the embodiment of the real world estimation unit in FIG. 3;
FIG. 220 is a diagram illustrating an integration effect when a sensor is a CCD.
FIG. 221 is a view for explaining a specific example of the integration effect of the sensor of FIG. 220;
FIG. 222 is a diagram illustrating another specific example of the integration effect of the sensor in FIG. 220.
FIG. 223 is a diagram showing the real world region containing fine lines shown in FIG. 221.
FIG. 224 is a diagram for describing the principle of an example of the embodiment of the real world estimation unit in FIG. 3 in comparison with the example in FIG. 219;
FIG. 225 is a diagram showing a thin line containing data area shown in FIG. 221.
FIG. 226 is a graph in which each pixel value included in the thin line containing data area of FIG. 225 is graphed;
FIG. 227 is a graph showing an approximate function obtained by approximating each pixel value included in the thin line containing data area of FIG. 226;
FIG. 228 is a diagram for describing the spatial continuity of the thin-line-containing real world region shown in FIG. 221.
FIG. 229 is a graph in which each pixel value included in the thin line containing data area of FIG. 225 is graphed.
230 is a diagram illustrating a state where each of the input pixel values shown in FIG. 229 is shifted by a predetermined shift amount.
FIG. 231 is a graph showing an approximation function that approximates each pixel value included in the thin line containing data area in FIG. 226 in consideration of the spatial direction continuity.
FIG. 232 is a diagram illustrating a spatial mixing area.
FIG. 233 is a diagram illustrating an approximation function that approximates a real-world signal in a spatial mixing region.
FIG. 234 is a graph showing an approximation function that approximates a real-world signal corresponding to the thin-line-containing data area in FIG. 226 in consideration of both the integration characteristic of the sensor and the stationarity in the spatial direction.
FIG. 235 is a block diagram illustrating a configuration example of a real-world estimator that uses a first-order polynomial approximation method among function approximation methods having the principle illustrated in FIG. 219.
FIG. 236 is a flowchart illustrating a real world estimating process performed by the real world estimating unit having the configuration of FIG. 235;
FIG. 237 is a diagram illustrating a tap range.
FIG. 238 is a diagram for describing real-world signals having spatial direction continuity.
FIG. 239 is a diagram illustrating an integration effect when a sensor is a CCD.
240 is a view for explaining a cross-sectional direction distance. FIG.
FIG. 241 is a block diagram illustrating a configuration example of a real-world estimator that uses a second-order polynomial approximation method among function approximation methods having the principle illustrated in FIG. 219.
FIG. 242 is a flowchart illustrating a real world estimation process performed by the real world estimation unit having the configuration in FIG. 241;
FIG. 243 is a diagram illustrating a tap range.
FIG. 244 is a diagram for describing the direction of continuity in the spatiotemporal direction.
FIG. 245 is a diagram illustrating an integration effect when a sensor is a CCD.
FIG. 246 is a diagram illustrating a real-world signal having stationarity in a spatial direction.
FIG. 247 is a diagram illustrating a real-world signal having continuity in the space-time direction.
FIG. 248 is a block diagram illustrating a configuration example of a real-world estimator that uses a three-dimensional function approximation method among function approximation methods having the principle illustrated in FIG. 219.
FIG. 249 is a flowchart illustrating a real world estimation process executed by the real world estimation unit having the configuration of FIG. 248.
250 is a diagram illustrating an example of an input image input to the real world estimation unit in FIG. 3;
FIG. 251 is a diagram showing a difference between the level of the optical signal in the real world at the center of the pixel of interest in FIG. 250 and the level of the optical signal in the real world at the cross-sectional distance x ′.
FIG. 252 is a diagram illustrating a cross-sectional direction distance x ′.
FIG. 253 is a diagram illustrating a cross-sectional direction distance x ′.
FIG. 254 is a diagram illustrating a distance in a cross-sectional direction of each pixel in a block.
FIG. 255 is a diagram illustrating a result of processing without considering weights in a normal equation.
FIG. 256 is a diagram illustrating a result of processing in consideration of weights in a normal equation.
FIG. 257 is a diagram illustrating a result of processing without considering weights in a normal equation.
FIG. 258 is a diagram illustrating a result of performing processing in consideration of weights in a normal equation.
FIG. 259 is a diagram illustrating the principle of a reintegration method, which is an example of the embodiment of the image generation unit in FIG. 3;
FIG. 260 is a diagram illustrating an example of an input pixel and an approximation function that approximates a real-world signal corresponding to the input pixel.
FIG. 261 is a diagram illustrating an example of creating four high-resolution pixels in one input pixel shown in FIG. 260 from the approximation function shown in FIG. 260.
FIG. 262 is a block diagram illustrating a configuration example of an image generation unit that uses a one-dimensional reintegration method among the reintegration methods having the principle shown in FIG. 259.
FIG. 263 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG. 262.
FIG. 264 is a diagram illustrating an example of an original image of an input image.
FIG. 265 is a diagram illustrating an example of image data corresponding to the image in FIG. 264.
FIG. 266 is a diagram illustrating an example of an input image.
FIG. 267 is a diagram illustrating an example of image data corresponding to the image in FIG. 266.
FIG. 268 is a diagram illustrating an example of an image obtained by performing a conventional classification adaptive process on an input image.
FIG. 269 is a diagram illustrating an example of image data corresponding to the image in FIG. 268.
FIG. 270 is a diagram illustrating an example of an image obtained by performing processing of the one-dimensional reintegration method of the present invention on an input image.
FIG. 271 is a diagram illustrating an example of image data corresponding to the image in FIG. 270.
FIG. 272 is a diagram illustrating a real-world signal having stationarity in a spatial direction.
FIG. 273 is a block diagram illustrating a configuration example of an image generation unit that uses a two-dimensional reintegration method among the reintegration methods having the principle illustrated in FIG. 259.
FIG. 274 is a diagram illustrating a cross-sectional direction distance.
FIG. 275 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG. 273.
FIG. 276 is a diagram illustrating an example of an input pixel.
277 is a diagram illustrating an example of creating four high-resolution pixels in one input pixel illustrated in FIG. 276 by a two-dimensional reintegration method.
Fig. 278 is a diagram for describing the direction of continuity in the spatiotemporal direction.
FIG. 279 is a block diagram illustrating a configuration example of an image generation unit that uses a three-dimensional reintegration method among the reintegration methods having the principle illustrated in FIG. 259.
FIG. 280 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration of FIG. 279;
FIG. 281 is a block diagram illustrating another configuration of an image generation unit to which the present invention has been applied.
FIG. 282 is a flowchart illustrating a process of generating an image by the image generation unit in FIG. 281.
FIG. 283 is a diagram for describing processing for generating quadruple-density pixels from input pixels.
FIG. 284 is a diagram illustrating a relationship between an approximate function indicating a pixel value and a shift amount.
FIG. 285 is a block diagram illustrating another configuration of an image generation unit to which the present invention has been applied.
FIG. 286 is a flowchart illustrating an image generation process performed by the image generation unit in FIG. 285.
FIG. 287 is a diagram illustrating a process of generating a quadruple-density pixel from an input pixel.
FIG. 288 is a diagram illustrating a relationship between an approximate function indicating a pixel value and a shift amount.
FIG. 289 is a block diagram illustrating a configuration example of an image generation unit that uses a one-dimensional reintegration method of a class classification adaptive processing correction method, which is an example of an embodiment of the image generation unit in FIG. 3;
FIG. 290 is a block diagram illustrating a configuration example of a class classification adaptive processing unit of the image generation unit in FIG. 289.
FIG. 291 is a block diagram illustrating a configuration example of a classifying adaptive processing unit in FIG. 289 and a learning device that determines a coefficient used by the classifying adaptive processing correction unit by learning.
FIG. 292 is a block diagram illustrating a detailed configuration example of a learning unit for class classification adaptive processing in FIG. 291.
FIG. 293 is a diagram illustrating an example of a processing result of the classification adaptive processing unit in FIG. 290.
FIG. 294 is a diagram illustrating a difference image between the prediction image and the HD image in FIG. 293.
295 is a specific pixel of the HD image in FIG. 293 corresponding to four HD pixels from the left in the figure among six HD pixels continuous in the X direction included in the area shown in FIG. 294. FIG. 7 is a diagram showing plots of values, specific pixel values of an SD image, and actual waveforms (signals in the real world).
FIG. 296 is a diagram illustrating a difference image between the prediction image and the HD image in FIG. 293.
297 is a specific pixel of the HD image in FIG. 293 corresponding to four HD pixels from the left in the figure among six HD pixels continuous in the X direction included in the area shown in FIG. 296. FIG. 7 is a diagram showing plots of values, specific pixel values of an SD image, and actual waveforms (signals in the real world).
298 is a view for explaining knowledge obtained based on the contents shown in FIGS. 295 to 297. FIG.
299 is a block diagram illustrating a configuration example of a class classification adaptive processing correction unit of the image generation unit in FIG. 289.
300 is a block diagram illustrating a detailed configuration example of a learning unit for class classification adaptive processing correction in FIG. 291. FIG.
FIG. 301 is a diagram for describing tilt in a pixel.
FIG. 302 is a diagram illustrating the SD image in FIG. 293 and a feature amount image in which the in-pixel inclination of each pixel of the SD image is a pixel value.
FIG. 303 is a diagram illustrating a method of calculating an in-pixel tilt.
FIG. 304 is a diagram illustrating a calculation method of an in-pixel tilt.
305 is a flowchart illustrating an image generation process performed by the image generation unit having the configuration in FIG. 289.
FIG. 306 is a flowchart illustrating details of input image class classification adaptation processing in the image generation processing in FIG. 305.
FIG. 307 is a flowchart illustrating details of the correction processing of the class classification adaptive processing in the image generation processing in FIG. 305.
FIG. 308 is a diagram illustrating an example of class tap arrangement.
FIG. 309 is a diagram for describing an example of class classification.
FIG. 310 is a diagram for describing a prediction tap arrangement example.
FIG. 311 is a flowchart illustrating a learning process of the learning device in FIG. 291.
FIG. 312 is a flowchart illustrating details of a learning process for the class classification adaptive process in the learning process of FIG. 311.
FIG. 313 is a flowchart illustrating details of a learning process for correcting a class classification adaptive process in the learning process of FIG. 311;
314 is a diagram illustrating the predicted image of FIG. 293 and an image obtained by adding a corrected image to the predicted image (image generated by the image generating unit in FIG. 289);
FIG. 315 is a block diagram illustrating a first configuration example of a signal processing device using a combined technique, which is another example of the embodiment of the signal processing device in FIG.
FIG. 316 is a block diagram illustrating a configuration example of an image generation unit that performs a class classification adaptive process in the signal processing device in FIG. 315.
FIG. 317 is a block diagram illustrating a configuration example of a learning device for the image generation unit in FIG. 316.
FIG. 318 is a flowchart illustrating signal processing executed by the signal processing device having the configuration in FIG. 315.
FIG. 319 is a flowchart illustrating details of execution processing of the class classification adaptive processing of the signal processing in FIG. 318.
FIG. 320 is a flowchart illustrating a learning process of the learning device in FIG. 317.
FIG. 321 is a block diagram illustrating a second configuration example of the signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG. 1;
FIG. 322 is a flowchart illustrating signal processing executed by the signal processing device having the configuration in FIG. 319.
FIG. 323 is a block diagram illustrating a third configuration example of the signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG. 1;
FIG. 324 is a flowchart illustrating signal processing executed by the signal processing device having the configuration in FIG. 321.
FIG. 325 is a block diagram illustrating a fourth configuration example of the signal processing device using the combined method, which is another example of the embodiment of the signal processing device in FIG. 1;
FIG. 326 is a flowchart illustrating signal processing executed by the signal processing device having the configuration of FIG. 323.
FIG. 327 is a block diagram illustrating a fifth configuration example of the signal processing device using the combined technique, which is another example of the embodiment of the signal processing device in FIG.
FIG. 328 is a flowchart illustrating signal processing executed by the signal processing device having the configuration in FIG. 325;
FIG. 329 is a block diagram illustrating a configuration of another embodiment of a data continuity detector.
FIG. 330 is a flowchart illustrating a data continuity detection process performed by the data continuity detection unit in FIG. 329;
FIG. 331 is a diagram illustrating a configuration of an optical block.
FIG. 332 is a diagram illustrating a configuration of an optical block.
FIG. 333 is a diagram illustrating a configuration of an OLPF.
Fig. 334 is a diagram for explaining the function of the OLPF.
FIG. 335 is a diagram for explaining the function of the OLPF.
FIG. 336 is a block diagram illustrating a configuration of another signal processing device of the present invention.
FIG. 337 is a block diagram illustrating the configuration of the OLPF removing unit in FIG. 336.
FIG. 338 is a diagram illustrating an example of a class tap.
FIG. 339 is a flowchart illustrating signal processing by the signal processing device in FIG. 336.
340 is a flowchart illustrating OLPF removal processing, which is processing in step S5101 of the flowchart in FIG. 339. FIG.
FIG. 341 is a learning device for learning coefficients of the OLPF removing unit in FIG. 337.
FIG. 342 is a diagram illustrating a learning method.
Fig. 343 is a diagram illustrating a teacher image and a student image.
FIG. 344 is a block diagram illustrating a configuration of a teacher image generation unit and a student image generation unit of the learning device in FIG. 342.
FIG. 345 is a diagram illustrating a method for generating a student image and a teacher image.
FIG. 346 is a diagram illustrating a simulation method of an OLPF;
Fig. 347 is a diagram illustrating an example of a teacher image.
FIG. 348 is a diagram illustrating an example of a student image.
FIG. 349 is a flowchart illustrating a learning process.
FIG. 350 is a diagram illustrating an image on which an OLPF removal process has been performed;
FIG. 351 is a diagram illustrating a comparison between an image that has undergone OLPF removal processing and an image that has not been removed.
FIG. 352 is a block diagram illustrating another configuration example of the real world estimation unit.
FIG. 353 is a diagram illustrating the effect of the OLPF.
FIG. 354 is a diagram illustrating the effect of the OLPF.
FIG. 355 is a flowchart illustrating a real world estimation process by the real world estimation unit in FIG. 352;
FIG. 356 is a diagram illustrating an example of extracted taps.
FIG. 357 is a diagram comparing an image generated from the approximate function of the real world estimated by the real world estimating unit in FIG. 352 with an image generated by another method.
FIG. 358 is a diagram comparing an image generated from the approximate function of the real world estimated by the real world estimating unit in FIG. 352 with an image generated by other methods;
FIG. 359 is a block diagram illustrating another configuration of the signal processing device.
FIG. 360 is a flowchart illustrating signal processing by the signal processing device of FIG. 359;
FIG. 361 is a block diagram illustrating a configuration of a learning device that learns coefficients of the signal processing device in FIG. 359.
FIG. 362 is a block diagram illustrating a configuration of a teacher image generation unit and a student image generation unit in FIG. 361.
FIG. 363 is a flowchart illustrating a learning process performed by the learning device in FIG. 361;
FIG. 364 is a view for explaining the relationship between various types of image processing.
FIG. 365 is a diagram illustrating estimation of the real world by an approximate function including a continuous function.
FIG. 366 is a diagram for describing an approximate function including a discontinuous function.
FIG. 367 is a diagram illustrating an approximate function including a continuous function and a discontinuous function.
FIG. 368 is a view for explaining how to obtain a pixel value using an approximate function including a discontinuous function.
FIG. 369 is a block diagram illustrating another configuration of the real world estimation unit.
FIG. 370 is a flowchart illustrating a real world estimation process performed by the real world estimation unit in FIG. 369.
FIG. 371 is a diagram illustrating an example of extracted taps.
FIG. 372 is a diagram illustrating an approximate function including a discontinuous function on the Xt plane.
FIG. 373 is a diagram illustrating another example of extracted taps.
FIG. 374 is a diagram for describing an approximate function including a two-dimensional discontinuous function.
FIG. 375 is a diagram illustrating an approximate function including a two-dimensional discontinuous function.
FIG. 376 is a diagram illustrating the ratio of the volume of each pixel of interest to each region.
Fig. 377 is a block diagram illustrating another configuration of the real world estimation unit.
FIG. 378 is a flowchart for describing a real world estimation process by the real world estimation unit in FIG. 377;
Fig. 379 is a diagram illustrating another example of extracted tap.
FIG. 380 is a diagram illustrating an approximate function including a two-dimensional discontinuous function.
FIG. 381 is a diagram illustrating another example of the approximation function including the two-dimensional discontinuous function.
FIG. 382 is a diagram illustrating an approximate function including a continuous function of a polynomial for each region.
FIG. 383 is a diagram for describing an approximate function including a discontinuous function of a polynomial for each region.
Fig. 384 is a block diagram illustrating another configuration of the image generation unit.
FIG. 385 is a flowchart illustrating an image generation process performed by the image generation unit in FIG. 384.
FIG. 386 is a view for explaining a method for generating quadruple-density pixels.
FIG. 387 is a diagram illustrating the relationship between the conventional method and the case where an approximation function including a discontinuous function is used.
FIG. 388 is a block diagram illustrating another configuration of the image generation unit.
FIG. 389 is a flowchart for describing the image generation processing by the image generation unit in FIG. 388.
FIG. 390 is a diagram illustrating a pixel of interest.
FIG. 391 is a diagram illustrating a method of calculating a pixel value of a target pixel.
Fig. 392 is a diagram for describing a processing result using an approximate function including a discontinuous function in a spatial direction and other processing results.
FIG. 393 is a diagram for describing a processing result using an approximate function including a discontinuous function and other processing results.
FIG. 394 is a diagram illustrating imaging by a sensor.
FIG. 395 is a diagram illustrating the arrangement of pixels.
FIG. 396 is a diagram illustrating operation of the detection element.
FIG. 397 is a diagram illustrating an image obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background.
FIG. 398 is a view for explaining a background area, a foreground area, a mixed area, a covered background area, and an uncovered background area.
FIG. 399 is a model diagram in which pixel values of adjacent pixels arranged in one line in an image obtained by capturing an object corresponding to a stationary foreground and an object corresponding to a stationary background are developed in the time direction. It is.
FIG. 400 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
FIG. 401 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
FIG. 402 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
FIG. 403 is a diagram illustrating an example in which pixels in a foreground area, a background area, and a mixed area are extracted.
FIG. 404 is a diagram illustrating the correspondence between pixels and models in which pixel values are developed in the time direction.
FIG. 405 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
FIG. 406 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
FIG. 407 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
FIG. 408 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
FIG. 409 is a model in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.
Fig. 410 is a diagram for describing a processing result using an approximation function including a discontinuous function in the spatiotemporal direction and other processing results.
FIG. 411 is a diagram illustrating an image including motion blur in a horizontal direction.
412 is a diagram for describing a processing result of the image in FIG. 411 using an approximation function including a discontinuous function in the spatiotemporal direction, and other processing results.
FIG. 413 is a diagram illustrating an image including motion blur in an oblique direction.
FIG. 414 is a diagram illustrating a processing result of the image in FIG. 413 using an approximation function including a discontinuous function in a spatiotemporal direction, and other processing results.
FIG. 415 is a diagram illustrating a processing result of an image including motion blur in an oblique direction using an approximate function including a discontinuous function in a spatiotemporal direction.
[Explanation of symbols]
Reference Signs List 4 signal processing device, 21 CPU, 22 ROM, 23 RAM, 28 storage unit, 51 magnetic disk, 52 optical disk, 53 magneto-optical disk, 54 semiconductor memory, 101 data continuity detection unit, 102 real world estimation unit, 103 image generation Unit, 201 non-stationary component extraction unit, 202 vertex detection unit, 203 monotone increase / decrease detection unit, 204 continuity detection unit, 221 block extraction unit, 222 plane approximation unit, 223 repetition determination unit, 401 activity detection unit, 402 data selection unit , 403 error estimating unit, 404 stationary direction deriving unit, 411-1 to 411-L pixel selecting unit, 412-1 to 412-L estimation error calculating unit, 413 minimum error angle selecting unit, 421-1 to 421-L pixel Selector, 422-1 through 422 Estimation error calculation unit, 441 data selection unit, 442 error estimation unit, 443 steady direction derivation unit, 461-1 to 461-L pixel selection unit, 462-1 to 462-L estimation error calculation unit, 463 minimum error angle selection unit , 481-1 thru 481-3 data continuity detecting unit, 482 determining unit, 491 component processing unit, 492 data continuity detecting unit, 502 pixel acquiring unit, 503 frequency detecting unit, 504 regression line calculating unit, 505 angle calculating unit , 602 pixel acquisition section, 603 frequency detection section, 604 regression line calculation section, 605 area calculation section, 701 data selection section, 702 data addition section, 703 steady direction derivation section, 711 horizontal / vertical determination section, 712 data acquisition section , 721 Difference addition unit, 722 MaxMin acquisition unit, 723 difference addition unit, 731 steady direction calculation unit, 751 data addition unit, 752 MaxMin acquisition unit, 753 addition unit, 754 difference calculation unit, 755 addition unit, 761 mixture ratio derivation unit, 762 mixture ratio calculation unit, 801 angle detection section, 802 real world estimation section, 803 error calculation section, 804 comparison section, 821 motion detection section, 822 real world estimation section, 823 error calculation section, 824 comparison section, 901 simple angle detection section, 902 determination section , 903 switch, 904 regression angle detection section, 905 gradient angle detection section, 911 data selection section, 912 error estimation section, 913 steady direction derivation section, 921-1 to 921-L pixel selection section, 922-1 to 922 −L estimation error calculator, 923 minimum error angle selector, 2 01 line width detecting section, 2102 signal level estimating section, 2121 boundary detecting section, 2131 distribution ratio calculating section, 2132 regression line calculating section, 2201 real world estimating section, 2202 approximate function estimating section, 2203 differential processing section, 2211 reference pixel extraction Unit, 2212 slope estimation unit, 2231 real world estimation unit, 2232 approximation function estimation unit, 2233 differentiation processing unit, 2251 reference pixel extraction unit, 2252 inclination estimation unit, 2331 condition setting unit, 2332 input image storage unit, 2333 input pixel value Acquisition unit, 2334 integral component operation unit, 2335 normal equation generation unit, 2336 approximation function generation unit, 2341 input pixel value table, 2342 integral component table, 2343 normal equation table, 2421 condition setting unit, 2422 input image storage unit, 2423 input pixel value acquisition unit, 2424 integral component calculation unit, 2425 normal equation generation unit, 2426 approximation function generation unit, 2431 input pixel value table, 2432 integral component table, 2433 normal equation table, 2521 condition setting unit, 2522 input image storage Unit, 2523 input pixel value acquisition unit, 2524 integral component operation unit, 2525 normal equation generation unit, 2526 approximation function generation unit, 2531 input pixel value table, 2532 integration component table, 2533 normal equation table, 3121 condition setting unit, 3122 Quantity storage unit, 3123 integral component calculation unit, 3124 output pixel value calculation unit, 3131 feature value table, 3132 integration component table, 3201 condition setting unit, 3202 feature value storage unit, 3203 integration Minute operation unit, 3204 output pixel value operation unit, 3211 feature amount table, 3212 integral component table, 3301 condition setting unit, 3302 feature amount storage unit, 3303 integral component operation unit, 3304 output pixel value operation unit, 3311 feature amount table, 3312 integral component table, 3201 slope acquisition section, 3202 extrapolation interpolation section, 3211 slope acquisition section, 3212 extrapolation interpolation section, 3501 class classification adaptive processing section, 3502 class classification adaptive processing correction section, 3503 addition section, 3504 learning device, 3521 Learning unit for class classification adaptive processing, 3561 Learning unit for class classification adaptive processing correction, 4101 Data continuity detection unit 4101 Real world estimation unit, 4103 image generation unit, 4104 image generation unit, 4105 Steady region detection unit, 4111 Area detector, 4112 selector, 4161 steady area detector, 4171 area detector, 4172 execution instruction generator, 4181, 4182 steady area detector, 4191 area detector, 4192 execution instruction generator, 4201 area detector, 4202 execution Command generation unit, 4501 image generation unit, 5101 lens, 5102 IR cut filter, 5103 OLPF, 5104 CCD, 5110 optical block, 5121a, b crystal, 5122 phase plate, 5131 OLPF removal unit, 5141 class tap detection unit, 5142 feature amount Extraction unit, 5143 class classification unit, 5144 coefficient memory, 5145 prediction tap extraction unit, 5146 pixel value calculation unit, 5151 student image generation unit, 5151a 1/16 average processing unit, 5 52 learning unit, 5153 teacher image generation unit, 5153a OLPF simulation unit, 5153b 1/16 average processing unit, 5154 coefficient memory, 5161 image memory, 5162 class tap extraction unit, 5163 feature amount extraction unit, 5164 class classification unit, 5165 prediction Tap extraction section, 5166 addition calculation section, 5167 learning memory, 5168 normal equation calculation section, 5201 condition setting section, 5202 input image storage section, 5203 input pixel value acquisition section, 5204 integral component calculation section, 5205 normal equation generation section, 5206 approximation function generation section, 5241 class tap extraction section, 5242 feature quantity calculation section, 5243 class classification section, 5244 coefficient memory, 5245 prediction tap extraction section, 5246 pixel value calculation section, 52 1 Student image generation unit, 5251a OLPF simulation processing unit, 5251b 1/64 average processing unit, 5252 learning unit, 5253 teacher image generation unit, 5253 1/16 average processing unit, 5254 coefficient memory, 5261 image memory, 5262 class tap extraction Unit, 5263 feature amount calculation unit, 5264 class classification unit, 5265 prediction tap extraction unit, 5266 addition calculation unit, 5267 learning memory, 5268 normal equation calculation unit, 5301 condition setting unit, 5302 input image storage unit, 5303 input pixel value Acquisition unit, 5304 integral component operation unit, 5305 normal equation generation unit, 5306 approximate function generation unit, 5321 condition setting unit, 5322 input image storage unit, 5323 input pixel value acquisition unit, 5324 integral component operation , 5325 normal equation generating unit, 5326 the approximation function generating unit, 5341 actual world estimation information obtaining unit, 5342 weight calculator, 5343 pixel generation unit, 5351 actual world estimation information obtaining unit, 5352 weight calculator, 5353 pixel generator
Claims (10)
前記光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して前記光学ローパスフィルタに入射される光信号を推定する推定手段と
を備えることを特徴とする画像処理装置。Acquiring means for acquiring image data in which a real-world optical signal is projected through an optical low-pass filter to a plurality of pixels each having a spatial integration effect,
Estimating means for estimating an optical signal incident on the optical low-pass filter in consideration of that the optical signal is dispersed and integrated in at least one-dimensional direction among spatial directions by the optical low-pass filter. Image processing apparatus.
前記光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して前記光学ローパスフィルタに入射される光信号を推定する推定ステップと
を含むことを特徴とする画像処理方法。An acquisition step of acquiring image data in which a real-world optical signal is projected through an optical low-pass filter to a plurality of pixels each having a spatial integration effect,
Estimating an optical signal incident on the optical low-pass filter in consideration of that the optical signal is dispersed and integrated in at least a one-dimensional direction of the spatial direction by the optical low-pass filter. Image processing method.
前記光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して前記光学ローパスフィルタに入射される光信号を推定する推定ステップと
を含むコンピュータが読み取り可能なプログラムが記録されていることを特徴とする記録媒体。An acquisition step of acquiring image data in which a real-world optical signal is projected through an optical low-pass filter to a plurality of pixels each having a spatial integration effect,
Estimating an optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one dimensional direction among the spatial directions by the optical low-pass filter. A recording medium on which a possible program is recorded.
前記光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して前記光学ローパスフィルタに入射される光信号を推定する推定ステップと
をコンピュータに実行させることを特徴とするプログラム。An acquisition step of acquiring image data in which a real-world optical signal is projected through an optical low-pass filter to a plurality of pixels each having a spatial integration effect,
Estimating an optical signal incident on the optical low-pass filter in consideration of that the optical signal is dispersed and integrated in at least a one-dimensional direction of the spatial direction by the optical low-pass filter. A program characterized by the following.
ことを特徴とする画像処理装置。A real-world optical signal is projected onto a plurality of pixels each having a spatial integration effect through an optical low-pass filter, and at least a one-dimensional direction in the spatial direction of image data in which a part of the continuity of the real-world optical signal is missing The pixel values of the pixel of interest corresponding to the position are estimated as the pixel values obtained by integrating at least the one-dimensional direction of the plurality of real world functions corresponding to the optical low-pass filter, and the plurality of real world functions are estimated. An image processing apparatus comprising: a real world estimating unit that estimates a function corresponding to the real world optical signal.
前記実世界推定手段は、前記画像データ定常性検出手段により検出された定常性に基づいて、前記画像データの空間方向のうち少なくとも一次元方向の位置に対応する注目画素の画素値が、前記光学ローパスフィルタに対応した複数の実世界関数の前記少なくとも一次元方向の積分により取得された画素値であるとして前記複数の実世界関数を推定することにより、前記現実世界の光信号に対応する関数を推定する
ことを特徴とする請求項5に記載の画像処理装置。Further comprising an image data continuity detecting means for detecting the continuity of the image data,
The real world estimating means is configured to determine, based on the continuity detected by the image data continuity detecting means, a pixel value of a pixel of interest corresponding to a position in at least a one-dimensional direction in a spatial direction of the image data. By estimating the plurality of real-world functions as being pixel values obtained by integration of the plurality of real-world functions corresponding to the low-pass filter in the at least one-dimensional direction, a function corresponding to the real-world optical signal is obtained. The image processing apparatus according to claim 5, wherein the estimation is performed.
ことを特徴とする請求項6に記載の画像処理装置。Pixel value generating means for generating a pixel value corresponding to a pixel of a desired size by integrating the real world function estimated by the real world estimating means in the at least one-dimensional desired unit. The image processing apparatus according to claim 6, wherein:
前記光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して前記光学ローパスフィルタに入射される光信号を推定する推定ステップと
を含むことを特徴とする画像処理方法。An acquisition step of acquiring image data in which a real-world optical signal is projected through an optical low-pass filter to a plurality of pixels each having a spatial integration effect,
Estimating an optical signal incident on the optical low-pass filter in consideration of that the optical signal is dispersed and integrated in at least a one-dimensional direction of the spatial direction by the optical low-pass filter. Image processing method.
前記光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して前記光学ローパスフィルタに入射される光信号を推定する推定ステップと
を含むコンピュータが読み取り可能なプログラムが記録されていることを特徴とする記録媒体。An acquisition step of acquiring image data in which a real-world optical signal is projected through an optical low-pass filter to a plurality of pixels each having a spatial integration effect,
Estimating an optical signal incident on the optical low-pass filter in consideration of the fact that the optical signal is dispersed and integrated in at least one dimensional direction among the spatial directions by the optical low-pass filter. A recording medium on which a possible program is recorded.
前記光学ローパスフィルタにより空間方向のうち少なくとも一次元方向に光信号が分散して積分されていることを考慮して前記光学ローパスフィルタに入射される光信号を推定する推定ステップと
をコンピュータに実行させることを特徴とするプログラム。An acquisition step of acquiring image data in which a real-world optical signal is projected through an optical low-pass filter to a plurality of pixels each having a spatial integration effect,
Estimating an optical signal incident on the optical low-pass filter in consideration of that the optical signal is dispersed and integrated in at least a one-dimensional direction of the spatial direction by the optical low-pass filter. A program characterized by the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003052471A JP4325221B2 (en) | 2003-02-28 | 2003-02-28 | Image processing apparatus and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003052471A JP4325221B2 (en) | 2003-02-28 | 2003-02-28 | Image processing apparatus and method, recording medium, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2004264941A true JP2004264941A (en) | 2004-09-24 |
JP2004264941A5 JP2004264941A5 (en) | 2006-04-20 |
JP4325221B2 JP4325221B2 (en) | 2009-09-02 |
Family
ID=33117337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003052471A Expired - Fee Related JP4325221B2 (en) | 2003-02-28 | 2003-02-28 | Image processing apparatus and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4325221B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113572968A (en) * | 2020-04-24 | 2021-10-29 | 杭州萤石软件有限公司 | Image fusion method and device, camera equipment and storage medium |
-
2003
- 2003-02-28 JP JP2003052471A patent/JP4325221B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113572968A (en) * | 2020-04-24 | 2021-10-29 | 杭州萤石软件有限公司 | Image fusion method and device, camera equipment and storage medium |
CN113572968B (en) * | 2020-04-24 | 2023-07-18 | 杭州萤石软件有限公司 | Image fusion method, device, image pickup apparatus and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4325221B2 (en) | 2009-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4144377B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4144378B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4214459B2 (en) | Signal processing apparatus and method, recording medium, and program | |
JP2004264918A (en) | Image processor and processing method, storage medium, and program | |
JP4228724B2 (en) | Learning apparatus and method, image processing apparatus and method, recording medium, and program | |
JP4182777B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4325221B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP2004259232A (en) | Image processing unit and method therefor, recording medium, and program | |
JP4161729B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161731B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161727B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161734B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161732B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161735B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161733B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP2004265120A (en) | Image processor and processing method, storage medium, and program | |
JP4214461B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4155046B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4175131B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161728B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161254B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4161730B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4178983B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4264632B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP2004246590A (en) | Image processor, image processing method, recording medium, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081009 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090519 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090601 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120619 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120619 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120619 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130619 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |