JP2011002387A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2011002387A
JP2011002387A JP2009147005A JP2009147005A JP2011002387A JP 2011002387 A JP2011002387 A JP 2011002387A JP 2009147005 A JP2009147005 A JP 2009147005A JP 2009147005 A JP2009147005 A JP 2009147005A JP 2011002387 A JP2011002387 A JP 2011002387A
Authority
JP
Japan
Prior art keywords
image
distance
diffraction
virtual
real image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009147005A
Other languages
English (en)
Other versions
JP2011002387A5 (ja
JP5500879B2 (ja
Inventor
Yasuo Katano
康生 片野
Takayuki Iwamoto
貴之 岩本
Hiroyuki Osawa
弘幸 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009147005A priority Critical patent/JP5500879B2/ja
Priority to US12/796,185 priority patent/US8456619B2/en
Publication of JP2011002387A publication Critical patent/JP2011002387A/ja
Publication of JP2011002387A5 publication Critical patent/JP2011002387A5/ja
Application granted granted Critical
Publication of JP5500879B2 publication Critical patent/JP5500879B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1086Beam splitting or combining systems operating by diffraction only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/16Beam splitting or combining systems used as aids for focusing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/4233Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect having a diffractive element [DOE] contributing to a non-imaging application
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Diffracting Gratings Or Hologram Optical Elements (AREA)

Abstract

【課題】従来の画像処理装置の構成を大きく変えることなく、軽量でしかも小型な構成で被写体の距離情報を取得する。
【解決手段】画像処理装置は、回折格子と撮像光学系を介して得られる対象物体の像を撮像部を用いて撮像することにより得られた回折画像を取得し、回折画像の輝度勾配から実像を検出し、回折画像において、前記検出された実像と、この実像に対応する虚像との距離を算出し、第1算出手段で算出された距離を用いて対象物体と前記回折格子との奥行き距離を算出する。
【選択図】図5

Description

本発明は、画像認識において抽出した画像特徴の被写体から撮影装置までの距離計測に関するものである。
従来、被写体から撮像装置までの距離を計測する方法について、多くの方法が提案されてきている。以下、従来の計測方法例について説明する。まず、オートフォーカスカメラ等に用いられる方法として、光学系に二つ目レンズなどを用いて距離計測用素子等に結像させ、距離計測を行うものがある。また、レンズ焦点法(Depth from focus)では、フォーカスを随時移動し、観測画面が画面上で最も映像が鮮鋭になったときの距離を推定距離として求める。一方、ボケ解析法(Depth from defocus)では、画像中のボケ具合を解析し、ボケ量と距離の関係から推定距離を求める。
非特許文献1で示される、マイクロレンズアレイなどを用いた光線追跡手法は、撮影される光線の角度情報を観測画像から解析することによって、推定距離を求める。
特に画像認識の分野では、3次元奥行き情報を取得する方法には、上記の距離測定手法の中でもマルチカメラを用いた手法が多く採用されてきた。この方法では角点やエッジなどの輝度勾配特徴をHarris-Affineや、SIFTなどAffine-invariantな画像特徴量を用いて取得する。そして取得した角点やエッジなどの輝度勾配特徴を視点位置に依存しない情報にすることにより、複数のカメラでの画像特徴量の対応を取り、三角測量の原理によって撮像装置と撮影対象との距離を求める。
特許第2963990号
Light Field Photography with a Hand-held Plenoptic Camera/Ren Ng, Marc Levoy, Mathieu, Bredif Gene, Duval Mark Horowitz, Pat Hanrahan/Stanford University Duval Design/SIGGRAPH 2005.
しかしながら、これらの手法には以下に説明するような、いくつかの問題があった。
まずマルチカメラによる測距には、撮像装置台数の増加に伴うコスト増という問題がある。監視カメラやハンディカムのように販売台数の多い製品において、複数台のカメラを設置することを要求することは、その販売において非常に大きなデメリットとなる。
また専用ハードウェアを用いることにより規模が大型になる。マルチカメラの場合、その基線長が計測精度と直結するので、ある程度の基線長は必要となる。機器の大型化はそれだけで大きなデメリットとなる。
そして、大型化に伴う重量増という問題もある。この手法を実践するためには最低2台のカメラが必要となる。そのため監視・見守りなど1台あたりのコストを抑えたい場合や、ロボットアームの先端やハンディカム、デジカメなど軽量化が課題となる設置場所には、複数台による重量増が大きな問題となる。
そこで単眼視による小型・軽量・安価な三次元奥行き計測手法が従来から検討されている。しかしながら、従来の単眼視による手法にも次に説明するような問題点がある。
まず、オートフォーカスカメラ等で用いられる位相差方式は、撮影用CMOS以外に、距離計測用素子や距離計測用光学系等が必要となる。また、観測画像上の数点ないし数十点の距離しか距離計測を行うことが出来ないため、距離画像を得るのが難しい。
レンズ焦点法は、フォーカスの移動を必要とし、フォーカスレンズの機械的駆動を伴うため、距離画像の取得に時間がかかる。また、ボケ解析法は、テレセントリック光学系によって発生するボケと結像の関係を用いている。そのため、レンズ設計の自由度は低い。マイクロレンズアレイなどによる光線追跡手法は、撮影される光の角度情報を取得する分、合焦画像の空間解像度の低下が発生する。特許文献1に記載された、パターン化された絞りなどを用いる手法では、距離画像と合焦画像が得られるが、テレセントリック光学系を用いており、更にピンホール開口を用いた絞りによって実施されているため、光量の低下という問題がある。
本発明は、以上の課題に鑑み、従来の画像処理装置の構成を大きく変えることなく、軽量でしかも小型な構成で被写体の距離情報を取得することを目的とする。
本発明の画像処理装置は、回折格子と撮像光学系を介して得られる対象物体の像を撮像部を用いて撮像することにより得られた回折画像を取得する取得手段と、前記回折画像の輝度勾配から実像を検出する実像検出手段と、前記回折画像において、前記検出された実像と、この実像に対応する虚像との距離を算出する第1算出手段と、前記第1算出手段で算出された距離を用いて、前記対象物体と前記回折格子との奥行き距離を算出する第2算出手段とを備えることを特徴とする。
本発明の画像処理装置では、従来の画像処理装置の構成を大きく変えることなく、軽量、小型な構成で被写体の距離情報を取得できる。
実施形態1〜4におけるシステム構成を示す図。 実施形態1〜4の撮像系により取得した画像を模式的に示す図。 実施形態1〜4の構成による、回折格子と対象物体との間の距離を算出するための模式図。 ウィンドウの移動により実像と虚像との間の距離を算出する方法の模式図。 実施形態1における実像と虚像との間の距離の算出フロー図。 典型的な原色フィルタの感度特性を示す図。 実像と虚像の間の輝度の相関を示す図。 実施形態4における撮影した画像の例を示す図。
<実施形態1>
回折格子を用いた画像特徴の奥行きの計測について述べていく。図1に代表的な画像処理装置の構成を示す。
本実施形態では、デジタルカメラ、デジタルビデオ、もしくは監視用webカメラなどを想定し、通常使用されるカメラユニットに回折格子フィルタを追加している。対象物体の実像と格子定数dが既知の回折格子による回折像(虚像)との光学的関係からROI(Region of Interest)の奥行き距離を算出し、その情報を画像認識に応用するケースについて説明する。
画像取得部100は、回折格子101がなければ、光学レンズ102と撮像部103を備える通常のビデオカメラユニットとなる。本実施形態では、光学レンズ102の前面に回折格子101を配置するので通常の撮像系ではなく、回折画像を含んだ画像を取得できる構成となっている。撮像部103で撮像された実像および虚像を含む画像は、輝度勾配特徴抽出部110へ送られ、実像検出部111により、画像の中から実像を検出する。検出された実像の輝度勾配の特徴は、奥行き計算部120に送られ、虚像検出部121は、後述するウィンドウ処理などを用いて、検出した実像との相関の高い像を検出し、それを虚像として検出する。虚像検出部121は、第1算出手段を含み、検出した実像と虚像との距離を求める。また、奥行き算出部122は、第2算出手段を含み、その距離を用いて、被写体と撮像装置(画像取得部)との距離を算出する。そして、画像認識処理部130は、実像の輝度勾配の特徴と、実像と虚像との画素間距離を用いて、取得した画像の認識に応用する。
図2に、本実施形態における画像取得部100の内部構成と、距離の算出の概念について示す。図2では説明および計算式を簡単にするために、光学レンズ102を省略し、その光学系を考慮した回折格子と撮像素子との間の距離をDとして描いている。実際、光学レンズを考慮した場合、対象物体の像が撮像素子上に撮像されるまでの過程は複雑になるが、基本的な概念を理解するには、これから説明する光学レンズを省略した場合で十分である。また、通常のビデオカメラでは原色または補色のRGBフィルタ104が撮像素子前面に配置され、RGBが分離されるが、説明の簡略化のために緑(G)の場合を扱う。赤(R)と青(B)も同様の処理となるため、ここでは説明を省略する。
撮像部103は、この例ではCMOSセンサを使用する。この撮像素子はCMOSに限定するものではなく、CCD、銀塩など光学情報を記録できる素子であればよいことは言うまでもない。いま、白い対象物体201を実施形態1における装置で撮像する場合を考える。画像取得部100に入射した白い対象物体201に由来する光学情報は、回折格子101によって分光・回折され、回折格子の背後に配置された撮像光学系、光学レンズ102、RGBフィルタ104を通ってCMOSの撮像部103へ投射される。符号211で示す像は光軸の軸上で撮像部103に結像された対象物体201の実像である。符号212−1および212−2で示す像は、回折格子101による対象物体201と回折格子101間の距離を反映した虚像となる。虚像212−1と212−2は、実像211に対して対称な位置に出現する。
図3を用いて、実像211と虚像212との撮像部103上における距離xから回折格子101と対象物体201との距離Lを算出する方法について説明する。説明を簡単にするため、虚像212−1について説明する。虚像212−2も同様に算出できるので、虚像212−2に対する説明を省略する。
照明光(白色光)が対象物体201に照射されると、照明光は対象物体201の物体表面で発散し、光軸方向へ進む光束300が回折格子101の点Oへ入射する。また光束300に対して角度θの方向へ発散する発散光束301が回折格子101の点P1へ入射する。回折格子101を通過した光束300は、回折作用によって0次回折光310と、1次回折光311となる。このとき0次回折光310と1次回折光311のなす角θは、回折格子101の格子定数をdとすると次式のように表される。
Figure 2011002387
ここで、λについてはRGBフィルタ104の感度曲線のピーク値を用いてθを求める。ピーク値はビデオカメラによって異なるため、あらかじめ計測しておく。本実施形態では、緑領域の感度の例としてλ=550nmと仮定する。
続いて、発散光束301が回折格子101の点P1へ入射し、回折作用によって、0次回折光320と角θで1次回折光321−1、321−2となってRGBフィルタ104によって緑成分のみ抽出される。そして撮像部103へ投射される。この回折作用により、光軸に沿った光束300の1次回折光311と発散光束301の1次回折光321−2とが、互いに強めあうことで、実像211から距離xだけ離れた位置に虚像212−1が現れる。
上記の関係から、回折格子101上の光束300と発散光束301の入射位置差OP1=xとなるため、光学的関係から回折格子101による実像虚像の距離xを用いると、回折格子101と対象物体201との距離Lは次式で求められる。ここで、sinθは式(1)で表わされる。
Figure 2011002387
もしくは、格子定数d、波長λを用いると
Figure 2011002387
これら式により、実像211と虚像212−1の距離xから対象物体201までの距離Lを算出することが可能となる。
ここでは、距離算出方法として回折格子の原理を用いて距離Lを算出した。しかし、実際には格子定数や光学レンズ102による光学系の距離D、そしてRGBフィルタ104による感度曲線のピーク値の正確な値などが不明なため、正確なλを算出することができない場合が多い。そこで実際にはLが既知の位置(以下「l」とする)に対象物体201を設置し、そのときの虚像212−1の出現位置Xを求めることでキャリブレーションを行い、以下の式(4)を用いて対象物体201までの距離Lを算出してもよい。
Figure 2011002387
本実施形態では、説明の簡略化のためRGBフィルタ104を原色フィルタの緑フィルタとして説明を行ったが、これに限定するものではない。原色フィルタの赤および青、さらに補色フィルタのマゼンタ、シアン、また赤外線領域など他の周波数特性のRGBフィルタにおいても同様の方法で距離Lを算出することが可能であることはいうまでもない。
図3に、実像と虚像との間の距離x1を算出するための概念図を示す。実像211の中心を原点とし、虚像212−1に向かう方向、すなわち回折格子に直行する方向をx軸正方向とし、実像211の上方向をy軸正方向とする。この画像処理装置の虚像検出部121は、抽出された実像の中心を中心とする第1ウィンドウ401を設定し、その大きさをBBx、BByとし、第1ウィンドウ401を走査距離Δxだけx軸方向に移動させたウィンドウを第2ウィンドウ402とする。BBxおよびBByの大きさは処理系の計算性能と、対象物体の大きさに依存する。BBxおよびBByの大きさについては、本発明の目的と直接関係ないので説明は割愛する。
またこの画像処理部の虚像検出部121は、実像に対する第1ウィンドウ401内の輝度分布と第2ウィンドウ402内の輝度分布との相関を計算する。期待値をEとし、抽出したウィンドウ内のある位置のピクセルの輝度値を第1輝度値Xとし、第1ウィンドウ401内にあるピクセルの輝度平均を第1輝度平均値X0aveとする。更に、第1ウィンドウ401内の第1輝度値に対応する、第2ウィンドウ402内のピクセル輝度値を第2輝度値XΔXとし、第2ウィンドウ402内のピクセルの輝度平均を第2輝度平均値XΔXaveとし、この輝度の分布に関する分散をσとする。この変数を用いると、第1ウィンドウ401と第2ウィンドウ402における自己相関関数は次式(5)で表される。
Figure 2011002387
ウィンドウ402が、虚像212−1の位置x1まで移動したときその自己相関値が最大となるため、虚像位置x1を算出することが可能となる。
なお、この手法では自己相関関数を用いて実像と虚像との間の距離を算出したが、それに限定するものではなく、相互相関関数を用いた他の手法でも同様に算出できることは言うまでもない。本手法では、回折格子101のスリットと直行する方向に走査するだけでよいので、計算時間の短縮が期待できる。
図5のフロー図を用いて、以上述べた動作を説明する。
S301からS303のステップは、画像取得部100の中の動作を示すものである。また、S304からS312までのステップは、図1の輝度勾配特徴抽出部110、奥行き計算部120などで行われる画像処理を行うもので、例えばパーソナルコンピュータを用いて行っても良い。
S301で、回折格子101が対象物体の像を回折する。S302において、光学レンズ102が回折された像を集光する。S303において、RGBフィルタ104により、R、G、Bの波長に対応して、像が分離される。この例では、緑のGに対応した回折像が図2と図3に示されている。
S304において、画像取得部100の撮像部103により、回折格子101により回折し、RGBフィルタによりR、G、B(この例ではGのみ)に分離された虚像と実像を含む対象物体の画像が取得される。S305において、輝度勾配特徴抽出部110の実像検出部111は、例えば、取得された画像の中で輝度勾配の一番大きい画像を実像として抽出する。この実像の抽出方法は、実施形態3、4の中で説明する。
S306において、虚像検出部121は、抽出した実像211の中心(または輝度の重心でもよい)を中心とする第1ウィンドウ401を設定する。S307において、虚像検出部121は、第1ウィンドウを、回折格子のスリットと垂直な方向へΔx移動した第2ウィンドウ402を設定する。
S308において、虚像検出部121は、第1ウィンドウ内の輝度分布と第2ウィンドウ内の輝度分布との相関を計算する。S309において、虚像検出部121は、Δxの増加させ、計算した相関値をxに関してプロットし、相関値がピークを示すか否かをチェックする。もし、ピーク値でなかったら、S307に戻り、Δxだけ第2ウィンドウを移動する。もしピーク値であれば、S310へ移る。これ以外のピーク検出法として、最初にピークが現れる距離の範囲以上に第2ウィンドウを移動することにより、その範囲での相関値を全体として評価し、ピーク値を決定しても良い。
S310において、虚像検出部121は、このときの第2ウィンドウの中心の位置を虚像の位置とする。S311において、虚像検出部121は、第1ウィンドウの中心位置と第2ウィンドウの中心位置との間の距離を算出する。S312において、奥行き算出部122は、算出した距離と式(2)〜(3)を用いて、奥行き距離を算出する。
以上のように、実施形態1では、対象物体の回折画像を取得し、その回折画像から実像と虚像を検出し、その間の距離を求めることで、対象物体と回折格子間の距離を算出できる。
<実施形態2>
2つの虚像の対称性を利用した虚像を特定する方法について述べる。実施形態1と同様に図1〜4を用いて説明をしていく。
実施形態1では、撮像部103上に投射された実像211と虚像212−1の距離を求めた。ここでは、ノイズの多い背景や実像211のコントラストが低い場合など相関関数が大きな値をとらない場合にどのような対応をするかについて述べる。
図2に示すように、回折格子の特性により実像211の虚像は、回折格子のスリットと垂直方向に線対称に、虚像212−1および虚像212−2として出現する。その実像と虚像との間の距離はxに等しい。そこでその対象性を利用して実施形態1にて算出した実像と虚像との間の距離x1(図4参照)とx軸負方向に存在する虚像212−2との距離x2(不図示)が等しいことを利用し、x1=x2となる相関係数のピーク位置を虚像の位置として定義する。そして、この2つのピーク位置が実像211に対して対称に検出される場合に、その虚像を用いて実像と虚像との間の距離を算出する。また、もしこの2つのピーク位置が対象でない場合、この虚像を用いて距離の算出は行わない。これにより、誤りなく虚像位置を見つけて虚像位置を算出することができる。またノイズなどによる相関係数の低下によって誤った虚像位置を算出することを防ぐ。
本実施形態ではウィンドウとして画像領域を設定したが、これに限定するものではなく、ウィンドウ401はx軸方向もしくはy軸方向への1次元情報でも同様の効果を示すことはいうまでもない。
また、一般に回折格子を用いると、複数の虚像が得られる。本実施形態では1次のスリットを使用するため、虚像は2つ出現するが、直交スリットを用いることによって撮像画素上の上下左右に4つの虚像を投射することが可能となり、より精細な虚像同定が可能となる。
<実施形態3>
RGBの波長差によって異なる虚像間距離を利用した虚像を特定する方法について述べる。実施形態1と同様に図1〜4を用いて説明を行う。
撮像装置は撮像素子上に現れた虚像について、その確からしさをチェックし、適切な虚像であるか否かを決定する虚像検出部を有する。本実施形態では、撮像部103上に投影された実像と虚像との間の距離がRGBフィルタ104によって波長λが異なることを利用して、虚像を求める。
本実施形態では、ビデオカメラやデジタルカメラなどカラー画像を取得する撮像装置にRGBの原色フィルタを採用している場合に対応する。通常撮像部103の前面に配置された原色フィルタによって色周波数領域を限定し、感光素子に入力する色情報を限定している。
図6にその典型的な原色フィルタの感度特性および、RGBのそれぞれで相関係数を算出した結果を示す。図に示すように原色フィルタが波長ごとに選択的に抽出されているため、RGBのそれぞれで求められる虚像212−1の位置x1r、x1g、x1bおよび虚像212−2の位置x2r、x2g、x2bは異なる位置に算出される。この特性を利用し、R、G、B間の比率を算出する。
図6に典型的な原色のRGBフィルタ104の光学感度特性の例が示されている。501は青領域の原色フィルタの感度曲線を示し、その波長λb=470nmにピークを持つ。同様に緑領域における原色フィルタの感度曲線502のピーク波長λg=550nm、赤領域における原色フィルタの感度曲線503のピーク波長λr=630nmと仮定する。
このとき、1m先に存在する対象物体201の虚像の位置は、R、G、Bのそれぞれのλに応じて撮像素子上に現れ、各々の虚像位置が異なる。その距離の比は虚像212−1のRGB成分と虚像212−2のRGB成分とで等しくなり、R、G、Bの各波長に応じ虚像位置に関して所定の変化が現れることを利用する。即ち、ノイズと真の虚像とを判別するため、これらの虚像が、実像211から等距離で、かつR、G、Bに対応する距離比となっているかについて判定する。この判定の結果がOKであれば、これらの虚像を利用して実像と各虚像との距離を算出する。もし判定の結果、NGであればこの虚像は利用しない。
またこの撮像装置は、実像検出部111を備え、輝度値の相関を利用して実像を抽出する。図7に実像211と虚像212−1、212−2の輝度値の相関を示す。ピーク600は実像211にある画素の相関値で、自身の相関のためその値は1.0となる。虚像212の相関値は1.0より小さいのは、輝度情報がRGBに分割されるからであり、また輝度値がカラーフィルタの範囲に分布するためその強度が下がる。ピーク601および611がRGBの青(B)のみの画像による虚像の位置を示し、601と611との距離は等しい。同様に緑(G)のみの画像によるピーク値を602、612とし、赤(R)のみの画像によるピーク値を603、613とする。
このような輝度の分布において、ピーク620をノイズによるピークがある場合でも、ピーク620に対応する分布が対となって存在しておらず、なおかつRGBの分布も一定でないことから、ピーク620は虚像によるピークではないことがわかる。従って、この場合、このノイズによるピーク620は、虚像として利用されない。
本実施形態では、カラーフィルタが配置されていることが前提となっているが、それに限らず感光素子そのものが周波数選択性を持っている場合でも適用可能であることは言うまでもない。
<実施形態4>
本実施形態では、撮像装置に回折格子を組み合わせた場合の特性を利用して実像のみを抽出する手法について説明する。
画像認識処理においてSIFT特徴や、Harris特徴に代表されるような輝度勾配特徴の検出を行う際にその奥行き情報は重要な手がかりとなる。特に近辺の特徴が同一対象の一部を示していると判断するセグメンテーションの処理などで、奥行き距離情報は重要な手がかりとなる。
そこで実施形態4における画像特徴量の奥行き距離を取得するための手法について説明する。輝度勾配特徴の性質としてコントラストの大きな変化が挙げられる。このとき実像211のコントラストは、図7の600のピークのグラフように表され、輝度勾配特徴を算出すると特徴量として抽出される。しかし、虚像の輝度勾配特徴は、601〜613のグラフように滑らかになるため、輝度勾配特徴抽出処理で抽出されないよう制御することが可能である。
図8に実施形態4の例を示す。図中の符号701は実像211を表わし、その周辺に虚像711が存在する。ここでは回折格子に直交スリットを使用しているため、上下左右に虚像が出現している。実像701中の矩形はHarris特徴によるコーナー点の特徴を表わしている。実像701からは輝度勾配特徴が検出されているが、虚像711では、コーナーとして検出されていないことがわかる。
この特性を利用して、実像701の画像特徴のみを画像中から抽出し、その特徴量の位置から前記実施例の手法を用いて虚像711の位置を算出することで701上に存在する輝度勾配特徴量の奥行き距離が算出できることがわかる。
<実施形態5>
実施形態5では、虚像212のコントラストが低い問題に対処する。このために、回折による虚像が対象性を持つことを利用し、S/N比を向上させる。
図6に示すように、実施形態3の手法を用いて算出した輝度値の相関係数に対して、実像211の位置(原点)を中心にして線対称に、対の虚像間の輝度値の相関係数を折り返し、加算平均処理を行うと、S/N比を向上することが可能となる。信号の平均値Raveとすると、
Figure 2011002387
となり、信号強度を変えずにノイズ信号のみを1/2にすることで、S/Nを2倍にすることが可能になる。ここで説明のため、1次のスリットを使用したが、直交スリットを使用することでS/N比を最大4倍にすることも可能である。
本実施形態では、相関値によるヒストグラムに対して加算平均処理を行った。しかしこれに限定するものではなく、原画像に対して、線対称に加算平均処理を施すことで原画像の虚像の信号強度を相対的に上げてから実施例の処理を施すことも可能なことは言うまでもない。
以上のように、実像211の位置を中心にして線対称に対の虚像間の輝度や相関値を折り返し、加算平均処理を行うと、S/N比を向上する効果を奏する。

Claims (7)

  1. 回折格子と撮像光学系を介して得られる対象物体の像を撮像部を用いて撮像することにより得られた回折画像を取得する取得手段と、
    前記回折画像の輝度勾配から実像を検出する実像検出手段と、
    前記回折画像において、前記検出された実像と、この実像に対応する虚像との距離を算出する第1算出手段と、
    前記第1算出手段で算出された距離を用いて、前記対象物体と前記回折格子との奥行き距離を算出する第2算出手段とを備えることを特徴とする画像処理装置。
  2. 前記第1算出手段は、前記実像の中心を中心とする第1ウィンドウと該第1ウィンドウを前記回折格子のスリットと垂直な方向へ移動させた第2ウィンドウとを有し、
    前記第1ウィンドウにおける輝度分布と前記第2ウィンドウにおける輝度分布との相関を計算し、該相関がピークとなる前記第2ウィンドウの中心位置を求め、前記第1ウィンドウの中心位置と前記相関がピークとなる第2ウィンドウの中心位置とに基づき前記実像と前記虚像との距離を決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1算出手段は、前記回折画像から得られる輝度勾配の大きい像に基づいて前記実像を抽出することを特徴とする請求項1に記載の画像処理装置。
  4. 前記第1算出手段は、前記回折画像において前記抽出された実像の中心に関して対称な位置に、前記実像に対応する虚像を検出したとき、前記実像と前記虚像との距離を算出することを特徴とする請求項3に記載の画像処理装置。
  5. 前記回折格子と前記撮像光学系との間にRGBフィルタを更に備え、
    前記第1算出手段は、前記回折画像において複数の虚像が、R、G、Bの各波長に対応する位置に出現し、前記実像と該複数の虚像の各々との距離の比が、該R、G、Bの各波長の比と等しくなるとき、前記実像と前記虚像との距離を算出することを特徴とする請求項1に記載の画像処理装置。
  6. 前記回折画像において対称に出現した虚像の対について、前記実像の中心位置を中心に折り返して該虚像の対の間の輝度値を加算し、前記加算された値の平均をとる加算平均手段を更に備えることを特徴とする請求項5に記載の画像処理装置。
  7. 回折格子と撮像光学系を介して得られる対象物体の像を撮像部を用いて撮像することにより得られた回折画像を取得する画像処理方法であって、
    実像検出手段が、前記回折画像の輝度勾配から実像を検出する実像検出工程と、
    第1算出手段が、前記回折画像において、前記検出された実像と、この実像に対応する虚像との距離を算出する第1算出工程と、
    第2算出手段が、前記算出された距離を用いて、前記対象物体と前記回折格子との奥行き距離を算出する第2算出工程と
    を備えることを特徴とする画像処理方法。
JP2009147005A 2009-06-19 2009-06-19 画像処理装置および画像処理方法 Active JP5500879B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009147005A JP5500879B2 (ja) 2009-06-19 2009-06-19 画像処理装置および画像処理方法
US12/796,185 US8456619B2 (en) 2009-06-19 2010-06-08 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009147005A JP5500879B2 (ja) 2009-06-19 2009-06-19 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2011002387A true JP2011002387A (ja) 2011-01-06
JP2011002387A5 JP2011002387A5 (ja) 2012-08-02
JP5500879B2 JP5500879B2 (ja) 2014-05-21

Family

ID=43354424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009147005A Active JP5500879B2 (ja) 2009-06-19 2009-06-19 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US8456619B2 (ja)
JP (1) JP5500879B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063463A1 (ja) * 2010-11-09 2012-05-18 パナソニック株式会社 距離計測装置および距離計測方法
WO2013179538A1 (ja) * 2012-05-28 2013-12-05 パナソニック株式会社 奥行き推定撮像装置
JP2014074633A (ja) * 2012-10-04 2014-04-24 Hitachi Ltd 形状計測方法及び装置
US9565420B2 (en) 2012-05-28 2017-02-07 Panasonic Intellectual Property Management Co., Ltd. Image processor, image capture device, image processing method and program
JP2021506168A (ja) * 2017-12-05 2021-02-18 エアリー3ディー インコーポレイティドAiry3D Inc. 奥行取得のためのライトフィールド画像処理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013210254A (ja) * 2012-03-30 2013-10-10 Canon Inc 三次元計測装置、三次元計測方法及び三次元計測プログラム
US10922829B2 (en) * 2018-06-06 2021-02-16 Qualcomm Incorporated Zero order light removal in active sensing systems

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02502398A (ja) * 1987-01-13 1990-08-02 デヴイット,トマス 回折による距離測定
JPH08105709A (ja) * 1994-10-03 1996-04-23 Ricoh Co Ltd 光学式センサ
JP2004069314A (ja) * 2002-08-01 2004-03-04 Olympus Corp 焦点距離測定装置
JP2008077741A (ja) * 2006-09-20 2008-04-03 Victor Co Of Japan Ltd 回折格子の測定装置及び回折格子の測定方法
JP2008089402A (ja) * 2006-10-02 2008-04-17 Konica Minolta Holdings Inc 情報処理システム、プログラムおよび情報処理方法
JP2008123141A (ja) * 2006-11-09 2008-05-29 Yamatake Corp 対応点探索方法および3次元位置計測方法
JP2008151706A (ja) * 2006-12-19 2008-07-03 Nikon Corp 画像処理方法および画像処理装置
JP2008256639A (ja) * 2007-04-09 2008-10-23 Nikon Corp 位置測定装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6603561B2 (en) * 2001-02-20 2003-08-05 Thomas D. Ditto Chromatic diffraction range finder

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02502398A (ja) * 1987-01-13 1990-08-02 デヴイット,トマス 回折による距離測定
JPH08105709A (ja) * 1994-10-03 1996-04-23 Ricoh Co Ltd 光学式センサ
JP2004069314A (ja) * 2002-08-01 2004-03-04 Olympus Corp 焦点距離測定装置
JP2008077741A (ja) * 2006-09-20 2008-04-03 Victor Co Of Japan Ltd 回折格子の測定装置及び回折格子の測定方法
JP2008089402A (ja) * 2006-10-02 2008-04-17 Konica Minolta Holdings Inc 情報処理システム、プログラムおよび情報処理方法
JP2008123141A (ja) * 2006-11-09 2008-05-29 Yamatake Corp 対応点探索方法および3次元位置計測方法
JP2008151706A (ja) * 2006-12-19 2008-07-03 Nikon Corp 画像処理方法および画像処理装置
JP2008256639A (ja) * 2007-04-09 2008-10-23 Nikon Corp 位置測定装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012063463A1 (ja) * 2010-11-09 2012-05-18 パナソニック株式会社 距離計測装置および距離計測方法
US9121702B2 (en) 2010-11-09 2015-09-01 Panasonic Corporation Distance measurement apparatus and distance measurement method
WO2013179538A1 (ja) * 2012-05-28 2013-12-05 パナソニック株式会社 奥行き推定撮像装置
JPWO2013179538A1 (ja) * 2012-05-28 2016-01-18 パナソニックIpマネジメント株式会社 奥行き推定撮像装置
US9250065B2 (en) 2012-05-28 2016-02-02 Panasonic Intellectual Property Management Co., Ltd. Depth estimating image capture device
US9565420B2 (en) 2012-05-28 2017-02-07 Panasonic Intellectual Property Management Co., Ltd. Image processor, image capture device, image processing method and program
JP2014074633A (ja) * 2012-10-04 2014-04-24 Hitachi Ltd 形状計測方法及び装置
JP2021506168A (ja) * 2017-12-05 2021-02-18 エアリー3ディー インコーポレイティドAiry3D Inc. 奥行取得のためのライトフィールド画像処理方法
JP7245835B2 (ja) 2017-12-05 2023-03-24 エアリー3ディー インコーポレイティド 奥行取得のためのライトフィールド画像処理方法

Also Published As

Publication number Publication date
JP5500879B2 (ja) 2014-05-21
US8456619B2 (en) 2013-06-04
US20100322481A1 (en) 2010-12-23

Similar Documents

Publication Publication Date Title
JP5500879B2 (ja) 画像処理装置および画像処理方法
US10455218B2 (en) Systems and methods for estimating depth using stereo array cameras
US9633442B2 (en) Array cameras including an array camera module augmented with a separate camera
US11037310B2 (en) Image processing device, image processing method, and image processing program
JP6585006B2 (ja) 撮影装置および車両
JP6509027B2 (ja) 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム
JP5173665B2 (ja) 画像撮影装置およびその距離演算方法と合焦画像取得方法
JP6172978B2 (ja) 撮像装置、撮像システム、信号処理装置、プログラム、および、記憶媒体
US20140168424A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
US9438887B2 (en) Depth measurement apparatus and controlling method thereof
US9759549B2 (en) Distance detecting device
WO2019124040A1 (ja) 測距カメラ
JP2017150878A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2011149931A (ja) 距離画像取得装置
Kim et al. Aperture-encoded snapshot hyperspectral imaging with a lensless camera
JP2003346130A (ja) 3次元情報処理装置および3次元情報処理方法
RU2734070C1 (ru) Способ измерения пространственного расстояния между малоразмерными объектами
JP3564383B2 (ja) 3次元動画入力装置
TWI668411B (zh) 位置檢測方法及其電腦程式產品
JP6675510B2 (ja) 被写体追跡装置およびその制御方法、画像処理装置およびその制御方法、撮像装置およびその制御方法、プログラム
KR101915883B1 (ko) 만화경을 이용한 초분광 영상 관측 방법 및 시스템
WO2019012660A1 (ja) 画像処理装置およびライトフィールド撮像装置
US10530985B2 (en) Image capturing apparatus, image capturing system, method of controlling image capturing apparatus, and non-transitory computer-readable storage medium
Ariff et al. A study of near-infrared (NIR) filter for surveillance application
JP6153424B2 (ja) 焦点検出装置および撮像装置並びに焦点検出方法、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140311

R151 Written notification of patent or utility model registration

Ref document number: 5500879

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151