JP6354907B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6354907B2
JP6354907B2 JP2017536901A JP2017536901A JP6354907B2 JP 6354907 B2 JP6354907 B2 JP 6354907B2 JP 2017536901 A JP2017536901 A JP 2017536901A JP 2017536901 A JP2017536901 A JP 2017536901A JP 6354907 B2 JP6354907 B2 JP 6354907B2
Authority
JP
Japan
Prior art keywords
image
distance information
distance
image processing
amplitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017536901A
Other languages
English (en)
Other versions
JPWO2017149565A1 (ja
Inventor
カン グエン
カン グエン
河村 岳
岳 河村
慎作 日浦
慎作 日浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2017149565A1 publication Critical patent/JPWO2017149565A1/ja
Application granted granted Critical
Publication of JP6354907B2 publication Critical patent/JP6354907B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/62Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding by frequency transforming in three dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32154Transform domain methods
    • H04N1/3216Transform domain methods using Fourier transforms

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本開示は、合焦位置の異なる複数の画像を利用して被写体までの距離情報を算出する画像処理装置、および、画像処理方法に関する。
画像撮影装置などにおいて、ある3次元シーンの奥行き、即ち画像撮影装置などから被写体までの距離情報を非接触で算出するための様々な手法が提案されている。それらを大別すると、能動的手法と受動的手法がある。能動的手法では、赤外線や超音波、レーザーなどを被写体に照射し、反射波が戻ってくるまでの時間や反射波の角度などに基づいて被写体までの距離情報を算出する。受動的手法では、被写体の画像に基づいて被写体までの距離情報を算出する。特にカメラにおいては赤外線などを照射するための装置を必要としない受動的手法が広く用いられている。
受動的手法にも多くの手法が提案されている。その一つとして、被写体までの距離によって大きさや形状が変化する、ぼけの情報に基づいて被写体までの距離情報を算出するDepth from Defocus(以下DFDと表記)と呼ばれる手法がある。DFDには、複数のカメラを必要としない、少数の画像を利用して被写体までの距離情報の算出が可能である、などの特徴がある。
以下、DFDの原理について簡単に説明する。
DFDは、合焦位置の異なる複数の画像から、ぼけの情報に基づいて被写体までの距離情報を算出する手法である。ぼけの情報を含んだ撮影画像(以下ぼけ画像と表記)は、レンズによるぼけのない状態を表す全焦点画像に、被写体までの距離の関数である点像分布関数(Point Spread Function)を畳み込んだ画像となる。点像分布関数(以下PSFと表記)は被写体までの距離の関数であるため、DFDではぼけ画像からぼけの情報を検出することによって、被写体までの距離情報を算出することができる。ただし、このとき、全焦点画像と被写体までの距離情報は未知である。ぼけ画像一枚に対して、ぼけ画像、全焦点画像、被写体までの距離情報に関する式が1つ成立するため、合焦位置の異なるぼけ画像を新たに撮影し、新たな式を得る。得られた複数の式を解き、被写体までの距離情報を算出する。式の獲得の方法や式を解く方法等に関して、特許文献1をはじめとして、DFDに対する様々な提案が存在する。
特開平11−337313号公報
しかしながら、合焦位置の異なる複数の画像を得ようとする場合、レンズ系のピントを変化させて複数の画像を得るため、それぞれの画像を得る時間に時間差が発生する。この時間差内に被写体の位置や形状などが大きく変わる場合、複数の画像間の被写体に位置ずれが発生するため、被写体までの距離情報を精度良く算出することが困難な場合がある。すなわち、動きの速い被写体の静止画や動画の撮影に従来のDFDを用いることが困難な場合がある。
本開示は、動きの速い被写体の静止画や動画の撮影において被写体までの距離情報を精度良く算出することができる画像処理装置および画像処理方法を提供する。
本開示における画像処理装置は、合焦位置の異なる複数の画像を利用して被写体までの距離情報を算出する画像処理装置であって、周波数変換部と、振幅抽出部と、距離情報算出部とを備える。周波数変換部は、画像を周波数に変換する。振幅抽出部は、周波数に変換して得られた係数の位相成分と振幅成分のうち振幅成分を抽出する。距離情報算出部は、係数の位相成分と振幅成分のうち振幅抽出部で抽出された振幅成分のみ、および、レンズのぼけデータを利用して距離情報を算出する。
また、本開示における画像処理方法は、合焦位置の異なる複数の画像を利用して被写体までの距離情報を算出する画像処理方法であって、画像を周波数に変換し、周波数に変換して得られた係数の位相成分と振幅成分のうち振幅成分を抽出し、係数の位相成分と振幅成分のうち抽出された振幅成分のみ、および、レンズのぼけデータを利用して距離情報を算出する。
本開示における画像処理装置および画像処理方法は、動きの速い被写体の静止画や動画の撮影において被写体までの距離情報を精度良く算出することが可能となる。
図1は、実施の形態1における画像処理装置の機能構成を示すブロック図である。 図2は、実施の形態1における距離情報算出部の機能構成を示すブロック図である。 図3は、従来の手法により算出された距離情報と本開示の手法により算出された距離情報との位置ずれに対する精度の相違を示す図である。 図4は、実施の形態2における画像処理装置の機能構成を示すブロック図である。 図5は、実施の形態3における距離情報算出部の機能構成を示すブロック図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
(実施の形態1)
以下、図1を用いて、実施の形態1を説明する。
図1は、実施の形態1における画像処理装置の機能構成を示すブロック図である。
本実施の形態における画像処理装置100は、合焦位置の異なる複数の画像を利用して被写体までの距離情報を算出する装置である。図1に示すように、画像処理装置100は、周波数変換部110と、振幅抽出部120と、距離情報算出部130とを備える。
周波数変換部110は、画像を周波数に変換する処理部である。つまり、周波数変換部110は、合焦位置の異なる複数の画像に対して、画像を画像空間から周波数空間に変換している。画像を画像空間から周波数空間に変換することで、距離情報算出の精度を向上させることが可能となる。本実施の形態の場合、周波数変換部110は、複数の画像を画像空間から周波数空間に変換する。ここでは、複数の画像として、例えば合焦位置の異なる第一画像と第二画像が周波数変換部110に入力されたものとして説明する。なお、複数の画像は、パラレルに入力されてもシリアルに入力されてもかまわない。また、周波数変換部110が画像を画像空間から周波数空間に変換する方法に特に制限はなく、例えば、FFT(Fast Fourie Transform)や、DFT(Discrete Fourie Transform)などが挙示される。
振幅抽出部120は、周波数変換部110で周波数に変換して得られた係数の位相成分と振幅成分のうち振幅成分を抽出する処理部である。本実施の形態の場合、振幅抽出部120は、周波数空間に変換して得られた第一画像と第二画像の係数の振幅成分のみを抽出する。具体的には、周波数空間に変換して得られた係数は、複素数になっているので、振幅抽出部120は、係数の絶対値を算出することによって、振幅成分のみを抽出している。なお、周波数空間に変換して得られた係数は、変換係数ともいわれる。本実施の形態の場合、振幅抽出部120は、第一画像と第二画像のそれぞれの振幅成分である第一振幅成分と第二振幅成分を抽出する。
距離情報算出部130は、係数の位相成分と振幅成分のうち振幅抽出部120で抽出された振幅成分のみ、および、レンズのぼけデータを利用して被写体までの距離情報を算出する処理部である。
ここで、レンズのぼけデータとは、画像を取得したカメラのレンズや絞りなどの光学系の構成によって決定される光学伝達関数(Optical Transfer Function)である。以下、光学伝達関数をOTFと表記する。
図2は、本実施の形態における距離情報算出部の機能構成を示すブロック図である。
図2に示すように、距離情報算出部130は、コスト算出部131と距離決定部132とを備えている。
コスト算出部131は、振幅抽出部120で抽出された第一振幅成分、第二振幅成分、および、レンズのぼけデータを利用してそれぞれの画像の各画素に対して、想定される距離のコストを算出する処理部である。
本実施の形態では、距離情報を算出する手法として、DFDを利用する。また、レンズのぼけデータとしてOTFを利用する。DFDは画像において、各画素がどの距離に対応するかを推定するために、例えば、想定される複数の距離dに対して距離のコスト(Cost(d))を算出する。距離のコストを算出する式は下記式1で示す。
Figure 0006354907
なお、式1は、画像ずれを考慮したデプス算出式である下記式2に基づき算出される。ここで、本開示は、第一画像、および、第二画像のいずれか一方に、画像ずれを作用させることにより、位相成分を式中から消去することができる。つまり、振幅成分のみで解を得ることが可能となる。当該画像ずれを作用させること自体、および、画像ずれをデプス算出式に導入することは新しい知見である。従来では、画像ずれを作用させることがないため、デプス算出式に画像ずれを導入することはなく、結果として、フーリエ変換を行っても位相成分が式中に残存し、画像ずれがある場合はデプスが精度よく算出できなかった。
Figure 0006354907
距離決定部132は、コスト算出部131で算出された距離のコストを利用して、各画素に対して被写体までの距離情報を決定する。ここでは、各画素の想定される複数の距離dのうち、各画素において距離のコストが最も小さくなる距離dをその画素の距離情報として出力する。すなわち、距離情報算出部130は、画像の各画素に対して被写体までの距離情報を算出する。
図3は、従来の手法により算出された距離情報と本開示の手法により算出された距離情報との位置ずれに対する精度の相違を示す図である。
16段階に距離が異なる被写体を撮像した第一画像と、縦(図3中Y)横(図3中X)に被写体がずれた(図3中数字でずれ量を示す。単位はピクセル数)第二画像とを用い、従来の手法で算出された距離情報と本開示における手法で算出された距離情報とを図3は視覚的に示している。図3に示すように、従来の手法では画像が1ピクセルずれただけでも距離情報は被写体までの距離を表していないのに対し、本開示の手法では、画素が縦横に1ピクセルずれても距離情報は正確に被写体までの距離を表している。
この結果が示すように、従来の手法では、サブピクセルまで正確に位置合わせをしないと被写体までの距離情報を精度良く算出できないことを示している。これに対して、本開示の手法では、ラフな位置合わせであっても被写体までの距離情報を精度良く算出することが可能であることを示している。また、従来の手法では、第一画像の取得から第二画像の取得までの間に被写体が1ピクセル程度移動している場合は、被写体までの距離情報を精度良く算出できない。これに対して、本開示の手法では、第一画像の取得から第二画像の取得までの間に被写体が1ピクセル程度移動しても位置補正をすることなく被写体までの距離情報を精度良く算出することが可能となる。
以上のようにして、振幅成分のみを用いて被写体までの距離情報を算出することにより、演算コストを抑えながら、高速に距離情報を算出することが可能となる。さらに、本開示の画像処理方法では、合焦位置の異なる複数の画像間に位置ずれがあった場合であっても、画像を画像空間から周波数空間に変換し、位置情報を含まない振幅成分のみを用いて距離情報の算出を行う。そのため、位置ずれが所定範囲内であれば精度良く距離情報を算出することが可能となる。従って、被写体が高速で移動する静止画の撮影や動画の撮影の場合にも本開示を適用することが可能となる。
(実施の形態2)
以下、図4を用いて、実施の形態2を説明する。
図4は、実施の形態2における画像処理装置の機能構成を示すブロック図である。なお、本実施の形態において、実施の形態1と同じ構成については同じ符号を用い、説明を省略する。
本実施の形態では、距離情報算出の精度をさらに向上させるために、異なる画像間の位置ずれを補正してから距離情報の算出を行う。
本実施の形態における画像処理装置100は、領域分割部140と、領域探索部150とをさらに備える。領域分割部140は、第一画像を複数の第一小領域に分割する処理部である。分割する第一小領域の大きさは特に限定されるものではなく、例えば4ピクセル×4ピクセルの第一小領域に分割してもかまわない。
領域探索部150は、第一画像以外の他の画像について、分割された複数の第一小領域ごとに対応する第二小領域を探索する処理部である。つまり領域探索部150は、第一画像の第一小領域の画像のそれぞれについて第二画像内において対応する第二小領域の画像を探索し位置合わせを行うことによって、画像間の位置ずれを補正するものである。
具体的には、領域分割部140で分割された第一画像の各第一小領域に対応する画像を用いて、第二画像内に対応する画像を探索し、似通った画像の領域を第二小領域とする。探索アルゴリズムに関しては、特に限定されるものではないが、本実施の形態では、探索アルゴリズムとしてブロックマッチングを利用する。なお、探索アルゴリズムとしては、画像間の対応する領域を探索できれば、他の方法を利用しても良い。
ブロックマッチングは、第一画像の各第一小領域に対して、第二画像の中の対応する第二小領域を探索するものである。探索は、第一画像の第一小領域と第二画像の各領域の差異を算出し、差異が最も小さい領域を第二小領域としている。差異とは例えばその領域に対する輝度差の総和などに基づいて算出される。
本実施の形態における周波数変換部110は、第一小領域の画像、および、対応する第二小領域の画像を周波数に変換する。振幅抽出部120は、第一小領域、および、対応する第二小領域である、小領域ごとに振幅成分を抽出する。すなわち、振幅抽出部120は、第一小領域および対応する第二小領域それぞれに対して振幅成分を抽出する。距離情報算出部130は、小領域ごとに被写体までの距離情報を算出する。すなわち、距離情報算出部130は、対応する第二小領域と位置合わせされた第一小領域ごとに被写体までの距離情報を算出する。
以上のように、本実施の形態において、複数の画像のうち第一画像を第一小領域に分割し、第一小領域ごとに他の画像と位置合わせを行うことによって、画像間の位置ずれを細かく補正することができる。そのため、より精度良く被写体までの距離情報を算出することができる。ただし、本開示においては、複数の画像間に多少の位置ずれが発生していても精度良く距離情報を算出することができるため、画像間の位置合わせを荒くすることができる。例えば、通常のDFDでは、エッジの弱い領域については0.1ピクセル単位まで位置合わせを行わないと精度良く距離情報を算出することができない。これに対して、本開示の場合1ピクセル単位程度の位置合わせでも精度良く距離情報を算出することが可能となる。
(実施の形態3)
以下、図5を用いて、実施の形態3を説明する。
図5は、本実施の形態における距離情報算出部の機能構成を示すブロック図である。
図5に示すように距離情報算出部130は、コスト算出部131に代えて代表コスト算出部133を備え、距離決定部132に代えて代表距離決定部134を備えている。
代表コスト算出部133は、第一画像の第一小領域の振幅成分と第二画像の第二小領域の振幅成分と入力のレンズのぼけデータを利用して小領域ごとに、想定される距離の代表コストを算出する。すなわち、代表コスト算出部133は、対応する第二小領域と位置合わせされた第一小領域ごとに、想定される距離の代表コストを算出する。距離の代表コストは以下の式3で算出される。
Figure 0006354907
距離の代表コストの算出手法は特に限定されるものではないが、本実施の形態では、ひとつの小領域に対して、ひとつの距離の代表コストを算出している。そして、代表距離決定部134では、代表コスト算出部133で算出された距離の代表コストを用いて小領域ごとに代表距離情報を決定する。具体的には、代表コスト算出部133は、周波数係数値を合算し、代表距離決定部134が代表値として一つの小領域に一つの代表距離情報を算出する。
以上のように、本実施の形態においては、ピクセル単位ではなく小領域ごとに代表距離情報を算出することによって、演算コスト、および、使用メモリを大幅に削減することができる。そのため、処理の高速化が実現でき、装置コストの削減も可能となる。
本開示による具体的な効果としては、例えば以下のようなものがある。
合焦位置の異なる複数の画像を撮影している間、カメラのぶれや被写体の移動によって、複数の画像間の被写体に位置ずれが発生した場合は、被写体までの距離情報が精度良く求められない場合がある。この場合、距離情報を算出する前に位置合わせ処理が必要となる。しかし、位置合わせ処理は、画像の特徴やノイズなどの影響によって、正確に位置合わせができない場合や、正確に位置合わせをするために長時間を要する場合がある。
本開示は、異なるタイミングで撮影された複数の画像を利用して被写体までの距離情報を算出する場合において、画像間の位置合わせをしなくても、または、ラフな位置合わせであっても精度良く被写体までの距離情報を算出することができる。
以上のように、本開示において開示する技術の例示として、実施の形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態に対して本開示の主旨、すなわち、請求の範囲に記載される文言が示す意味を逸脱しない範囲で当業者が思いつく各種変形を施して得られる変形例も本開示に含まれる。
例えば、画像に対して、一部分の画素のみにおける距離情報が必要な場合は、その一部分の画素のみにおける距離情報を算出してもかまわない。具体的に例えば、全ての第一小領域について探索を行う必要はなく、着目する第一小領域について探索を行い、距離情報を算出してもかまわない。
また、分割する各第一小領域は互いに完全に独立していなくてもよく、一部重なり合って(オーバーラップして)いてもかまわない。
また、第一小領域は正方形ばかりでなく、任意の形状を選択しうる。
また、実施の形態1〜3では、入力としてOTFを利用するが、一般的にPSFをフーリエ変換するとOTFになるため、PSFを入力にして、内部でフーリエ変換を行いOTFに変換しても良い。
また、画像処理装置100が備える各画像処理方法をコンピュータに実行させるためのプログラム、および、そのプログラムが記録された記録媒体も本開示の範囲内である。
本開示は、合焦位置の異なる複数の画像を利用して被写体までの距離情報を算出する画像処理装置、および、画像処理方法に適用可能である。具体的には、デジタルスチルカメラ、デジタルムービーカメラ、カメラ機能付き携帯電話機、スマートフォンなどに適用可能である。
100 画像処理装置
110 周波数変換部
120 振幅抽出部
130 距離情報算出部
131 コスト算出部
132 距離決定部
133 代表コスト算出部
134 代表距離決定部
140 領域分割部
150 領域探索部

Claims (6)

  1. 合焦位置の異なる複数の画像を利用して被写体までの距離情報を算出する画像処理装置であって、
    前記画像を周波数に変換する周波数変換部と、
    周波数に変換して得られた係数の位相成分と振幅成分のうち振幅成分を抽出する振幅抽出部と、
    前記係数の位相成分と振幅成分のうち前記振幅抽出部で抽出された振幅成分のみ、および、レンズのぼけデータを利用して前記距離情報を算出する距離情報算出部とを備える
    画像処理装置。
  2. 前記距離情報算出部は、
    前記振幅抽出部で抽出された振幅成分、および、レンズのぼけデータを利用して前記画像の想定される距離のコストを算出するコスト算出部と、
    前記コスト算出部で算出された前記距離のコストを利用して、前記距離情報を決定する距離決定部とを備える
    請求項1に記載の画像処理装置。
  3. さらに、
    複数の前記画像の少なくとも一つを複数の第一小領域に分割する領域分割部と、
    他の前記画像について、複数の前記第一小領域ごとに対応する第二小領域を探索する領域探索部とを備え
    前記周波数変換部は、前記第一小領域の画像、および、対応する前記第二小領域の画像を周波数に変換し、
    前記振幅抽出部は、前記第一小領域、および、対応する前記第二小領域である、小領域ごとに振幅成分を抽出し、
    前記距離情報算出部は、前記小領域ごとに前記距離情報を算出する
    請求項1に記載の画像処理装置。
  4. 前記距離情報算出部は、前記画像の各画素に対して前記距離情報を算出する
    請求項1に記載の画像処理装置。
  5. 前記コスト算出部は、前記小領域ごとに想定される距離の代表コストを算出し、
    前記距離決定部は、前記コスト算出部で算出された前記距離の代表コストを用いて前記小領域ごとの代表距離情報を決定する
    請求項3に記載の画像処理装置。
  6. 合焦位置の異なる複数の画像を利用して被写体までの距離情報を算出する画像処理方法であって、
    前記画像を周波数に変換し、
    周波数に変換して得られた係数の位相成分と振幅成分のうち振幅成分を抽出し、
    前記係数の位相成分と振幅成分のうち抽出された振幅成分のみ、および、レンズのぼけデータを利用して前記距離情報を算出する
    画像処理方法。
JP2017536901A 2016-02-29 2016-06-21 画像処理装置および画像処理方法 Active JP6354907B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016038438 2016-02-29
JP2016038438 2016-02-29
PCT/JP2016/002973 WO2017149565A1 (ja) 2016-02-29 2016-06-21 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2017149565A1 JPWO2017149565A1 (ja) 2018-03-08
JP6354907B2 true JP6354907B2 (ja) 2018-07-11

Family

ID=59743529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017536901A Active JP6354907B2 (ja) 2016-02-29 2016-06-21 画像処理装置および画像処理方法

Country Status (5)

Country Link
US (1) US10455139B2 (ja)
EP (1) EP3425331A4 (ja)
JP (1) JP6354907B2 (ja)
CN (1) CN107407560B (ja)
WO (1) WO2017149565A1 (ja)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2963990B1 (ja) 1998-05-25 1999-10-18 京都大学長 距離計測装置及び方法並びに画像復元装置及び方法
JP5459768B2 (ja) * 2009-10-28 2014-04-02 京セラ株式会社 被写体距離推定装置
JP2011149931A (ja) * 2009-12-21 2011-08-04 Ricoh Co Ltd 距離画像取得装置
KR101675112B1 (ko) * 2010-01-21 2016-11-22 삼성전자주식회사 거리 정보 추출 방법 및 상기 방법을 채용한 광학 장치
US8330852B2 (en) * 2010-04-30 2012-12-11 Eastman Kodak Company Range measurement using symmetric coded apertures
US8773570B2 (en) * 2010-06-17 2014-07-08 Panasonic Corporation Image processing apparatus and image processing method
US20130010077A1 (en) * 2011-01-27 2013-01-10 Khang Nguyen Three-dimensional image capturing apparatus and three-dimensional image capturing method
US9047681B2 (en) * 2011-07-07 2015-06-02 Samsung Electronics Co., Ltd. Depth image conversion apparatus and method
JP5830295B2 (ja) * 2011-07-29 2015-12-09 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP5979553B2 (ja) * 2011-08-29 2016-08-24 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置および画像処理方法
AU2011224051B2 (en) * 2011-09-14 2014-05-01 Canon Kabushiki Kaisha Determining a depth map from images of a scene
DE102013110615B3 (de) * 2013-09-26 2014-11-27 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
JP6272112B2 (ja) * 2014-03-31 2018-01-31 キヤノン株式会社 距離検出装置、撮像装置、距離検出方法及び視差量検出装置

Also Published As

Publication number Publication date
US10455139B2 (en) 2019-10-22
CN107407560B (zh) 2019-09-24
JPWO2017149565A1 (ja) 2018-03-08
CN107407560A (zh) 2017-11-28
EP3425331A1 (en) 2019-01-09
WO2017149565A1 (ja) 2017-09-08
EP3425331A4 (en) 2019-02-27
US20170332007A1 (en) 2017-11-16

Similar Documents

Publication Publication Date Title
JP6115781B2 (ja) 画像処理装置及び画像処理方法
KR102563750B1 (ko) 영상 블러링 제거 방법 및 장치
US8942506B2 (en) Image processing apparatus, image processing method, and program
US9508153B2 (en) Distance measurement apparatus, imaging apparatus, distance measurement method, and program
US20070189750A1 (en) Method of and apparatus for simultaneously capturing and generating multiple blurred images
JP4941565B2 (ja) 対応点探索装置および対応点探索方法
US20150178595A1 (en) Image processing apparatus, imaging apparatus, image processing method and program
JP5776771B2 (ja) 対応点探索装置、および距離測定装置
US20170069072A1 (en) Image processing apparatus, image processing system, and image processing method
US9413952B2 (en) Image processing apparatus, distance measuring apparatus, imaging apparatus, and image processing method
KR101879261B1 (ko) 거리검출 장치, 촬상 장치, 및 거리검출 방법
TWI528783B (zh) 產生深度影像之方法及其系統及電腦程式產品
US11348271B2 (en) Image processing device and three-dimensional measuring system
JP6494402B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP6354907B2 (ja) 画像処理装置および画像処理方法
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
US20130286241A1 (en) Low-cost roto-translational video stabilization
JP2017034616A (ja) 画像処理装置及びその制御方法
JP6590639B2 (ja) 距離検出装置、撮像装置、および距離検出方法
JP2019211332A (ja) 情報処理装置、情報処理方法及びプログラム
JP2016076838A (ja) 画像処理装置及び画像処理装置の制御方法
US20170345175A1 (en) Depth extracting method and depth extracing camera system using focuse measure ratio
JP2023112222A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6292947B2 (ja) 画像処理装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180528

R150 Certificate of patent or registration of utility model

Ref document number: 6354907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150