JP2015072155A - 画像処理装置、撮像装置及び画像処理方法 - Google Patents

画像処理装置、撮像装置及び画像処理方法 Download PDF

Info

Publication number
JP2015072155A
JP2015072155A JP2013207017A JP2013207017A JP2015072155A JP 2015072155 A JP2015072155 A JP 2015072155A JP 2013207017 A JP2013207017 A JP 2013207017A JP 2013207017 A JP2013207017 A JP 2013207017A JP 2015072155 A JP2015072155 A JP 2015072155A
Authority
JP
Japan
Prior art keywords
distance information
image
image processing
distance
frequency component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013207017A
Other languages
English (en)
Other versions
JP6429444B2 (ja
Inventor
石原 圭一郎
Keiichiro Ishihara
圭一郎 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013207017A priority Critical patent/JP6429444B2/ja
Priority to US14/500,789 priority patent/US9264606B2/en
Publication of JP2015072155A publication Critical patent/JP2015072155A/ja
Priority to US14/993,705 priority patent/US9781344B2/en
Application granted granted Critical
Publication of JP6429444B2 publication Critical patent/JP6429444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/38Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals measured at different points on the optical axis, e.g. focussing on two or more planes and comparing image data
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/10Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens
    • G02B7/102Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification by relative axial movement of several lenses, e.g. of varifocal objective lens controlled by a microcomputer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/611Correction of chromatic aberration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • H04N25/673Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources
    • H04N25/674Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources based on the scene itself, e.g. defocusing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Focusing (AREA)

Abstract

【課題】 距離情報を精度よく取得する。
【解決手段】 本発明に係る画像処理装置は、ぼけ方の異なる複数の画像から被写体の距離情報を取得する画像処理装置13であって、撮像光学系10で撮影された、複数の画像のぼけ方の違いから被写体の距離情報を算出する算出部133と、撮像光学系における像高に応じた補正データを用いて、距離情報を補正する補正部134と、を有する。
【選択図】 図1

Description

本発明は、撮影画像から被写体の距離情報を取得する画像処理装置、及びそれを備える撮像装置に関する。また、撮影画像から被写体の距離情報を取得する画像処理方法に関する。
撮像装置によって取得された二次元画像から画像中の被写体の奥行方向の距離を取得する方法として特許文献1のようなDepth from Defocus(DFD)方式が提案されている。DFD方式では撮像光学系の撮影条件(撮影パラメータともいう)を制御することでぼけ方の異なる複数枚の画像を取得する。そして、測距画素およびその周辺画素を用いて複数画像間でのぼけの大きさやぼけの相関量を算出する。ぼけの大きさやぼけの相関量は撮像光学系の合焦位置から被写体までの距離に応じて変化するため、その相関量を用いることで撮像光学系の合焦位置から被写体までの距離を取得する。
特許文献2は、DFD方式を用いて処理対象領域毎に演算したぼけの相関量から被写体距離を算出する測距装置であって、処理対象領域内の画素毎に画素単位のぼけの相関量に重み係数を設定し、重み係数に基づいてぼけの相関量の加重平均を行うものである。
特開平01−167610号公報 特開2010−016743号公報
一般的な撮像装置の撮像光学系では像面湾曲、球面収差、コマ収差、軸上色収差などの収差があり、像高に応じてフォーカス位置が異なっている。DFD方式などのぼけの変化を用いた測距方法では、撮像光学系のフォーカス位置を基準とした距離情報が得られるため、像高に応じてフォーカス位置が異なると距離情報にも像高に応じた誤差が生じる。
特許文献1及び2では、撮像光学系が有する像高に応じたフォーカス位置のずれによって距離情報の誤差が生じることについては言及されていない。
そこで本発明では、像高に応じてフォーカス位置が異なることを考慮し、精度良く被写体の距離情報を取得することを目的としている。
本発明に係る画像処理装置は、ぼけ方の異なる複数の画像から被写体の距離情報を取得する画像処理装置であって、撮像光学系で撮影された、複数の画像のぼけ方の違いから被写体の距離情報を算出する算出部と、前記撮像光学系における像高に応じた補正データを用いて、前記距離情報を補正する補正部と、を有することを特徴としている。
さらに本発明に係る画像処理方法は、撮像光学系で撮影された、複数の画像のぼけ方の違いから被写体の距離情報を算出する算出工程と、前記撮像光学系における像高に応じた補正データを用いて、前記距離情報を補正する補正工程と、を有することを特徴としている。
本発明は、距離情報を精度良く取得することができる。
実施形態1に係る画像処理装置を有する撮像装置の一例を示す模式図 画像の鮮鋭度と距離情報の説明するための図 実施形態1に係る画像処理方法の一例のフローチャート 実施形態1に係る距離情報の補正データの取得装置を示す模式図及び距離情報の補正データの取得方法の一例のフローチャート 周波数帯域と距離情報のデフォーカス特性との関係を説明するための図 実施例形態2に係る距離情報の補正データの取得方法の一例のフローチャート 実施形態2に係る画像処理装置を有する撮像装置の他の例を示す模式図 実施形態3に係る画像処理装置を有する撮像装置の一例を示す模式図 軸上色収差を説明するための光路図 軸上色収差と距離情報のデフォーカス特性との関係を説明するための図 倍率色収差を説明するための光路図 実施形態3に係る画像処理方法の一例のフローチャート
本発明は、撮影した画像から距離情報を算出する画像処理装置において、その改良を提案するものである。特には、撮影条件を変えて撮影した2枚以上の画像を用い、それらの画像のぼけ方の違いに基づいて被写体の奥行方向の距離情報を算出するための技術(DFD方式)に関し、その改良を提案するものである。本明細書では、撮像装置の撮像光学系の収差等が生じた場合でも、DFD方式により被写体の距離情報を精度良く算出する技術を提案する。係る技術は、例えば、デジタルカメラやデジタルビデオカメラ、監視カメラ等の撮像装置に搭載される画像処理装置(画像処理エンジン)の一機能として実装されうる。そして、撮影画像に対する各種画像処理(測距、距離マップ作成、被写体切出し、背景ぼかし、ぼけ効果付与、美肌処理、超解像処理等)に利用される。
本発明における距離情報とは、2画像のフォーカス位置の中間位置から被写体までの相対的な距離、もしくはどちらか1画像のフォーカス位置から被写体までの相対的な距離、撮影時の撮像装置から被写体までの絶対距離であってもよい。なお、絶対距離あるいは相対距離は、像面側での距離、物体側での距離のどちらであってもよい。また、距離は、実空間の距離で表されてもよいし、デフォーカス量で表されていてもよい。
本発明について、実施形態、図面を用いて詳細に説明するが、本発明は各実施形態の構成に限らない。また、各実施形態を組み合わせた構成も本発明に含まれる。
(実施形態1)
図1は、本実施形態に係る画像処理装置13を備えた撮像装置1の構成を模式的に示している。撮像装置1は、撮像光学系10、撮像素子11、撮像光学系の制御部12、画像処理装置13、記憶部14、入力部15、表示部16を有している。
画像処理装置13は、処理部130、メモリ131、抽出部132、算出部133、補正部134などを有している。処理部130は、撮像素子11から出力されるアナログ信号のAD変換やノイズ除去、デモザイキング、輝度信号・色差信号変換、収差補正、ホライトバランス補正、色補正、ガンマ補正など各種信号処理を行う機能である。
処理部130から出力されるデジタル画像信号はメモリ131に蓄積され、記憶部14への記録(保存)、距離情報算出などに供給される。抽出部132では、処理部130で所定の信号処理を行った撮像画像において、ぼけ方の異なる2枚の撮影画像から所定の周波数成分を抽出する機能を有する。算出部133では、2枚の撮影画像から抽出した夫々の周波数成分におけるぼけ方の違いから被写体の距離情報を算出する機能を有する。補正部134では、撮像光学系10のフォーカス情報を基に、算出部133で算出した距離情報を補正する機能を有する。
<距離情報の算出の原理>
図1を用いて、フォーカスブラケット撮影を利用した距離算出について説明する。まず、制御部12にて撮像光学系10のフォーカスを第1のフォーカス位置Obj1に設定し、実線で示される光路を経て被写体を撮影する。続いて、制御部12にて撮像光学系10のフォーカスを第2のフォーカス位置Obj2に変更し、破線で示される光路を経て同じ被写体を撮影する。これにより、ぼけ方が異なる2枚の画像が撮像素子11によって取得される。このように、撮影条件のうちフォーカス位置を変更する撮影方法をフォーカスブラケット撮影と呼ぶ。この他、撮影条件を変更して2枚の画像のぼけ方を異ならせる撮影方法として、2枚の画像を撮影する際に開口絞り径を変更するアパーチャーブラケット撮影がある。その他、ぼけ方が異なる複数枚の画像の撮影方法であれば本発明の適用は可能である。
また、図1では1枚のイメージセンサを有する撮像素子を例に挙げたが、それに限ったものではなく、色毎にイメージセンサを配置した3枚の撮像素子(所謂三板式の撮像素子)を用いてもよい。
本発明の距離情報算出では、2枚の画像の同じ被写体が写る小領域における相関を利用して距離情報を推定する。2枚の画像を撮影する間に、手ブレや被写体の移動が無い場合には同じ場所の小領域を用いるが、手ブレや被写体の移動がある場合には位置合わせ処理によって探索した同じ被写体が写る小領域を用いる。以下、手ブレや被写体の移動は無いものとして説明するが、手ブレや被写体の移動がある場合でも同じ被写体が写る小領域を用いれば同様に扱うことができる。
被写体が撮像光学系10のフォーカス位置にある場合は高い鮮鋭度を有するが、被写体が撮像光学系10のフォーカス位置から離れるに従って鮮鋭度が低下する。そして、フォーカス位置がある程度以上離れると鮮鋭度はなくなってしまう。
本実施形態では、抽出部132が、2枚の撮影画像から特定の周波数帯域の周波数成分を抽出する。そして、算出部133が、抽出した2枚の撮影画像の同じ周波数成分どうしのぼけ方の違いを検出して被写体の距離情報を取得する。具体的には、算出部133は、抽出した2枚の撮影画像の同じ周波数成分における相関量を算出し、相関量から被写体の距離情報を算出している。相関量NCCは式1で算出される。
Figure 2015072155
ここで、I1は2枚の撮影画像のうちの一方の画像の小領域における特定の周波数成分の信号値、I1avは小領域における同じ特定の周波数成分の信号値の平均値である。また、I2は2枚の撮影画像のうちの他方の画像の小領域における同じ特定の周波数成分の信号値、I2avは小領域における同じ特定の周波数成分の信号値の平均値である。
フォーカスブラケット方式のDFD方式において相関量が最も高くなるのは2枚の画像のフォーカス位置の中間点の位置であり、そこから離れるに従って相関量は低下する。これを用いれば、被写体が2枚の画像のフォーカス位置の中間点からの相対位置が分かる。さらに、被写体が2枚の画像のフォーカス位置の中間点に対して、前側(撮像装置1に近づく方向)に位置するのか、後側(撮像装置1から離れる方向)に位置するのかを区別することもできる。具体的には、式2を満たせば、被写体は2枚の画像のフォーカス位置の中間点よりも画像1のフォーカス位置側にあり、式3を満たせば、被写体は2枚の画像のフォーカス位置の中間点よりも画像2のフォーカス位置側にある。
Figure 2015072155
このように、被写体の位置を2枚の画像のフォーカス位置の中間点に対して前後判定可能である。前後判定結果をDFD方式により算出した距離情報に反映させることにより、前側から後側まで一貫した距離情報を算出することができる。前後判定の反映方法は、前側と判定された画素における距離情報DSを式4で変換することで、前後判定反映後の距離情報DSRを取得することができる。なお、式4、5のように便宜的に、距離情報をDSを距離情報DSRに変換することで、デフォーカス位置と0乃至2までのDSR値とを一対一で対応づけることができる。
前後判定結果が「前側」の場合:DSR=2−DS ・・式4
前後判定結果が「後側」の場合:DSR=DS ・・式5
また、距離情報を実際の距離に変換する場合には、デフォーカス位置と周波数成分における相関量の変化との関係を予め算出して格納しておき、算出した相関量から逆算してデフォーカス位置を求めればよい。
周波数成分の抽出方法には2通りある。1つは、実空間用に設計したバンドパスフィルタを撮影画像に畳込み演算して特定の周波数帯の周波数成分のみを抽出する方法である。これは実空間上だけで画像処理をすることができるので演算コストが安価であるメリットがある。もう一つは、撮影画像をフーリエ変換して周波数空間の画像に変換してから、特定の周波数帯の周波数成分だけを抽出し、それを逆フーリエ変換して実空間画像に戻す方法である。こちらは、特定の周波数帯だけを抽出可能であるメリットがある。
ここでの距離情報は2枚の画像のフォーカス位置の中間点からの相対的な距離であるが、撮像装置1から被写体までの距離を求めることもできる。それにはまず、式6を用いて撮像装置1から撮像光学系10のフォーカス位置までの距離Sobjを求める必要がある。
Figure 2015072155
ここで、Simgは撮像光学系10から像面までの距離、fは撮像光学系10の焦点距離である。
式6によって、撮像装置1から第1の画像を撮影した際のフォーカス位置Obj1までの距離Sobj1撮像装置1から第2の画像を撮影した際のフォーカス位置Obj2までの距離Sobj2を求めることができる。そして、式7によって、撮像装置1からフォーカスブラケットの中間点までの距離Sobjmを求めることができる。
Figure 2015072155
また、アパーチャーブラケット方式により2枚の撮影画像にぼけの変化を付けた場合、そこで求まる被写体の距離情報は撮像光学系10のフォーカス位置からの相対的な距離となる。同様に、撮像装置から被写体までの距離を求めることもできる。
本発明では少なくとも距離情報を算出するものであり、必要に応じて実際の距離を算出するものである。実際の距離の必要性はアプリケーションに依存するが、例えば、被写体切出し、背景ぼかし、ぼかし効果付与などのアプリケーションにおいては距離情報のみで実現できる。
<距離情報の補正>
図2(a)〜(c)は、フォーカスブラケット撮影で撮影したフォーカス画像の鮮鋭度、デフォーカス画像の鮮鋭度、その2つの画像から取得される距離情報を示している。図2(a)〜(c)の各グラフにおいて、縦軸は鮮鋭度または距離情報のスコアを表し、横軸はフォーカスブラケットの中心からのデフォーカス位置を表す。図2(a)は、撮像素子の光軸上における2つの画像の鮮鋭度と距離情報を示している。図2(b)は、撮像素子の光軸上から離れた周辺部での位置、つまり像高がゼロでない位置における2つの画像の鮮鋭度と距離情報を示している。図2(c)は、撮像素子の光軸上から離れた周辺部での位置において、像面湾曲が発生した場合の2つの画像の鮮鋭度と距離情報を示している。
図2(a)において、実線はフォーカス画像の鮮鋭度を示しており、フォーカス画像の撮影時のフォーカス位置(グラフ中のデフォーカス位置:−6の位置)から離れるにしたがって画像の鮮鋭度が低下している。また、破線はデフォーカス画像の鮮鋭度を示しており、デフォーカス画像の撮影時のフォーカス位置(グラフ中のデフォーカス位置:+6の位置)から離れるにしたがって画像の鮮鋭度が低下している。ここで、フォーカス画像のフォーカス位置とデフォーカス画像とのフォーカス位置の間隔であるフォーカスブラケット量は12である。
図2(a)のグラフ中、丸のマーカーが付いた実線は距離情報を示している。これは、フォーカス画像とデフォーカス画像とから特定の周波数成分を抽出して相関値を算出したものであり、デフォーカス位置がゼロで距離情報のスコアが最大値を示す。図2(a)の例では、周期Tが2.0乃至2.2画素分に対応する周波数成分における距離情報であり、デフォーカス位置がゼロではスコアは0.979である。そこから離れるに従って距離情報のスコアは低下し、距離情報のスコアがデフォーカス位置±20のあたりで、最小値0.148になる。この最小値をとるデフォーカス位置は、フォーカス画像かデフォーカス画像のどちらかの画像の鮮鋭度が最小値まで低下する位置とほぼ同じ位置である。この画像の鮮鋭度の落ち込みが測距範囲を決定する。このように、ぼけ方の異なる2つの画像から求めた距離情報は、各画像の鮮鋭度と強い関連を示す。
撮像光学系では一般的に光軸上の像高と比較して周辺部の像高に到達する光束は、見かけ上の開口絞り径が小さくなる関係で光束幅が細くなり、その焦点深度が広くなる傾向にある。さらに、画角が±30degを超えるような広画角な撮像光学系では、周辺部の像高に到達する光束にはビネッティング(口径蝕)があり、更に光束幅が細くなって深度幅が拡大する傾向にある。
図2(b)には周辺部の像高における画像の鮮鋭度と距離情報との関係を示されている。図2(b)を用いて周辺部の像高における距離情報の深度幅について説明する。
図2(b)のグラフ中の実線はフォーカス画像の周辺部の像高における画像の鮮鋭度を、破線はデフォーカス画像の周辺部の像高における画像の鮮鋭度を表している。図2(a)に示したグラフと比べて、図2(b)のグラフではフォーカス位置から鮮鋭度が低下するまでのデフォーカス範囲が広くなっている。すなわち、焦点深度が深い状態になっている。図2(b)のグラフ中の丸のマーカーが付いた実線は周辺部の像高における距離情報を表している。この距離情報は、画像の鮮鋭度の影響を受けて、距離情報が低下するまでのデフォーカス範囲が拡大し、深度が深い状態になっている。このように、周辺部の像高では到達する光束の幅が狭くなることにより距離情報の深度の拡大が生じている。
例えば「距離スコア=0.2」となる2つのデフォーカス量の差の絶対値を「距離情報の深度幅」とすると、図2(a)より光軸上の距離情報の深度幅は29.9(図2(a)の矢印の幅)である。一方、図2(b)より周辺部の距離情報の深度幅は48.1(図2(b)の矢印の幅)であり、光軸上の約1.6倍の距離情報の深度幅を持つ。このように、像高に応じて距離情報の深度幅の違いが生じると、撮像素子あるいは撮像装置から同じ距離にある被写体が同じ距離スコアとして算出できず、距離情報の計測誤差を生じさせてしまう。
さらに、周辺部の像高における撮像光学系の像面湾曲が発生する場合の影響について説明する。
図2(c)のグラフ中の実線はフォーカス画像の周辺部の像高における画像の鮮鋭度を、破線はデフォーカス画像の周辺部の像高における画像の鮮鋭度を表している。なお、図2(c)のデフォーカス位置の基準は、像面湾曲がない場合であり、図2(a)と同じ位置である。周辺部の像高におけるフォーカス位置(画像の鮮鋭度のピーク)は、フォーカス画像撮影時はデフォーカス位置「−11」にあり、デフォーカス画像撮影時はデフォーカス位置「+1」にある。つまり、図2(a)のグラフに対して、2つの画像共にデフォーカス位置が「−5」オフセットしている。これは撮像光学系にデフォーカス量「−5」の像面湾曲が発生しているためである。したがって、それらの相関値から算出される距離情報も同様に、デフォーカス位置が「−5」オフセットする。この他、像高に応じてフォーカス位置を変動させる要因として、球面収差の発生量の違いや、コマ収差の発生量の違いが挙げられる。
図2(c)のグラフ中の丸のマーカーが付いた実線は、像面湾曲がある場合の周辺部の像高における距離情報を表している。このような距離情報では、同じ距離スコアであっても同じデフォーカス位置ではなく、距離情報の深度幅の相違やデフォーカス位置の原点ずれが距離情報の計測精度に大きな誤差を発生させてしまう。
そこで本実施形態では、撮像光学系の像高に応じた距離情報の深度幅の相違やデフォーカス位置の原点ずれから生じる距離情報の誤差を補正してより精度の高い距離情報を取得している。つまり、ぼけ方の違いから被写体の距離情報を求める測距方式において、広画角の撮像光学系やビネッティングがある撮像光学系、像面湾曲がある撮像光学において撮影した画像であっても、距離情報を精度よく取得することを可能にするものである。
図3に本実施形態の撮像装置におけるフローチャートを示す。図3を用いて本実施形態の撮像装置における距離情報算出ならびに距離マップ作成に関する動作を説明する。
入力画像(D80)は、撮像装置1でフォーカスブラケット方式で撮影したぼけ方が異なる2枚の撮影画像であるフォーカス画像とデフォーカス画像である。
周波数成分の抽出工程では、抽出部132がフォーカス画像とデフォーカス画像の夫々から測距に用いる周波数帯の周波数成分を抽出する(S80)。周波数成分の抽出方法は、フーリエ変換を用いても良いし、実空間上でバンドパスフィルタのフィルタリングを実行しても良い。フーリエ変換を用いる場合は、撮影画像をフーリエ変換した後、測距に用いる周波数帯のみの周波数成分を抽出し、抽出した周波数成分を逆フーリエ変換して実空間画像に戻すことで、測距に用いる周波数領域のみの周波数成分を有した画像情報を抽出している。実空間上でバンドパスフィルタのフィルタリングを実行する場合は以下のように行う。すなわち、測距に用いる周波数領域を抽出可能なバンドパスフィルタを作成し、実空間画像にそのバンドパスフィルタを畳込み演算することで測距に用いる周波数領域のみの周波数成分を有した画像情報を抽出する。本実施形態ではフーリエ変換を用いて、測距に用いる周波数領域のみの周波数成分を有した画像情報を取得している。
距離情報の算出工程では、フォーカス画像の周波数成分とデフォーカス画像の周波数成分とのぼけ方の違いから、算出部133がDFD方式によって距離情報を算出している(S81)。
距離情報の補正工程では、補正部134が補正データ(データD81)を用いて、S81で求めた距離情報を補正し、補正距離情報を算出する(S82)。具体的には、補正データ(データD81)が像高に応じた距離情報からデフォーカス位置へ変換する変換テーブルであり、S81で求めた距離情報を変換テーブルに基づいてデフォーカス位置に変換する。ここで変換したデフォーカス位置を補正距離情報とすることにより、距離情報の深度幅が像高に応じて異なることから生じる距離スコアの相違を補正している。
距離マップの作成工程では、各画素の補正距離情報を集めて距離マップを作成する(S83)。その他、穴埋め、距離層数の縮退などを用いて距離マップの整形を行い、その後の画像処理に有益な距離マップを提供する。
<補正データの取得>
図4(a)にS82で使用する補正データの取得するための装置の構成図を示す。また、図4(b)に補正データを取得するためのフローチャートを示す。図4を用いて本実施形態の撮像装置における補正データの取得方法に関する動作を説明する。
図4(a)において、撮像装置1から一般的な撮影距離だけ離れた位置に評価チャート90を配置している。本実施形態では評価チャート90は平板状のランダムパターン画像であり「物体距離Sobj=3m」の位置に設置している。
図4(b)のデフォーカス撮影工程では、評価チャート90を奥行き方向に位置(90a、90b)を変えながら各デフォーカス位置における画像を撮影する(S100)。具体的には、撮像装置1が評価チャート90にフォーカスを合わせて画像を撮影する。次に、評価チャート90を奥行き方向に移動させて再び画像を撮影する。この際、画像撮影時のフォーカス位置は先程と同じ「物体距離Sobj=3m」の位置であり、評価チャート90の移動先90a、90bではない。そして、評価チャートの位置を順次変更することにより、各デフォーカス位置における画像を撮影する。これにより、各デフォーカス位置に対応した評価チャート90の撮影画像(データD100)を取得する。
画像鮮鋭度デフォーカス特性の算出工程では、各デフォーカス位置における撮影画像のフォーカス状態を確認する(S101)。具体的には、まず、各デフォーカス位置での撮影画像fに対して下記式8で示したラプラシアンフィルタgをフィルタリングすることにより撮影画像から高周波成分(画素2.0個乃至2.2個分に対応)を抽出する。そして、対象画素の周囲の小領域にて「高周波成分の絶対値の和」から画像鮮鋭度Iを算出する。画像鮮鋭度Iは式9で算出される。
Figure 2015072155
この画像鮮鋭度Iをデフォーカス位置と対応付けることにより像高に応じた画像鮮鋭度デフォーカス特性が算出できる。ここで、フォーカスが合った所は画像鮮鋭度Iが最も高くなり、デフォーカス量に応じてその量が減少することから、像高に応じたフォーカス位置(像面湾曲量)や画像鮮鋭度の深度を把握することができる。前述したように、距離情報はフォーカス画像のフォーカス位置とデフォーカス画像のフォーカス位置の中点で距離スコアが最高値を示し、どちらか一方の画像鮮鋭度が最低値に低下する辺りで距離情報も距離スコアが最低値を示すという関係がある。よって、画像の鮮鋭度を把握することで、像高に応じた距離情報のデフォーカス誤差や深度幅誤差を把握することができる。
補正データの作成工程では、光軸上の像高に対してフォーカス位置がずれている像高は、その分だけデフォーカス位置の原点をオフセットさせる補正データを作成する(S102)。これにより、距離情報のデフォーカス誤差の影響を補正することができる。さらに、光軸上の像高に対して深度幅がずれている像高はその分だけ、距離情報に対するデフォーカス位置の傾きを補正する補正データを作成する(S102)。これにより、距離情報の深度幅誤差の影響を補正することができる。このように、距離情報の補正データ(データD81)を取得している。
そして、製造工程中に作成した補正データ(データD81)を撮像装置1の記憶部14に格納し、必要に応じて記憶部14から補正データ(データD81)を引き出せる状態にする。
このように本実施形態の撮像装置1では、撮像光学系の像高に応じた画像鮮鋭度デフォーカス特性を測定することにより、像高に応じたデフォーカス位置と距離情報との対応関係を取得している。これを用いて像高に応じた距離情報からデフォーカス位置へ変換可能な変換テーブルを作成して記憶部14に格納している。具体的には、予め各画素におけるデフォーカス位置と距離情報との対応関係を把握しておき、算出された距離情報を基に各画素における被写体のデフォーカス位置を取得する。次に、各画素の被写体のデフォーカス位置から撮像光学系の像面湾曲量を差し引くことにより、被写体のデフォーカス位置を精度よく取得することが可能となる。そこで、像高に応じて算出される距離情報をScrとしたとき、デフォーカス位置Defは式10により求めることができる。このとき、式10の多項式に示した各次数項の係数は、例えば、図2(c)の丸のマーカーが付いた実線をフィッティングして求めることができる。
Figure 2015072155
ただし、Mは前後判定結果により変化する係数であり、式2を満たす場合はM=1、式3を満たす場合はM=−1である。これでデフォーカス位置の前後を区別できる。また、Ofsは撮像光学系のフォーカス位置のずれを示し、光軸上の像高に対する測距対象像高のずれ量を示している。
補正データ(データD81)を取得する工程は、実際の撮影画像から距離情報の算出工程(S81)を実行する前に実施すればよく、本実施形態では撮像装置の製造工程の一部で実施している。
このように、被写体の距離情報を算出した後、予め用意した補正データを用いて距離情報を補正するので、像高に応じた距離スコアの誤差を補正し、距離情報を精度よく得ることができる。また、撮像光学系として像面湾曲やレンズの製造誤差や組立誤差で片ぼけが発生した場合でも像高に応じたフォーカス位置のずれが距離情報に与える影響を補正し、良好に像高に応じた距離情報を得ることができる。
また、本実施形態では、鮮鋭度のデフォーカス特性から補正データを作成するため、2枚の画像における相関演算を用いず、1枚の画像で計算できるので、計算時間を短縮することができ、製造コストを安価にできる。
本実施形態では、搭載した撮像光学系そのものを用いて補正データを作成し、その補正データを基に距離情報を補正する例を示したが、これに限らない。別の個体の撮像装置に搭載した撮像光学系を用いて補正データを作成し、その補正データを記憶部14に格納するようにしてもよい。その場合、例えば、同一ロットのレンズや鏡筒の撮像光学系を用いて補正データを作成すると、光学性能が類似していて距離情報の補正が精度良くできる。また、補正データは測定結果から作成するのではなく、設計情報を基に作成してもよい。この場合、レンズや鏡筒の設計値から像高に応じた距離情報の深度幅やフォーカス位置をシミュレーションした結果を用いるとよい。
本実施形態ではDFD方式において被写体の距離情報を算出したが、これに限ったものではなく、例えば、Depth From Focus(DFF)方式であっても良い。DFF方式もDFD方式と同様にぼけの変化を利用して被写体の距離情報を算出する方式である。具体的には、撮像光学系のフォーカス位置を多数回変更して撮影した多数枚の画像を基に、各画素において最もピントがあった画像を探索し、その画像のフォーカス位置を基にして被写体の距離情報を算出するものである。DFF方式の場合も同様に、距離以外の要因でぼけの変化が生じた場合には距離情報の計測誤差となり問題となる。従って、本発明の効果を用いることにより、計測精度の良い距離情報を算出することができる。
(実施形態2)
本実施形態は、補正データを作成する際に、測距に用いる周波数帯の周波数成分で算出した距離情報を基にした点が実施形態1と異なる。以下、実施形態1と異なる部分を中心に説明する。
本実施形態の撮像装置1の構成は実施形態1と同じであるが、抽出部134は、算出部132にて距離情報を算出する際や、補正部133にて距離情報を補正する際に撮影画像から所定の周波数帯の周波数成分を抽出する機能を有する。
図2に示したように、撮像光学系の構成や収差によって距離情報の深度幅やデフォーカス位置の原点ずれが、距離情報の計測誤差を発生させる。この際、算出部132において距離情報を算出する際に用いる周波数帯は、例えばラプラシアンフィルタで検出させるような高周波(周期2.0画素)だけとは限らず、高周波から少しだけ低い周波数帯を用いる場合もある。その方が撮像素子のノイズの影響を受けずに距離情報を精度良く安定して算出できる。そこで、本実施形態では、測距に用いる周波数帯を、周期2.2乃至2.5画素に対応した周波数とした。勿論この他の周波数帯を用いても同様に扱うことできる。
図5(a)に光軸上の像高における距離情報のデフォーカス特性を示す。また、図5(b)に周辺部の像高における距離情報のデフォーカス特性を示す。図5(a)、(b)を用いて、周波数帯による距離情報のデフォーカス特性の違いを説明する。
図5(a)のグラフ中の実線は周期が2.0画素の周波数成分による光軸上の像高における距離情報のデフォーカス特性を示す。一方、破線は周期が2.2乃至2.5画素の周波数成分による光軸上の像高における距離情報のデフォーカス特性の平均値を示す。高い周波帯の周期2.0画素の周波数成分による距離情報はデフォーカス変化に対する距離情報の変化が急である。一方、少し低い周波数帯の周期2.2乃至2.5画素の周波数成分による距離情報は、デフォーカス変化に対する距離情報の変化が緩やかである。このように、撮影画像から抽出する周波数帯に依存して距離情報の深度幅に差異が生じてしまう。
また、図5(b)のグラフ中の実線は周期が2.0画素の周波数成分による周辺部の像高における距離情報のデフォーカス特性を示し、破線は周期が2.2乃至2.5画素の周波数成分による周辺部の像高における距離情報のデフォーカス特性を示す。周辺部の像高においても同様に撮影画像から抽出した周波数帯が異なれば距離情報の深度幅の違いにより距離スコアが異なる。また、撮像光学系の収差によっては、距離スコアがピークとなる距離情報のデフォーカス位置の原点も、周波数帯による差異が発生する場合がある。これらの問題が生じると、同じデフォーカス位置にある被写体の距離情報を算出した場合でも、撮影画像から抽出した周波数帯に依存して距離スコアが異なってしまい、距離情報の計測誤差が発生してしまう。
図6は本実施形態の補正データを取得するためのフローチャートを示す。図4(a)と図6を用いて本実施形態における補正データの取得に関する動作を説明する。
本実施形態では評価チャート90は平板状のランダムパターン画像であり「物体距離Sobj=3m」の位置に設置している。
図6のデフォーカス撮影工程(S120)では、評価チャートを奥行き方向に位置を変えながら、フォーカスブラケット方式によりぼけ方の異なる2枚の画像を撮影する。具体的には、撮像装置1が評価チャート90にフォーカスを合わせてフォーカス画像を撮影し、次にフォーカス位置を奥にフォーカスブラケット量(FB)だけずらしてデフォーカス画像を撮影する。今度は評価チャート90を奥行き方向に移動させて(位置90bに移動させて)、再びフォーカス画像とデフォーカス画像を撮影する。この際、フォーカス画像撮影時のフォーカス位置は先程と同じ「物体距離Sobj=3m」の位置であり、評価チャートの移動先ではない。また、デフォーカス画像撮影時のフォーカス位置は先程と同じ「物体距離Sobj=3m+FB」の位置である。そして、評価チャートの位置を順次移動させることにより、各デフォーカス位置に評価チャートを配置したフォーカス画像およびデフォーカス画像を撮影する。これらが、各デフォーカス位置に対応した評価チャート90の撮影画像(データD120)である。
周波数成分の抽出工程では、各デフォーカス位置に対応した評価チャート90の撮影画像(データD120)から、測距に用いる周波数帯の周波数成分を抽出する(S121)。本実施形態の撮像装置1で測距に使用する周波数帯は周期2.2乃至2.5画素なので、補正データを作成する際にも同様の周波数帯の周期2.2乃至2.5画素の周波数成分を用いる。周波数成分の抽出方法は、フーリエ変換を用いても良いし、バンドパスフィルタを用いても良い。フーリエ変換を用いる場合は、撮影画像をフーリエ変換した後、所定の周波数帯のみの周波数成分を抽出し、抽出した周波数成分を逆フーリエ変換して実空間画像に戻すことで、所定の周波数帯のみの周波数成分を有した画像情報を抽出している。撮影画像に実空間バンドパスフィルタをフィルタリングする場合は以下のように行う。すなわち、所定の周波数帯を抽出可能な実空間バンドパスフィルタを作成し、実空間画像にその実空間バンドパスフィルタを畳込み演算することで所定の周波数帯のみの周波数成分を有した画像情報を抽出する。本実施例ではフーリエ変換を用いて、所定の周波数帯のみの周波数成分を有した画像情報を取得している。
距離情報の算出工程では、各デフォーカス位置における距離情報を算出する(S122)。具体的には、S121で抽出されたフォーカス画像の所定の周波数成分とデフォーカス画像の、フォーカス画像と同じ所定の周波数成分とのぼけ方の違いから距離情報を算出する。この際、実際の測距時と同じ周波数帯の周波数成分を用いて距離情報を測定しているので撮像光学系の性能が要因となって発生する距離情報を精度よく把握することができる。具体的には、撮影光学系の開口絞りが見かけ状狭くなったり、ビネッティングによって周辺部の像高に到達する光束の幅が狭くなったりするため、距離情報の深度幅が光軸上よりも広くなる。この場合においても、測距時と同様の深度幅で距離情報のデフォーカス特性を算出できる。さらに、撮像光学系の像面湾曲などにより像高に応じてフォーカス位置が変化する場合であっても、測距時と同様のデフォーカス位置の原点ずれした距離情報を算出することができる。
補正データの作成工程では、S122で算出した距離情報を基に、実施形態1と同様の方法で補正データ(データD81)を作成する(S123)。
そして、製造工程中に作成した補正データ(データD81)を記憶部14に格納し、必要に応じて記憶部14から補正データ(データD81)を引き出せる状態にする。
このように、本実施形態では、実施形態1で課題に挙げた撮像光学系による光束幅の減少、フォーカス位置のずれによって生じる距離情報の計測誤差に加えて、撮影画像から抽出した周波数帯に依存した距離情報の計測誤差を補正することができる。更には、実際の測距時と同じ周波数帯で距離情報を算出して距離情報の補正データを作成しているので、距離情報の補正が精度良く実行できる。これにより、測距に用いる周波数帯に依存せず、常に計測精度良く距離情報を算出することができる。また、これを用いた距離マップを生成することにより、精度の良い距離マップを生成することできる。
この距離マップは、撮影画像に対する各種画像処理(測距、距離マップ作成、被写体切出し、背景ぼかし、ぼけ効果、ぼけ付与、領域別画像処理等)に利用される。
本実施形態では1種類の周波数帯を用いて距離情報を算出する場合の距離情報の補正方法について説明したが、これに限ったものではなく、複数の周波数帯を用いて距離情報を算出する場合においても本発明の効果を十分に発揮することが出来る。具体的には、測距に用いる周波数帯のすべてにおいて予め前述の方法で距離情報のデフォーカス特性を取得しておき、周波数帯毎に補正データを作成する。距離情報を補正する際は対応する周波数帯の補正データを用いて補正を行うと精度良く補正することができる。補正データによって、各周波数帯の距離情報がデフォーカス位置に変換されるので、共通の指標で扱うことができる。
複数の周波数帯を用いて距離情報を算出する場合の撮像装置2は、図7に示した構成となる。この撮像装置2の画像処理装置23は、画像処理装置13に対して、複数の距離情報を統合して1つの距離情報を算出する統合部136をさらに有する。これにより、各周波数帯の距離情報を統合した統合距離情報を算出することができる。
この距離情報の統合には、周波数によってデフォーカス範囲が異なることを利用する。高い周波数帯の距離情報は距離分解能が良いメリットがあり、低い周波数帯の距離情報は計測できるデフォーカス範囲が広いメリットがある。このため、具体的には、図5(a)の実線の矢印のデフォーカス範囲では高い周波数帯を用い、図5(b)の破線の矢印のデフォーカス範囲では低い周波数帯を用いて、それぞれの周波数帯で距離情報を算出し、これらを統合して1つの距離情報を算出する。各周波数帯の距離情報から成る統合距離情報は、これらのメリットを集められるメリットがある。すなわち、高周波成分でフォーカス位置近傍を距離分解能良く測距し、中域の周波数成分で中域のデフォーカス範囲を中位の距離分解能で測距し、フォーカス位置から遠く離れたデフォーカス範囲は低周波成分で測距すると良い。これにより、測距分解能を低下させることなく、測距範囲を拡大することができる。
(実施形態3)
本実施形態について説明する。本実施形態は、複数種の波長帯または色における距離情報から補正した距離情報を算出する点が実施形態2とは異なる。以下、実施形態2と異なる部分を中心に説明する。
図8は、本実施形態の撮像装置3の構成を模式的に示している。撮像装置3の画像処理装置13は、画像処理装置13対して、倍率色収差補正部135、統合部136をさらに有している。
撮像光学系10は、フォーカスブラケット方式によりフォーカス画像とデフォーカス画像を撮影する。処理部130では、撮像素子11から出力されるアナログ信号から、赤色画像、緑色画像、青色画像の3色デジタル画像信号(以下単に画像信号という)に変換する。赤色画像は主に580nm乃至720nmの波長帯で撮影された画像である。緑色画像は主に440nm乃至620nmの波長帯で撮影された画像である。青色画像は主に400nm乃至540nmの波長帯で撮影された画像である。
抽出部132は、フォーカス画像の各色の画像信号とデフォーカス画像の各色の画像信号とから測距に用いる周波数帯の周波数成分を抽出する機能を有する。算出部133は、フォーカス画像の各色の画像信号から抽出した周波数成分と、デフォーカス画像の各色の画像信号から抽出した周波数成分とのぼけ方の違いから被写体の距離を算出する機能を有する。本実施形態では、算出部133は、3色それぞれにおいて距離情報を算出する。ここで、同じ色の画像同士を比較することにより3色それぞれの距離情報を算出する。
補正部134では、算出部133で算出した各色の距離情報を、予め作成し記憶部14に格納しておいた各色の補正データを用いて補正する機能を有する。本実施形態の撮像装置では、図6に示された実施形態2の方法で、1色ではなく各色に対応した距離情報の補正データを算出する。具体的には、撮像装置の製造工程において評価チャートを撮影した3色の撮影画像から測距に用いる周波数帯の周波数成分を抽出して距離情報を算出して作成した距離情報からデフォーカス位置情報への変換テーブルを作成し、これを補正データとしている。このように、補正部134では算出部133で算出した各色の距離情報をデフォーカス位置情報へ変換しており、全色で共通の指標に統一した距離情報に変換している。
倍率色収差補正部135は、撮像光学系の倍率色収差によって各色の距離情報に発生した像倍率ずれを補正する機能を有する。そして、統合部135では、補正部134により得られた3色の画像信号夫々から算出した距離情報を統合して1つの距離情報を算出する機能を有している。
一般的な撮像光学系で発生している軸上色収差や像面湾曲によるぼけの変化は人間には感じ取れない程小さなものであり、撮像画像の画質面では問題にならない。しかし、本実施例の撮像装置のようにぼけの変化から距離情報を算出する場合においては、人間には感じ取れない程の小さなぼけの変化をも検出することにより、距離情報の検出精度を向上させている。そのため、少量の収差(軸上色収差、像面湾曲)であっても距離情報の測距誤差を生じさせて問題となる。
図9を用いて一般的な撮像光学系における軸上色収差について説明する。図9には、撮像光学系10が撮像素子11へ向けて光束を集光している様子を示している。緑色の波長帯の光束140は撮像素子11の位置で結像している。また、赤色の波長帯の光束141は撮像素子11よりも後方で結像している。また、青色の波長帯の光束142は撮像素子11より前方で結像している。このように、色(波長帯)によって結像位置がばらつく収差が軸上色収差である。Axrは赤色の波長帯の光束における軸上色収差、Axbは青色の波長帯の光束における軸上色収差を示し、緑色の波長帯の光束においては軸上色収差がほぼ0となっている。これは輝度信号の7割を緑色が占めており、緑色画像のフォーカス位置に撮像光学系のフォーカスが合い易くなっているためである。また、一般的に赤色は屈折力が弱く、青色は屈折力が強くなる傾向があるため、軸上色収差は赤色が後方に青色が前方に発生する場合が多い。
図10には赤色、緑色、青色における距離情報のデフォーカス特性を示す。図10を用いて、撮像光学系の軸上色収差が各色の距離情報に与える影響を説明する。図10のグラフ中の実線は緑色画像における距離情報、破線は赤色画像における距離情報、一点鎖線は青色画像における距離情報である。緑色画像の距離情報のデフォーカス位置の原点はデフォーカス0の位置である。一方、赤色画像の距離情報のデフォーカス位置の原点はプラス方向(フォーカス位置より後方)にシフトしており、青色画像の距離情報のデフォーカス位置の原点はマイナス方向(フォーカス位置より前方)にシフトしている。これらは撮像光学系の軸上色収差による影響である。このように距離情報のデフォーカス位置の原点がずれることにより、同じデフォーカス位置にある被写体であっても色によって距離スコアが異なる。
そこで、本実施形態では、測距に使用する周波数帯と波長帯で距離情報を予め算出しておき、周波数帯や波長帯で発生する距離情報の計測誤差量を補正データとして見積もっている。その上で実際に距離情報を算出し、算出した距離情報から予め見積もっておいた補正データを差し引くことで精度良く距離情報を取得している。これにより、測距に使用する周波数帯や波長帯に依存せず、精度良く測距することが可能な撮像装置を提供することが出来る。
また本実施形態の撮像装置では、同時に算出した3色の距離情報を用いて、後述するように1つの距離情報を算出しており、距離情報の計測精度を更に向上させることができる。また、単色の被写体もあり他の色で距離情報を計測するのが難しい場合においても、本実施例の撮像装置においては3色の距離情報を同時に取得できるので、被写体の色に依存せず精度良く距離情報を取得することができる。
次に、図11を用いて一般的な撮像光学系の倍率色収差について説明する。図11には、撮像光学系10が撮像素子11へ向けて光束を集光している様子を示している。緑色の波長帯の光束150は撮像素子11上に結像している。赤色の波長帯の光束151は緑色の波長帯の光束150よりも外側の像高で撮像素子11上に結像している。青色の波長帯の光束152は緑色の波長帯の光束150よりも内側の像高で撮像素子11上に結像している。図中Ltrは赤色の波長帯の光束における倍率色収差を示し、Ltbは青色の波長帯の光束における軸上色収差を示している。この場合も、赤色は屈折力が弱く、青色は屈折力が強くなる傾向があるため、倍率色収差は緑色の結像位置に対して赤色が外側に、青色が内側に結像する状態で発生する。
最近のデジタルカメラでは、撮像光学系の倍率色収差補正が実施されている。具体的には赤色画像や青色画像の像倍率ずれを緑色画像に合わせることで倍率色収差が補正されている。このとき、像倍率ずれを補正した赤色画像や青色画像ではサブ画素精度の位置合わせが行われている。サブ画素精度の位置合わせでは画素の補間処理が実行されるため元画像が有していた各画素の画像信号値が失われると同時にぼけの変化も精度良く検出することが難しくなってしまう。また、3色の距離情報を統合して1つの距離情報を算出する際、倍率色収差によって各色の像倍率がずれた状態では、1つに統合した距離情報の測距精度を向上させることができない。
そこで、本実施形態の撮像装置では、各色の画像信号に対して距離情報を算出し、各色で距離情報の補正を行い、倍率色収差補正を実施して各色の像倍率を揃えてから、各色から算出した距離情報を統合した距離情報を算出するようにした。これにより、各色の距離情報が精度良く算出できるとともに、3色の距離情報を統合した際に距離情報の測距精度を更に向上させることができる。
図12は、本実施形態のフローチャートを示す。図12を用いて本実施形態の撮像装置3における統合距離情報の算出と距離マップ作成に関する動作を説明する。
赤色周波数の抽出工程では、フォーカス画像の赤色画像信号とデフォーカス画像の赤色画像信号の2枚の赤色画像信号(データD1700)から、抽出部132が測距に用いる周波数帯の周波数成分を抽出する(S1700)。本実施形態において、測距に用いる周波数帯は実施形態2と同様の周期2.2乃至2.5画素に対応する周波数成分である。緑色周波数の抽出工程でも同様にフォーカス画像の緑色画像信号とデフォーカス画像の緑色画像信号の2枚の緑色画像信号(データD1701)から抽出部132が測距に用いる周波数帯の周波数成分を抽出する(S1701)。青色周波数の抽出工程も同様に2枚の青色画像信号(データD1702)から抽出部132が測距に用いる周波数帯の周波数成分を抽出する(S1702)。
赤色距離情報の算出工程では、抽出されたフォーカス画像の赤色周波数成分とデフォーカス画像の赤色周波数成分とのぼけ方の違いから、算出部133がDFD方式により被写体の赤色の距離情報を算出する(S1703)。緑色距離情報の算出工程でも同様に、抽出されたフォーカス画像の緑色周波数成分とデフォーカス画像の緑色周波数成分とのぼけ方の違いから算出部133が被写体の緑色の距離情報を算出している(S1704)。青色距離情報の算出工程でも同様に、抽出されたフォーカス画像の青色周波数成分とデフォーカス画像の青色周波数成分とのぼけ方の違いから算出部133が被写体の青色距離情報を算出している(S1705)。
そして、赤色距離情報の補正工程では、補正部134が赤色の補正データ(データD1703)を基に、S1703で算出した赤色距離情報を補正し、赤色の補正距離情報を算出する(S1706)。具体的には、軸上色収差や色の像面湾曲、色の像面湾曲といった収差を補正し、各色で共通の指標となるデフォーカス位置情報へ変換し、これを赤色の補正距離情報としている。緑色距離情報の補正工程では、補正部134が緑色補正データ(データD1704)を基に、S1704で算出した緑色距離情報を補正し、緑色の補正距離情報を算出する(S1707)。青色距離情報の補正工程では、補正部134が青色補正データ(データD1705)を基に、S1705で算出した青色距離情報を補正し、青色の補正距離情報を算出する(S1708)。
次に、赤色の倍率色収差の補正工程では、倍率色収差補正部135が赤色の補正距離情報の倍率色収差を補正する(S1709)。具体的には、赤色画像信号(データD1700)の像倍率を緑色画像信号(データD1701)と等しく揃える。そして、像位置が重なる様に補正した画像信号の倍率色収差補正と同じ補正値を用いて、倍率色収差補正部135が赤色の補正距離情報の倍率色収差補正を行っている。この際、サブ画素精度で位置合わせを行ってもよく、赤色の補正距離情報は補間により元の赤色の補正距離情報から値が変更されても良い。これは既に距離情報を算出してあるので距離情報の奥行精度への影響が少ないからであり、それよりもサブ画素精度で位置合わせをすることにより横分解能を高めた方が結果として奇麗な距離情報が得られるからである。青色の倍率色収差補正工程でも同様に、倍率色収差補正部135が青色画像信号における倍率色収差補正と同じ補正値を用いて青色の補正距離情報の倍率色収差を補正する(S1710)。
続いて、距離情報の統合工程では、統合部136が倍率色収差補正により像倍率が揃えられた赤色、緑色、青色の3色の補正距離情報を1つの距離情報に統合し、統合距離情報を算出する(S1711)。これまでの工程では、各色の距離情報を精度良く算出するために補正を掛けてきたが、ここでは精度良く算出された距離情報を集めて更に精度の良い距離情報を算出するものである。統合距離情報の算出方法は、3色の距離情報の平均値を用いても良い。そうすれば、距離分解能が約1.7倍向上する。その他の算出方法としては、被写体の各色の信号値に応じて重み付けして平均化してもよい。信号値が高い色には、ぼけ方の変化を算出するための情報が含まれており、ノイズの影響を受け難く信頼度が高い結果が得られる。
次に、距離マップの作成工程では、このようにして算出した各画素の統合距離情報を集めて距離マップが作成される(S1712)。この距離マップは、撮影画像に対する各種画像処理(測距、距離マップ作成、被写体切出し、背景ぼかし、ぼけ効果、ぼけ付与、領域別画像処理等)に利用される。
このように、本実施形態の撮像装置3では、複数種類の波長帯の画像信号から距離情報を算出し、各色の距離情報における軸上色収差、倍率色収差、像面湾曲などの距離情報の誤差要因を補正する。そして、各色の距離情報を基にして統合距離情報を算出する。このため、精度良く距離情報を取得することができる。更には被写体の色情報の依存性が無いため、安定性の高い距離情報の取得が可能となる。
(実施形態4)
上述した本発明の画像処理方法は、例えば、デジタルカメラやカムコーダなどの撮像装置、或いは撮像装置で得られた画像データに対し画像処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置或いは画像処理装置を内蔵する各種の電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明の技術を適用可能である。上記実施形態では撮像装置の本体に画像処理装置の機能を組み込んだ構成を示したが、画像処理装置の機能はどのように構成してもよい。たとえば、撮像装置を有するコンピュータに画像処理装置を組み込み、撮像装置で撮影した画像をコンピュータが取得して、それに基づいて距離算出を行うようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに画像処理装置が組み込まれて、そのコンピュータがネットワークを介して複数枚の画像を取得し、それに基づいて距離算出を行うようにしてもよい。得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ぼけ効果のエミュレーションなどの各種画像処理に利用することができる。
なお、上記装置への具体的な実装は、ソフトウェア(プログラム)による実装とハードウェアによる実装のいずれも可能である。例えば、撮像装置などに内蔵されたコンピュータ(マイコン、FPGA等)のメモリにプログラムを格納し、当該プログラムをコンピュータに実行させることで、本発明の目的を達成するための各種処理を実現してもよい。また、本発明の全部又は一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。
デジタルカメラやデジタルビデオカメラ、監視カメラ等の撮像装置に搭載される画像処理装置(画像処理エンジン)の一機能として実装され、撮影画像に対する各種画像処理(測距、距離マップ作成、被写体切出し、背景ぼかし、ぼけ効果付与等)に利用される。
13 画像処理装置
133 算出部
134 補正部

Claims (19)

  1. ぼけ方の異なる複数の画像から被写体の距離情報を取得する画像処理装置であって、
    撮像光学系で撮影された、複数の画像のぼけ方の違いから被写体の距離情報を算出する算出部と、
    前記撮像光学系における像高に応じた補正データを用いて、前記距離情報を補正する補正部と、を有することを特徴とする画像処理装置。
  2. 前記複数の画像それぞれから少なくとも一つの周波数成分を抽出する抽出部をさらに有し、
    前記算出部が、前記少なくとも一つの周波数成分における前記複数の画像のぼけ方の違いから前記距離情報を算出し、
    前記補正部が、前記少なくとも一つの周波数成分における像高に応じた補正データを用いて前記距離情報を補正することを特徴とする請求項1に記載の画像処理装置。
  3. 前記抽出部が、複数の周波数成分を抽出し、
    前記算出部が、各周波数成分における前記複数の画像のぼけ方の違いから複数の前記距離情報を算出し、
    前記補正部が、各周波数成分における像高に応じた補正データを用いて前記複数の距離情報それぞれを補正することを特徴とする請求項2に記載の画像処理装置。
  4. 前記補正された複数の距離情報を統合する統合部をさらに有することを特徴とする請求項3に記載の画像処理装置。
  5. 複数の周波数成分は、相対的に高い周波数成分と相対的に低い周波数成分を有し、
    前記統合部は、相対的にフォーカス位置に近い距離情報を前記高い周波数成分における距離情報を用い、相対的に前記フォーカス位置から遠い距離情報を前記低い周波数成分における距離情報を用いて、1つの距離情報に統合することを特徴とする請求項4に記載の画像処理装置。
  6. 前記算出部が、赤、緑、青のうち少なくとも1色における前記距離情報を算出することを特徴とする請求項1又は2に記載の画像処理装置。
  7. 前記算出部が、赤、緑、青のうち複数の色における前記距離情報を算出し、
    前記複数の色それぞれにおける距離情報の倍率色収差を補正する色収差補正部をさらに有することを特徴とする請求項6に記載の画像処理装置。
  8. 前記倍率色収差を補正された複数の距離情報を統合する統合部をさらに有することを特徴とする請求項7に記載の画像処理装置。
  9. 前記統合部は、複数の距離情報の平均値を算出することを特徴とする請求項8に記載の画像処理装置。
  10. 像高に応じた補正データは、デフォーカス位置の原点をオフセットさせるデータであることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 像高に応じた補正データは、デフォーカス位置の傾きを補正するデータであることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  12. 撮像光学系と、
    請求項1乃至11のいずれか1項に前記画像処理装置と、を有する撮像装置。
  13. 撮像光学系で撮影された、複数の画像のぼけ方の違いから被写体の距離情報を算出する算出工程と、
    前記撮像光学系における像高に応じた補正データを用いて、前記距離情報を補正する補正工程と、を有することを特徴とする画像処理方法。
  14. 前記複数の画像それぞれから少なくとも一つの周波数成分を抽出する抽出工程をさらに有し、
    前記算出工程において、前記少なくとも一つの周波数成分における前記複数の画像のぼけ方の違いから前記距離情報を算出し、
    前記補正工程において、前記少なくとも一つの周波数成分における像高に応じた補正データを用いて前記距離情報を補正することを特徴とする請求項13に記載の画像処理方法。
  15. 前記抽出工程において、複数の周波数成分を抽出し、
    前記算出工程において、各周波数成分における前記複数の画像のぼけ方の違いから複数の前記距離情報を算出し、
    前記補正において、各周波数成分における像高に応じた補正データを用いて前記複数の距離情報それぞれを補正することを特徴とする請求項14に記載の画像処理方法。
  16. 前記補正された複数の距離情報を統合する統合工程をさらに有することを特徴とする請求項15に記載の画像処理方法。
  17. 前記算出工程において、赤、緑、青のうち少なくとも1色における前記距離情報を算出することを特徴とする請求項13又は14に記載の画像処理方法。
  18. 前記算出工程において、赤、緑、青のうち複数の色における前記距離情報を算出し、
    前記複数の色それぞれにおける距離情報の倍率色収差を補正する色収差補正工程をさらに有することを特徴とする請求項17に記載の画像処理方法。
  19. 前記倍率色収差を補正された複数の距離情報を統合する統合工程をさらに有することを特徴とする請求項18に記載の画像処理方法。
JP2013207017A 2013-10-02 2013-10-02 画像処理装置、撮像装置及び画像処理方法 Active JP6429444B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013207017A JP6429444B2 (ja) 2013-10-02 2013-10-02 画像処理装置、撮像装置及び画像処理方法
US14/500,789 US9264606B2 (en) 2013-10-02 2014-09-29 Processing device, image pickup device and processing method
US14/993,705 US9781344B2 (en) 2013-10-02 2016-01-12 Processing device, image pickup device and processing method for obtaining distance information from a difference in blur degree

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013207017A JP6429444B2 (ja) 2013-10-02 2013-10-02 画像処理装置、撮像装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2015072155A true JP2015072155A (ja) 2015-04-16
JP6429444B2 JP6429444B2 (ja) 2018-11-28

Family

ID=52739802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013207017A Active JP6429444B2 (ja) 2013-10-02 2013-10-02 画像処理装置、撮像装置及び画像処理方法

Country Status (2)

Country Link
US (2) US9264606B2 (ja)
JP (1) JP6429444B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190006456A (ko) * 2017-07-10 2019-01-18 칼 짜이스 에스엠티 게엠베하 에어리얼 이미지의 스캐너 축방향 색수차의 영향
EP3460716A1 (en) 2017-09-22 2019-03-27 Fujitsu Limited Image processing apparatus and image processing method
JP2019134431A (ja) * 2019-02-26 2019-08-08 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2019207185A (ja) * 2018-05-30 2019-12-05 株式会社東芝 画像処理装置、撮像装置及び方法
US10516820B2 (en) 2017-07-18 2019-12-24 Samsung Electronics Co., Ltd. Electronic device for controlling focus of lens and method for controlling the same
US11048061B2 (en) 2017-06-28 2021-06-29 Samsung Electronics Co., Ltd Electronic device including camera module
JP2021162765A (ja) * 2020-04-01 2021-10-11 株式会社Screenホールディングス 合焦位置検出方法、合焦位置検出装置および合焦位置検出用プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6737212B2 (ja) * 2017-03-14 2020-08-05 オムロン株式会社 運転者状態推定装置、及び運転者状態推定方法
KR102597470B1 (ko) 2019-06-05 2023-11-03 삼성전자주식회사 뎁스 맵 결정 방법 및 그 방법을 적용한 전자 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0993481A (ja) * 1995-09-22 1997-04-04 Canon Inc 交換レンズ式カメラシステム
JP2001208524A (ja) * 2000-01-26 2001-08-03 Sony Corp 画像処理装置及び画像処理方法
US20020154792A1 (en) * 2001-04-20 2002-10-24 Cornog Katherine H. Analyzing motion of characteristics in images
JP3481631B2 (ja) * 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
JP2010016743A (ja) * 2008-07-07 2010-01-21 Olympus Corp 測距装置、測距方法、測距プログラム又は撮像装置
JP2012003233A (ja) * 2010-05-17 2012-01-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2013030895A (ja) * 2011-07-27 2013-02-07 Sony Corp 信号処理装置、撮像装置、信号処理方法およびプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965840A (en) 1987-11-27 1990-10-23 State University Of New York Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system
US8306280B2 (en) * 2006-04-11 2012-11-06 Nikon Corporation Electronic camera and image processing apparatus
TWI459801B (zh) * 2008-09-12 2014-11-01 Alpha Imaging Technology Corp 影像處理方法、整合式光學處理器以及使用此整合式光學處理器之影像擷取裝置
JP5300133B2 (ja) * 2008-12-18 2013-09-25 株式会社ザクティ 画像表示装置及び撮像装置
WO2011033619A1 (ja) * 2009-09-16 2011-03-24 パイオニア株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び、記憶媒体
JP2011135563A (ja) * 2009-11-30 2011-07-07 Canon Inc 撮像装置および画像処理方法
JP5212396B2 (ja) * 2010-02-10 2013-06-19 株式会社ニコン 焦点検出装置
US8654228B2 (en) * 2010-03-17 2014-02-18 Panasonic Corporation Imaging apparatus, camera body and interchangeable lens
KR101689867B1 (ko) * 2010-09-15 2016-12-27 삼성전자주식회사 영상을 처리하는 방법, 이를 수행하는 영상처리장치 및 의료영상시스템
JP2013038659A (ja) * 2011-08-09 2013-02-21 Sony Corp 撮像ユニット及び撮像装置
CN103119927B (zh) * 2011-08-29 2017-03-22 松下知识产权经营株式会社 图像处理装置、摄像装置及图像处理方法
US9153007B2 (en) * 2011-09-21 2015-10-06 Semiconductor Components Industries, Llc Imaging systems with conformal image buffers
EP2605507B1 (en) * 2011-12-15 2021-02-17 BlackBerry Limited Camera module having protruding lens barrel
JP5971954B2 (ja) * 2012-01-12 2016-08-17 キヤノン株式会社 画像処理装置、画像処理装置を有する撮像装置、画像処理方法、プログラム、及びプログラムを記憶した記憶媒体
JP5762995B2 (ja) * 2012-02-28 2015-08-12 富士フイルム株式会社 光音響画像生成装置及び方法
US9361672B2 (en) * 2012-03-26 2016-06-07 Google Technology Holdings LLC Image blur detection
JP2013218172A (ja) * 2012-04-10 2013-10-24 Seiko Epson Corp 光学素子、撮像装置、電子機器及び光学素子の製造方法
JP6202927B2 (ja) * 2012-08-31 2017-09-27 キヤノン株式会社 距離検出装置、撮像装置、プログラム、記録媒体および距離検出方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3481631B2 (ja) * 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
JPH0993481A (ja) * 1995-09-22 1997-04-04 Canon Inc 交換レンズ式カメラシステム
JP2001208524A (ja) * 2000-01-26 2001-08-03 Sony Corp 画像処理装置及び画像処理方法
US20020154792A1 (en) * 2001-04-20 2002-10-24 Cornog Katherine H. Analyzing motion of characteristics in images
JP2010016743A (ja) * 2008-07-07 2010-01-21 Olympus Corp 測距装置、測距方法、測距プログラム又は撮像装置
JP2012003233A (ja) * 2010-05-17 2012-01-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2013030895A (ja) * 2011-07-27 2013-02-07 Sony Corp 信号処理装置、撮像装置、信号処理方法およびプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11048061B2 (en) 2017-06-28 2021-06-29 Samsung Electronics Co., Ltd Electronic device including camera module
KR102306584B1 (ko) * 2017-07-10 2021-09-30 칼 짜이스 에스엠티 게엠베하 에어리얼 이미지의 스캐너 축방향 색수차의 영향
US10928332B2 (en) 2017-07-10 2021-02-23 Carl Zeiss Smt Gmbh Inspection device for masks for semiconductor lithography and method
KR20210087911A (ko) * 2017-07-10 2021-07-13 칼 짜이스 에스엠티 게엠베하 에어리얼 이미지의 스캐너 축방향 색수차의 영향
KR20190006456A (ko) * 2017-07-10 2019-01-18 칼 짜이스 에스엠티 게엠베하 에어리얼 이미지의 스캐너 축방향 색수차의 영향
KR102324701B1 (ko) * 2017-07-10 2021-11-11 칼 짜이스 에스엠티 게엠베하 에어리얼 이미지의 스캐너 축방향 색수차의 영향
US11867642B2 (en) 2017-07-10 2024-01-09 Carl Zeiss Smt Gmbh Inspection device for masks for semiconductor lithography and method
US10516820B2 (en) 2017-07-18 2019-12-24 Samsung Electronics Co., Ltd. Electronic device for controlling focus of lens and method for controlling the same
US10867153B2 (en) 2017-09-22 2020-12-15 Fujitsu Limited Image processing apparatus and image processing method
EP3460716A1 (en) 2017-09-22 2019-03-27 Fujitsu Limited Image processing apparatus and image processing method
JP2019207185A (ja) * 2018-05-30 2019-12-05 株式会社東芝 画像処理装置、撮像装置及び方法
JP2019134431A (ja) * 2019-02-26 2019-08-08 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2021162765A (ja) * 2020-04-01 2021-10-11 株式会社Screenホールディングス 合焦位置検出方法、合焦位置検出装置および合焦位置検出用プログラム
JP7405678B2 (ja) 2020-04-01 2023-12-26 株式会社Screenホールディングス 合焦位置検出方法、合焦位置検出装置および合焦位置検出用プログラム

Also Published As

Publication number Publication date
US20160127648A1 (en) 2016-05-05
JP6429444B2 (ja) 2018-11-28
US9264606B2 (en) 2016-02-16
US9781344B2 (en) 2017-10-03
US20150092091A1 (en) 2015-04-02

Similar Documents

Publication Publication Date Title
JP6429444B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP6157249B2 (ja) 撮像装置、距離情報取得方法およびプログラム
JP6887960B2 (ja) 自動焦点トリガのためのシステムおよび方法
JP6173156B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP6292790B2 (ja) 距離検出装置、撮像装置および距離検出方法
JP6643122B2 (ja) 距離画像装置、撮像装置、および距離画像補正方法
JP6545997B2 (ja) 画像処理装置
US20130101177A1 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP5374119B2 (ja) 距離情報取得装置、撮像装置、及びプログラム
US20180033121A1 (en) Image processing apparatus, image processing method, and storage medium
JP2020174331A (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
US11593958B2 (en) Imaging device, distance measurement method, distance measurement program, and recording medium
JP6628678B2 (ja) 距離測定装置、撮像装置、および距離測定方法
JP6682184B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP2015203756A (ja) 視差量算出装置、距離算出装置、撮像装置および視差量算出方法
JP6436840B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US10339665B2 (en) Positional shift amount calculation apparatus and imaging apparatus
JP4085720B2 (ja) デジタルカメラ
WO2016042721A1 (en) Positional shift amount calculation apparatus and imaging apparatus
JP6604737B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2017118293A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2009111599A (ja) 撮像データにおける動きベクトル検出方法と装置
JP2019022002A (ja) 画像処理装置および画像処理プログラム
JP2017092800A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181030

R151 Written notification of patent or utility model registration

Ref document number: 6429444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151