JP2015072324A - 画像処理装置、撮像装置及び画像処理方法 - Google Patents

画像処理装置、撮像装置及び画像処理方法 Download PDF

Info

Publication number
JP2015072324A
JP2015072324A JP2013207018A JP2013207018A JP2015072324A JP 2015072324 A JP2015072324 A JP 2015072324A JP 2013207018 A JP2013207018 A JP 2013207018A JP 2013207018 A JP2013207018 A JP 2013207018A JP 2015072324 A JP2015072324 A JP 2015072324A
Authority
JP
Japan
Prior art keywords
image
pixel
unit
distance information
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013207018A
Other languages
English (en)
Other versions
JP6173156B2 (ja
Inventor
石原 圭一郎
Keiichiro Ishihara
圭一郎 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013207018A priority Critical patent/JP6173156B2/ja
Priority to EP14184890.3A priority patent/EP2858036B1/en
Priority to EP17207655.6A priority patent/EP3327667B1/en
Priority to US14/502,855 priority patent/US9581436B2/en
Priority to CN201410519935.0A priority patent/CN104519328B/zh
Publication of JP2015072324A publication Critical patent/JP2015072324A/ja
Application granted granted Critical
Publication of JP6173156B2 publication Critical patent/JP6173156B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • G02B7/365Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals by analysis of the spatial frequency components of the image
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Blocking Light For Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】 カラー画像を用いたDFD方式であっても精度良く被写体の距離情報を取得する。【解決手段】 被写体の異なる色情報を取得する複数の画素を含む複数のユニットを備えた撮像素子11で取得されたぼけ方の異なる第1の画像と第2の画像に基づき、前記被写体の距離情報の分布を表す距離情報画像を取得する画像処理装置13であって、前記複数の画素のうち1つの画素に対応する信号をユニットごとに抽出して、前記第1の画像と前記第2の画像それぞれに対応した第1の抽出画像と第2の抽出画像を作成する抽出部132と、前記第1の抽出画像と前記第2の抽出画像のぼけ方の違いから前記距離情報画像を算出する算出部133と、を有し、前記ユニットごとに抽出される前記1つの画素に対応する信号は、同じ色情報を取得する画素に対応する信号である。【選択図】 図1

Description

本発明は、撮影した複数の画像から被写体の距離情報の分布を表す距離情報画像を取得する画像処理装置、撮像装置に関する。また、撮影した複数の画像から被写体の距離情報の分布を表す距離情報画像を取得する画像処理方法に関する。
撮像装置によって取得された二次元画像から画像中の被写体の奥行方向の距離を取得する方法として特許文献1のようなDepth from Defocus(DFD)方式が提案されている。DFD方式では撮像光学系の撮影条件(撮影パラメータともいう)を制御することでぼけ方の異なる複数枚の画像を取得する。そして、測距画素およびその周辺画素を用いて複数画像間でのぼけの大きさやぼけの相関量を算出する。ぼけの大きさやぼけの相関量は撮像光学系の合焦位置から被写体までの距離に応じて変化するため、その相関量を用いることで撮像光学系の合焦位置から被写体までの距離を取得する。
特許文献2は、DFD方式を用いて処理対象領域毎に演算したぼけの相関量から被写体距離を算出する測距装置であって、処理対象領域内の画素毎に画素単位のぼけの相関量に重み係数を設定し、重み係数に基づいてぼけの相関量の加重平均を行うものである。
特開平01−167610号公報 特開2010−016743号公報
一般的な撮像装置の撮像光学系には軸上色収差があり、色(波長)毎にフォーカス位置(合焦位置)が異なるため、ぼけの大きさやぼけの相関を使って距離情報を算出する場合、色(波長)によって算出される距離情報に誤差が生じてしまう。つまり、カラー画像を用いたDFD方式等で距離情報を算出する場合、に色(波長)よる測距誤差が生じる。
特許文献1及び2では、色(波長)による距離情報の誤差が生じることについては言及されていない。
そこで本発明では、カラー画像を用いたDFD方式であっても精度良く被写体の距離情報を取得することを目的としている。
本発明に係る画像処理装置は、被写体の異なる色情報を取得する複数の画素を含む複数のユニットを備えた撮像素子で取得されたぼけ方の異なる第1の画像と第2の画像に基づき、前記被写体の距離情報の分布を表す距離情報画像を取得する画像処理装置であって、前記複数の画素のうち1つの画素に対応する信号をユニットごとに抽出して、前記第1の画像と前記第2の画像それぞれに対応した第1の抽出画像と第2の抽出画像を作成する抽出部と、前記第1の抽出画像と前記第2の抽出画像のぼけ方の違いから前記距離情報画像を算出する算出部と、を有し、前記ユニットごとに抽出される前記1つの画素に対応する信号は、同じ色情報を取得する画素に対応する信号であること特徴としている。
さらに本発明に係る画像処理方法は、被写体の異なる色情報を取得する複数の画素を含む複数のユニットを備えた撮像素子で取得されたぼけ方の異なる第1の画像と第2の画像それぞれに対して、前記複数の画素のうち1つの画素に対応する信号をユニットごとに抽出して第1の抽出画像と第2の抽出画像を作成する抽出工程と、前記第1の抽出画像と前記第2の抽出画像のぼけ方の違いから被写体の距離情報の分布を表す距離情報画像を算出する算出工程と、を有し、前記ユニットごとに抽出される前記1つの画素に対応する信号は、同じ色情報を取得する画素に対応する信号であることを特徴としている。
本発明によれば、カラー画像を用いたDFD方式であっても精度良く距離情報を取得することができる。
実施形態1に係る画像処理装置を有する撮像装置の一例を示す模式図 (a)実施形態1に係る撮像素子の一部を表す模式図、(b)実施形態1に係るチャンネルの抽出する一例を示す模式図 実施形態1に係る画像処理方法の一例を示すフローチャート 実施形態2に係る画像処理装置を有する撮像装置の一例を示す模式図 実施形態2に係る画像処理方法の一例を示すフローチャート 実施形態2の抽出された画素に対応する信号の生成の説明図 実施形態3に係る画像処理装置を有する撮像装置の一例を示す模式図 一般的な撮像光学系における軸上色収差と像面湾曲の説明図 実施形態3に係る画像処理方法の一例を示すフローチャート 実施形態3に係る距離情報の補正データの取得装置を示す模式図及び距離情報の補正データの取得方法の一例のフローチャート
本発明は、撮影条件を変えて撮影した2枚以上の画像を用い、それらの画像のぼけ方の違いに基づいて被写体の奥行方向の距離情報を算出するための技術(DFD方式)に関し、その改良を提案するものである。本明細書では、異なる色情報を取得する複数の画素を有する撮像装置で撮影した画像を用いた場合であっても、DFD方式により被写体の距離情報を精度良く算出する技術を提案する。係る技術は、例えば、デジタルカメラやデジタルビデオカメラ、監視カメラ等の撮像装置に搭載される画像処理装置(画像処理エンジン)の一機能として実装されうる。そして、撮影画像に対する各種画像処理(測距、距離情報画像の作成、被写体切出し、背景ぼかし、ぼけ効果付与等)に利用される。
本発明における距離情報とは、2画像のフォーカス位置の中間位置から被写体までの相対的な距離、もしくはどちらか1画像のフォーカス位置から被写体までの相対的な距離、撮影時の撮像装置から被写体までの絶対距離であってもよい。なお、絶対距離あるいは相対距離は、像面側での距離、物体側での距離のどちらであってもよい。また、距離は、実空間の距離で表されてもよいし、デフォーカス量で表されていてもよい。
本発明について、実施形態、図面を用いて詳細に説明するが、本発明は各実施形態の構成に限らない。
(実施形態1)
図1は、本実施形態に係る画像処理装置13を備えた撮像装置1の構成を模式的に示している。撮像装置1は、撮像光学系10、撮像素子11、撮像光学系の制御部12、画像処理装置13、記憶部14、入力部15、表示部16を有している。
図2(a)は、本実施形態の撮像素子における部分的な構成を模式的に示している。撮像素子11は、イメージセンサ111と、カラーフィルタ112とを有している。カラーフィルタ112はイメージセンサ111の光入射側に設置されている。撮像素子11は、複数のユニット113を有し、各ユニットは複数の画素A、B、C、Dで構成されている。各画素A、B、C、Dはそれぞれ、被写体の色情報を取得する。そのために、画素A、B、C、Dそれぞれに対応するように、カラーフィルタ112は、赤、緑または青のいずれかの色を透過する領域が区画されて構成されている。
画素Aは主に可視光の長波長領域(580nm乃至720nmの波長領域)を透過させる赤色カラーフィルタを備えている。画素Bと画素Cは主に可視光の中間波長領域(440nm乃至620nmの波長領域)を透過させる緑色カラーフィルタを備えている。画素Dは主に可視光の短波長領域(400nm乃至540nmの波長領域)を透過させる青色カラーフィルタを備えている。これらの画素によって、本実施形態の撮像装置1はカラー画像を取得することができる。色情報とは、本実施形態では、赤色、緑色または青色のいずれかの色とその輝度情報を指す。
画像処理装置13は、処理部130、メモリ131、抽出部132、算出部133などを有している。処理部130は、撮像素子11から出力されるアナログ信号のAD変換やノイズ除去、デモザイキング、輝度信号・色差信号変換、収差補正、ホライトバランス補正、色補正、ガンマ補正など各種信号処理を行う機能である。処理部130から出力されるデジタル画像信号はメモリ131に蓄積され、記憶部14への記録(保存)、距離情報算出などに供給される。
抽出部132は、撮像素子11の各ユニットの複数の画素A、B、C、Dのうち1つの画素(例えば画素B)に対応する信号を抽出する。信号を抽出する画素は、各ユニットで同じ色情報を取得する画素である。例えば、図2(a)では、ユニット113内の画素Bに対応する信号が抽出される。そして、抽出部132は、各ユニットの画素Bの信号だけを集めて、例えば図2(b)のような抽出画像を作成する。また、後述するように、撮像素子11は、ぼけ方の異なる第1の画像と第2の画像を取得する。抽出部132は、第1の画像、第2の画像それぞれに対応して、上記抽出画像を作成する。つまり、抽出部132は、第1の画像から第1の抽出画像を作成し、第2の画像から第2の抽出画像を作成する。
算出部133は、抽出部132で生成した第1の抽出画像と第2の抽出画像のぼけ方の違いから、DFD方式によって被写体の距離情報を算出する。この距離情報は、上記のユニットそれぞれに対応する情報である。そして、算出部133は、各ユニットの距離情報を集めて、被写体の距離情報の分布を表す距離情報画像を取得する。
記憶部14は、撮影された画像データや、撮像装置1で利用されるパラメータデータなどが格納される不揮発性の記憶媒体である。記憶部14としては、高速に読み書きでき、且つ、大容量の記憶媒体であればどのようなものを利用してもよい。例えばフラッシュメモリなどが好ましい。
入力部15は、ユーザが操作し、基準色(基準色相角)を算出するための領域を指定するための入力やマスクを設定するための入力を行うためのインターフェイスである。例えばダイヤル、ボタン、スイッチ、タッチパネルなどを利用することができる。表示部16は、液晶ディスプレイや有機ELディスプレイなどの表示デバイスを用いることができる。表示部16は、撮影時の構図確認、撮影・記録した画像の閲覧、各種設定画面やメッセージ情報の表示、基準色(基準色相角)算出の為の指示領域の表示、マスクの表示などに利用される。
<距離情報の算出の原理>
図1を用いて、フォーカスブラケット撮影を利用した距離算出について説明する。まず、制御部12にて撮像光学系10のフォーカスを第1のフォーカス位置Obj1に設定し、実線で示される光路を経て被写体を撮影する。続いて、制御部12にて撮像光学系10のフォーカスを第2のフォーカス位置Obj2に変更し、破線で示される光路を経て同じ被写体を撮影する。これにより、ぼけ方が異なる2枚の画像が撮像素子11によって取得される。このように、撮影条件のうちフォーカス位置を変更する撮影方法をフォーカスブラケット撮影と呼ぶ。この他、撮影条件を変更して2枚の画像のぼけ方を異ならせる撮影方法として、2枚の画像を撮影する際に開口絞り径を変更するアパーチャーブラケット撮影がある。その他、ぼけ方が異なる複数枚の画像の撮影方法であれば本発明の適用は可能である。
本発明の距離情報の算出では、2枚の画像の小領域における相関を利用して距離情報を推定する。ただし、本発明において距離情報の算出に用いる画像は、上述した抽出部132によって生成された2つの抽出画像である。この2つの抽出画像もぼけ方が異なっている。また、撮影する間に、手ブレや被写体の移動が無い場合には同じ場所の小領域を用いるが、手ブレや被写体の移動がある場合には位置合わせ処理によって探索した同じ被写体が写る小領域を用いる。以下、手ブレや被写体の移動は無いものとして説明するが、手ブレや被写体の移動がある場合でも同じ被写体が写る小領域を用いれば同様に扱うことができる。
被写体が撮像光学系10のフォーカス位置にある場合は、被写体の情報が最も多く得られ、高い空間周波数領域から低い空間周波数領域の全域に渡り高いコントラストを有する。一方、被写体が撮像光学系10のフォーカス位置から離れた位置にある場合は、被写体にぼけが発生し、低い空間周波数領域では比較的コントラストの低下は少ないが、高い空間周波数領域ではコントラストが大幅に低下する。被写体が撮像光学系のフォーカス位置から更に離れた位置にある場合は、低い空間周波数領域においてもコントラストが低下する。
本実施形態では、抽出画像にバンドパスフィルタを掛けた画像を用いることにより、前述の空間周波数毎のコントラストの変化を実画像上で把握しており、これを用いて被写体の距離情報を取得している。
具体的には、算出部133は、2枚のバンドパスフィルタを掛けた抽出画像の同じ場所の小領域における相関量を算出し、相関量から被写体の距離情報を算出している。2枚のバンドパスフィルタ画像の小領域における相関量NCCは式1で算出される。
Figure 2015072324
ここで、I1は2枚のバンドパスフィルタを掛けた抽出画像のうち一方である第1のバンドパスフィルタ抽出画像の小領域のある画素における信号値、I1avは第1のバンドパスフィルタ抽出画像の小領域内の信号値の平均値である。また、I2は2枚のバンドパスフィルタ抽出画像のうち他方である第2のバンドパスフィルタ抽出画像の小領域のある画素における信号値、I2avは第2のバンドパスフィルタ抽出画像の小領域内の信号値の平均値である。
フォーカスブラケット方式のDFD方式において相関量が最も高くなるのは2枚の抽出画像のフォーカス位置の中間点の位置であり、そこから離れるに従って相関量は低下する。これを用いれば、被写体が2枚の抽出画像のフォーカス位置の中間点からの相対位置が分かる。さらに、被写体が2枚の抽出画像のフォーカス位置の中間点に対して、前側(撮像装置1に近づく方向)に位置するのか、後側(撮像装置1から離れる方向)に位置するのかを区別することもできる。具体的には、式2を満たせば、被写体は2枚の抽出画像のフォーカス位置の中間点よりも第1の抽出画像のフォーカス位置側にあり、式3を満たせば、被写体は2枚の画像のフォーカス位置の中間点よりも第2の抽出画像のフォーカス位置側にある。これらを基に、被写体の距離情報を算出することができる。
Figure 2015072324
また、距離情報を実際の距離に変換する場合には、バンドパスフィルタが通過させる空間周波数におけるデフォーカス量と相関量の変化との関係を予め算出して格納しておき、2枚のバンドパスフィルタ画像の相関量から逆算してデフォーカス量を求めればよい。
ここでの距離情報は2枚の抽出画像のフォーカス位置の中間点からの相対的な距離であるが、撮像装置1から被写体までの距離を求めることもできる。その際は、まず撮影光学系の焦点距離やフォーカシングレンズの移動量等の撮影パラメータから式4により2枚の画像におけるそれぞれの撮像装置1から撮像光学系10のフォーカス位置までの距離Sobjを求める。
Figure 2015072324
ここで、Simgは撮像光学系10の後ろ側主点から像面までの距離、fは撮像光学系10の焦点距離である。
さらに、撮像装置1から第1の画像を撮影した際のフォーカス位置Obj1までの距離Sobj1撮像装置1から第2の画像を撮影した際のフォーカス位置Obj2までの距離Sobj2を求めることができる。そして、式5により撮像装置1から2枚の画像のフォーカス位置の中間点までの距離Simgmを算出できる。
Figure 2015072324
また、アパーチャーブラケット方式により2枚の撮影画像にぼけの変化を付けた場合、そこで求まる被写体の距離情報は撮像光学系10のフォーカス位置からの相対的な距離となる。同様に、撮像装置から被写体までの距離を求めることもできる。
本発明では少なくとも距離情報を算出するものであり、必要に応じて実際の距離を算出するものである。実際の距離の必要性はアプリケーションに依存するが、例えば、被写体切出し、背景ぼかし、ぼかし効果付与などのアプリケーションにおいては距離情報のみで実現できる。
<画像処理方法>
図3に本実施形態の画像処理方法のフローチャートを示す。図3を用いて本実施形態の撮像装置1における距離情報の算出ならびに距離情報画像に関わる動作を説明する。
まず、撮像装置1によりフォーカスブラケット撮影を行う(S40)。具体的には、主被写体にフォーカスを合わせてフォーカス画像を撮影し、次にフォーカス位置を変更してデフォーカス画像を撮影する。これにより、ぼけ方が異なる2枚のRGB画像(D40、D41)が撮像素子11によって取得される。なお、画像とは、表示部16に表示されうるデータであって、色情報を持ったデータである。
次に、抽出部132は、各ユニットから距離情報の算出に用いる1つの画素に対応する信号を1つずつ抽出する(S41)。さらに、抽出部132は、抽出した画素の信号のみで構成した抽出画像を生成する(S42)。ここで、ぼけ方が異なる2枚の画像それぞれから1つの抽出画像(D42、D43)が生成される。図2(b)は図2(a)に示された各ユニット内の画素Bのみの信号を集めた1つの抽出画像を示している。つまり、本実施形態では、図2(a)に示した撮像素子11で取得したRGB画像から画素Bに相当する緑色の画素の信号だけを集めて、抽出画像が生成される。そのため、抽出画像はRGB画像の4分の1のサイズになっている。また、撮像素子11の受光部の感度は緑色の波長帯域で最も高いため、上述したように、抽出部132は緑色の画素に対応する信号を抽出するようにすることが望ましい。なお、画素Bと画素Cはともに緑色の画素であり、各ユニットにおいていずれかの信号を使用してもよいが、各ユニットで同じ位置に配置された画素に対応する信号を用いることが、測距精度を向上させる点で好ましい。
次に、2つの抽出画像から、DFD方式により各ユニットに写る被写体の距離情報を算出する(S43)。この距離情報は各ユニットに対応するものである。そして、各ユニットの距離情報を集めて距離情報画像(D44)を生成する(S43)。そして、生成した距離情報画像(D44)は、撮影時に取得した画像(D40、D41)と共に記憶部14に保存される。
ここで得られた距離情報画像(D44)は、例えば、フォーカス画像に対して距離情報に応じたぼけを付与する処理や、フォーカス画像を3D変換する処理や、フォーカス画像から被写体を切り出す処理等に利用することができる。
このように、本実施形態では、RGBの画像のうち各ユニットから同一の画素に対応する信号だけで生成した単色画像を用いて距離情報を算出している。
DFD方式では、2枚の画像のぼけの変化を利用して被写体の距離情報を算出している。そのため、撮像装置1と被写体までの距離以外の要因によってぼけの変化が起こる場合は、距離情報の計測誤差が発生する。距離以外の要因としては、撮像光学系には軸上色収差が考えられる。撮像光学系には軸上色収差が残存しているのが一般的である。残存する軸上色収差が少量の場合、その影響は撮影画像では殆ど見られない。しかし、DFD方式において距離情報を算出する際には、少量の軸上色収差であっても大きな距離情報の計測誤差を発生する。特に、コンパクトデジタルカメラやデジタルビデオカメラでは、焦点距離が短い光学系を使用しており、被写体までの距離の違いに対して撮像光学系によるぼけが変化しにくい。そのため、相対的に軸上色収差の影響が大きくなり、大きな距離情報の計測誤差が生じる。
なお、DFD方式で距離情報の算出に影響を与えない程に軸上色収差を限りなく小さくする為には、撮像光学系を構成するレンズ枚数の増加や、蛍石などの非線形分散特性を有する特殊な光学材料を使用する必要があり、撮像装置1のコストアップを招く。
これに対して、本実施形態の撮像装置1では、カラー画像の中から単色の画像を生成して、単色の画像を用いて被写体の距離情を算出している。これにより、撮像光学系の軸上色収差が発生した場合においても、軸上色収差の影響を殆ど受けることなく、精度の良い距離情報の算出が可能となる。よって、DFD方式による距離情報を算出する撮像装置においても、従来通りの撮像光学系を使用すること可能となり、安価で、精度が良い距離情報の算出、ならびに距離情報画像が生成できる。
また、本実施形態では、RGBフォーマットの中でも特に輝度信号への影響度が高い緑色の信号を抽出したので、抽出画像中における撮像素子のダークノイズの影響を受けにくく、安定した精度で距離情報の算出が可能となる。
本実施形態ではDFD方式において被写体の距離情報を算出したが、これに限ったものではなく、例えば、Depth From Focus(DFF)方式であっても良い。DFF方式もDFD方式と同様にぼけの変化を利用して被写体の距離情報を算出する方式である。具体的には、撮像光学系のフォーカス位置を多数回変更して撮影した多数枚の画像を基に、各画素において最もピントがあった画像を探索し、その画像のフォーカス位置を基にして被写体の距離情報を算出するものである。DFF方式の場合も同様に、距離以外の要因でぼけの変化が生じた場合には距離情報の計測誤差となり問題となる。従って、本発明の効果を用いることにより、計測精度の良い距離情報を算出することができる。
(実施形態2)
本実施形態は、距離情報の算出に使用する1つの画素に対応する信号が、ユニット内の異なる画素の信号を混合して生成された混合信号である点と、その混合信号から抽出画像を生成する点と、が実施形態1と異なる。以下、実施形態1と異なる部分を中心に説明する。
図4に本実施形態に係る画像処理装置23を有する撮像装置2の構成例の模式図を示す。本実施形態の撮像装置1の画像処理装置23は、処理部130、メモリ131、抽出部132、算出部133に加え、生成部134を有している。
生成部134は、各ユニットの複数の画素それぞれに対応する信号を混合して、少なくとも距離情報の算出に使用する1つの画素に対応する混合信号を生成する。本実施形態では、混合信号の混合比として赤色(R)を0.299、緑色(G)を0.587、青色(B)を0.114とした。これは人間の視感度に合わせた混合比だが、これを利用すると混合信号としてYフォーマットの輝度信号Yをそのまま利用できる利点がある。輝度信号Yはメモリ131に蓄積され、記憶部14への記録、距離情報の算出等に使用される。
図5に本実施形態の画像処理方法におけるフローチャートを示す。また、図6(a)にはRaw画像、図6(b)にはRGBフォーマット画像、図6(c)には混合画像Mを示す。図5、6を用いて本実施形態の撮像装置2における距離情報の算出ならびに距離情報画像の生成に関わる動作を説明する。
まず、実施形態1と同様に撮像装置2によりフォーカスブラケット撮影を行う(S80)。そして、ぼけ方が異なる2枚の画像(D80、D81)が撮像素子11によって取得される。ここで、撮像素子11のイメージセンサ111に取り付けられたカラーフィルタ112には、図6(a)に示したようなベイヤー配列で赤色(R)、緑色(G)、青色(B)の透過領域が配置されている。この撮像素子11によってRaw画像が取得される。なお、図6(a)に示したRaw画像は、図2(a)で示した部分による信号を基に生成される。具体的には、図2(a)の画素A、B、C、Dそれぞれが、赤色の画素、第1の緑色の画素、第2の緑色の画素、青色の画素に対応する。そして、図6(a)のR、G、Bの色情報は、画素A、画素B(もしくは画素C)、画素Dそれぞれに対応した信号によって取得される。
次に、処理部130によって、Raw画像(D80、D81)のデモザイキング処理が実行される(S81)。この処理により、Raw画像(D80、D81)それぞれに対応した、図6(b)に示したRGBフォーマットの画像(D82、D83)が生成される。具体的には、Raw画像を赤色(R)、緑色(G)、青色(B)の色毎に分け、欠落した画素を補間処理することにより画像の全画素に対応する赤色(R)、緑色(G)、青色(B)の信号値を持たせたRGBフォーマット画像を生成している。このように、フォーカスブラケット撮影により、ぼけの異なる2枚のRGBフォーマット画像(D82、83)が取得される。
生成部134は、RGBフォーマット画像(D82、D83)から、それぞれに対応した図6(c)に示したような混合画像(Yフォーマット画像)を生成する(S82)。具体的には、同じユニット内の赤色(R)、緑色(G)、青色(B)の信号値を加重平均して各画素に対応した混合信号を生成している。このとき、各色の混合比として赤色(R)を0.299、緑色(G)を0.587、青色(B)を0.114としたので、混合信号は、Yフォーマットの輝度信号Yと同等の信号としている。具体的には、式6で混合信号Mを算出している。これにより、ぼけ方が異なる2枚の混合画像(D84、D85)が生成される。
M=0.299×R+0.587×G+0.114×B ・・・式6
ここで、R、G、Bは、ユニット内の赤色の画素、緑色の画素、青色の画素の信号値である。
次に、抽出部132によって、ユニット内の複数の画素A、B、C、Dの中から距離情報算出に用いる画素に対応する混合信号を1つ抽出する(S83)。ここでは、混合画像を構成する各信号から、図6(c)の太線で囲んだ画素に対応する混合信号を抽出する。つまり、この混合信号は、図6(a)のRaw画像における第1の緑色の画素(図2(a)の画素B)に対応する信号である。そして、抽出部132は、2枚の混合画像(D84、D85)の中から第1の緑色の画素に対応する信号のみを集めて、混合画像(D84、D85)それぞれに対応した抽出画像(D86、D87)を生成する(S84)。
これ以降の処理は、実施形態1と同様である。具体的には、算出部133は、ぼけ方が異なる2枚の抽出画像(D86、D87)から、DFD方式により各ユニットに写る被写体の距離情報を算出する(S85)。そして、算出部133は、各ユニットの距離情報を集めて距離情報画像(D88)を生成する(S86)。そして、生成した距離情報画像(D88)は、撮影時に取得した画像(D80、D81)、輝度信号Y(混合信号M)と共に記憶部14に保存される。
なお、上述したように、S82では、全ての画素に対応した混合信号を生成したが、少なくとも距離情報の算出に使用する画素(本実施形態では画素B)に対応する混合信号のみを生成するようにしてもよい。
ここで得られた距離情報画像(D88)は、例えば、フォーカス画像に対して距離情報に応じたぼけを付与する処理や、フォーカス画像を3D変換する処理や、フォーカス画像から被写体を切り出す処理等に利用することができる。
このように、本実施形態では、異なる色の信号を混合して作成した混合信号のうち、各ユニットから、同一色の画素に対応する混合信号を集めた抽出画像を用いて各ユニットにおける被写体の距離情報を算出している。
異なる画素の信号を混合することで、単一画素では感度が低いスペクトルの被写体において、感度を上昇させることができ、距離の算出精度を向上させることができる。また、各画素の混合信号のうち同じ色情報を取得した画素に対応する混合信号だけを用いることにより、撮像光学系の軸上色収差の影響を低減できる。
本実施形態では、混合信号の混合比を赤色(R)を0.299、緑色(G)を0.587、青色(B)を0.114としたが、これに限ったものではない。撮像素子の感度が良い画素の比率を更に高くしても良く、例えば、混合比を赤色(R)を0.15、緑色(G)を0.80、青色(B)を0.05としてもよい。
(実施形態3)
本実施形態は、抽出した画素における軸上色収差や像面湾曲を補正する点が実施形態2と異なる。以下、実施形態2と異なる部分を中心に説明する。
図7は、本実施形態の画像処理装置33を備える撮像装置3の模式図を示す。本実施形態の撮像装置3の画像処理装置33は、処理部130、メモリ131、抽出部132、算出部133、生成部134、に加えて、補正部135を有している。
図8(a)は撮像光学系10の軸上色収差の様子を示し、図8(b)には像面湾曲を示す。通常、撮像光学系10には軸上色収差が発生する。軸上色収差とは撮影光の波長の相違によりフォーカス位置がずれることであるが、撮像装置3のように、色情報を取得する画素を複数有する撮像素子11を用いた場合は、異なる色の画素毎にフォーカス位置が異なる。ピント調整は各画素の平均値等を使ってフォーカス位置を調整するため、実際にはそれぞれの画素におけるフォーカス位置は最適な位置からずれが生じる。このずれ量を軸上色収差によるデフォーカス量として図8(a)中のAxで表示している。また、通常、撮像光学系10には像面湾曲も発生する。像面湾曲とは画角によってフォーカス位置がずれることであり、その量は、図8(b)中のZoである。さらに、像面湾曲の量は、撮影光の波長によっても変動し、その結果、像面湾曲の色収差が生じる。
ただし、一般的な撮像光学系で発生している軸上色収差や像面湾曲、像面湾曲の色収差は、人間には感じ取れない程小さなぼけの変化であり、撮像画像の画質面では問題にならない。一方、本発明のように、ぼけ方の変化から距離情報を算出する場合においては、人間には感じ取れない程の小さなぼけの変化を検出することで、距離情報の検出精度が向上する。そのため、上記収差が少量であっても距離情報の測距誤差を生じさせる。
そこで、画像処理装置33は、算出部133で算出された各ユニットの距離情報に対して、軸上色収差や像面湾曲、像面湾曲の色収差などの収差による距離情報の測距誤差を補正する補正部135を有している。
図9に本実施形態の画像処理方法のフローチャートを示す。図9を用いて本実施形態の撮像装置3における撮像光学系10の収差による距離情報の測距誤差の補正、ならびに補正された距離情報画像の生成に関わる動作を説明する。
S80からS85までのフローは、実施形態2と同様であるので説明は省略する。
次に、算出部133がS85で算出した各ユニットに対応する距離情報に対し、補正部135は補正データ(D90)を用いて上述した収差による誤差を補正する(S90)。具体的には、算出された各ユニットの距離情報から各ユニットに対応した補正データ(D90)を差し引くことにより、精度の高い距離情報へと変換する(S90)。そして、算出部133は、各ユニットの補正された距離情報を集めて、補正された距離情報画像(D91)を生成する(S91)。
補正データ(D90)は、記憶部14に予め保持されている。そのために、補正データ(D90)は、一例として下記に示すように求められる。
図10(a)は、において、撮像装置3から一定の距離離れた位置に評価チャート50を配置している。本実施形態では評価チャート50は平板状のランダムパターン画像であり「物体距離Sobj=3m」の位置に設置している。
図10(b)のデフォーカス撮影工程では、評価チャート50を奥行き方向に位置(50a、50b)を変えながら各デフォーカス位置における画像を撮影する(S100)。具体的には、撮像装置3が評価チャート50にフォーカスを合わせて画像を撮影する。次に、評価チャート50を奥行き方向に移動させて再び画像を撮影する。この際、画像撮影時のフォーカス位置は先程と同じ「物体距離Sobj=3m」の位置であり、評価チャート50の移動先50a、50bではない。そして、評価チャートの位置を順次変更することにより、各デフォーカス位置における画像を撮影する。これにより、各デフォーカス位置に対応した評価チャート50の撮影画像(D100)を取得する。
画像鮮鋭度デフォーカス特性の算出工程では、各デフォーカス位置における撮影画像のフォーカス状態を確認する(S101)。具体的には、まず、各デフォーカス位置での撮影画像fに対して下記式7で示したラプラシアンフィルタgをフィルタリングすることにより撮影画像から高周波成分(画素2.0個乃至2.2個分に対応)を抽出する。そして、対象画素の周囲の小領域にて「高周波成分の絶対値の和」から画像鮮鋭度Iを算出する。画像鮮鋭度Iは式8で算出される。
Figure 2015072324
この画像鮮鋭度Iをデフォーカス位置と対応付けることにより像高に応じた画像鮮鋭度デフォーカス特性が算出できる。ここで、フォーカスが合った所は画像鮮鋭度Iが最も高くなり、デフォーカス量に応じてその量が減少することから、像高に応じたフォーカス位置(像面湾曲の量)や画像鮮鋭度の深度(軸上色収差の量)を把握することができる。前述したように、距離情報はフォーカス画像のフォーカス位置とデフォーカス画像のフォーカス位置の中点で距離スコアが最高値を示し、どちらか一方の画像鮮鋭度が最低値に低下する辺りで距離情報も距離スコアが最低値を示すという関係がある。よって、画像の鮮鋭度を把握することで、像高に応じた距離情報のデフォーカス誤差や深度幅誤差を把握することができる。補正データ(D90)の作成工程では、上記の誤差分だけ各ユニットの距離情報を補正するようなデータを作成する(S102)。
そして、製造工程中に作成した補正データ(D90)を撮像装置1の記憶部14に格納し、必要に応じて記憶部14から補正データ(D90)を引き出せる状態にする。
このように本実施形態の撮像装置1では、撮像光学系の像高に応じた画像鮮鋭度デフォーカス特性を測定することにより、像高に応じたデフォーカス位置と距離情報との対応関係を取得している。これを用いて像高に応じた距離情報からデフォーカス位置へ変換可能な変換テーブルを作成して記憶部14に格納している。
このように、本実施形態では、撮像光学系10の収差(軸上色収差、像面湾曲、像面湾曲の色収差)を補正することにより、良好な測距精度で被写体の距離情報、距離情報画像を取得することができる。
(実施形態4)
上述した本発明の画像処理方法は、例えば、デジタルカメラやカムコーダなどの撮像装置、或いは撮像装置で得られた画像データに対し画像処理を施す画像処理装置やコンピュータなどに好ましく適用できる。また、このような撮像装置或いは画像処理装置を内蔵する各種の電子機器(携帯電話、スマートフォン、スレート型端末、パーソナルコンピュータを含む)にも本発明の技術を適用可能である。上記実施形態では撮像装置の本体に画像処理装置の機能を組み込んだ構成を示したが、画像処理装置の機能はどのように構成してもよい。たとえば、撮像装置を有するコンピュータに画像処理装置を組み込み、撮像装置で撮影した画像をコンピュータが取得して、それに基づいて距離算出を行うようにしてもよい。また、有線あるいは無線によりネットワークアクセス可能なコンピュータに画像処理装置が組み込まれて、そのコンピュータがネットワークを介して複数枚の画像を取得し、それに基づいて距離算出を行うようにしてもよい。得られた距離情報は、例えば、画像の領域分割、立体画像や奥行き画像の生成、ぼけ効果のエミュレーションなどの各種画像処理に利用することができる。
なお、上記装置への具体的な実装は、ソフトウェア(プログラム)による実装とハードウェアによる実装のいずれも可能である。例えば、撮像装置などに内蔵されたコンピュータ(マイコン、FPGA等)のメモリにプログラムを格納し、当該プログラムをコンピュータに実行させることで、本発明の目的を達成するための各種処理を実現してもよい。また、本発明の全部又は一部の処理を論理回路により実現するASIC等の専用プロセッサを設けることも好ましい。
本発明の各実施形態は可視光の撮像装置を例に挙げたが、それに限ったものではなく、赤外光の撮像装置であっても、紫外光の撮像装置であってもよい。その場合、抽出画像は、撮像素子のユニット内の画素のうち、最も感度が高い画素の信号を用いることが好ましい。その理由は、ノイズが軽減されるので、測距精度を安定化させることができるからである。特に暗い被写体において大きな効果を発揮する。
13 画像処理装置
132 抽出部
133 算出部

Claims (13)

  1. 被写体の異なる色情報を取得する複数の画素を含む複数のユニットを備えた撮像素子で取得されたぼけ方の異なる第1の画像と第2の画像に基づき、前記被写体の距離情報の分布を表す距離情報画像を取得する画像処理装置であって、
    前記複数の画素のうち1つの画素に対応する信号をユニットごとに抽出して、前記第1の画像と前記第2の画像それぞれに対応した第1の抽出画像と第2の抽出画像を作成する抽出部と、
    前記第1の抽出画像と前記第2の抽出画像のぼけ方の違いから前記距離情報画像を算出する算出部と、を有し、
    前記ユニットごとに抽出される前記1つの画素に対応する信号は、同じ色情報を取得する画素に対応する信号であることを特徴とする画像処理装置。
  2. 前記複数の画素が、赤色の情報を取得する画素、緑色の情報を取得する画素及び青色の情報を取得する画素を含むことを特徴とする請求項1に記載の画像処理装置。
  3. 前記1つの画素が、前記緑色の情報を取得する画素であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記複数の画素それぞれに対応する信号を混合して、前記1つの画素に対応する混合信号を生成する生成部をさらに有し、
    前記抽出部が、ユニットごとに前記混合信号を抽出し、前記第1の抽出画像と前記第2の抽出画像を作成することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記算出部が、前記第1の抽出画像と前記第2の抽出画像のぼけ方の違いから各ユニットに対する距離情報を算出し、
    各ユニットに対する前記距離情報に対して、収差による誤差を補正する補正部をさらに有し、
    前記算出部が、前記補正部よって補正された各ユニットに対する距離情報から前記距離情報画像を算出することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記1つの画素は、各ユニット内で同じ位置にある画素であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 撮像光学系と、
    前記被写体の色情報を取得する複数の画素で構成される複数のユニットを備えた撮像素子と、
    請求項1乃至6のいずれか1項に記載の前記画像処理装置と、を有することを特徴とする撮像装置。
  8. 被写体の異なる色情報を取得する複数の画素を含む複数のユニットを備えた撮像素子で取得されたぼけ方の異なる第1の画像と第2の画像それぞれに対して、前記複数の画素のうち1つの画素に対応する信号をユニットごとに抽出して第1の抽出画像と第2の抽出画像を作成する抽出工程と、
    前記第1の抽出画像と前記第2の抽出画像のぼけ方の違いから被写体の距離情報の分布を表す距離情報画像を算出する算出工程と、を有し、
    前記ユニットごとに抽出される前記1つの画素に対応する信号は、同じ色情報を取得する画素に対応する信号であることを特徴とする画像処理方法。
  9. 前記複数の画素が、赤色の情報を取得する画素、緑色の情報を取得する画素及び青色の情報を取得する画素を含むことを特徴とする請求項8に記載の画像処理方法。
  10. 前記1つの画素が、前記緑色の情報を取得する画素であることを特徴とする請求項9に記載の画像処理方法。
  11. 前記複数の画素それぞれに対応する信号を混合して、前記1つの画素に対応する混合信号を生成する生成工程をさらに有し、
    前記抽出工程が、ユニットごとに前記混合信号を抽出し、前記第1の抽出画像と前記第2の抽出画像を作成することを特徴とする請求項8乃至10のいずれか1項に記載の画像処理方法。
  12. 前記算出工程が、
    前記第1の抽出画像と前記第2の抽出画像のぼけ方の違いから各ユニットに対する距離情報を算出する工程と、
    各ユニットに対する前記距離情報に対して、収差による誤差を補正する補正工程と、
    前記補正工程で補正された各ユニットに対する距離情報から前記距離情報画像を算出する工程と、を含むことを特徴とする請求項8乃至11のいずれか1項に記載の画像処理装置。
  13. 前記1つの画素は、各ユニット内で同じ位置にある画素であることを特徴とする請求項8乃至12のいずれか1項に記載の画像処理方法。
JP2013207018A 2013-10-02 2013-10-02 画像処理装置、撮像装置及び画像処理方法 Active JP6173156B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013207018A JP6173156B2 (ja) 2013-10-02 2013-10-02 画像処理装置、撮像装置及び画像処理方法
EP14184890.3A EP2858036B1 (en) 2013-10-02 2014-09-16 Image processing device, image capturing apparatus, and image processing method for obtaining depth information
EP17207655.6A EP3327667B1 (en) 2013-10-02 2014-09-16 Image processing device, image capturing apparatus, and image processing method for obatining depth information
US14/502,855 US9581436B2 (en) 2013-10-02 2014-09-30 Image processing device, image capturing apparatus, and image processing method
CN201410519935.0A CN104519328B (zh) 2013-10-02 2014-09-30 图像处理设备、图像捕捉装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013207018A JP6173156B2 (ja) 2013-10-02 2013-10-02 画像処理装置、撮像装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2015072324A true JP2015072324A (ja) 2015-04-16
JP6173156B2 JP6173156B2 (ja) 2017-08-02

Family

ID=51539209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013207018A Active JP6173156B2 (ja) 2013-10-02 2013-10-02 画像処理装置、撮像装置及び画像処理方法

Country Status (4)

Country Link
US (1) US9581436B2 (ja)
EP (2) EP3327667B1 (ja)
JP (1) JP6173156B2 (ja)
CN (1) CN104519328B (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6157249B2 (ja) * 2012-07-31 2017-07-05 キヤノン株式会社 撮像装置、距離情報取得方法およびプログラム
JP6173156B2 (ja) 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
JP6320075B2 (ja) * 2014-02-19 2018-05-09 キヤノン株式会社 画像処理装置およびその制御方法
WO2017048927A1 (en) * 2015-09-18 2017-03-23 The Regents Of The University Of California Cameras and depth estimation of images acquired in a distorting medium
CN107170007B (zh) * 2016-03-02 2019-12-27 钰立微电子股份有限公司 具有图像散焦功能的图像装置及其产生散焦图像的方法
CN105931219B (zh) * 2016-04-13 2018-07-20 山东正元地球物理信息技术有限公司 一种基于钻孔电视图像计算钻孔深度的方法
US9800852B1 (en) * 2016-09-07 2017-10-24 Essential Products, Inc. Color reconstruction
JP6582153B2 (ja) * 2017-03-15 2019-09-25 富士フイルム株式会社 撮像装置、撮像方法、及び撮像プログラム
DE102017115365B4 (de) * 2017-07-10 2020-10-15 Carl Zeiss Smt Gmbh Inspektionsvorrichtung für Masken für die Halbleiterlithographie und Verfahren
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
KR102597197B1 (ko) 2018-01-24 2023-11-01 사이버옵틱스 코포레이션 거울 표면을 위한 구조화 광의 투영
JP6569157B1 (ja) * 2018-06-27 2019-09-04 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、撮像装置、移動体、制御方法、及びプログラム
JP7199169B2 (ja) * 2018-07-05 2023-01-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN111366916B (zh) * 2020-02-17 2021-04-06 山东睿思奥图智能科技有限公司 确定交互目标与机器人之间距离的方法、装置及电子设备
US11943418B2 (en) * 2020-04-16 2024-03-26 Eys3D Microelectronics Co. Processing method and processing system for multiple depth information
CN112444212B (zh) * 2020-12-17 2022-08-02 北京微链道爱科技有限公司 一种由色差引起的结构光三维测量误差的补偿方法
CN114125296B (zh) * 2021-11-24 2024-08-09 维沃移动通信有限公司 图像处理方法、装置、电子设备和可读存储介质
CN113847841A (zh) * 2021-11-29 2021-12-28 南京润景丰创信息技术有限公司 一种激光对抗训练机器人靶标系统及其控制方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092081A (ja) * 2003-09-19 2005-04-07 Matsushita Electric Ind Co Ltd 自動焦点調節方法、および自動焦点調節カメラ
JP2009116244A (ja) * 2007-11-09 2009-05-28 Nikon Corp 撮像装置
JP2010016743A (ja) * 2008-07-07 2010-01-21 Olympus Corp 測距装置、測距方法、測距プログラム又は撮像装置
KR101025405B1 (ko) * 2009-11-02 2011-03-28 중앙대학교 산학협력단 초점 조절 영상 생성 시스템, 방법 및 이를 채용한 촬영 장치
WO2011158515A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
US20130027587A1 (en) * 2010-05-17 2013-01-31 Sony Corporation Signal processing apparatus, imaging apparatus, signal processing method and program
US20130107002A1 (en) * 2011-10-26 2013-05-02 Olympus Corporation Imaging apparatus

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965840A (en) 1987-11-27 1990-10-23 State University Of New York Method and apparatus for determining the distances between surface-patches of a three-dimensional spatial scene and a camera system
JPH1167610A (ja) 1997-08-08 1999-03-09 Hitachi Aic Inc 保安装置付コンデンサ
JP4020527B2 (ja) * 1999-03-16 2007-12-12 オリンパス株式会社 電子カメラ
JP2001141988A (ja) * 1999-08-31 2001-05-25 Canon Inc 焦点調節装置及びその制御方法及びその制御プログラムを供給する媒体
US7493039B2 (en) * 2003-08-13 2009-02-17 Scalar Corporation Camera, method, and program for enhanced imaging using chromatic aberration
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
US8139886B2 (en) * 2008-06-23 2012-03-20 Microsoft Corporation Blur estimation
CN102713512B (zh) * 2010-11-17 2015-06-03 松下电器产业株式会社 摄像装置以及距离测量方法
GB2486878A (en) * 2010-12-21 2012-07-04 St Microelectronics Res & Dev Producing a 3D image from a single 2D image using a single lens EDoF camera
US8610813B2 (en) * 2011-05-31 2013-12-17 Omnivision Technologies, Inc. System and method for extending depth of field in a lens system by use of color-dependent wavefront coding
US8340456B1 (en) 2011-10-13 2012-12-25 General Electric Company System and method for depth from defocus imaging
US9639947B2 (en) * 2012-04-18 2017-05-02 Sony Corporation Method and optical system for determining a depth map of an image
JP6157249B2 (ja) * 2012-07-31 2017-07-05 キヤノン株式会社 撮像装置、距離情報取得方法およびプログラム
KR101901184B1 (ko) * 2012-09-20 2018-09-21 삼성전자주식회사 깊이 영상을 사용한 컬러 영상 처리 장치 및 방법
JP6173156B2 (ja) 2013-10-02 2017-08-02 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
US9582887B2 (en) * 2013-10-09 2017-02-28 Sony Corporation Methods and apparatus for determining field of view dependent depth map correction values

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092081A (ja) * 2003-09-19 2005-04-07 Matsushita Electric Ind Co Ltd 自動焦点調節方法、および自動焦点調節カメラ
JP2009116244A (ja) * 2007-11-09 2009-05-28 Nikon Corp 撮像装置
JP2010016743A (ja) * 2008-07-07 2010-01-21 Olympus Corp 測距装置、測距方法、測距プログラム又は撮像装置
KR101025405B1 (ko) * 2009-11-02 2011-03-28 중앙대학교 산학협력단 초점 조절 영상 생성 시스템, 방법 및 이를 채용한 촬영 장치
US20130027587A1 (en) * 2010-05-17 2013-01-31 Sony Corporation Signal processing apparatus, imaging apparatus, signal processing method and program
WO2011158515A1 (ja) * 2010-06-17 2011-12-22 パナソニック株式会社 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
US20120148109A1 (en) * 2010-06-17 2012-06-14 Takashi Kawamura Distance estimation device, distance estimation method, integrated circuit, and computer program
JP2013030895A (ja) * 2011-07-27 2013-02-07 Sony Corp 信号処理装置、撮像装置、信号処理方法およびプログラム
US20130107002A1 (en) * 2011-10-26 2013-05-02 Olympus Corporation Imaging apparatus
JP2013093754A (ja) * 2011-10-26 2013-05-16 Olympus Corp 撮像装置

Also Published As

Publication number Publication date
EP2858036A1 (en) 2015-04-08
EP3327667A1 (en) 2018-05-30
US9581436B2 (en) 2017-02-28
JP6173156B2 (ja) 2017-08-02
CN104519328B (zh) 2017-06-20
EP2858036B1 (en) 2018-01-31
US20150092992A1 (en) 2015-04-02
CN104519328A (zh) 2015-04-15
EP3327667B1 (en) 2019-08-07

Similar Documents

Publication Publication Date Title
JP6173156B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP4186699B2 (ja) 撮像装置および画像処理装置
JP5657343B2 (ja) 電子機器
JP6267502B2 (ja) 撮像装置、撮像装置の制御方法、及び、プログラム
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
JP6362068B2 (ja) 距離計測装置、撮像装置、距離計測方法、およびプログラム
US20180182075A1 (en) Image processing apparatus, image capturing apparatus, method of image processing, and storage medium
JP5882789B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2016061609A (ja) 距離計測装置、撮像装置、および距離計測方法
JP5619124B2 (ja) 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
JP6555990B2 (ja) 距離計測装置、撮像装置、および距離計測方法
JP2015012482A (ja) 画像処理装置及び画像処理方法
JP2013097154A (ja) 距離測定装置、撮像装置、距離測定方法
US11593958B2 (en) Imaging device, distance measurement method, distance measurement program, and recording medium
JP2015041900A (ja) 画像処理装置、その制御方法、および制御プログラム
JP6006506B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP6056160B2 (ja) 自動合焦装置、自動合焦方法及びプログラム
JP6436840B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US12125177B2 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer readable medium for use in mixed reality
US20230196517A1 (en) Information processing apparatus, control method of information processing apparatus, and non-transitory computer readable medium
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
JP6907040B2 (ja) 画像処理装置、撮像装置、レンズ装置、画像処理方法、プログラム、および、記憶媒体
JP6685550B2 (ja) オートフォーカス装置及びオートフォーカス用プログラム
JP2017118293A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170704

R151 Written notification of patent or utility model registration

Ref document number: 6173156

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151