JP5092434B2 - IMAGING DEVICE, SUBJECT FOLLOWING METHOD, AND PROGRAM - Google Patents
IMAGING DEVICE, SUBJECT FOLLOWING METHOD, AND PROGRAM Download PDFInfo
- Publication number
- JP5092434B2 JP5092434B2 JP2007027134A JP2007027134A JP5092434B2 JP 5092434 B2 JP5092434 B2 JP 5092434B2 JP 2007027134 A JP2007027134 A JP 2007027134A JP 2007027134 A JP2007027134 A JP 2007027134A JP 5092434 B2 JP5092434 B2 JP 5092434B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- change
- unit
- procedure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
本発明は、撮像装置、その被写体追従方法及びプログラムに関するものである。 The present invention relates to an imaging apparatus, a subject tracking method thereof, and a program.
被写体を追尾して合焦(ピント合わせ)などの特定の処理を行うオートフォーカス装置を備えた撮像装置がある(例えば、特許文献1、2参照)。
There is an imaging device including an autofocus device that performs a specific process such as focusing (focusing) by tracking a subject (see, for example,
特許文献1記載の撮像装置は、合焦対象の被写体の画像を基準パターンとして記憶し、パターンマッチングにより、撮影画像の中からその基準パターンに対応する画像を検出することにより、被写体の位置の変化を検出し、被写体を追尾するようにしている。
The imaging apparatus described in
特許文献2記載の撮像装置は、フォーカスエリアを複数の領域に分割し、各領域毎に画像が有するエントロピーを計算することにより、エントロピーの変化を検出することにより被写体の位置の変化を検出し、注目領域を移動する被写体を追尾するようにしている。
しかし、被写体を追尾する場合、被写体の向きが変わって形状が変化したり、被写体の前を、他の物体が変化したりして、様々な状況が予想される。 However, when the subject is tracked, various situations can be expected as the orientation of the subject changes and the shape changes, or another object changes in front of the subject.
特許文献1記載の撮像装置では、被写体の向きが変わって形状が変化すると、被写体と基準パターンとのパターンマッチングを行えなくなり、被写体を追尾できなくなってしまう。
In the imaging apparatus described in
また、特許文献1記載の撮像装置では、被写体の位置が撮像装置に対して前後に変化した場合、基準パターンの形状も位置も変化せず、被写体の位置の変化を検出することができない。
Further, in the imaging apparatus described in
また、特許文献2記載の撮像装置では、被写体の前後を、被写体と同じエントロピーを有する物体が横切ると、この物体を追跡してしまい、被写体の追尾を行えなくなる場合がある。
Further, in the imaging apparatus described in
本発明は、このような従来の問題点に鑑みてなされたもので、より精度良く被写体に追従させることが可能な撮像装置、その被写体追従方法及びプログラムを提供することを目的とする。 The present invention has been made in view of such a conventional problem, and an object thereof is to provide an imaging apparatus capable of following a subject with higher accuracy, a subject tracking method, and a program thereof.
この目的を達成するため、本第1の発明の第1の観点に係る撮像装置は、
被写体を繰り返し撮像するとともに前記被写体に照射されたパルス光が反射した光を受光する撮像素子と、
前記撮像素子が受光した反射光から画素毎に前記被写体までの距離情報を演算する距離情報演算部と、
前記撮像素子により取り込まれた前記被写体の画像から、視覚で得られる前記被写体の視覚情報を含めて前記被写体の形状を表した第1の画像を取得する第1の画像取得部と、
前記距離情報演算部により演算された距離情報から、当該撮像素子から前記被写体までの距離情報を含めて前記被写体の形状を表した第2の画像を取得する第2の画像取得部と、
前記撮像素子が撮像を行う毎に、前記第1の画像取得部が取得した前記第1の画像と、前記距離情報演算部が距離情報を演算する毎に、前記第2の画像取得部が取得した第2の画像とを記憶する記憶部と、
前記記憶部に記憶された前記第1の画像と前記第1の画像取得部が新たに取得した前記第1の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第1の位置変化検出部と、
前記記憶部に記憶された前記第2の画像と前記第2の画像取得部が新たに取得した前記第2の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第2の位置変化検出部と、
前記第1の位置変化検出部により推定された検出精度と前記第2の位置変化検出部により推定された検出精度を比較した比較結果に基づいて前記第1の位置変化検出部により検出された位置の変化と前記第2の位置変化検出部により検出された位置の変化のいずれか一方を前記被写体の位置の変化として決定する位置変化決定部と、
前記位置変化決定部が前記被写体の位置の変化を決定したとき、前記被写体を追尾して、特定の制御を行うための追従領域を移動させる追従領域移動部と、
を備えることを特徴とする。
To this end, an imaging apparatus according to the first aspect of the present first invention,
An image sensor that repeatedly captures an image of a subject and receives light reflected by pulsed light applied to the subject ; and
A distance information calculation unit that calculates distance information from the reflected light received by the image sensor to the subject for each pixel;
A first image acquisition unit for acquiring a first image representing the shape of the subject including visual information of the subject obtained visually from the image of the subject captured by the imaging device;
A second image acquisition unit that acquires, from the distance information calculated by the distance information calculation unit, a second image that represents the shape of the subject, including distance information from the imaging element to the subject;
The second image acquisition unit acquires the first image acquired by the first image acquisition unit and the distance information calculation unit every time the distance information calculation unit calculates distance information each time the imaging element performs imaging. A storage unit for storing the second image,
The first image stored in the storage unit and the first image newly acquired by the first image acquisition unit are compared to detect and store a change in position, which is already stored. A first position change detector that estimates detection accuracy based on a change in position detected so far;
The second image stored in the storage unit and the second image newly acquired by the second image acquisition unit are compared to detect and store a change in position, which is already stored. A second position change detection unit that estimates detection accuracy based on a change in the position detected so far;
Position detected by the first position change detecting section based on the comparison result of comparing the detection accuracy was estimated to be the detection accuracy estimated by the first position change detecting section by the second position change detecting section A position change determining unit that determines any one of a change in position and a change in position detected by the second position change detecting unit as a change in position of the subject;
When the position change determination unit has determined a change in position of the object, and tracking the object, and tracking area movement section for moving the tracking area for specific control,
And wherein the obtaining Bei a.
前記第1の位置変化検出部は、前記第1の画像と前記第1の画像取得部が新たに取得した前記第1の画像との比較結果に基づいて位置の変化を検出する際の解析方法を選択し、
前記第2の位置変化検出部は、前記第2の画像と前記第2の画像取得部が新たに取得した前記第2の画像との比較結果に基づいて位置の変化を検出する際の解析方法を選択するようにしてもよい。
また、前記距離情報演算部は、前記被写体へ照射し反射したパルス光を受光するまでの光の飛行時間に基づいて前記距離情報を演算するようにしてもよい。
The first position change detection unit is an analysis method for detecting a position change based on a comparison result between the first image and the first image newly acquired by the first image acquisition unit. Select
The second position change detection unit is an analysis method for detecting a change in position based on a comparison result between the second image and the second image newly acquired by the second image acquisition unit. May be selected .
Further, the distance information calculation unit may calculate the distance information based on a flight time of light until the pulsed light irradiated and reflected on the subject is received.
前記撮像素子は、前記被写体で反射した光を受光して、前記第1の画像を取得するための第1の画素部と、前記被写体に照射されたパルス光が反射した光を受光して、前記第2の画像を取得するための第2の画素部とを1画素ユニットとして、複数の画素ユニットをi行×j列(i,j;自然数)に行列配置して構成されたものであり、
前記第1の画像を取得するように複数の前記第1の画素部を駆動する第1の素子駆動部と、
前記第2の画像を取得するように複数の前記第2の画素部を駆動する第2の素子駆動部と、を備えてもよい。
The imaging element receives light reflected from the subject, receives first light from the first pixel unit for acquiring the first image, and light reflected from the pulse light applied to the subject, The second pixel unit for acquiring the second image is a pixel unit, and a plurality of pixel units are arranged in a matrix of i rows × j columns (i, j; natural numbers). ,
A first element driving unit that drives the plurality of first pixel units so as to acquire the first image;
A second element driving unit that drives the plurality of second pixel units so as to acquire the second image.
前記各第1の画素部は、それぞれ、前記被写体で反射した光を色成分毎に受光して信号電荷を発生させ、前記色成分毎に発生した前記信号電荷を出力する複数の受光部からなり、
前記第1の素子駆動部は、前記色成分毎に前記複数の受光部を駆動するものであってもよい。
Each of the first pixel units includes a plurality of light receiving units that receive the light reflected by the subject for each color component to generate a signal charge, and output the signal charge generated for each color component. ,
The first element driving unit may drive the plurality of light receiving units for each of the color components.
本第1の発明の第2の観点に係る撮像装置の被写体追従方法は、
撮像素子に被写体を繰り返し撮像させるとともに前記被写体に照射されたパルス光が反射した光を受光させるステップと、
前記撮像素子が受光した反射光から画素毎に前記被写体までの距離情報を演算するステップと、
前記撮像素子が撮像を行う毎に取りこまれた画像から、視覚で得られる前記被写体の視覚情報を含めて前記被写体の形状を表した第1の画像を取得するステップと、
前記距離情報を演算するステップにより取得された距離情報から、当該撮像素子から前記被写体までの距離情報を含めて前記被写体の形状を表した第2の画像を取得するステップと、
前記撮像素子が撮像を行う毎に、前記第1の画像を取得するステップで取得した前記第1の画像と、前記距離情報を演算するステップで距離情報を演算する毎に、前記第2の画像を取得するステップで取得した第2の画像とを記憶部に記憶するステップと、
前記記憶するステップで記憶された前記第1の画像と前記第1の画像を取得するステップで新たに取得した前記第1の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第1の位置の変化を検出するステップと、
前記記憶するステップで記憶された前記第2の画像と前記第2の画像を取得するステップで新たに取得した前記第2の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第2の位置の変化を検出するステップと、
前記第1の位置の変化を検出するステップにより推定された検出精度と前記第2の位置の変化を検出するステップにより推定された検出精度を比較した比較結果に基づいて前記第1の位置の変化を検出するステップにより検出された位置の変化と前記第2の位置の変化を検出するステップにより検出された位置の変化のいずれか一方を前記被写体の位置の変化として決定するステップと、
前記被写体の位置の変化を決定したとき、前記被写体を追尾するように設定された、特定の制御を行うための追従領域を移動させるステップと、
を有することを特徴とする。
The subject tracking method of the imaging apparatus according to the second aspect of the first invention is
Causing the imaging device to repeatedly image the subject and receiving light reflected by the pulsed light irradiated to the subject ;
Calculating distance information from the reflected light received by the image sensor to the subject for each pixel;
Obtaining a first image representing the shape of the subject including visual information of the subject obtained visually from an image captured each time the image sensor performs imaging;
Obtaining a second image representing the shape of the subject including distance information from the imaging element to the subject, from the distance information obtained by calculating the distance information;
Each time the image sensor captures an image, the first image acquired in the step of acquiring the first image and the second image each time the distance information is calculated in the step of calculating the distance information. Storing the second image acquired in the step of acquiring in a storage unit;
The first image stored in the storing step and the first image newly acquired in the step of acquiring the first image are compared to detect and store a change in position, and already stored Detecting a first position change for estimating detection accuracy based on a position change detected so far;
The second image stored in the storing step is compared with the second image newly acquired in the step of acquiring the second image to detect and store a change in position, and already stored Detecting a second position change for estimating detection accuracy based on the position change detected so far;
The change in the first position based on a comparison result obtained by comparing the detection accuracy estimated in the step of detecting the change in the first position with the detection accuracy estimated in the step of detecting the change in the second position. Determining one of a change in position detected by the step of detecting a change in position detected by the step of detecting a change in the second position and a change in position of the subject,
Moving a follow-up area for performing specific control, which is set to track the subject when determining a change in the position of the subject;
And wherein and Turkey, which have a.
本第1の発明の第3の観点に係るプログラムは、
コンピュータに、
撮像素子に被写体を繰り返し撮像させるとともに前記被写体に照射されたパルス光が反射した光を受光させる手順、
前記撮像素子が受光した反射光から画素毎に前記被写体までの距離情報を演算する手順、
前記撮像素子が撮像を行う毎に取りこまれた画像から、視覚で得られる前記被写体の視覚情報を含めて前記被写体の形状を表した第1の画像を取得する手順、
前記距離情報を演算する手順により取得された距離情報から、当該撮像素子から前記被写体までの距離情報を含めて前記被写体の形状を表した第2の画像を取得する手順、
前記撮像素子が撮像を行う毎に、前記第1の画像を取得する手順で取得した前記第1の画像と、前記距離情報を演算する手順で距離情報を演算する毎に、前記第2の画像を取得する手順で取得した前記第2の画像とを記憶部に記憶する手順、
前記記憶する手順で記憶された前記第1の画像と前記第1の画像を取得する手順で新たに取得した前記第1の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第1の位置の変化を検出する手順、
前記記憶する手順で記憶された前記第2の画像と前記第2の画像を取得する手順で新たに取得した前記第2の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第2の位置の変化を検出する手順、
前記第1の位置の変化を検出する手順により推定された検出精度と前記第2の位置の変化を検出する手順により推定された検出精度を比較した比較結果に基づいて前記第1の位置の変化を検出する手順により検出された位置の変化と前記第2の位置の変化を検出する手順により検出された位置の変化のいずれか一方を前記被写体の位置の変化として決定する手順、
前記被写体の位置の変化を決定したとき、前記被写体を追尾するように設定された、特定の制御を行うための追従領域を移動させる手順、
を実行させることを特徴とする。
The program according to the third aspect of the first invention is:
On the computer,
A procedure for causing the imaging device to repeatedly image the subject and receiving the light reflected by the pulsed light applied to the subject;
A procedure for calculating distance information from the reflected light received by the image sensor to the subject for each pixel;
A procedure for acquiring a first image representing the shape of the subject including visual information of the subject obtained visually from an image captured each time the image sensor performs imaging,
A procedure for obtaining a second image representing the shape of the subject including distance information from the imaging element to the subject from the distance information obtained by the procedure for calculating the distance information;
Each time the imaging device captures an image, the second image is calculated each time the first image acquired in the procedure for acquiring the first image and the distance information is calculated in the procedure for calculating the distance information. A procedure for storing the second image acquired in the procedure for acquiring in a storage unit;
The first image stored in the storing procedure is compared with the first image newly acquired in the procedure for acquiring the first image to detect and store a change in position, and already stored A procedure for detecting a first position change for estimating detection accuracy based on a position change detected so far;
A change in position is detected by comparing the second image stored in the storing procedure with the second image newly acquired in the procedure of acquiring the second image, and is already stored. A procedure for detecting a second position change for estimating a detection accuracy based on a position change detected so far;
The change in the first position based on the comparison result obtained by comparing the detection accuracy estimated by the procedure for detecting the change in the first position and the detection accuracy estimated by the procedure for detecting the change in the second position. Determining a change in position of the subject as one of a change in position detected by the procedure for detecting a change in position detected by the procedure for detecting a change in the second position and a change in position detected by the procedure for detecting the second position;
A procedure for moving a tracking area for performing specific control, which is set to track the subject when the change in the position of the subject is determined;
Is executed .
本発明によれば、精度良く被写体の追従を行うことができる。 According to the present invention, it is possible to accurately follow a subject.
以下、本発明の実施形態に係る装置を図面を参照して説明する。
本実施形態に係る撮像装置の構成を図1に示す。
本実施形態に係る撮像装置1は、センサ部11と、フラッシュ12,13と、フラッシュ制御部14と、撮像制御部15と、撮像レンズ16と、レンズ駆動部17と、フレームメモリ18と、メモリコントローラ19と、データ処理部20と、ROM21と、RAM22と、不揮発性メモリ23と、CPU24と、を備える。
Hereinafter, an apparatus according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 shows the configuration of the imaging apparatus according to this embodiment.
The
この撮像装置1は、被写体2に、フラッシュ12、13で、それぞれ、可視光、近赤外光を照射し、センサ部11の撮像エリア3内において、被写体2で反射した反射光を受光する。
The
この被写体2が、図2に示すように、それぞれ、文字が描かれるとともに位置が異なる3つの被写体2A,2B,2Cである場合、この撮像装置1は、図3(a)に示すように、撮像エリア3内において、それぞれ、カラー画像2Ai,2Bi,2Ciを取得する。
As shown in FIG. 2, when the
カラー画像2Ai,2Bi,2Ciは、それぞれ、視覚で得られる視覚情報、例えば、被写体2A,2B,2CのRGB成分、輝度の情報を含めて被写体2A,2B,2Cの形状を表した画像である。
The color images 2Ai, 2Bi, and 2Ci are images that represent the shapes of the
また、この撮像装置1は、図3(b)に示すように、撮像エリア3内において、距離画像2Ai,2Bi,2Ciを取得する。距離画像2Ad,2Bd,2Cdは、それぞれ、撮像装置1から被写体2A,2B,2Cまでの距離情報を含めて被写体2A,2B,2Cの形状を表した画像である。
In addition, the
撮像装置1と被写体2A,2B、2Cとの距離を、2A<2B<2Cとすると、撮像装置1は、図3(b)に示すように、距離画像2Ad,2Bd,2Cdの輝度を、2Ad>2Bd>2Cdとなるように設定する。
Assuming that the distance between the
本実施形態の撮像装置1は、このカラー画像2Ai,2Bi,2Ciと、距離画像2Ad,2Bd,2Cdと、を同時に取得するように構成されている。
The
また、この撮像装置1は、被写体2に合焦するように、被写体2を追尾してAF処理を行う機能を有している。
The
図1に戻り、センサ部11は、撮像素子101と、素子駆動部102,103と、を備える。
Returning to FIG. 1, the
撮像素子101は、カラー画像と距離画像とを取得するものであり、図4に示すように、画素回路101Gと、画素回路101Rと、画素回路101Bと、画素回路101Lと、によって構成される。
The
画素回路101G,101R,101Bは、それぞれ、被写体2のG(Green)成分、R(Red)成分、B(Blue)成分を取得するためのものである。画素回路101Lは、距離画像を取得するためのものである。
The
撮像素子101は、1つの画素回路101G、101R、101B、101Lを1つの画素ユニットとして、複数の画素ユニットによって構成される。本実施形態では、画素ユニットが、n行×n列(nは0を除く自然数)に行列配置されるものとする。
The
このn×nの画素回路101G、101R、101B、101Lによって、それぞれ、G,R,B成分のカラー画像取得用の画素アレイが構成され、n×nの画素回路101Lによって、距離画像取得用の画素アレイが構成される。
The n × n
尚、画素アレイの行列配置された各画素回路101G、101R、101B、101Lを、ぞれぞれ、画素回路101G(i,j)、101R(i,j)、101B(i,j)、101L(i,j)と表すものとする(i,j;整数、1≦i≦n,1≦j≦n)。
The
この撮像装置1は、このような画素アレイを含んで構成されたカラー画像取得部と距離画像取得部とを備える。カラー画像取得部は、図3(a)に示すようなカラー画像2Ai,2Bi、2Ciを取得するためのものであり、距離画像取得部は、図3(b)に示すような距離画像2Ad,2Bd,2Cdを取得するためのものである。
The
図5は、G成分のカラー画像取得用の画素アレイを含んで構成されたカラー画像取得部200の構成を示す図である。カラー画像取得部200は、フラッシュ12と、フラッシュ制御部14と、画素アレイ201と、垂直走査部202と、水平走査部203と、トランジスタQ1−1〜Q1−nと、増幅器204と、A/D変換器205と、によって構成される。
FIG. 5 is a diagram illustrating a configuration of a color
撮像装置1は、このような構成を有するG成分用のカラー画像取得部200とともに、R成分用、B用のカラー画像取得部200も備えている。本実施形態では、G成分用のカラー画像取得部200についてのみ説明する。
The
尚、図1に示す素子駆動部102は、G,R,B成分用の垂直走査部202と、水平走査部203と、トランジスタQ11−1〜Q11−nと、増幅器204とが、A/D変換器205と、によって構成される。
1 includes a
フラッシュ12は、被写体2に向けて可視光を発するものである。フラッシュ制御部14は、CPU24からタイミング信号Stが供給されて、フラッシュ12を発光させるものである。
The
画素アレイ201は、被写体2で反射した可視光を受光するものであり、前述のようにn×nの画素回路101G(i,j)によって構成される。各画素回路101G(i,j)は、図6に示すように、フォトダイオードPD11と、トランジスタQ11〜Q13と、によって構成される。
The
フォトダイオードPD11は、被写体2で反射したG成分の光を受光して受光した光の量に対応する量の信号電荷を発生させて、出力するものであり、アノードは接地される。
The photodiode PD11 receives the G component light reflected by the
トランジスタQ11は、ゲート(端子)にリセット信号R11が供給されてフォトダイオードPD11をリセットするトランジスタである。 The transistor Q11 is a transistor that resets the photodiode PD11 when the reset signal R11 is supplied to the gate (terminal).
トランジスタQ11のゲートは、リセット線L11に接続され、ソースは、フォトダイオードPD11のカソードに接続され、ドレインには、正電圧が印加される。 The gate of the transistor Q11 is connected to the reset line L11, the source is connected to the cathode of the photodiode PD11, and a positive voltage is applied to the drain.
トランジスタQ12は、フォトダイオードPD11が生成した信号電荷による電流を増幅するためのものであり、そのゲートは、フォトダイオードPD11のカソードに接続され、ドレインには、正電圧が印加される。 The transistor Q12 is for amplifying the current due to the signal charge generated by the photodiode PD11, its gate is connected to the cathode of the photodiode PD11, and a positive voltage is applied to its drain.
トランジスタQ13は、行選択用のトランジスタであり、そのゲートは、行選択線L12に接続され、ドレインは、トランジスタQ12のソースに接続され、ソースは、垂直信号線L13に接続される。 The transistor Q13 is a row selection transistor, the gate is connected to the row selection line L12, the drain is connected to the source of the transistor Q12, and the source is connected to the vertical signal line L13.
垂直走査部202は、CPU24からタイミング信号Stが供給されて、行を選択し、その行の画素回路101Gをリセットするとともに、信号出力を制御するためのものである。垂直走査部202は、選択した行のリセット線L11を介して画素回路101GのトランジスタQ11のゲートに、リセット信号R11を出力することにより、選択した行の画素回路101Gをリセットする。
The
また、垂直走査部202は、選択した行の行選択線L12を介して各画素回路101GのトランジスタQ13のゲートに、行選択信号S11を出力することにより、信号出力を制御する。
The
トランジスタQ1−1〜Q1−nは、行選択線L12に接続された画素回路101G(i,j)からの信号Siの出力を制御するためのものであり、各ドレインは、各垂直信号線L13に接続され、各ソースは、増幅器204の入力端に接続される。
The transistors Q1-1 to Q1-n are for controlling the output of the signal Si from the pixel circuit 101G (i, j) connected to the row selection line L12, and each drain is connected to each vertical signal line L13. And each source is connected to the input of an
水平走査部203は、CPU24からタイミング信号Stが供給されて、トランジスタQ1−1〜Q1−nを制御し、信号Siを選択して出力するためのものである。
The
水平走査部203は、第1列目のトランジスタQ1−1のゲートに、ハイレベルの列選択信号S12を出力してトランジスタQ1−1をオンする。トランジスタQ1−1が信号Siを出力すると、列選択信号S12の信号レベルをローレベルに設定して、トランジスタQ1−1をオフする。
The
水平走査部203は、第2列目のトランジスタQ1−2、・・・第n列目のトランジスタQ1−nについても、順次、列選択信号S12を出力して、このような処理を行う。
The
増幅器204は、各トランジスタQ1−1〜Q1−nから出力された信号Siの信号電圧を増幅するものである。
The
A/D変換器205は、増幅器204が信号電圧を増幅したアナログの信号Siを、カラー画像データとして、ディジタルデータに変換するものである。素子駆動部102は、このA/D変換器205が変換したカラー画像データを出力する。
The A /
次に、距離画像取得用の画素アレイを含んで構成された距離画像取得部300の構成について説明する。この距離画像取得部300には、例えば、特開2004−294420号公報に記載されたものが用いられる。
Next, the configuration of the distance
この距離画像取得部300は、被写体2にパルス光を照射し、このパルス光が被写体2で反射して受光するまでの光の飛行時間に基づいて距離画像を取得するものである。
The distance
この距離画像取得部300は、図7に示すように、フラッシュ13と、撮像制御部15と、画素アレイ301と、受光レンズ302と、タイミング制御部303と、垂直シフトレジスタ304と、サンプルホールド部305−1〜305−nと、スイッチ部306−1〜306−nと、水平シフトレジスタ307と、出力バッファ308−1,308−2と、演算部309と、A/D変換器310と、によって構成される。
As shown in FIG. 7, the distance
尚、図1に示すセンサ部11の素子駆動部103は、タイミング制御部303と、垂直シフトレジスタ304と、サンプルホールド部305−1〜305−nと、スイッチ部306−1〜306−nと、水平シフトレジスタ307と、出力バッファ308−1,308−2と、演算部309と、A/D変換器310と、によって、構成される。
1 includes a
フラッシュ13は、被写体2に向けて近赤外光を照射するものである。撮像制御部15は、距離画像を取得するために、CPU24によって指示されて、フラッシュ13とセンサ部11とを制御するものである。
The
撮像制御部15は、図8(a)に示すようなクロック信号CLKを生成するクロック信号生成部(図示せず)と、このクロック信号CLKのクロック数をカウントするカウンタと、を備える。
The
撮像制御部15は、時刻t0から、クロック信号生成部が生成したクロック信号CLKのレベルが反転する毎にフラッシュ13を点滅することにより、近赤外光のパルス変調を行う。
From time t0, the
尚、期間Tpは、クロック信号CLKの信号レベルがハイレベルとなる期間を示し、期間Tqは、クロック信号CLKの信号レベルがローレベルとなる期間を示し、期間Tpと期間Tqとは、等しいものとする。 Note that the period Tp indicates a period in which the signal level of the clock signal CLK is high, the period Tq indicates the period in which the signal level of the clock signal CLK is low, and the period Tp and the period Tq are equal. And
撮像制御部15は、画素回路101L内のフォトダイオードPD11の暗電流を検出するため、カウント数がN(Nは1以上の自然数)になる時刻t1において、フラッシュ13を消灯する。図8に示す期間Ta(時刻t0〜t1)は、フラッシュ13を点滅させてパルス変調を行う期間を示す。
In order to detect the dark current of the photodiode PD11 in the
そして、カウンタは、カウント数をリセットして、再び、時刻t1から、クロック信号CLKのクロック数をカウントし、撮像制御部15は、クロック数がNになる時刻t2まで、フラッシュ13を消灯する。図8に示す期間Tb(時刻t1〜t2)は、このフラッシュ13を消灯する期間を示す。
Then, the counter resets the count number and again counts the clock number of the clock signal CLK from time t1, and the
撮像制御部15は、このクロック信号生成部が生成したクロック信号CLKをタイミング制御部303、垂直シフトレジスタ304に供給する。
The
画素アレイ301は、フラッシュ13が照射した近赤外光が被写体2で反射したフラッシュ光を受光するものであり、前述のように、n×nの画素回路101L(i,j)によって構成される。
The
本実施形態に係る距離画像取得部300は、CMOS型の構成を有している。図9(a)は、本実施形態に係る各画素回路101L(i,j)の構成を示す図であり、図9(b)は、この各画素回路101L(i,j)の等価回路の構成を示す図である。
The distance
本実施形態に係る各画素回路101L(i,j)は、図9(a)に示すように、n層311a、p+層311b、n+層311c、311d、シリコン酸化膜311e、制御電極311f、311gが形成されたp型シリコン基板311と、遮光膜312と、トランジスタQ21,Q22と、増幅器313と、によって構成される。
As shown in FIG. 9A, each
図9(b)に示すフォトダイオードPD12は、被写体2で反射した光を受光して受光した光の量に対応する量の信号電荷を発生させて、出力するものであり、図9(a)に示すn層311aとp+層311bとによって構成される。
The photodiode PD12 shown in FIG. 9B receives the light reflected by the
図9(b)に示すトランジスタQ21は、図9(a)に示すp型シリコン基板311とn層311aと制御電極311fとn+層311cとによって構成される。この場合、n層311a、n+層311c、制御電極311fが、それぞれ、トランジスタQ21のドレイン、ソース、ゲートになる。
The transistor Q21 shown in FIG. 9B includes the p-
図9(b)に示すトランジスタQ22は、図9(a)に示すp型シリコン基板311とn層311aと制御電極311gとn+層311dとによって構成される。この場合、n層311a、n+層311d、制御電極311gが、それぞれ、トランジスタQ22のドレイン、ソース、ゲートになる。
The transistor Q22 shown in FIG. 9B includes the p-
シリコン酸化膜311eは、p型シリコン基板311及びp型シリコン基板311に形成された各層を絶縁するためのものであり、被写体2から反射した近赤外光を透過する。
The
遮光膜312は、フォトダイオードPD12に相当するn層311a、p+層311bの上部のみ開口し、この領域を除くp型シリコン基板311を遮光する。これにより、フォトダイオードPD12のみが被写体2から反射した近赤外光を受光する。
The
制御電極311f,311gは、それぞれ、制御信号TX1,TX2が印加される電極である。制御電極311fに、ハイレベルの制御信号TX1が印加されると、制御電極311f下にチャンネルが形成されて、図9(b)に示すトランジスタQ21はオンする。
The
また、制御電極311gも同様に、ハイレベルの制御信号TX2が印加されると、制御電極311g下にチャンネルが形成されて、図9(b)に示すトランジスタQ22はオンする。
Similarly, when a high level control signal TX2 is applied to the
従って、ハイレベルの制御信号TX1,TX2が、それぞれ、制御電極311f,311gに、交互に印加され、トランジスタQ21がオンすると、フォトダイオードPD12に蓄積された信号電荷による電流はトランジスタQ21のドレイン−ソースを経由して垂直信号線L21へと流れる。
Therefore, when the high level control signals TX1 and TX2 are alternately applied to the
一方、トランジスタQ22がオンすると、フォトダイオードPD12に蓄積された信号電荷による電流はトランジスタQ22のドレイン−ソースを経由して垂直信号線L22へと流れる。 On the other hand, when the transistor Q22 is turned on, a current due to the signal charge accumulated in the photodiode PD12 flows to the vertical signal line L22 via the drain-source of the transistor Q22.
このように、各画素回路101Lは、ハイレベルの制御信号TX1,TX2が交互に供給されることにより、フラッシュ13が点灯している期間Tpに受光した反射光により発生した第1の信号電荷と、フラッシュ13が消灯している期間Tqに受光した反射光により発生した第2の信号電荷とに分けて出力する。
In this manner, each
図9(a),(b)に示すトランジスタQ23,Q24は、フォトダイオードPD12をリセットするためのものである。 Transistors Q23 and Q24 shown in FIGS. 9A and 9B are for resetting the photodiode PD12.
トランジスタQ23,Q24のソースは、それぞれ、図9(a)に示すn+層311c、321dに接続され、それぞれのドレインには、電圧+Vの電源ラインから電流が供給される。 The sources of the transistors Q23 and Q24 are respectively connected to the n + layers 311c and 321d shown in FIG. 9A, and currents are supplied to the respective drains from the power supply line of voltage + V.
増幅器313は、図9(b)に示すトランジスタQ21,Q22の出力電流を増幅するためのものであり、トランジスタQ25〜Q27を備える。トランジスタQ25のドレインには、電圧+Vの電源ラインから電流が供給される。
The
トランジスタQ26,Q27のドレインは、トランジスタQ25のソースに接続され、ソースは、それぞれ、垂直信号線L21,L22に接続される。トランジスタQ26,Q27のゲートは、それぞれ、トランジスタQ21,Q22のソースに接続される。 The drains of the transistors Q26 and Q27 are connected to the source of the transistor Q25, and the sources are connected to the vertical signal lines L21 and L22, respectively. The gates of transistors Q26 and Q27 are connected to the sources of transistors Q21 and Q22, respectively.
そして、トランジスタQ25は、ゲートにハイレベルの行選択信号S21が供給されるとオンして、トランジスタQ26,Q27に電流を供給する。トランジスタQ21がトランジスタQ26のゲートに電流を供給すると、ゲート電圧はハイレベルとなって、トランジスタQ26はオンする。 The transistor Q25 is turned on when a high-level row selection signal S21 is supplied to the gate, and supplies current to the transistors Q26 and Q27. When the transistor Q21 supplies current to the gate of the transistor Q26, the gate voltage becomes high level and the transistor Q26 is turned on.
トランジスタQ26は、オンして、トランジスタQ21の出力電流を増幅し、電流増幅した信号を信号Sd1として、この信号Sd1の信号電流を垂直信号線L21に出力する。 The transistor Q26 is turned on, amplifies the output current of the transistor Q21, outputs the signal Ad as a signal Sd1, and outputs the signal current of the signal Sd1 to the vertical signal line L21.
また、トランジスタQ22がトランジスタQ27のゲートに電流を供給すると、トランジスタQ27のゲート電圧はハイレベルとなって、トランジスタQ27は、オンする。 When the transistor Q22 supplies current to the gate of the transistor Q27, the gate voltage of the transistor Q27 becomes high level and the transistor Q27 is turned on.
トランジスタQ27は、オンして、トランジスタQ22の出力電流を増幅し、電流増幅した信号を信号Sd2として、この信号Sd2の信号電流を垂直信号線L22に出力する。 The transistor Q27 turns on, amplifies the output current of the transistor Q22, outputs the signal current of the signal Sd2 to the vertical signal line L22 as the signal Sd2.
図7に示す受光レンズ302は、各画素回路101L(i,j)のフォトダイオードPD12に光を集光するためのレンズである。
The
タイミング制御部303は、撮像制御部15から供給されたクロック信号CLKのクロックタイミングに同期して、各画素回路101L(i,j)から信号Sd1,Sd2の信号電流を出力する出力タイミングを制御するためのものである。
The
タイミング制御部303は、各制御線L23を介して各画素回路101L(i,j)に、行毎に制御信号TX1を供給する。タイミング制御部303は、制御信号TX1の信号レベルを、図8(d)に示すように、期間Tpでは、ハイレベルに設定し、期間Tqでは、ローレベルに設定する。
The
また、タイミング制御部303は、各制御線L24を介して各画素回路101L(i,j)に、行毎に制御信号TX2を供給する。タイミング制御部303は、制御信号TX2の信号レベルを、図8(e)に示すように、期間Tpでは、ローレベルに設定し、期間Tqでは、ハイレベルに設定する。
In addition, the
垂直シフトレジスタ304は、行を選択して、選択した行の画素回路101L(i,1)をリセットして、信号Sd1,Sd2の信号電流を出力する行の画素回路101Lを選択するためのものである。
The
垂直シフトレジスタ304は、第j行目の画素回路101L(1,j)〜101L(n,j)を選択する場合、図8(f)に示すように、期間Ta、期間Tbの始めのクロック信号CLKの1周期において、それぞれ、図7に示すリセット線L15を介して、ハイレベルのリセット信号R21を画素回路101L(i,1)に供給する。
When the
また、垂直シフトレジスタ304は、期間Ta、期間Tbのそれぞれのクロック信号CLKの1周期が終了すると、リセット信号R21をローレベルに設定してリセットを終了させる。
Further, the
そして、垂直シフトレジスタ304は、図8(g)に示すように、それぞれ、期間Ta,Tbが終了するまで、画素回路101L(1,j)〜101L(n,j)にハイレベルの行選択信号S21を供給する。
Then, as shown in FIG. 8G, the
サンプルホールド部305−1〜305−nは、列毎に、各画素回路101L(i,j)から垂直信号線L21を介して出力された信号Sd1の信号電流、垂直信号線L22に出力された信号Sd2の信号電流を個別に蓄積して、それぞれの信号電圧をサンプルホールドするためのものである。サンプルホールド部305−1〜305−nは、それぞれ、サンプルホールド回路321,322を備える。
The sample hold units 305-1 to 305-n output the signal current of the signal Sd1 output from each
サンプルホールド回路321は、各画素回路101L(i,j)から垂直信号線L21を介して出力された信号Sd1の信号電流を蓄積し、蓄積した信号電流による信号電圧をサンプルホールドするものである。
The
サンプルホールド回路322は、各画素回路101L(i,j)から垂直信号線L22を介して出力された信号Sd2の信号電流を蓄積し、蓄積した信号電流による信号電圧をサンプルホールドするものである。
The
スイッチ部306−1〜306−nは、各サンプルホールド部305−1〜305−nのサンプルホールド回路321,322がそれぞれサンプルホールドした信号Sd1の信号電圧,信号Sd2の信号電圧の出力を制御するためのものである。
The switch units 306-1 to 306-n control the output of the signal voltage of the signal Sd1 and the signal voltage of the signal Sd2 sampled and held by the
水平シフトレジスタ307は、スイッチ部306−1〜306−nから、いずれか1つのスイッチ部306−jを選択して、選択したスイッチ部306−iをオンするものである。
The
水平シフトレジスタ307は、図8(h)に示すように、選択したスイッチ部306−iに、ハイレベルの列選択信号S22を出力することにより、スイッチ部306−iをオンする。
As shown in FIG. 8H, the
出力バッファ308−1,308−2は、それぞれ、各サンプルホールド部305−1〜305−nから出力された信号Sd1の信号電圧,信号Sd2の信号電圧を個別に一時記憶するためのものである。 The output buffers 308-1 and 308-2 are for temporarily storing individually the signal voltage of the signal Sd1 and the signal voltage of the signal Sd2 output from the sample hold units 305-1 to 305-n, respectively. .
演算部309は、出力バッファ308−1,308−2がそれぞれ一時記憶している信号Sd1の信号電圧,信号Sd2の信号電圧に基づいて、被写体2までの距離を演算し、距離画像データを取得するものである。
The
演算部309は、出力バッファ308−1が一時記憶した信号電圧を記憶するメモリを備える。そして、演算部309は、サンプルホールド部のサンプルホールド回路321,322が期間Taにおいて、それぞれ、サンプルホールドした信号Sd1の信号電圧V1、信号Sd2の信号電圧V2を、それぞれ、出力バッファ308−1,308−2から取得して、内蔵するメモリに記憶する。
The
また、演算部309は、サンプルホールド回路321,322が期間Tbにおいて、それぞれ、サンプルホールドした信号Sd1の信号電圧V1’、信号Sd2の信号電圧V2’を、それぞれ、出力バッファ308−1から取得して、内蔵するメモリに記憶する。演算部309は、内蔵するメモリに記憶した信号電圧V1,V1’,V2,V2’に基づいて、被写体2までの距離を演算し、距離画像データを取得する。
In addition, the
この演算部309の距離画像データを取得する処理について説明する。
フォトダイオードPD12は、図8(b),(c)に示すように、期間Taにおいて、フラッシュ13が点灯してから、遅れ時間Tdだけ遅れて、このフラッシュ光を受光する。この遅れ時間Tdは、撮像装置1と被写体2と間を往復する光の飛行時間に相当するものであり、撮像装置1と被写体2と間の距離に比例する。
A process of acquiring distance image data of the
As shown in FIGS. 8B and 8C, the photodiode PD12 receives the flash light in the period Ta with a delay time Td after the
画素回路101L(i,j)のフォトダイオードPD12は、フラッシュ光を受光している間、信号電荷を生成する。受光した光の強度を一定として、受光した光によってフォトダイオードPD12に蓄積される信号電荷の量は、受光した時間に比例する。
The photodiode PD12 of the
信号電圧V1は、次の式(1)によって表される。
V1=Gc・N・(Id1・(Tp−Td)
+Id1・2Tp+Ib・Tp)
・・・・・・(1)
但し、Gc:利得
N:クロック信号CLKのパルス数
Ip:フォトダイオードPD12
が生成した信号電荷による電流(量)
Id1:フォトダイオードPD12から
トランジスタQ21に流れる暗電流(の量)
The signal voltage V1 is expressed by the following equation (1).
V1 = Gc · N · (Id1 · (Tp−Td)
+ Id1 · 2Tp + Ib · Tp)
(1)
Where Gc: Gain
N: Number of pulses of the clock signal CLK
Ip: Photodiode PD12
Current (quantity) due to signal charge generated by
Id1: From photodiode PD12
Dark current flowing through transistor Q21
信号電圧V2は、次の式(2)によって表される。
V2=Gc・N・(Id1・Td+Id2・2Tq+Ib・Tq)
・・・・・・(2)
但し、Id1:フォトダイオードPD12から
トランジスタQ22に流れる暗電流暗電流(の量)
The signal voltage V2 is expressed by the following equation (2).
V2 = Gc · N · (Id1 · Td + Id2 · 2Tq + Ib · Tq)
(2)
However, from Id1: photodiode PD12
Dark current (current amount) flowing through transistor Q22
信号電圧V1’は、次の式(3)によって表される。
V1’=Gc・N・(Id1・2Tp+Ib・Tp) ・・・(3)
The signal voltage V1 ′ is expressed by the following equation (3).
V1 ′ = Gc · N · (Id1 · 2Tp + Ib · Tp) (3)
信号電圧V2’は、次の式(4)によって表される。
V2’=Gc・N・(Id2・2Tq+Ib・Tq) ・・・(4)
The signal voltage V2 ′ is expressed by the following equation (4).
V2 ′ = Gc · N · (Id2 · 2Tq + Ib · Tq) (4)
Tp=Tqであり、式(1)〜(4)より、遅れ時間Tdは、次の式(5)によって表される。
但し、
V11=V1+V2
V12=V1’+V2’
V13=V1−V1’
V14=V2−V2’
・・・・・・(5)
Tp = Tq, and the delay time Td is expressed by the following equation (5) from the equations (1) to (4).
However,
V11 = V1 + V2
V12 = V1 '+ V2'
V13 = V1-V1 '
V14 = V2-V2 '
(5)
演算部309は、この式(5)に従い、信号Sd1の信号電圧V1,V1’、信号Sd2の信号電圧V2,V2’に基づいて遅れ時間Tdを演算する。
The
この遅れ時間Tdは、被写体2までの光の飛行時間に比例し、光の飛行時間は、被写体2までの距離に比例する。このため、演算部309は、遅れ時間Tdに基づいて、被写体2までの距離を演算する。
The delay time Td is proportional to the flight time of light to the
演算部309は、このような演算を、各画素回路101L(i,j)に対して、各行、各列毎に行い、演算した距離値をアナログで出力する。
The
このように、演算部309は、各画素回路101Lが出力した2つの信号電荷の量に基づいて、フラッシュ13が点灯してからフォトダイオードPD12が反射光を受光するまでの遅れ時間を計測し、計測した遅れ時間に基づいて、被写体2までの距離情報を取得するように構成されている。
As described above, the
A/D変換器310は、演算部309が出力したアナログの距離値を距離画像データとして、ディジタルデータに変換するものである。素子駆動部103は、このA/D変換器310が変換した距離画像データを出力する。
The A /
このように、各画素回路101Lは、フラッシュ13が点灯している期間Tpに受光した反射光により発生した第1の信号電荷と、フラッシュ13が消灯している期間Tqに受光した反射光により発生した第2の信号電荷とに分けて出力する。
As described above, each
そして、各画素回路101Lは、第1の信号電荷の量と前記第2の信号電荷の量とに基づいて、フラッシュ13が点灯してからフォトダイオードPD12が反射光を受光するまでの遅れ時間を計測し、計測した遅れ時間に基づいて、被写体2までの距離情報を取得するように構成されている。
Then, each
図1に戻り、撮像レンズ16は、被写体2の画像を撮像素子101上に結像させるためのものである。レンズ駆動部17は、CPU24から、コントロール信号Sc1が供給されて、被写体2への合焦が行われるように、撮像レンズ16を駆動するためのものである。
Returning to FIG. 1, the
フレームメモリ18は、センサ部11の素子駆動部102(A/D変換器204)、素子駆動部103(A/D変換器309)からそれぞれ出力されたカラー画像データ、距離画像データを記憶するためのものであり、カラー画像領域18aと距離画像領域18bとを有する。
The
カラー画像領域18aは、センサ部11の素子駆動部102(増幅器204)から出力されたカラー画像データを格納するための領域であり、距離画像領域18bは、センサ部11の素子駆動部103(演算部309)から出力された距離画像データを格納するための領域である。
The
メモリコントローラ19は、フレームメモリ18への記憶処理を行うものであり、センサ部11から出力されたカラー画像データ、距離画像データを、それぞれ、カラー画像領域18a、距離画像領域18bに格納する。
The
メモリコントローラ19は、各画素回路101G(i,j),101R(i,j),101B(i,j)毎に、センサ部11の素子駆動部102(A/D変換器204)から出力されたカラー画像データをカラー画像領域18aに格納する。
The
また、メモリコントローラ19は、画素回路101L(i,j)毎に、センサ部11の素子駆動部103((A/D変換器310)から出力された距離画像データを距離画像領域18bに格納する。
Further, the
データ処理部20は、フレームメモリ18に記憶されたカラー画像データ、距離画像データに対して、データ処理を施すものである。データ処理部20は、フレームメモリ18のカラー画像領域18aに記憶されているカラー画像データに基づいて、画素毎に、G,R,B成分のカラー画像を取得する。
The
また、データ処理部20は、フレームメモリ18の距離画像領域18bに記憶されている距離画像データに基づいて、画素毎に、色、明度を設定して、距離画像を取得する。
Further, the
ROM21は、CPU24が実行するプログラム等を記憶するためのメモリである。RAM22は、CPU24が処理を実行するために必要なデータを供給するためのものである。不揮発性メモリ23は、データ処理部20が取得したカラー画像、距離画像のデータを記憶するものである。
The
CPU24は、ROM21に記憶されたプログラムに従って、撮像装置1全体を制御するものである。
The
具体的に、例えば、撮像装置1がデジタルカメラに備えられた場合、ハーフシャッターが押下されると、CPU24は、ROM21からAF処理のプログラムを読み出してAF処理を実行する。CPU24は、この処理として、まず、図10に示すように、撮像エリア3内に追従領域(フォーカスエリア)FAを設定する。
Specifically, for example, when the
CPU24は、予め設定された周期で制御信号Sc1を繰り返しレンズ駆動部17に供給し、撮像レンズ16の焦点位置を調整して、この追従領域FAに合わせ込まれた被写体2の合焦を行う。
The
CPU24は、例えば、山登りサーボ方式により、被写体2の合焦を行う。この山登りサーボ方式は、撮像素子101から得られる信号から特定の高周波成分を取得し、この高周波成分の振幅が最大となるように撮像レンズ16の位置を前後に移動させる方式である。
The
CPU24は、予め設定された周期でタイミング信号Stを繰り返しフラッシュ制御部14、撮像制御部15、センサ部11の素子駆動部102,103に供給して、各部を動作させる。
The
次に、CPU24は、データ処理部20が生成したカラー画像、距離画像に基づいて、被写体2の位置の変化の検出処理を行い、さらに、被写体2の移動後の位置データを取得する。
Next, the
即ち、データ処理部20がカラー画像を生成すると、CPU24は、新たなカラー画像をデータ処理部20から取得し、不揮発性メモリ23から、既に取得したカラー画像、距離画像を取得する。
That is, when the
また、データ処理部20が距離画像を生成すると、CPU24は、新たな距離画像をデータ処理部20から取得し、不揮発性メモリ23から、既に取得した距離画像を取得する。
When the
そして、CPU24は、2つのカラー画像を比較して、被写体2の位置の変化を検出するための解析方法を選択する。また、CPU24は、2つの距離画像を比較して、被写体2の位置の変化を検出するための解析方法を選択する。
Then, the
解析方法としては、以下の3つの方法が考えられる。まず、解析方法1は、パターンマッチング方法により、被写体2の位置を検出する方法である。
The following three methods can be considered as analysis methods. First,
解析方法2は、撮像エリア3を小領域に区分し、区分した各小領域のエントロピーの変化を検出することにより、被写体2の位置を検出する方法である。エントロピーは、画面内のある画素における事象の生起確率である。
The
解析方法3は、撮像エリア3を小領域に区分し、区分した各小領域の色差信号の変化を検出することにより、被写体2の位置を検出する方法である。
The
カラー画像の場合、CPU24は、解析方法1〜3のいずれかの方法を用いて被写体2の動きを判別する。
In the case of a color image, the
距離画像の場合、距離画像に色差成分が含まれないため、CPU24は、解析方法3を用いることができず、解析方法1又は2を用いて被写体2の位置を解析する。
In the case of a distance image, since the color difference component is not included in the distance image, the
そして、CPU24は、カラー画像の場合は、上記解析方法1〜3から選択し、2つのカラー画像を比較して、選択した解析方法に従い、被写体2の位置の変化を検出する。
And in the case of a color image, CPU24 selects from the said analysis methods 1-3, compares two color images, and detects the change of the position of the to-
また、CPU24は、距離画像の場合は、上記解析方法1又は2を選択し、2つの距離画像を比較して、選択した解析方法に従い、被写体2の位置の変化を検出する。
In the case of a distance image, the
CPU24は、2つのカラー画像を比較して被写体2の位置が変化したか否かを判定し、位置が変化したと判定した場合は、被写体2の移動後の位置を取得する。
The
そして、CPU24は、新たに取得したカラー画像のデータと被写体2の移動後の位置データとをRAMに記憶する。
Then, the
距離画像についても同様に、CPU24は、2つの距離画像を比較して被写体2の位置が変化したか否かを判定し、位置が変化したと判定した場合は、被写体2の移動後の位置を取得する。
Similarly for the distance image, the
そして、CPU24は、新たに取得した距離画像のデータと被写体2の移動後の位置データとをRAMに記憶する。
Then, the
CPU24は、RAMに記憶した2つの位置データが正当なものであるか否かを判定し、正当な位置データであると判定した場合、RAMに記憶した新たな位置データを不揮発性メモリ23に記憶する。
The
即ち、被写体2がどのように移動してきたか、その移動の履歴に基づいて、2つの位置データが正当なものか否かを判別する。
That is, it is determined whether or not the two position data are valid based on how the
被写体2が今までと全く異なる位置に出現する可能性は低く、被写体2が突然進行方向を変える可能性も低い。
The possibility that the
このため、CPU24は、不揮発性メモリ23に記憶した位置データに基づいて、被写体2の移動方向に範囲を設定し、この範囲内の位置データを正当と判定する。
Therefore, the
CPU24は、このように正当と判定した位置データを不揮発性メモリ23に記憶する。尚、CPU24は、不揮発性メモリ23に記憶するデータ数に対して、予め制限数を設定し、記憶するデータの数がこの制限数を越えた場合、古いデータを消去する。
The
次に、CPU24は、2つのカラー画像を比較した結果、取得した位置データと、2つの距離画像を比較した結果、取得した位置データとのいずれか一方を選択する。
Next, the
2つのカラー画像を比較した結果、取得した位置データと、2つの距離画像を比較した結果、取得した位置データと、が重なっている場合、CPU24は、この重なっている位置データを被写体2の移動先の位置のデータとして採用する。
If the acquired position data overlaps with the acquired position data as a result of comparing the two color images, and the acquired position data as a result of comparing the two distance images, the
CPU24は、このように、被写体2の移動後の位置データを取得すると、被写体2の移動後の位置に追従領域FAを移動させ、レンズ駆動部17に制御信号Sc1を供給してレンズ駆動部17を制御し、新たな追従領域FAで被写体2の合焦を行う。
When the
次に実施形態1に係る撮像装置1の動作を説明する。
例えば、撮像装置1がデジタルカメラに備えられた場合、ハーフシャッターが押下されると、CPU24は、ROM21からAF処理のプログラムデータを読み出す。CPU24は、図11,12に示すフローチャートに従って、ハーフシャッタが押下されている間、予め設定された周期で繰り返しこのAF処理を実行する。
Next, the operation of the
For example, when the
CPU24は、タイミング信号Stをフラッシュ制御部14、撮像制御部15、センサ部11に供給する(ステップS11)。
The
フラッシュ制御部14は、フラッシュ12を発光させて、可視光を被写体2に向けて投射し、撮像制御部15は、フラッシュ13を発光させて、パルス変調した近赤外光を被写体2に向けて投射する。
The
センサ部11は、CPU24からタイミング信号Stが供給されると、カラー画像データ、距離画像データを生成し、メモリコントローラ19は、カラー画像データ、距離画像データを、それぞれ、フレームメモリ18のカラー画像領域18a、距離画像領域18bに記憶する。
When the timing signal St is supplied from the
データ処理部20は、フレームメモリ18のカラー画像領域18a、距離画像領域18bに記憶されたデータに基づいて、カラー画像、距離画像を生成する。
The
CPU24は、データ処理部20が生成した新たなカラー画像を取得する(ステップS12)。
The
CPU24は、不揮発性メモリ23から、カラー画像を取得する(ステップS13)。
The
CPU24は、新たに取得したカラー画像と不揮発性メモリ23から取得したカラー画像を比較する(ステップS14)。
CPU24は、比較結果に基づいて、解析方法を選択する(ステップS15)。
The
The
CPU24は、選択した解析方法を用いて、被写体2の位置の変化を解析する(ステップS16)。
The
CPU24は、解析の結果、被写体2の位置が変化したか否かを判定する(ステップS17)。
The
被写体2の位置が変化していないと判定した場合(ステップS17においてNo)、CPU24は、ステップS20の処理を実行する。
When it is determined that the position of the subject 2 has not changed (No in step S17), the
一方、被写体2の位置が変化したと判定した場合(ステップS17においてYes)、CPU24は、被写体2の移動後の位置を取得する(ステップS18)。
On the other hand, when it is determined that the position of the subject 2 has changed (Yes in step S17), the
CPU24は、新たに取得したカラー画像、移動後の被写体2の位置をRAMに記憶する(ステップS19)。
The
CPU24は、データ処理部20が生成した新たな距離画像を取得する(ステップS20)。
The
CPU24は、不揮発性メモリ23から、距離画像を取得する(ステップS21)。
The
CPU24は、新たに取得したカラー画像と不揮発性メモリ23から取得したカラー画像を比較する(ステップS22)。
CPU24は、比較結果に基づいて、解析方法を選択する(ステップS23)。
The
The
CPU24は、選択した解析方法を用いて、被写体2の位置の変化を解析する(ステップS24)。
The
CPU24は、解析の結果、被写体2の位置が変化したか否かを判定する(ステップS25)。
The
被写体2の位置が変化していないと判定した場合(ステップS25においてNo)、CPU24は、このAF処理を終了させる。
If it is determined that the position of the subject 2 has not changed (No in step S25), the
一方、被写体2の位置が変化したと判定した場合(ステップS25においてYes)、CPU24は、被写体2の移動後の位置を取得する(ステップS26)。
On the other hand, when it is determined that the position of the subject 2 has changed (Yes in step S25), the
CPU24は、新たに取得した距離画像、移動後の被写体2の位置をRAMに記憶する(ステップS27)。
The
CPU24は、不揮発性メモリ23に記憶した被写体2がいままで移動した位置データに基づいて、被写体2の移動方向を設定する(ステップS28)。
The
CPU24は、RAMに記憶した被写体2の移動後の位置が設定した移動方向の範囲内か否かを判定する(ステップS29)。
The
RAMに記憶した被写体2の移動後の位置が設定した移動方向の範囲内ではないと判定した場合(ステップS29においてNo)、CPU24は、このAF処理を終了させる。
If it is determined that the moved position of the subject 2 stored in the RAM is not within the set moving direction range (No in step S29), the
一方、RAMに記憶した被写体2の移動後の位置が設定した移動方向の範囲内であると判定した場合(ステップS29においてYes)、CPU24は、RAMに記憶したカラー画像のデータ、カラー画像に基づいて取得した位置データ、距離画像、距離画像に基づいて取得した位置データを、不揮発性メモリ23に記憶する(ステップS30)。
On the other hand, when it is determined that the position after movement of the subject 2 stored in the RAM is within the set moving direction range (Yes in step S29), the
CPU24は、カラー画像に基づいて取得した位置データ及び距離画像に基づいて取得した位置データのうちのいずれかを選択する(ステップS31)。
The
CPU24は、選択した位置データに基づいて、追従領域FAを移動させる(ステップS32)。
The
CPU24は、レンズ駆動部17に制御信号Sc1を供給して、被写体2に合焦するように、レンズ駆動部17を制御する(ステップS33)。
The
CPU24は、被写体2に合焦したか否かを判定する(ステップS34)。
合焦していないと判定した場合(ステップS34においてNo)、CPU24は、再び、レンズ駆動部17に制御信号Sc1を供給して、被写体2に合焦するように、レンズ駆動部17を制御する(ステップS33)。
The
If it is determined that the subject is not in focus (No in step S34), the
合焦したと判定した場合(ステップS34においてYes)、CPU24は、このAF処理を終了させる。
If it is determined that the subject is in focus (Yes in step S34), the
次に、この撮像装置1の動作を具体的に説明する。
CPU24が、タイミング信号Stをフラッシュ制御部14、撮像制御部15、センサ部11に供給する(ステップS11の処理)。
Next, the operation of the
The
図13(a)に示すカラー画像2Di0を不揮発性メモリ23に記憶されたカラー画像として、図13(b)に示すカラー画像2Di1をデータ処理部20が新たに取得したカラー画像とする。
The color image 2Di0 shown in FIG. 13A is a color image stored in the
CPU24は、図13(b)に示すカラー画像2Di1を、データ処理部20から取得する(ステップS12の処理)。また、CPU24は、図13(a)に示すカラー画像2Di0を不揮発性メモリ23から取得する(ステップS13の処理)。
The
CPU24は、この2つのカラー画像2Di0,2Di1を比較して、解析方法を選択する(ステップS14,S15の処理)。
The
この場合、解析方法1〜3のいずれでも選択することができる。例えば、解析方法2を選択した場合、CPU24は、解析方法2に従って被写体2の位置の変化を解析する(ステップS16の処理)。
In this case, any of
まず、CPU24は、図13(a),(b)に示すように、撮像エリア3内に領域UL,UR,LL,LR,FAを設定する。
First, the
そして、CPU24は、図13(a),(b)に示す各領域UL,UR,LL,LR,FAのエントロピーPiを演算し、被写体2の位置の変化を解析する。
Then, the
エントロピーをHiとして、各領域内のある画素における事象“i”の生起確率をPiとすると、エントロピーHiは、次の式(6)によって表される。
Hi=−PilogPi ・・・・・・(6)
Assuming that entropy is Hi and the occurrence probability of event “i” in a pixel in each region is Pi, entropy Hi is expressed by the following equation (6).
Hi = -PilogPi (6)
CPU24は、この式(6)に従い、図13(a),(b)にそれぞれ示す各領域UL,UR,LL,LR,FAのエントロピーHiを演算する。
The
図13(a),(b)に示すように、領域FA,URのエントロピーHiは、変化する。このため、CPU24は、被写体2の位置が変化したと判定する(ステップS17においてYes)。
As shown in FIGS. 13A and 13B, the entropy Hi of the areas FA and UR changes. For this reason, the
CPU24は、図13(c)に示すように、動きベクトルVi1を取得して、被写体2の移動後の位置を取得する(ステップS18の処理)。
As shown in FIG. 13C, the
CPU24は、新たに取得したカラー画像2Di1とこの動きベクトルVi1とをRAMに記憶する(ステップS19の処理)。
The
CPU24は、距離画像についても同様の処理を行う。
図14(a)に示す距離画像2Dd0は不揮発性メモリ23に記憶された距離画像であり、図14(b)に示す距離画像2Dd1は、データ処理部20が新たに取得した距離画像とする。
The
The distance image 2Dd0 illustrated in FIG. 14A is a distance image stored in the
CPU24は、図14(b)に示す距離画像2Dd1を、データ処理部20から取得し(ステップS20の処理)、図14(a)に示す距離画像2Dd0を不揮発性メモリ23から取得する(ステップS21の処理)。
The
CPU24は、この2つの距離画像2Dd0,2Dd1を比較して、解析方法を選択する(ステップS22,S23の処理)。
The
この場合も、解析方法1〜3のいずれかを選択することができるため、CPU24は、解析方法2を選択するものとする。CPU24は、解析方法2に従って被写体2の位置の変化を解析する(ステップS24の処理)。
Also in this case, since any of the
CPU24は、同様に、図14(a),(b)に示すように、撮像エリア3内に領域UL,UR,LL,LR,FAを設定し、図14(a),(b)に示す各領域UL,UR,LL,LR,FAのエントロピーPiを演算し、被写体2の位置の変化を解析する。
Similarly, as shown in FIGS. 14A and 14B, the
図14(a),(b)に示すように、領域FA,URのエントロピーHiは、変化するため、CPU24は、被写体2の位置が変化したと判定する(ステップS25においてYes)。
As shown in FIGS. 14A and 14B, since the entropy Hi of the areas FA and UR changes, the
CPU24は、図14(c)に示すように、動きベクトルVd1を取得して、被写体2の移動後の位置を取得する(ステップS26の処理)。
As shown in FIG. 14C, the
CPU24は、新たに取得したカラー画像2Dd1とこの動きベクトルVd1とをRAMに記憶する(ステップS27の処理)。
The
図15(a)に示すように、動きベクトルVi1,Vd1により得られた被写体2の移動後の位置が設定した移動方向の範囲内と判定した場合(ステップS29においてYes)、CPU24は、RAMに記憶したデータを不揮発性メモリ23に記憶する(ステップS30の処理)。
As shown in FIG. 15A, when it is determined that the position after movement of the subject 2 obtained by the motion vectors Vi1 and Vd1 is within the set movement direction range (Yes in step S29), the
この場合、動きベクトルVi1,Vd1により得られた被写体2の移動後の位置がいずれも設定した移動方向の範囲内であるため、例えば、CPU24は、動きベクトルVi1により得られた被写体2の移動後の位置データを選択するものとする(ステップS31の処理)。
In this case, since the post-movement position of the subject 2 obtained by the motion vectors Vi1 and Vd1 is within the set moving direction range, for example, the
位置データを選択する方法としては、検出精度の高いと推定される方の動きベクトルを採用する。具体的には、CPU24は、動きベクトルを記憶し、今までに取得した動きベクトルに基づいて検出精度を推定する。
As a method for selecting position data, a motion vector that is estimated to have high detection accuracy is employed. Specifically, the
例えば、カラー画像、距離画像が全く異なる位置に出現する可能性は低く、被写体2が突然、進行方向を変える可能性も低い。CPU24は、このような場合、検出精度が低いと判定し、この位置データを採用しない。
For example, the possibility that the color image and the distance image appear at completely different positions is low, and the possibility that the subject 2 suddenly changes the traveling direction is also low. In such a case, the
そして、CPU24は、図15(b)に示すように、選択した位置データに基づいて追従領域FAを移動させる(ステップS32の処理)。
Then, as shown in FIG. 15B, the
CPU24は、レンズ駆動部17に制御信号Sc1を供給し(ステップS33の処理)、合焦した場合(ステップS34においてYes)、このAF処理を終了させる。
The
以上説明したように、本実施形態1によれば、CPU24は、カラー画像に基づいて取得した被写体2の位置データと距離画像に基づいて取得した位置データとを比較して、比較結果に基づいて、被写体2の位置の変化を取得するようにした。
従って、精度良く被写体2の合焦を行うことができ、被写体2の画像を撮像素子101に結像させることができる。
As described above, according to the first embodiment, the
Therefore, the subject 2 can be focused with high accuracy, and the image of the subject 2 can be formed on the
また、カラー画像については、解析方法1〜3を選択することができ、距離画像については、解析方法1又は2を選択して、被写体2の位置の変化するので、被写体2のどのような状況でも、その状況に応じて、被写体2を確実に追尾することができる。
In addition, the
例えば、図18に示すように、被写体2が(a)→(b)→(c)→(d)に示すように、形状が変化した場合、CPU24は、不揮発性メモリ23に記憶された距離画像とデータ処理部が生成した距離画像とを比較して、解析方法2を選択する。CPU24がこの解析方法2を選択して、被写体2の位置の変化を解析することにより、精度良く被写体2の位置の変化を検出することができる。そして、精度良く撮像素子上に被写体2の画像を結像させることができる。
For example, as shown in FIG. 18, when the shape of the subject 2 changes as shown in (a) → (b) → (c) → (d), the
また、図19に示すように、被写体2pの前を、被写体2pと同じエントロピーを有する物体2qが横切った場合、CPU24は、不揮発性メモリ23に記憶されたカラー画像とデータ処理部が生成したカラー画像とを比較して、解析方法3を選択する。
As shown in FIG. 19, when the object 2q having the same entropy as the subject 2p crosses in front of the subject 2p, the
そして、CPU24は、各小領域の色差信号の変化により、被写体2の位置の変化を検出する。
Then, the
このように、被写体2pの前を、被写体2pと同じエントロピーを有する物体2qが横切ったとしても、CPU24は、解析方法3を選択することにより、精度良く被写体2を追尾することができ、精度良く撮像素子上に被写体2の画像を結像させることができる。
Thus, even if the object 2q having the same entropy as the subject 2p crosses in front of the subject 2p, the
また、図20に示すように、被写体2が撮像装置1から遠ざかる場合、CPU24は、不揮発性メモリ23に記憶された距離画像とデータ処理部が生成した距離画像とを比較して、解析方法2を選択する。CPU24がこの解析方法2を選択して、被写体2の位置の変化を解析することにより、精度良く被写体2の位置の変化を検出することができる。
As shown in FIG. 20, when the subject 2 moves away from the
尚、本発明を実施するにあたっては、種々の形態が考えられ、上記実施形態に限られるものではない。
例えば、被写体2が撮像エリア3から外れた場合、撮像装置1の向きを変えるようにしてもよい。
In carrying out the present invention, various forms are conceivable and the present invention is not limited to the above embodiment.
For example, when the
この場合、撮像装置1は、図16に示すように、撮像部1aと、制御部1bと、姿勢制御部1cと、によって構成される。撮像部1aは、図17に示すように構成され、図1に示すROM21、RAM22、不揮発性メモリ23、CPU24が撮像部1aから除かれる。そして、制御部1bは、ROM21、RAM22、不揮発性メモリ23、CPU24を備える。
In this case, as shown in FIG. 16, the
姿勢制御部1cは、撮像部1aの姿勢を制御して向きを変えるためのものである。 The posture control unit 1c is for controlling the posture of the imaging unit 1a to change the orientation.
制御部1bのCPU24は、撮像部1aにタイミング信号を出力し、撮像部1aのメモリコントローラ19に制御信号Sc2を供給して、メモリコントローラ19を制御する。
The
また、CPU24は、図15,16に示すように、撮像部1aのデータ処理部20から、カラー画像、距離画像のデータDoutを取得する。
Further, as shown in FIGS. 15 and 16, the
CPU24は、被写体2が撮像エリア3から外れた場合、姿勢制御部1cに制御信号Sc3が供給して、撮像部1aが被写体2を追尾するように、姿勢制御部1cを制御する。
When the subject 2 is out of the
撮像装置1がこのように構成されることにより、被写体2が撮像エリア3から外れた場合でも、制御部1b、姿勢制御部1cが、撮像部1aの向きを調整して、被写体2を追尾することができ、精度良く被写体2を追従領域FA内に捉えることができる。
By configuring the
また、本実施形態では、被写体2のカラー画像、距離画像を2つとも取得するようにした。しかし、いずれか一方の画像を取得するように、手動で選択させることもできる。この場合、撮像装置1に、指示情報を入力するための操作部(図示せず)を備える。
In this embodiment, both the color image and the distance image of the subject 2 are acquired. However, it is also possible to manually select either one of the images. In this case, the
また、上記実施形態において、距離を測定する距離画像センサとして図9に示すような構造を有するものを用いた。しかし、距離画像センサは、このものに限られるものではない。例えば一画素置きに配置される距離画素3つで、それぞれ図9のn+層311c、p+層311b、n+層311dとなるように構成しても構わない。このように構成することにより、設計の自由度が向上する。 Moreover, in the said embodiment, what has a structure as shown in FIG. 9 was used as a distance image sensor which measures distance. However, the distance image sensor is not limited to this. For example, three distance pixels arranged every other pixel may be configured as the n + layer 311c, the p + layer 311b, and the n + layer 311d in FIG. With this configuration, the degree of freedom in design is improved.
また、上記実施形態において、距離を測定する為の画素はRGBの輝度を測定する画素とは全く異なる構造を有しているものとして説明が、このようではなくとも構わない。すなわち、CMOS、CCDを用いて距離を測定することもできる。 In the above embodiment, the pixel for measuring the distance is described as having a completely different structure from the pixel for measuring the luminance of RGB, but this need not be the case. That is, the distance can be measured using a CMOS or CCD.
通常のCMOSやCCDにおいても近赤外線や紫外線を受光することが出来ると共に、現状の撮像素子においては、その動作速度から、特に近距離の近赤外線や紫外線が被写体に反射して帰ってくる時間を計測するのには、その測定精度に問題があるが、強力な近赤外線や紫外線を使用して、比較的長距離を測定する場合においては、特段特殊な構造の撮像素子を用いなくとも、距離を測定することは可能であると共に、将来撮像素子の性能が向上すれば、距離の測定も可能になり、距離を測定するための画素をこのように構成しても構わない。 A normal CMOS or CCD can receive near-infrared rays and ultraviolet rays, and the current imaging device can take a long time for the near-infrared rays and ultraviolet rays to be reflected back to the subject due to its operation speed. Although there is a problem with the measurement accuracy to measure, when measuring a relatively long distance using strong near infrared rays or ultraviolet rays, the distance can be obtained without using an image sensor with a special structure. Can be measured, and if the performance of the imaging device is improved in the future, the distance can be measured, and the pixel for measuring the distance may be configured in this way.
また、上記実施形態では、検出した被写体に追従してAFを行うように構成したが、このようではなくとも構わない。
例えば、検出した被写体に追従して、単に特定のマークを重畳して表示してもよく、これにより被写体がどのように動いているのか解り易く表示することができる。
In the above embodiment, the AF is performed following the detected subject. However, this need not be the case.
For example, a specific mark may be superimposed and displayed following the detected subject, thereby making it easy to understand how the subject is moving.
また、特許第3750499号のように検出した被写体を中心として特定の領域のズームを行い切り出すようにフレーミングを追従して行うように構成(オートフレーミング)しても良く、これにより被写体が頻繁に動きフレーミングを合わせ続け難いような状況であっても、適当となるフレーミングを継続することができる。 Further, as in Japanese Patent No. 3750499, it may be configured to perform framing following auto-framing so that a specific area is zoomed and cut out with the detected object as a center (automatic framing). Even in situations where it is difficult to keep framing together, appropriate framing can be continued.
また、上記したAF追従、特定マークの追従、フレーミングの追従を単独で行うばかりではなく、必要に応じて組み合わせて使用しても良い。 Further, not only AF tracking, tracking of a specific mark, and tracking of framing described above may be performed alone, but they may be used in combination as necessary.
また、上記実施形態では、プログラムが、それぞれメモリ等に予め記憶されているものとして説明した。しかし、撮像装置1を、装置の全部又は一部として動作させ、あるいは、上述の処理を実行させるためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。
In the above-described embodiment, the program is described as being stored in advance in a memory or the like. However, a program for operating the
さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。 Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.
1・・・撮像装置、2・・・被写体、11・・・センサ部、14・・・フラッシュ制御部、15・・・撮像制御部、20・・・データ処理部、24・・・CPU、23・・・不揮発性メモリ、102、103・・・素子駆動部、200・・・カラー画像取得部、300・・・距離画像取得部
DESCRIPTION OF
Claims (7)
前記撮像素子が受光した反射光から画素毎に前記被写体までの距離情報を演算する距離情報演算部と、
前記撮像素子により取り込まれた前記被写体の画像から、視覚で得られる前記被写体の視覚情報を含めて前記被写体の形状を表した第1の画像を取得する第1の画像取得部と、
前記距離情報演算部により演算された距離情報から、当該撮像素子から前記被写体までの距離情報を含めて前記被写体の形状を表した第2の画像を取得する第2の画像取得部と、
前記撮像素子が撮像を行う毎に、前記第1の画像取得部が取得した前記第1の画像と、前記距離情報演算部が距離情報を演算する毎に、前記第2の画像取得部が取得した第2の画像とを記憶する記憶部と、
前記記憶部に記憶された前記第1の画像と前記第1の画像取得部が新たに取得した前記第1の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第1の位置変化検出部と、
前記記憶部に記憶された前記第2の画像と前記第2の画像取得部が新たに取得した前記第2の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第2の位置変化検出部と、
前記第1の位置変化検出部により推定された検出精度と前記第2の位置変化検出部により推定された検出精度を比較した比較結果に基づいて前記第1の位置変化検出部により検出された位置の変化と前記第2の位置変化検出部により検出された位置の変化のいずれか一方を前記被写体の位置の変化として決定する位置変化決定部と、
前記位置変化決定部が前記被写体の位置の変化を決定したとき、前記被写体を追尾して、特定の制御を行うための追従領域を移動させる追従領域移動部と、
を備えることを特徴とする撮像装置。 An image sensor that repeatedly captures an image of a subject and receives light reflected by pulsed light applied to the subject; and
A distance information calculation unit that calculates distance information from the reflected light received by the image sensor to the subject for each pixel;
A first image acquisition unit for acquiring a first image representing the shape of the subject including visual information of the subject obtained visually from the image of the subject captured by the imaging device;
A second image acquisition unit that acquires, from the distance information calculated by the distance information calculation unit, a second image that represents the shape of the subject, including distance information from the imaging element to the subject;
The second image acquisition unit acquires the first image acquired by the first image acquisition unit and the distance information calculation unit every time the distance information calculation unit calculates distance information each time the imaging element performs imaging. A storage unit for storing the second image,
The first image stored in the storage unit and the first image newly acquired by the first image acquisition unit are compared to detect and store a change in position, which is already stored. A first position change detector that estimates detection accuracy based on a change in position detected so far;
The second image stored in the storage unit and the second image newly acquired by the second image acquisition unit are compared to detect and store a change in position, which is already stored. A second position change detection unit that estimates detection accuracy based on a change in the position detected so far;
The position detected by the first position change detection unit based on a comparison result obtained by comparing the detection accuracy estimated by the first position change detection unit and the detection accuracy estimated by the second position change detection unit. A position change determining unit that determines any one of a change in position and a change in position detected by the second position change detecting unit as a change in position of the subject;
When the position change determining unit determines a change in the position of the subject, the tracking region moving unit that tracks the subject and moves a tracking region for performing specific control;
An imaging apparatus comprising:
前記第2の位置変化検出部は、前記第2の画像と前記第2の画像取得部が新たに取得した前記第2の画像との比較結果に基づいて位置の変化を検出する際の解析方法を選択することを特徴とする請求項1に記載の撮像装置。 The first position change detection unit is an analysis method for detecting a position change based on a comparison result between the first image and the first image newly acquired by the first image acquisition unit. Select
The second position change detection unit is an analysis method for detecting a change in position based on a comparison result between the second image and the second image newly acquired by the second image acquisition unit. The imaging device according to claim 1, wherein the imaging device is selected.
前記第1の画像を取得するように複数の前記第1の画素部を駆動する第1の素子駆動部と、
前記第2の画像を取得するように複数の前記第2の画素部を駆動する第2の素子駆動部と、を備えた、
ことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The imaging element receives light reflected from the subject, receives first light from the first pixel unit for acquiring the first image, and light reflected from the pulse light applied to the subject, The second pixel unit for acquiring the second image is a pixel unit, and a plurality of pixel units are arranged in a matrix of i rows × j columns (i, j; natural numbers). ,
A first element driving unit that drives the plurality of first pixel units so as to acquire the first image;
A second element driving unit that drives the plurality of second pixel units so as to acquire the second image.
The image pickup apparatus according to claim 1, wherein the image pickup apparatus is an image pickup apparatus.
前記第1の素子駆動部は、前記色成分毎に前記複数の受光部を駆動するものである、
ことを特徴とする請求項4に記載の撮像装置。 Each of the first pixel units includes a plurality of light receiving units that receive the light reflected by the subject for each color component to generate a signal charge, and output the signal charge generated for each color component. ,
The first element driving unit drives the plurality of light receiving units for each of the color components.
The imaging apparatus according to claim 4.
前記撮像素子が受光した反射光から画素毎に前記被写体までの距離情報を演算するステップと、
前記撮像素子が撮像を行う毎に取りこまれた画像から、視覚で得られる前記被写体の視覚情報を含めて前記被写体の形状を表した第1の画像を取得するステップと、
前記距離情報を演算するステップにより取得された距離情報から、当該撮像素子から前記被写体までの距離情報を含めて前記被写体の形状を表した第2の画像を取得するステップと、
前記撮像素子が撮像を行う毎に、前記第1の画像を取得するステップで取得した前記第1の画像と、前記距離情報を演算するステップで距離情報を演算する毎に、前記第2の画像を取得するステップで取得した第2の画像とを記憶部に記憶するステップと、
前記記憶するステップで記憶された前記第1の画像と前記第1の画像を取得するステップで新たに取得した前記第1の画像とを比較して位置の変化を検出するとともに記憶し、
既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第1の位置の変化を検出するステップと、
前記記憶するステップで記憶された前記第2の画像と前記第2の画像を取得するステップで新たに取得した前記第2の画像とを比較して位置の変化を検出するとともに記憶し、
既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第2の位置の変化を検出するステップと、
前記第1の位置の変化を検出するステップにより推定された検出精度と前記第2の位置の変化を検出するステップにより推定された検出精度を比較した比較結果に基づいて前記第1の位置の変化を検出するステップにより検出された位置の変化と前記第2の位置の変化を検出するステップにより検出された位置の変化のいずれか一方を前記被写体の位置の変化として決定するステップと、
前記被写体の位置の変化を決定したとき、前記被写体を追尾するように設定された、特定の制御を行うための追従領域を移動させるステップと、
を有することを特徴とする撮像装置の被写体追従方法。 Causing the imaging device to repeatedly image the subject and receiving light reflected by the pulsed light irradiated to the subject;
Calculating distance information from the reflected light received by the image sensor to the subject for each pixel;
Obtaining a first image representing the shape of the subject including visual information of the subject obtained visually from an image captured each time the image sensor performs imaging;
Obtaining a second image representing the shape of the subject including distance information from the imaging element to the subject, from the distance information obtained by calculating the distance information;
Each time the image sensor captures an image, the first image acquired in the step of acquiring the first image and the second image each time the distance information is calculated in the step of calculating the distance information. Storing the second image acquired in the step of acquiring in a storage unit;
Detecting and storing a change in position by comparing the first image stored in the storing step with the first image newly acquired in the step of acquiring the first image;
Detecting a change in the first position that estimates the detection accuracy based on the change in the position detected so far that has already been stored;
Detecting and storing a change in position by comparing the second image stored in the storing step with the second image newly acquired in the step of acquiring the second image;
Detecting a second position change that estimates detection accuracy based on a previously detected position change that has already been stored;
The change in the first position based on a comparison result obtained by comparing the detection accuracy estimated in the step of detecting the change in the first position with the detection accuracy estimated in the step of detecting the change in the second position. Determining one of a change in position detected by the step of detecting a change in position detected by the step of detecting a change in the second position and a change in position of the subject,
Moving a follow-up area for performing specific control, which is set to track the subject when determining a change in the position of the subject;
An object tracking method for an imaging apparatus, comprising:
撮像素子に被写体を繰り返し撮像させるとともに前記被写体に照射されたパルス光が反射した光を受光させる手順、
前記撮像素子が受光した反射光から画素毎に前記被写体までの距離情報を演算する手順、
前記撮像素子が撮像を行う毎に取りこまれた画像から、視覚で得られる前記被写体の視覚情報を含めて前記被写体の形状を表した第1の画像を取得する手順、
前記距離情報を演算する手順により取得された距離情報から、当該撮像素子から前記被写体までの距離情報を含めて前記被写体の形状を表した第2の画像を取得する手順、
前記撮像素子が撮像を行う毎に、前記第1の画像を取得する手順で取得した前記第1の画像と、前記距離情報を演算する手順で距離情報を演算する毎に、前記第2の画像を取得する手順で取得した前記第2の画像とを記憶部に記憶する手順、
前記記憶する手順で記憶された前記第1の画像と前記第1の画像を取得する手順で新たに取得した前記第1の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第1の位置の変化を検出する手順、
前記記憶する手順で記憶された前記第2の画像と前記第2の画像を取得する手順で新たに取得した前記第2の画像とを比較して位置の変化を検出するとともに記憶し、既に記憶されている今までに検出した位置の変化に基づいて検出精度を推定する第2の位置の変化を検出する手順、
前記第1の位置の変化を検出する手順により推定された検出精度と前記第2の位置の変化を検出する手順により推定された検出精度を比較した比較結果に基づいて前記第1の位置の変化を検出する手順により検出された位置の変化と前記第2の位置の変化を検出する手順により検出された位置の変化のいずれか一方を前記被写体の位置の変化として決定する手順、
前記被写体の位置の変化を決定したとき、前記被写体を追尾するように設定された、特定の制御を行うための追従領域を移動させる手順、
を実行させることを特徴とするプログラム。 On the computer,
A procedure for causing the imaging device to repeatedly image the subject and receiving the light reflected by the pulsed light applied to the subject;
A procedure for calculating distance information from the reflected light received by the image sensor to the subject for each pixel;
A procedure for acquiring a first image representing the shape of the subject including visual information of the subject obtained visually from an image captured each time the image sensor performs imaging,
A procedure for obtaining a second image representing the shape of the subject including distance information from the imaging element to the subject from the distance information obtained by the procedure for calculating the distance information;
Each time the imaging device captures an image, the second image is calculated each time the first image acquired in the procedure for acquiring the first image and the distance information is calculated in the procedure for calculating the distance information. A procedure for storing the second image acquired in the procedure for acquiring in a storage unit;
The first image stored in the storing procedure is compared with the first image newly acquired in the procedure for acquiring the first image to detect and store a change in position, and already stored A procedure for detecting a first position change for estimating detection accuracy based on a position change detected so far;
A change in position is detected by comparing the second image stored in the storing procedure with the second image newly acquired in the procedure of acquiring the second image, and is already stored. A procedure for detecting a second position change for estimating a detection accuracy based on a position change detected so far;
The change in the first position based on the comparison result obtained by comparing the detection accuracy estimated by the procedure for detecting the change in the first position and the detection accuracy estimated by the procedure for detecting the change in the second position. Determining a change in position of the subject as one of a change in position detected by the procedure for detecting a change in position detected by the procedure for detecting a change in the second position and a change in position detected by the procedure for detecting the second position;
A procedure for moving a tracking area for performing specific control, which is set to track the subject when the change in the position of the subject is determined;
A program characterized by having executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007027134A JP5092434B2 (en) | 2007-02-06 | 2007-02-06 | IMAGING DEVICE, SUBJECT FOLLOWING METHOD, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007027134A JP5092434B2 (en) | 2007-02-06 | 2007-02-06 | IMAGING DEVICE, SUBJECT FOLLOWING METHOD, AND PROGRAM |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008193514A JP2008193514A (en) | 2008-08-21 |
JP2008193514A5 JP2008193514A5 (en) | 2010-03-18 |
JP5092434B2 true JP5092434B2 (en) | 2012-12-05 |
Family
ID=39753153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007027134A Expired - Fee Related JP5092434B2 (en) | 2007-02-06 | 2007-02-06 | IMAGING DEVICE, SUBJECT FOLLOWING METHOD, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5092434B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5219697B2 (en) * | 2008-08-25 | 2013-06-26 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program |
JP5482148B2 (en) | 2009-11-26 | 2014-04-23 | 富士通セミコンダクター株式会社 | Autofocus adjustment circuit and imaging apparatus |
JP2013186293A (en) * | 2012-03-08 | 2013-09-19 | Seiko Epson Corp | Image generation device and image display method |
JP6989819B2 (en) * | 2017-08-10 | 2022-01-12 | 富士通株式会社 | Data correction device, data correction method, and data correction program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01245777A (en) * | 1988-03-28 | 1989-09-29 | Matsushita Electric Ind Co Ltd | Tracking device for mobile body |
JP4259418B2 (en) * | 2004-07-30 | 2009-04-30 | パナソニック電工株式会社 | Image processing device |
-
2007
- 2007-02-06 JP JP2007027134A patent/JP5092434B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008193514A (en) | 2008-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8988595B2 (en) | Focus detection apparatus, image pickup apparatus, image pickup system, focus detection method, and non-transitory computer-readable storage medium | |
US10306131B2 (en) | Focus detection apparatus and control method therefor | |
US7689113B2 (en) | Photographing apparatus and method | |
US9277110B2 (en) | Tracking device and tracking method for prohibiting a tracking operation when a tracked subject is obstructed | |
US10163222B2 (en) | Image capturing apparatus, tracking device, control method, and storage medium | |
US10230903B2 (en) | Image pickup apparatus having image sensor capable of outputting parallax image signal, control method therefor, and storage medium storing control program therefor | |
CN101213832A (en) | Focus control method and unit | |
KR20150074641A (en) | Auto focus adjusting method and auto focus adjusting apparatus | |
CN106257914A (en) | Focus detection device and focus detecting method | |
JP2008177738A (en) | Imaging device and imaging element | |
US9008497B2 (en) | Image pickup apparatus and control method therefor | |
US20040100573A1 (en) | Focusing apparatus and camera including the same | |
JP5092434B2 (en) | IMAGING DEVICE, SUBJECT FOLLOWING METHOD, AND PROGRAM | |
US20070140677A1 (en) | Automatic focusing methods and image capture devices utilizing the same | |
JP2010074243A (en) | Solid-state imaging apparatus, image device | |
CN102595050A (en) | Imaging device | |
JP6076106B2 (en) | Imaging apparatus and imaging method | |
JP6045231B2 (en) | FOCUS ADJUSTMENT DEVICE, IMAGING DEVICE, AND IMAGING DEVICE CONTROL METHOD | |
JP6320154B2 (en) | Imaging device and driving method of imaging device | |
JP4548045B2 (en) | Automatic focus adjustment device | |
JP4838652B2 (en) | Imaging device | |
JP2009042555A (en) | Electronic camera | |
JP5354879B2 (en) | camera | |
JP2017138434A (en) | Imaging device | |
JP2010224568A (en) | Automatic focusing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100128 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120821 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5092434 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150928 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |