JP2015004922A - Focus adjustment device and imaging device - Google Patents
Focus adjustment device and imaging device Download PDFInfo
- Publication number
- JP2015004922A JP2015004922A JP2013131566A JP2013131566A JP2015004922A JP 2015004922 A JP2015004922 A JP 2015004922A JP 2013131566 A JP2013131566 A JP 2013131566A JP 2013131566 A JP2013131566 A JP 2013131566A JP 2015004922 A JP2015004922 A JP 2015004922A
- Authority
- JP
- Japan
- Prior art keywords
- area
- image
- image data
- focus
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、焦点調節装置及び撮像装置に関する。 The present invention relates to a focus adjustment device and an imaging device.
位相差検出方式やコントラスト検出方式のオートフォーカス(AF)制御を備えたデジタルカメラを用いて高速な連続撮影を行う場合、各撮影間において上記のAF制御を実行することが困難であることから、フォーカスを固定にすることが一般的である(特許文献1参照)。そこで、高速な連続撮影における個々の撮影で得られる画像データ自体のデータ量の変化に基づいて、高速な連続撮影におけるフォーカス制御を行うことが考案されている。 When performing high-speed continuous shooting using a digital camera equipped with phase difference detection method or contrast detection method autofocus (AF) control, it is difficult to perform the above AF control between each shooting. In general, the focus is fixed (see Patent Document 1). Therefore, it has been devised to perform focus control in high-speed continuous shooting based on a change in the data amount of image data itself obtained by individual shooting in high-speed continuous shooting.
例えば画像データのデータ量の変化を、高速な連続撮影におけるフォーカス制御に用いる場合、得られる画像データのデータ量が一定であれば、主要被写体に焦点が合っていなくても、主要被写体に焦点が合っていると判定されてしまう。そこで、撮影時に使用される焦点検出位置や主要被写体を含む所定範囲を切り出した画像データのデータ量の変化を用いることが考案されている。しかしながら、人物以外の物体を主要被写体とする場合、主要被写体となる物体が、必ずしも主要被写体と認識されるとは限らないことから、主要被写体が人物以外の物体となる場合には、その物体に対して確実に焦点が合わせることが難しいという問題がある。 For example, when the change in the amount of image data is used for focus control in high-speed continuous shooting, if the amount of image data obtained is constant, the main subject is in focus even if the main subject is not in focus. It is determined that it is correct. Therefore, it has been devised to use a change in the amount of image data obtained by cutting out a predetermined range including a focus detection position and a main subject used at the time of photographing. However, when an object other than a person is used as the main subject, the object that is the main subject is not necessarily recognized as the main subject. Therefore, when the main subject is an object other than a person, the object However, there is a problem that it is difficult to focus on.
本発明は、主要被写体が人物以外の物体となる場合であっても、その物体に対して確実に焦点が合わせることができるようにした焦点調節装置及び撮像装置を提供することを目的とする。 It is an object of the present invention to provide a focus adjustment device and an imaging device that can reliably focus on an object other than a person, even if the main subject is an object other than a person.
本発明の焦点調節装置は、被写体光を取り込む撮像光学系と、被写体が含まれる第1の画像を生成する生成部と、前記撮像光学系により取り込まれる被写体光に基づいて連続して取得される第2の画像に対して前記第1の画像を用いたテンプレートマッチングを行うことで、前記第2の画像のそれぞれから切り出す領域を対象領域として設定する設定部と、前記第2の画像から切り出した前記対象領域の画像のそれぞれに対して圧縮処理を行う圧縮部と、前記圧縮処理された前記対象領域の画像のデータ量の変化に基づいて、前記撮像光学系におけるフォーカスポジションを制御する制御部と、を備えたことを特徴とする。 The focus adjustment apparatus of the present invention is continuously acquired based on an imaging optical system that captures subject light, a generation unit that generates a first image including the subject, and subject light captured by the imaging optical system. By performing template matching using the first image on the second image, a setting unit that sets a region to be cut out from each of the second images as a target region, and cut out from the second image A compression unit that performs compression processing on each of the images in the target area; and a control unit that controls a focus position in the imaging optical system based on a change in the data amount of the compressed image of the target area. , Provided.
また、本発明の撮像装置は、取り込まれる被写体光に基づく画像を連続して出力することが可能な撮像素子と、前記撮像素子から出力される画像に基づいて、前記撮像光学系のフォーカスポジションを制御する、上記に記載の焦点調節装置と、を備えたことを特徴とする。 In addition, the imaging apparatus of the present invention is capable of continuously outputting an image based on captured subject light, and the focus position of the imaging optical system based on the image output from the imaging element. The focus adjusting device described above is controlled.
本発明によれば、主要被写体が人物以外の物体となる場合であっても、その物体に対して確実に焦点が合わせることができる。 According to the present invention, even when the main subject is an object other than a person, the object can be reliably focused.
以下、本発明の実施形態としてデジタルカメラ10を例に説明する。本発明のデジタルカメラ10は、1回の撮像処理により静止画像を取得する撮影の他、複数回の撮像処理を連続して行って複数の静止画像を取得する連続撮影を行うことが可能である。この連続撮影は、例えば30コマ/秒、50コマ/秒、60コマ/秒など高速な連続撮影を行うことができる。以下、高速な連続撮影を高速連写と称して説明する。 Hereinafter, a digital camera 10 will be described as an example of an embodiment of the present invention. The digital camera 10 of the present invention can perform continuous shooting in which a plurality of still images are acquired by continuously performing a plurality of imaging processes in addition to shooting that acquires a still image by a single imaging process. . This continuous shooting can be performed at a high speed, such as 30 frames / second, 50 frames / second, and 60 frames / second. Hereinafter, high-speed continuous shooting will be referred to as high-speed continuous shooting.
図1に示すように、デジタルカメラ10は、撮像光学系15、クイックリターンミラー16、メカニカルシャッタ17、撮像素子18、アナログフロントエンド(AFE)回路19、タイミングジェネレータ(TG)20、レンズ駆動機構21、シャッタ駆動機構22、バッファメモリ25、画像処理回路26、圧縮/伸長回路27、表示制御回路28、表示装置29、接続用I/F30、CPU40、不揮発性メモリ41、ワークメモリ42、焦点検出部43、レリーズボタン44、操作部45などを備えている。AFE回路19、バッファメモリ25、画像処理回路26、圧縮/伸長回路27、表示制御回路28、接続用I/F30、CPU40は、バス46を介して電気的に接続される。
As shown in FIG. 1, the digital camera 10 includes an imaging
撮像光学系15は、被写界光束を結像し、撮像素子18の撮像面近傍に被写界像を形成する。図1においては、撮像光学系15を単一のレンズにて記載しているが、実際には、フォーカシングレンズを備えた複数のレンズから構成される。このフォーカシングレンズは、レンズ駆動機構21を介して光軸方向に移動される。フォーカシングレンズを光軸方向に移動させることで、フォーカス制御が実行される。
The imaging
また、撮像光学系15は、不図示の絞りを備えている。この絞りは、CPU40により設定されるAv値に応じて、絞り径が調整される。このAv値は、ユーザが入力した値であってもよいし、自動露出演算により算出された値であってもよい。
The imaging
クイックリターンミラー16は、撮像光学系15と撮像素子18との間の被写界光束の光路上に配置される。このクイックリターンミラー16は、ミラーダウン状態と、ミラーアップ状態との間で切り替えられる。クイックリターンミラー16がミラーダウン状態の場合、被写体光束はクイックリターンミラー16により焦点検出部43及び不図示の測光部へと導かれる。一方、クイックリターンミラー16がミラーアップ状態の場合、被写体光束は、クイックリターンミラー16により撮像素子18へ導かれる。
The
メカニカルシャッタ17は、クイックリターンミラー16と撮像素子18との間の、被写界光束の光路上に配置される。このメカニカルシャッタ17は、TG20からの駆動信号を受けたシャッタ駆動機構22により開閉される。
The
撮像素子18は、CCDイメージセンサ、CMOSイメージセンサなどから構成される。この撮像素子18は、TG20から供給される駆動信号に応じて、信号の蓄積及び信号の読み出しを行う。
The
TG20は、CPU40からの指示に応じて、撮像素子18やシャッタ駆動機構22に対して駆動信号を出力する。また、TG20は、AFE回路19やCPU40に対して同期信号を供給する。ここで、TG20は、撮像素子18へ供給する駆動信号のパターンと、メカニカルシャッタ17へ供給する駆動信号のパターンとの組み合わせにより、1フレーム当たりの露光時間を制御する。この露光時間は、CPU40により指定されたTv値に応じた値に設定される。ここで、Tv値は、ユーザが入力した値であってもよいし、自動露出演算により算出された値であってもよい。ここで、高速連写を実行する場合には、メカニカルシャッタ17を開状態としたまま、撮像素子18の駆動制御(信号の蓄積及び信号の読み出し)を行う。この場合、露光時間は、撮像素子18に供給される駆動信号のみで制御される。つまり、高速連写を行う場合、メカニカルシャッタ17ではなく、電子シャッタとなる。
The
AFE回路19は、CDS回路、ゲイン回路、A/D変換回路などを備えている。CDS回路は、撮像素子18から出力されるアナログ信号のノイズ成分を相関二重サンプリングにより除去する。ゲイン回路は、ノイズが除去されたアナログ信号を増幅する。A/D変換回路は、増幅されたアナログ信号をデジタル信号に変換する。
The
ここで、ゲイン回路による信号の増幅時に用いられる信号増幅率(ゲイン)は、CPU40からのSv値に基づいた値である。このSv値は撮影時の感度(ISO感度)であり、このSv値は、ユーザが指定した値であってもよいし、自動露出演算にて算出された値であってもよい。
Here, the signal amplification factor (gain) used when the signal is amplified by the gain circuit is a value based on the Sv value from the
焦点検出部43は、ミラーダウン状態のクイックリターンミラー16から導かれた被写界光束を瞳分割してから再統合することにより、撮像素子18に対する撮像光学系15のデフォーカス信号を生成する位相差検出方式の焦点検出部から構成される。ここで、撮像光学系15のデフォーカス信号は、撮像範囲に対して複数配置される複数のAFエリアのそれぞれで生成される。
The
バッファメモリ25は、AFE回路19から出力されたデジタル信号が書き込まれる。このバッファメモリ25は、AFE回路19から出力されたデジタル信号が書き込まれる他、画像処理回路26から転送された他のデジタル信号が書き込まれる。ここで、バッファメモリ25は、複数フレーム分のデジタル信号を記憶することができる。
In the
画像処理回路26は、ホワイトバランス処理回路、画素補間回路、マトリクス処理回路、非線形変換(γ補正)処理回路及び輪郭強調処理回路などを備え、バッファメモリ25から読み出されたデジタル信号に対して、ホワイトバランス、画素補間、マトリクス、非線形変換(γ補正)及び輪郭強調などの処理を施す。
The
画像処理回路26は、テンプレート生成部47、トリミング部48を備えている。テンプレート生成部47は、AF処理時に取り込まれる画像データから得られるコントラスト情報を用いて、主要被写体が含まれる領域を特定する。この特定の後、テンプレート生成部47は、特定された領域からなる画像をテンプレート画像として生成する。なお、テンプレート画像を生成する際に、AF処理時に取り込まれる画像データのコントラスト情報を用いているが、コントラスト情報に加えて、画像データにおける色情報を用いて、被写体が含まれる領域を特定することも可能である。
The
トリミング部48は、高速連写により得られた画像データのそれぞれから、後述する比較対象領域に該当する領域をトリミング処理する。なお、トリミング処理により生成される画像データ(対象画像データ)は、バッファメモリ25に記憶される。
The trimming unit 48 trims an area corresponding to a comparison target area described later from each of the image data obtained by the high-speed continuous shooting. Note that image data (target image data) generated by the trimming process is stored in the
圧縮/伸長回路27は、画像処理済みの画像データや、対象画像データに対して圧縮処理を施す。圧縮処理が施された画像データは、接続用I/F30を介して記憶媒体50に書き込まれる。ここで、記憶媒体50としては、不揮発性メモリからなるメモリーカード、光学ディスク、磁気ディスクなどが挙げられる。また、圧縮/伸長回路27は、記憶媒体50から読み出した圧縮処理済みの画像データに対して伸長処理を行う。表示制御回路28は、入力された画像データを表示用の所定方式の信号に変換して表示装置29に表示する。
The compression / decompression circuit 27 performs compression processing on the image data that has undergone image processing and the target image data. The compressed image data is written into the storage medium 50 via the connection I /
CPU40は、不揮発性メモリ41に格納されている制御プログラムに従って、ワークメモリ42を一時記憶作業領域として利用して各部の制御を行う。このCPU40は、高速連写時に、顔検出部51、領域設定部52、データ比較部53、焦点制御部54の機能が有効となる。
The
顔検出部51は、画像中に含まれる人物の顔を検出する。この顔を検出する処理としては、例えば画像に含まれる肌色の領域を検出し、肌色の領域に含まれる特徴量から、顔であるか否かの判定を行う処理、又は顔形状のテンプレートを複数用意しておき、テンプレートと画像との相関から顔の領域を検出する処理等が挙げられる。顔検出部51は、顔が検出されると、検出された顔を含む矩形の領域の位置情報を求める。ここで、顔領域の位置情報は、顔領域の四隅の頂点の位置座標を示すアドレスデータである。
The
領域設定部52は、データ比較部53にて実行されるデータ量の比較の際に用いる領域(比較対象領域)を設定する。領域設定部52は、1回目の撮像処理により得られる画像を縦m個横n個の計m×n個の領域に分割する。この領域分割に関わるデータは例えばワークメモリ42に記憶される。以下、画像を分割することで得られる領域を分割領域と称して説明する。顔検出部51による顔検出処理において顔が検出された場合には、画像に設定される複数の分割領域のうち、検出された顔の領域が含まれる分割領域を、比較対象領域として設定する。一方、顔検出部51による顔検出処理において顔が検出されない場合、領域設定部52は、テンプレート画像が生成されているか否かにより、以下の処理を実行する。例えばテンプレート画像が生成されている場合、領域設定部52は、テンプレート画像と、高速連写により取得された画像とを用いてテンプレートマッチングを行う。そして、領域設定部52は、テンプレートマッチングによりテンプレート画像に一致する領域が含まれる矩形の領域を比較対象領域として設定する。一方、テンプレート画像が生成されていない場合、領域設定部52は、1回目の撮像処理におけるフォーカス制御にて使用されるAFエリアを含む分割領域を比較対象領域として設定する。そして、領域設定部52は、上述したいずれかの方法で比較対象領域を設定した後、比較対象領域の位置情報を求める。なお、比較対象領域の位置情報は、画像処理回路26に出力される。画像処理回路26のトリミング部48は、比較対象領域の位置情報に基づいて、高速連写により得られる各画像データに対してトリミング処理を実行する。このトリミング処理により、対象画像データが生成される。
The
データ比較部53は、圧縮処理が施された対象画像データのデータ量を比較する。一般に、同じ被写界を連続して2回撮影した場合、個々の撮影においてピントが合っていれば、それぞれの撮影にて得られる2つの画像データのデータ量は近似する。しかしながら、1回目の撮影においてピントが合い、2回目の撮影においてピントが合っていない場合には、1回目の撮影で得られる画像は鮮鋭度が高い画像となり、2回目の撮影で得られる画像は鮮鋭度が低い画像となる。ここで、鮮鋭度の高い画像のデータ量は、鮮鋭度の低い画像のデータ量よりも大きくなる傾向がある。また、比較対象領域は、人物の顔領域や人物以外の被写体の領域、又は焦点が合うAFエリアが含まれる領域である。したがって、圧縮処理済みの対象画像データのデータ量を比較することで、画像において注目すべき領域に対して焦点が合い、他の領域に焦点が合わないように、フォーカス制御を行うことができる。
The
焦点制御部54は、撮影時におけるフォーカス制御を実行する。例えば高速連写における1回目の撮像処理のフォーカス制御は、焦点検出部43における検出結果を利用したフォーカス制御である。また、高速連写における2回目以降のフォーカス制御は、データ比較部53による比較結果に基づいたフォーカス制御である。なお、2回目以降のフォーカス制御は、比較対象領域をトリミングすることで得られる対象画像データにおける鮮鋭度と対象画像データのデータ量との関係を利用したフィードバック制御となる。
The
次に、比較対象領域の設定について説明する。まず、領域設定部52は、1回目の撮像処理により得られた画像をm×n個の分割領域に分割する。図2は、1回目の撮像処理により得られた画像Pを縦4個、横6個計24個の領域A1〜A24に分割した場合である。
Next, setting of the comparison target area will be described. First, the
そして、以下の手順で比較対象領域を設定する。まず、顔検出部51により顔が検出されている場合、領域設定部52は、検出された顔が単数(1つ)であるか、複数(2以上)であるかを判定する。例えば画像Pから1つの顔が検出される場合、領域設定部52は、検出された顔の領域(顔領域)が1つの分割領域よりも小さいか否かを判定する。顔領域が分割領域よりも小さいと判定した場合、領域設定部52は、検出された顔領域が複数の分割領域のいずれかの領域に収まるか、複数の分割領域に跨るかを判定する。
Then, the comparison target area is set according to the following procedure. First, when a face is detected by the
図2(a)に示すように、検出された顔領域FR1が1つの分割領域よりも小さく、また顔領域FR1が分割領域A17に収まる場合、領域設定部52は、分割領域A17を比較対象領域として設定する。
As shown in FIG. 2A, when the detected face area FR 1 is smaller than one divided area and the face area FR 1 fits in the divided area A 17 , the
図2(b)に示すように、検出された顔領域FR2が1つの分割領域よりも小さい場合であっても、顔領域FR2が複数の分割領域A10、A11、A16、A17に跨るときもある。このような場合には、領域設定部52は、分割領域A10、A11、A16、A17を比較対象領域として設定する。図2(b)においては、顔領域FR2が複数の分割領域A10、A11、A16、A17に跨る場合を説明しているが、顔領域が上下方向又は左右方向に隣り合う2つの分割領域に跨る場合には、顔領域が跨る2つの分割領域を比較対象領域に設定する。
As shown in FIG. 2B, even if the detected face area FR 2 is smaller than one divided area, the face area FR 2 is divided into a plurality of divided areas A 10 , A 11 , A 16 , A There are times when it straddles 17 . In such a case, the
図2(c)に示すように、顔領域FR3が1つの分割領域よりも大きい場合には、顔領域FR3は複数の分割領域に跨るので、このような場合、領域設定部52は、顔領域FR3が跨る分割領域A10、A11、A12、A16,A17、A18、A22、A23、A24を比較対象領域として設定する。なお、検出される顔領域が他の分割領域に跨る場合も同様にして、比較対象領域が設定される。
As shown in FIG. 2C, when the face area FR 3 is larger than one divided area, the face area FR 3 straddles a plurality of divided areas. In such a case, the
次に、顔検出部51により検出された顔が複数となる場合、領域設定部52は、まず、検出された複数の顔に基づく顔領域のうち、1つの分割領域よりも大きい顔領域があるか否かを判定する。図3(a)は、3つの顔領域FR4、FR5、FR6が検出された場合を示す。顔領域FR4、FR5、FR6のうち、顔領域FR6が最も大きい顔領域となる場合には、領域設定部52は顔領域FR6を選択する。そして、領域設定部52は、選択された顔領域FR6が跨る分割領域A16,A17、A22、A23を、比較対象領域として設定する。
Next, when there are a plurality of faces detected by the
図3(b)に示すように、検出された3つの顔領域FR7、FR8、FR9のいずれもが1つの分割領域よりも小さい場合がある。このような場合には、領域設定部52は、顔領域の位置とAFエリアの位置とに基づいて、AFエリアのいずれかに重畳する顔領域があるか否かを判定する。AFエリアのいずれかに重畳する顔領域があれば、領域分割部52は、その顔領域を選択し、選択された顔領域が収まる分割領域、或いは顔領域が跨る分割領域を比較対象領域として設定する。図3(b)においては、顔領域FR8がAFエリアに重畳しているので、領域設定部52は、顔領域FR8を選択する。そして、領域設定部52は、顔領域FR8が収まる分割領域A9を比較対象領域として設定する。なお、検出された顔領域のいずれもがAFエリアに重畳されない場合には、検出された顔領域のうち、最も大きい顔領域が位置する分割領域を比較対象領域としてもよいし、焦点が合うAFエリアが含まれる分割領域を比較対象領域としてもよい。
As shown in FIG. 3B, all of the detected three face regions FR 7 , FR 8 , FR 9 may be smaller than one divided region. In such a case, the
一方、顔検出部51により顔が検出されていない場合で、且つテンプレート画像が生成されている場合には、以下の方法で比較対象領域を設定する。高速連写を実行するときのAF処理は、レリーズボタン44の半押し操作に応答して実行される。そこで、テンプレート生成部47は、AF処理時に得られる画像データからコントラスト情報を取得した後、取得したコントラスト情報を用いて、テンプレート画像を生成する。図4に示すように、例えば走行するレース車両を高速連写する場合を考える。この場合、ドライバーが被るヘルメットにピントを併せて撮影を行うのが一般的である。したがって、ヘルメット付近のコントラストは他の領域に比べて高い。そこで、テンプレート生成部47は、コントラストが高いヘルメットが含まれる矩形の領域60を用いたテンプレート画像データを生成する。
On the other hand, when a face is not detected by the
したがって、領域設定部52は、高速連写における各撮像処理により得られた画像データに対して、テンプレート画像データを用いたテンプレートマッチングを行い、テンプレート画像データに対応する領域を比較対象領域として設定する。
Therefore, the
さらに、顔検出部51により顔が検出されていない場合で、且つテンプレート画像が生成されていない場合もある。この場合、領域設定部52は、高速連写が開始されたときに実行されるフォーカス制御の結果に基づいて、複数の分割領域のうちのいずれかの領域を、比較対象領域として設定する。上述した1回目の撮像処理においては、焦点検出部43により求められるAFエリア毎のデフォーカス信号を用いたフォーカス制御が実行される。領域設定部52は、これらAFエリアのうち、焦点が合うAFエリアを用いて、比較対象領域を設定する。
Furthermore, there is a case where no face is detected by the
図5(a)に示すように、AFエリアB1が焦点の合うAFエリアとなる場合、このAFエリアB1は分割領域A10に収まっている。したがって、領域設定部52は、AFエリアB1が収まる分割領域A10を比較対象領域として設定する。
As shown in FIG. 5 (a), if the AF area B 1 is a AF area in focus, the AF area B 1 represents is within a divided region A 10. Therefore, the
図5(b)に示すように、分割領域A9、A10、A15、A16に跨るAFエリアB2が焦点の合うAFエリアとなる場合、領域設定部52は、分割領域A9、A10、A15、A16を比較対象領域として設定する。
As shown in FIG. 5B, when the AF area B 2 extending over the divided areas A 9 , A 10 , A 15 , A 16 is an in-focus AF area, the
例えば、撮影時においては、複数のAFエリアが焦点の合うAFエリアとなる場合がある。このような場合、領域設定部52は、焦点の合うAFエリアのそれぞれが1つの分割領域に収まるか否かを判定する。図6(a)は、焦点の合うAFエリアが複数、1つの分割領域に収まる場合であり、焦点の合うAFエリアは塗りつぶして示している。この場合、領域設定部52は、焦点が合うAFエリアが収まる分割領域A10を比較対象領域として設定する。
For example, during shooting, a plurality of AF areas may be in-focus AF areas. In such a case, the
一方、焦点の合うAFエリアが複数あり、それぞれのAFエリアが複数の分割領域に収まる場合には、領域設定部52は、焦点の合うAFエリアが含まれる分割領域を全て比較対象領域として設定する。図6(b)の場合、塗りつぶしで示すAFエリアが焦点の合うAFエリアである。この場合、領域設定部52は、焦点が合うAFエリアが位置する分割領域A9、A10、A15、A16を比較対象領域として設定する。
On the other hand, when there are a plurality of in-focus AF areas and each AF area fits in a plurality of divided areas, the
なお、図6(c)に示すように、焦点が合うAFエリアが近接して位置せず、離散して位置している場合もある。このような場合には、領域設定部52は、焦点が合うAFエリアが含まれる分割領域A8及び分割領域A10、A11を比較対象領域として設定する。
As shown in FIG. 6C, the focused AF areas may not be located close to each other but may be located discretely. In such a case, the
以下、高速連写を行う際の処理の流れを図7〜図9のフローチャートに基づいて説明する。 Hereinafter, the flow of processing when performing high-speed continuous shooting will be described with reference to the flowcharts of FIGS.
ステップS101は、レリーズボタンが半押し操作されたか否かを判定する処理である。詳細は省略するが、レリーズボタン44には、その半押し操作及び全押し操作を検知する検知スイッチが設けられている。レリーズボタン44が半押し操作されると、半押し操作を検知する検知スイッチがオンとなり、その信号(以下、半押し信号)がCPU40に出力される。この半押し信号が入力されたことを受けて、CPU40は、ステップS101の判定処理の結果をYesとする。この場合、ステップS102に進む。
Step S101 is processing for determining whether or not the release button has been pressed halfway. Although details are omitted, the release button 44 is provided with a detection switch for detecting the half-pressing operation and the full-pressing operation. When the release button 44 is half-pressed, a detection switch that detects the half-press operation is turned on, and a signal (hereinafter, half-press signal) is output to the
一方、レリーズボタン44が半押し操作されないときには半押し信号がCPU40に入力されない。この場合、CPU40は、ステップS101の判定処理の結果をNoとする。つまり、ステップS101の判定処理の結果がYesとなるまで、このステップS101の判定処理が繰り返し実行される。
On the other hand, when the release button 44 is not half-pressed, the half-press signal is not input to the
ステップS102は、AE処理及びAF処理を実行する処理である。CPU40は、不図示の測光装置から出力される信号に基づいてAE処理を実行する。CPU40がAE処理を実行することで、Tv値、Av値及びSv値の組み合わせが決定される。また、CPU40は、焦点検出部43が出力するデフォーカス信号に基づいてAF処理を実行する。
Step S102 is processing for executing AE processing and AF processing. The
ステップS103は、テンプレート画像データを生成する処理である。CPU40は、AF処理時に得られた画像データのコントラスト情報を用いて、コントラストが高い領域を主要被写体となる領域として特定する。そして、画像処理回路26は、特定した主要被写体となる領域に基づく画像データをテンプレート画像データとして生成する。
Step S103 is processing for generating template image data. The
ステップS104は、レリーズボタンの半押し操作が解除されたか否かを判定する処理である。上述したように、レリーズボタン44が半押し操作されると、半押し信号がCPU40に入力される。また、レリーズボタン44の半押し操作が解除されると、CPU40への半押し信号の出力が停止される。すなわち、このステップS104においては、CPU40は、レリーズボタン44の半押し信号の出力が停止されたか否かによって、レリーズボタン44の半押し操作が解除されたか否かを判定する。
Step S104 is processing for determining whether or not the half-press operation of the release button has been released. As described above, when the release button 44 is half-pressed, a half-press signal is input to the
例えば半押し信号の出力が継続されている場合には、CPU40は、レリーズボタン44の半押し操作が解除されていないと判定する。この場合、ステップS104の判定処理の結果がNoとなり、ステップS105に進む。一方、半押し信号の出力が停止された場合には、CPU40は、レリーズボタン44の半押し操作が解除されたと判定する。この場合、ステップS104の判定処理の結果がYesとなり、ステップS101に戻る。
For example, when the output of the half-press signal is continued, the
ステップS105は、レリーズボタンの全押し操作されたか否かを判定する処理である。レリーズボタン44が全押し操作されると、全押し操作を検知する検知スイッチがオンとなり、その信号(全押し信号)がCPU40に出力される。全押し信号が入力されたことを受けて、CPU40は、ステップS104の判定処理の結果をYesとする。この場合、ステップS106に進む。一方、全押し信号が入力されない場合には、CPU40は、ステップS105の判定処理の結果をNoとする。この場合、ステップS104に戻る。
Step S105 is processing for determining whether or not the release button has been fully pressed. When the release button 44 is fully pressed, a detection switch for detecting the full press operation is turned on, and a signal (full press signal) is output to the
ステップS106は、撮像処理(1回目)である。CPU40は、ステップS102で決定されたTv値、Av値及びSv値を、レンズ駆動機構21、TG20、AFE回路19に対して指定する。同時に、CPU40は、クイックリターンミラー16をミラーアップ状態に切り替える。そして、CPU40は、TG20に撮像開始の信号を出力する。これにより、撮像処理が実行される。
Step S106 is an imaging process (first time). The
この撮像処理を行うことで、撮像素子18から画像信号が出力される。この画像信号はAFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶された画像信号を読み出す。画像処理回路26は、読み出した画像信号に対してホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データP1が生成される。圧縮/伸長回路27は、画像処理済みの画像データをバッファメモリ25上に複製(コピー)する。そして、複製した画像データP1に対して圧縮処理を施す。そして、圧縮処理された画像データP1をバッファメモリ25に記憶する。
By performing this imaging process, an image signal is output from the
ステップS107は、画像データP1及び画像データP1のデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データP1を読み出し、記憶媒体50に記憶する。同時に、CPU40は、圧縮処理された画像データP1のデータ量をワークメモリ42に書き込む。
Step S107 is a process of storing data amount of the image data P 1 and the image data P 1. The
ステップS108は、顔検出処理である。CPU40は、バッファメモリ25から画像処理が施された画像データP1を読み出し、顔検出処理を実行する。この顔検出処理で顔が検出されると、CPU40は、検出された顔を含む矩形の領域を顔領域として抽出する。
Step S108 is face detection processing. CPU40 reads out the image data P 1 to which image processing has been applied from the
ステップS109は、顔が検出されたか否かを判定する処理である。ステップS108の顔検出処理で顔が検出されている場合には、CPU40は、ステップS109の判定処理の結果をYesとする。この場合、ステップS110に進む。一方、ステップS108の顔検出処理で顔が検出されない場合には、CPU40は、ステップS109の判定処理の結果をNoとする。この場合、ステップS111に進む。
Step S109 is processing for determining whether or not a face has been detected. If a face is detected in the face detection process in step S108, the
ステップS110は、顔領域を比較対象領域に設定する処理である。まず、CPU40は、画像処理済みの画像データP1に基づく画像を複数の分割領域に分割する。例えば画像データP1から1つの顔が検出されている場合、CPU40は、顔領域の大きさと分割領域の大きさとを比較する。顔領域の大きさが1つの分割領域の大きさ以下となる場合には、CPU40は、顔領域が1つの分割領域に収まるか、複数の分割領域に跨るかを判定する。顔領域が1つの分割領域に収まる場合には、CPU40は、顔領域が収まる分割領域を比較対象領域として設定する。一方、顔領域が複数の分割領域に跨る場合、CPU40は、顔領域が跨る分割領域を比較対象領域として設定する。顔領域の大きさが1つの分割領域の大きさを超過する場合には、CPU40は、顔領域が跨る複数の分割領域を比較対象領域として設定する。
Step S110 is processing for setting a face area as a comparison target area. First,
次に、複数の顔が検出される場合には、CPU40は、検出される複数の顔領域のうち、1つの分割領域の大きさを超過する顔領域があるか否かを判定する。1つの分割領域の大きさを超過する顔領域がある場合には、CPU40は、該顔領域が跨る分割領域を比較対象領域として設定する。一方、検出される複数の顔領域のいずれもが、1つの分割領域の大きさよりも小さい場合には、CPU40は、AFエリアに重畳される顔領域が位置する分割領域を比較対象領域として設定する。ここで、AFエリアに重畳される顔領域が位置する分割領域とは、AFエリアに重畳される顔領域が収まる分割領域、又はAFエリアに重畳される顔領域が跨る分割領域である。CPU40は、比較対象領域を設定した後、比較対象領域に設定された分割領域の位置情報を取得し、ワークメモリ42に書き込む。
Next, when a plurality of faces are detected, the
ステップS109における判定処理が実行され、該判定処理の結果がNoとなる場合、言い換えれば画像データP1から人物の顔が検出されない場合、ステップS111に進む。 Determination processing in step S109 is executed, if the result of the determination processing becomes No, when the face of a person from the image data P 1 is not detected in other words, the process proceeds to step S111.
ステップS111は、テンプレート画像データを生成しているか否かを判定する処理である。上述したステップS103の処理において、テンプレート画像データを生成している場合、CPU40は、ステップS111の判定処理の結果をYesとする。この場合、ステップS112に進む。一方、ステップS103の処理において、テンプレート画像データを生成していない場合、CPU40は、ステップS111の判定処理の結果をNoとする。この場合、ステップS113に進む。
Step S111 is processing for determining whether template image data is generated. When template image data is generated in the process of step S103 described above, the
ステップS112は、テンプレートマッチングを用いて比較対象領域を設定する処理である。CPU40は、テンプレート画像データと、1回目の撮像処理により得られた画像データP1とを用いたテンプレートマッチング処理を実行する。そして、CPU40は、画像データP1に基づく画像のうち、テンプレート画像データに基づく画像に一致する矩形の領域を比較対象領域として設定する。CPU40は、設定した比較対象領域の位置情報を取得し、ワークメモリ42に書き込む。
Step S112 is processing for setting a comparison target region using template matching. CPU40 executes the template image data, the template matching processing using the image data P 1 obtained by the first imaging process. Then,
ステップS111の判定処理の結果がNoとなる場合、言い換えればテンプレート画像データを生成していない場合、ステップS113に進む。 If the result of the determination process in step S111 is No, in other words, if template image data has not been generated, the process proceeds to step S113.
ステップS113は、AFエリアに基づいて比較対象領域を設定する処理である。CPU40は、AFエリアのうち、焦点が合うAFエリアを特定する。そして、CPU40は、特定したAFエリアが位置する分割領域、或いは、AFエリアが跨る分割領域を比較対象領域として設定する。CPU40は、比較対象領域に設定した後、比較対象領域に設定された分割領域の位置情報を取得し、ワークメモリ42に書き込む。
Step S113 is processing for setting a comparison target area based on the AF area. The
上述したステップS110、ステップS112或いはステップS113のいずれかの処理を行うことで、比較対象領域が設定される。この比較対象領域の設定の後、ステップS114に進む。 The comparison target area is set by performing any one of the processes in step S110, step S112, and step S113 described above. After setting the comparison target area, the process proceeds to step S114.
ステップS114は、比較対象領域の位置情報を用いた画像データP1に対するトリミング処理である。画像処理回路26は、バッファメモリ25に記憶された画像処理済みの画像データP1を読み出す。そして、画像処理回路26は、設定した比較対象領域の位置情報を用いて、画像データP1に対するトリミング処理を行う。このトリミング処理を行うことで、比較対象領域に基づく対象画像データP1’が生成される。生成された対象画像データP1’は、バッファメモリ25に記憶される。
Step S114 is a trimming process on the image data P 1 using the position information of the comparison regions. The
ステップS115は、トリミング処理された対象画像データP1’及び対象画像データP1’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP1’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP1’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP1’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP1’のデータ量をワークメモリ42に記憶する。
Step S115 is a process of storing the data amounts of the target image data P 1 ′ and the target image data P 1 ′ subjected to the trimming process. The compression / decompression circuit 27 reads the target image data P 1 ′ stored in the
ステップS116は、レリーズボタンの操作が解除されたか否かを判定する処理である。上述したように、レリーズボタン44が操作されると、レリーズボタン44の操作に基づく信号(半押し信号、全押し信号)がCPU40に入力される。このステップS116においては、レリーズボタン44の操作に基づく信号の出力が停止されたか否かによって、レリーズボタン44の操作が解除されたか否かを判定する。
Step S116 is processing for determining whether or not the operation of the release button has been released. As described above, when the release button 44 is operated, a signal (half-press signal, full-press signal) based on the operation of the release button 44 is input to the
例えば、レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS116の判定処理の結果はNoとなり、ステップS117に進む。一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS116の判定処理の結果はYesとなる。この場合には、高速連写に係る処理が終了する。
For example, if the output of the signal based on the operation of the release button 44 is continued, the
ステップS117は、撮像処理(2回目)である。この2回目の撮像処理は、撮像光学系15を構成するフォーカシングレンズの位置を固定した撮像処理である。2回目の撮像処理が実行されると、撮像素子18から出力される画像信号は、AFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶された画像信号を読み出し、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データP2が生成される。圧縮/伸長回路27は、バッファメモリ25に記憶された画像処理済みの画像データP2をバッファメモリ25上に複製(コピー)する。そして、複製した画像データP2に対して圧縮処理を施す。そして、圧縮処理された画像データP2をバッファメモリ25に記憶する。
Step S117 is an imaging process (second time). This second imaging process is an imaging process in which the position of the focusing lens constituting the imaging
ステップS118は、画像データP2及び画像データP2のデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データP2を読み出し、記憶媒体50に記憶する。また、同時に、CPU40は、圧縮処理された画像データP2のデータ量をワークメモリ42に書き込む。
Step S118 is a process of storing data amount of the image data P 2 and the image data P 2. The
ステップS119は、テンプレートマッチングを用いた比較対象領域の設定が行われているか否かを判定する処理である。テンプレートマッチングを用いて比較対象領域を設定している場合、CPU40は、ステップS119の判定処理の結果をYesとする。この場合、ステップS120に進む。一方、テンプレートマッチングを用いて比較対象領域を設定していない、言い換えれば、検出された顔やAFエリアに基づいて比較対象領域を設定している場合、CPU40は、ステップS119の判定処理の結果をNoとする。この場合、ステップS121に進む。
Step S119 is a process of determining whether or not a comparison target area is set using template matching. When the comparison target area is set using template matching, the
ステップS120は、画像データP2に対象画像データP1’と一致する箇所があるか否かを判定する処理である。画像処理回路26は、対象画像データP1’及び画像データP2をそれぞれ読み出す。これら画像データを読み出した後、画像処理回路26は、これら画像データを用いたテンプレートマッチングを行う。テンプレートマッチングにより、画像データP2に対象画像データP1’と一致する箇所がある場合、画像処理回路26は、ステップS120の判定処理の結果をYesとする。この場合、ステップS121に進む。一方、画像データP2に、対象画像データP1’が一致する箇所がない場合、画像処理回路26は、ステップS120の判定処理の結果をNoとする。この場合、ステップS124に進む。
Step S120 is a process of determining whether or not there is a location in the image data P 2 that matches the target image data P 1 ′. The
ステップS121は、画像データP2に対するトリミング処理である。顔の領域が含まれる分割領域を比較対象領域として設定している場合や、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定している場合には、画像処理回路26は、比較対象領域として設定された分割領域の位置情報に基づいて、画像データP2に対するトリミング処理を実行する。この場合、比較対象領域の位置は固定となる。
Step S121 is a trimming process on image data P 2. When the divided area including the face area is set as the comparison target area, or when the divided area including the focused AF area is set as the comparison target area, the
一方、テンプレートマッチングを行って画像データP2に対象画像データP1’と一致する箇所があれば、その一致する箇所が比較対象領域となる。したがって、画像処理回路26は、テンプレートマッチングにより取得された比較対象領域の位置情報に基づいて、画像データP2に対するトリミング処理を実行する。このトリミング処理を行うことで、対象画像データP2’が生成される。この生成された対象画像データP2’は、バッファメモリ25に記憶される。この場合、テンプレート画像に含まれる被写体の位置が変化(被写体が移動)している場合もあるので、この場合には、比較対象領域は必ずしも固定されない。
On the other hand, if template matching is performed and the image data P 2 has a portion that matches the target image data P 1 ′, the matching portion becomes the comparison target region. Accordingly, the
ステップS122は、対象画像データP2’及び対象画像データP2’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP2’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP2’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP2’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP2’のデータ量をワークメモリ42に記憶する。
Step S122 is a process of storing the data amounts of the target image data P 2 ′ and the target image data P 2 ′. The compression / decompression circuit 27 reads the target image data P 2 ′ stored in the
ステップS123は、対象画像データP1’及び対象画像データP2’間のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した対象画像データP1’及び対象画像データP2’のデータ量をそれぞれ読み出し、これら対象画像データのデータ量から、データ量の変化量Δ12を求める。詳細には、CPU40は、対象画像データP2’のデータ量から対象画像データP1’のデータ量を減算し、データ量の変化量Δ12を求める。
Step S123 is a process of calculating a change amount of the data amount between the target image data P 1 ′ and the target image data P 2 ′. CPU40 reads the data of the target image data P 1 stored in the
上述したステップS120における判定処理がNoとなる場合、つまり、テンプレートマッチングを行っても画像データP2において対象画像データP1’と一致する箇所がない場合、ステップS124に進む。 If the determination process in Step S120 described above is No, that is, if there is no portion that matches the target image data P 1 ′ in the image data P 2 even after performing template matching, the process proceeds to Step S124.
ステップS124は、画像データP1及び画像データP2間のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した画像データP1及び画像データP2のデータ量をそれぞれ読み出し、これら画像データのデータ量から、データ量の変化量Δ12を求める。
Step S124 is a process of calculating the data amount of variation between the image data P 1 and the image data P 2. CPU40 reads data amount of the image data P 1 and the image data P 2 stored in the
ステップS125は、データ量の変化量が基準範囲を超過しているか否かを判定する処理である。ステップS123又はステップS124により求めたデータ量の変化量Δ12が基準範囲を越えている場合、CPU40は、ステップS125の判定処理の結果をYesとし、ステップS126に進む。一方、ステップS123又はステップS124により求めたデータ量の変化量Δ12が基準範囲以下となる場合、CPU40は、ステップS125の判定処理の結果をNoとし、ステップS129に進む。
Step S125 is processing for determining whether or not the amount of change in the data amount exceeds the reference range. If step S123 or the data amount of change amount delta 12 determined in step S124 exceeds the reference range,
つまり、ステップS125の判定処理の結果がNoとなる場合には、データ量の変化量は、誤差の範囲に含まれると推測できる。したがって、フォーカシングレンズの位置は、2回目の撮像処理におけるフォーカシングレンズの位置に固定される。なお、この基準範囲は、予め実験、統計などにより求められる範囲であることが望ましい。 That is, when the result of the determination process in step S125 is No, it can be estimated that the change amount of the data amount is included in the error range. Therefore, the position of the focusing lens is fixed to the position of the focusing lens in the second imaging process. The reference range is preferably a range obtained in advance by experiments, statistics, and the like.
ステップS126は、データ量の変化量が低下しているか否かを判定する処理である。ステップS123及びステップS124にて求めたデータ量の変化量Δ12が負の値となる場合、CPU40は、データ量の変化量が低下したと判定する。この場合、CPU40は、ステップS126の判定処理の結果をYesとする。この場合、ステップS127に進む。一方、データ量の変化量Δ12が正の値となる場合、CPU40は、データ量の変化量が増加したと判定する。この場合、CPU40は、ステップS126の判定処理の結果をNoとし、ステップS129に進む。
Step S126 is processing for determining whether or not the amount of change in the data amount has decreased. If step S123 and data amount of change amount delta 12 obtained in step S124 is a negative value, it is determined that the CPU40, the amount of change in the data amount has been reduced. In this case, the
ステップS127は、フォーカシングレンズの移動量を算出する処理である。CPU40は、ステップS123又はステップS124により求めたデータ量の変化量を用いて、フォーカシングレンズの移動量を算出する。このフォーカシングレンズの移動量の算出においては、例えば焦点距離など、撮像光学系15に固有の特性が考慮される。
Step S127 is processing for calculating the amount of movement of the focusing lens. The
ステップS128は、フォーカシングレンズを移動させる処理である。CPU40は、ステップS127にて求めた移動量に基づいて、レンズ駆動機構21を介してフォーカシングレンズを移動させる。このとき、フォーカシングレンズの移動方向は、予め至近端方向又は無限端方向のいずれかに設定される。
Step S128 is processing to move the focusing lens. The
例えば、撮影により得られる画像データのデータ量は、焦点が合わない画像データに比べて、焦点が合う画像データのデータ量は大きくなる。つまり、データ量の変化量が負の値となる場合には、2回目の撮像処理で得られた画像データは、1回目の撮像処理により得られた画像データに比べて主要被写体に焦点が合っていない画像データであると推定できる。一方、データ量の変化量が正の値となる場合には、2回目の撮像処理で得られた画像データは、1回目の撮像処理により得られた画像データよりも主要被写体に焦点が合う画像データであると推定できる。したがって、データ量の変化量が負の値となる場合には、上述したように、主要被写体に焦点を合わせるようにフォーカシングレンズを移動させる制御を行う。 For example, the data amount of image data obtained by shooting is larger than that of image data that is not focused. That is, when the change amount of the data amount is a negative value, the image data obtained by the second imaging process is focused on the main subject compared to the image data obtained by the first imaging process. It can be estimated that the image data is not. On the other hand, when the change amount of the data amount is a positive value, the image data obtained by the second imaging process is focused on the main subject more than the image data obtained by the first imaging process. It can be estimated to be data. Therefore, when the amount of change in the data amount becomes a negative value, as described above, control is performed to move the focusing lens so as to focus on the main subject.
ステップS129は、レリーズボタンの操作が解除されたか否かを判定する処理である。レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS129の判定処理の結果はNoとなり、ステップS130に進む。つまり、3回目以降の撮像処理が実行される。
Step S129 is processing to determine whether or not the operation of the release button has been released. If the output of the signal based on the operation of the release button 44 is continued, the
一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS129の判定はYesとなる。この場合には、高速連写に係る処理が終了する。
On the other hand, when the output of the signal based on the operation of the release button 44 is stopped, the
以下、3回目以降の撮像処理について説明する。なお、3回目以降の撮像処理が実行された後の処理の流れは同一の処理が実行されることから、図9においては、符号n(n≧3)を用いて説明している。 Hereinafter, the third and subsequent imaging processes will be described. Since the same process is executed after the third and subsequent imaging processes are performed, in FIG. 9, the description is made using the symbol n (n ≧ 3).
ステップS130は、3回目の撮像処理である。この撮像処理により、撮像素子18から出力される画像信号は、AFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶される画像信号を読み出し、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データP3が生成される。圧縮/伸長回路27は、バッファメモリ25に記憶された画像処理済みの画像データP3をバッファメモリ25上に複製(コピー)する。そして、複製した画像データP3に対して圧縮処理を施す。そして、圧縮処理された画像データP3をバッファメモリ25に記憶する。
Step S130 is the third imaging process. By this imaging process, the image signal output from the
ステップS131は、画像データP3及び画像データP3のデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データP3を読み出し、記憶媒体50に記憶する。また、同時に、CPU40は、圧縮処理された画像データP3のデータ量をワークメモリ42に書き込む。
Step S131 is a process of storing data amount of the image data P 3 and the image data P 3. The
ステップS132は、テンプレートマッチングを用いた比較対象領域の設定が行われているか否かを判定する処理である。テンプレートマッチングを用いて比較対処領域を設定している場合、CPU40は、ステップS132の判定処理の結果をYesとする。この場合、ステップS133に進む。一方、テンプレートマッチングを用いて比較対象領域を設定していない、言い換えれば、検出された顔やAFエリアに基づいて比較対象領域を設定している場合、CPU40は、ステップS132の判定処理の結果をNoとする。この場合、ステップS134に進む。
Step S132 is a process of determining whether or not a comparison target area is set using template matching. When the comparison handling area is set using template matching, the
ステップS133は、画像データP3に対象画像データP1’と一致する箇所があるか否かを判定する処理である。画像処理回路26は、対象画像データP1’及び画像データP3をそれぞれ読み出す。これら画像データを読み出した後、画像処理回路26は、これら画像データを用いたテンプレートマッチングを行う。テンプレートマッチングにより、画像データP3に対象画像データP1’と一致する箇所がある場合、画像処理回路26は、ステップS133の判定処理の結果をYesとする。この場合、ステップS134に進む。一方、画像データP3に、画像データP1’と一致する箇所がない場合、画像処理回路26は、ステップS133の判定処理の結果をNoとする。この場合、ステップS137に進む。
Step S133 is a process of determining whether or not there is a location in the image data P 3 that matches the target image data P 1 ′. The
ステップS134は、画像データP3に対するトリミング処理である。顔の領域が含まれる分割領域を比較対象領域として設定している場合や、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定している場合には、画像処理回路26は、比較対象領域として設定された分割領域の位置情報に基づいて、画像データP3に対するトリミング処理を実行する。この場合、比較対象領域の位置は固定となる。
Step S134 is a trimming process on image data P 3. When the divided area including the face area is set as the comparison target area, or when the divided area including the focused AF area is set as the comparison target area, the
一方、テンプレートマッチングを行って画像データP3に対象画像データP1’と一致する箇所があれば、その一致する箇所が比較対象領域となる。したがって、画像処理回路26は、テンプレートマッチングにより取得された比較対象領域の位置情報に基づいて、画像データP3に対するトリミング処理を実行する。このトリミング処理を行うことで、対象画像データP3’が生成される。この生成された対象画像データP3’は、バッファメモリ25に記憶される。この場合、テンプレート画像に含まれる被写体の位置が変化(被写体が移動)している場合もあるので、この場合には、比較対象領域は必ずしも固定されない。
On the other hand, if template matching is performed and the image data P 3 has a location that matches the target image data P 1 ′, the matching location becomes the comparison target region. Accordingly, the
ステップS135は、トリミング処理された対象画像データP3’及び対象画像データP3’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP3’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP3’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP3’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP3’のデータ量をワークメモリ42に記憶する。
Step S135 is a process of storing the data amounts of the target image data P 3 ′ and the target image data P 3 ′ subjected to the trimming process. The compression / decompression circuit 27 reads the target image data P 3 ′ stored in the
ステップS136は、対象画像データP1’、対象画像データP2’及び対象画像データP3’のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した対象画像データP1’、対象画像データP2’及び対象画像データP3’のデータ量をそれぞれ読み出す。そして、CPU40は、データ量の変化量Δ13、Δ23を求める。詳細には、CPU40は、対象画像データP3’のデータ量から対象画像データP1’のデータ量を減算することでデータ量の変化量Δ13を求め、対象画像データP3’のデータ量から対象画像データP2’のデータ量を減算することでデータ量の変化量Δ23を求める。
Step S136 is a process of calculating the amount of change in the data amount of the target image data P 1 ′, the target image data P 2 ′, and the target image data P 3 ′. The
一方、上述したステップS133における判定処理がNoとなる場合、つまり、テンプレートマッチングを行っても画像データP3において対象画像データP1’と一致することがない場合、ステップS137に進む。 On the other hand, if the determination processing in step S133 described above is No, ie, if they fit a target image data P 1 'in the image data P 3 even if the template matching, the process proceeds to step S137.
ステップS137は、画像データP1、画像データP2及び画像データP3のデータ量の変化量を算出する処理である。CPU40は、ワークメモリに記憶した画像データP1、画像データP2及び画像データP3のデータ量をそれぞれ読み出し、これら画像データのデータ量から、データ量の変化量を求める。詳細には、CPU40は、画像データP3のデータ量から画像データP1のデータ量を減算することでデータ量の変化量Δ13を求め、画像データP3のデータ量から画像データP2のデータ量を減算することでデータ量の変化量Δ23を求める。
Step S137 is a process of calculating the amount of change in the data amount of the image data P 1 , the image data P 2, and the image data P 3 . The
ステップS138は、データ量の変化量が基準範囲を超過しているか否かを判定する処理である。CPU40は、ステップS136又はステップS137において求めたデータ量の変化量のうち、データ量の変化量Δ23が基準範囲を超過しているか否かを判定する。例えばデータ量の変化量Δ23が基準範囲を超過している場合、CPU40は、ステップS138の判定処理の結果をYesとし、ステップS139に進む。一方、データ量の変化量Δ23が基準範囲以下であれば、CPU40は、ステップS138の判定処理の結果をNoとし、ステップS145に進む。この場合、フォーカシングレンズの位置が固定されたままとなる。
Step S138 is processing for determining whether or not the amount of change in the data amount exceeds the reference range. CPU40, among the calculated data amount of change amount in step S136 or step S137, determines whether the change amount delta 23 of the data amount exceeds a reference range. For example, if the data amount of the change amount delta 23 exceeds the reference range,
ステップS139は、データ量の変化量が低下したか否かを判定する処理である。CPU40は、求めたデータ量の変化量Δ13が、データ量の変化量Δ23に対して小さくなるか否かを判定する。例えばデータ量の変化量Δ13がデータ量の変化量Δ23以下となる場合、CPU40は、ステップS139の判定処理の結果をYesとする。この場合、ステップS140に進む。一方、データ量の変化量Δ13がデータ量の変化量Δ23を超過する場合、CPU40は、ステップS139の判定処理の結果をNoとする。この場合、ステップS143に進む。
Step S139 is processing for determining whether or not the amount of change in data amount has decreased. CPU40 are variations of delta 13 of the obtained data amount, determines whether or not reduced with respect to the data amount of variation delta 23. For example, when the change amount delta 13 data amount is less variation delta 23 amount of data,
ステップS140は、前回の撮像処理においてレンズ固定であるか否かを判定する処理である。例えば2回目の撮像処理において、フォーカシングレンズの位置を固定した場合、ステップS140の判定処理の結果をYesとする。この場合、ステップS145に進む。一方、2回目の撮像処理において、フォーカシングレンズの位置を移動させた場合には、ステップS140の判定処理の結果をNoとする。この場合、ステップS141に進む。 Step S140 is a process for determining whether or not the lens is fixed in the previous imaging process. For example, in the second imaging process, when the position of the focusing lens is fixed, the result of the determination process in step S140 is Yes. In this case, the process proceeds to step S145. On the other hand, when the position of the focusing lens is moved in the second imaging process, the result of the determination process in step S140 is No. In this case, the process proceeds to step S141.
ステップS141は、フォーカシングレンズの移動量を算出する処理である。CPU40は、データの変化量Δ23を用いてフォーカシングレンズの移動量を算出する。 Step S141 is processing for calculating the amount of movement of the focusing lens. CPU40 calculates the movement amount of the focusing lens by using the amount of change delta 23 data.
ステップS142はフォーカシングレンズを同一方向に移動させる処理である。CPU40は、レンズ駆動機構21を介して、フォーカシングレンズをステップS128におけるフォーカシングレンズの移動方向と同一方向に移動させる。なお、このときのフォーカシングレンズの移動量はステップS141にて求めた移動量である。
Step S142 is a process of moving the focusing lens in the same direction. The
ステップS139において、データ量の変化量が低下していないと判定された場合、ステップS143に進む。 If it is determined in step S139 that the change amount of the data amount has not decreased, the process proceeds to step S143.
ステップS143は、フォーカシングレンズの移動量を算出する処理である。CPU40は、データの変化量Δ23を用いてフォーカシングレンズの移動量を算出する。 Step S143 is processing for calculating the amount of movement of the focusing lens. CPU40 calculates the movement amount of the focusing lens by using the amount of change delta 23 data.
ステップS144は、フォーカシングレンズを逆方向に移動させる処理である。CPU40は、レンズ駆動機構21を介して、フォーカシングレンズをステップS128におけるフォーカシングレンズの移動方向と逆方向に移動させる。なお、このときのフォーカシングレンズの移動量はステップS141にて求めた移動量である。
Step S144 is a process of moving the focusing lens in the reverse direction. The
ステップS145は、レリーズボタンの操作が解除されたか否かを判定する処理である。レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS145の判定処理の結果はNoとなり、ステップS130に進む。つまり、4回目以降の撮像処理が実行される。一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS145の判定はYesとなる。この場合には、高速連写に係る処理が終了する。
Step S145 is processing for determining whether or not the operation of the release button has been released. If the output of the signal based on the operation of the release button 44 is continued, the
以降、ステップS130からステップS145の処理がレリーズボタンの操作が解除されるまで繰り返し実行される。 Thereafter, the processing from step S130 to step S145 is repeatedly executed until the release button is released.
このように、本実施形態においては、対象画像データに対する圧縮処理を行ったときのデータ量の変化に基づいて、各撮像処理におけるフォーカス制御が実行される。ここで、人物の顔を検出している場合には、検出された顔の領域が含まれる分割領域が比較対象領域として設定される。同様にして、焦点が合うAFエリアがあれば、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定される。したがって、このような場合には、人の顔など、予め焦点を合わせた領域に対して、従来のフォーカス制御を用いなくとも、適切にフォーカス制御を行うことが可能となる。 Thus, in the present embodiment, focus control in each imaging process is executed based on the change in the data amount when the compression process is performed on the target image data. Here, when a human face is detected, a divided area including the detected face area is set as a comparison target area. Similarly, if there is an in-focus AF area, a divided area including the in-focus AF area is set as a comparison target area. Therefore, in such a case, it is possible to appropriately perform focus control on a previously focused region such as a human face without using conventional focus control.
また、人物の顔以外の物体を主要被写体とした高速連写を行う場合には、上述した被写体検出処理を行っても、主要被写体となる物体を検出することができないこともある。例えば高速連写を行う前に、焦点を合わせた領域を主要被写体の領域として設定した場合、被写体検出にて主要被写体が検出されない場合、単なる領域に対するデータ量の変化量の比較を行うことになる。したがって、ユーザの意図する領域に焦点を合わせた画像を得ることができなくなる。しかしながら、本実施形態では、AF処理を行ったときに得られる画像データからコントラストの高い領域を主要被写体が含まれる領域として設定することで、ユーザの意図する領域内の特徴量を得ることができる。したがって、高速連写時には、ユーザの意図する領域を用いたテンプレートマッチングを行うことで、得られる画像において、ユーザの意図する領域の位置を特定することができ、その特定された領域に基づく画像データのデータ量の変化量を用いることで、主要被写体が人物でない場合や、主要被写体の位置が変化した場合であっても、主要被写体と思われる領域に対して、焦点を合わせたフォーカス制御を適切に行うことが可能である。 In addition, when performing high-speed continuous shooting using an object other than a human face as a main subject, the object that is the main subject may not be detected even if the subject detection process described above is performed. For example, if the focused area is set as the main subject area before performing high-speed continuous shooting, and if the main subject is not detected in the subject detection, the amount of change in the data amount relative to the area is simply compared. . Therefore, it becomes impossible to obtain an image focused on the area intended by the user. However, in the present embodiment, by setting an area with high contrast as an area including the main subject from image data obtained when AF processing is performed, it is possible to obtain a feature amount in the area intended by the user. . Therefore, during high-speed continuous shooting, by performing template matching using the area intended by the user, the position of the area intended by the user can be identified in the obtained image, and image data based on the identified area By using the amount of change in the amount of data, even if the main subject is not a person or when the position of the main subject changes, focus control that focuses on the area that seems to be the main subject is appropriate. Can be done.
本実施形態では、AF処理の際に得られる画像データのコントラスト情報から主要被写体の領域を特定し、特定した領域に基づいたテンプレート画像を生成しているが、予めユーザの入力操作が行われた領域に基づいてテンプレート画像を生成することも可能である。また、予めテンプレート画像を複数記憶させておき、複数のテンプレート画像のいずれかを用いることも可能である。 In this embodiment, the area of the main subject is specified from the contrast information of the image data obtained at the time of AF processing, and a template image based on the specified area is generated. However, a user input operation has been performed in advance. It is also possible to generate a template image based on the region. It is also possible to store a plurality of template images in advance and use any of the plurality of template images.
本実施形態では、検出された顔が含まれる分割領域を比較対象領域として設定した場合、比較対象領域の位置は固定となる。しかしながら、比較対象領域として設定される分割領域に基づいて生成される対象画像データを用いたテンプレートマッチングを新たに取得される画像データに対して実行することで、検出された顔が含まれる分割領域を特定してもよい。つまり、上述した動作を行うことで、高速連写中に、検出される顔の位置が変化する場合にも対応することが可能となる。この場合、顔の位置が複数の分割領域に跨って位置する場合もある。したがって、トリミング処理を行う領域は、顔が跨って位置する分割領域ではなく、テンプレートマッチングを行う際に用いる比較対象領域の大きさと同一の大きさの領域とすればよい。 In the present embodiment, when a divided region including the detected face is set as a comparison target region, the position of the comparison target region is fixed. However, by performing template matching using target image data generated based on the divided region set as the comparison target region on newly acquired image data, the divided region including the detected face May be specified. That is, by performing the above-described operation, it is possible to cope with a case where the detected face position changes during high-speed continuous shooting. In this case, the face position may be located across a plurality of divided areas. Therefore, the area to be subjected to the trimming process may be an area having the same size as the comparison target area used when performing template matching, not a divided area where the face is located.
本実施形態では、各撮像処理により得られた画像データを用いているが、これに限定される必要はなく、デジタルカメラにおいては、得られた画像データを縮小した画像データを用いて顔検出処理を行っている場合もあるので、本実施形態のフォーカス制御を、縮小した画像データを用いて行うことも可能である。 In this embodiment, image data obtained by each imaging process is used. However, the present invention is not limited to this, and in a digital camera, face detection processing is performed using image data obtained by reducing the obtained image data. Therefore, the focus control of the present embodiment can be performed using reduced image data.
本発明では、デジタルカメラにおけるフォーカス制御を、位相差検出方式のフォーカス制御としているが、これに限定される必要はなく、コントラスト検出方式のフォーカス制御としてもよい。 In the present invention, the focus control in the digital camera is the phase difference detection type focus control. However, the present invention is not limited to this and may be the contrast detection type focus control.
本発明のデジタルカメラとして、クイックリターンミラーを有するデジタルカメラを例にあげて説明しているが、これに限定する必要はなく、クイックリターンミラーを搭載していない、コンパクトカメラ、カメラ機能を備えた携帯電話機の他、コンピュータに搭載又は接続されたカメラなどであってもよい。 As a digital camera of the present invention, a digital camera having a quick return mirror is described as an example. However, the present invention is not limited to this, and a compact camera not equipped with a quick return mirror has a camera function. In addition to a mobile phone, a camera mounted on or connected to a computer may be used.
10…デジタルカメラ、18…撮像素子、26…画像処理回路、27…圧縮/伸長回路、40…CPU、41…不揮発性メモリ、42…ワークメモリ、47…テンプレート生成部、48…トリミング部、51…顔検出部、52…領域設定部、53…データ比較部、54…焦点制御部 DESCRIPTION OF SYMBOLS 10 ... Digital camera, 18 ... Image sensor, 26 ... Image processing circuit, 27 ... Compression / decompression circuit, 40 ... CPU, 41 ... Non-volatile memory, 42 ... Work memory, 47 ... Template generation part, 48 ... Trimming part, 51 ... Face detection unit, 52 ... Area setting unit, 53 ... Data comparison unit, 54 ... Focus control unit
Claims (9)
被写体が含まれる第1の画像を生成する生成部と、
前記撮像光学系により取り込まれる被写体光に基づいて連続して取得される第2の画像に対して前記第1の画像を用いたテンプレートマッチングを行うことで、前記第2の画像のそれぞれから切り出す領域を対象領域として設定する設定部と、
前記第2の画像から切り出した前記対象領域の画像のそれぞれに対して圧縮処理を行う圧縮部と、
前記圧縮処理された前記対象領域の画像のデータ量の変化に基づいて、前記撮像光学系におけるフォーカスポジションを制御する制御部と、
を備えたことを特徴とする焦点調節装置。 An imaging optical system that captures subject light;
A generating unit that generates a first image including a subject;
Regions cut out from each of the second images by performing template matching using the first image on the second images continuously acquired based on the subject light captured by the imaging optical system A setting unit for setting as a target area;
A compression unit that performs compression processing on each of the images of the target area cut out from the second image;
A control unit that controls a focus position in the imaging optical system based on a change in the data amount of the compressed image of the target area;
A focus adjustment device comprising:
前記生成部は、前記第2の画像を取得する前に取り込まれる第3の画像の少なくともコントラスト情報を用いて、前記第3の画像に含まれる前記被写体の画像を前記第1の画像として生成することを特徴とする焦点調節装置。 The focus adjustment apparatus according to claim 1,
The generation unit generates an image of the subject included in the third image as the first image by using at least contrast information of the third image captured before acquiring the second image. A focusing device characterized by that.
前記被写体を検出する被写体検出部を、さらに備え、
前記設定部は、前記第2の画像を取得したときに前記被写体検出部により前記被写体を検出できない場合に、前記第1の画像を用いたテンプレートマッチングを行うことで、前記対象領域を設定することを特徴とする焦点調節装置。 The focus adjustment device according to claim 1 or 2,
A subject detection unit for detecting the subject;
The setting unit sets the target region by performing template matching using the first image when the subject detection unit cannot detect the subject when the second image is acquired. Focus adjustment device characterized by.
前記設定部は、前記被写体検出部により前記被写体を検出した場合に、前記検出した被写体の領域を前記対象領域として設定することを特徴とする焦点調節装置。 The focus adjustment apparatus according to claim 3.
The focus adjustment apparatus, wherein the setting unit sets an area of the detected subject as the target region when the subject is detected by the subject detection unit.
画像を取得する範囲に対応して設けられる複数の焦点検出エリアを用いて、前記撮像光学系の焦点状態を検出する焦点検出部を備え、
前記設定部は、前記生成部により前記第1の画像が生成されていない場合に、前記複数の焦点検出エリアのうち、焦点が合う焦点検出エリアが含まれる領域を前記対象領域として設定することを特徴とする焦点調節装置。 In the focus adjustment apparatus according to any one of claims 1 to 4,
Using a plurality of focus detection areas provided corresponding to a range for acquiring an image, and including a focus detection unit that detects a focus state of the imaging optical system;
The setting unit sets, as the target region, a region including a focus detection area that is in focus among the plurality of focus detection areas, when the first image is not generated by the generation unit. Focus adjustment device characterized.
前記制御部は、ユーザからの指示に従って前記フォーカスポジションの初期調節を行うことを特徴とする焦点調節装置。 The focus adjustment apparatus according to any one of claims 1 to 5,
The focus adjustment apparatus, wherein the control unit performs initial adjustment of the focus position in accordance with an instruction from a user.
前記制御部は、位相差検出方式により前記フォーカスポジションの初期調節を行うことを特徴とする焦点調節装置。 The focus adjustment apparatus according to any one of claims 1 to 5,
The focus adjustment apparatus, wherein the control unit performs initial adjustment of the focus position by a phase difference detection method.
前記制御部は、前記データ量の変化量が基準範囲を超過したときに、前記フォーカスボジションを変位させることを特徴とする焦点調節装置。 The focus adjustment apparatus according to any one of claims 1 to 7,
The focus adjustment apparatus, wherein the control unit displaces the focus position when a change amount of the data amount exceeds a reference range.
前記撮像素子から出力される画像に基づいて、前記撮像光学系のフォーカスポジションを制御する、請求項1から請求項8のいずれか1項に記載の焦点調節装置と、
を備えたことを特徴とする撮像装置。 An image sensor capable of continuously outputting images based on captured subject light; and
The focus adjustment apparatus according to any one of claims 1 to 8, wherein a focus position of the imaging optical system is controlled based on an image output from the imaging element.
An imaging apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013131566A JP2015004922A (en) | 2013-06-24 | 2013-06-24 | Focus adjustment device and imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013131566A JP2015004922A (en) | 2013-06-24 | 2013-06-24 | Focus adjustment device and imaging device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015004922A true JP2015004922A (en) | 2015-01-08 |
Family
ID=52300845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013131566A Pending JP2015004922A (en) | 2013-06-24 | 2013-06-24 | Focus adjustment device and imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015004922A (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US12014553B2 (en) | 2019-02-01 | 2024-06-18 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
-
2013
- 2013-06-24 JP JP2013131566A patent/JP2015004922A/en active Pending
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US12020476B2 (en) | 2017-03-23 | 2024-06-25 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US12086097B2 (en) | 2017-07-24 | 2024-09-10 | Tesla, Inc. | Vector computational unit |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11797304B2 (en) | 2018-02-01 | 2023-10-24 | Tesla, Inc. | Instruction set architecture for a vector computational unit |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US12079723B2 (en) | 2018-07-26 | 2024-09-03 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11983630B2 (en) | 2018-09-03 | 2024-05-14 | Tesla, Inc. | Neural networks for embedded devices |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11908171B2 (en) | 2018-12-04 | 2024-02-20 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US12014553B2 (en) | 2019-02-01 | 2024-06-18 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2015004922A (en) | Focus adjustment device and imaging device | |
US8508652B2 (en) | Autofocus method | |
JP4665718B2 (en) | Imaging device | |
US9635280B2 (en) | Image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium | |
US10264173B2 (en) | Image capturing apparatus and control method thereof, and storage medium | |
JP2007139893A (en) | Focusing detection device | |
JP6749791B2 (en) | Imaging device and automatic focusing method | |
JP2014081420A (en) | Tracking device and method thereof | |
WO2013001940A1 (en) | Tracking device, and tracking method | |
JP7022686B2 (en) | camera | |
JP2017098631A (en) | Image combination processing device | |
US20100026819A1 (en) | Method and apparatus for compensating for motion of an autofocus area, and autofocusing method and apparatus using the same | |
JP5338197B2 (en) | Focus detection apparatus and imaging apparatus | |
US10200612B2 (en) | Image stabilization apparatus and control method thereof, and storage medium | |
JP2009175442A (en) | Imaging apparatus | |
US10992867B2 (en) | Image capturing apparatus and control method thereof and storage medium | |
JP2008176113A (en) | Focus detecting device and camera | |
JP2019203929A (en) | Electronic apparatus, control unit of electronic apparatus, control program, and control method | |
JP5359150B2 (en) | Imaging device | |
JP2010014883A (en) | Camera | |
JP2007110498A (en) | Compound eye photographing apparatus | |
JP6645690B2 (en) | Automatic focus adjustment device, imaging device, and automatic focus adjustment method | |
US12126908B2 (en) | Image capturing apparatus obtaining a plurality of images to be used for generation of a combined image and method for controlling the same, and non-transitory computer-readable storage medium | |
JP2013134403A (en) | Focus adjustment device and imaging apparatus | |
JP5245644B2 (en) | Exposure calculator |