JP2021044702A - Imaging apparatus and driving control method therefor, and program - Google Patents
Imaging apparatus and driving control method therefor, and program Download PDFInfo
- Publication number
- JP2021044702A JP2021044702A JP2019165468A JP2019165468A JP2021044702A JP 2021044702 A JP2021044702 A JP 2021044702A JP 2019165468 A JP2019165468 A JP 2019165468A JP 2019165468 A JP2019165468 A JP 2019165468A JP 2021044702 A JP2021044702 A JP 2021044702A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- distance
- detection
- mode
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は撮像装置およびその駆動制御方法、並びにプログラムに関し、特に動く被写体を検出する撮像装置およびその駆動制御方法、並びにプログラムに関する。 The present invention relates to an image pickup apparatus and its drive control method, and a program, and more particularly to an image pickup apparatus for detecting a moving subject, its drive control method, and a program.
近年、交通や防犯などの分野において、動く被写体をイベントとして画像処理により検出する撮像装置が広く利用されている。例えばイベントが発生するまでは消費電力を少なくするため、撮像素子の画素領域を複数の分割領域に分割し、各分割領域内の画素を画素加算して生成したイベント検知用のアナログ信号を撮像素子から読み出す検知モードで動作する撮像装置が提案されている。該撮像装置は、検知モードにおいてイベント検知用のアナログ信号に基づきイベントを検知した後は、撮像素子から動画記録用のアナログ信号を読み出す撮像モードに移行する(例えば、特許文献1参照)。 In recent years, in fields such as traffic and crime prevention, an imaging device that detects a moving subject as an event by image processing has been widely used. For example, in order to reduce power consumption until an event occurs, the pixel area of the image sensor is divided into a plurality of divided areas, and the pixels in each divided area are added to the pixels to generate an analog signal for event detection. An image sensor that operates in a detection mode read from is proposed. After detecting an event based on the analog signal for event detection in the detection mode, the image pickup apparatus shifts to the image pickup mode in which the analog signal for moving image recording is read from the image pickup device (see, for example, Patent Document 1).
しかしながら、特許文献1におけるAF処理は、検知モードから撮像モードに移行した後、撮像モードにおいて撮像素子から読み出された動画記録用のアナログ信号に基づいて行われる。このため、検知モードにて動く被写体をイベントとして検知しても、その後撮像モードで記録される動画中において、その動く被写体はフォーカスが合っていない状態となってしまう。
However, the AF process in
そこで、本発明の目的は、動く被写体をイベントとして検出した後すみやかに、その検出した動く被写体に対してフォーカスを合わせることができる撮像装置およびその駆動制御方法、並びにプログラムを提供することにある。 Therefore, an object of the present invention is to provide an image pickup apparatus capable of quickly focusing on the detected moving subject after detecting the moving subject as an event, a drive control method thereof, and a program.
本発明の請求項1に係る撮像装置は、撮像素子の画素領域を複数の分割領域に分割する分割手段と、検知モードにおいて、前記複数の分割領域毎にその領域内の画素の画素加算を行って検出画像を生成する第1の生成手段と、前記検知モードにおいて、前記第1の生成手段により作成された検出画像をフレーム間で比較して、前記複数の分割領域毎に差分を注目被写体として検知する検知手段と、撮像モードにおいて、前記撮像素子から撮像画像を生成する第2の生成手段と、フォーカスレンズのフォーカス位置を移動させるAF手段と、前記複数の分割領域毎に映っている固定被写体までの距離を紐付ける紐付け手段と、前記検知手段により前記注目被写体が検知された場合、前記注目被写体が映っている分割領域に紐付けられた前記距離に基づき前記注目被写体までの距離と推定する推定手段とを備え、前記推定された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする。
The image pickup apparatus according to
本発明によれば、動く被写体をイベントとして検出した後すみやかに、その検出した動く被写体に対してフォーカスを合わせることができる。 According to the present invention, it is possible to quickly focus on the detected moving subject after detecting the moving subject as an event.
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention according to the claims, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. ..
[実施例1]
本実施例では、被写体の動きなどのイベント検知機能を有する撮像装置において撮像領域の分割領域毎に、優先順位付けしたフォーカス位置をひも付けし、検知と同時にAFを開始する例について説明する。尚、本実施例においては、上記分割領域毎にひも付けられるフォーカス位置の優先順位付けは、被写体の発生頻度に基づき設定される。以下、図1A〜1E、2〜8,9A〜9C、10A,10B、図11を用いて、本実施例について説明する。
[Example 1]
In this embodiment, an example will be described in which an imaging device having an event detection function such as movement of a subject is associated with prioritized focus positions for each divided region of the imaging region and AF is started at the same time as detection. In this embodiment, the prioritization of the focus positions associated with each of the divided regions is set based on the frequency of occurrence of the subject. Hereinafter, this embodiment will be described with reference to FIGS. 1A to 1E, 2 to 8, 9A to 9C, 10A, 10B, and FIG.
ここで、人等の撮像装置の画角内にいるか否かを検出したい被写体を特に『注目被写体』として、同じく被写体である、壁や床、天井等の背景や家具等の固定被写体と区別して記載する。特に『注目』をつけない場合は人等の撮像装置の画角内にいるか否かを検出したい被写体に限らず、撮像装置の画角内に映るもの全般を指すとする。 Here, a subject for which it is desired to detect whether or not it is within the angle of view of an image pickup device such as a person is particularly set as a "attention subject", and is distinguished from a fixed subject such as a background such as a wall, floor, or ceiling, or furniture, which is also a subject. Describe. In particular, when "attention" is not given, it refers not only to the subject for which it is desired to detect whether or not it is within the angle of view of the image pickup device such as a person, but also to all objects that are reflected within the angle of view of the image pickup device.
図2は、本実施例に係る撮像装置としてのシステム2のハードウェア構成の概要を示す図である。
FIG. 2 is a diagram showing an outline of the hardware configuration of the
図2において、システム2は、撮像モジュール部20及び外部信号処理部21を備える。
In FIG. 2, the
撮像モジュール部20は、レンズ201、レンズ駆動部202、及び撮像素子203を備える。
The image
外部信号処理部21は、撮像信号処理回路210、メモリ部I211、全体制御演算部212、記録媒体制御I/F部213、記録媒体214、外部I/F部215、及びメモリ部II216を備える。
The external
撮像モジュール部20と外部信号処理部21は有線で接続されているか、物理的に離れており、有線もしくは無線でデータの送受信を行う。
The image
撮像素子203の詳細は後述する。レンズ201を通った被写体像は撮像素子203に結像させる。撮像素子203内の複数の画素に結像した被写体像は、撮像素子203内でデジタルデータに変換され、RAWデータとして撮像信号処理回路210に送られる。撮像信号処理回路210では、ノイズを軽減するローパスフィルタ処理やシェーディング処理、WB処理などの各種の画像信号処理、さらにキズ補正やダークシェーディング補正、黒引き処理等の各種の補正、圧縮等を行って画像データを作成する。
Details of the
レンズ201はレンズ駆動部202により制御され、被写体にフォーカスを合焦させることができる。
The
全体制御演算部212はシステム2全体の制御と各種演算を行う。
The overall
メモリ部I211は画像データを一時的に記憶する。 The memory unit I211 temporarily stores the image data.
記録媒体制御I/F部213では記録媒体に画像データの記録または読み出しを行う。
The recording medium control I /
記録媒体214は半導体メモリ等の着脱可能記憶媒体であり、画像データの記録または読み出しを行う。
The
外部I/F部215は外部コンピュータ等と通信を行う為のインターフェースである。
The external I /
メモリ部II216は全体制御演算部212での演算結果、撮影条件等の各種パラメータ、及び各種プログラムを記憶する。
The memory unit II 216 stores the calculation results of the overall
図3は、図2における撮像素子203の概略構成を示す図である。
FIG. 3 is a diagram showing a schematic configuration of the
撮像素子203は、画素部301、垂直走査回路302、制御回路303、AD変換部304、水平走査回路305、露出制御部306、イベント検出部307、及びモード制御部308を備える。さらに撮像素子203は、レンズ制御部309、スイッチ310、デジタル加算部311、及びメモリ部312を備える。
The
画素部301には、二次元格子状に複数の画素が配列される。以下、所定方向(水平方向など)に配列された画素の集合を「行」と称し、行に垂直な方向に配列された画素の集合を「列」と称する。
A plurality of pixels are arranged in a two-dimensional grid pattern in the
制御回路303は、垂直走査回路302、AD変換部304、水平走査回路305を制御するものである。制御回路303には、所定の周波数(30ヘルツ等)の垂直同期信号(以下VD)が全体制御演算部212から入力される。
The
垂直走査回路302は、選択行を読みだすための行選択と各行に電荷の読み出しに必要な信号を画素部301内の各画素の回路に出力する。そして各画素の回路を駆動させ、露光量に応じたレベルのアナログ信号を生成させる。垂直走査回路302には、露出制御部306から露光制御信号、およびモード制御部308よりモード信号MODEが制御回路303を介して入力される。露光制御信号は、露光時間を制御するための信号である。
The
撮像素子203は、駆動モードとして検知モード、撮像モード、切出しモードのいずれかで駆動することができる。
The
モード信号MODEは、撮像素子203を上記いずれかの駆動モードを切り替えるためのモードフラグMfと、AD変換後の加算のデータをデジタル加算部311でどのように加算するかについて示したデジタル加算情報DAを有する。
The mode signal MODE is a digital addition information DA indicating a mode flag Mf for switching the drive mode of the
検知モードは、画素部301から画素の画素加算を行って読み出したデータ(検出画像)をイベント検知に用いるモードである。撮像モードは、画素部301から画素の画素加算を行なわずに読み出したデータ(撮像画像)を撮像素子203から出力するモードであり、このモードで撮像素子203から出力されたデータは画像として記録等がなされる。また切出しモードは画素部301の画素を画素加算を行わないで部分的に読み出す、すなわち撮像画像の一部を切り出したデータを被写体の合焦位置を推定に用いるモードである。
The detection mode is a mode in which data (detection image) read by adding pixels of pixels from the
検知モードのときと、撮像モード及び切出しモードのときとで、垂直走査回路302からの出力信号を変更する。尚、本実施例において撮像モード及び切出しモードでは画素加算は行われないが、たとえば、隣接同色の2画素の加算などの少ない加算は実施して画素部301から読みだすようにしても良い。
The output signal from the
AD変換部304は、画素部301からのアナログ信号(加算信号または画素信号)に対してAD変換を行う。そして、AD変換部304は、生成したデータ(加算データまたは画素データ)をスイッチ310に供給する。
The
スイッチ310は、モード信号MODEのモードフラグMfに従って、AD変換部304からのデータの出力先を切り替える。このスイッチ310では、3つの端子S1、S2、S3の一つに切り替えることができ、モードフラグMfが検知モードに設定されている場合、スイッチ310は端子S1に切換えAD変換部304からの画像データをデジタル加算部311に供給する。一方、モードフラグMfが撮像モードに設定されている場合、スイッチ310は端子S3に切換えAD変換部304からの画素データを撮像素子203の出力として外部信号処理部21内の撮像信号処理回路210へ供給する。また、モードフラグMfが切出しモードに設定されている場合、スイッチ310は端子S2に切換え、AD変換部304からの画素データをイベント検出部307へ供給する。
The
イベント検出部307は、フレーム間の加算データの差分結果に基づいて、所定のイベントの有無を検出して検出結果DETを生成する。例えば、もともと撮像モジュール部20の画角にはいっていなかった被写体が画角内に入ってきたときには、その被写体の動きがイベントとして検出される。また、イベント検出部307は、画素部301の全域に対応する加算データを積算し、輝度積分データEとして露出制御部306に供給する。この輝度積分データEは、画像全体の測光量を示す。詳細は後述する。
The
露出制御部306は、輝度積分データEに基づいて、画素部301の露光量を制御する。この露出制御部306は、後述するイベント検出部307内の積算部で求めた輝度積算データをもとに次の制御に適切な露光時間を求め、制御回路303にその情報を伝達する。
The
なお、本実施例では露出制御部306は、露光時間を制御しているが、露光時間の代わりに、レンズ201内に絞りを設け、その絞りを制御する構成でもよい。
In this embodiment, the
メモリ部312には周辺環境情報が記録されている。周辺環境情報は、距離マップМ、画素領域情報P、注目被写体情報ASとデジタル加算情報DAから構成される。周辺環境情報は外部信号処理部21の撮像信号処理回路210にて撮像素子203から送られた画像データを元に作成され、メモリ部II216に格納される。この周辺環境情報は、全体制御演算部212にて読み出され、メモリ部312に転送・保存される。
Surrounding environment information is recorded in the
また、イベント検出部307はメモリ部312に保存された周辺環境情報を用いてイベント検出を行い、イベントが検出された場合にはその結果を周辺環境情報に反映させ、メモリ部312に保存する。周辺環境情報の詳細、周辺環境情報の作成方法は後述する。
Further, the
モード制御部308は、検知モード、撮像モード、及び切出しモードのいずれかを設定する。このモード制御部308は、ユーザによりシステム2の不図示の操作部に対する所定の操作が行われ、撮像モジュール部20が起動すると、モード信号MODEのモードフラグMfを検知モードに設定する。また、メモリ部312に記録された周辺環境情報の中から、イベント検出部307を介してデジタル加算情報DAを入手し、モード信号MODEに書き込む。
The
このモード信号MODEは、垂直走査回路302、スイッチ310に供給される。また、モード制御部308はデジタル加算部311へ画素領域情報Pを供給する。画素領域情報Pの詳細は後述する。
This mode signal MODE is supplied to the
そして、検知モードにおいて、所定のイベントが生じるとモード制御部308は、モード信号MODEのモードフラグMfを撮像モードに設定する。撮像モードにおいて、イベントが一定期間検知されないと、モード制御部308はモード信号MODEのモードフラグMfを検知モードに設定する。
Then, when a predetermined event occurs in the detection mode, the
デジタル加算部311は、スイッチ310が検知モードのときに、アナログデータが入力される。入力されたアナログデータは、モード制御部308からの画素領域情報Pに基づきデジタル加算され、イベント検出部307に出力する。イベント検出部307の動作は後述する。
Analog data is input to the
レンズ制御部309はイベント検出部307にてイベントが検出され、被写体位置が推定されると、その推定結果を元にレンズ駆動部202に対してレンズ駆動信号を送る。
When the event is detected by the
図4は、図3の撮像素子203内の画素部301の概略構成を示す図である。
FIG. 4 is a diagram showing a schematic configuration of a
図4において、画素部301は、複数の画素330、及び4×2の画素330を一つのブロックとする、複数の画素ブロック340を有する。
In FIG. 4, the
画素部301は、画素ブロック340で画素加算し、さらに図4において不図示の複数の画素ブロックにおいて同様に画素加算されると、これらを後段でデジタル加算し、最終的に所定のサイズの画素領域の画素を加算したデータを生成する。このデータは、イベント検知に用いられる。上記画素領域を以下検出枠という。
The
画素部301は、画素330が行列状に複数配置されている。また画素330が複数集まって画素ブロック340を構成する。
In the
なお、説明を簡略化するため、本例においては画素ブロック340を行列4×2とした配置にて説明するが、行列数および配置については、これに限られるものではない。
In addition, in order to simplify the explanation, in this example, the
画素ブロック340は、そのブロック単位に対する行方向にて水平信号線として2つのリセット制御信号(例えばRST1−1、RST1−2)、2つの行選択制御信号(例えばSEL1−1、SEL1−2)が配線される。さらに、2つの転送制御信号(例えばTX1−1、TX1−2)、加算信号ADD(例えばADD1)、加算後の信号選択制御信号ADD_SEL(ADD_SEL1)が配線される。
The
各画素330にはリセット制御信号、行選択制御信号、転送制御信号が配線されている。さらに画素ブロックごとに加算信号ADD、加算後の信号選択制御信号ADD_SELが配線される。
A reset control signal, a row selection control signal, and a transfer control signal are wired in each
列方向には垂直信号線410が配線される。画素からの出力は垂直信号線410を介して、接続先のAD変換部304に入力される。
A vertical signal line 410 is wired in the column direction. The output from the pixel is input to the
上記の各水平信号線の選択駆動が行われることで、撮像素子から行単位にて順次、各垂直信号線410を介して出力が行われる。 By performing the selective driving of each of the horizontal signal lines described above, output is sequentially performed from the image sensor line by line via each vertical signal line 410.
撮像素子203から撮像モードでは各画素から順次出力するのに対し、検知モードでは後述するブロック内でFDごとの加算スイッチを動作させ、加算結果をある特定の画素から出力させる。
In the image pickup mode, the
図5は、図4に示す画素部301内の画素330の等価回路図である。以下、図5に示すように、複数の画素330を個別に画素330−1〜330−8と呼ぶ。
FIG. 5 is an equivalent circuit diagram of the
図5は撮像素子203における検知モード時のアナログ加算回路の構成例を説明する図であり、水平方向に4つ、垂直方向に2つ配置されている画素330−1〜330−8が一つの画素ブロック340を構成する。
FIG. 5 is a diagram illustrating a configuration example of an analog adder circuit in the detection mode of the
左上の画素330−1を中心に説明をすると、フォトダイオード406−1にて発生および蓄積された電荷を、転送制御信号TX1を制御して転送スイッチ405−1を介してフローティングディフュージョン(以後FD)407−1に転送する。ソースフォロアアンプ408−1は垂直出力線410−1に接続された定電流源411−1と共に構成され、FD407−1に蓄積された電荷に基づく電圧信号を増幅して、画素信号として出力する。前記ソースフォロアアンプ408−1の出力を行選択制御信号SEL1−1が行選択スイッチ409−1を制御して垂直出力線410−1へ接続する。 Focusing on pixel 330-1 on the upper left, the electric charge generated and accumulated by the photodiode 406-1 is floated diffused (hereinafter referred to as FD) via the transfer switch 405-1 by controlling the transfer control signal TX1. Transfer to 407-1. The source follower amplifier 408-1 is configured together with a constant current source 411-1 connected to the vertical output line 410-1, amplifies a voltage signal based on the electric charge accumulated in the FD407-1, and outputs it as a pixel signal. The row selection control signal SEL1-1 controls the row selection switch 409-1 to connect the output of the source follower amplifier 408-1 to the vertical output line 410-1.
FD407−1に蓄積されている不要電荷をリセットする場合はリセット制御信号RST1−1によりリセットスイッチ404−1を制御する。さらにフォトダイオード406−1のリセットをする際はリセットスイッチ404−1と共に、転送制御信号TX1−1を制御して転送スイッチ405−1を制御してリセットを実行する。転送制御信号TX1−1、リセット制御信号RST1−1と行選択制御信号SEL1−1は垂直走査回路302につながっており、各行に夫々の制御信号を持つ。
When resetting the unnecessary charge stored in the FD407-1, the reset switch 404-1 is controlled by the reset control signal RST1-1. Further, when resetting the photodiode 406-1, the transfer control signal TX1-1 is controlled together with the reset switch 404-1 to control the transfer switch 405-1 to execute the reset. The transfer control signal TX1-1, the reset control signal RST1-1, and the line selection control signal SEL1-1 are connected to the
このような構成を持つ撮像素子203を用いて撮影モードになっているときは、画素330毎に転送した信号を各画素で読み出す。
When the
一方、検知モードになっているときは、加算信号ADD1を介して水平加算スイッチ413(413−1、413−2、413−3)、及び垂直加算スイッチ414(414−1、414−2、414−3、414−4)をオンさせる。これによりFD(407−1、407−2、407−3、407−4、407−5、407−6、407−7、407−8)を回路的につなげ、画素330から得られる信号の加算平均処理をする。その後、FDで加算平均したデータを出力するために、加算選択制御信号ADD_SELを制御して、加算した結果を読み出す。このようにして、4×2の画素のFDで加算した結果を検知モードの出力とする。
On the other hand, when in the detection mode, the horizontal addition switch 413 (413-1, 413-2, 413-3) and the vertical addition switch 414 (414-1, 414-2, 414) are set via the addition signal ADD1. -3, 414-4) is turned on. As a result, the FDs (407-1, 407-2, 407-3, 407-4, 407-5, 407-6, 407-7, 407-8) are connected in a circuit, and the signal obtained from the
上記では4×2の画素の構成で説明したが画素加算の単位は図4のような4×2の画素の構成に限るものではない。また、画素加算方法はFD407−1での加算(FD加算と後述)に限らず、垂直加算は垂直出力線で複数の行をつないで実施(出力線加算と後述)、水平加算はAD変換部304の前の加算回路を使用して実施する形(水平加算と後述)でもよい。 In the above description, the configuration of 4 × 2 pixels has been described, but the unit of pixel addition is not limited to the configuration of 4 × 2 pixels as shown in FIG. Further, the pixel addition method is not limited to the addition by FD407-1 (FD addition and described later), the vertical addition is performed by connecting a plurality of lines with a vertical output line (output line addition and described later), and the horizontal addition is an AD conversion unit. It may be implemented by using the addition circuit before 304 (horizontal addition and described later).
図6は、図3の撮像素子203内のデジタル加算部311の回路構成を示す図である。
FIG. 6 is a diagram showing a circuit configuration of the
スイッチ310で検知モードが選択されたら、AD変換後の加算のデータが積算回路選択部2300に入力される。
When the detection mode is selected by the
積算回路選択部2300ではモード信号MODEのデジタル加算情報DAに基づき、検出枠を構成する画素領域の加算データを選択して積算回路2301に入力し積算する。
The integration
上記のようにデジタル加算部311では、撮像素子203の画素部301の回路構成に制約されず自由に加算を行うことが可能である。
As described above, the
なお、積算回路2301は積算に必要な数が用意される(例えばJ列で加算数が2列加算する場合はJ/2用意されている)。
In addition, the
そして検出枠を構成する画素領域のアナログ加算データがすべて積算回路2301にはいったら、除算部2302を通して、各加算データ記憶部2303に記憶される。あるブロック行の加算データ記憶部2303への記録が終わったら積算回路2301のデータをRST信号でリセットする。その後、次の行方向へのアナログ加算データの積算を開始する。各積算データは1フレーム分の記憶部2305に夫々記憶する。
Then, when all the analog addition data in the pixel region constituting the detection frame enters the
各加算データ記憶部2303に記憶された加算データは、加算データ選択部2304で選択したデータを順次イベント検出部307に転送する。
As for the addition data stored in each addition
図7は、図3の撮像素子203内のイベント検出部307の構成を示すブロック図である。
FIG. 7 is a block diagram showing the configuration of the
なお、イベント検出部307で検出するイベントは、注目被写体に限らない被写体の動き検知であり、注目被写体の動きに限定して検知できるわけではない。
The event detected by the
イベント検出部307は、加算データ保持部A701、加算データ保持部B702、差分算出部703、積算部704、及び比較部705を備える。
The
加算データ保持部A701はアナログまたはデジタルで加算されたデータを最初に保持する保持部である。 The addition data holding unit A701 is a holding unit that first holds the analog or digitally added data.
加算データ保持部B702は、加算データ保持部A701で保持された加算データについて、次のフレームの加算データが加算データ保持部A701に来る前に、前のフレームの情報として加算データ保持部A701から移動する。 The addition data holding unit B702 moves the addition data held by the addition data holding unit A701 from the addition data holding unit A701 as information of the previous frame before the addition data of the next frame comes to the addition data holding unit A701. To do.
積算部704は、画素部301の全域に対応する加算データを積算するものである。積算部704は、積算したデータを輝度積分データEとして露出制御部306に供給する。
The
差分算出部703は、加算データ保持部A701からの現在の加算データと、加算データ保持部B702からの過去の輝度積分データとの差分を算出するものである。差分算出部703は、算出した差分を比較部705に供給する。
The
比較部705は、差分算出部703から供給された差分と、所定の閾値とを比較する。尚、差分の検出方法は、各検出枠の加算データの差分を積算しても良いし、各検出枠の加算データ間の差分の最大値を代表の差分値として閾値と比較してもよい。この比較部705は、比較結果を検出結果DETとしてモード制御部308に供給する。例えば、差分が閾値を超える場合に、被写体に動きがあった(すなわち、イベントがあった)ことが検出され、そうでない場合に被写体に動きが無い旨が検出される。ここで、numは検出枠番号を示す値とすると検出結果DET=(1,num)のとき検出枠番号がnumの検出枠でイベントあり、検出結果DET=(0,−)のとき画素部301全域でイベント無しとする。
The
尚、本実施例では、各検出枠の現在のフレームのデータと過去のフレームのデータを保持しているが、この構成に限定されない。たとえば積算したデータを、現在のフレームのデータ、過去のフレームのデータとして比較し差分値を出してもよい。また前記積算する場合は、加算データごとに、その加算データに乗算する重みを保持する構成にしてもよい。 In this embodiment, the data of the current frame and the data of the past frame of each detection frame are retained, but the configuration is not limited to this. For example, the integrated data may be compared with the data of the current frame and the data of the past frame to obtain a difference value. Further, in the case of the above-mentioned integration, the weight to be multiplied by the addition data may be held for each addition data.
また、イベント検出部307は、被写体の動きをイベントとして検出しているが、加算データを用いて検出することができるものであれば、検出対象のイベントは、被写体の動きに限定されない。イベント検出部307、例えば、画像認識を行って人物などの特定の物体の有無を検出してもよい。
Further, although the
本実施例における検出枠の設定例を、図8を用いて説明する。 An example of setting the detection frame in this embodiment will be described with reference to FIG.
図8(a)は、本実施例における、図3のAD変換部304から出力される加算データの生成方法を示す。例えば、画素部301内の画素領域において、水平方向に1920画素が、垂直方向に1600画素があるとき、画素部301内で水平8画素、垂直160画素の画素領域が加算される。そして240×10で2400の加算データとしてAD変換部304から出力され、さらに切り替えスイッチ310を介してデジタル加算部311へ入力される。
FIG. 8A shows a method of generating additional data output from the
図8(a)の加算データは、デジタル加算部311に入力され、デジタル加算部311にて加算データがさらに垂直方向に2画素、水平方向に40画素のデジタル加算がされ、6×5の加算データとして出力される。つまり、図8(b)に示すように、画素部301の画素領域を水平方向に6つ、垂直方向に5つに等分に分割した領域(以下分割領域という)の夫々が検出枠として設定され、その各検出枠内の320画素×320画素の画素が加算されて1出力値となる。この出力値のフレーム毎の差異が閾値以上である場合にイベントとして検出される。
The addition data of FIG. 8A is input to the
図9Aは、本実施例における、撮像モジュール部20で撮影される固定被写体の例を示す図である。
FIG. 9A is a diagram showing an example of a fixed subject photographed by the
図9Aに示すように、撮像モジュール部20で撮影される被写体には、左壁901、天井902、右壁903、床904、奥壁905、ドア906、窓907が含まれる。画角の周辺部が近景、奥壁905辺りが遠景となっている。
As shown in FIG. 9A, the subject photographed by the image
図9Bは、図8(b)に示す複数の分割領域と図9Aに示す固定被写体の撮像領域の位置関係を示す図である。図9Bに示す点線は、各分割領域の境界線を示す。また、各分割領域の左上に記載された1〜30の番号は各分割領域の検出枠番号numを示す。
9B is a diagram showing the positional relationship between the plurality of divided regions shown in FIG. 8B and the imaging region of the fixed subject shown in FIG. 9A. The dotted line shown in FIG. 9B indicates the boundary line of each divided region. Further, the
次に、周辺環境情報について説明する。周辺環境情報は、距離マップМ、画素領域情報P、注目被写体情報AS、及びデジタル加算情報DAから構成される。 Next, the surrounding environment information will be described. The surrounding environment information is composed of a distance map М, pixel area information P, attention subject information AS, and digital addition information DA.
距離マップМは画素部301の画素領域全域に結像された被写体の、撮像モジュール部20からの距離lを示す距離データであり下記のように表される。
М(i,j)
i:画素部301の画素領域内の水平座標 i=0〜1919
j:画素部301の画素領域内の垂直座標 j=0〜1599
画素領域情報Pは、検出枠の存在する画素領域の位置を示す情報である。
The distance map М is distance data indicating the distance l from the image
М (i, j)
i: Horizontal coordinates in the pixel area of the pixel unit 301 i = 0 to 1919
j: Vertical coordinates in the pixel area of the pixel unit 301 j = 0 to 1599
The pixel area information P is information indicating the position of the pixel area in which the detection frame exists.
尚、本実施例では、上述の通り画素部301の各分割領域を検出枠として設定するだけでなく、所定以上の大きさを有する固定被写体も検出枠として設定する。
In this embodiment, not only each divided region of the
画素領域情報Pは、検出枠の存在する画素領域の左上の水平座標x,垂直座標y(画角の左上を(0,0)とした座標として表記)、検出枠の水平サイズh、検出枠の垂直サイズv、識別記号idから構成され下記のように表される。
Pnum(x,y,h,v,id) num:自然数
The pixel area information P includes horizontal coordinates x at the upper left of the pixel area where the detection frame exists, vertical coordinates y (expressed as coordinates with the upper left of the angle of view as (0,0)), horizontal size h of the detection frame, and detection frame. It is composed of the vertical size v and the identification symbol id of, and is represented as follows.
Pnum (x, y, h, v, id) num: Natural number
検出枠番号numは、検出枠として設定された画素部301の各分割領域の位置には、100より小さい自然数を用い、検出枠として設定された固定被写体の位置には、100以上の自然数を用いる。
For the detection frame number num, a natural number smaller than 100 is used for the position of each divided region of the
識別記号idは、検出枠として設定された固定被写体のサイズが所定値より大きいが、撮像モジュール部20からの距離lが所定以上の範囲に渡っている場合において1つの固定被写体を特定する際に用いられる記号である。すなわち、複数の画素領域情報Pが同一の識別記号idを有する場合、その複数の画素領域情報Pにより検出枠として設定された一つの固定被写体が表記される。
The identification symbol id is used when the size of the fixed subject set as the detection frame is larger than a predetermined value, but one fixed subject is specified when the distance l from the
例えば、図9Bに示す、画角の左上にある分割領域は、検出枠番号1の検出枠であり、その画素領域情報Pは下記のように表される。
P1(0,0,320,320, )
For example, the divided region at the upper left of the angle of view shown in FIG. 9B is the detection frame of the
P1 (0,0,320,320,)
また、図9Cに示す机のような固定被写体は、その撮像領域が所定値以上の大きさを有するため、その撮像領域は検出枠番号104の検出枠として設定され、その画素領域情報Pは下記のように表される。
P104(1000,1000,300,300, )
Further, since the imaging region of a fixed subject such as a desk shown in FIG. 9C has a size equal to or larger than a predetermined value, the imaging region is set as the detection frame of the
P104 (1000, 1000, 300, 300,)
一方、図9Cに示すドア906は、上記の机と同様、その撮像領域が所定値以上の大きさを有する固定被写体である。しかしながら、ドア906は、撮像モジュール部20からの距離lが所定以上の範囲(遠近の広い範囲)に亘っており、単一の距離マップMで表すことができないため、その撮像領域を1つの検出枠として設定できない。このような場合、距離lが同一であって、ドア906の位置が特定される複数の特徴ポイントを検出枠として設定する。
On the other hand, the
例えば、距離lが同一であって、ドア906の位置が特定される特徴ポイントはその左右端であるので、ドア906の撮像領域の左端が検出枠番号100の検出枠として設定され、その右端が検出枠番号101の検出枠として設定される。ここで、本実施例においては、ドア906の撮像領域の左上端の、水平座標x、垂直座標yが夫々160画素、680画素であって、その左端の高さが640画素である。また、その右上端は、水平座標x、垂直座標yが夫々320画素、660画素であって、その右端の高さが460画素である。この場合、検出枠番号100,101の夫々の画素領域情報Pは下記のように表される。
P100(160,680,0,640,0) (ドア906の左端)
P101(320,660,0,460,0) (ドア906の右端)
For example, since the feature points where the distance l is the same and the position of the
P100 (160,680,0,640,0) (Left end of door 906)
P101 (320,660,0,460,0) (Right end of door 906)
同様に、図9Cに示す窓907も、その撮像領域の複数の特徴ポイントが夫々検出枠として設定される。具体的には、窓907の撮像領域の左端が検出枠番号102の検出枠として設定され、その右端が出枠番号103の検出枠として設定され。夫々の画素領域情報Pが下記のように表される。
P102(1360,560,0,320,1) (窓907の左端)
P103(1600,520,0,440,1) (窓907の右端)
Similarly, in the
P102 (1360, 560, 0, 320, 1) (left end of window 907)
P103 (1600,520,0,440,1) (right end of window 907)
注目被写体情報ASは、水平サイズh及び垂直サイズvがいずれも0でない画素領域情報Pで表される検出枠における、人等の注目被写体が過去に検出された回数を元に算出される注目被写体の現れやすさを示す情報である。 The attention subject information AS is a attention subject calculated based on the number of times that a subject of interest such as a person is detected in the past in the detection frame represented by the pixel area information P in which neither the horizontal size h nor the vertical size v is 0. This is information indicating the ease of appearance of.
具体的には、注目被写体情報ASは、検出枠番号num、注目被写体の撮像モジュール部20からの距離lの変化率c、注目被写体の出現率a、注目被写体の消失率d、距離l、重みwから構成され下記のように表される。
AS(num,c,a,d,l,w)
Specifically, the attention subject information AS includes a detection frame number num, a change rate c of a distance l of the attention subject from the
AS (num, c, a, d, l, w)
注目被写体の撮像モジュール部20からの距離lの変化率cは、過去から現在までの距離lの値の標準偏差である。
The rate of change c of the distance l from the image
注目被写体の出現率aは、過去から現在までに、検出番号numで特定される検出枠において注目被写体(人など)が出現したというイベント(出現イベント)の発生回数を、全画角での注目被写体(人など)の出現イベントの発生回数で割った値である。 The appearance rate a of the attention subject is the number of occurrences of an event (appearance event) in which the attention subject (person, etc.) has appeared in the detection frame specified by the detection number num from the past to the present. It is a value divided by the number of occurrences of the appearance event of the subject (person, etc.).
また、注目被写体の消失率dは、過去から現在までに、検出番号numで特定される検出枠において注目被写体(人など)が消失したというイベント(消失イベント)の発生回数を、全画角での注目被写体(人など)の消失イベントの発生回数で割った値である。 Further, the disappearance rate d of the attention subject is the number of occurrences of an event (disappearance event) in which the attention subject (person, etc.) disappears in the detection frame specified by the detection number num from the past to the present in all angles of view. It is a value divided by the number of occurrences of disappearance events of the subject of interest (people, etc.).
重みwは、検出番号numで特定される検出枠における、変化率c、出現率a、消失率dの和を示す。尚、本実施例では、重みwを変化率c、出現率a、消失率dの和としたが、変化率c、出現率a、消失率dの少なくとも一つを示す値であってもよい。 The weight w indicates the sum of the rate of change c, the rate of appearance a, and the rate of disappearance d in the detection frame specified by the detection number num. In this embodiment, the weight w is the sum of the rate of change c, the rate of appearance a, and the rate of disappearance d, but it may be a value indicating at least one of the rate of change c, the rate of appearance a, and the rate of disappearance d. ..
デジタル加算情報DAは、画素領域情報Pで表される検出枠の画素を加算したデータを生成するために、AD変換部304から出力された加算データをデジタル加算部311でどのように加算すべきかを示す情報である。
How should the digital addition information DA add the addition data output from the
図1A〜図1Eを用いて、本実施例におけるイベント検知処理を説明する。 The event detection process in this embodiment will be described with reference to FIGS. 1A to 1E.
以下、撮像モジュール部20の画角内にある図9Aに示す固定被写体上に図10Aに示すように人物等の注目被写体が出現した場合のイベント検知処理動作を例として説明する。
Hereinafter, an event detection processing operation when a subject of interest such as a person appears on the fixed subject shown in FIG. 9A within the angle of view of the
図1Aは、本実施例に係るイベント検知処理の概要を示すフローチャートである。本処理は、全体制御演算部212が、メモリ部II216に記憶されるプログラムを読み出し、そのプログラムに基づき撮像素子203を制御することにより実行する。
FIG. 1A is a flowchart showing an outline of the event detection process according to the present embodiment. This process is executed by the overall
ステップS101では、ユーザによりシステム2の不図示の操作部に対する所定の操作が行われ、撮像モジュール部20が起動すると、撮像素子203の初期設定を行う。具体的には、モード制御部308において、モード信号MODEのモードフラグMfを検知モードに設定し、モード信号MODEを、制御回路303、スイッチ310、デジタル加算部311へ送る。スイッチ310は、モード信号МODEのモードフラグMfが検知モードに設定されていることに基づき、AD変換部304からのデータの出力先を端子S1に設定する。
In step S101, when the user performs a predetermined operation on an operation unit (not shown) of the
ステップS102では、外部信号処理部21の撮像信号処理回路210にて撮像素子203からのRAWデータから生成された画像データを元に周辺環境情報を作成し、メモリ部II216に格納する。その後、全体制御演算部212にてメモリ部II216に格納された周辺環境情報、すなわち距離マップМ、画素領域情報P、注目被写体情報AS、デジタル加算情報DAを読み出し、撮像素子203内のメモリ部312へ転送し、最新の周辺環境情報を入手する。尚、後述するステップS110を実行した後、再度ステップS102を実行する場合は、既にメモリ部312にメモリ部II216から転送済みの周辺環境情報が保存されている。このような場合は、前回転送された周辺環境情報との差分データのみがメモリ部II216からメモリ部312に転送される。
In step S102, the image pickup
ステップS103では、撮像素子203を検知モードで駆動する検知モード動作処理を実行する。この検知モード動作処理の詳細は図1Bに示す。
In step S103, the detection mode operation process for driving the
図1Bにおいて、ステップS103−1では、制御回路303にて垂直走査回路302を検知モードで駆動制御する。そして垂直走査回路302からの駆動パルスに基づき、画素部301にて画素330から得られる信号の垂直加算及びFD加算を行う。さらに制御回路303にてAD変換部304、水平走査回路305を検知モードで駆動制御することにより、画素部301にて、上述の垂直加算及びFD加算された信号がAD変換された後水平加算され、加算画像を生成する。この生成された加算画像はその後デジタル加算部311へ供給される。次に、制御回路303にてデジタル加算部311を検知モードで駆動制御することにより、デジタル加算部311にてその供給された加算画像をさらにデジタル加算し、イベント検出部307へ供給する。
In FIG. 1B, in step S103-1, the
ステップS103−2では、AD変換部304からの加算画像に基づき、イベント検出部307にてフレーム間における所定のイベントの有無を検知する。その後、イベント検出部307からの出力として検出結果DETと輝度積分データEを得て、本処理を終了する。
In step S103-2, the
図1Aに戻り、ステップS104では、検出結果DETが(1,num)である場合、イベント検出部307によりイベント、すなわち注目被写体の動きが検出されたと判断し、ステップS105へ進む。一方、検出結果DETが(0,−)である場合、ステップS103に戻る。以下、図10Bに示す通り、検出枠番号20の分割領域にてイベントが検出された(注目被写体が検出枠番号20の分割領域に映っている)場合、すなわち検出結果DETが(1,20)である場合について説明する。
Returning to FIG. 1A, in step S104, when the detection result DET is (1, num), the
ステップS105では、メモリ部312からイベントが検出された検出枠の注目被写体情報AS(20,c20,a20,d20,l20,w20)を読み出す。その後、イベントの検出された検出枠である検出枠番号20の分割領域に位置する被写体の、撮像モジュール部20からの距離l20が、注目被写体までの距離ltであると1次推定する。
In step S105, the attention subject information AS (20, c20, a20, d20, l20, w20) of the detection frame in which the event is detected is read from the
ステップS106では、1次推定された距離lt(すなわち、距離l20)に焦点距離が合うようレンズ制御部309からレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズを駆動する。
In step S106, a control signal is sent from the lens control unit 309 to the
ステップS107では、注目被写体の位置(注目被写体までの距離lt)を修正する注目被写体位置修正処理を実行する。この注目被写体位置修正処理の詳細は図1Dに示す。 In step S107, the attention subject position correction process for correcting the position of the attention subject (distance lt to the attention subject) is executed. Details of this attention subject position correction process are shown in FIG. 1D.
図1Dにおいて、ステップS107−1では、イベント検出部307からモード制御部308へ検出結果DETを送ると共に、メモリ部312からイベントが検出された検出枠の画素領域情報P20(x,y,h,v, )をモード制御部308へ送る。モード制御部308では、検出結果DETである(1,20)と画素領域情報P20(x,y,h,v, )が送られてくると、モード信号МОDEのモードフラグMfを切出しモードに設定する。その後、そのモード信号МОDEを制御回路303、スイッチ310、デジタル加算部311へ送る。スイッチ310は、モード信号МODEのモードフラグMfが切出しモードに設定されていることに基づき、AD変換部304からのデータの出力先を端子S2に設定する。
In FIG. 1D, in step S107-1, the
次に、制御回路303にて垂直走査回路302及びAD変換部304を切出しモードで駆動制御する。これにより画素330から得られる信号から、画素領域情報P20(x,y,h,v, )に基づき指定された検出枠である、検出枠番号20の検出枠とその周辺の検出枠毎に、画素加算がされていない画像データが生成される。この生成された画像データは、AD変換部304からスイッチ310を経てイベント検出部307へ供給される。
Next, the
ステップS107−2では、ステップS107−1で生成された画像データから注目被写体位置を再推定する注目被写体位置再推定処理を実行する。この注目被写体位置再推定処理の詳細は図11に示す。 In step S107-2, the attention subject position re-estimation process for re-estimating the attention subject position from the image data generated in step S107-1 is executed. The details of this attention subject position re-estimation process are shown in FIG.
図11において、ステップS107−21では、ステップS107−1で生成された画像データにおいて読み出された検出枠番号20の検出枠とその周辺の検出枠から注目被写体の画像を抽出する。
In FIG. 11, in step S107-21, the image of the subject of interest is extracted from the detection frame of the
ステップS107−22では、抽出した画像に基づき、注目被写体の足位置が確認できるか否か判定し、確認できる場合はステップS107−26へ、確認できない場合はステップS107−23へ進む。 In step S107-22, it is determined whether or not the foot position of the subject of interest can be confirmed based on the extracted image, and if it can be confirmed, the process proceeds to step S107-26, and if it cannot be confirmed, the process proceeds to step S107-23.
ステップS107−23では、メモリ部312から読み出した検出枠番号20とその周囲の検出枠の注目被写体情報ASから夫々の重みwを読み出す。その後、読み出した重みwの値が閾値wth以上である検出枠を注目被写体の優先出現、消失枠であると判断し、ステップS107−25へ進む。一方、読み出した重みwの値がいずれも閾値wth未満である場合はステップS107−24へ進む。
In step S107-23, the respective weights w are read from the
ステップS107−24では、検出枠番号20の検出枠の位置に注目被写体がいると推定する。すなわち、検出枠番号20の検出枠に注目被写体が映っていると推定する。そして検出枠番号20の検出枠の注目被写体情報AS(20,c20,a20,d20,l20,w20)に含まれる距離l20を注目被写体までの距離ltと再推定し、本処理を終了する。
In step S107-24, it is estimated that the subject of interest is at the position of the detection frame of the
ステップS107−25では、例えば検出枠番号19の検出枠の重みwが閾値wth以上であり、検出枠番号19の検出枠が注目被写体の優先出現、消失枠であると判断された場合、検出枠番号19の検出枠の位置に注目被写体がいると推定する。すなわち、検出枠番号19の検出枠に注目被写体が映っていると推定する。そして検出枠番号19の検出枠の注目被写体情報AS(19,c19,a19,d19,l19,w19)に含まれる距離l19を注目被写体までの距離ltと再推定し、本処理を終了する。
In step S107-25, for example, when the weight w of the detection frame of the
ステップS107−26では、確認された注目被写体の足位置から注目被写体までの距離ltを再推定する。具体的にはまず、確認された注目被写体の足位置の座標を算出する。以下、その座標が(480、1280)と算出された場合について説明する。このとき、メモリ部312から距離マップМを読み出して、足位置のy座標の値に対応する床904の距離を探し出し、その値を注目被写体までの距離ltとし、本処理を終了する。
In steps S107-26, the distance lt from the confirmed foot position of the subject of interest to the subject of interest is re-estimated. Specifically, first, the coordinates of the foot position of the confirmed subject of interest are calculated. Hereinafter, the case where the coordinates are calculated as (480, 1280) will be described. At this time, the distance map М is read from the
尚、ステップS107−26では、距離マップМの中から対応する注目被写体までの距離ltを探し出したが、足位置が推測できる位置情報を画素領域情報Pから探しだしても良い。例えば、ドア906の特徴ポイントの一つであるその左端を示す画素領域情報P100(160,680,0,640,0)により、ドア906の左端はその上端の座標が(160,680)であって、その下端の座標が(160,1280)であることがわかる。この場合、ドア906の左下端(160,1280)のy座標が注目被写体の足位置が(480,1280)に一致することから、注目被写体までの距離lt’がドア906の左端までの距離l100と一致すると推測してもよい。
In step S107-26, the distance lt to the corresponding subject of interest is searched from the distance map М, but the position information from which the foot position can be estimated may be searched from the pixel area information P. For example, according to the pixel area information P100 (160,680,0,640,0) indicating the left end, which is one of the feature points of the
図1Dに戻り、ステップS107−3では、ステップS105で一次推定された注目被写体までの距離l20からステップS107−2の注目被写体位置再推定処理で再推定された距離ltに目標フォーカス位置を修正する。その後、その修正後の距離ltに焦点距離が合うようレンズ制御部309からレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズを駆動し、本処理を終了する。
Returning to FIG. 1D, in step S107-3, the target focus position is corrected from the distance l20 to the attention subject first estimated in step S105 to the distance lt re-estimated by the attention subject position re-estimation process in step S107-2. .. After that, a control signal is sent from the lens control unit 309 to the
図1Aに戻り、ステップS108では、被写体変化がないループ回数Taをリセットし、Ta=0とする。 Returning to FIG. 1A, in step S108, the number of loops Ta for which there is no change in the subject is reset, and Ta = 0.
ステップS109では、撮像素子203を撮像モードで動作させる撮像モード動作処理を実行する。この撮像モード動作処理の詳細は図1Cに示す。
In step S109, an image pickup mode operation process for operating the
図1Cにおいて、ステップS109−1では、撮影により高精細画像データを生成する。具体的には、まず、モード制御部308において、モード信号MODEのモードフラグMfを撮像モードに設定し、モード制御部308からモード信号МОDEを制御回路303、スイッチ310、デジタル加算部311へ送る。スイッチ310は、モード信号МODEが撮像モードに設定されていることに基づき、AD変換部304からのデータの出力先を端子S3に設定する。次に、制御回路303にて、垂直走査回路302及びAD変換部304を撮像モードで駆動制御する。これにより画素330から得られる信号から、画素部301の全域が加算されない高精細画像データが生成される。この生成された高精細画像データは、AD変換部304からスイッチ310を経て撮像信号処理回路210へ供給される。撮像信号処理回路210では供給された高精細画像データから注目被写体を検出する。注目被写体が検出できた場合には注目被写体の出現率a、注目被写体の消失率dを算出する。
In FIG. 1C, in step S109-1, high-definition image data is generated by photographing. Specifically, first, the
ステップS109−2では、撮像信号処理回路210において得られた高精細画像データ(撮像画像)と前のフレームの処理の際に得られた高精細画像データを比較する。この比較の結果、フレーム間でデータに差分(変化)があれば、ステップS109−3へ、なければステップS109−6へ進む。
In step S109-2, the high-definition image data (captured image) obtained in the image pickup
ステップS109−3では、コントラストAF動作を行う。具体的には、全体制御演算部212からレンズ駆動部202に指令を出してレンズ201のフォーカス位置を動かしながら、ステップS109−1と同様の方法で高精細画像データを複数生成し、撮像信号処理回路210へ出力する。撮像信号処理回路210は、出力された複数の高精細画像データを元に注目被写体の合焦位置を推定する。そして、その推定された合焦位置にフォーカス位置が合うよう全体制御演算部212からレンズ制御部309を介してレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズを駆動させる。
In step S109-3, the contrast AF operation is performed. Specifically, the overall
ステップS109−4では、ステップS109−3で得られた複数の高精細画像データを元に周辺環境情報を作成・更新する周辺環境情報作成・更新処理を実行する。この周辺環境情報作成・更新処理の詳細を図1Eに示す。 In step S109-4, the peripheral environment information creation / update process for creating / updating the peripheral environment information is executed based on the plurality of high-definition image data obtained in step S109-3. The details of the surrounding environment information creation / update process are shown in FIG. 1E.
図1Eにおいて、ステップS109−41では、ステップS109−3で得られた複数の高精細画像データを撮像信号処理回路210で処理し、距離マップМを作成する。そして作成した距離マップМをメモリ部II216へ格納する。
In FIG. 1E, in steps S109-41, the plurality of high-definition image data obtained in step S109-3 are processed by the imaging
ステップS109−43では、周辺画像情報を更新する。具体的には、全体制御演算部212にてメモリ部II216から距離マップМを読み出し、画素領域情報P及び距離lを更新すると共に、更新前後の距離lの差分を、距離lの変化率cとして更新する。また、ステップS109−1で得られた高精細画像データから注目被写体が検出できている場合は、注目被写体が検出された検出枠における注目被写体の出現率a及び消失率dと、更新された変化率cの和を、重みwとして更新する。さらに、更新された画素領域情報Pを元にデジタル加算情報DAを更新する。かかる一連の処理により、周辺環境情報を構成する、距離マップМ、画素領域情報P、注目被写体情報AS、デジタル加算情報DAが作成、更新され、検出枠毎に距離l、出現率a、消失率d、変化率cが紐付けられると、本処理を終了する。
In steps S109-43, the peripheral image information is updated. Specifically, the overall
図1Cに戻り、ステップS109−5ではTa=0とし、本処理を終了する。 Returning to FIG. 1C, in step S109-5, Ta = 0 is set, and this process is terminated.
一方、ステップS109−6ではTa=Ta+1とし、本処理を終了する。 On the other hand, in step S109-6, Ta = Ta + 1 is set, and this process is terminated.
図1Aに戻り、ステップS110では、Ta≧Tthとなった場合にステップS102へ進む。そうでなければステップS109へ戻り、周辺環境情報を更新した後、検知モードに再度移行し、ステップS103の検知モード動作処理を実行する。 Returning to FIG. 1A, in step S110, when Ta ≧ Tth, the process proceeds to step S102. If not, the process returns to step S109, updates the surrounding environment information, shifts to the detection mode again, and executes the detection mode operation process in step S103.
以上、実施例1では、イベント検知機能を有するシステム2において、画素部301の画素領域に設定した複数の検出枠毎に重みw、距離lを紐付ける。その後、検知モードにおいて注目被写体の映っていると検出された検出枠に紐付けられた距離lにまずフォーカス位置を合せる。その後、重みwに基づき注目被写体の優先出現、消失枠であると判断された検出枠の距離lにフォーカス位置を修正するため、注目被写体の検知と同時に精度よくAF処理を行なうことが可能になる。
As described above, in the first embodiment, in the
しかしながら、上記方法では各検出枠に紐付けられた距離lにフォーカス位置を合せるため、誤ったAF処理がなされる場合がある。 However, in the above method, since the focus position is adjusted to the distance l associated with each detection frame, erroneous AF processing may be performed.
例えば、図9Bにおいて、図15(a)に示すように、注目被写体が天井902からぶら下がった状態で最も近景領域に位置する一方、その注目被写体は検出枠番号15の検出枠に映っている場合を考える。この場合、実施例1では、ステップS105の一次推定の結果、検出枠番号15の検出枠に紐付けられた遠景領域を示す距離lに焦点距離が合ってしまう。また、ステップS107−22で注目被写体の足位置が確認できたとしても、この例の場合、注目被写体は足を床904につけていないためその足位置に基づき正しくフォーカス位置を修正できない。
For example, in FIG. 9B, as shown in FIG. 15A, the subject of interest is located in the closest view region in a state of hanging from the
そこで、上述の図15(a)に示す注目被写体が検知された場合にも精度よくAF処理を行なうことができる方法を、以下の実施例2において説明する。 Therefore, a method capable of performing AF processing with high accuracy even when the subject of interest shown in FIG. 15A is detected will be described in the second embodiment below.
[実施例2]
以下、本実施例について、以下、図1A〜図1C、図1E、図2〜図7、図8(a)、図9A、図9C、図12〜図16を用い説明する。
[Example 2]
Hereinafter, this embodiment will be described with reference to FIGS. 1A to 1C, 1E, 2 to 7, 8 (a), 9A, 9C, and 12 to 16.
なお、本実施例では、実施例1における分割領域は画素部301の画素領域を均等に分割した領域だったのに対して、被写体距離に応じて各分割領域の面積が設定される点で異なる。すなわち、図2〜図7に示すシステム2のハードウェア構成については実施例1と同様であるため、同一の構成には同一の符号を付し、重複した説明を省略する。
In this embodiment, the divided area in the first embodiment is an area in which the pixel area of the
まず、本実施例における検出枠の設定例を、図8(a)、図13A〜13Cを用いて説明する。 First, an example of setting the detection frame in this embodiment will be described with reference to FIGS. 8A and 13A to 13C.
本実施例においても検知モードにおいては図3のAD変換部304から図8(a)に示す加算データが出力され、切り替えスイッチ310を介してデジタル加算部311へ入力される。
Also in this embodiment, in the detection mode, the addition data shown in FIG. 8A is output from the
しかし本実施例においては、デジタル加算部311にて、その入力された加算データは、画素部301の画素領域における図13Bに示す大きさの異なる分割領域に対応するデジタル加算が行われ、出力される。
However, in this embodiment, the
図13Bにおける各分割領域のデジタル加算数を図13Aに示す。 The digital addition number of each division region in FIG. 13B is shown in FIG. 13A.
図13Bにおける分割領域のうち、右斜めストライプ領域(右上から左下にかけての縞模様に塗られた領域)では、デジタル加算部311にて加算データがさらに水平方向に20画素のデジタル加算がされて出力される。最終的に160画素×160画素の画素から構成される検出枠内(右斜めストライプ領域)の画素が加算されて1出力値となり、この出力値のフレーム毎の差異が閾値以上である場合にイベントとして検出される。このサイズの検出枠を以下1倍枠という。
Of the divided areas in FIG. 13B, in the right diagonal stripe area (the area painted in the striped pattern from the upper right to the lower left), the addition data is further digitally added by 20 pixels in the horizontal direction and output by the
図13Bにおける分割領域のうち、縦ストライプ領域(上から下にかけての縞模様に塗られた領域)では、デジタル加算部311にて加算データがさらに垂直方向に2画素、水平方向に40画素のデジタル加算がされて出力される。最終的に320画素×320画素の画素から構成される検出枠内(縦ストライプ領域)の画素が加算されて1出力値となり、この出力値のフレーム毎の差異が閾値以上である場合にイベントとして検出される。このサイズの検出枠を以下2倍枠という。
Of the divided regions in FIG. 13B, in the vertical stripe region (the region painted in a striped pattern from top to bottom), the
図13Bにおける分割領域のうち、左斜めストライプ領域(左上から右下にかけての縞模様に塗られた領域)では、デジタル加算部311にて加算データがさらに垂直方向に3画素、水平方向に60画素のデジタル加算がされて出力される。最終的に480画素×480画素の画素から構成される検出枠内(左斜めストライプ領域)の画素が加算されて1出力値となり、この出力値のフレーム毎の差異が閾値以上である場合にイベントとして検出される。このサイズの検出枠を以下3倍枠という。
Of the divided areas in FIG. 13B, in the left diagonal stripe area (the area painted in the striped pattern from the upper left to the lower right), the
また、周辺環境情報は、実施例1と同様に、距離マップМ、画素領域情報P、注目被写体情報AS、及びデジタル加算情報DAから構成され、複数枚の高精細画像データを元に撮像信号処理回路210、全体制御演算部212にて作成、更新される。また、実施例1と同様、この作成・更新された周辺環境情報は、撮像素子203内のメモリ部312へ送られる。
Further, the surrounding environment information is composed of the distance map М, the pixel area information P, the attention subject information AS, and the digital addition information DA as in the first embodiment, and the imaging signal processing is performed based on a plurality of high-definition image data. It is created and updated by the
以上のような構成において、実施例1と同様に図9Aと同様な被写体の環境で、本実施例のイベント検知処理を実行する場合について以下説明する。 In the above configuration, a case where the event detection process of this embodiment is executed in the same subject environment as in FIG. 9A as in the first embodiment will be described below.
この時、図13Bのように画素部301の画素領域を36に分割した場合の各分割領域の検出枠番号numの割り振りを図13C示す。図9Bと同様に点線が各分割領域の境界線を示す。また、各分割領域の左上に記載された1〜36の番号が各分割領域の検出枠番号numを示す。
At this time, FIG. 13C shows the allocation of the detection frame number num of each divided area when the pixel area of the
固定被写体については図9Cと同様、下記のものが画素領域情報Pとして記録される。
P100(160,680,0,640,0) (ドア906の左端)
P101(320,660,0,460,0) (ドア906の右端)
P102(1360,560,0,320,1) (窓907の左端)
P103(1600,520,0,440,1) (窓907の右端)
P104(1000,1000,300,300, ) (机104)
As for the fixed subject, the following is recorded as the pixel area information P as in FIG. 9C.
P100 (160,680,0,640,0) (Left end of door 906)
P101 (320,660,0,460,0) (Right end of door 906)
P102 (1360, 560, 0, 320, 1) (left end of window 907)
P103 (1600,520,0,440,1) (right end of window 907)
P104 (1000, 1000, 300, 300,) (Desk 104)
図1A〜図1C、図1Eと図12を用いて、本実施例におけるイベント検知処理を説明する。 The event detection process in this embodiment will be described with reference to FIGS. 1A to 1C, FIGS. 1E and 12.
以下、図9Aに示す固定被写体上に、図15(a)に示すように、天井からひもでぶら下がり且つ画面の近景付近にいる人物等の注目被写体が撮像モジュール部20の画角内に出現した場合のイベント検知処理動作を例として説明する。
Hereinafter, on the fixed subject shown in FIG. 9A, as shown in FIG. 15A, a subject of interest such as a person hanging from the ceiling with a string and near a near view of the screen appears within the angle of view of the
本実施例でのイベント検知処理のうち、図1A〜図1C、図1Eに示す処理は、実施例1のイベント検知処理と同様である。ただし、本実施例では、図1Dの注目被写体位置修正処理の代わりに、図12Aの注目被写体位置修正処理が実行される。以下で順次説明する。 Among the event detection processes in the present embodiment, the processes shown in FIGS. 1A to 1C and 1E are the same as the event detection processes in the first embodiment. However, in this embodiment, the attention subject position correction process of FIG. 12A is executed instead of the attention subject position correction process of FIG. 1D. This will be described in sequence below.
ステップS101からステップS103の動作は実施例1と同様であるため説明を省略する。 Since the operations of steps S101 to S103 are the same as those of the first embodiment, the description thereof will be omitted.
ステップS104では、検出結果DETが(1,num)である場合、イベント検出部307によりイベント、すなわち注目被写体の動きが検出されたと判断し、ステップS105へ進む。一方、検出結果DETが(0,−)である場合、ステップS103に戻る。以下、図15(b)に示す通り、検出枠番号18,19,25,26の各分割領域にてイベントが検出された場合、すなわち検出結果DETが(1,18)、(1,19)、(1,25)、(1,26)である場合について説明する。
In step S104, when the detection result DET is (1, num), the
ステップS105では、メモリ部312からイベントが検出された検出枠番号18,19,25,26の検出枠の注目被写体情報AS(num,cnum,anum,dnum,lnum,wnum)を読み出す。
In step S105, the attention subject information AS (num, cnum, anum, dnum, lnum, wnum) of the detection frame of the
次に、イベントの検出された検出枠番号18,19,25,26の検出枠に位置する被写体の、撮像モジュール部20からの距離l18,l19,l25,l26の平均が注目被写体までの距離ltであると1次推定する。
Next, the average of the distances l18, l19, l25, l26 from the
ステップS106では、距離l18,l19,l25,l26の平均値を注目被写体までの距離ltとして1次推定する。その後、その1次推定された注目被写体までの距離ltに焦点距離が合うようレンズ制御部309からレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズのフォーカス位置を移動させる。
In step S106, the average value of the distances l18, l19, l25, and l26 is first-order estimated as the distance lt to the subject of interest. After that, a control signal is sent from the lens control unit 309 to the
ステップS107では、注目被写体の位置を修正する注目被写体位置修正処理を実行する。この注目被写体位置修正処理の詳細は図12Aに示す。 In step S107, the attention subject position correction process for correcting the position of the attention subject is executed. Details of this attention subject position correction process are shown in FIG. 12A.
図12Aにおいて、ステップS107−4では、ステップS104でイベント(注目被写体)が検出された複数の検出枠(本実施例では、検出枠番号18,19,25,26の検出枠)が隣接しているか否かを判定する。具体的には、イベント検出部307にて検出枠番号18,19,25,26の検出枠に該当する画素領域情報Pを読み出し、夫々の領域が隣接するか否かを判定する。
In FIG. 12A, in step S107-4, a plurality of detection frames (detection frames of
次に、隣接している場合は、ステップS107−5に進み、ステップS105で一次推定された注目被写体までの距離l20から、その隣接方法に応じて注目被写体までの距離ltに目標フォーカス位置を修正する。 Next, if they are adjacent to each other, the process proceeds to step S107-5, and the target focus position is corrected from the distance l20 to the subject of interest first estimated in step S105 to the distance lt to the subject of interest according to the adjacent method. To do.
図14は、図12AのステップS107−5における隣接する検出枠に対する注目被写体までの距離ltの再推定方法を示す図である。 FIG. 14 is a diagram showing a method of re-estimating the distance lt to the subject of interest with respect to the adjacent detection frame in step S107-5 of FIG. 12A.
図14(a)のように1倍枠が隣接することで縦、横、斜め方向のいずれかが2倍枠と同等のサイズになっている場合には2倍枠に紐付けられた撮像モジュール部20からの距離lt’を注目被写体までの距離ltに再推定する。
As shown in FIG. 14A, when the 1x frames are adjacent to each other and the size is the same as the 2x frame in any of the vertical, horizontal, and diagonal directions, the imaging module linked to the 2x frame. The distance lt'from the
図14(b)のように1倍枠が隣接することで縦、横、斜め方向のいずれかが3倍枠と同等のサイズになっている場合には3倍枠に紐付けられた撮像モジュール部20からの距離lt’を注目被写体までの距離ltに再推定する。
As shown in FIG. 14B, when the 1x frames are adjacent to each other and the size is the same as the 3x frame in any of the vertical, horizontal, and diagonal directions, the imaging module linked to the 3x frame. The distance lt'from the
図14(c)のように1倍枠と2倍枠が隣接することで縦、横、斜め方向のいずれかが3倍枠と同等のサイズになっている場合には3倍枠に紐付けられた撮像モジュール部20からの距離lt’を注目被写体までの距離ltに再推定する。
If the 1x frame and the 2x frame are adjacent to each other as shown in FIG. 14C and the vertical, horizontal, or diagonal directions are the same size as the 3x frame, they are linked to the 3x frame. The distance lt'from the image
本実施例のように検出枠番号18,19,25,26の4つの隣接する1倍枠の検出枠でイベントが検出された場合、縦、横、斜め方向のいずれにおいても2倍枠と同等のサイズになっている。このため、2倍枠に紐付けられた撮像モジュール部20からの距離lt’を注目被写体までの距離ltに再推定する。
When an event is detected in the four adjacent 1x frame detection frames of
ステップS107−5では、ステップS107−4で再推定された距離lt’にステップS105で一次推定された注目被写体までの距離ltを修正する。その後、修正後の距離ltに焦点距離が合うようレンズ制御部309からレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズのフォーカス位置を移動させ、本処理を終了する。
In step S107-5, the distance lt'to the subject of interest first-estimated in step S105 is corrected to the distance lt're-estimated in step S107-4. After that, a control signal is sent from the lens control unit 309 to the
図1Aに戻り、ステップS108では、被写体変化がないループ回数Taをリセットし、Ta=0とする。 Returning to FIG. 1A, in step S108, the number of loops Ta for which there is no change in the subject is reset, and Ta = 0.
ステップS109では、撮像素子203を撮像モードで動作させる撮像モード動作処理(図1C)を実行する。
In step S109, an image pickup mode operation process (FIG. 1C) for operating the
図1Cにおいて、ステップS109−1〜ステップS109−3の動作は実施例1と同様であるため説明を省略する。 In FIG. 1C, the operation of steps S109-1 to S109-3 is the same as that of the first embodiment, and thus the description thereof will be omitted.
ステップS109−4では、ステップS109−3で得られた複数の高精細画像データを元に周辺環境情報を作成・更新する周辺環境情報作成・更新処理を実行する。この周辺環境情報作成・更新処理の詳細を図12Bに示す。 In step S109-4, the peripheral environment information creation / update process for creating / updating the peripheral environment information is executed based on the plurality of high-definition image data obtained in step S109-3. The details of the surrounding environment information creation / update process are shown in FIG. 12B.
図12Bにおいて、まず、ステップS109−41で距離マップМを作成する。この動作は実施例1の図1EのステップS109−41の動作と同様である。 In FIG. 12B, first, the distance map М is created in step S109-41. This operation is the same as the operation of step S109-41 of FIG. 1E of the first embodiment.
ステップS109−42では、ステップS109−41で作成された距離マップМを元に検出枠の領域設定を更新する。 In step S109-42, the area setting of the detection frame is updated based on the distance map М created in step S109-41.
本実施例の図12EのステップS109−42で実行される、検出枠の領域設定の更新方法を、図16を用いて説明する。 A method of updating the area setting of the detection frame, which is executed in step S109-42 of FIG. 12E of this embodiment, will be described with reference to FIG.
まず、ステップS109−41にて作成された距離マップМをメモリ部II216から読み出す。 First, the distance map М created in step S109-41 is read from the memory unit II216.
そして、図16(a)に示すように画素部301の画素領域全域を1倍枠のサイズの検出枠で分割する。本実施例の場合は水平12枠、垂直10枠の合計120の枠に分割される。そして夫々の検出枠の撮像モジュール部20からの距離の平均値を、その領域の撮像モジュール部20からの距離lk(k=0〜119)として割当てる。
Then, as shown in FIG. 16A, the entire pixel region of the
上記で割当てた距離lkを元に各検出枠を3つの領域のいずれかに分類する。3つの領域とは撮像モジュール部20からの距離が最も遠い領域(遠景)と、撮像モジュール部20からの距離が近い領域(近景)と、撮像モジュール部20からの距離が遠景と近景の中間くらいの距離(中景)である。遠景、中景、近景を、撮像モジュール部20からの距離が下記の範囲の領域と定義する。
遠景:lf1≦lk
中景:lm1≦lk<lm2
近景:0≦lk<ln2
(ln2、lm1、lm2、lf1はいずれも0以上。かつlm1=ln2、lf1=lm2)
Based on the distance lk assigned above, each detection frame is classified into one of the three regions. The three areas are the area farthest from the image pickup module 20 (distant view), the area close to the image pickup module 20 (near view), and the distance from the
Distant view: lf1 ≤ lk
Middle view: lm1 ≤ lk <lm2
Foreground: 0 ≤ lk <ln2
(Ln2, lm1, lm2, lf1 are all 0 or more, and lm1 = ln2, lf1 = lm2)
上記処理により、画素部301の画素領域全域を分割する120個の検出枠が、図16(b)のように分類される。
By the above processing, 120 detection frames that divide the entire pixel region of the
図16(b)において、Iが付された検出枠は撮像モジュール部20からの距離lkが遠景の範囲にある検出枠であり、IIが付された検出枠は、撮像モジュール部20からの距離lkが中景の範囲にある検出枠である。また、IIIが付された検出枠は、撮像モジュール部20からの距離lkが近景の範囲にある検出枠である。
In FIG. 16B, the detection frame with I is the detection frame in which the distance lk from the
図16(b)のように画素部301の画素領域全域を分割する120個の検出枠が全て分類された後、中景に分類された検出枠を用いて2倍枠の検出枠を設定する。その際、一部遠景に分類された検出枠を含んでも良い。
After all 120 detection frames that divide the entire pixel area of the
さらに、近景に分類された検出枠を用いて3倍枠の検出枠を設定する。その際、一部中景に分類された検出枠を含んでも良い。 Further, the detection frame of the triple frame is set by using the detection frame classified into the near view. At that time, a detection frame classified into a part of the middle view may be included.
上記処理により、図13Bのように検出領域が設定される。 By the above processing, the detection area is set as shown in FIG. 13B.
このとき遠景に割り振られる撮像モジュール部20からの距離は、Iと付された検出枠の撮像モジュール部20からの距離の平均値である。中景に割り振られる撮像モジュール部20からの距離は、IIと付された検出枠の撮像モジュール部20からの距離の平均値である。また、近景に割り振られる撮像モジュール部20からの距離は、IIIと付された検出枠の撮像モジュール部20からの距離の平均値である。
At this time, the distance from the image
図12Bに戻り、その後、ステップS109−43で周辺画像情報を更新する。この動作は実施例1の図1EのステップS109−41の動作と同様である。その後、本処理を終了する。 Returning to FIG. 12B, the peripheral image information is updated in steps S109-43. This operation is the same as the operation of step S109-41 of FIG. 1E of the first embodiment. After that, this process ends.
その後図1Cに戻り、実施例1と同様に、ステップS109−5,S109−6の動作を行った後、図1AのステップS110の動作を実行する。 After that, the process returns to FIG. 1C, the operations of steps S109-5 and S109-6 are performed in the same manner as in the first embodiment, and then the operation of step S110 of FIG. 1A is executed.
なお、本実施例では撮像モジュール部20からの距離に応じて図13Bのように検出領域の面積を設定したが、この面積は注目被写体の遠景、近景において画角上に映し出されるサイズを考慮して設定する。
In this embodiment, the area of the detection area is set as shown in FIG. 13B according to the distance from the image
以上、本実施例では、撮像モジュール部20からの距離に応じて画素部301の画素領域を複数の検出領域に分割し、さらにその分割された検出領域とフォーカス位置をひも付けして、検知と同時にAFを開始することが可能になる。
As described above, in this embodiment, the pixel area of the
また、近景領域にある被写体が、図9Bの検出枠番号15の検出枠に映っていて、かつその足位置が分からない場合であっても、被写体の写る領域の大きさにより被写体位置が近景にあると判断でき、フォーカス位置を修正することができる。
Further, even if the subject in the near view area is reflected in the detection frame of the
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.
[その他の実施例]
本発明の目的は、前述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、装置に供給することによっても、達成されることは言うまでもない。このとき、供給された装置の制御部を含むコンピュータ(またはCPUやMPU)は、記憶媒体に格納されたプログラムコードを読み出し実行する。
[Other Examples]
Needless to say, the object of the present invention can also be achieved by supplying the device with a storage medium in which the program code of the software that realizes the functions of the above-described embodiment is recorded. At this time, the computer (or CPU or MPU) including the control unit of the supplied device reads and executes the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the program code itself and the storage medium storing the program code constitute the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 As the storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, or the like can be used.
また、上述のプログラムコードの指示に基づき、装置上で稼動しているOS(基本システムやオペレーティングシステム)などが処理の一部又は全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。 Further, based on the instructions of the above-mentioned program code, the OS (basic system or operating system) running on the device performs a part or all of the processing, and the processing realizes the functions of the above-described embodiment. Needless to say, cases are also included.
さらに、記憶媒体から読み出されたプログラムコードが、装置に挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれ、前述した実施例の機能が実現される場合も含まれることは言うまでもない。このとき、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行う。 Further, the program code read from the storage medium may be written in the memory provided in the function expansion board inserted in the device or the function expansion unit connected to the computer to realize the functions of the above-described embodiment. Needless to say, it is included. At this time, based on the instruction of the program code, the function expansion board, the CPU provided in the function expansion unit, or the like performs a part or all of the actual processing.
2 システム
20 撮像モジュール部
21 外部信号処理部
201 レンズ
202 レンズ駆動部
203 撮像素子
210 撮像信号処理回路
211 メモリ部I
212 全体制御演算部
213 記録媒体制御I/F部
214 記録媒体
215 外部I/F部
216 メモリ部II
2
212 Overall
Claims (14)
検知モードにおいて、前記複数の分割領域毎にその領域内の画素の画素加算を行って検出画像を生成する第1の生成手段と、
前記検知モードにおいて、前記第1の生成手段により作成された検出画像をフレーム間で比較して、前記複数の分割領域毎に差分を注目被写体として検知する検知手段と、
撮像モードにおいて、前記撮像素子から撮像画像を生成する第2の生成手段と、
フォーカスレンズのフォーカス位置を移動させるAF手段と、
前記複数の分割領域毎に映っている固定被写体までの距離を紐付ける紐付け手段と、
前記検知手段により前記注目被写体が検知された場合、前記注目被写体が映っている分割領域に紐付けられた前記距離に基づき前記注目被写体までの距離と推定する推定手段とを備え、
前記推定された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする撮像装置。 A dividing means for dividing the pixel area of the image sensor into a plurality of divided areas, and
In the detection mode, a first generation means for generating a detected image by adding pixels of pixels in the plurality of divided regions for each divided region,
In the detection mode, a detection means that compares the detection images created by the first generation means between frames and detects a difference in each of the plurality of divided regions as a subject of interest.
In the image pickup mode, a second generation means for generating an image pickup image from the image pickup element and
AF means to move the focus position of the focus lens and
The linking means for linking the distances to the fixed subject reflected in each of the plurality of divided areas, and the linking means.
When the attention subject is detected by the detection means, the detection means includes an estimation means for estimating the distance to the attention subject based on the distance associated with the divided region in which the attention subject is reflected.
An imaging device characterized in that the focus position of the focus lens is moved by the AF means so that the focal length matches the estimated distance, and then the mode shifts to the imaging mode.
前記紐付け手段は、前記第1の固定被写体の位置が特定される複数の特徴ポイントの距離を前記第1の固定被写体までの距離として紐付けることを特徴とする請求項1記載の撮像装置。 When the dividing means has a first fixed subject over a wide range of perspective within the angle of view, the area of the first fixed subject is set as one of the plurality of divided areas.
The imaging device according to claim 1, wherein the linking means links the distance of a plurality of feature points at which the position of the first fixed subject is specified as the distance to the first fixed subject.
前記注目被写体が映っている分割領域及びその周囲の分割領域のうち、紐付けられた前記重みが閾値以上である分割領域がある場合、当該分割領域に紐付けられた前記距離に、前記推定された距離を修正する第1の修正手段を更に備え、
前記第1の修正手段により修正された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする請求項1又は2記載の撮像装置。 The linking means further links weights for each of the plurality of divided regions.
When there is a divided region in which the subject of interest is reflected and the divided region around the divided region in which the weight associated with the subject is equal to or greater than a threshold value, the estimated distance associated with the divided region is used. Further equipped with a first correction means for correcting the distance
The first or second aspect of the present invention, wherein the AF means moves the focus position of the focus lens so that the focal length matches the distance corrected by the first correction means, and then shifts to the imaging mode. Imaging device.
前記第2の修正手段により修正された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする請求項5記載の撮像装置。 When the attention subject is detected by the detection means, the cutout mode is set, and the cutout means sets the pixels of the pixels in the divided region in which the attention subject is reflected and the divided regions around the divided region. An image that has not been added is cut out, the coordinates of the foot position of the subject of interest are calculated from the cut out image, and the estimation is made based on the calculated coordinates and the distance associated with each of the plurality of divided regions. Further equipped with a second correction means for correcting the distance
The imaging according to claim 5, wherein the focus position of the focus lens is moved by the AF means so that the focal length matches the distance corrected by the second correction means, and then the mode shifts to the imaging mode. apparatus.
前記第3の修正手段により修正された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。 When the object of interest is simultaneously detected by the detection means in the adjacent divided regions, a third correcting means for correcting the estimated distance according to the method of adjoining the divided regions is further provided.
The ninth to eleventh aspects of the present invention, wherein the AF means moves the focus position of the focus lens so that the focal length matches the distance corrected by the third correction means, and then shifts to the imaging mode. The imaging apparatus according to any one item.
検知モードにおいて、前記複数の分割領域毎にその領域内の画素の画素加算を行って検出画像を生成する第1の生成ステップと、
前記検知モードにおいて、前記第1の生成ステップにおいて作成された検出画像をフレーム間で比較して、前記複数の分割領域毎に差分を注目被写体として検知する検知ステップと、
撮像モードにおいて、前記撮像素子から撮像画像を生成する第2の生成ステップと、
フォーカスレンズのフォーカス位置を移動させるAFステップと、
前記複数の分割領域毎に映っている固定被写体までの距離を紐付ける紐付けステップと、
前記検知ステップにおいて前記注目被写体が検知された場合、前記注目被写体が映っている分割領域に紐付けられた前記距離に基づき前記注目被写体までの距離と推定する推定ステップとを有し、
前記推定された距離に焦点距離が合うよう前記AFステップにおいて前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする駆動制御方法。 A division step of dividing the pixel area of the image sensor into a plurality of division areas, and
In the detection mode, a first generation step of generating a detection image by adding pixels of pixels in the plurality of divided regions to each other,
In the detection mode, a detection step in which the detection images created in the first generation step are compared between frames and a difference is detected as a subject of interest in each of the plurality of divided regions.
In the imaging mode, a second generation step of generating an captured image from the image sensor, and
AF step to move the focus position of the focus lens,
The linking step of linking the distances to the fixed subject reflected in each of the plurality of divided areas, and the linking step.
When the attention subject is detected in the detection step, it has an estimation step of estimating the distance to the attention subject based on the distance associated with the divided region in which the attention subject is reflected.
A drive control method characterized in that the focus position of the focus lens is moved in the AF step so that the focal length matches the estimated distance, and then the mode shifts to the imaging mode.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165468A JP2021044702A (en) | 2019-09-11 | 2019-09-11 | Imaging apparatus and driving control method therefor, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019165468A JP2021044702A (en) | 2019-09-11 | 2019-09-11 | Imaging apparatus and driving control method therefor, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021044702A true JP2021044702A (en) | 2021-03-18 |
Family
ID=74862645
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019165468A Pending JP2021044702A (en) | 2019-09-11 | 2019-09-11 | Imaging apparatus and driving control method therefor, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021044702A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004377A1 (en) * | 2022-06-29 | 2024-01-04 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging element, imaging device, and method for controlling solid-state imaging element |
-
2019
- 2019-09-11 JP JP2019165468A patent/JP2021044702A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024004377A1 (en) * | 2022-06-29 | 2024-01-04 | ソニーセミコンダクタソリューションズ株式会社 | Solid-state imaging element, imaging device, and method for controlling solid-state imaging element |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9497371B2 (en) | Automatic image-capturing apparatus, automatic image-capturing control method, image display system, image display method, display control apparatus, and display control method | |
CN1992820B (en) | Digital camera with face detection function for facilitating exposure compensation | |
CN101262617B (en) | White balance correction apparatus and method | |
US7408574B2 (en) | Image pickup apparatus for producing a desired frame of image signals | |
JP4914045B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
JP6103948B2 (en) | IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM | |
US20110012998A1 (en) | Imaging device, imaging method and recording medium | |
CN109729262A (en) | Lens control apparatus and method and picture pick-up device including lens control apparatus | |
JP5219697B2 (en) | Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program | |
US20110019012A1 (en) | Composition control device, imaging system, composition control method, and program | |
US20110102454A1 (en) | Image processing device, image processing method, image processing program, and imaging device | |
JP2019134335A (en) | Imaging apparatus, control method, and program | |
CN105721767A (en) | Method For Processing A Video Stream | |
US11343434B2 (en) | Image processing apparatus and control method for same | |
JP2021044702A (en) | Imaging apparatus and driving control method therefor, and program | |
CN110930340B (en) | Image processing method and device | |
JP2010050651A (en) | White balance controller and imaging device using the same, and white balance control method | |
JP7396336B2 (en) | Location information acquisition device, location information acquisition method, and program | |
CN116309224A (en) | Image fusion method, device, terminal and computer readable storage medium | |
JP6808482B2 (en) | Image processing equipment, image processing methods, and programs | |
US11843846B2 (en) | Information processing apparatus and control method therefor | |
WO2013047641A1 (en) | Three-dimensional image processing device and three-dimensional image processing method | |
JP2004274344A (en) | Image processing apparatus and method | |
JP7465076B2 (en) | Image processing device and control method thereof | |
US20240098358A1 (en) | Information processing apparatus and control method therefor |