JP2021044702A - Imaging apparatus and driving control method therefor, and program - Google Patents

Imaging apparatus and driving control method therefor, and program Download PDF

Info

Publication number
JP2021044702A
JP2021044702A JP2019165468A JP2019165468A JP2021044702A JP 2021044702 A JP2021044702 A JP 2021044702A JP 2019165468 A JP2019165468 A JP 2019165468A JP 2019165468 A JP2019165468 A JP 2019165468A JP 2021044702 A JP2021044702 A JP 2021044702A
Authority
JP
Japan
Prior art keywords
subject
distance
detection
mode
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019165468A
Other languages
Japanese (ja)
Inventor
典央 根岸
Norihisa Negishi
典央 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019165468A priority Critical patent/JP2021044702A/en
Publication of JP2021044702A publication Critical patent/JP2021044702A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

To provide an imaging apparatus and a driving control method therefor, and a program that can achieve focusing on a detected moving subject smoothly after detecting the moving subject as an event.SOLUTION: In a detection mode, a detection image is generated by adding pixels in each division region of a pixel region of an imaging element 203, and detection images are compared between frames to detect a difference as a subject of interest in each division region. In an imaging mode, a system 2 which generates a picked-up image from the imaging element 203 links a distance l to a fixed subject photographed in each division region. When the subject of interest is detected in the detection mode, a distance to the subject of interest is estimated based upon the distance l linked to the division region in which the subject of interest is photographed, and after a focus position of a focus lens is moved so that the focal length reaches the estimated distance, the imaging mode is entered.SELECTED DRAWING: Figure 3

Description

本発明は撮像装置およびその駆動制御方法、並びにプログラムに関し、特に動く被写体を検出する撮像装置およびその駆動制御方法、並びにプログラムに関する。 The present invention relates to an image pickup apparatus and its drive control method, and a program, and more particularly to an image pickup apparatus for detecting a moving subject, its drive control method, and a program.

近年、交通や防犯などの分野において、動く被写体をイベントとして画像処理により検出する撮像装置が広く利用されている。例えばイベントが発生するまでは消費電力を少なくするため、撮像素子の画素領域を複数の分割領域に分割し、各分割領域内の画素を画素加算して生成したイベント検知用のアナログ信号を撮像素子から読み出す検知モードで動作する撮像装置が提案されている。該撮像装置は、検知モードにおいてイベント検知用のアナログ信号に基づきイベントを検知した後は、撮像素子から動画記録用のアナログ信号を読み出す撮像モードに移行する(例えば、特許文献1参照)。 In recent years, in fields such as traffic and crime prevention, an imaging device that detects a moving subject as an event by image processing has been widely used. For example, in order to reduce power consumption until an event occurs, the pixel area of the image sensor is divided into a plurality of divided areas, and the pixels in each divided area are added to the pixels to generate an analog signal for event detection. An image sensor that operates in a detection mode read from is proposed. After detecting an event based on the analog signal for event detection in the detection mode, the image pickup apparatus shifts to the image pickup mode in which the analog signal for moving image recording is read from the image pickup device (see, for example, Patent Document 1).

特開2018−22935号公報Japanese Unexamined Patent Publication No. 2018-22935

しかしながら、特許文献1におけるAF処理は、検知モードから撮像モードに移行した後、撮像モードにおいて撮像素子から読み出された動画記録用のアナログ信号に基づいて行われる。このため、検知モードにて動く被写体をイベントとして検知しても、その後撮像モードで記録される動画中において、その動く被写体はフォーカスが合っていない状態となってしまう。 However, the AF process in Patent Document 1 is performed based on the analog signal for moving image recording read from the image sensor in the image pickup mode after shifting from the detection mode to the image pickup mode. Therefore, even if a moving subject is detected as an event in the detection mode, the moving subject will be out of focus in the moving image recorded in the imaging mode thereafter.

そこで、本発明の目的は、動く被写体をイベントとして検出した後すみやかに、その検出した動く被写体に対してフォーカスを合わせることができる撮像装置およびその駆動制御方法、並びにプログラムを提供することにある。 Therefore, an object of the present invention is to provide an image pickup apparatus capable of quickly focusing on the detected moving subject after detecting the moving subject as an event, a drive control method thereof, and a program.

本発明の請求項1に係る撮像装置は、撮像素子の画素領域を複数の分割領域に分割する分割手段と、検知モードにおいて、前記複数の分割領域毎にその領域内の画素の画素加算を行って検出画像を生成する第1の生成手段と、前記検知モードにおいて、前記第1の生成手段により作成された検出画像をフレーム間で比較して、前記複数の分割領域毎に差分を注目被写体として検知する検知手段と、撮像モードにおいて、前記撮像素子から撮像画像を生成する第2の生成手段と、フォーカスレンズのフォーカス位置を移動させるAF手段と、前記複数の分割領域毎に映っている固定被写体までの距離を紐付ける紐付け手段と、前記検知手段により前記注目被写体が検知された場合、前記注目被写体が映っている分割領域に紐付けられた前記距離に基づき前記注目被写体までの距離と推定する推定手段とを備え、前記推定された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする。 The image pickup apparatus according to claim 1 of the present invention includes a dividing means for dividing a pixel region of an image sensor into a plurality of divided regions, and in a detection mode, pixel addition of pixels in the divided region is performed for each of the plurality of divided regions. The first generation means for generating the detection image and the detection image created by the first generation means in the detection mode are compared between frames, and the difference is set as the subject of interest for each of the plurality of divided regions. A detection means for detecting, a second generation means for generating an image to be captured from the image sensor in the image pickup mode, an AF means for moving the focus position of the focus lens, and a fixed subject reflected in each of the plurality of divided regions. When the attention subject is detected by the associating means for associating the distance to the attention subject and the detection means, the distance to the attention subject is estimated based on the distance associated with the divided area in which the attention subject is reflected. It is characterized in that the AF means moves the focus position of the focus lens so that the focal length matches the estimated distance, and then shifts to the image pickup mode.

本発明によれば、動く被写体をイベントとして検出した後すみやかに、その検出した動く被写体に対してフォーカスを合わせることができる。 According to the present invention, it is possible to quickly focus on the detected moving subject after detecting the moving subject as an event.

本発明の実施例1に係るイベント検知処理の概要を示すフローチャートである。It is a flowchart which shows the outline of the event detection processing which concerns on Example 1 of this invention. 図1AのステップS103の検知モード動作処理のフローチャートである。It is a flowchart of the detection mode operation process of step S103 of FIG. 1A. 実施例1における図1AのステップS109の撮像モード動作処理のフローチャートである。It is a flowchart of the image pickup mode operation process of step S109 of FIG. 1A in Example 1. FIG. 実施例1における、図1AのステップS107の注目被写体位置修正処理のフローチャートである。It is a flowchart of attention subject position correction processing of step S107 of FIG. 1A in Example 1. FIG. 実施例1における、図1CのステップS109−4の周辺環境情報作成・更新処理のフローチャートである。It is a flowchart of the surrounding environment information creation / update process of step S109-4 of FIG. 1C in Example 1. FIG. 本発明の実施例1に係る撮像装置としてのシステムのハードウェア構成の概要を示す図である。It is a figure which shows the outline of the hardware structure of the system as the image pickup apparatus which concerns on Example 1 of this invention. 図2における撮像素子の概略構成を示す図である。It is a figure which shows the schematic structure of the image pickup device in FIG. 図3の撮像素子内の画素部の概略構成を示す図である。It is a figure which shows the schematic structure of the pixel part in the image pickup device of FIG. 図4に示す画素部内の画素の等価回路図である。It is an equivalent circuit diagram of the pixel in the pixel part shown in FIG. 図3の撮像素子内のデジタル加算部の回路構成を示す図である。It is a figure which shows the circuit structure of the digital addition part in the image pickup device of FIG. 図3の撮像素子内のイベント検出部の構成を示すブロック図である。It is a block diagram which shows the structure of the event detection part in the image pickup device of FIG. 実施例1に係る、検出枠の設定例を示す図である。It is a figure which shows the setting example of the detection frame which concerns on Example 1. FIG. 実施例1における、撮像モジュール部で撮影される固定被写体の例を示す図である。It is a figure which shows the example of the fixed subject photographed by the image pickup module part in Example 1. FIG. 図8に示す複数の分割領域と図9Aに示す固定被写体の撮像領域の位置関係を示す図である。It is a figure which shows the positional relationship between the plurality of division regions shown in FIG. 8 and the imaging region of a fixed subject shown in FIG. 9A. 所定値以上の大きさを有する固定被写体の撮像領域を検出枠として設定する方法を説明するための図である。It is a figure for demonstrating the method of setting the imaging area of a fixed subject having a size of a predetermined value or more as a detection frame. 実施例1における、撮像モジュール部の画角内にある図9Aに示す固定被写体上に注目被写体が出現した例を示す図である。It is a figure which shows the example which the attention subject appeared on the fixed subject shown in FIG. 9A within the angle of view of the image pickup module part in Example 1. FIG. 図8に示す複数の分割領域と図10Aの注目被写体の撮像領域の位置関係を示す図である。It is a figure which shows the positional relationship between the plurality of division regions shown in FIG. 8 and the imaging region of the subject of interest of FIG. 10A. 図1DのステップS107−2の注目被写体位置再推定処理のフローチャートである。It is a flowchart of attention subject position re-estimation processing of step S107-2 of FIG. 1D. 実施例2における、図1AのステップS107の注目被写体位置修正処理のフローチャートである。2 is a flowchart of the attention subject position correction process in step S107 of FIG. 1A in the second embodiment. 実施例2における、図1CのステップS109−4の周辺環境情報作成・更新処理のフローチャートである。It is a flowchart of the surrounding environment information creation / update process of step S109-4 of FIG. 1C in Example 2. FIG. 実施例2における、各分割領域のデジタル加算数を示す図である。It is a figure which shows the digital addition number of each division area in Example 2. FIG. 実施例2における、画素部の画素領域の分割方法を示す図である。It is a figure which shows the division method of the pixel area of a pixel part in Example 2. FIG. 図13Bに示す複数の分割領域と図9Aに示す固定被写体の撮像領域の位置関係を示す図である。It is a figure which shows the positional relationship between the plurality of division regions shown in FIG. 13B and the imaging region of a fixed subject shown in FIG. 9A. 図12AのステップS107−5における隣接する検出枠に対する注目被写体までの距離ltの再推定方法を示す図である。It is a figure which shows the re-estimation method of the distance lt to the attention subject with respect to the adjacent detection frame in step S107-5 of FIG. 12A. 実施例2における、注目被写体が撮像モジュール部の画角内に出現した場合に、その注目被写体の位置の推定方法を説明するための図である。It is a figure for demonstrating the method of estimating the position of the attention subject when the attention subject appears within the angle of view of the image pickup module part in Example 2. FIG. 図12EのステップS109−42で実行される、検出枠の領域設定の更新方法を説明するための図である。It is a figure for demonstrating the method of updating the area setting of a detection frame, which is executed in step S109-42 of FIG. 12E.

以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention according to the claims, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. ..

[実施例1]
本実施例では、被写体の動きなどのイベント検知機能を有する撮像装置において撮像領域の分割領域毎に、優先順位付けしたフォーカス位置をひも付けし、検知と同時にAFを開始する例について説明する。尚、本実施例においては、上記分割領域毎にひも付けられるフォーカス位置の優先順位付けは、被写体の発生頻度に基づき設定される。以下、図1A〜1E、2〜8,9A〜9C、10A,10B、図11を用いて、本実施例について説明する。
[Example 1]
In this embodiment, an example will be described in which an imaging device having an event detection function such as movement of a subject is associated with prioritized focus positions for each divided region of the imaging region and AF is started at the same time as detection. In this embodiment, the prioritization of the focus positions associated with each of the divided regions is set based on the frequency of occurrence of the subject. Hereinafter, this embodiment will be described with reference to FIGS. 1A to 1E, 2 to 8, 9A to 9C, 10A, 10B, and FIG.

ここで、人等の撮像装置の画角内にいるか否かを検出したい被写体を特に『注目被写体』として、同じく被写体である、壁や床、天井等の背景や家具等の固定被写体と区別して記載する。特に『注目』をつけない場合は人等の撮像装置の画角内にいるか否かを検出したい被写体に限らず、撮像装置の画角内に映るもの全般を指すとする。 Here, a subject for which it is desired to detect whether or not it is within the angle of view of an image pickup device such as a person is particularly set as a "attention subject", and is distinguished from a fixed subject such as a background such as a wall, floor, or ceiling, or furniture, which is also a subject. Describe. In particular, when "attention" is not given, it refers not only to the subject for which it is desired to detect whether or not it is within the angle of view of the image pickup device such as a person, but also to all objects that are reflected within the angle of view of the image pickup device.

図2は、本実施例に係る撮像装置としてのシステム2のハードウェア構成の概要を示す図である。 FIG. 2 is a diagram showing an outline of the hardware configuration of the system 2 as the image pickup apparatus according to the present embodiment.

図2において、システム2は、撮像モジュール部20及び外部信号処理部21を備える。 In FIG. 2, the system 2 includes an imaging module unit 20 and an external signal processing unit 21.

撮像モジュール部20は、レンズ201、レンズ駆動部202、及び撮像素子203を備える。 The image pickup module section 20 includes a lens 201, a lens drive section 202, and an image pickup element 203.

外部信号処理部21は、撮像信号処理回路210、メモリ部I211、全体制御演算部212、記録媒体制御I/F部213、記録媒体214、外部I/F部215、及びメモリ部II216を備える。 The external signal processing unit 21 includes an imaging signal processing circuit 210, a memory unit I211, an overall control calculation unit 212, a recording medium control I / F unit 213, a recording medium 214, an external I / F unit 215, and a memory unit II216.

撮像モジュール部20と外部信号処理部21は有線で接続されているか、物理的に離れており、有線もしくは無線でデータの送受信を行う。 The image pickup module unit 20 and the external signal processing unit 21 are connected by wire or physically separated from each other, and data is transmitted and received by wire or wirelessly.

撮像素子203の詳細は後述する。レンズ201を通った被写体像は撮像素子203に結像させる。撮像素子203内の複数の画素に結像した被写体像は、撮像素子203内でデジタルデータに変換され、RAWデータとして撮像信号処理回路210に送られる。撮像信号処理回路210では、ノイズを軽減するローパスフィルタ処理やシェーディング処理、WB処理などの各種の画像信号処理、さらにキズ補正やダークシェーディング補正、黒引き処理等の各種の補正、圧縮等を行って画像データを作成する。 Details of the image sensor 203 will be described later. The subject image passed through the lens 201 is formed on the image sensor 203. The subject image formed on the plurality of pixels in the image sensor 203 is converted into digital data in the image sensor 203 and sent to the image pickup signal processing circuit 210 as RAW data. The image pickup signal processing circuit 210 performs various image signal processing such as low-pass filter processing, shading processing, and WB processing for reducing noise, as well as various corrections such as scratch correction, dark shading correction, and blackening processing, and compression. Create image data.

レンズ201はレンズ駆動部202により制御され、被写体にフォーカスを合焦させることができる。 The lens 201 is controlled by the lens driving unit 202, and the subject can be focused.

全体制御演算部212はシステム2全体の制御と各種演算を行う。 The overall control calculation unit 212 controls the entire system 2 and performs various calculations.

メモリ部I211は画像データを一時的に記憶する。 The memory unit I211 temporarily stores the image data.

記録媒体制御I/F部213では記録媒体に画像データの記録または読み出しを行う。 The recording medium control I / F unit 213 records or reads image data on the recording medium.

記録媒体214は半導体メモリ等の着脱可能記憶媒体であり、画像データの記録または読み出しを行う。 The recording medium 214 is a removable storage medium such as a semiconductor memory, and records or reads out image data.

外部I/F部215は外部コンピュータ等と通信を行う為のインターフェースである。 The external I / F unit 215 is an interface for communicating with an external computer or the like.

メモリ部II216は全体制御演算部212での演算結果、撮影条件等の各種パラメータ、及び各種プログラムを記憶する。 The memory unit II 216 stores the calculation results of the overall control calculation unit 212, various parameters such as shooting conditions, and various programs.

図3は、図2における撮像素子203の概略構成を示す図である。 FIG. 3 is a diagram showing a schematic configuration of the image pickup device 203 in FIG. 2.

撮像素子203は、画素部301、垂直走査回路302、制御回路303、AD変換部304、水平走査回路305、露出制御部306、イベント検出部307、及びモード制御部308を備える。さらに撮像素子203は、レンズ制御部309、スイッチ310、デジタル加算部311、及びメモリ部312を備える。 The image sensor 203 includes a pixel unit 301, a vertical scanning circuit 302, a control circuit 303, an AD conversion unit 304, a horizontal scanning circuit 305, an exposure control unit 306, an event detection unit 307, and a mode control unit 308. Further, the image sensor 203 includes a lens control unit 309, a switch 310, a digital addition unit 311 and a memory unit 312.

画素部301には、二次元格子状に複数の画素が配列される。以下、所定方向(水平方向など)に配列された画素の集合を「行」と称し、行に垂直な方向に配列された画素の集合を「列」と称する。 A plurality of pixels are arranged in a two-dimensional grid pattern in the pixel unit 301. Hereinafter, a set of pixels arranged in a predetermined direction (horizontal direction, etc.) is referred to as a "row", and a set of pixels arranged in a direction perpendicular to the row is referred to as a "column".

制御回路303は、垂直走査回路302、AD変換部304、水平走査回路305を制御するものである。制御回路303には、所定の周波数(30ヘルツ等)の垂直同期信号(以下VD)が全体制御演算部212から入力される。 The control circuit 303 controls the vertical scanning circuit 302, the AD conversion unit 304, and the horizontal scanning circuit 305. A vertical synchronization signal (hereinafter referred to as VD) having a predetermined frequency (30 Hz or the like) is input to the control circuit 303 from the overall control calculation unit 212.

垂直走査回路302は、選択行を読みだすための行選択と各行に電荷の読み出しに必要な信号を画素部301内の各画素の回路に出力する。そして各画素の回路を駆動させ、露光量に応じたレベルのアナログ信号を生成させる。垂直走査回路302には、露出制御部306から露光制御信号、およびモード制御部308よりモード信号MODEが制御回路303を介して入力される。露光制御信号は、露光時間を制御するための信号である。 The vertical scanning circuit 302 outputs a signal necessary for row selection for reading the selected row and reading of the electric charge in each row to the circuit of each pixel in the pixel unit 301. Then, the circuit of each pixel is driven to generate an analog signal at a level corresponding to the exposure amount. An exposure control signal is input to the vertical scanning circuit 302 from the exposure control unit 306, and a mode signal MODE is input from the mode control unit 308 via the control circuit 303. The exposure control signal is a signal for controlling the exposure time.

撮像素子203は、駆動モードとして検知モード、撮像モード、切出しモードのいずれかで駆動することができる。 The image sensor 203 can be driven in any of a detection mode, an image pickup mode, and a cutout mode as a drive mode.

モード信号MODEは、撮像素子203を上記いずれかの駆動モードを切り替えるためのモードフラグMfと、AD変換後の加算のデータをデジタル加算部311でどのように加算するかについて示したデジタル加算情報DAを有する。 The mode signal MODE is a digital addition information DA indicating a mode flag Mf for switching the drive mode of the image sensor 203 and how the addition data after AD conversion is added by the digital addition unit 311. Has.

検知モードは、画素部301から画素の画素加算を行って読み出したデータ(検出画像)をイベント検知に用いるモードである。撮像モードは、画素部301から画素の画素加算を行なわずに読み出したデータ(撮像画像)を撮像素子203から出力するモードであり、このモードで撮像素子203から出力されたデータは画像として記録等がなされる。また切出しモードは画素部301の画素を画素加算を行わないで部分的に読み出す、すなわち撮像画像の一部を切り出したデータを被写体の合焦位置を推定に用いるモードである。 The detection mode is a mode in which data (detection image) read by adding pixels of pixels from the pixel unit 301 is used for event detection. The image pickup mode is a mode in which data (image pickup image) read from the pixel unit 301 without pixel addition is output from the image pickup element 203, and the data output from the image pickup element 203 in this mode is recorded as an image or the like. Is done. Further, the cutout mode is a mode in which the pixels of the pixel unit 301 are partially read out without performing pixel addition, that is, the data obtained by cutting out a part of the captured image is used for estimating the focusing position of the subject.

検知モードのときと、撮像モード及び切出しモードのときとで、垂直走査回路302からの出力信号を変更する。尚、本実施例において撮像モード及び切出しモードでは画素加算は行われないが、たとえば、隣接同色の2画素の加算などの少ない加算は実施して画素部301から読みだすようにしても良い。 The output signal from the vertical scanning circuit 302 is changed between the detection mode and the imaging mode and the cutout mode. In this embodiment, pixel addition is not performed in the imaging mode and the cutout mode, but for example, a small addition such as addition of two adjacent pixels of the same color may be performed to read from the pixel unit 301.

AD変換部304は、画素部301からのアナログ信号(加算信号または画素信号)に対してAD変換を行う。そして、AD変換部304は、生成したデータ(加算データまたは画素データ)をスイッチ310に供給する。 The AD conversion unit 304 performs AD conversion on an analog signal (addition signal or pixel signal) from the pixel unit 301. Then, the AD conversion unit 304 supplies the generated data (additional data or pixel data) to the switch 310.

スイッチ310は、モード信号MODEのモードフラグMfに従って、AD変換部304からのデータの出力先を切り替える。このスイッチ310では、3つの端子S1、S2、S3の一つに切り替えることができ、モードフラグMfが検知モードに設定されている場合、スイッチ310は端子S1に切換えAD変換部304からの画像データをデジタル加算部311に供給する。一方、モードフラグMfが撮像モードに設定されている場合、スイッチ310は端子S3に切換えAD変換部304からの画素データを撮像素子203の出力として外部信号処理部21内の撮像信号処理回路210へ供給する。また、モードフラグMfが切出しモードに設定されている場合、スイッチ310は端子S2に切換え、AD変換部304からの画素データをイベント検出部307へ供給する。 The switch 310 switches the output destination of the data from the AD conversion unit 304 according to the mode flag Mf of the mode signal MODE. With this switch 310, it is possible to switch to one of the three terminals S1, S2, and S3, and when the mode flag Mf is set to the detection mode, the switch 310 switches to the terminal S1 and the image data from the AD conversion unit 304. Is supplied to the digital addition unit 311. On the other hand, when the mode flag Mf is set to the image pickup mode, the switch 310 switches to the terminal S3 and outputs the pixel data from the AD conversion unit 304 to the image pickup signal processing circuit 210 in the external signal processing section 21 as an output of the image pickup element 203. Supply. When the mode flag Mf is set to the cutout mode, the switch 310 switches to the terminal S2 and supplies the pixel data from the AD conversion unit 304 to the event detection unit 307.

イベント検出部307は、フレーム間の加算データの差分結果に基づいて、所定のイベントの有無を検出して検出結果DETを生成する。例えば、もともと撮像モジュール部20の画角にはいっていなかった被写体が画角内に入ってきたときには、その被写体の動きがイベントとして検出される。また、イベント検出部307は、画素部301の全域に対応する加算データを積算し、輝度積分データEとして露出制御部306に供給する。この輝度積分データEは、画像全体の測光量を示す。詳細は後述する。 The event detection unit 307 detects the presence or absence of a predetermined event based on the difference result of the addition data between frames, and generates a detection result DET. For example, when a subject that was not originally in the angle of view of the image pickup module 20 enters the angle of view, the movement of the subject is detected as an event. Further, the event detection unit 307 integrates the addition data corresponding to the entire area of the pixel unit 301 and supplies the addition data as the luminance integration data E to the exposure control unit 306. The luminance integration data E indicates the photometric quantity of the entire image. Details will be described later.

露出制御部306は、輝度積分データEに基づいて、画素部301の露光量を制御する。この露出制御部306は、後述するイベント検出部307内の積算部で求めた輝度積算データをもとに次の制御に適切な露光時間を求め、制御回路303にその情報を伝達する。 The exposure control unit 306 controls the exposure amount of the pixel unit 301 based on the luminance integration data E. The exposure control unit 306 obtains an appropriate exposure time for the next control based on the brightness integration data obtained by the integration unit in the event detection unit 307, which will be described later, and transmits the information to the control circuit 303.

なお、本実施例では露出制御部306は、露光時間を制御しているが、露光時間の代わりに、レンズ201内に絞りを設け、その絞りを制御する構成でもよい。 In this embodiment, the exposure control unit 306 controls the exposure time, but instead of the exposure time, a diaphragm may be provided in the lens 201 to control the diaphragm.

メモリ部312には周辺環境情報が記録されている。周辺環境情報は、距離マップМ、画素領域情報P、注目被写体情報ASとデジタル加算情報DAから構成される。周辺環境情報は外部信号処理部21の撮像信号処理回路210にて撮像素子203から送られた画像データを元に作成され、メモリ部II216に格納される。この周辺環境情報は、全体制御演算部212にて読み出され、メモリ部312に転送・保存される。 Surrounding environment information is recorded in the memory unit 312. The surrounding environment information is composed of a distance map М, pixel area information P, attention subject information AS, and digital addition information DA. The surrounding environment information is created based on the image data sent from the image pickup device 203 by the image pickup signal processing circuit 210 of the external signal processing section 21, and is stored in the memory section II216. This surrounding environment information is read by the overall control calculation unit 212, and is transferred / stored in the memory unit 312.

また、イベント検出部307はメモリ部312に保存された周辺環境情報を用いてイベント検出を行い、イベントが検出された場合にはその結果を周辺環境情報に反映させ、メモリ部312に保存する。周辺環境情報の詳細、周辺環境情報の作成方法は後述する。 Further, the event detection unit 307 detects an event using the surrounding environment information stored in the memory unit 312, and when an event is detected, reflects the result in the surrounding environment information and stores it in the memory unit 312. The details of the surrounding environment information and the method of creating the surrounding environment information will be described later.

モード制御部308は、検知モード、撮像モード、及び切出しモードのいずれかを設定する。このモード制御部308は、ユーザによりシステム2の不図示の操作部に対する所定の操作が行われ、撮像モジュール部20が起動すると、モード信号MODEのモードフラグMfを検知モードに設定する。また、メモリ部312に記録された周辺環境情報の中から、イベント検出部307を介してデジタル加算情報DAを入手し、モード信号MODEに書き込む。 The mode control unit 308 sets one of the detection mode, the image pickup mode, and the cutout mode. When the user performs a predetermined operation on an operation unit (not shown) of the system 2 and the image pickup module unit 20 is activated, the mode control unit 308 sets the mode flag Mf of the mode signal MODE to the detection mode. Further, from the surrounding environment information recorded in the memory unit 312, the digital addition information DA is obtained via the event detection unit 307 and written to the mode signal MODE.

このモード信号MODEは、垂直走査回路302、スイッチ310に供給される。また、モード制御部308はデジタル加算部311へ画素領域情報Pを供給する。画素領域情報Pの詳細は後述する。 This mode signal MODE is supplied to the vertical scanning circuit 302 and the switch 310. Further, the mode control unit 308 supplies the pixel area information P to the digital addition unit 311. The details of the pixel area information P will be described later.

そして、検知モードにおいて、所定のイベントが生じるとモード制御部308は、モード信号MODEのモードフラグMfを撮像モードに設定する。撮像モードにおいて、イベントが一定期間検知されないと、モード制御部308はモード信号MODEのモードフラグMfを検知モードに設定する。 Then, when a predetermined event occurs in the detection mode, the mode control unit 308 sets the mode flag Mf of the mode signal MODE to the imaging mode. In the imaging mode, if the event is not detected for a certain period of time, the mode control unit 308 sets the mode flag Mf of the mode signal MODE to the detection mode.

デジタル加算部311は、スイッチ310が検知モードのときに、アナログデータが入力される。入力されたアナログデータは、モード制御部308からの画素領域情報Pに基づきデジタル加算され、イベント検出部307に出力する。イベント検出部307の動作は後述する。 Analog data is input to the digital addition unit 311 when the switch 310 is in the detection mode. The input analog data is digitally added based on the pixel area information P from the mode control unit 308 and output to the event detection unit 307. The operation of the event detection unit 307 will be described later.

レンズ制御部309はイベント検出部307にてイベントが検出され、被写体位置が推定されると、その推定結果を元にレンズ駆動部202に対してレンズ駆動信号を送る。 When the event is detected by the event detection unit 307 and the subject position is estimated, the lens control unit 309 sends a lens drive signal to the lens drive unit 202 based on the estimation result.

図4は、図3の撮像素子203内の画素部301の概略構成を示す図である。 FIG. 4 is a diagram showing a schematic configuration of a pixel portion 301 in the image pickup device 203 of FIG.

図4において、画素部301は、複数の画素330、及び4×2の画素330を一つのブロックとする、複数の画素ブロック340を有する。 In FIG. 4, the pixel unit 301 has a plurality of pixel blocks 330 and a plurality of pixel blocks 340 having 4 × 2 pixels 330 as one block.

画素部301は、画素ブロック340で画素加算し、さらに図4において不図示の複数の画素ブロックにおいて同様に画素加算されると、これらを後段でデジタル加算し、最終的に所定のサイズの画素領域の画素を加算したデータを生成する。このデータは、イベント検知に用いられる。上記画素領域を以下検出枠という。 The pixel unit 301 adds pixels in the pixel block 340, and when pixels are similarly added in a plurality of pixel blocks (not shown in FIG. 4), these are digitally added in the subsequent stage, and finally a pixel area of a predetermined size is obtained. Generates data by adding the pixels of. This data is used for event detection. The pixel area is hereinafter referred to as a detection frame.

画素部301は、画素330が行列状に複数配置されている。また画素330が複数集まって画素ブロック340を構成する。 In the pixel unit 301, a plurality of pixels 330 are arranged in a matrix. Further, a plurality of pixels 330 are gathered to form a pixel block 340.

なお、説明を簡略化するため、本例においては画素ブロック340を行列4×2とした配置にて説明するが、行列数および配置については、これに限られるものではない。 In addition, in order to simplify the explanation, in this example, the pixel block 340 is arranged as a matrix 4 × 2, but the number of matrices and the arrangement are not limited to this.

画素ブロック340は、そのブロック単位に対する行方向にて水平信号線として2つのリセット制御信号(例えばRST1−1、RST1−2)、2つの行選択制御信号(例えばSEL1−1、SEL1−2)が配線される。さらに、2つの転送制御信号(例えばTX1−1、TX1−2)、加算信号ADD(例えばADD1)、加算後の信号選択制御信号ADD_SEL(ADD_SEL1)が配線される。 The pixel block 340 has two reset control signals (for example, RST1-1 and RST1-2) and two row selection control signals (for example, SEL1-1 and SEL1-2) as horizontal signal lines in the row direction with respect to the block unit. It will be wired. Further, two transfer control signals (for example, TX1-1 and TX1-2), an addition signal ADD (for example, ADD1), and a signal selection control signal ADD_SEL (ADD_SEL1) after addition are wired.

各画素330にはリセット制御信号、行選択制御信号、転送制御信号が配線されている。さらに画素ブロックごとに加算信号ADD、加算後の信号選択制御信号ADD_SELが配線される。 A reset control signal, a row selection control signal, and a transfer control signal are wired in each pixel 330. Further, an addition signal ADD and a signal selection control signal ADD_SEL after addition are wired for each pixel block.

列方向には垂直信号線410が配線される。画素からの出力は垂直信号線410を介して、接続先のAD変換部304に入力される。 A vertical signal line 410 is wired in the column direction. The output from the pixel is input to the AD conversion unit 304 of the connection destination via the vertical signal line 410.

上記の各水平信号線の選択駆動が行われることで、撮像素子から行単位にて順次、各垂直信号線410を介して出力が行われる。 By performing the selective driving of each of the horizontal signal lines described above, output is sequentially performed from the image sensor line by line via each vertical signal line 410.

撮像素子203から撮像モードでは各画素から順次出力するのに対し、検知モードでは後述するブロック内でFDごとの加算スイッチを動作させ、加算結果をある特定の画素から出力させる。 In the image pickup mode, the image sensor 203 sequentially outputs from each pixel, whereas in the detection mode, the addition switch for each FD is operated in the block described later, and the addition result is output from a specific pixel.

図5は、図4に示す画素部301内の画素330の等価回路図である。以下、図5に示すように、複数の画素330を個別に画素330−1〜330−8と呼ぶ。 FIG. 5 is an equivalent circuit diagram of the pixel 330 in the pixel unit 301 shown in FIG. Hereinafter, as shown in FIG. 5, a plurality of pixels 330 are individually referred to as pixels 330-1 to 330-8.

図5は撮像素子203における検知モード時のアナログ加算回路の構成例を説明する図であり、水平方向に4つ、垂直方向に2つ配置されている画素330−1〜330−8が一つの画素ブロック340を構成する。 FIG. 5 is a diagram illustrating a configuration example of an analog adder circuit in the detection mode of the image sensor 203, in which four pixels 330-1 to 330-8 arranged in the horizontal direction and two pixels in the vertical direction are arranged as one. It constitutes a pixel block 340.

左上の画素330−1を中心に説明をすると、フォトダイオード406−1にて発生および蓄積された電荷を、転送制御信号TX1を制御して転送スイッチ405−1を介してフローティングディフュージョン(以後FD)407−1に転送する。ソースフォロアアンプ408−1は垂直出力線410−1に接続された定電流源411−1と共に構成され、FD407−1に蓄積された電荷に基づく電圧信号を増幅して、画素信号として出力する。前記ソースフォロアアンプ408−1の出力を行選択制御信号SEL1−1が行選択スイッチ409−1を制御して垂直出力線410−1へ接続する。 Focusing on pixel 330-1 on the upper left, the electric charge generated and accumulated by the photodiode 406-1 is floated diffused (hereinafter referred to as FD) via the transfer switch 405-1 by controlling the transfer control signal TX1. Transfer to 407-1. The source follower amplifier 408-1 is configured together with a constant current source 411-1 connected to the vertical output line 410-1, amplifies a voltage signal based on the electric charge accumulated in the FD407-1, and outputs it as a pixel signal. The row selection control signal SEL1-1 controls the row selection switch 409-1 to connect the output of the source follower amplifier 408-1 to the vertical output line 410-1.

FD407−1に蓄積されている不要電荷をリセットする場合はリセット制御信号RST1−1によりリセットスイッチ404−1を制御する。さらにフォトダイオード406−1のリセットをする際はリセットスイッチ404−1と共に、転送制御信号TX1−1を制御して転送スイッチ405−1を制御してリセットを実行する。転送制御信号TX1−1、リセット制御信号RST1−1と行選択制御信号SEL1−1は垂直走査回路302につながっており、各行に夫々の制御信号を持つ。 When resetting the unnecessary charge stored in the FD407-1, the reset switch 404-1 is controlled by the reset control signal RST1-1. Further, when resetting the photodiode 406-1, the transfer control signal TX1-1 is controlled together with the reset switch 404-1 to control the transfer switch 405-1 to execute the reset. The transfer control signal TX1-1, the reset control signal RST1-1, and the line selection control signal SEL1-1 are connected to the vertical scanning circuit 302, and each line has its own control signal.

このような構成を持つ撮像素子203を用いて撮影モードになっているときは、画素330毎に転送した信号を各画素で読み出す。 When the image sensor 203 having such a configuration is used in the shooting mode, the signal transferred for each pixel 330 is read out by each pixel.

一方、検知モードになっているときは、加算信号ADD1を介して水平加算スイッチ413(413−1、413−2、413−3)、及び垂直加算スイッチ414(414−1、414−2、414−3、414−4)をオンさせる。これによりFD(407−1、407−2、407−3、407−4、407−5、407−6、407−7、407−8)を回路的につなげ、画素330から得られる信号の加算平均処理をする。その後、FDで加算平均したデータを出力するために、加算選択制御信号ADD_SELを制御して、加算した結果を読み出す。このようにして、4×2の画素のFDで加算した結果を検知モードの出力とする。 On the other hand, when in the detection mode, the horizontal addition switch 413 (413-1, 413-2, 413-3) and the vertical addition switch 414 (414-1, 414-2, 414) are set via the addition signal ADD1. -3, 414-4) is turned on. As a result, the FDs (407-1, 407-2, 407-3, 407-4, 407-5, 407-6, 407-7, 407-8) are connected in a circuit, and the signal obtained from the pixel 330 is added. Perform averaging. After that, in order to output the data added and averaged by the FD, the addition selection control signal ADD_SEL is controlled and the added result is read out. In this way, the result of addition by the FD of 4 × 2 pixels is used as the output of the detection mode.

上記では4×2の画素の構成で説明したが画素加算の単位は図4のような4×2の画素の構成に限るものではない。また、画素加算方法はFD407−1での加算(FD加算と後述)に限らず、垂直加算は垂直出力線で複数の行をつないで実施(出力線加算と後述)、水平加算はAD変換部304の前の加算回路を使用して実施する形(水平加算と後述)でもよい。 In the above description, the configuration of 4 × 2 pixels has been described, but the unit of pixel addition is not limited to the configuration of 4 × 2 pixels as shown in FIG. Further, the pixel addition method is not limited to the addition by FD407-1 (FD addition and described later), the vertical addition is performed by connecting a plurality of lines with a vertical output line (output line addition and described later), and the horizontal addition is an AD conversion unit. It may be implemented by using the addition circuit before 304 (horizontal addition and described later).

図6は、図3の撮像素子203内のデジタル加算部311の回路構成を示す図である。 FIG. 6 is a diagram showing a circuit configuration of the digital addition unit 311 in the image pickup device 203 of FIG.

スイッチ310で検知モードが選択されたら、AD変換後の加算のデータが積算回路選択部2300に入力される。 When the detection mode is selected by the switch 310, the addition data after AD conversion is input to the integration circuit selection unit 2300.

積算回路選択部2300ではモード信号MODEのデジタル加算情報DAに基づき、検出枠を構成する画素領域の加算データを選択して積算回路2301に入力し積算する。 The integration circuit selection unit 2300 selects the addition data of the pixel region constituting the detection frame based on the digital addition information DA of the mode signal MODE, inputs the addition data to the integration circuit 2301, and integrates the data.

上記のようにデジタル加算部311では、撮像素子203の画素部301の回路構成に制約されず自由に加算を行うことが可能である。 As described above, the digital addition unit 311 can freely perform addition without being restricted by the circuit configuration of the pixel unit 301 of the image sensor 203.

なお、積算回路2301は積算に必要な数が用意される(例えばJ列で加算数が2列加算する場合はJ/2用意されている)。 In addition, the integration circuit 2301 is prepared with the number required for integration (for example, when the addition number is two columns in J column, J / 2 is prepared).

そして検出枠を構成する画素領域のアナログ加算データがすべて積算回路2301にはいったら、除算部2302を通して、各加算データ記憶部2303に記憶される。あるブロック行の加算データ記憶部2303への記録が終わったら積算回路2301のデータをRST信号でリセットする。その後、次の行方向へのアナログ加算データの積算を開始する。各積算データは1フレーム分の記憶部2305に夫々記憶する。 Then, when all the analog addition data in the pixel region constituting the detection frame enters the integration circuit 2301, it is stored in each addition data storage unit 2303 through the division unit 2302. When the recording of a certain block line in the addition data storage unit 2303 is completed, the data of the integration circuit 2301 is reset by the RST signal. After that, the integration of the analog addition data in the next row direction is started. Each integrated data is stored in the storage unit 2305 for one frame, respectively.

各加算データ記憶部2303に記憶された加算データは、加算データ選択部2304で選択したデータを順次イベント検出部307に転送する。 As for the addition data stored in each addition data storage unit 2303, the data selected by the addition data selection unit 2304 is sequentially transferred to the event detection unit 307.

図7は、図3の撮像素子203内のイベント検出部307の構成を示すブロック図である。 FIG. 7 is a block diagram showing the configuration of the event detection unit 307 in the image pickup device 203 of FIG.

なお、イベント検出部307で検出するイベントは、注目被写体に限らない被写体の動き検知であり、注目被写体の動きに限定して検知できるわけではない。 The event detected by the event detection unit 307 is motion detection of a subject not limited to the subject of interest, and cannot be detected only by the movement of the subject of interest.

イベント検出部307は、加算データ保持部A701、加算データ保持部B702、差分算出部703、積算部704、及び比較部705を備える。 The event detection unit 307 includes an addition data holding unit A701, an addition data holding unit B702, a difference calculation unit 703, an integration unit 704, and a comparison unit 705.

加算データ保持部A701はアナログまたはデジタルで加算されたデータを最初に保持する保持部である。 The addition data holding unit A701 is a holding unit that first holds the analog or digitally added data.

加算データ保持部B702は、加算データ保持部A701で保持された加算データについて、次のフレームの加算データが加算データ保持部A701に来る前に、前のフレームの情報として加算データ保持部A701から移動する。 The addition data holding unit B702 moves the addition data held by the addition data holding unit A701 from the addition data holding unit A701 as information of the previous frame before the addition data of the next frame comes to the addition data holding unit A701. To do.

積算部704は、画素部301の全域に対応する加算データを積算するものである。積算部704は、積算したデータを輝度積分データEとして露出制御部306に供給する。 The integration unit 704 integrates the addition data corresponding to the entire area of the pixel unit 301. The integration unit 704 supplies the integrated data to the exposure control unit 306 as luminance integration data E.

差分算出部703は、加算データ保持部A701からの現在の加算データと、加算データ保持部B702からの過去の輝度積分データとの差分を算出するものである。差分算出部703は、算出した差分を比較部705に供給する。 The difference calculation unit 703 calculates the difference between the current addition data from the addition data holding unit A701 and the past luminance integration data from the addition data holding unit B702. The difference calculation unit 703 supplies the calculated difference to the comparison unit 705.

比較部705は、差分算出部703から供給された差分と、所定の閾値とを比較する。尚、差分の検出方法は、各検出枠の加算データの差分を積算しても良いし、各検出枠の加算データ間の差分の最大値を代表の差分値として閾値と比較してもよい。この比較部705は、比較結果を検出結果DETとしてモード制御部308に供給する。例えば、差分が閾値を超える場合に、被写体に動きがあった(すなわち、イベントがあった)ことが検出され、そうでない場合に被写体に動きが無い旨が検出される。ここで、numは検出枠番号を示す値とすると検出結果DET=(1,num)のとき検出枠番号がnumの検出枠でイベントあり、検出結果DET=(0,−)のとき画素部301全域でイベント無しとする。 The comparison unit 705 compares the difference supplied from the difference calculation unit 703 with a predetermined threshold value. As a method of detecting the difference, the difference of the added data of each detection frame may be integrated, or the maximum value of the difference between the added data of each detection frame may be used as a representative difference value and compared with the threshold value. The comparison unit 705 supplies the comparison result as a detection result DET to the mode control unit 308. For example, when the difference exceeds the threshold value, it is detected that the subject has a movement (that is, there is an event), and when it does not, it is detected that the subject has no movement. Here, assuming that num is a value indicating the detection frame number, when the detection result DET = (1, num), there is an event in the detection frame where the detection frame number is num, and when the detection result DET = (0, −), the pixel unit 301 There will be no events in the entire area.

尚、本実施例では、各検出枠の現在のフレームのデータと過去のフレームのデータを保持しているが、この構成に限定されない。たとえば積算したデータを、現在のフレームのデータ、過去のフレームのデータとして比較し差分値を出してもよい。また前記積算する場合は、加算データごとに、その加算データに乗算する重みを保持する構成にしてもよい。 In this embodiment, the data of the current frame and the data of the past frame of each detection frame are retained, but the configuration is not limited to this. For example, the integrated data may be compared with the data of the current frame and the data of the past frame to obtain a difference value. Further, in the case of the above-mentioned integration, the weight to be multiplied by the addition data may be held for each addition data.

また、イベント検出部307は、被写体の動きをイベントとして検出しているが、加算データを用いて検出することができるものであれば、検出対象のイベントは、被写体の動きに限定されない。イベント検出部307、例えば、画像認識を行って人物などの特定の物体の有無を検出してもよい。 Further, although the event detection unit 307 detects the movement of the subject as an event, the event to be detected is not limited to the movement of the subject as long as it can be detected by using the added data. The event detection unit 307, for example, may perform image recognition to detect the presence or absence of a specific object such as a person.

本実施例における検出枠の設定例を、図8を用いて説明する。 An example of setting the detection frame in this embodiment will be described with reference to FIG.

図8(a)は、本実施例における、図3のAD変換部304から出力される加算データの生成方法を示す。例えば、画素部301内の画素領域において、水平方向に1920画素が、垂直方向に1600画素があるとき、画素部301内で水平8画素、垂直160画素の画素領域が加算される。そして240×10で2400の加算データとしてAD変換部304から出力され、さらに切り替えスイッチ310を介してデジタル加算部311へ入力される。 FIG. 8A shows a method of generating additional data output from the AD conversion unit 304 of FIG. 3 in this embodiment. For example, when there are 1920 pixels in the horizontal direction and 1600 pixels in the vertical direction in the pixel area in the pixel unit 301, the pixel areas of 8 horizontal pixels and 160 vertical pixels are added in the pixel unit 301. Then, it is output from the AD conversion unit 304 as the addition data of 2400 at 240 × 10, and further input to the digital addition unit 311 via the changeover switch 310.

図8(a)の加算データは、デジタル加算部311に入力され、デジタル加算部311にて加算データがさらに垂直方向に2画素、水平方向に40画素のデジタル加算がされ、6×5の加算データとして出力される。つまり、図8(b)に示すように、画素部301の画素領域を水平方向に6つ、垂直方向に5つに等分に分割した領域(以下分割領域という)の夫々が検出枠として設定され、その各検出枠内の320画素×320画素の画素が加算されて1出力値となる。この出力値のフレーム毎の差異が閾値以上である場合にイベントとして検出される。 The addition data of FIG. 8A is input to the digital addition unit 311, and the addition data is further digitally added by 2 pixels in the vertical direction and 40 pixels in the horizontal direction by the digital addition unit 311 to add 6 × 5. It is output as data. That is, as shown in FIG. 8B, the area in which the pixel area of the pixel unit 301 is equally divided into 6 in the horizontal direction and 5 in the vertical direction (hereinafter referred to as the divided area) is set as the detection frame. Then, the pixels of 320 pixels × 320 pixels in each detection frame are added to obtain one output value. When the difference between frames of this output value is equal to or greater than the threshold value, it is detected as an event.

図9Aは、本実施例における、撮像モジュール部20で撮影される固定被写体の例を示す図である。 FIG. 9A is a diagram showing an example of a fixed subject photographed by the imaging module unit 20 in this embodiment.

図9Aに示すように、撮像モジュール部20で撮影される被写体には、左壁901、天井902、右壁903、床904、奥壁905、ドア906、窓907が含まれる。画角の周辺部が近景、奥壁905辺りが遠景となっている。 As shown in FIG. 9A, the subject photographed by the image pickup module unit 20 includes a left wall 901, a ceiling 902, a right wall 903, a floor 904, a back wall 905, a door 906, and a window 907. The peripheral part of the angle of view is a near view, and the back wall 905 is a distant view.

図9Bは、図8(b)に示す複数の分割領域と図9Aに示す固定被写体の撮像領域の位置関係を示す図である。図9Bに示す点線は、各分割領域の境界線を示す。また、各分割領域の左上に記載された1〜30の番号は各分割領域の検出枠番号numを示す。 9B is a diagram showing the positional relationship between the plurality of divided regions shown in FIG. 8B and the imaging region of the fixed subject shown in FIG. 9A. The dotted line shown in FIG. 9B indicates the boundary line of each divided region. Further, the numbers 1 to 30 described in the upper left of each divided area indicate the detection frame number num of each divided area.

次に、周辺環境情報について説明する。周辺環境情報は、距離マップМ、画素領域情報P、注目被写体情報AS、及びデジタル加算情報DAから構成される。 Next, the surrounding environment information will be described. The surrounding environment information is composed of a distance map М, pixel area information P, attention subject information AS, and digital addition information DA.

距離マップМは画素部301の画素領域全域に結像された被写体の、撮像モジュール部20からの距離lを示す距離データであり下記のように表される。
М(i,j)
i:画素部301の画素領域内の水平座標 i=0〜1919
j:画素部301の画素領域内の垂直座標 j=0〜1599
画素領域情報Pは、検出枠の存在する画素領域の位置を示す情報である。
The distance map М is distance data indicating the distance l from the image pickup module unit 20 of the subject imaged in the entire pixel region of the pixel unit 301, and is represented as follows.
М (i, j)
i: Horizontal coordinates in the pixel area of the pixel unit 301 i = 0 to 1919
j: Vertical coordinates in the pixel area of the pixel unit 301 j = 0 to 1599
The pixel area information P is information indicating the position of the pixel area in which the detection frame exists.

尚、本実施例では、上述の通り画素部301の各分割領域を検出枠として設定するだけでなく、所定以上の大きさを有する固定被写体も検出枠として設定する。 In this embodiment, not only each divided region of the pixel unit 301 is set as a detection frame as described above, but also a fixed subject having a size equal to or larger than a predetermined value is set as a detection frame.

画素領域情報Pは、検出枠の存在する画素領域の左上の水平座標x,垂直座標y(画角の左上を(0,0)とした座標として表記)、検出枠の水平サイズh、検出枠の垂直サイズv、識別記号idから構成され下記のように表される。
Pnum(x,y,h,v,id) num:自然数
The pixel area information P includes horizontal coordinates x at the upper left of the pixel area where the detection frame exists, vertical coordinates y (expressed as coordinates with the upper left of the angle of view as (0,0)), horizontal size h of the detection frame, and detection frame. It is composed of the vertical size v and the identification symbol id of, and is represented as follows.
Pnum (x, y, h, v, id) num: Natural number

検出枠番号numは、検出枠として設定された画素部301の各分割領域の位置には、100より小さい自然数を用い、検出枠として設定された固定被写体の位置には、100以上の自然数を用いる。 For the detection frame number num, a natural number smaller than 100 is used for the position of each divided region of the pixel portion 301 set as the detection frame, and a natural number of 100 or more is used for the position of the fixed subject set as the detection frame. ..

識別記号idは、検出枠として設定された固定被写体のサイズが所定値より大きいが、撮像モジュール部20からの距離lが所定以上の範囲に渡っている場合において1つの固定被写体を特定する際に用いられる記号である。すなわち、複数の画素領域情報Pが同一の識別記号idを有する場合、その複数の画素領域情報Pにより検出枠として設定された一つの固定被写体が表記される。 The identification symbol id is used when the size of the fixed subject set as the detection frame is larger than a predetermined value, but one fixed subject is specified when the distance l from the image pickup module 20 is within a predetermined range. It is a symbol used. That is, when a plurality of pixel area information Ps have the same identification symbol id, one fixed subject set as a detection frame by the plurality of pixel area information Ps is described.

例えば、図9Bに示す、画角の左上にある分割領域は、検出枠番号1の検出枠であり、その画素領域情報Pは下記のように表される。
P1(0,0,320,320, )
For example, the divided region at the upper left of the angle of view shown in FIG. 9B is the detection frame of the detection frame number 1, and the pixel area information P thereof is represented as follows.
P1 (0,0,320,320,)

また、図9Cに示す机のような固定被写体は、その撮像領域が所定値以上の大きさを有するため、その撮像領域は検出枠番号104の検出枠として設定され、その画素領域情報Pは下記のように表される。
P104(1000,1000,300,300, )
Further, since the imaging region of a fixed subject such as a desk shown in FIG. 9C has a size equal to or larger than a predetermined value, the imaging region is set as the detection frame of the detection frame number 104, and the pixel region information P is as follows. It is expressed as.
P104 (1000, 1000, 300, 300,)

一方、図9Cに示すドア906は、上記の机と同様、その撮像領域が所定値以上の大きさを有する固定被写体である。しかしながら、ドア906は、撮像モジュール部20からの距離lが所定以上の範囲(遠近の広い範囲)に亘っており、単一の距離マップMで表すことができないため、その撮像領域を1つの検出枠として設定できない。このような場合、距離lが同一であって、ドア906の位置が特定される複数の特徴ポイントを検出枠として設定する。 On the other hand, the door 906 shown in FIG. 9C is a fixed subject whose imaging region has a size equal to or larger than a predetermined value, similar to the desk described above. However, since the distance l from the image pickup module unit 20 of the door 906 extends over a predetermined range (a wide range of perspective) and cannot be represented by a single distance map M, the image pickup region is detected as one. Cannot be set as a frame. In such a case, a plurality of feature points for which the distance l is the same and the position of the door 906 is specified are set as the detection frame.

例えば、距離lが同一であって、ドア906の位置が特定される特徴ポイントはその左右端であるので、ドア906の撮像領域の左端が検出枠番号100の検出枠として設定され、その右端が検出枠番号101の検出枠として設定される。ここで、本実施例においては、ドア906の撮像領域の左上端の、水平座標x、垂直座標yが夫々160画素、680画素であって、その左端の高さが640画素である。また、その右上端は、水平座標x、垂直座標yが夫々320画素、660画素であって、その右端の高さが460画素である。この場合、検出枠番号100,101の夫々の画素領域情報Pは下記のように表される。
P100(160,680,0,640,0) (ドア906の左端)
P101(320,660,0,460,0) (ドア906の右端)
For example, since the feature points where the distance l is the same and the position of the door 906 is specified are the left and right ends thereof, the left end of the imaging region of the door 906 is set as the detection frame of the detection frame number 100, and the right end thereof is set. It is set as the detection frame of the detection frame number 101. Here, in this embodiment, the horizontal coordinate x and the vertical coordinate y at the upper left end of the imaging region of the door 906 are 160 pixels and 680 pixels, respectively, and the height of the left end is 640 pixels. Further, the upper right end thereof has 320 pixels and 660 pixels in the horizontal coordinate x and the vertical coordinate y, respectively, and the height of the right end thereof is 460 pixels. In this case, the pixel area information P of each of the detection frame numbers 100 and 101 is represented as follows.
P100 (160,680,0,640,0) (Left end of door 906)
P101 (320,660,0,460,0) (Right end of door 906)

同様に、図9Cに示す窓907も、その撮像領域の複数の特徴ポイントが夫々検出枠として設定される。具体的には、窓907の撮像領域の左端が検出枠番号102の検出枠として設定され、その右端が出枠番号103の検出枠として設定され。夫々の画素領域情報Pが下記のように表される。
P102(1360,560,0,320,1) (窓907の左端)
P103(1600,520,0,440,1) (窓907の右端)
Similarly, in the window 907 shown in FIG. 9C, a plurality of feature points in the imaging region are set as detection frames, respectively. Specifically, the left end of the imaging region of the window 907 is set as the detection frame of the detection frame number 102, and the right end thereof is set as the detection frame of the output frame number 103. Each pixel area information P is represented as follows.
P102 (1360, 560, 0, 320, 1) (left end of window 907)
P103 (1600,520,0,440,1) (right end of window 907)

注目被写体情報ASは、水平サイズh及び垂直サイズvがいずれも0でない画素領域情報Pで表される検出枠における、人等の注目被写体が過去に検出された回数を元に算出される注目被写体の現れやすさを示す情報である。 The attention subject information AS is a attention subject calculated based on the number of times that a subject of interest such as a person is detected in the past in the detection frame represented by the pixel area information P in which neither the horizontal size h nor the vertical size v is 0. This is information indicating the ease of appearance of.

具体的には、注目被写体情報ASは、検出枠番号num、注目被写体の撮像モジュール部20からの距離lの変化率c、注目被写体の出現率a、注目被写体の消失率d、距離l、重みwから構成され下記のように表される。
AS(num,c,a,d,l,w)
Specifically, the attention subject information AS includes a detection frame number num, a change rate c of a distance l of the attention subject from the imaging module unit 20, an appearance rate a of the attention subject, a disappearance rate d of the attention subject, a distance l, and a weight. It is composed of w and is represented as follows.
AS (num, c, a, d, l, w)

注目被写体の撮像モジュール部20からの距離lの変化率cは、過去から現在までの距離lの値の標準偏差である。 The rate of change c of the distance l from the image pickup module unit 20 of the subject of interest is the standard deviation of the value of the distance l from the past to the present.

注目被写体の出現率aは、過去から現在までに、検出番号numで特定される検出枠において注目被写体(人など)が出現したというイベント(出現イベント)の発生回数を、全画角での注目被写体(人など)の出現イベントの発生回数で割った値である。 The appearance rate a of the attention subject is the number of occurrences of an event (appearance event) in which the attention subject (person, etc.) has appeared in the detection frame specified by the detection number num from the past to the present. It is a value divided by the number of occurrences of the appearance event of the subject (person, etc.).

また、注目被写体の消失率dは、過去から現在までに、検出番号numで特定される検出枠において注目被写体(人など)が消失したというイベント(消失イベント)の発生回数を、全画角での注目被写体(人など)の消失イベントの発生回数で割った値である。 Further, the disappearance rate d of the attention subject is the number of occurrences of an event (disappearance event) in which the attention subject (person, etc.) disappears in the detection frame specified by the detection number num from the past to the present in all angles of view. It is a value divided by the number of occurrences of disappearance events of the subject of interest (people, etc.).

重みwは、検出番号numで特定される検出枠における、変化率c、出現率a、消失率dの和を示す。尚、本実施例では、重みwを変化率c、出現率a、消失率dの和としたが、変化率c、出現率a、消失率dの少なくとも一つを示す値であってもよい。 The weight w indicates the sum of the rate of change c, the rate of appearance a, and the rate of disappearance d in the detection frame specified by the detection number num. In this embodiment, the weight w is the sum of the rate of change c, the rate of appearance a, and the rate of disappearance d, but it may be a value indicating at least one of the rate of change c, the rate of appearance a, and the rate of disappearance d. ..

デジタル加算情報DAは、画素領域情報Pで表される検出枠の画素を加算したデータを生成するために、AD変換部304から出力された加算データをデジタル加算部311でどのように加算すべきかを示す情報である。 How should the digital addition information DA add the addition data output from the AD conversion unit 304 to the digital addition unit 311 in order to generate data obtained by adding the pixels of the detection frame represented by the pixel area information P? This is information indicating.

図1A〜図1Eを用いて、本実施例におけるイベント検知処理を説明する。 The event detection process in this embodiment will be described with reference to FIGS. 1A to 1E.

以下、撮像モジュール部20の画角内にある図9Aに示す固定被写体上に図10Aに示すように人物等の注目被写体が出現した場合のイベント検知処理動作を例として説明する。 Hereinafter, an event detection processing operation when a subject of interest such as a person appears on the fixed subject shown in FIG. 9A within the angle of view of the imaging module unit 20 as shown in FIG. 10A will be described as an example.

図1Aは、本実施例に係るイベント検知処理の概要を示すフローチャートである。本処理は、全体制御演算部212が、メモリ部II216に記憶されるプログラムを読み出し、そのプログラムに基づき撮像素子203を制御することにより実行する。 FIG. 1A is a flowchart showing an outline of the event detection process according to the present embodiment. This process is executed by the overall control calculation unit 212 reading a program stored in the memory unit II 216 and controlling the image sensor 203 based on the program.

ステップS101では、ユーザによりシステム2の不図示の操作部に対する所定の操作が行われ、撮像モジュール部20が起動すると、撮像素子203の初期設定を行う。具体的には、モード制御部308において、モード信号MODEのモードフラグMfを検知モードに設定し、モード信号MODEを、制御回路303、スイッチ310、デジタル加算部311へ送る。スイッチ310は、モード信号МODEのモードフラグMfが検知モードに設定されていることに基づき、AD変換部304からのデータの出力先を端子S1に設定する。 In step S101, when the user performs a predetermined operation on an operation unit (not shown) of the system 2 and the image pickup module unit 20 is activated, the image sensor 203 is initially set. Specifically, the mode control unit 308 sets the mode flag Mf of the mode signal MODE to the detection mode, and sends the mode signal MODE to the control circuit 303, the switch 310, and the digital addition unit 311. The switch 310 sets the output destination of the data from the AD conversion unit 304 to the terminal S1 based on the mode flag Mf of the mode signal МODE being set to the detection mode.

ステップS102では、外部信号処理部21の撮像信号処理回路210にて撮像素子203からのRAWデータから生成された画像データを元に周辺環境情報を作成し、メモリ部II216に格納する。その後、全体制御演算部212にてメモリ部II216に格納された周辺環境情報、すなわち距離マップМ、画素領域情報P、注目被写体情報AS、デジタル加算情報DAを読み出し、撮像素子203内のメモリ部312へ転送し、最新の周辺環境情報を入手する。尚、後述するステップS110を実行した後、再度ステップS102を実行する場合は、既にメモリ部312にメモリ部II216から転送済みの周辺環境情報が保存されている。このような場合は、前回転送された周辺環境情報との差分データのみがメモリ部II216からメモリ部312に転送される。 In step S102, the image pickup signal processing circuit 210 of the external signal processing section 21 creates peripheral environment information based on the image data generated from the RAW data from the image pickup element 203, and stores it in the memory section II216. After that, the overall control calculation unit 212 reads out the surrounding environment information stored in the memory unit II 216, that is, the distance map М, the pixel area information P, the attention subject information AS, and the digital addition information DA, and the memory unit 312 in the image sensor 203. To get the latest information on the surrounding environment. When the step S102 is executed again after executing the step S110 described later, the peripheral environment information already transferred from the memory unit II 216 is stored in the memory unit 312. In such a case, only the difference data from the previously transferred surrounding environment information is transferred from the memory unit II 216 to the memory unit 312.

ステップS103では、撮像素子203を検知モードで駆動する検知モード動作処理を実行する。この検知モード動作処理の詳細は図1Bに示す。 In step S103, the detection mode operation process for driving the image sensor 203 in the detection mode is executed. Details of this detection mode operation process are shown in FIG. 1B.

図1Bにおいて、ステップS103−1では、制御回路303にて垂直走査回路302を検知モードで駆動制御する。そして垂直走査回路302からの駆動パルスに基づき、画素部301にて画素330から得られる信号の垂直加算及びFD加算を行う。さらに制御回路303にてAD変換部304、水平走査回路305を検知モードで駆動制御することにより、画素部301にて、上述の垂直加算及びFD加算された信号がAD変換された後水平加算され、加算画像を生成する。この生成された加算画像はその後デジタル加算部311へ供給される。次に、制御回路303にてデジタル加算部311を検知モードで駆動制御することにより、デジタル加算部311にてその供給された加算画像をさらにデジタル加算し、イベント検出部307へ供給する。 In FIG. 1B, in step S103-1, the control circuit 303 drives and controls the vertical scanning circuit 302 in the detection mode. Then, based on the drive pulse from the vertical scanning circuit 302, the pixel unit 301 performs vertical addition and FD addition of the signal obtained from the pixel 330. Further, by driving and controlling the AD conversion unit 304 and the horizontal scanning circuit 305 in the detection mode by the control circuit 303, the above-mentioned vertical addition and FD addition signals are AD-converted and then horizontally added by the pixel unit 301. , Generate an additional image. The generated added image is then supplied to the digital adding unit 311. Next, the control circuit 303 drives and controls the digital addition unit 311 in the detection mode, so that the added image supplied by the digital addition unit 311 is further digitally added and supplied to the event detection unit 307.

ステップS103−2では、AD変換部304からの加算画像に基づき、イベント検出部307にてフレーム間における所定のイベントの有無を検知する。その後、イベント検出部307からの出力として検出結果DETと輝度積分データEを得て、本処理を終了する。 In step S103-2, the event detection unit 307 detects the presence or absence of a predetermined event between frames based on the added image from the AD conversion unit 304. After that, the detection result DET and the luminance integration data E are obtained as outputs from the event detection unit 307, and this process is terminated.

図1Aに戻り、ステップS104では、検出結果DETが(1,num)である場合、イベント検出部307によりイベント、すなわち注目被写体の動きが検出されたと判断し、ステップS105へ進む。一方、検出結果DETが(0,−)である場合、ステップS103に戻る。以下、図10Bに示す通り、検出枠番号20の分割領域にてイベントが検出された(注目被写体が検出枠番号20の分割領域に映っている)場合、すなわち検出結果DETが(1,20)である場合について説明する。 Returning to FIG. 1A, in step S104, when the detection result DET is (1, num), the event detection unit 307 determines that an event, that is, the movement of the subject of interest has been detected, and proceeds to step S105. On the other hand, if the detection result DET is (0, −), the process returns to step S103. Hereinafter, as shown in FIG. 10B, when an event is detected in the divided area of the detection frame number 20 (the subject of interest is reflected in the divided area of the detection frame number 20), that is, the detection result DET is (1,20). The case where is described will be described.

ステップS105では、メモリ部312からイベントが検出された検出枠の注目被写体情報AS(20,c20,a20,d20,l20,w20)を読み出す。その後、イベントの検出された検出枠である検出枠番号20の分割領域に位置する被写体の、撮像モジュール部20からの距離l20が、注目被写体までの距離ltであると1次推定する。 In step S105, the attention subject information AS (20, c20, a20, d20, l20, w20) of the detection frame in which the event is detected is read from the memory unit 312. After that, the distance l20 from the image pickup module unit 20 of the subject located in the divided region of the detection frame number 20 which is the detection frame in which the event is detected is firstly estimated to be the distance lt to the subject of interest.

ステップS106では、1次推定された距離lt(すなわち、距離l20)に焦点距離が合うようレンズ制御部309からレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズを駆動する。 In step S106, a control signal is sent from the lens control unit 309 to the lens drive unit 202 so that the focal length matches the primary estimated distance lt (that is, the distance l20), and the focus lens of the lens 201 is driven.

ステップS107では、注目被写体の位置(注目被写体までの距離lt)を修正する注目被写体位置修正処理を実行する。この注目被写体位置修正処理の詳細は図1Dに示す。 In step S107, the attention subject position correction process for correcting the position of the attention subject (distance lt to the attention subject) is executed. Details of this attention subject position correction process are shown in FIG. 1D.

図1Dにおいて、ステップS107−1では、イベント検出部307からモード制御部308へ検出結果DETを送ると共に、メモリ部312からイベントが検出された検出枠の画素領域情報P20(x,y,h,v, )をモード制御部308へ送る。モード制御部308では、検出結果DETである(1,20)と画素領域情報P20(x,y,h,v, )が送られてくると、モード信号МОDEのモードフラグMfを切出しモードに設定する。その後、そのモード信号МОDEを制御回路303、スイッチ310、デジタル加算部311へ送る。スイッチ310は、モード信号МODEのモードフラグMfが切出しモードに設定されていることに基づき、AD変換部304からのデータの出力先を端子S2に設定する。 In FIG. 1D, in step S107-1, the event detection unit 307 sends the detection result DET to the mode control unit 308, and the pixel area information P20 (x, y, h, v,) is sent to the mode control unit 308. In the mode control unit 308, when the detection result DET (1,20) and the pixel area information P20 (x, y, h, v,) are sent, the mode flag Mf of the mode signal МОDE is set to the cutout mode. To do. After that, the mode signal МОDE is sent to the control circuit 303, the switch 310, and the digital adder 311. The switch 310 sets the output destination of the data from the AD conversion unit 304 to the terminal S2 based on the mode flag Mf of the mode signal МODE being set to the cutout mode.

次に、制御回路303にて垂直走査回路302及びAD変換部304を切出しモードで駆動制御する。これにより画素330から得られる信号から、画素領域情報P20(x,y,h,v, )に基づき指定された検出枠である、検出枠番号20の検出枠とその周辺の検出枠毎に、画素加算がされていない画像データが生成される。この生成された画像データは、AD変換部304からスイッチ310を経てイベント検出部307へ供給される。 Next, the control circuit 303 drives and controls the vertical scanning circuit 302 and the AD conversion unit 304 in the cutout mode. From the signal obtained from the pixel 330 as a result, for each detection frame of the detection frame number 20, which is a detection frame designated based on the pixel area information P20 (x, y, h, v,), and the detection frames around the detection frame, Image data without pixel addition is generated. The generated image data is supplied from the AD conversion unit 304 to the event detection unit 307 via the switch 310.

ステップS107−2では、ステップS107−1で生成された画像データから注目被写体位置を再推定する注目被写体位置再推定処理を実行する。この注目被写体位置再推定処理の詳細は図11に示す。 In step S107-2, the attention subject position re-estimation process for re-estimating the attention subject position from the image data generated in step S107-1 is executed. The details of this attention subject position re-estimation process are shown in FIG.

図11において、ステップS107−21では、ステップS107−1で生成された画像データにおいて読み出された検出枠番号20の検出枠とその周辺の検出枠から注目被写体の画像を抽出する。 In FIG. 11, in step S107-21, the image of the subject of interest is extracted from the detection frame of the detection frame number 20 read from the image data generated in step S107-1 and the detection frame around the detection frame.

ステップS107−22では、抽出した画像に基づき、注目被写体の足位置が確認できるか否か判定し、確認できる場合はステップS107−26へ、確認できない場合はステップS107−23へ進む。 In step S107-22, it is determined whether or not the foot position of the subject of interest can be confirmed based on the extracted image, and if it can be confirmed, the process proceeds to step S107-26, and if it cannot be confirmed, the process proceeds to step S107-23.

ステップS107−23では、メモリ部312から読み出した検出枠番号20とその周囲の検出枠の注目被写体情報ASから夫々の重みwを読み出す。その後、読み出した重みwの値が閾値wth以上である検出枠を注目被写体の優先出現、消失枠であると判断し、ステップS107−25へ進む。一方、読み出した重みwの値がいずれも閾値wth未満である場合はステップS107−24へ進む。 In step S107-23, the respective weights w are read from the detection frame number 20 read from the memory unit 312 and the attention subject information AS of the detection frames around the detection frame number 20 and the attention subject information AS around the detection frame number 20. After that, the detection frame in which the value of the read weight w is equal to or greater than the threshold value wth is determined to be the priority appearance / disappearance frame of the subject of interest, and the process proceeds to step S107-25. On the other hand, if the values of the read weights w are all less than the threshold value wth, the process proceeds to step S107-24.

ステップS107−24では、検出枠番号20の検出枠の位置に注目被写体がいると推定する。すなわち、検出枠番号20の検出枠に注目被写体が映っていると推定する。そして検出枠番号20の検出枠の注目被写体情報AS(20,c20,a20,d20,l20,w20)に含まれる距離l20を注目被写体までの距離ltと再推定し、本処理を終了する。 In step S107-24, it is estimated that the subject of interest is at the position of the detection frame of the detection frame number 20. That is, it is estimated that the subject of interest is reflected in the detection frame of the detection frame number 20. Then, the distance l20 included in the attention subject information AS (20, c20, a20, d20, l20, w20) of the detection frame of the detection frame number 20 is re-estimated as the distance lt to the attention subject, and this process is terminated.

ステップS107−25では、例えば検出枠番号19の検出枠の重みwが閾値wth以上であり、検出枠番号19の検出枠が注目被写体の優先出現、消失枠であると判断された場合、検出枠番号19の検出枠の位置に注目被写体がいると推定する。すなわち、検出枠番号19の検出枠に注目被写体が映っていると推定する。そして検出枠番号19の検出枠の注目被写体情報AS(19,c19,a19,d19,l19,w19)に含まれる距離l19を注目被写体までの距離ltと再推定し、本処理を終了する。 In step S107-25, for example, when the weight w of the detection frame of the detection frame number 19 is equal to or greater than the threshold value wth and it is determined that the detection frame of the detection frame number 19 is the priority appearance / disappearance frame of the subject of interest, the detection frame It is estimated that the subject of interest is at the position of the detection frame of number 19. That is, it is estimated that the subject of interest is reflected in the detection frame of the detection frame number 19. Then, the distance l19 included in the attention subject information AS (19, c19, a19, d19, l19, w19) of the detection frame of the detection frame number 19 is re-estimated as the distance lt to the attention subject, and this process is terminated.

ステップS107−26では、確認された注目被写体の足位置から注目被写体までの距離ltを再推定する。具体的にはまず、確認された注目被写体の足位置の座標を算出する。以下、その座標が(480、1280)と算出された場合について説明する。このとき、メモリ部312から距離マップМを読み出して、足位置のy座標の値に対応する床904の距離を探し出し、その値を注目被写体までの距離ltとし、本処理を終了する。 In steps S107-26, the distance lt from the confirmed foot position of the subject of interest to the subject of interest is re-estimated. Specifically, first, the coordinates of the foot position of the confirmed subject of interest are calculated. Hereinafter, the case where the coordinates are calculated as (480, 1280) will be described. At this time, the distance map М is read from the memory unit 312, the distance of the floor 904 corresponding to the value of the y coordinate of the foot position is searched for, the value is set as the distance lt to the subject of interest, and this process is terminated.

尚、ステップS107−26では、距離マップМの中から対応する注目被写体までの距離ltを探し出したが、足位置が推測できる位置情報を画素領域情報Pから探しだしても良い。例えば、ドア906の特徴ポイントの一つであるその左端を示す画素領域情報P100(160,680,0,640,0)により、ドア906の左端はその上端の座標が(160,680)であって、その下端の座標が(160,1280)であることがわかる。この場合、ドア906の左下端(160,1280)のy座標が注目被写体の足位置が(480,1280)に一致することから、注目被写体までの距離lt’がドア906の左端までの距離l100と一致すると推測してもよい。 In step S107-26, the distance lt to the corresponding subject of interest is searched from the distance map М, but the position information from which the foot position can be estimated may be searched from the pixel area information P. For example, according to the pixel area information P100 (160,680,0,640,0) indicating the left end, which is one of the feature points of the door 906, the coordinates of the upper end of the left end of the door 906 are (160,680). It can be seen that the coordinates of the lower end are (160,1280). In this case, since the y coordinate of the lower left end (160, 1280) of the door 906 coincides with the foot position of the subject of interest (480, 1280), the distance lt'to the subject of interest is the distance l100 to the left end of the door 906. You may infer that it matches.

図1Dに戻り、ステップS107−3では、ステップS105で一次推定された注目被写体までの距離l20からステップS107−2の注目被写体位置再推定処理で再推定された距離ltに目標フォーカス位置を修正する。その後、その修正後の距離ltに焦点距離が合うようレンズ制御部309からレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズを駆動し、本処理を終了する。 Returning to FIG. 1D, in step S107-3, the target focus position is corrected from the distance l20 to the attention subject first estimated in step S105 to the distance lt re-estimated by the attention subject position re-estimation process in step S107-2. .. After that, a control signal is sent from the lens control unit 309 to the lens drive unit 202 so that the focal length matches the corrected distance lt, the focus lens of the lens 201 is driven, and this process is completed.

図1Aに戻り、ステップS108では、被写体変化がないループ回数Taをリセットし、Ta=0とする。 Returning to FIG. 1A, in step S108, the number of loops Ta for which there is no change in the subject is reset, and Ta = 0.

ステップS109では、撮像素子203を撮像モードで動作させる撮像モード動作処理を実行する。この撮像モード動作処理の詳細は図1Cに示す。 In step S109, an image pickup mode operation process for operating the image pickup element 203 in the image pickup mode is executed. Details of this imaging mode operation process are shown in FIG. 1C.

図1Cにおいて、ステップS109−1では、撮影により高精細画像データを生成する。具体的には、まず、モード制御部308において、モード信号MODEのモードフラグMfを撮像モードに設定し、モード制御部308からモード信号МОDEを制御回路303、スイッチ310、デジタル加算部311へ送る。スイッチ310は、モード信号МODEが撮像モードに設定されていることに基づき、AD変換部304からのデータの出力先を端子S3に設定する。次に、制御回路303にて、垂直走査回路302及びAD変換部304を撮像モードで駆動制御する。これにより画素330から得られる信号から、画素部301の全域が加算されない高精細画像データが生成される。この生成された高精細画像データは、AD変換部304からスイッチ310を経て撮像信号処理回路210へ供給される。撮像信号処理回路210では供給された高精細画像データから注目被写体を検出する。注目被写体が検出できた場合には注目被写体の出現率a、注目被写体の消失率dを算出する。 In FIG. 1C, in step S109-1, high-definition image data is generated by photographing. Specifically, first, the mode control unit 308 sets the mode flag Mf of the mode signal MODE to the imaging mode, and the mode control unit 308 sends the mode signal МОDE to the control circuit 303, the switch 310, and the digital addition unit 311. The switch 310 sets the output destination of the data from the AD conversion unit 304 to the terminal S3 based on the mode signal МODE being set to the imaging mode. Next, the control circuit 303 drives and controls the vertical scanning circuit 302 and the AD conversion unit 304 in the imaging mode. As a result, high-definition image data in which the entire area of the pixel unit 301 is not added is generated from the signal obtained from the pixel 330. The generated high-definition image data is supplied from the AD conversion unit 304 to the image pickup signal processing circuit 210 via the switch 310. The image pickup signal processing circuit 210 detects the subject of interest from the supplied high-definition image data. When the subject of interest can be detected, the appearance rate a of the subject of interest and the disappearance rate d of the subject of interest are calculated.

ステップS109−2では、撮像信号処理回路210において得られた高精細画像データ(撮像画像)と前のフレームの処理の際に得られた高精細画像データを比較する。この比較の結果、フレーム間でデータに差分(変化)があれば、ステップS109−3へ、なければステップS109−6へ進む。 In step S109-2, the high-definition image data (captured image) obtained in the image pickup signal processing circuit 210 is compared with the high-definition image data obtained in the processing of the previous frame. As a result of this comparison, if there is a difference (change) in the data between frames, the process proceeds to step S109-3, and if not, the process proceeds to step S109-6.

ステップS109−3では、コントラストAF動作を行う。具体的には、全体制御演算部212からレンズ駆動部202に指令を出してレンズ201のフォーカス位置を動かしながら、ステップS109−1と同様の方法で高精細画像データを複数生成し、撮像信号処理回路210へ出力する。撮像信号処理回路210は、出力された複数の高精細画像データを元に注目被写体の合焦位置を推定する。そして、その推定された合焦位置にフォーカス位置が合うよう全体制御演算部212からレンズ制御部309を介してレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズを駆動させる。 In step S109-3, the contrast AF operation is performed. Specifically, the overall control calculation unit 212 issues a command to the lens drive unit 202 to move the focus position of the lens 201, generate a plurality of high-definition image data in the same manner as in step S109-1, and process the imaging signal. Output to circuit 210. The image pickup signal processing circuit 210 estimates the focusing position of the subject of interest based on the plurality of output high-definition image data. Then, a control signal is sent from the overall control calculation unit 212 to the lens drive unit 202 via the lens control unit 309 so that the focus position is aligned with the estimated focusing position, and the focus lens of the lens 201 is driven.

ステップS109−4では、ステップS109−3で得られた複数の高精細画像データを元に周辺環境情報を作成・更新する周辺環境情報作成・更新処理を実行する。この周辺環境情報作成・更新処理の詳細を図1Eに示す。 In step S109-4, the peripheral environment information creation / update process for creating / updating the peripheral environment information is executed based on the plurality of high-definition image data obtained in step S109-3. The details of the surrounding environment information creation / update process are shown in FIG. 1E.

図1Eにおいて、ステップS109−41では、ステップS109−3で得られた複数の高精細画像データを撮像信号処理回路210で処理し、距離マップМを作成する。そして作成した距離マップМをメモリ部II216へ格納する。 In FIG. 1E, in steps S109-41, the plurality of high-definition image data obtained in step S109-3 are processed by the imaging signal processing circuit 210 to create a distance map М. Then, the created distance map М is stored in the memory unit II216.

ステップS109−43では、周辺画像情報を更新する。具体的には、全体制御演算部212にてメモリ部II216から距離マップМを読み出し、画素領域情報P及び距離lを更新すると共に、更新前後の距離lの差分を、距離lの変化率cとして更新する。また、ステップS109−1で得られた高精細画像データから注目被写体が検出できている場合は、注目被写体が検出された検出枠における注目被写体の出現率a及び消失率dと、更新された変化率cの和を、重みwとして更新する。さらに、更新された画素領域情報Pを元にデジタル加算情報DAを更新する。かかる一連の処理により、周辺環境情報を構成する、距離マップМ、画素領域情報P、注目被写体情報AS、デジタル加算情報DAが作成、更新され、検出枠毎に距離l、出現率a、消失率d、変化率cが紐付けられると、本処理を終了する。 In steps S109-43, the peripheral image information is updated. Specifically, the overall control calculation unit 212 reads the distance map М from the memory unit II 216, updates the pixel area information P and the distance l, and sets the difference of the distance l before and after the update as the rate of change c of the distance l. Update. Further, when the attention subject can be detected from the high-definition image data obtained in step S109-1, the appearance rate a and the disappearance rate d of the attention subject in the detection frame in which the attention subject is detected are updated. The sum of the rates c is updated as the weight w. Further, the digital addition information DA is updated based on the updated pixel area information P. By this series of processing, the distance map М, the pixel area information P, the attention subject information AS, and the digital addition information DA, which constitute the surrounding environment information, are created and updated, and the distance l, the appearance rate a, and the disappearance rate are created for each detection frame. When d and the rate of change c are linked, this process ends.

図1Cに戻り、ステップS109−5ではTa=0とし、本処理を終了する。 Returning to FIG. 1C, in step S109-5, Ta = 0 is set, and this process is terminated.

一方、ステップS109−6ではTa=Ta+1とし、本処理を終了する。 On the other hand, in step S109-6, Ta = Ta + 1 is set, and this process is terminated.

図1Aに戻り、ステップS110では、Ta≧Tthとなった場合にステップS102へ進む。そうでなければステップS109へ戻り、周辺環境情報を更新した後、検知モードに再度移行し、ステップS103の検知モード動作処理を実行する。 Returning to FIG. 1A, in step S110, when Ta ≧ Tth, the process proceeds to step S102. If not, the process returns to step S109, updates the surrounding environment information, shifts to the detection mode again, and executes the detection mode operation process in step S103.

以上、実施例1では、イベント検知機能を有するシステム2において、画素部301の画素領域に設定した複数の検出枠毎に重みw、距離lを紐付ける。その後、検知モードにおいて注目被写体の映っていると検出された検出枠に紐付けられた距離lにまずフォーカス位置を合せる。その後、重みwに基づき注目被写体の優先出現、消失枠であると判断された検出枠の距離lにフォーカス位置を修正するため、注目被写体の検知と同時に精度よくAF処理を行なうことが可能になる。 As described above, in the first embodiment, in the system 2 having the event detection function, the weight w and the distance l are associated with each of the plurality of detection frames set in the pixel area of the pixel unit 301. After that, the focus position is first adjusted to the distance l associated with the detection frame detected that the subject of interest is reflected in the detection mode. After that, since the focus position is corrected to the distance l of the detection frame determined to be the priority appearance / disappearance frame of the attention subject based on the weight w, the AF processing can be performed accurately at the same time as the detection of the attention subject. ..

しかしながら、上記方法では各検出枠に紐付けられた距離lにフォーカス位置を合せるため、誤ったAF処理がなされる場合がある。 However, in the above method, since the focus position is adjusted to the distance l associated with each detection frame, erroneous AF processing may be performed.

例えば、図9Bにおいて、図15(a)に示すように、注目被写体が天井902からぶら下がった状態で最も近景領域に位置する一方、その注目被写体は検出枠番号15の検出枠に映っている場合を考える。この場合、実施例1では、ステップS105の一次推定の結果、検出枠番号15の検出枠に紐付けられた遠景領域を示す距離lに焦点距離が合ってしまう。また、ステップS107−22で注目被写体の足位置が確認できたとしても、この例の場合、注目被写体は足を床904につけていないためその足位置に基づき正しくフォーカス位置を修正できない。 For example, in FIG. 9B, as shown in FIG. 15A, the subject of interest is located in the closest view region in a state of hanging from the ceiling 902, while the subject of interest is reflected in the detection frame of detection frame number 15. think of. In this case, in the first embodiment, as a result of the primary estimation in step S105, the focal length matches the distance l indicating the distant view region associated with the detection frame of the detection frame number 15. Further, even if the foot position of the subject of interest can be confirmed in step S107-22, in the case of this example, since the subject of interest does not have his / her foot on the floor 904, the focus position cannot be corrected correctly based on the foot position.

そこで、上述の図15(a)に示す注目被写体が検知された場合にも精度よくAF処理を行なうことができる方法を、以下の実施例2において説明する。 Therefore, a method capable of performing AF processing with high accuracy even when the subject of interest shown in FIG. 15A is detected will be described in the second embodiment below.

[実施例2]
以下、本実施例について、以下、図1A〜図1C、図1E、図2〜図7、図8(a)、図9A、図9C、図12〜図16を用い説明する。
[Example 2]
Hereinafter, this embodiment will be described with reference to FIGS. 1A to 1C, 1E, 2 to 7, 8 (a), 9A, 9C, and 12 to 16.

なお、本実施例では、実施例1における分割領域は画素部301の画素領域を均等に分割した領域だったのに対して、被写体距離に応じて各分割領域の面積が設定される点で異なる。すなわち、図2〜図7に示すシステム2のハードウェア構成については実施例1と同様であるため、同一の構成には同一の符号を付し、重複した説明を省略する。 In this embodiment, the divided area in the first embodiment is an area in which the pixel area of the pixel unit 301 is evenly divided, whereas the divided area is set according to the subject distance. .. That is, since the hardware configuration of the system 2 shown in FIGS. 2 to 7 is the same as that of the first embodiment, the same configuration is designated by the same reference numerals, and duplicate description will be omitted.

まず、本実施例における検出枠の設定例を、図8(a)、図13A〜13Cを用いて説明する。 First, an example of setting the detection frame in this embodiment will be described with reference to FIGS. 8A and 13A to 13C.

本実施例においても検知モードにおいては図3のAD変換部304から図8(a)に示す加算データが出力され、切り替えスイッチ310を介してデジタル加算部311へ入力される。 Also in this embodiment, in the detection mode, the addition data shown in FIG. 8A is output from the AD conversion unit 304 of FIG. 3 and input to the digital addition unit 311 via the changeover switch 310.

しかし本実施例においては、デジタル加算部311にて、その入力された加算データは、画素部301の画素領域における図13Bに示す大きさの異なる分割領域に対応するデジタル加算が行われ、出力される。 However, in this embodiment, the digital addition unit 311 performs digital addition corresponding to the division regions of different sizes shown in FIG. 13B in the pixel region of the pixel unit 301, and outputs the input addition data. To.

図13Bにおける各分割領域のデジタル加算数を図13Aに示す。 The digital addition number of each division region in FIG. 13B is shown in FIG. 13A.

図13Bにおける分割領域のうち、右斜めストライプ領域(右上から左下にかけての縞模様に塗られた領域)では、デジタル加算部311にて加算データがさらに水平方向に20画素のデジタル加算がされて出力される。最終的に160画素×160画素の画素から構成される検出枠内(右斜めストライプ領域)の画素が加算されて1出力値となり、この出力値のフレーム毎の差異が閾値以上である場合にイベントとして検出される。このサイズの検出枠を以下1倍枠という。 Of the divided areas in FIG. 13B, in the right diagonal stripe area (the area painted in the striped pattern from the upper right to the lower left), the addition data is further digitally added by 20 pixels in the horizontal direction and output by the digital addition unit 311. Will be done. Finally, the pixels in the detection frame (right diagonal stripe area) composed of 160 pixels x 160 pixels are added to obtain one output value, and an event occurs when the difference between frames of this output value is equal to or greater than the threshold value. Is detected as. A detection frame of this size is hereinafter referred to as a 1x frame.

図13Bにおける分割領域のうち、縦ストライプ領域(上から下にかけての縞模様に塗られた領域)では、デジタル加算部311にて加算データがさらに垂直方向に2画素、水平方向に40画素のデジタル加算がされて出力される。最終的に320画素×320画素の画素から構成される検出枠内(縦ストライプ領域)の画素が加算されて1出力値となり、この出力値のフレーム毎の差異が閾値以上である場合にイベントとして検出される。このサイズの検出枠を以下2倍枠という。 Of the divided regions in FIG. 13B, in the vertical stripe region (the region painted in a striped pattern from top to bottom), the digital addition unit 311 further digitally adds 2 pixels in the vertical direction and 40 pixels in the horizontal direction. It is added and output. Finally, the pixels in the detection frame (vertical stripe area) composed of 320 pixels × 320 pixels are added to obtain one output value, and when the difference between the frames of this output value is equal to or greater than the threshold value, it is an event. Detected. A detection frame of this size is hereinafter referred to as a double frame.

図13Bにおける分割領域のうち、左斜めストライプ領域(左上から右下にかけての縞模様に塗られた領域)では、デジタル加算部311にて加算データがさらに垂直方向に3画素、水平方向に60画素のデジタル加算がされて出力される。最終的に480画素×480画素の画素から構成される検出枠内(左斜めストライプ領域)の画素が加算されて1出力値となり、この出力値のフレーム毎の差異が閾値以上である場合にイベントとして検出される。このサイズの検出枠を以下3倍枠という。 Of the divided areas in FIG. 13B, in the left diagonal stripe area (the area painted in the striped pattern from the upper left to the lower right), the digital addition unit 311 further adds 3 pixels in the vertical direction and 60 pixels in the horizontal direction. Is digitally added and output. Finally, the pixels in the detection frame (left diagonal stripe area) composed of 480 pixels × 480 pixels are added to obtain one output value, and an event occurs when the difference between the frames of this output value is equal to or greater than the threshold value. Is detected as. A detection frame of this size is hereinafter referred to as a triple frame.

また、周辺環境情報は、実施例1と同様に、距離マップМ、画素領域情報P、注目被写体情報AS、及びデジタル加算情報DAから構成され、複数枚の高精細画像データを元に撮像信号処理回路210、全体制御演算部212にて作成、更新される。また、実施例1と同様、この作成・更新された周辺環境情報は、撮像素子203内のメモリ部312へ送られる。 Further, the surrounding environment information is composed of the distance map М, the pixel area information P, the attention subject information AS, and the digital addition information DA as in the first embodiment, and the imaging signal processing is performed based on a plurality of high-definition image data. It is created and updated by the circuit 210 and the overall control calculation unit 212. Further, as in the first embodiment, the created / updated surrounding environment information is sent to the memory unit 312 in the image sensor 203.

以上のような構成において、実施例1と同様に図9Aと同様な被写体の環境で、本実施例のイベント検知処理を実行する場合について以下説明する。 In the above configuration, a case where the event detection process of this embodiment is executed in the same subject environment as in FIG. 9A as in the first embodiment will be described below.

この時、図13Bのように画素部301の画素領域を36に分割した場合の各分割領域の検出枠番号numの割り振りを図13C示す。図9Bと同様に点線が各分割領域の境界線を示す。また、各分割領域の左上に記載された1〜36の番号が各分割領域の検出枠番号numを示す。 At this time, FIG. 13C shows the allocation of the detection frame number num of each divided area when the pixel area of the pixel unit 301 is divided into 36 as shown in FIG. 13B. Similar to FIG. 9B, the dotted line indicates the boundary line of each divided region. Further, the numbers 1 to 36 described in the upper left of each divided area indicate the detection frame number num of each divided area.

固定被写体については図9Cと同様、下記のものが画素領域情報Pとして記録される。
P100(160,680,0,640,0) (ドア906の左端)
P101(320,660,0,460,0) (ドア906の右端)
P102(1360,560,0,320,1) (窓907の左端)
P103(1600,520,0,440,1) (窓907の右端)
P104(1000,1000,300,300, ) (机104)
As for the fixed subject, the following is recorded as the pixel area information P as in FIG. 9C.
P100 (160,680,0,640,0) (Left end of door 906)
P101 (320,660,0,460,0) (Right end of door 906)
P102 (1360, 560, 0, 320, 1) (left end of window 907)
P103 (1600,520,0,440,1) (right end of window 907)
P104 (1000, 1000, 300, 300,) (Desk 104)

図1A〜図1C、図1Eと図12を用いて、本実施例におけるイベント検知処理を説明する。 The event detection process in this embodiment will be described with reference to FIGS. 1A to 1C, FIGS. 1E and 12.

以下、図9Aに示す固定被写体上に、図15(a)に示すように、天井からひもでぶら下がり且つ画面の近景付近にいる人物等の注目被写体が撮像モジュール部20の画角内に出現した場合のイベント検知処理動作を例として説明する。 Hereinafter, on the fixed subject shown in FIG. 9A, as shown in FIG. 15A, a subject of interest such as a person hanging from the ceiling with a string and near a near view of the screen appears within the angle of view of the imaging module unit 20. The event detection processing operation in the case will be described as an example.

本実施例でのイベント検知処理のうち、図1A〜図1C、図1Eに示す処理は、実施例1のイベント検知処理と同様である。ただし、本実施例では、図1Dの注目被写体位置修正処理の代わりに、図12Aの注目被写体位置修正処理が実行される。以下で順次説明する。 Among the event detection processes in the present embodiment, the processes shown in FIGS. 1A to 1C and 1E are the same as the event detection processes in the first embodiment. However, in this embodiment, the attention subject position correction process of FIG. 12A is executed instead of the attention subject position correction process of FIG. 1D. This will be described in sequence below.

ステップS101からステップS103の動作は実施例1と同様であるため説明を省略する。 Since the operations of steps S101 to S103 are the same as those of the first embodiment, the description thereof will be omitted.

ステップS104では、検出結果DETが(1,num)である場合、イベント検出部307によりイベント、すなわち注目被写体の動きが検出されたと判断し、ステップS105へ進む。一方、検出結果DETが(0,−)である場合、ステップS103に戻る。以下、図15(b)に示す通り、検出枠番号18,19,25,26の各分割領域にてイベントが検出された場合、すなわち検出結果DETが(1,18)、(1,19)、(1,25)、(1,26)である場合について説明する。 In step S104, when the detection result DET is (1, num), the event detection unit 307 determines that an event, that is, the movement of the subject of interest has been detected, and proceeds to step S105. On the other hand, if the detection result DET is (0, −), the process returns to step S103. Hereinafter, as shown in FIG. 15B, when an event is detected in each of the detection frame numbers 18, 19, 25, and 26, that is, the detection result DETs are (1,18) and (1,19). , (1,25), (1,26) will be described.

ステップS105では、メモリ部312からイベントが検出された検出枠番号18,19,25,26の検出枠の注目被写体情報AS(num,cnum,anum,dnum,lnum,wnum)を読み出す。 In step S105, the attention subject information AS (num, cnum, anum, dnum, lnum, wnum) of the detection frame of the detection frame numbers 18, 19, 25, 26 in which the event is detected is read from the memory unit 312.

次に、イベントの検出された検出枠番号18,19,25,26の検出枠に位置する被写体の、撮像モジュール部20からの距離l18,l19,l25,l26の平均が注目被写体までの距離ltであると1次推定する。 Next, the average of the distances l18, l19, l25, l26 from the image pickup module 20 of the subject located in the detection frame of the detection frame numbers 18, 19, 25, 26 where the event is detected is the distance lt to the subject of interest. It is first-order estimated to be.

ステップS106では、距離l18,l19,l25,l26の平均値を注目被写体までの距離ltとして1次推定する。その後、その1次推定された注目被写体までの距離ltに焦点距離が合うようレンズ制御部309からレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズのフォーカス位置を移動させる。 In step S106, the average value of the distances l18, l19, l25, and l26 is first-order estimated as the distance lt to the subject of interest. After that, a control signal is sent from the lens control unit 309 to the lens drive unit 202 so that the focal length matches the primary estimated distance lt to the subject of interest, and the focus position of the focus lens of the lens 201 is moved.

ステップS107では、注目被写体の位置を修正する注目被写体位置修正処理を実行する。この注目被写体位置修正処理の詳細は図12Aに示す。 In step S107, the attention subject position correction process for correcting the position of the attention subject is executed. Details of this attention subject position correction process are shown in FIG. 12A.

図12Aにおいて、ステップS107−4では、ステップS104でイベント(注目被写体)が検出された複数の検出枠(本実施例では、検出枠番号18,19,25,26の検出枠)が隣接しているか否かを判定する。具体的には、イベント検出部307にて検出枠番号18,19,25,26の検出枠に該当する画素領域情報Pを読み出し、夫々の領域が隣接するか否かを判定する。 In FIG. 12A, in step S107-4, a plurality of detection frames (detection frames of detection frame numbers 18, 19, 25, 26 in this embodiment) in which an event (object of interest) was detected in step S104 are adjacent to each other. Judge whether or not. Specifically, the event detection unit 307 reads out the pixel area information P corresponding to the detection frames of the detection frame numbers 18, 19, 25, and 26, and determines whether or not the respective areas are adjacent to each other.

次に、隣接している場合は、ステップS107−5に進み、ステップS105で一次推定された注目被写体までの距離l20から、その隣接方法に応じて注目被写体までの距離ltに目標フォーカス位置を修正する。 Next, if they are adjacent to each other, the process proceeds to step S107-5, and the target focus position is corrected from the distance l20 to the subject of interest first estimated in step S105 to the distance lt to the subject of interest according to the adjacent method. To do.

図14は、図12AのステップS107−5における隣接する検出枠に対する注目被写体までの距離ltの再推定方法を示す図である。 FIG. 14 is a diagram showing a method of re-estimating the distance lt to the subject of interest with respect to the adjacent detection frame in step S107-5 of FIG. 12A.

図14(a)のように1倍枠が隣接することで縦、横、斜め方向のいずれかが2倍枠と同等のサイズになっている場合には2倍枠に紐付けられた撮像モジュール部20からの距離lt’を注目被写体までの距離ltに再推定する。 As shown in FIG. 14A, when the 1x frames are adjacent to each other and the size is the same as the 2x frame in any of the vertical, horizontal, and diagonal directions, the imaging module linked to the 2x frame. The distance lt'from the unit 20 is re-estimated as the distance lt to the subject of interest.

図14(b)のように1倍枠が隣接することで縦、横、斜め方向のいずれかが3倍枠と同等のサイズになっている場合には3倍枠に紐付けられた撮像モジュール部20からの距離lt’を注目被写体までの距離ltに再推定する。 As shown in FIG. 14B, when the 1x frames are adjacent to each other and the size is the same as the 3x frame in any of the vertical, horizontal, and diagonal directions, the imaging module linked to the 3x frame. The distance lt'from the unit 20 is re-estimated as the distance lt to the subject of interest.

図14(c)のように1倍枠と2倍枠が隣接することで縦、横、斜め方向のいずれかが3倍枠と同等のサイズになっている場合には3倍枠に紐付けられた撮像モジュール部20からの距離lt’を注目被写体までの距離ltに再推定する。 If the 1x frame and the 2x frame are adjacent to each other as shown in FIG. 14C and the vertical, horizontal, or diagonal directions are the same size as the 3x frame, they are linked to the 3x frame. The distance lt'from the image pickup module unit 20 is re-estimated as the distance lt to the subject of interest.

本実施例のように検出枠番号18,19,25,26の4つの隣接する1倍枠の検出枠でイベントが検出された場合、縦、横、斜め方向のいずれにおいても2倍枠と同等のサイズになっている。このため、2倍枠に紐付けられた撮像モジュール部20からの距離lt’を注目被写体までの距離ltに再推定する。 When an event is detected in the four adjacent 1x frame detection frames of detection frame numbers 18, 19, 25, and 26 as in this embodiment, it is equivalent to the double frame in any of the vertical, horizontal, and diagonal directions. It is the size of. Therefore, the distance lt'from the image pickup module unit 20 associated with the double frame is re-estimated as the distance lt to the subject of interest.

ステップS107−5では、ステップS107−4で再推定された距離lt’にステップS105で一次推定された注目被写体までの距離ltを修正する。その後、修正後の距離ltに焦点距離が合うようレンズ制御部309からレンズ駆動部202へ制御信号を送り、レンズ201のフォーカスレンズのフォーカス位置を移動させ、本処理を終了する。 In step S107-5, the distance lt'to the subject of interest first-estimated in step S105 is corrected to the distance lt're-estimated in step S107-4. After that, a control signal is sent from the lens control unit 309 to the lens drive unit 202 so that the focal length matches the corrected distance lt, the focus position of the focus lens of the lens 201 is moved, and this process is completed.

図1Aに戻り、ステップS108では、被写体変化がないループ回数Taをリセットし、Ta=0とする。 Returning to FIG. 1A, in step S108, the number of loops Ta for which there is no change in the subject is reset, and Ta = 0.

ステップS109では、撮像素子203を撮像モードで動作させる撮像モード動作処理(図1C)を実行する。 In step S109, an image pickup mode operation process (FIG. 1C) for operating the image pickup element 203 in the image pickup mode is executed.

図1Cにおいて、ステップS109−1〜ステップS109−3の動作は実施例1と同様であるため説明を省略する。 In FIG. 1C, the operation of steps S109-1 to S109-3 is the same as that of the first embodiment, and thus the description thereof will be omitted.

ステップS109−4では、ステップS109−3で得られた複数の高精細画像データを元に周辺環境情報を作成・更新する周辺環境情報作成・更新処理を実行する。この周辺環境情報作成・更新処理の詳細を図12Bに示す。 In step S109-4, the peripheral environment information creation / update process for creating / updating the peripheral environment information is executed based on the plurality of high-definition image data obtained in step S109-3. The details of the surrounding environment information creation / update process are shown in FIG. 12B.

図12Bにおいて、まず、ステップS109−41で距離マップМを作成する。この動作は実施例1の図1EのステップS109−41の動作と同様である。 In FIG. 12B, first, the distance map М is created in step S109-41. This operation is the same as the operation of step S109-41 of FIG. 1E of the first embodiment.

ステップS109−42では、ステップS109−41で作成された距離マップМを元に検出枠の領域設定を更新する。 In step S109-42, the area setting of the detection frame is updated based on the distance map М created in step S109-41.

本実施例の図12EのステップS109−42で実行される、検出枠の領域設定の更新方法を、図16を用いて説明する。 A method of updating the area setting of the detection frame, which is executed in step S109-42 of FIG. 12E of this embodiment, will be described with reference to FIG.

まず、ステップS109−41にて作成された距離マップМをメモリ部II216から読み出す。 First, the distance map М created in step S109-41 is read from the memory unit II216.

そして、図16(a)に示すように画素部301の画素領域全域を1倍枠のサイズの検出枠で分割する。本実施例の場合は水平12枠、垂直10枠の合計120の枠に分割される。そして夫々の検出枠の撮像モジュール部20からの距離の平均値を、その領域の撮像モジュール部20からの距離lk(k=0〜119)として割当てる。 Then, as shown in FIG. 16A, the entire pixel region of the pixel unit 301 is divided by a detection frame having a size of a 1x frame. In the case of this embodiment, it is divided into a total of 120 frames, 12 horizontal frames and 10 vertical frames. Then, the average value of the distances from the image pickup module 20 of each detection frame is assigned as the distance lk (k = 0 to 119) from the image pickup module 20 in that region.

上記で割当てた距離lkを元に各検出枠を3つの領域のいずれかに分類する。3つの領域とは撮像モジュール部20からの距離が最も遠い領域(遠景)と、撮像モジュール部20からの距離が近い領域(近景)と、撮像モジュール部20からの距離が遠景と近景の中間くらいの距離(中景)である。遠景、中景、近景を、撮像モジュール部20からの距離が下記の範囲の領域と定義する。
遠景:lf1≦lk
中景:lm1≦lk<lm2
近景:0≦lk<ln2
(ln2、lm1、lm2、lf1はいずれも0以上。かつlm1=ln2、lf1=lm2)
Based on the distance lk assigned above, each detection frame is classified into one of the three regions. The three areas are the area farthest from the image pickup module 20 (distant view), the area close to the image pickup module 20 (near view), and the distance from the image pickup module 20 between the distant view and the near view. Distance (middle view). A distant view, a middle view, and a near view are defined as regions in which the distance from the image pickup module unit 20 is in the following range.
Distant view: lf1 ≤ lk
Middle view: lm1 ≤ lk <lm2
Foreground: 0 ≤ lk <ln2
(Ln2, lm1, lm2, lf1 are all 0 or more, and lm1 = ln2, lf1 = lm2)

上記処理により、画素部301の画素領域全域を分割する120個の検出枠が、図16(b)のように分類される。 By the above processing, 120 detection frames that divide the entire pixel region of the pixel unit 301 are classified as shown in FIG. 16B.

図16(b)において、Iが付された検出枠は撮像モジュール部20からの距離lkが遠景の範囲にある検出枠であり、IIが付された検出枠は、撮像モジュール部20からの距離lkが中景の範囲にある検出枠である。また、IIIが付された検出枠は、撮像モジュール部20からの距離lkが近景の範囲にある検出枠である。 In FIG. 16B, the detection frame with I is the detection frame in which the distance lk from the image pickup module 20 is in the range of the distant view, and the detection frame with II is the distance from the image pickup module 20. lk is a detection frame in the range of the middle view. Further, the detection frame with III is a detection frame in which the distance lk from the image pickup module unit 20 is in the near view range.

図16(b)のように画素部301の画素領域全域を分割する120個の検出枠が全て分類された後、中景に分類された検出枠を用いて2倍枠の検出枠を設定する。その際、一部遠景に分類された検出枠を含んでも良い。 After all 120 detection frames that divide the entire pixel area of the pixel unit 301 are classified as shown in FIG. 16B, a double frame detection frame is set using the detection frame classified in the middle view. .. At that time, a detection frame classified into a part of the distant view may be included.

さらに、近景に分類された検出枠を用いて3倍枠の検出枠を設定する。その際、一部中景に分類された検出枠を含んでも良い。 Further, the detection frame of the triple frame is set by using the detection frame classified into the near view. At that time, a detection frame classified into a part of the middle view may be included.

上記処理により、図13Bのように検出領域が設定される。 By the above processing, the detection area is set as shown in FIG. 13B.

このとき遠景に割り振られる撮像モジュール部20からの距離は、Iと付された検出枠の撮像モジュール部20からの距離の平均値である。中景に割り振られる撮像モジュール部20からの距離は、IIと付された検出枠の撮像モジュール部20からの距離の平均値である。また、近景に割り振られる撮像モジュール部20からの距離は、IIIと付された検出枠の撮像モジュール部20からの距離の平均値である。 At this time, the distance from the image pickup module unit 20 assigned to the distant view is the average value of the distances from the image pickup module unit 20 of the detection frame designated as I. The distance from the image pickup module 20 assigned to the middle view is the average value of the distances from the image pickup module 20 of the detection frame labeled II. The distance from the image pickup module 20 assigned to the near view is the average value of the distances from the image pickup module 20 of the detection frame labeled III.

図12Bに戻り、その後、ステップS109−43で周辺画像情報を更新する。この動作は実施例1の図1EのステップS109−41の動作と同様である。その後、本処理を終了する。 Returning to FIG. 12B, the peripheral image information is updated in steps S109-43. This operation is the same as the operation of step S109-41 of FIG. 1E of the first embodiment. After that, this process ends.

その後図1Cに戻り、実施例1と同様に、ステップS109−5,S109−6の動作を行った後、図1AのステップS110の動作を実行する。 After that, the process returns to FIG. 1C, the operations of steps S109-5 and S109-6 are performed in the same manner as in the first embodiment, and then the operation of step S110 of FIG. 1A is executed.

なお、本実施例では撮像モジュール部20からの距離に応じて図13Bのように検出領域の面積を設定したが、この面積は注目被写体の遠景、近景において画角上に映し出されるサイズを考慮して設定する。 In this embodiment, the area of the detection area is set as shown in FIG. 13B according to the distance from the image pickup module unit 20, but this area takes into consideration the size projected on the angle of view in the distant view and the near view of the subject of interest. And set.

以上、本実施例では、撮像モジュール部20からの距離に応じて画素部301の画素領域を複数の検出領域に分割し、さらにその分割された検出領域とフォーカス位置をひも付けして、検知と同時にAFを開始することが可能になる。 As described above, in this embodiment, the pixel area of the pixel unit 301 is divided into a plurality of detection areas according to the distance from the image pickup module unit 20, and the divided detection area and the focus position are linked to perform detection. AF can be started at the same time.

また、近景領域にある被写体が、図9Bの検出枠番号15の検出枠に映っていて、かつその足位置が分からない場合であっても、被写体の写る領域の大きさにより被写体位置が近景にあると判断でき、フォーカス位置を修正することができる。 Further, even if the subject in the near view area is reflected in the detection frame of the detection frame number 15 in FIG. 9B and the foot position is unknown, the subject position is changed to the near view depending on the size of the area in which the subject is captured. It can be determined that there is, and the focus position can be corrected.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

[その他の実施例]
本発明の目的は、前述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、装置に供給することによっても、達成されることは言うまでもない。このとき、供給された装置の制御部を含むコンピュータ(またはCPUやMPU)は、記憶媒体に格納されたプログラムコードを読み出し実行する。
[Other Examples]
Needless to say, the object of the present invention can also be achieved by supplying the device with a storage medium in which the program code of the software that realizes the functions of the above-described embodiment is recorded. At this time, the computer (or CPU or MPU) including the control unit of the supplied device reads and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the program code itself and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 As the storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, or the like can be used.

また、上述のプログラムコードの指示に基づき、装置上で稼動しているOS(基本システムやオペレーティングシステム)などが処理の一部又は全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。 Further, based on the instructions of the above-mentioned program code, the OS (basic system or operating system) running on the device performs a part or all of the processing, and the processing realizes the functions of the above-described embodiment. Needless to say, cases are also included.

さらに、記憶媒体から読み出されたプログラムコードが、装置に挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれ、前述した実施例の機能が実現される場合も含まれることは言うまでもない。このとき、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部又は全部を行う。 Further, the program code read from the storage medium may be written in the memory provided in the function expansion board inserted in the device or the function expansion unit connected to the computer to realize the functions of the above-described embodiment. Needless to say, it is included. At this time, based on the instruction of the program code, the function expansion board, the CPU provided in the function expansion unit, or the like performs a part or all of the actual processing.

2 システム
20 撮像モジュール部
21 外部信号処理部
201 レンズ
202 レンズ駆動部
203 撮像素子
210 撮像信号処理回路
211 メモリ部I
212 全体制御演算部
213 記録媒体制御I/F部
214 記録媒体
215 外部I/F部
216 メモリ部II
2 System 20 Image module unit 21 External signal processing unit 201 Lens 202 Lens drive unit 203 Image sensor 210 Image sensor processing circuit 211 Memory unit I
212 Overall control calculation unit 213 Recording medium control I / F unit 214 Recording medium 215 External I / F unit 216 Memory unit II

Claims (14)

撮像素子の画素領域を複数の分割領域に分割する分割手段と、
検知モードにおいて、前記複数の分割領域毎にその領域内の画素の画素加算を行って検出画像を生成する第1の生成手段と、
前記検知モードにおいて、前記第1の生成手段により作成された検出画像をフレーム間で比較して、前記複数の分割領域毎に差分を注目被写体として検知する検知手段と、
撮像モードにおいて、前記撮像素子から撮像画像を生成する第2の生成手段と、
フォーカスレンズのフォーカス位置を移動させるAF手段と、
前記複数の分割領域毎に映っている固定被写体までの距離を紐付ける紐付け手段と、
前記検知手段により前記注目被写体が検知された場合、前記注目被写体が映っている分割領域に紐付けられた前記距離に基づき前記注目被写体までの距離と推定する推定手段とを備え、
前記推定された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする撮像装置。
A dividing means for dividing the pixel area of the image sensor into a plurality of divided areas, and
In the detection mode, a first generation means for generating a detected image by adding pixels of pixels in the plurality of divided regions for each divided region,
In the detection mode, a detection means that compares the detection images created by the first generation means between frames and detects a difference in each of the plurality of divided regions as a subject of interest.
In the image pickup mode, a second generation means for generating an image pickup image from the image pickup element and
AF means to move the focus position of the focus lens and
The linking means for linking the distances to the fixed subject reflected in each of the plurality of divided areas, and the linking means.
When the attention subject is detected by the detection means, the detection means includes an estimation means for estimating the distance to the attention subject based on the distance associated with the divided region in which the attention subject is reflected.
An imaging device characterized in that the focus position of the focus lens is moved by the AF means so that the focal length matches the estimated distance, and then the mode shifts to the imaging mode.
前記分割手段は、画角内に遠近の広い範囲に亘る第1の固定被写体がある場合、前記第1の固定被写体の領域を前記複数の分割領域の一つとし、
前記紐付け手段は、前記第1の固定被写体の位置が特定される複数の特徴ポイントの距離を前記第1の固定被写体までの距離として紐付けることを特徴とする請求項1記載の撮像装置。
When the dividing means has a first fixed subject over a wide range of perspective within the angle of view, the area of the first fixed subject is set as one of the plurality of divided areas.
The imaging device according to claim 1, wherein the linking means links the distance of a plurality of feature points at which the position of the first fixed subject is specified as the distance to the first fixed subject.
前記紐付け手段は、前記複数の分割領域毎に重みをさらに紐付け、
前記注目被写体が映っている分割領域及びその周囲の分割領域のうち、紐付けられた前記重みが閾値以上である分割領域がある場合、当該分割領域に紐付けられた前記距離に、前記推定された距離を修正する第1の修正手段を更に備え、
前記第1の修正手段により修正された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする請求項1又は2記載の撮像装置。
The linking means further links weights for each of the plurality of divided regions.
When there is a divided region in which the subject of interest is reflected and the divided region around the divided region in which the weight associated with the subject is equal to or greater than a threshold value, the estimated distance associated with the divided region is used. Further equipped with a first correction means for correcting the distance
The first or second aspect of the present invention, wherein the AF means moves the focus position of the focus lens so that the focal length matches the distance corrected by the first correction means, and then shifts to the imaging mode. Imaging device.
前記第2の生成手段により生成された撮像画像がフレーム間で差分がある場合、前記複数の分割領域毎に紐付けられる前記距離を示す距離マップを作成し、前記作成された距離マップで前記複数の分割領域毎に紐付けられる前記距離を更新した後、前記検知モードに再度移行することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 When the captured images generated by the second generation means have differences between frames, a distance map showing the distances associated with each of the plurality of divided regions is created, and the plurality of distance maps created. The imaging device according to any one of claims 1 to 3, wherein the distance is updated for each of the divided regions, and then the detection mode is resumed. 切出しモードにおいて、前記複数の分割領域のうち指定された分割領域毎に、その領域内における前記撮像画像を切り出す切出し手段をさらに備えることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 The invention according to any one of claims 1 to 4, wherein in the cutout mode, a cutout means for cutting out the captured image in the designated divided region among the plurality of divided regions is further provided. Imaging device. 前記検知手段により前記注目被写体が検知された場合、前記切出しモードに設定し、前記切り出し手段により、前記注目被写体が映っている分割領域及びその周囲の分割領域毎に、その領域内の画素の画素加算がされていない画像を切り出し、前記切り出した画像から前記注目被写体の足位置の座標を算出し、前記算出された座標と前記複数の分割領域毎に紐付けられる前記距離に基づき、前記推定された距離を修正する第2の修正手段を更に備え、
前記第2の修正手段により修正された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする請求項5記載の撮像装置。
When the attention subject is detected by the detection means, the cutout mode is set, and the cutout means sets the pixels of the pixels in the divided region in which the attention subject is reflected and the divided regions around the divided region. An image that has not been added is cut out, the coordinates of the foot position of the subject of interest are calculated from the cut out image, and the estimation is made based on the calculated coordinates and the distance associated with each of the plurality of divided regions. Further equipped with a second correction means for correcting the distance
The imaging according to claim 5, wherein the focus position of the focus lens is moved by the AF means so that the focal length matches the distance corrected by the second correction means, and then the mode shifts to the imaging mode. apparatus.
前記重みは、前記注目被写体の出現率、消失率、前記注目被写体の距離の変化率の少なくとも1つに基づき設定されることを特徴とする請求項3記載の撮像装置。 The imaging device according to claim 3, wherein the weight is set based on at least one of the appearance rate, the disappearance rate, and the change rate of the distance of the attention subject. 前記距離マップを保存するメモリを有することを特徴とする請求項4記載の撮像装置。 The imaging device according to claim 4, further comprising a memory for storing the distance map. 前記複数の分割領域は、夫々映っている固定被写体までの距離に基づいてその面積を設定する設定手段をさらに備えることを特徴とする請求項1記載の撮像装置。 The imaging device according to claim 1, wherein the plurality of divided regions further include setting means for setting the area thereof based on the distance to the fixed subject in which the image is projected. 前記設定手段は、固定被写体までの距離が近いほど当該固定被写体が映っている分割領域の面積を大きくすることを特徴とする請求項9記載の撮像装置。 The imaging device according to claim 9, wherein the setting means increases the area of the divided region in which the fixed subject is projected as the distance to the fixed subject is short. 前記第1の生成手段は、前記画素の画素加算を行なった後、前記複数の分割領域の大きさに応じて垂直方向及び水平方向にデジタル加算を行うことを特徴とする請求項9又は10記載の撮像装置。 9. or 10, wherein the first generation means performs pixel addition of the pixels and then digitally adds the pixels in the vertical direction and the horizontal direction according to the size of the plurality of divided regions. Imaging device. 隣接した分割領域で同時に前記注目被写体が前記検知手段により検知された場合、前記分割領域の隣接方法に応じて前記推定された距離を修正する第3の修正手段を更に備え、
前記第3の修正手段により修正された距離に焦点距離が合うよう前記AF手段により前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。
When the object of interest is simultaneously detected by the detection means in the adjacent divided regions, a third correcting means for correcting the estimated distance according to the method of adjoining the divided regions is further provided.
The ninth to eleventh aspects of the present invention, wherein the AF means moves the focus position of the focus lens so that the focal length matches the distance corrected by the third correction means, and then shifts to the imaging mode. The imaging apparatus according to any one item.
撮像素子の画素領域を複数の分割領域に分割する分割ステップと、
検知モードにおいて、前記複数の分割領域毎にその領域内の画素の画素加算を行って検出画像を生成する第1の生成ステップと、
前記検知モードにおいて、前記第1の生成ステップにおいて作成された検出画像をフレーム間で比較して、前記複数の分割領域毎に差分を注目被写体として検知する検知ステップと、
撮像モードにおいて、前記撮像素子から撮像画像を生成する第2の生成ステップと、
フォーカスレンズのフォーカス位置を移動させるAFステップと、
前記複数の分割領域毎に映っている固定被写体までの距離を紐付ける紐付けステップと、
前記検知ステップにおいて前記注目被写体が検知された場合、前記注目被写体が映っている分割領域に紐付けられた前記距離に基づき前記注目被写体までの距離と推定する推定ステップとを有し、
前記推定された距離に焦点距離が合うよう前記AFステップにおいて前記フォーカスレンズのフォーカス位置を移動させた後、前記撮像モードに移行することを特徴とする駆動制御方法。
A division step of dividing the pixel area of the image sensor into a plurality of division areas, and
In the detection mode, a first generation step of generating a detection image by adding pixels of pixels in the plurality of divided regions to each other,
In the detection mode, a detection step in which the detection images created in the first generation step are compared between frames and a difference is detected as a subject of interest in each of the plurality of divided regions.
In the imaging mode, a second generation step of generating an captured image from the image sensor, and
AF step to move the focus position of the focus lens,
The linking step of linking the distances to the fixed subject reflected in each of the plurality of divided areas, and the linking step.
When the attention subject is detected in the detection step, it has an estimation step of estimating the distance to the attention subject based on the distance associated with the divided region in which the attention subject is reflected.
A drive control method characterized in that the focus position of the focus lens is moved in the AF step so that the focal length matches the estimated distance, and then the mode shifts to the imaging mode.
請求項13の駆動制御方法を実行することを特徴とするプログラム。 A program comprising executing the drive control method according to claim 13.
JP2019165468A 2019-09-11 2019-09-11 Imaging apparatus and driving control method therefor, and program Pending JP2021044702A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019165468A JP2021044702A (en) 2019-09-11 2019-09-11 Imaging apparatus and driving control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019165468A JP2021044702A (en) 2019-09-11 2019-09-11 Imaging apparatus and driving control method therefor, and program

Publications (1)

Publication Number Publication Date
JP2021044702A true JP2021044702A (en) 2021-03-18

Family

ID=74862645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019165468A Pending JP2021044702A (en) 2019-09-11 2019-09-11 Imaging apparatus and driving control method therefor, and program

Country Status (1)

Country Link
JP (1) JP2021044702A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004377A1 (en) * 2022-06-29 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging element, imaging device, and method for controlling solid-state imaging element

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024004377A1 (en) * 2022-06-29 2024-01-04 ソニーセミコンダクタソリューションズ株式会社 Solid-state imaging element, imaging device, and method for controlling solid-state imaging element

Similar Documents

Publication Publication Date Title
US9497371B2 (en) Automatic image-capturing apparatus, automatic image-capturing control method, image display system, image display method, display control apparatus, and display control method
CN1992820B (en) Digital camera with face detection function for facilitating exposure compensation
CN101262617B (en) White balance correction apparatus and method
US7408574B2 (en) Image pickup apparatus for producing a desired frame of image signals
JP4914045B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6103948B2 (en) IMAGING DEVICE, REMOTE OPERATION TERMINAL, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD AND PROGRAM, REMOTE OPERATION TERMINAL CONTROL METHOD AND PROGRAM
US20110012998A1 (en) Imaging device, imaging method and recording medium
CN109729262A (en) Lens control apparatus and method and picture pick-up device including lens control apparatus
JP5219697B2 (en) Image processing apparatus, imaging apparatus, control method for image processing apparatus, and program
US20110019012A1 (en) Composition control device, imaging system, composition control method, and program
US20110102454A1 (en) Image processing device, image processing method, image processing program, and imaging device
JP2019134335A (en) Imaging apparatus, control method, and program
CN105721767A (en) Method For Processing A Video Stream
US11343434B2 (en) Image processing apparatus and control method for same
JP2021044702A (en) Imaging apparatus and driving control method therefor, and program
CN110930340B (en) Image processing method and device
JP2010050651A (en) White balance controller and imaging device using the same, and white balance control method
JP7396336B2 (en) Location information acquisition device, location information acquisition method, and program
CN116309224A (en) Image fusion method, device, terminal and computer readable storage medium
JP6808482B2 (en) Image processing equipment, image processing methods, and programs
US11843846B2 (en) Information processing apparatus and control method therefor
WO2013047641A1 (en) Three-dimensional image processing device and three-dimensional image processing method
JP2004274344A (en) Image processing apparatus and method
JP7465076B2 (en) Image processing device and control method thereof
US20240098358A1 (en) Information processing apparatus and control method therefor