JP6278688B2 - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM - Google Patents

IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6278688B2
JP6278688B2 JP2013263896A JP2013263896A JP6278688B2 JP 6278688 B2 JP6278688 B2 JP 6278688B2 JP 2013263896 A JP2013263896 A JP 2013263896A JP 2013263896 A JP2013263896 A JP 2013263896A JP 6278688 B2 JP6278688 B2 JP 6278688B2
Authority
JP
Japan
Prior art keywords
imaging
optical system
image data
tracking
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013263896A
Other languages
Japanese (ja)
Other versions
JP2015122551A5 (en
JP2015122551A (en
Inventor
裕佑 田村
裕佑 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013263896A priority Critical patent/JP6278688B2/en
Publication of JP2015122551A publication Critical patent/JP2015122551A/en
Publication of JP2015122551A5 publication Critical patent/JP2015122551A5/ja
Application granted granted Critical
Publication of JP6278688B2 publication Critical patent/JP6278688B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Studio Devices (AREA)

Description

本発明は、特に、複数の撮像光学系を備えた撮像装置、撮像装置の制御方法及びプログラムに関する。   The present invention particularly relates to an imaging apparatus including a plurality of imaging optical systems, an imaging apparatus control method, and a program.

従来、デジタルスチルカメラなどの撮像装置には、逐次撮像された被写体から人物の顔領域を検出したり、一度検出した顔領域を追尾したりするものが知られている。このような撮像装置は、検出した人物の顔領域の情報を内部に保持し、保持している顔領域情報に基づいて特定の処理を行う。例えば特許文献1には、顔領域情報に基づいて人物の顔を追尾していることを示す識別情報を表示したり、焦点距離や被写体距離等に基づいて識別情報の表示保持時間を設定したりする技術が開示されている。   2. Description of the Related Art Conventionally, an imaging apparatus such as a digital still camera is known that detects a human face area from a sequentially captured subject or tracks a detected face area. Such an imaging apparatus holds information on the detected face area of the person inside and performs specific processing based on the held face area information. For example, in Patent Document 1, identification information indicating that a person's face is being tracked is displayed based on face area information, or a display holding time of identification information is set based on a focal length, a subject distance, or the like. Techniques to do this are disclosed.

特開2010−81587号公報JP 2010-81587 A

一方、例えば逆方向に別途撮像光学系を設け、撮影者自身を撮像できるようにした複数の撮像光学系機構を備えた撮像装置も知られている。しかしながら、撮像光学系機構を複数備えた撮像装置において、それぞれの撮像光学系で逐次撮像された被写体から人物の顔領域を検出したり追尾したりしようとすると、CPUに多大な負荷が生じてしまう。   On the other hand, there is also known an imaging apparatus including a plurality of imaging optical system mechanisms that are provided with a separate imaging optical system in the opposite direction, for example, so that the photographer himself can be imaged. However, in an imaging apparatus having a plurality of imaging optical system mechanisms, if an attempt is made to detect or track a person's face area from a subject that is sequentially captured by each imaging optical system, a large load is generated on the CPU. .

本発明は前述の問題点に鑑み、複数の撮像光学系を備えた撮像装置において、被写体の検出及び追尾による処理の負担を軽減できるようにすることを目的としている。   The present invention has been made in view of the above-described problems, and an object of the present invention is to reduce the burden of processing due to subject detection and tracking in an imaging apparatus including a plurality of imaging optical systems.

本発明に係る撮像装置は、被写体を撮像して複数のフレームの画像データを生成する撮像手段と、前記撮像手段により生成された画像データにおいて、予め定めた条件を満たす被写体領域検出を行う検出手段と、前記撮像手段により生成された画像データにおいて、前記検出手段で検出された被写体領域と類似度の高い領域追尾を行う追尾手段とを有し、前記撮像手段は、第1の撮像光学系と、前記第1の撮像光学系と異なる方向を向いた第2の撮像光学系とを備えており、前記第1の撮像光学系から生成された画像データについては、前記検出手段による前記被写体領域の検出と前記追尾手段による追尾との両方を行い、前記第2の撮像光学系から生成された画像データについては、前記検出手段による前記被写体領域の検出を行うが前記追尾手段による追尾を行わないようにすることを特徴とする。 An imaging apparatus according to the present invention includes an imaging unit that images a subject and generates image data of a plurality of frames, and a detection that detects a subject region that satisfies a predetermined condition in the image data generated by the imaging unit. means, in the image data generated by the imaging means, and a tracking means that performs tracking of high similarity with the detected subject region by the detecting unit area, the imaging means, the first imaging optical and the system, said first and a second imaging optical system facing different directions imaging optical system, the pre-Symbol image data generated from the first imaging optical system, said by the detection means thus both the tracking by detecting said tracking means of the subject region, wherein the image data generated from the second imaging optical system, performs the detection of the object area by said detecting means Characterized in that it is not performed tracking by serial tracking means.

本発明によれば、複数の撮像光学系を備えた撮像装置において、被写体の検出及び追尾による処理の負荷を軽減することができる。   ADVANTAGE OF THE INVENTION According to this invention, in the imaging device provided with the some imaging optical system, the load of the process by a to-be-photographed object's detection and tracking can be reduced.

実施形態に係るデジタルカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital camera which concerns on embodiment. 実施形態に係るデジタルカメラにおける光学系機構の詳細な構成例を示す図である。It is a figure which shows the detailed structural example of the optical system mechanism in the digital camera which concerns on embodiment. サブカメラにより評価用画像を生成するタイミングを説明するための図である。It is a figure for demonstrating the timing which produces | generates the image for evaluation by a subcamera. メインカメラにより評価用画像を生成するタイミングを説明するための図である。It is a figure for demonstrating the timing which produces | generates the image for evaluation by a main camera. メインカメラ及びサブカメラによってそれぞれ生成される評価用画像を元に、顔検出及び顔追尾を行うタイミングを説明するための図である。It is a figure for demonstrating the timing which performs a face detection and face tracking based on the image for evaluation produced | generated by the main camera and the sub camera, respectively. メインカメラの評価用画像から顔検出または顔追尾処理によって検出された顔位置情報の保持状況を説明するための図である。It is a figure for demonstrating the holding | maintenance state of the face position information detected by the face detection or the face tracking process from the evaluation image of the main camera. サブカメラの評価用画像から顔検出によって検出された顔位置情報の保持状況を説明するための図である。It is a figure for demonstrating the holding | maintenance state of the face position information detected by the face detection from the image for evaluation of a sub camera.

以下、本発明の実施形態について図面を参照しながら説明する。本実施形態では、撮像装置の一例としてデジタルカメラを用いて撮影を行う際の撮影シーケンスにおいて、被写体領域の検出及び追尾処理の制御方法について説明する。本実施形態に係るデジタルカメラはAE(自動露出制御)、AF(オートフォーカス)といった一般的な機能を備えたものであり、AF機能は周知のコントラスト検出方式である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a method for controlling detection and tracking processing of a subject area in a shooting sequence when shooting using a digital camera as an example of an imaging apparatus will be described. The digital camera according to the present embodiment has general functions such as AE (automatic exposure control) and AF (autofocus), and the AF function is a well-known contrast detection method.

図1は、本実施形態に係るデジタルカメラ100の構成例を示すブロック図である。
図1において、本実施形態に係るデジタルカメラ100は、第1の撮影レンズ101、第2の撮影レンズ102、第1の絞り/シャッタ103、第2の絞り/シャッタ104、及び自動露出(AE)処理部105を備えている。さらに、第1のフォーカスレンズ106、第2のフォーカスレンズ107、オートフォーカス(AF)処理部108、第1の撮像素子109、第2の撮像素子110、第1のA/D変換部111、及び第2のA/D変換部112を備えている。
FIG. 1 is a block diagram illustrating a configuration example of a digital camera 100 according to the present embodiment.
In FIG. 1, a digital camera 100 according to this embodiment includes a first photographing lens 101, a second photographing lens 102, a first aperture / shutter 103, a second aperture / shutter 104, and automatic exposure (AE). A processing unit 105 is provided. Furthermore, a first focus lens 106, a second focus lens 107, an autofocus (AF) processing unit 108, a first image sensor 109, a second image sensor 110, a first A / D converter 111, and A second A / D converter 112 is provided.

第1の撮影レンズ101及び第2の撮影レンズ102は、ズーム機構を有するレンズである。第1の絞り/シャッタ103及び第2の絞り/シャッタ104は、AE処理部105からの指示に従って、それぞれ第1の撮像素子109及び第2の撮像素子110へ入射される被写体の反射光の入射光量と電荷蓄積時間とを制御する。AE処理部105は、それぞれ第1の絞り/シャッタ103及び第2の絞り/シャッタ104の動作を制御するとともに、後述する第1のA/D変換部111及び第2のA/D変換部112を制御する。   The first photographing lens 101 and the second photographing lens 102 are lenses having a zoom mechanism. The first aperture / shutter 103 and the second aperture / shutter 104 receive the reflected light of the subject incident on the first image sensor 109 and the second image sensor 110, respectively, in accordance with instructions from the AE processing unit 105. Control light intensity and charge accumulation time. The AE processing unit 105 controls the operations of the first aperture / shutter 103 and the second aperture / shutter 104, respectively, and also includes a first A / D conversion unit 111 and a second A / D conversion unit 112 described later. To control.

第1のフォーカスレンズ106及び第2のフォーカスレンズ107は、AF処理部108からの制御信号に従って、それぞれ第1の撮像素子109及び第2の撮像素子110の受光面上に焦点を合わせて光学像を結像させる。第1の撮像素子109及び第2の撮像素子110は、受光面に結像した光学像をCCD素子或いはCMOS素子等の光電変換手段によって電気信号に変換して、それぞれ第1のA/D変換部111及び第2のA/D変換部112へ出力する。   The first focus lens 106 and the second focus lens 107 are focused on the light receiving surfaces of the first image sensor 109 and the second image sensor 110, respectively, in accordance with a control signal from the AF processing unit 108, and are optical images. Is imaged. The first image sensor 109 and the second image sensor 110 convert an optical image formed on the light receiving surface into an electric signal by a photoelectric conversion means such as a CCD element or a CMOS element, and perform first A / D conversion, respectively. Output to the unit 111 and the second A / D converter 112.

第1のA/D変換部111及び第2のA/D変換部112は、それぞれ受信した電気信号(アナログ信号)をデジタル信号に変換する。また、第1のA/D変換部111及び第2のA/D変換部112は、それぞれ受信した電気信号からノイズを除去するCDS回路や、受信した電気信号をデジタル信号に変換する前に非線形増幅するための非線形増幅回路を含んでいる。   The first A / D converter 111 and the second A / D converter 112 each convert the received electrical signal (analog signal) into a digital signal. In addition, the first A / D converter 111 and the second A / D converter 112 are each a non-linear CDS circuit that removes noise from the received electrical signal, or before converting the received electrical signal into a digital signal. A non-linear amplifier circuit for amplifying is included.

さらに、デジタルカメラ100は、画像処理部113、フォーマット変換部114、及びDRAM115を備えている。   The digital camera 100 further includes an image processing unit 113, a format conversion unit 114, and a DRAM 115.

画像処理部113は、第1のA/D変換部111及び第2のA/D変換部112から出力されたデジタル信号に対して所定の画素補間や画像縮小等のリサイズ処理と色変換処理とを行って、画像データを出力する。フォーマット変換部114は、画像データをDRAM115に記憶するために、画像処理部113で生成された画像データのフォーマットを変換する。DRAM115は、高速な内蔵メモリの一例であり、画像データの一時的な記憶を司る高速バッファとして、或いは、画像データの圧縮/伸張処理における作業用メモリ等として使用される。   The image processing unit 113 performs resize processing and color conversion processing such as predetermined pixel interpolation and image reduction on the digital signals output from the first A / D conversion unit 111 and the second A / D conversion unit 112. To output image data. The format conversion unit 114 converts the format of the image data generated by the image processing unit 113 in order to store the image data in the DRAM 115. The DRAM 115 is an example of a high-speed built-in memory, and is used as a high-speed buffer that manages temporary storage of image data, or as a working memory in image data compression / decompression processing.

また、デジタルカメラ100は、画像記録部116、システム制御部117、VRAM118、表示部119、操作部120、メインスイッチ(メインSW)121、第1スイッチ(SW1)122、及び第2スイッチ(SW2)123を備えている。   Further, the digital camera 100 includes an image recording unit 116, a system control unit 117, a VRAM 118, a display unit 119, an operation unit 120, a main switch (main SW) 121, a first switch (SW1) 122, and a second switch (SW2). 123.

画像記録部116は、静止画または動画のデータを記録するメモリーカード等の記録媒体とそのインターフェースとを備えている。システム制御部117は、CPU、ROM、及びRAMを有し、CPUがROMに格納されたプログラムをRAMの作業エリアに展開して実行することにより、デジタルカメラ100の全体的な動作制御を行う。また、システム制御部117は、第1の撮像素子109及び第2の撮像素子110に対する複数の撮像駆動モードの中からどのモードを使用するかを制御する。さらに、システム制御部117は、顔検出処理及び顔追尾処理も行う。顔検出処理としては、例えば、画像信号を色成分や輝度成分に分解し、周知のパターン認識技術を用いて、予め記憶させて顔のパーツ(目、鼻、口等)に一致する領域を抽出し、それらを包含する領域を顔として検出する方法がある。複数の顔が検出された場合には、顔のサイズが大きいほど、顔の位置が画像の中心に近いほど大きな値となるように、各顔に対して評価値を付与し、最も評価値の高い顔を主被写体とする。顔追尾処理としては、例えば、主被写体として設定された顔の画像をテンプレートとして記憶し、それ以降のフレームの画像から、記憶したテンプレートの画像との類似度が最も高い領域を検出する方法がある。VRAM118は画像表示用のメモリである。表示部119は例えばLCD等であり、画像を表示したり操作補助するための画面を表示したり、カメラ状態を表示したりする他、撮影時には撮影画面と測距領域とを表示する。   The image recording unit 116 includes a recording medium such as a memory card for recording still image data or moving image data, and an interface thereof. The system control unit 117 includes a CPU, a ROM, and a RAM. The CPU controls the entire operation of the digital camera 100 by developing and executing a program stored in the ROM in a RAM work area. Further, the system control unit 117 controls which mode is used from among a plurality of imaging drive modes for the first image sensor 109 and the second image sensor 110. Furthermore, the system control unit 117 also performs face detection processing and face tracking processing. As face detection processing, for example, an image signal is decomposed into color components and luminance components, and a region that matches a facial part (eyes, nose, mouth, etc.) is stored in advance using a well-known pattern recognition technique. In addition, there is a method of detecting a region including them as a face. When multiple faces are detected, an evaluation value is assigned to each face so that the larger the face size and the closer the face position is to the center of the image, the larger the evaluation value. A high face is the main subject. As the face tracking process, for example, there is a method of storing an image of a face set as a main subject as a template, and detecting an area having the highest similarity with the stored template image from images of subsequent frames. . The VRAM 118 is an image display memory. The display unit 119 is an LCD or the like, for example, and displays a screen for displaying an image or assisting an operation, displays a camera state, and displays a shooting screen and a distance measurement area at the time of shooting.

ユーザが操作部120を操作することにより、デジタルカメラ100に指示が入力される。操作部120は、例えば、露出補正や絞り値の設定、画像再生時の設定等の各種設定を行うメニュースイッチや、撮影レンズのズーム動作を指示するズームレバー、撮影モードと再生モードの動作モード切換えスイッチ等を有する。   When the user operates the operation unit 120, an instruction is input to the digital camera 100. The operation unit 120 includes, for example, a menu switch for performing various settings such as exposure correction, aperture value setting, image playback setting, a zoom lever for instructing a zoom operation of the photographing lens, and an operation mode switching between the photographing mode and the reproduction mode. It has a switch etc.

メインスイッチ121は、デジタルカメラ100のシステムに電源を投入するためのスイッチである。第1スイッチ122は、AE処理やAF処理等の撮影準備動作を行うためのスイッチであり、第2スイッチ123は、第1スイッチ122の操作後に、システム制御部117に対して撮影指示を行うスイッチである。   The main switch 121 is a switch for turning on the power of the system of the digital camera 100. The first switch 122 is a switch for performing a shooting preparation operation such as AE processing or AF processing, and the second switch 123 is a switch for giving a shooting instruction to the system control unit 117 after the operation of the first switch 122. It is.

<光学系機構の構成>
図2は、本実施形態に係るデジタルカメラ100における光学系機構の詳細な構成例を示す図である。本実施形態に係るデジタルカメラ100は、光学系機構として第1の撮像光学系205及び第2の撮像光学系210を備えている。以下、第1の撮像光学系205をメインカメラと呼び、第2の撮像光学系210をサブカメラと呼ぶ。
<Configuration of optical system mechanism>
FIG. 2 is a diagram illustrating a detailed configuration example of the optical system mechanism in the digital camera 100 according to the present embodiment. The digital camera 100 according to the present embodiment includes a first imaging optical system 205 and a second imaging optical system 210 as an optical system mechanism. Hereinafter, the first imaging optical system 205 is called a main camera, and the second imaging optical system 210 is called a sub camera.

図2に示すように、メインカメラである第1の撮像光学系205では、第1のレンズ201により外光を第1の撮像素子204に集光する。図2に示す例では、レンズを1枚としているが、複数枚のレンズから構成されたレンズユニットを搭載するようにしてもよい。また、第1のレンズ201は、光軸に沿って前後に位置が動くことによって焦点を調節したり、画角を調節したりすることも可能である。第1のレンズ201を通過した光は第1の絞り203によりその光量が調節される。さらに、静止画撮像時は、第1のメカニカルシャッタ202の開閉時間を制御することにより露出時間を調節することができる。   As shown in FIG. 2, in the first imaging optical system 205 that is the main camera, external light is condensed on the first imaging element 204 by the first lens 201. In the example shown in FIG. 2, one lens is used, but a lens unit composed of a plurality of lenses may be mounted. Further, the first lens 201 can adjust the focal point and adjust the angle of view by moving the position back and forth along the optical axis. The amount of light passing through the first lens 201 is adjusted by the first diaphragm 203. Further, during still image capturing, the exposure time can be adjusted by controlling the opening and closing time of the first mechanical shutter 202.

また、図2に示すように、デジタルカメラ100は、さらに前述した仕組みと同様の第2の撮像光学系210を、逆方向からの外光を取り込むような形で有している。すなわち、サブカメラは、撮影者自身を撮影することを想定した撮像系である。サブカメラである第2の撮像光学系210は、第2のレンズ206、第2のメカニカルシャッタ207、第2の絞り208、及び第2の撮像素子209を備えており、これらの機能はメインカメラと同様である。   In addition, as shown in FIG. 2, the digital camera 100 further includes a second imaging optical system 210 similar to the above-described mechanism so as to capture external light from the reverse direction. That is, the sub camera is an imaging system that assumes that the photographer himself is photographed. The second imaging optical system 210, which is a sub camera, includes a second lens 206, a second mechanical shutter 207, a second diaphragm 208, and a second imaging element 209. These functions are the main camera. It is the same.

<顔検出及び顔追尾処理>
ここで、図3のタイミングチャートを参照しながら、サブカメラにより評価用画像を生成するタイミングについて説明する。図3に示すように、サブカメラでは、第2の撮像素子110の垂直同期信号301を基準に、各垂直同期(VD)で露出302が行われている。
<Face detection and face tracking processing>
Here, the timing for generating the evaluation image by the sub camera will be described with reference to the timing chart of FIG. As shown in FIG. 3, in the sub camera, exposure 302 is performed at each vertical synchronization (VD) based on the vertical synchronization signal 301 of the second image sensor 110.

また、サブカメラでは、各VDで露出した画像データが第2の撮像素子110から読み出され、その読み出された画像データを元に評価用画像の生成処理303が行われている。すなわち、サブカメラでは、時系列的に撮影された画像から人物被写体の顔検出に係る評価用画像が逐次生成される。また、露出302はVD毎に行われており、評価用画像の生成処理303は、その次のVDから毎VDで行われている。具体的には、露出期間310の画像データに対する評価用画像の生成処理303は、次のVDの期間311で行われる。   In the sub camera, image data exposed by each VD is read from the second image sensor 110, and an evaluation image generation process 303 is performed based on the read image data. That is, in the sub camera, evaluation images related to face detection of a person subject are sequentially generated from images taken in time series. The exposure 302 is performed for each VD, and the evaluation image generation process 303 is performed for each VD from the next VD. Specifically, the evaluation image generation process 303 for the image data in the exposure period 310 is performed in the next VD period 311.

次に、図4のタイミングチャートを参照しながら、メインカメラによる評価用画像の生成、顔検出、及び顔追尾のタイミングについて説明する。図4に示すように、メインカメラでは、第1の撮像素子109の垂直同期信号401を基準に、各垂直同期(VD)で露出402が行われている。   Next, the timing of generation of an image for evaluation, face detection, and face tracking by the main camera will be described with reference to the timing chart of FIG. As shown in FIG. 4, in the main camera, exposure 402 is performed at each vertical synchronization (VD) based on the vertical synchronization signal 401 of the first image sensor 109.

また、メインカメラでは、各VDで露出した画像データが第1の撮像素子109から読み出され、その読み出された画像データを元に評価用画像の生成処理403が行われている。すなわち、メインカメラでは、時系列的に撮影された画像から人物被写体の顔検出に係る評価用画像が逐次生成されている。また、露出402はVD毎に行われており、評価用画像の生成処理403は、その次のVDから毎VDで行われている。具体的には、露出時間410の画像データに対する評価用画像の生成処理403は、次のVDの期間411で行われる。   In the main camera, image data exposed at each VD is read from the first image sensor 109, and an evaluation image generation process 403 is performed based on the read image data. That is, in the main camera, evaluation images relating to face detection of a human subject are sequentially generated from images taken in time series. The exposure 402 is performed for each VD, and the evaluation image generation processing 403 is performed for each VD from the next VD. Specifically, the evaluation image generation process 403 for the image data of the exposure time 410 is performed in the next VD period 411.

続いて、図5のタイミングチャートを参照しながら、メインカメラ及びサブカメラによってそれぞれ生成される評価用画像を元に、顔検出及び顔追尾を行うタイミングについて説明する。図5に示すように、デジタルカメラ100では、第1の撮像素子109の垂直同期信号501を基準に、各垂直同期(VD)で顔検出が行われている。なお、図5に示す例では、垂直同期信号501の周期は、第1の撮像素子109の垂直同期信号401と同一とするが、例えば第2の撮像素子110の垂直同期信号301と同一としてもよい。   Next, the timing for performing face detection and face tracking based on the evaluation images generated by the main camera and the sub camera, respectively, will be described with reference to the timing chart of FIG. As shown in FIG. 5, in the digital camera 100, face detection is performed at each vertical synchronization (VD) based on the vertical synchronization signal 501 of the first image sensor 109. In the example shown in FIG. 5, the period of the vertical synchronization signal 501 is the same as the vertical synchronization signal 401 of the first image sensor 109, but may be the same as the vertical synchronization signal 301 of the second image sensor 110, for example. Good.

具体的には、図5に示すように、時刻510における顔検出では、顔検出対象画像512が示す通り、メインカメラから出力される評価用画像が対象であるため、メインカメラの評価用画像511を用いて第1の顔検出を行う。そして、検出された顔位置情報をDRAM115に記憶する。   Specifically, as shown in FIG. 5, in the face detection at time 510, as the face detection target image 512 indicates, the evaluation image output from the main camera is the target. The first face detection is performed using. Then, the detected face position information is stored in the DRAM 115.

また、顔追尾対象画像513が示す通り、メインカメラの評価用画像511、514を対象に、顔追尾処理を用いて第2の顔検出を行う。上述した第1の顔検出で得られた顔の位置と、第2の顔検出によって得られた顔の位置とが重なる場合は、第1の顔検出で得られた顔位置情報をDRAM115に記憶する。第1の顔検出で得られた顔の位置と、第2の顔検出によって得られた顔の位置とが重ならない場合は、第1の顔検出で得られた顔は別人の顔であると判断し、第2の顔検出で得られた顔位置情報をDRAM115に記憶する。第1の顔検出において、検出結果が未検出だった場合は、第2の顔検出によって検出された顔位置情報をDRAM115に記憶する。また、第1の顔検出だけでなく、顔追尾技術を用いた第2の顔検出による検出結果も未検出だった場合は、DRAM115に記憶されている顔位置情報は更新せず、以前の顔位置情報を引き続き保持するようにする。   Further, as the face tracking target image 513 indicates, the second face detection is performed using the face tracking process on the evaluation images 511 and 514 of the main camera. When the face position obtained by the first face detection described above and the face position obtained by the second face detection overlap, the face position information obtained by the first face detection is stored in the DRAM 115. To do. When the face position obtained by the first face detection and the face position obtained by the second face detection do not overlap, the face obtained by the first face detection is a face of another person. The face position information obtained by the second face detection is stored in the DRAM 115. In the first face detection, when the detection result is not detected, the face position information detected by the second face detection is stored in the DRAM 115. In addition, when not only the first face detection but also the detection result by the second face detection using the face tracking technology is not detected, the face position information stored in the DRAM 115 is not updated, and the previous face is not updated. Keep the location information.

また、時刻515における顔検出では、顔検出対象画像517が示す通り、サブカメラから出力される評価用画像が対象であるため、サブカメラの評価用画像516を用いて第1の顔検出を行う。そして、検出された顔位置情報をDRAM115に記憶する。ここで、サブカメラの評価用画像を対象としているタイミングでは、顔追尾処理は行わず、第1の顔検出において検出結果が未検出だった場合は、DRAM115に記憶されている顔位置情報は更新せずに、以前の顔位置情報を引き続き保持する。   Further, in the face detection at the time 515, as the face detection target image 517 indicates, since the evaluation image output from the sub camera is the target, the first face detection is performed using the evaluation image 516 of the sub camera. . Then, the detected face position information is stored in the DRAM 115. Here, the face tracking process is not performed at the timing for the evaluation image of the sub camera, and the face position information stored in the DRAM 115 is updated if the detection result is not detected in the first face detection. Without holding the previous face position information.

本実施形態では、サブカメラによって撮影される被写体として撮影者自身を想定しており、サブカメラの画角内における被写体の顔位置の変動頻度は少ないものと想定される。そのため、サブカメラの画角内から被写体の顔位置を一時的に検出できなくなったとしても、その顔位置が最後に検出できたときの位置から移動している可能性は低いと考えられる。よって、サブカメラの評価用画像に対しては顔追尾処理を行わず、直前に検出できたときの顔位置と同じ位置に、顔が存在しているとみなす。また、サブカメラの評価用画像を対象とした顔検出処理は10回に1回と頻度を少なめに設定し、かつ、サブカメラの評価用画像を対象とした顔追尾処理は行わないようにしている。   In the present embodiment, the photographer himself is assumed as a subject photographed by the sub camera, and it is assumed that the frequency of variation of the face position of the subject within the angle of view of the sub camera is low. For this reason, even if the face position of the subject cannot be temporarily detected from within the angle of view of the sub camera, it is unlikely that the face position has moved from the position at which it was last detected. Therefore, the face tracking process is not performed on the evaluation image of the sub camera, and the face is considered to exist at the same position as the face position when it was detected immediately before. In addition, the face detection process for the evaluation image of the sub camera is set to a low frequency of once every 10 times, and the face tracking process for the evaluation image of the sub camera is not performed. Yes.

<顔位置情報保持>
図6に示すように、システム制御部117により、顔検出または顔追尾処理によって検出された顔位置情報がDRAM115に一定期間記憶される。前述したように、顔検出及び顔追尾処理による検出結果がともに未検出だった場合は、例えば顔位置情報610のように、DRAM115に記憶されている顔位置情報を更新せず、以前の顔位置情報を引き続き保持する。
<Retain face position information>
As shown in FIG. 6, the system control unit 117 stores face position information detected by face detection or face tracking processing in the DRAM 115 for a certain period. As described above, when the detection results of the face detection and the face tracking processing are not detected, the face position information stored in the DRAM 115 is not updated as in the face position information 610, for example, and the previous face position is not updated. Continue to retain information.

また、顔検出及び顔追尾処理による検出結果がともに未検出の状態が2回連続した場合は、保持されている顔位置情報をDRAM115から削除する。具体的には、時刻611におけるメインカメラの評価用画像612を対象とした顔検出結果613及び顔追尾結果614がともに未検出となり、直前の検出結果と併せて2回連続未検出である。この場合、DRAM115に記憶されているメイン顔位置情報を削除する。   Further, when the detection results of the face detection and the face tracking process are both undetected twice, the held face position information is deleted from the DRAM 115. Specifically, both the face detection result 613 and the face tracking result 614 for the main camera evaluation image 612 at time 611 are not detected, and are not detected twice consecutively together with the immediately preceding detection result. In this case, the main face position information stored in the DRAM 115 is deleted.

図7は、サブカメラの評価用画像から検出された顔位置情報を削除するタイミングを説明するための図である。なお、VD701は、サブカメラの評価用画像503を対象に顔検出を行う各垂直同期のタイミングを示しており、この例では10回に1回の垂直同期信号の周期を示していることになる。   FIG. 7 is a diagram for explaining the timing for deleting the face position information detected from the evaluation image of the sub camera. The VD 701 indicates the timing of each vertical synchronization for performing face detection on the evaluation image 503 of the sub camera, and in this example, indicates the period of the vertical synchronization signal once in 10 times. .

顔検出によって顔が検出されると、システム制御部117により、顔位置情報がDRAM115に記憶される。前述したように、顔検出による検出結果が未検出だった場合は、例えば顔位置情報710のように、DRAM115に記憶されているサブカメラからの顔位置情報を更新せず、以前のサブカメラからの顔位置情報を引き続き保持する。また、顔検出による検出結果が未検出の状態が3回連続した場合は、保持されているサブカメラからの顔位置情報を削除する。具体的には、時刻711におけるサブカメラの評価用画像712を対象とした顔検出結果713が未検出となり、直前の検出結果と併せて3回連続未検出となったところでDRAM115に記憶されている顔位置情報を削除する。   When a face is detected by the face detection, the system control unit 117 stores face position information in the DRAM 115. As described above, when the detection result by the face detection is not detected, the face position information from the sub camera stored in the DRAM 115 is not updated as in the face position information 710, for example, from the previous sub camera. Will continue to hold face position information. Further, when the detection result by the face detection is not detected three times continuously, the held face position information from the sub camera is deleted. Specifically, the face detection result 713 for the sub-camera evaluation image 712 at the time 711 is not detected, and is stored in the DRAM 115 when it is not detected three times in succession together with the previous detection result. Delete face position information.

以上のように本実施形態によれば、サブカメラから生成された画像データに対して顔追尾処理を実施しないようにしたので、CPUの負荷を軽減することができる。さらに、顔検出結果が未検出だった場合の顔位置情報の保持時間を長めに設定することにより、顔位置情報の有無が頻繁に切り替わることを抑止することができる。   As described above, according to the present embodiment, since the face tracking process is not performed on the image data generated from the sub camera, the load on the CPU can be reduced. Furthermore, by setting the retention time of the face position information when the face detection result is not detected to be long, it is possible to prevent frequent switching of the presence / absence of the face position information.

(その他の実施形態)
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
(Other embodiments)
Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

109 第1の撮像素子
110 第2の撮像素子
113 画像処理部
117 システム制御部
109 First image sensor 110 Second image sensor 113 Image processing unit 117 System control unit

Claims (11)

被写体を撮像して複数のフレームの画像データを生成する撮像手段と、
前記撮像手段により生成された画像データにおいて、予め定めた条件を満たす被写体領域検出を行う検出手段と、
前記撮像手段により生成された画像データにおいて、前記検出手段で検出された被写体領域と類似度の高い領域追尾を行う追尾手段とを有し、
前記撮像手段は、第1の撮像光学系と、前記第1の撮像光学系と異なる方向を向いた第2の撮像光学系とを備えており、前記第1の撮像光学系から生成された画像データについては、前記検出手段による前記被写体領域の検出と前記追尾手段による追尾との両方を行い、前記第2の撮像光学系から生成された画像データについては、前記検出手段による前記被写体領域の検出を行うが前記追尾手段による追尾を行わないようにすることを特徴とする撮像装置。
Imaging means for imaging a subject and generating image data of a plurality of frames ;
The image data generated by the imaging means and detecting means for detecting a predetermined condition is satisfied subject region,
The image data generated by the imaging means, and a tracking means that performs tracking of high similarity with the detected object area by said detecting means region,
The imaging means includes a first imaging optical system, and a second imaging optical system facing said first direction different from the imaging optical system, generated from the previous SL first imaging optical system For the image data , both the detection of the subject area by the detection means and the tracking by the tracking means are performed. For the image data generated from the second imaging optical system, the detection of the subject area by the detection means is performed. An image pickup apparatus that performs detection but does not perform tracking by the tracking means .
前記検出手段の検出結果及び前記追尾手段の追尾結果を記憶する記憶手段と、
前記記憶手段に被写体の位置情報を一定期間だけ保持するように制御する制御手段とをさらに有することを特徴とする請求項1に記載の撮像装置。
Storage means for storing the detection result of the detection means and the tracking result of the tracking means;
The imaging apparatus according to claim 1, further comprising a control unit configured to control the storage unit so as to hold the position information of the subject for a predetermined period.
前記制御手段は、前記第2の撮像光学系から生成された画像データにおける被写体の位置情報の保持時間を、前記第1の撮像光学系から生成された画像データにおける被写体の位置情報の保持時間よりも長くすることを特徴とする請求項2に記載の撮像装置。 The control means sets a retention time of the subject position information in the image data generated from the second imaging optical system from a retention time of the subject position information in the image data generated from the first imaging optical system. The imaging device according to claim 2, wherein the imaging device is also made longer. 前記検出手段は、前記第2の撮像光学系から生成された画像データにおける前記検出手段による検出の頻度を、前記第1の撮像光学系から生成された画像データにおける前記検出手段による検出の頻度よりも低くすることを特徴とする請求項1〜3の何れか1項に記載の撮像装置。 The detection means detects the frequency of detection by the detection means in the image data generated from the second imaging optical system from the frequency of detection by the detection means in the image data generated from the first imaging optical system. The imaging device according to claim 1, wherein the imaging device is also lowered. 前記第1の撮像光学系及び前記第2の撮像光学系は、互いに逆方向からの外光を集光することを特徴とする請求項1〜4の何れか1項に記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein the first imaging optical system and the second imaging optical system collect external light from opposite directions. 前記被写体領域は顔であることを特徴とする請求項1〜5の何れか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject area is a face. 被写体を撮像して複数のフレームの画像データを生成する撮像手段と、Imaging means for imaging a subject and generating image data of a plurality of frames;
前記撮像手段により生成された画像データにおいて、予め定めた条件を満たす被写体領域の検出を行う検出手段と、Detecting means for detecting a subject area that satisfies a predetermined condition in the image data generated by the imaging means;
前記撮像手段により生成された画像データにおいて、前記検出手段で検出された被写体領域と類似度の高い領域の追尾を行う追尾手段と、In the image data generated by the imaging means, tracking means for tracking an area having a high similarity with the subject area detected by the detection means;
前記検出手段の検出結果及び前記追尾手段の追尾結果の少なくともいずれかに基づく被写体の位置情報を、記憶手段に一定期間だけ保持するように制御する制御手段を有し、Control means for controlling the position information of the subject based on at least one of the detection result of the detection means and the tracking result of the tracking means so as to be held in the storage means for a certain period;
前記撮像手段は、第1の撮像光学系と、前記第1の撮像光学系と異なる方向を向いた第2の撮像光学系とを備えており、The imaging means includes a first imaging optical system and a second imaging optical system facing a different direction from the first imaging optical system,
前記制御手段は、前記第2の撮像光学系から生成された画像データにおける被写体の位置情報の保持時間を、前記第1の撮像光学系から生成された画像データにおける被写体の位置情報の保持時間よりも長くすることを特徴とする撮像装置。The control means sets a retention time of the subject position information in the image data generated from the second imaging optical system from a retention time of the subject position information in the image data generated from the first imaging optical system. An imaging device characterized in that the length of the imaging device is also long.
第1の撮像光学系と、前記第1の撮像光学系と異なる方向を向いた第2の撮像光学系とを備えており、被写体を撮像して複数のフレームの画像データ生成を行う撮像手段を備えた撮像装置の制御方法であって、
前記撮像手段により生成された画像データにおいて、予め定めた条件を満たす被写体領域検出を行う検出工程と、
前記撮像手段により生成された画像データにおいて、前記検出工程において検出された被写体領域と類似度の高い領域追尾を行う追尾工程とを有し、
記第1の撮像光学系から生成された画像データについては、前記検出工程による前記被写体領域の検出と前記追尾工程による追尾との両方を行い、前記第2の撮像光学系から生成された画像データについては、前記検出工程による前記被写体領域の検出を行うが前記追尾工程による追尾を行わないようにすることを特徴とする撮像装置の制御方法。
A first imaging optical system, said first and a second imaging optical system facing different directions imaging optical system, an imaging means for imaging an object and generates image data of a plurality of frames A method for controlling an imaging apparatus comprising:
The image data generated by the imaging unit, a detection step for detecting a predetermined condition is satisfied subject region,
In the image data generated by the imaging means , a tracking step of tracking a region having a high similarity with the subject region detected in the detection step ,
Before SL for image data generated from the first imaging optical system, thus both the tracking by detecting said tracking step of the subject region by the detection step, the second image generated from the imaging optical system A method for controlling an image pickup apparatus, wherein data is detected in the subject area in the detection step but not in the tracking step .
第1の撮像光学系と、前記第1の撮像光学系と異なる方向を向いた第2の撮像光学系とを備えており、被写体を撮像して複数のフレームの画像データを生成する撮像手段を備えた撮像装置の制御方法であって、An image pickup means comprising a first image pickup optical system and a second image pickup optical system oriented in a different direction from the first image pickup optical system, and picks up an image of a subject and generates a plurality of frames of image data. A control method for an imaging apparatus provided with
前記撮像手段により生成された画像データにおいて、予め定めた条件を満たす被写体領域の検出を行う検出工程と、A detection step of detecting a subject area that satisfies a predetermined condition in the image data generated by the imaging means;
前記撮像手段により生成された画像データにおいて、前記検出工程において検出された被写体領域と類似度の高い領域の追尾を行う追尾工程と、In the image data generated by the imaging means, a tracking step for tracking a region having a high similarity to the subject region detected in the detection step;
前記検出工程の検出結果及び前記追尾工程の追尾結果の少なくともいずれかに基づく被写体の位置情報を、記憶手段に一定期間だけ保持するように制御する制御工程を有し、A control step for controlling the position information of the subject based on at least one of the detection result of the detection step and the tracking result of the tracking step so as to be held in the storage unit for a certain period of time;
前記制御工程においては、前記第2の撮像光学系から生成された画像データにおける被写体の位置情報の保持時間を、前記第1の撮像光学系から生成された画像データにおける被写体の位置情報の保持時間よりも長くすることを特徴とする撮像装置の制御方法。In the control step, the retention time of the subject position information in the image data generated from the second imaging optical system is set as the retention time of the subject position information in the image data generated from the first imaging optical system. A method for controlling an imaging apparatus, characterized by being longer than
第1の撮像光学系と、前記第1の撮像光学系と異なる方向を向いた第2の撮像光学系とを備えており、被写体を撮像して複数のフレームの画像データ生成を行う撮像手段を備えた撮像装置を制御するためのプログラムであって、
前記撮像手段により生成された画像データにおいて、予め定めた条件を満たす被写体領域検出を行う検出工程と、
前記撮像手段により生成された画像データにおいて、前記検出工程において検出された被写体領域と類似度の高い領域追尾を行う追尾工程とをコンピュータに実行させ、
記第1の撮像光学系から生成された画像データについては、前記検出工程による前記被写体領域の検出と前記追尾工程による追尾との両方を行い、前記第2の撮像光学系から生成された画像データについては、前記検出工程による前記被写体領域の検出を行うが前記追尾工程による追尾を行わないようにすることを特徴とするプログラム。
A first imaging optical system, said first and a second imaging optical system facing different directions imaging optical system, an imaging means for imaging an object and generates image data of a plurality of frames A program for controlling an imaging apparatus comprising:
The image data generated by the imaging unit, a detection step for detecting a predetermined condition is satisfied subject region,
In the image data generated by the imaging means, the computer is caused to execute a tracking step for tracking a region having a high similarity with the subject region detected in the detection step ,
Before SL for image data generated from the first imaging optical system, thus both the tracking by detecting said tracking step of the subject region by the detection step, the second image generated from the imaging optical system As for data, a program that detects the subject area by the detection step but does not perform tracking by the tracking step .
第1の撮像光学系と、前記第1の撮像光学系と異なる方向を向いた第2の撮像光学系とを備えており、被写体を撮像して複数のフレームの画像データを生成する撮像手段を備えた撮像装置を制御するためのプログラムであって、An image pickup means comprising a first image pickup optical system and a second image pickup optical system oriented in a different direction from the first image pickup optical system, and picks up an image of a subject and generates a plurality of frames of image data. A program for controlling an imaging device provided,
前記撮像手段により生成された画像データにおいて、予め定めた条件を満たす被写体領域の検出を行う検出工程と、A detection step of detecting a subject area that satisfies a predetermined condition in the image data generated by the imaging means;
前記撮像手段により生成された画像データにおいて、前記検出工程において検出された被写体領域と類似度の高い領域の追尾を行う追尾工程と、In the image data generated by the imaging means, a tracking step for tracking a region having a high similarity to the subject region detected in the detection step;
前記検出工程の検出結果及び前記追尾工程の追尾結果の少なくともいずれかに基づく被写体の位置情報を、記憶手段に一定期間だけ保持するように制御する制御工程とをコンピュータに実行させ、Causing the computer to execute a control step of controlling the position information of the subject based on at least one of the detection result of the detection step and the tracking result of the tracking step to be held in the storage unit for a certain period of time,
前記制御工程においては、前記第2の撮像光学系から生成された画像データにおける被写体の位置情報の保持時間を、前記第1の撮像光学系から生成された画像データにおける被写体の位置情報の保持時間よりも長くすることを特徴とするプログラム。In the control step, the retention time of the subject position information in the image data generated from the second imaging optical system is set as the retention time of the subject position information in the image data generated from the first imaging optical system. A program characterized by making it longer.
JP2013263896A 2013-12-20 2013-12-20 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM Expired - Fee Related JP6278688B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013263896A JP6278688B2 (en) 2013-12-20 2013-12-20 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013263896A JP6278688B2 (en) 2013-12-20 2013-12-20 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Publications (3)

Publication Number Publication Date
JP2015122551A JP2015122551A (en) 2015-07-02
JP2015122551A5 JP2015122551A5 (en) 2017-02-02
JP6278688B2 true JP6278688B2 (en) 2018-02-14

Family

ID=53533852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013263896A Expired - Fee Related JP6278688B2 (en) 2013-12-20 2013-12-20 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6278688B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006352540A (en) * 2005-06-16 2006-12-28 Mitsubishi Electric Corp Portable communication terminal with imaging function
JP5409189B2 (en) * 2008-08-29 2014-02-05 キヤノン株式会社 Imaging apparatus and control method thereof
JP4410292B1 (en) * 2008-10-20 2010-02-03 本田技研工業株式会社 Vehicle periphery monitoring device

Also Published As

Publication number Publication date
JP2015122551A (en) 2015-07-02

Similar Documents

Publication Publication Date Title
JP5144422B2 (en) Imaging apparatus and imaging method
JP5623915B2 (en) Imaging device
US10200595B2 (en) Image capturing apparatus, method of controlling same, and storage medium
KR101728042B1 (en) Digital photographing apparatus and control method thereof
KR20110015309A (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to execute the method
JP2007215091A (en) Imaging apparatus and program therefor
JP2008139683A (en) Imaging apparatus and autofocus control method
JP6391304B2 (en) Imaging apparatus, control method, and program
TWI477887B (en) Image processing device, image processing method and recording medium
KR20110055241A (en) Digital photographing apparatus and method for controlling the same
JP5367129B2 (en) Imaging apparatus, control apparatus, and control method thereof
KR20120080376A (en) Digital image photographing apparatus and method for controlling the same
KR20120071972A (en) Digital image signal processing apparatus and method for controlling the same
KR101630304B1 (en) A digital photographing apparatus, a method for controlling the same, and a computer-readable medium
JP2009118164A (en) Camera
JP2014225763A (en) Imaging apparatus, control method of the same, program, and storage medium
JP2008301161A (en) Image processing device, digital camera, and image processing method
JP2007208355A (en) Photographing device, method, and program
JP4871664B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP5832618B2 (en) Imaging apparatus, control method thereof, and program
JP6278688B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2013242408A (en) Imaging device and control method of the same
JP5962974B2 (en) Imaging apparatus, imaging method, and program
JP5938269B2 (en) Imaging apparatus and control method thereof
JP2013055609A (en) Digital camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180116

R151 Written notification of patent or utility model registration

Ref document number: 6278688

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees