JP2013098746A - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP2013098746A
JP2013098746A JP2011239660A JP2011239660A JP2013098746A JP 2013098746 A JP2013098746 A JP 2013098746A JP 2011239660 A JP2011239660 A JP 2011239660A JP 2011239660 A JP2011239660 A JP 2011239660A JP 2013098746 A JP2013098746 A JP 2013098746A
Authority
JP
Japan
Prior art keywords
subject
area
tracking
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011239660A
Other languages
Japanese (ja)
Inventor
Yasuhiko Teranishi
康彦 寺西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2011239660A priority Critical patent/JP2013098746A/en
Publication of JP2013098746A publication Critical patent/JP2013098746A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform various types of control relating to imaging by the concurrent use of a subject region by subject detection and a tracked region by tracking.SOLUTION: An imaging unit 124 generates image data by taking an image of a subject. A subject detector 170 identifies a subject region with respect to the obtained image data. A tracking unit 174 identifies a tracked region as a tracking target with respect to the obtained image data. A distance determination unit 176 determines whether the identified subject region is included within a predetermined distance from the identified tracked region. If the identified subject region is included within the predetermined distance, a region integration unit 178 integrates information on the subject region to information on the identified tracked region. When the region integration unit 178 integrates the information on the subject region to the information on the identified tracked region, a controller controls imaging by use of the subject region.

Description

本発明は、被写体を撮像して得られた画像データから特定された所定の領域を使用して撮像に係る各種制御を行う撮像装置、撮像方法およびプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program for performing various control related to imaging using a predetermined area specified from image data obtained by imaging a subject.

近年、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置には、撮像した画像中の人の顔を検出する顔検出技術が採用されている。このような撮像装置は、顔検出技術で検出された顔の情報(輝度、位置等)に基づいて、オートフォーカスや自動露出等の制御を行っている。   2. Description of the Related Art In recent years, face detection technology for detecting a human face in a captured image has been adopted in an imaging apparatus such as a digital still camera or a digital video camera. Such an imaging apparatus performs control such as autofocus and automatic exposure based on face information (luminance, position, etc.) detected by the face detection technique.

この顔検出技術を拡張し、顔検出された顔領域に基づいて体領域の検出(体検出)を行い、顔領域と体領域に基づいて、オートフォーカスを行う技術が提案されている(例えば、特許文献1)。かかる技術によれば、撮像装置は、測距のための対象領域を広く取ってオートフォーカスを高精度に遂行できる。   There has been proposed a technique for extending this face detection technique, detecting a body area (body detection) based on the face area where the face is detected, and performing autofocus based on the face area and the body area (for example, Patent Document 1). According to such a technique, the imaging apparatus can perform autofocus with high accuracy by taking a wide target area for distance measurement.

また、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置では、撮像対象となる被写体を追跡するいわゆるトラッキング技術が従来から用いられている。例えば、撮像された画像データの色情報を利用するトラッキング技術では、撮像装置は、まず、撮像された画像データのフレーム内の追跡領域の色パターンを特定する。次にその追跡領域の特定されたフレームの次のフレームに関し、前フレームの追跡領域の座標近傍の領域の色パターンを特定し、特定された両フレームの色パターンを比較する。そして、追跡領域と色が類似すると見なした領域を、次フレームにおける新たな追跡領域と見なす。以降、撮像装置は、フレーム毎に同様の処理を繰り返しつつ、追跡領域の画像の情報(輝度、位置等)に基づいた制御を行う。   Also, in an imaging apparatus such as a digital still camera or a digital video camera, a so-called tracking technique for tracking a subject to be imaged is conventionally used. For example, in a tracking technique that uses color information of captured image data, the imaging device first specifies a color pattern of a tracking area within a frame of the captured image data. Next, with respect to the frame next to the specified frame of the tracking area, the color pattern of the area in the vicinity of the coordinates of the tracking area of the previous frame is specified, and the color patterns of both specified frames are compared. Then, an area that is considered to be similar in color to the tracking area is regarded as a new tracking area in the next frame. Thereafter, the imaging apparatus performs control based on information (luminance, position, etc.) of the image in the tracking area while repeating the same processing for each frame.

特開2008−76786号公報JP 2008-76786 A

ところで、例えば、猫や犬等のペットを撮像する場合も、その顔に対して顔検出技術を用いることで、上述したオートフォーカスや自動露出等の制御を行うことができる。しかし、特許文献1の技術を用いても、ペットは顔に対する胴体の位置や胴体の形状が特定し難く胴体を検出することが難しい。さらに、撮像者がペットを、顔が撮像装置に向いた状態に維持させることは容易ではなく、ペットを撮像して得られた画像データから所定領域を特定して、その特定された領域を使用してオートフォーカスや自動露出等の制御を実施することは困難であった。   By the way, for example, when a pet such as a cat or a dog is imaged, the above-described control such as autofocus and automatic exposure can be performed by using a face detection technique for the face. However, even if the technique of Patent Document 1 is used, it is difficult for the pet to detect the body because the position of the body relative to the face and the shape of the body are difficult to specify. Furthermore, it is not easy for the photographer to keep the pet in a state in which the face faces the imaging device. A predetermined area is specified from image data obtained by imaging the pet, and the specified area is used. Therefore, it has been difficult to perform control such as autofocus and automatic exposure.

ここで、上述したトラッキング技術を顔検出技術と併用すれば、ある被写体が顔検出された後、顔を撮像装置から背けられて顔をロストして(見失って)しまっても、撮像装置は、その被写体を色パターンによって追跡し続け、制御を遂行することができる。一方、このような処理を経て追跡されている被写体が、再度、撮像装置の方へ顔を向けると、新たに顔が検出される。このとき、撮像装置は、同一の被写体であるはずの、検出された顔と、追跡し続けていた被写体とを、別の被写体として認識してしまう。この場合、本来、検出された顔の情報も参照すべきところ、追跡領域の情報のみを参照してしまい、適切な制御が行われないおそれがある。   Here, if the tracking technique described above is used in combination with the face detection technique, even if a face is detected and a face is turned away from the imaging apparatus and the face is lost (lost), the imaging apparatus The subject can be continuously tracked by the color pattern and control can be performed. On the other hand, when the subject being tracked through such processing turns the face toward the imaging device again, a new face is detected. At this time, the imaging apparatus recognizes the detected face, which should be the same subject, and the subject that has been tracked as different subjects. In this case, the detected face information should be referred to, but only the tracking area information is referred to, and there is a possibility that appropriate control may not be performed.

そこで、本発明は、このような課題に鑑み、被写体検出による被写体領域とトラッキングによる追跡領域とを適切に併用して撮像に係る各種の制御を遂行可能な撮像装置、撮像方法およびプログラムを提供することを目的としている。   Therefore, in view of such problems, the present invention provides an imaging apparatus, an imaging method, and a program capable of performing various types of control related to imaging by appropriately using a subject area by subject detection and a tracking area by tracking appropriately. The purpose is that.

上記課題を解決するために、本発明の、被写体を撮像し画像データを生成する撮像部を備えた撮像装置は、生成された画像データについて、被写体領域を特定する被写体検出部と、生成された画像データについて、追跡対象である追跡領域を特定するトラッキング部と、特定された追跡領域から所定距離内に、特定された被写体領域が含まれるか否かを判断する距離判断部と、特定された被写体領域が所定距離内に含まれる場合、特定された追跡領域に関する情報に被写体領域に関する情報を統合する領域統合部と、領域統合部によって被写体領域に関する情報が追跡領域の情報に統合されると、その被写体領域を使用して撮像の制御を行う制御部と、を備えることを特徴とする。   In order to solve the above-described problem, an imaging apparatus including an imaging unit that images a subject and generates image data according to the present invention is generated with a subject detection unit that identifies a subject region for the generated image data. For the image data, a tracking unit that identifies a tracking region that is a tracking target, a distance determination unit that determines whether or not the identified subject region is included within a predetermined distance from the identified tracking region, and a specified When the subject area is included within a predetermined distance, an area integration unit that integrates information about the subject area into information about the identified tracking area, and information about the subject area is integrated into the tracking area information by the area integration unit, And a control unit that controls imaging using the subject area.

領域統合部によって被写体領域に関する情報が追跡領域の情報に統合されると、制御部はその被写体領域を対象としてオートフォーカスまたは自動露出の制御を行ってもよい。   When the information related to the subject area is integrated into the tracking area information by the area integration unit, the control unit may perform autofocus or automatic exposure control for the subject area.

画像データに基づく画像を表示する表示部をさらに備え、領域統合部によって被写体領域に関する情報が追跡領域の情報に統合されると、制御部はその被写体領域のみに指標を重畳して表示部に表示させる制御をさらに行ってもよい。   A display unit that displays an image based on the image data is further provided, and when the information related to the subject area is integrated into the tracking area information by the area integration unit, the control unit displays an indicator on the display unit by superimposing only the subject area. Further control may be performed.

距離判断部は、特定された被写体領域の大きさを導出し、所定距離を、被写体領域の大きさに比例して設定してもよい。   The distance determination unit may derive the size of the specified subject area and set the predetermined distance in proportion to the size of the subject area.

上記課題を解決するために、本発明の撮像方法は、被写体を撮像し画像データを生成し、生成した画像データについて、被写体領域を特定し、生成した画像データについて、追跡対象である追跡領域を特定し、特定した追跡領域から所定距離内に、特定した被写体領域が含まれるか否かを判断し、特定した被写体領域が所定距離内に含まれる場合、特定した追跡領域に関する情報に被写体領域に関する情報を統合し、特定した被写体領域に関する情報に被写体領域に関する情報が統合されると、その被写体領域を使用して撮像の制御を行うことを特徴とする。   In order to solve the above problems, an imaging method of the present invention images a subject, generates image data, identifies a subject region for the generated image data, and sets a tracking region that is a tracking target for the generated image data. It is determined whether or not the specified subject region is included within a predetermined distance from the specified tracking region, and when the specified subject region is included within the predetermined distance, information regarding the specified tracking region is related to the subject region. The information is integrated, and when the information on the subject area is integrated with the information on the specified subject area, the imaging is controlled using the subject area.

上記課題を解決するために、本発明のプログラムは、被写体が撮像されることで生成された画像データを処理するコンピュータを、生成された画像データについて、被写体領域を特定する被写体検出部と、生成された画像データについて、追跡対象である追跡領域を特定するトラッキング部と、特定された追跡領域から所定距離内に、特定された被写体領域が含まれるか否かを判断する距離判断部と、特定された被写体領域が所定距離内に含まれる場合、特定された追跡領域に関する情報に被写体領域に関する情報を統合する領域統合部と、領域統合部によって被写体領域に関する情報が追跡領域の情報に統合されると、その被写体領域を使用して撮像の制御を行う制御部と、して機能させる。   In order to solve the above problems, a program according to the present invention includes a computer that processes image data generated by imaging a subject, a subject detection unit that identifies a subject area for the generated image data, and a generation A tracking unit that identifies a tracking area that is a tracking target, a distance determination unit that determines whether or not the identified subject area is included within a predetermined distance from the identified tracking area, When the determined subject area is included within a predetermined distance, an area integration unit that integrates information about the subject area into information about the specified tracking area, and information about the subject area is integrated into the tracking area information by the area integration unit And a control unit that controls imaging using the subject area.

本発明によれば、被写体検出による被写体領域とトラッキングによる追跡領域とを適切に併用して撮像に係る各種の制御を遂行することが可能となる。   According to the present invention, it is possible to perform various types of control related to imaging by appropriately using a subject area based on subject detection and a tracking area based on tracking.

撮像装置の概略的な機能を示した機能ブロック図である。It is a functional block diagram showing a schematic function of an imaging device. 撮像装置の一例を示した外観図である。It is the external view which showed an example of the imaging device. 領域統合処理を説明するための説明図である。It is explanatory drawing for demonstrating area | region integration processing. 領域統合処理を説明するための説明図である。It is explanatory drawing for demonstrating area | region integration processing. 撮像方法の全体的な流れを示したフローチャートである。It is the flowchart which showed the whole flow of the imaging method.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値などは、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書及び図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, and other specific numerical values shown in the embodiment are merely examples for facilitating understanding of the invention, and do not limit the present invention unless otherwise specified. In the present specification and drawings, elements having substantially the same function and configuration are denoted by the same reference numerals, and redundant description is omitted, and elements not directly related to the present invention are not illustrated. To do.

本実施形態の撮像装置100は、被写体検出とトラッキングとを併用した場合に、被写体検出とトラッキングとで、同一の被写体の画像データに対して複数の領域を特定してしまった場合に、オートフォーカスや自動露出等、あるいは画像データに対する指標の重畳といった撮像に係る各種制御を適切に行うことができる。以下、このような撮像装置100について詳述する。   The imaging apparatus 100 according to the present embodiment, when subject detection and tracking are used together, performs autofocusing when a plurality of areas are specified for image data of the same subject by subject detection and tracking. It is possible to appropriately perform various controls relating to imaging such as, automatic exposure, or superimposition of an index on image data. Hereinafter, such an imaging apparatus 100 will be described in detail.

(撮像装置100)
図1は、撮像装置100の概略的な機能を示した機能ブロック図であり、図2は、撮像装置100の一例を示した外観図である。撮像装置100は、表示部120と、操作部122と、撮像部124と、データ処理部126と、画像記憶部128と、画像処理部130と、記録・再生I/F部132と、画像出力部134と、メイン記憶部136と、中央制御部138とを含んで構成される。なお、操作部122と、データ処理部126、画像記憶部128、画像処理部130、記録・再生I/F部132、画像出力部134、メイン記憶部136、中央制御部138、および後述する駆動制御部154はシステムバス140を介して接続されている。
(Imaging device 100)
FIG. 1 is a functional block diagram illustrating a schematic function of the imaging apparatus 100, and FIG. 2 is an external view illustrating an example of the imaging apparatus 100. The imaging apparatus 100 includes a display unit 120, an operation unit 122, an imaging unit 124, a data processing unit 126, an image storage unit 128, an image processing unit 130, a recording / playback I / F unit 132, and an image output. Unit 134, main storage unit 136, and central control unit 138. The operation unit 122, the data processing unit 126, the image storage unit 128, the image processing unit 130, the recording / playback I / F unit 132, the image output unit 134, the main storage unit 136, the central control unit 138, and a drive described later. The control unit 154 is connected via the system bus 140.

表示部120は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等で構成され、表示用画像データ(ビュー画像データ)に基づく画像を表示する(以下、単に「表示用画像データを表示する」と表現する)。撮像者は表示部120に表示された表示用画像を参照し、撮像された画像データを確認することができ、被写体を所望する位置および大きさで捉えることが可能となる。   The display unit 120 includes a liquid crystal display, an organic EL (Electro Luminescence) display, and the like, and displays an image based on display image data (view image data) (hereinafter simply referred to as “display image data”). To do). The photographer can check the captured image data by referring to the display image displayed on the display unit 120, and can capture the subject at a desired position and size.

また、表示部120の表面には、操作部122の一部であるタッチセンサが配置され、撮像者がタッチした位置情報は、操作部122の出力として中央制御部138に入力される。   In addition, a touch sensor that is a part of the operation unit 122 is disposed on the surface of the display unit 120, and position information touched by the photographer is input to the central control unit 138 as an output of the operation unit 122.

操作部122は、タッチセンサ、レリーズスイッチを含む操作キー、十字キー、ジョイスティック等で構成され、撮像者からの撮像モードの切り換え等の操作入力を受け付ける。この撮像モードには、例えば、野外、屋内、夜景といった環境に適応させるためのモードの他、検出した人の顔を優先的に処理対象としてAF(自動焦点)やAE(自動露出)制御を行う「人顔優先AF&AE」、撮像者のタッチセンサへのタッチ位置を優先的に処理対象としてAFやAE制御を行う「タッチ追尾AF&AE」、検出したペットの顔を優先的に処理対象としてAFやAE制御を行う「ペット顔優先AF&AE」等のAF&AEの優先順位を定めたモードが含まれる。   The operation unit 122 includes a touch sensor, an operation key including a release switch, a cross key, a joystick, and the like, and receives an operation input such as switching of an imaging mode from a photographer. In this imaging mode, for example, in addition to a mode for adapting to an environment such as outdoors, indoors, and night scenes, AF (automatic focus) and AE (automatic exposure) control are performed on a detected human face as a processing target with priority. “Human face priority AF & AE”, “Touch tracking AF & AE” that performs AF and AE control with the touch position of the photographer's touch sensor preferentially as a processing target, AF and AE with the detected pet face as a priority processing target A mode in which the priority order of AF & AE such as “pet face priority AF & AE” for controlling is determined is included.

撮像部124は、撮像レンズ124aを通じて被写体を撮像し画像データを生成する。撮像部124は、具体的に、近赤外光を遮るIRカットフィルタ140、ズーム機能を実現するためのズームレンズ142、焦点調整に用いられるフォーカスレンズ144、露光調整に用いられる絞り146、撮像レンズ124aを通じて入射する被写体像等の光を光電変換し画像信号を生成するCCD(Charge Coupled Devices)等で構成される撮像素子(撮像回路)148、撮像素子148からの画像信号を増幅する増幅器150、増幅された画像信号をデジタルデータである画像データに変換するA/D変換器152、ズームレンズ142、フォーカスレンズ144および絞り146の駆動を制御する駆動制御部154とその駆動回路156とを含んで構成される。   The imaging unit 124 images a subject through the imaging lens 124a and generates image data. Specifically, the imaging unit 124 includes an IR cut filter 140 that blocks near-infrared light, a zoom lens 142 for realizing a zoom function, a focus lens 144 used for focus adjustment, an aperture 146 used for exposure adjustment, and an imaging lens. An image sensor (imaging circuit) 148 composed of a CCD (Charge Coupled Devices) or the like that photoelectrically converts light such as a subject image incident through 124a to generate an image signal; an amplifier 150 that amplifies the image signal from the image sensor 148; An A / D converter 152 that converts the amplified image signal into image data that is digital data, a drive control unit 154 that controls the drive of the zoom lens 142, the focus lens 144, and the aperture 146, and a drive circuit 156 thereof are included. Composed.

データ処理部126は、入力された画像データに対して輝度データや色差データを形成する等の処理を行い、画像記憶部128に伝達する。また、データ処理部126は、画像データの平均輝度を導出し中央制御部138へ出力する。   The data processing unit 126 performs processing such as forming luminance data and color difference data on the input image data, and transmits the processed data to the image storage unit 128. Further, the data processing unit 126 derives the average luminance of the image data and outputs it to the central control unit 138.

画像記憶部128は、SDRAM(Synchronous-DRAM)等のバッファメモリで構成され、画像データを一時的に記憶する。画像記憶部128に記憶された画像データは、画像処理部130、中央制御部138等に参照される。   The image storage unit 128 includes a buffer memory such as SDRAM (Synchronous-DRAM), and temporarily stores image data. The image data stored in the image storage unit 128 is referred to by the image processing unit 130, the central control unit 138, and the like.

画像処理部130は、画像記憶部128から画像データを取得し、MPEG−2、MPEG−4、またはMPEG−4/AVC等の形式で符号化処理を施して記録用のデータである記録データを生成する。また、画像処理部130は、後述する表示制御部182の制御信号に応じ画像記憶部128から取得した画像データを縮小し表示用画像データを生成し、表示部120に出力する。一方、後述する任意の記録媒体160に記録された記録データを再生する場合、画像処理部130は記録データを復号する処理を実行する。   The image processing unit 130 acquires image data from the image storage unit 128, performs encoding processing in a format such as MPEG-2, MPEG-4, or MPEG-4 / AVC, and records data that is recording data. Generate. Further, the image processing unit 130 reduces the image data acquired from the image storage unit 128 in accordance with a control signal from the display control unit 182 to be described later, generates display image data, and outputs the display image data to the display unit 120. On the other hand, when reproducing recorded data recorded on an arbitrary recording medium 160 described later, the image processing unit 130 executes a process of decoding the recorded data.

記録・再生I/F部132は、画像処理部130が生成した記録データ(データストリーム)を任意の記録媒体160に記録する。任意の記録媒体160としては、DVDやBDといった電源不要な媒体や、RAM、EEPROM、不揮発性RAM、フラッシュメモリ、HDD等の電源を要する媒体を適用することができる。また、記録・再生I/F部132は、任意の記録媒体160から記録データを読み出し、画像処理部130に出力する。   The recording / reproducing I / F unit 132 records the recording data (data stream) generated by the image processing unit 130 on an arbitrary recording medium 160. As the arbitrary recording medium 160, a medium that does not require a power source such as a DVD or a BD, or a medium that requires a power source such as a RAM, an EEPROM, a nonvolatile RAM, a flash memory, or an HDD can be applied. Further, the recording / reproducing I / F unit 132 reads out the recording data from an arbitrary recording medium 160 and outputs it to the image processing unit 130.

画像出力部134は、画像記憶部128および画像処理部130からの画像データを、例えば、液晶表示装置、プロジェクタ等の外部装置162に出力する。   The image output unit 134 outputs the image data from the image storage unit 128 and the image processing unit 130 to an external device 162 such as a liquid crystal display device or a projector, for example.

メイン記憶部136は、SDRAM等のバッファメモリで構成され、中央制御部138で処理されるプログラム等を記憶する。またメイン記憶部136は、後述する被写体検出処理およびトラッキング処理に用いる画像データを記憶する。   The main storage unit 136 is configured by a buffer memory such as an SDRAM, and stores a program processed by the central control unit 138. The main storage unit 136 stores image data used for subject detection processing and tracking processing described later.

ただし、トラッキング処理が開始されている場合、画像記憶部128に記憶された画像データは、メイン記憶部136の第1領域、第2領域に転送される。そして、被写体検出処理では第1領域に記憶された画像データが、トラッキング処理では第2領域に記憶された画像データがそれぞれ用いられる。   However, when the tracking process is started, the image data stored in the image storage unit 128 is transferred to the first area and the second area of the main storage unit 136. In the subject detection process, the image data stored in the first area is used, and in the tracking process, the image data stored in the second area is used.

ここで、同じ画像データを第1領域と第2領域それぞれに記憶させるのは、被写体検出処理の方がトラッキング処理よりも時間がかかるためである。例えば、被写体検出処理は5フレーム期間程度の時間がかかるのに対し、トラッキング処理は1フレーム期間内で終了する。したがって、被写体検出処理では5フレーム毎に1度画像データが記憶される。被写体検出処理とトラッキング処理とにかかる時間がいずれも1フレーム期間内で終了する場合、メイン記憶部136の第1領域と第2領域それぞれに記憶させずともよい。   Here, the reason that the same image data is stored in each of the first area and the second area is that the subject detection process takes longer than the tracking process. For example, the subject detection process takes about 5 frame periods, while the tracking process ends within one frame period. Therefore, in the subject detection process, image data is stored once every five frames. When both the time required for the subject detection process and the tracking process ends within one frame period, the first area and the second area of the main storage unit 136 may not be stored.

中央制御部138は、中央処理装置(CPU)、プログラム等が記憶されたROM、ワークエリアとしてのRAM等を含む半導体集積回路により撮像装置100全体を管理および制御し、撮像等に必要となる各種演算を実行する。また、中央制御部138は、被写体検出部170、色分布抽出部172、トラッキング部174、距離判断部176、領域統合部178、撮像制御部180、表示制御部182、としても機能する。   The central control unit 138 manages and controls the entire imaging apparatus 100 by a semiconductor integrated circuit including a central processing unit (CPU), a ROM in which programs are stored, a RAM as a work area, and the like. Perform the operation. The central control unit 138 also functions as a subject detection unit 170, a color distribution extraction unit 172, a tracking unit 174, a distance determination unit 176, a region integration unit 178, an imaging control unit 180, and a display control unit 182.

被写体検出部170は、メイン記憶部136の第1領域に記憶されている画像データについて、輝度データから被写体(例えば、人やペットの顔、顔以外の部位)を検出する。本実施形態においては、被写体検出部170は、被写体として、猫や犬などのペットの顔を検出する例を挙げる。   The subject detection unit 170 detects a subject (for example, a part other than the face of a person or a pet or a face) from the luminance data for the image data stored in the first area of the main storage unit 136. In the present embodiment, the subject detection unit 170 gives an example of detecting the face of a pet such as a cat or dog as the subject.

ここでは、被写体検出部170は、例えば、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出することとする。しかし、被写体検出部170は、顔の構成要素(目、鼻、耳等)に基づくテンプレートマッチングや、特開2010−2960号公報に示されるように、Adaboostアルゴリズムによって生成される複数の識別器をカスケード接続して用いる技術等、既存のどのような顔検出技術を用いてもよい。いずれにしても、被写体検出部170は、検出した顔の位置、大きさ、傾き等を示す顔情報を特定し、メイン記憶部136に記憶させる。   Here, for example, the subject detection unit 170 detects a face by template matching using a reference template corresponding to the contour of the entire face. However, the subject detection unit 170 uses a plurality of discriminators generated by template matching based on facial components (eyes, nose, ears, etc.) and the Adaboost algorithm as disclosed in JP 2010-2960 A. Any existing face detection technique such as a technique used in cascade connection may be used. In any case, the subject detection unit 170 identifies face information indicating the position, size, inclination, etc. of the detected face and stores it in the main storage unit 136.

色分布抽出部172は、メイン記憶部136の第1領域に記憶されている画像データのうち、顔中心位置およびその周辺領域の輝度データと色差データとをRGBデータに変換し、色分布を求める。本実施形態において、周辺領域の外縁は、例えば、水平方向11画素、垂直方向11画素からなる矩形領域とするが、周辺領域の形状は、矩形に限定されず、多角形であってもよいし円形であってもよいし、その他、どのような形状、大きさであってもよい。   The color distribution extraction unit 172 converts the luminance data and color difference data of the face center position and its peripheral region, out of the image data stored in the first region of the main storage unit 136, into RGB data, and obtains the color distribution. . In this embodiment, the outer edge of the peripheral area is, for example, a rectangular area composed of 11 pixels in the horizontal direction and 11 pixels in the vertical direction. However, the shape of the peripheral area is not limited to a rectangle, and may be a polygon. It may be circular or any other shape and size.

本実施形態において、色分布は、色ヒストグラムで示される。色ヒストグラムは、以下のように導出される。すなわち、対象となる画像データのそれぞれの画素が、RGBの色空間を各軸(R軸、G軸、B軸)に垂直にN分割(例えば、N=16)したときの分割された各空間が示す色の範囲のいずれに含まれるかが判断される。そして、色ヒストグラムは、それぞれの色の範囲に含まれる画素の数が計数され、色の範囲とその色の範囲に含まれる画素の数とを対応付けて導出される。ただし、Nは予め定められた自然数とする。また、色ヒストグラムは、各軸に垂直な分割数を、軸毎に異ならせて導出されてもよい。   In the present embodiment, the color distribution is indicated by a color histogram. The color histogram is derived as follows. That is, each pixel of the target image data is divided into spaces when the RGB color space is divided into N parts (for example, N = 16) perpendicular to the respective axes (R axis, G axis, B axis). It is determined which of the color ranges indicated by. The color histogram is derived by counting the number of pixels included in each color range and associating the color range with the number of pixels included in the color range. However, N is a predetermined natural number. Further, the color histogram may be derived by changing the number of divisions perpendicular to each axis for each axis.

また、色分布抽出部172は、画像データを、RGBデータの代わりにHSV(Hue Saturation Value)データに変換して色分布を求めてもよい。この場合、色ヒストグラムは、HSVの色空間で各軸(H軸、S軸、V軸)に垂直にN分割したときの分割された各空間が示す色の範囲についてRGBデータと同様に導出される。   The color distribution extraction unit 172 may obtain color distribution by converting image data into HSV (Hue Saturation Value) data instead of RGB data. In this case, the color histogram is derived in the same manner as the RGB data for the color range indicated by each divided space when the N space is divided perpendicularly to each axis (H axis, S axis, V axis) in the HSV color space. The

そして、色分布抽出部172は、導出した色分布の情報(色ヒストグラムおよび色ヒストグラムの導出元の画像データの位置情報)を、導出元の被写体領域に関連付けてメイン記憶部136に記憶させる。   Then, the color distribution extraction unit 172 stores the derived color distribution information (the color histogram and the position information of the image data from which the color histogram is derived) in the main storage unit 136 in association with the subject area from which the color distribution is derived.

トラッキング部174は、メイン記憶部136の第2領域に記憶されている画像データについて、色ヒストグラムの比較によって、追跡対象である追跡領域を特定する。   The tracking unit 174 specifies a tracking region that is a tracking target by comparing color histograms with respect to image data stored in the second region of the main storage unit 136.

具体的には、トラッキング部174は、まず、メイン記憶部136に記憶された色分布の情報を読み出す。そして、トラッキング部174は、読み出した色分布の情報に含まれる位置近傍の比較領域の画像データから色ヒストグラムを導出する。   Specifically, the tracking unit 174 first reads out information on the color distribution stored in the main storage unit 136. Then, the tracking unit 174 derives a color histogram from the image data of the comparison region near the position included in the read color distribution information.

その後、トラッキング部174は、導出した色ヒストグラムと、読み出した色分布の情報に含まれる色ヒストグラムとのヒストグラムインターセクションを導出する。   Thereafter, the tracking unit 174 derives a histogram intersection between the derived color histogram and the color histogram included in the read color distribution information.

ここで、ヒストグラムインターセクションは、2つの色ヒストグラムについて、同じ色の範囲の画素数を比較し、少ない方の画素数のみを抽出し、すべての色の範囲について抽出された画素数の総和を取ったものである。比較する画像データの色分布が類似しているほど、ヒストグラムインターセクションの値は大きくなる。   Here, the histogram intersection compares the number of pixels in the same color range for two color histograms, extracts only the smaller number of pixels, and takes the sum of the number of extracted pixels for all color ranges. It is a thing. As the color distribution of the image data to be compared is similar, the value of the histogram intersection increases.

次に、トラッキング部174は、所定範囲内で、水平方向や垂直方向に1画素ずつ、比較領域を移動し、各位置におけるヒストグラムインターセクションを導出する。そして、トラッキング部174は、最もヒストグラムインターセクションの値が大きい位置に被写体が移動したものと見なし、その位置情報をメイン記憶部136に記憶させる。   Next, the tracking unit 174 moves the comparison region by one pixel in the horizontal direction and the vertical direction within a predetermined range, and derives a histogram intersection at each position. Then, the tracking unit 174 considers that the subject has moved to a position where the value of the histogram intersection is the largest, and stores the position information in the main storage unit 136.

色ヒストグラムの比較によって追跡領域を特定する構成により、トラッキング部174は、被写体の形状が変化して特定し難い、例えば、ペットの胴体等も追跡可能となる。   With the configuration in which the tracking area is specified by comparing the color histograms, the tracking unit 174 is difficult to specify due to the change in the shape of the subject. For example, the body of the pet can be tracked.

ただし、トラッキング処理としては、色ヒストグラムを用いたヒストグラムインターセクションに限らず、色分布の特徴量の類似度を比較する既存のどのような技術を用いてもよい。あるいは、単色の色の類似度を比較する技術であってもよいし、色情報と形状情報等を組み合わせた技術を用いてもよい。   However, the tracking process is not limited to the histogram intersection using the color histogram, and any existing technique for comparing the similarity of the feature quantities of the color distribution may be used. Alternatively, a technique for comparing the similarity of single colors may be used, or a technique combining color information and shape information may be used.

距離判断部176は、トラッキング部174が特定した追跡領域から所定距離内に、被写体検出部170が特定した被写体領域が含まれるか否かを判断する。ここで、追跡領域と被写体領域との距離は、画像データにおけるそれぞれの領域の位置から導出される。例えば、画像データにおける画面内の左上端から、水平方向Px1画素、垂直方向Py1画素の位置に被写体領域があり、追跡領域が水平方向Px2画素、垂直方向Py2画素の位置にある場合、追跡領域と被写体領域の距離である距離Lは、以下の数式1で導出される。ただし、Px1、Px2、Py1、Py2は整数である。

Figure 2013098746
…(数式1) The distance determination unit 176 determines whether or not the subject region specified by the subject detection unit 170 is included within a predetermined distance from the tracking region specified by the tracking unit 174. Here, the distance between the tracking area and the subject area is derived from the position of each area in the image data. For example, when there is a subject area at the position of the horizontal direction Px1 pixel and the vertical direction Py1 pixel from the upper left end in the screen in the image data, and the tracking area is at the position of the horizontal direction Px2 pixel and the vertical direction Py2 pixel, The distance L, which is the distance of the subject area, is derived by the following formula 1. However, Px1, Px2, Py1, and Py2 are integers.
Figure 2013098746
... (Formula 1)

ここで、距離導出の起点となる位置は、追跡領域と被写体領域それぞれにおける中心でもよいし、両領域の距離が最も近い位置でもよい。また、被写体領域側の起点については、顔の中心でもよいし、左右の眼の中心位置でもよい。いずれにしても、予め定められた基準に則って、追跡領域と被写体領域それぞれの起点が定められることとする。   Here, the position from which the distance is derived may be the center in each of the tracking area and the subject area, or may be the position where the distance between the two areas is the shortest. The starting point on the subject area side may be the center of the face or the center position of the left and right eyes. In any case, the starting point of each of the tracking area and the subject area is determined according to a predetermined criterion.

領域統合部178は、被写体領域が追跡領域から所定距離内に含まれる場合、追跡領域に関する情報に被写体領域に関する情報を統合する。かかる統合処理については、後に詳述する。   When the subject area is included within a predetermined distance from the tracking area, the area integration unit 178 integrates information related to the subject area into information related to the tracking area. Such integration processing will be described in detail later.

撮像制御部180は、撮像の際の制御としてフォーカス制御を遂行する。まず、撮像制御部180は、被写体領域または追跡領域の画像データをメイン記憶部136から読み出す。そして、撮像制御部180は、読み出した画像データを用い、コントラスト法によって自動焦点調整を行う。コントラスト法は、撮像素子148上の像のボケの程度とコントラストの間に相関があり、焦点が合ったときにコントラストが最大となることを利用して焦点合わせを行う技術である。   The imaging control unit 180 performs focus control as control during imaging. First, the imaging control unit 180 reads out image data of the subject area or the tracking area from the main storage unit 136. Then, the imaging control unit 180 performs automatic focus adjustment by the contrast method using the read image data. The contrast method is a technique for performing focusing using the fact that there is a correlation between the degree of blurring of an image on the image sensor 148 and the contrast, and the contrast becomes maximum when the image is focused.

ここでは、コントラストの大きさは、画像データに含まれる高周波成分の割合によって評価される。撮像制御部180は、読み出した画像データのうちの輝度データにBPF(バンドパスフィルタ)をかけて高周波成分を抽出し、抽出された高周波成分の絶対値の積分値を評価値とし、評価値が最大となるようにオートフォーカス演算を行う。そして、撮像制御部180は、演算結果に応じて駆動制御部154に制御信号を出力し、駆動回路156を制御して合焦動作を行わせる。   Here, the magnitude of the contrast is evaluated by the ratio of the high frequency component included in the image data. The imaging control unit 180 extracts a high frequency component by applying a BPF (band pass filter) to luminance data in the read image data, and uses the integral value of the extracted absolute value of the high frequency component as an evaluation value. Auto-focus calculation is performed to maximize. Then, the imaging control unit 180 outputs a control signal to the drive control unit 154 according to the calculation result, and controls the drive circuit 156 to perform the focusing operation.

また、撮像制御部180は、撮像の際の制御として露光調整の制御を遂行する。まず、撮像制御部180は、被写体領域または追跡領域の画像データをメイン記憶部136から読み出す。そして、撮像制御部180は、画像データに含まれる輝度データについて平均値を導出し、平均値が所定の範囲に含まれるように、駆動制御部154に制御信号を出力して、絞り146の絞り量を調整させる。   In addition, the imaging control unit 180 performs exposure adjustment control as control during imaging. First, the imaging control unit 180 reads out image data of the subject area or the tracking area from the main storage unit 136. Then, the imaging control unit 180 derives an average value for the luminance data included in the image data, and outputs a control signal to the drive control unit 154 so that the average value is included in a predetermined range. Let the amount adjust.

表示制御部182は、画像処理部130に表示用画像データを生成させ、表示部120に表示させる。このとき、表示制御部182は、撮像の際の制御として被写体領域および追跡領域を示す指標を重畳する。   The display control unit 182 causes the image processing unit 130 to generate display image data and causes the display unit 120 to display the display image data. At this time, the display control unit 182 superimposes an index indicating the subject area and the tracking area as control during imaging.

続いて、上述した撮像装置100による、被写体領域と追跡領域との特定から統合処理、および、その後の制御について詳述する。   Next, the integration process from the identification of the subject area and the tracking area and the subsequent control by the imaging apparatus 100 described above will be described in detail.

(領域の特定および統合処理)
図3および図4は、領域統合処理を説明するための説明図である。撮像開始時、図3(a)に示すように、猫Aが撮像装置100側に顔を向けている場合、被写体検出部170は、猫Aの顔を検出し、被写体領域を特定する。この時点では、追跡領域は特定されておらず、距離判断部176や領域統合部178による処理は行われない。
(Area identification and integration processing)
3 and 4 are explanatory diagrams for explaining the region integration processing. At the start of imaging, as shown in FIG. 3A, when the cat A faces the imaging device 100, the subject detection unit 170 detects the face of the cat A and identifies the subject area. At this time, the tracking area is not specified, and the processing by the distance determination unit 176 and the region integration unit 178 is not performed.

表示制御部182は、特定された被写体領域に、顔の大きさに比例して決定される大きさの指標(ここでは、枠190)を、表示用画像データに重畳して表示部120に表示させる。   The display control unit 182 superimposes a size index (here, a frame 190) determined in proportion to the size of the face on the specified subject area on the display unit 120 in a superimposed manner. Let

あるフレームXにおいて猫Aの顔に対応する被写体領域を特定した後、数フレームが経過すると、次の被写体特定処理の結果が導出される。次の被写体特定処理の結果、フレームXにおいて特定した被写体領域から所定の距離の範囲内で被写体領域が特定された場合、被写体特定部170は、同じ被写体(猫Aの顔)を追尾していると判断する。   After a subject area corresponding to the face of cat A is identified in a certain frame X, when several frames have passed, the result of the next subject identifying process is derived. As a result of the next subject specifying process, when a subject region is specified within a predetermined distance from the subject region specified in frame X, the subject specifying unit 170 tracks the same subject (the face of cat A). Judge.

一方、次の被写体特定処理の結果、フレームXにおいて特定した被写体領域から所定の距離の範囲内で被写体領域が特定されなかった場合、被写体特定部170は、対象をロストしたと判断する(ロスト判断処理)。ロストは対象を見失うことであり、ここでは、対象は、被写体領域そのもの、または被写体領域に対応した被写体(例えば、猫Aの顔)を示す。   On the other hand, if the subject area is not specified within a predetermined distance from the subject area specified in frame X as a result of the next subject specifying process, the subject specifying unit 170 determines that the target has been lost (lost determination). processing). Lost means losing sight of the object. Here, the object indicates the subject area itself or a subject corresponding to the subject area (for example, the face of cat A).

そして、所定の契機によって、その契機に対応した被写体についてのトラッキング処理が開始される。ここで、所定の契機は、例えば、枠190に対応する位置のタッチセンサ(操作部122)へのタッチ操作、1つ以上の顔を検出したこと、または、検出された顔が予め登録された顔と同一と判断されたこと等がある。   Then, a tracking process for a subject corresponding to the trigger is started by a predetermined trigger. Here, the predetermined trigger is, for example, a touch operation on the touch sensor (operation unit 122) at a position corresponding to the frame 190, detection of one or more faces, or a detected face is registered in advance. For example, it is determined that the face is identical.

また、タッチセンサの枠190のない位置にタッチ操作があった場合、タッチされた位置を中心とする予め定められた大きさの領域に対応する画像データをトラッキングの対象としてトラッキング処理が開始されてもよい。   In addition, when a touch operation is performed at a position without the touch sensor frame 190, tracking processing is started with image data corresponding to an area of a predetermined size centered on the touched position as a tracking target. Also good.

所定の契機によってトラッキング処理が開始されると、被写体検出部170は、第1領域に記憶された画像データを用いて被写体検出処理を継続する一方、色分布抽出部172およびトラッキング部174は、第2領域に記憶された画像データを用いてトラッキング処理を行う。   When the tracking process is started at a predetermined trigger, the subject detection unit 170 continues the subject detection process using the image data stored in the first area, while the color distribution extraction unit 172 and the tracking unit 174 Tracking processing is performed using the image data stored in the two areas.

ただし、トラッキング処理によって特定された追跡領域は、その追跡領域の特定元である被写体領域と、同一の被写体を示すものとして関連付けられる。そして、表示制御部182は、その追跡領域と関連付けられた被写体領域がロストされるまで、追跡領域に指標を重畳せず、撮像制御部180は、オートフォーカスおよび露光調整の処理に追跡領域と関連付けられた被写体領域の画像データを用いる。ただし、被写体領域がロストされるまで、被写体領域と追跡領域とは大凡等しくなる。   However, the tracking area specified by the tracking process is associated with the subject area that is the identification source of the tracking area as indicating the same subject. Then, the display control unit 182 does not superimpose the index on the tracking region until the subject region associated with the tracking region is lost, and the imaging control unit 180 associates the tracking region with the tracking region in the autofocus and exposure adjustment processing. The image data of the selected subject area is used. However, the subject region and the tracking region are approximately equal until the subject region is lost.

そして、数フレーム後、図3(b)に示すように、猫Aが撮像装置100から顔を背け、被写体特定部170は被写体領域をロストしたとする。表示制御部182は、追跡領域の特定元である被写体領域をロストしたことを契機に、追跡領域を示す指標である枠192を表示用画像データに重畳して、表示部120に表示させる。このとき、枠192の大きさは、トラッキング処理の対象とした画像データが顔であった場合、その顔の大きさに応じた大きさとする。   Then, after several frames, as shown in FIG. 3B, it is assumed that the cat A turns away from the imaging apparatus 100 and the subject specifying unit 170 has lost the subject area. The display control unit 182 causes the display unit 120 to display a frame 192 that is an index indicating the tracking region on the display image data, when the subject region that is the identification source of the tracking region is lost. At this time, when the image data targeted for tracking processing is a face, the size of the frame 192 is determined according to the size of the face.

また、枠192の大きさは、追跡領域内に、ヒストグラムインターセクションの値が予め定められた閾値以上となった比較領域の面積が大きい程、大きく設定されてもよい。   Further, the size of the frame 192 may be set larger as the area of the comparison region in which the value of the histogram intersection is equal to or greater than a predetermined threshold is larger in the tracking region.

続いて、追跡領域を示す指標である枠192が表示されたまま、数フレームが経過した後、猫Aが再び撮像装置100側に顔を向けたとする。このとき、単に、被写体検出部170が検出した猫Aの顔に枠190を重畳した場合、図4(a)に示すように、同一の猫Aについて、2つの指標(枠190、枠192)が重畳されてしまう。   Subsequently, it is assumed that after several frames have passed while the frame 192 that is an index indicating the tracking area is displayed, the cat A turns its face toward the imaging apparatus 100 again. At this time, when the frame 190 is simply superimposed on the face of the cat A detected by the subject detection unit 170, as shown in FIG. 4A, two indices (frame 190, frame 192) for the same cat A Will be superimposed.

そこで、本実施形態では、領域統合処理が行われる。まず、距離判断部176は、追跡領域から所定距離内に被写体領域が含まれるか否かを判断する。図4(a)のように、被写体領域が追跡領域から所定距離内に含まれる場合、距離判断部176は、この追跡領域と被写体領域とは同一の被写体を対象としているものと見なし、追跡領域と被写体領域とを関連付ける。図4(a)に破線の円Sで所定距離の範囲の一例を示す。   Therefore, in the present embodiment, region integration processing is performed. First, the distance determination unit 176 determines whether or not the subject area is included within a predetermined distance from the tracking area. When the subject area is included within the predetermined distance from the tracking area as shown in FIG. 4A, the distance determination unit 176 considers that the tracking area and the subject area are the same subject, and the tracking area. Is associated with the subject area. FIG. 4A shows an example of a predetermined distance range with a broken-line circle S. FIG.

ただし、距離判断部176は、被写体領域の大きさを導出し、所定距離を、被写体領域の大きさに比例して設定する。本実施形態においては、所定距離は、例えば、被写体領域の大きさの3倍とする。ここで、被写体領域の大きさ(ここでは猫の顔の大きさ)は、例えば、被写体領域の直径とする。ただし、被写体領域の大きさとして、例えば、被写体領域の面積の平方根を用いてもよいし、被写体領域の水平方向や垂直方向の最大幅を用いてもよい。また、ここでは、所定距離は、被写体領域の大きさの3倍としたが、例えば、2倍、4倍、5倍等、被写体の特性に応じた値とすることが望ましい。   However, the distance determination unit 176 derives the size of the subject area and sets the predetermined distance in proportion to the size of the subject area. In the present embodiment, the predetermined distance is, for example, three times the size of the subject area. Here, the size of the subject area (here, the size of the cat's face) is, for example, the diameter of the subject area. However, as the size of the subject area, for example, the square root of the area of the subject area may be used, or the maximum width in the horizontal direction or the vertical direction of the subject area may be used. Here, the predetermined distance is three times the size of the subject area, but is preferably a value according to the characteristics of the subject, such as two times, four times, and five times.

かかる構成により、距離判断部176は、統合の対象となる被写体領域の選別を、被写体の大きさに応じた判断基準によって高精度に遂行可能となる。   With this configuration, the distance determination unit 176 can perform selection of subject areas to be integrated with high accuracy based on a determination criterion corresponding to the size of the subject.

また、図4(b)に示すように、同じフレームにおいて、複数の被写体領域(図4(b)において猫Aの顔に重畳された枠190、猫Bの顔に重畳された枠196、猫Cの顔に重畳された枠198で示す)が特定された場合、距離判断部176は、追跡領域に最も近い被写体領域の大きさを導出して、所定距離を、例えば、導出された大きさの3倍に設定する。そして、距離判断部176は、追跡領域から所定距離内にその被写体領域がない場合、次に追跡領域に近い被写体領域について、所定距離の設定および所定距離内にあるか否かの判断を行う。図4(b)に破線の円Sで所定距離の範囲の一例を示す。   As shown in FIG. 4B, in the same frame, a plurality of subject areas (a frame 190 superimposed on the face of cat A in FIG. 4B, a frame 196 superimposed on the face of cat B, a cat, When the distance determination unit 176 identifies the subject area closest to the tracking area, the distance determination unit 176 derives the predetermined distance, for example, the derived size. Is set to 3 times. Then, when there is no subject area within a predetermined distance from the tracking area, the distance determination unit 176 sets a predetermined distance and determines whether or not the subject area next to the tracking area is within the predetermined distance. FIG. 4B shows an example of a predetermined distance range with a broken-line circle S.

こうして、距離判断部176は、被写体領域が所定距離内にあると判断されるか、すべての被写体領域が所定距離内にないと判断されるまで、追跡領域から近い被写体領域から順次、判断処理を行う。図4(b)の場合、一番近い被写体領域が、所定距離内にあったものとする。   Thus, the distance determination unit 176 sequentially performs determination processing from the subject area close to the tracking area until it is determined that the subject area is within the predetermined distance or all the subject areas are not within the predetermined distance. Do. In the case of FIG. 4B, it is assumed that the closest subject area is within a predetermined distance.

また、被写体検出部170が被写体を検出する範囲を、例えば、追跡領域から予め定められた所定範囲内とすることで、距離判断部176による判断処理の対象となる被写体領域の数を抑制し、処理負荷を低減させてもよい。   In addition, by setting the range in which the subject detection unit 170 detects the subject to be within a predetermined range from the tracking region, for example, the number of subject regions that are subject to determination processing by the distance determination unit 176 is suppressed, The processing load may be reduced.

さらに、距離判断部176は、所定距離を、所定の固定値として設定してもよい。かかる構成により、距離判断部176は、統合の対象となる被写体領域の選別を、低処理負荷で遂行できる。   Furthermore, the distance determination unit 176 may set the predetermined distance as a predetermined fixed value. With this configuration, the distance determination unit 176 can perform selection of subject areas to be integrated with a low processing load.

被写体領域が追跡領域から所定距離内に含まれる場合、領域統合部178は、追跡領域に関する情報に被写体領域に関する情報を統合する。所定距離内に含まれない場合、領域統合部178は、特に処理は行わない。   When the subject area is included within a predetermined distance from the tracking area, the area integration unit 178 integrates information regarding the subject area into information regarding the tracking area. If it is not included within the predetermined distance, the region integration unit 178 does not perform any particular processing.

ここで、「情報を統合する」とは、例えば、追跡領域の位置情報に、被写体領域の位置情報を上書きすることである。追跡領域の位置情報に、被写体領域の位置情報を上書きすることで、トラッキング部174は、被写体領域の位置からトラッキング処理を再開でき、後に再び被写体領域をロストしても、追跡領域が被写体に近い位置を示し被写体の胴体等を追跡領域として特定できる可能性が高まる。   Here, “integrating information” means, for example, overwriting the position information of the subject area on the position information of the tracking area. By overwriting the position information of the subject area on the position information of the tracking area, the tracking unit 174 can resume the tracking process from the position of the subject area, and the tracking area is close to the subject even if the subject area is lost again later. There is an increased possibility that the body and the like of the subject can be specified as the tracking region indicating the position.

また、「情報を統合する」具体的な処理として、被写体領域と追跡領域との関連付け処理も含む。領域統合部178は、追跡領域から所定距離内にあった被写体領域を、その追跡領域と関連付ける。   In addition, as a specific process of “integrating information”, an association process between a subject area and a tracking area is also included. The area integration unit 178 associates a subject area that was within a predetermined distance from the tracking area with the tracking area.

さらに、「情報を統合する」具体的な処理として、画像データの位置情報を上書きすることに加えて、被写体領域の輝度データや色差データに基づいて、色分布情報を導出しなおすようにしてもよい。かかる構成により、トラッキング部174は、その後のトラッキング処理の精度を向上することができる。   Further, as a specific process of “integrating information”, in addition to overwriting the position information of the image data, the color distribution information may be derived again based on the luminance data and color difference data of the subject area. Good. With this configuration, the tracking unit 174 can improve the accuracy of subsequent tracking processing.

そして、表示制御部182は、領域統合部178によって被写体領域に関する情報が追跡領域の情報に統合されると、表示用画像データに対し、追跡領域には指標を重畳せず、追跡領域と関連付けられた被写体領域のみに指標を重畳して表示部120に表示させる。すなわち、図3(c)に示すように、猫Aの顔にのみ、枠194が重畳されることとなる。このとき、枠194の大きさは、検出された被写体領域の大きさに応じたものとする。また、追跡情報として、この枠194の大きさで更新する。   When the information regarding the subject area is integrated into the tracking area information by the area integration unit 178, the display control unit 182 associates the display image data with the tracking area without superimposing an index on the tracking area. The indicator is superimposed on only the subject area and displayed on the display unit 120. That is, as shown in FIG. 3C, the frame 194 is superimposed only on the face of the cat A. At this time, the size of the frame 194 depends on the size of the detected subject area. Further, the tracking information is updated with the size of the frame 194.

図4(b)に示す、同じフレームにおいて、複数の被写体領域が特定された場合も同様に、表示制御部182は、領域統合部178によって被写体領域に関する情報が追跡領域の情報に統合されると、図4(c)に示すように、猫Aについては、顔にのみ、枠194が重畳されることとなる。   Similarly, when a plurality of subject areas are specified in the same frame shown in FIG. 4B, the display control unit 182 also integrates information related to the subject area into the tracking area information by the region integration unit 178. As shown in FIG. 4C, for cat A, a frame 194 is superimposed only on the face.

このように、撮像装置100は、表示部120において、同一の被写体に対して、複数の指標が表示されてしまう事態を回避でき、タッチセンサへのタッチ操作の操作性や表示部120の被写体の視認性を向上することが可能となる。   As described above, the imaging apparatus 100 can avoid a situation in which a plurality of indices are displayed for the same subject on the display unit 120, and the operability of the touch operation to the touch sensor and the subject of the display unit 120 can be avoided. Visibility can be improved.

また、撮像制御部180は、領域統合部178によって被写体領域に関する情報が追跡領域の情報に統合されると、追跡領域に関連付けられた被写体領域を対象としてオートフォーカスまたは自動露出の制御を行う。つまり、撮像制御部180は、追跡領域(猫Aの胴体)への情報統合処理の対象となった被写体領域(猫Aの顔)の画像データを参照して、オートフォーカスや自動露出の制御を行う。かかる構成により、撮像制御部180は、被写体の顔に合わせて適切に撮像制御を遂行することが可能となる。   In addition, when the information related to the subject area is integrated into the tracking area information by the area integration unit 178, the imaging control unit 180 controls autofocus or automatic exposure for the subject area associated with the tracking area. That is, the imaging control unit 180 refers to the image data of the subject area (cat A's face) that is the target of the information integration process on the tracking area (cat A's torso), and controls autofocus and automatic exposure. Do. With this configuration, the imaging control unit 180 can appropriately perform imaging control according to the face of the subject.

領域統合部178による領域統合処理後、トラッキング部174は、情報が統合された追跡領域の画像データの位置情報に示される領域からトラッキング処理を再開する。すなわち、トラッキング部174は、被写体領域およびその近傍を対象としてトラッキング処理を行う。   After the region integration processing by the region integration unit 178, the tracking unit 174 resumes the tracking processing from the region indicated by the position information of the image data of the tracking region where the information is integrated. That is, the tracking unit 174 performs tracking processing on the subject area and its vicinity.

また、図3(d)に示すように、猫Aは撮像装置100から顔を背けたままで、他の猫Bの顔が映り込んだ場合、追跡領域と新たな猫Bの顔に対応する被写体領域とが所定距離より離れていれば、猫Aと猫Bとを異なる被写体として識別可能となるため、表示制御部182は、猫Aの追跡領域を示す枠192と、猫Bの被写体領域を示す枠196とをいずれも表示画像データに重畳して表示部120に表示させる。   Further, as shown in FIG. 3D, when the cat A is faced away from the imaging device 100 and the face of another cat B is reflected, the subject corresponding to the tracking area and the new face of the cat B is displayed. Since the cat A and the cat B can be identified as different subjects if the region is separated from the predetermined distance, the display control unit 182 displays the frame 192 indicating the tracking region of the cat A and the subject region of the cat B. The frame 196 shown is superimposed on the display image data and displayed on the display unit 120.

上述したように、本実施形態の撮像装置100は、所定距離内に含まれる被写体領域と追跡領域を同一の被写体と見なし、それぞれに関する情報を統合する。そのため、例えば、オートフォーカスや自動露出等の撮像制御を適切に遂行でき、また、表示部120に表示する指標を統合することで視認性や操作性を向上可能となる。   As described above, the imaging apparatus 100 according to the present embodiment regards the subject area and the tracking area included within a predetermined distance as the same subject, and integrates information about each. Therefore, for example, imaging control such as autofocus and automatic exposure can be appropriately performed, and visibility and operability can be improved by integrating indexes displayed on the display unit 120.

また、コンピュータを、撮像装置100として機能させるプログラムや当該プログラムを記録した、コンピュータで読み取り可能なフレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD、DVD、BD等の記録媒体も提供される。ここで、プログラムは、任意の言語や記述方法にて記述されたデータ処理手段をいう。   Also provided are a program that causes a computer to function as the imaging apparatus 100 and a recording medium such as a computer-readable flexible disk, magneto-optical disk, ROM, EPROM, EEPROM, CD, DVD, or BD on which the program is recorded. . Here, the program refers to data processing means described in an arbitrary language or description method.

(撮像方法)
次に、上述した撮像装置100を用いて、被写体を撮像する撮像方法の一連の流れを説明する。図5は、撮像方法の全体的な流れを示したフローチャートである。かかる処理は、被写体特定処理およびトラッキング処理を並行して行う撮像モードにて撮像中、所定のフレーム周期で繰り返し実行される。
(Imaging method)
Next, a series of flow of an imaging method for imaging a subject using the above-described imaging device 100 will be described. FIG. 5 is a flowchart showing the overall flow of the imaging method. Such processing is repeatedly executed at a predetermined frame period during imaging in an imaging mode in which subject identification processing and tracking processing are performed in parallel.

図5に示すように、撮像部124は、被写体を撮像し1フレームの画像データを生成する(S200)。その画像データは画像記憶部128に記憶される(S202)。   As shown in FIG. 5, the imaging unit 124 images a subject and generates one frame of image data (S200). The image data is stored in the image storage unit 128 (S202).

中央制御部138は、以前のフレームの画像データについての被写体領域の特定処理が継続中であるか否かを判断する(S204)。継続中である場合(S204におけるYES)、トラッキング処理の判定(S216)に処理を移す。   The central control unit 138 determines whether or not the subject area specifying process for the image data of the previous frame is continuing (S204). If it is continuing (YES in S204), the process proceeds to the tracking process determination (S216).

以前のフレームの画像データについての被写体領域の特定処理が終了している場合(S204におけるNO)、色分布抽出部172は、被写体領域が特定されたか否か、すなわち、被写体領域の特定処理において被写体として特定できる画像データがあったか否かを判断する(S206)。特定されなかった場合(S206におけるNO)、ロスト判断処理(S210)に処理を移す。   When the subject area specifying process for the image data of the previous frame has been completed (NO in S204), the color distribution extraction unit 172 determines whether or not the subject area has been specified, that is, the subject area is specified in the subject area specifying process. It is determined whether there is image data that can be specified as (S206). If not specified (NO in S206), the process proceeds to the lost determination process (S210).

被写体領域が特定された場合(S206におけるYES)、色分布抽出部172は、特定された被写体領域の色分布を導出して、メイン記憶部136に導出元の被写体領域に関連付けて記憶させる(S208)。   When the subject area is specified (YES in S206), the color distribution extraction unit 172 derives the color distribution of the specified subject area and stores it in the main storage unit 136 in association with the subject area of the derivation source (S208). ).

続いて、被写体特定部170は、ロスト判断処理を行う(S210)。ロスト判断処理は、上述したように、被写体特定処理の結果、あるフレームXにおいて特定された被写体領域について、次の被写体特定処理の結果、所定の距離の範囲内で被写体領域が特定された場合、被写体特定部170は、同じ被写体を追尾していると判断し、特定されなかった場合、被写体特定部170は、対象をロストしたと判断する。   Subsequently, the subject specifying unit 170 performs a lost determination process (S210). In the lost determination process, as described above, when a subject area is specified within a predetermined distance as a result of the next subject specifying process for a subject area specified in a certain frame X as a result of the subject specifying process, The subject specifying unit 170 determines that the same subject is being tracked, and if not specified, the subject specifying unit 170 determines that the target has been lost.

そして、中央制御部138は、画像記憶部128に記憶された新たな1フレームの画像データをメイン記憶部136の第1領域に記憶させる(S212)。被写体検出部170は、被写体特定処理を開始する(S214)。   Then, the central control unit 138 stores the new one-frame image data stored in the image storage unit 128 in the first area of the main storage unit 136 (S212). The subject detection unit 170 starts subject identification processing (S214).

そして、中央制御部138は、トラッキング処理が開始しているか否かを判断し(S216)、開始していない場合(S216におけるNO)、中央制御部138は、例えば、タッチセンサへのタッチ操作といった所定の契機が発生したか否かを判断する(S218)。発生していない場合(S218におけるNO)、処理を終了する。   Then, the central control unit 138 determines whether or not the tracking process has started (S216). If the tracking process has not started (NO in S216), the central control unit 138 can, for example, perform a touch operation on the touch sensor. It is determined whether or not a predetermined opportunity has occurred (S218). If it has not occurred (NO in S218), the process is terminated.

所定の契機が発生した場合(S218におけるYES)、トラッキング部174は、トラッキング処理を開始する(S220)。そして、撮像制御処理(S238)に処理を移す。   When a predetermined trigger occurs (YES in S218), the tracking unit 174 starts tracking processing (S220). Then, the process proceeds to the imaging control process (S238).

すでにトラッキング処理が開始している場合(S216におけるYES)、中央制御部138は、画像記憶部128に記憶された1フレームの画像データをメイン記憶部136の第2領域に記憶させる(S222)。トラッキング部174は、前フレームから継続したトラッキング処理を行う(S224)。このとき、トラッキング処理によって追跡領域が特定されると、その追跡領域は、追跡領域の特定元である被写体領域と、同一の被写体を示すものとして関連付けられる。   When tracking processing has already started (YES in S216), the central control unit 138 stores one frame of image data stored in the image storage unit 128 in the second area of the main storage unit 136 (S222). The tracking unit 174 performs tracking processing continued from the previous frame (S224). At this time, when the tracking area is specified by the tracking process, the tracking area is associated with the subject area which is the identification source of the tracking area as indicating the same subject.

続いて、中央制御部138は、ロスト判断処理ステップS210において、追跡領域に関連付けられた被写体領域をロストしたと判断されたか否かを判断する(S226)。ロストしていない場合(S226におけるNO)、中央制御部138は、その被写体領域を、指標の重畳や撮像制御の対象として設定する(S228)。そして、撮像制御処理(S236)に処理を移す。   Subsequently, the central control unit 138 determines whether or not it is determined that the subject area associated with the tracking area is lost in the lost determination processing step S210 (S226). If not lost (NO in S226), the central control unit 138 sets the subject area as a target for index superposition or imaging control (S228). Then, the process proceeds to the imaging control process (S236).

被写体領域をロストしている場合(S226におけるYES)、距離判断部176は、追跡領域から所定距離内に被写体領域が含まれるか否かを判断する(S230)。含まれない場合(S230におけるNO)、中央制御部138は、追跡領域を、指標の重畳や撮像制御の対象として設定する(S232)。そして、撮像制御処理(S236)に処理を移す。   When the subject area is lost (YES in S226), the distance determination unit 176 determines whether the subject area is included within a predetermined distance from the tracking area (S230). If not included (NO in S230), the central control unit 138 sets the tracking area as a target for index superposition or imaging control (S232). Then, the process proceeds to the imaging control process (S236).

追跡領域から所定距離内に被写体領域が含まれる場合(S230におけるYES)、領域統合部178は、被写体領域の位置情報を、追跡領域の位置情報に上書きしたり、追跡領域から所定距離内にあった被写体領域を、その追跡領域と関連付けたりするといった情報統合処理を行う(S234)。   When the subject area is included within the predetermined distance from the tracking area (YES in S230), the area integration unit 178 overwrites the position information of the subject area with the position information of the tracking area or within the predetermined distance from the tracking area. Information integration processing is performed such as associating the subject area with the tracking area (S234).

そして、設定された制御の対象に対して、撮像制御部180は、オートフォーカスや自動露出の処理を行い(S236)、表示制御部182は、指標の重畳を行った表示用画像データを表示部120に表示させる(S238)。   Then, the imaging control unit 180 performs autofocus and automatic exposure processing on the set control target (S236), and the display control unit 182 displays the display image data on which the index is superimposed. It is displayed on 120 (S238).

上述した撮像装置100を用いた撮像方法によっても、オートフォーカスや自動露出等の撮像制御を適切に遂行でき、また、表示部120に表示する指標を統合することで視認性や操作性を向上可能となる。   Even with the imaging method using the imaging apparatus 100 described above, imaging control such as autofocus and automatic exposure can be appropriately performed, and visibility and operability can be improved by integrating indexes displayed on the display unit 120. It becomes.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, it cannot be overemphasized that this invention is not limited to this embodiment. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

なお、本明細書の撮像方法の各工程は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいはサブルーチンによる処理を含んでもよい。   Note that each step of the imaging method of the present specification does not necessarily have to be processed in time series in the order described in the flowchart, and may include processing in parallel or a subroutine.

本発明は、被写体を撮像して得られた画像データから特定された所定の領域を使用して撮像に係る各種制御を行う撮像装置、撮像方法およびプログラムに利用することができる。   The present invention can be used in an imaging apparatus, an imaging method, and a program that perform various controls related to imaging using a predetermined area specified from image data obtained by imaging a subject.

100 …撮像装置
120 …表示部
124 …撮像部
170 …被写体検出部
174 …トラッキング部
176 …距離判断部
178 …領域統合部
180 …撮像制御部
182 …表示制御部
DESCRIPTION OF SYMBOLS 100 ... Imaging device 120 ... Display part 124 ... Imaging part 170 ... Subject detection part 174 ... Tracking part 176 ... Distance judgment part 178 ... Area integration part 180 ... Imaging control part 182 ... Display control part

Claims (6)

被写体を撮像し画像データを生成する撮像部を備えた撮像装置であって、
生成された前記画像データについて、被写体領域を特定する被写体検出部と、
生成された前記画像データについて、追跡対象である追跡領域を特定するトラッキング部と、
特定された前記追跡領域から所定距離内に、特定された前記被写体領域が含まれるか否かを判断する距離判断部と、
前記特定された被写体領域が前記所定距離内に含まれる場合、前記特定された追跡領域に関する情報に前記被写体領域に関する情報を統合する領域統合部と、
前記領域統合部によって前記被写体領域に関する情報が前記追跡領域の情報に統合されると、その被写体領域を使用して撮像の制御を行う制御部と、
を備えることを特徴とする撮像装置。
An imaging device including an imaging unit that images a subject and generates image data,
A subject detection unit that identifies a subject region for the generated image data;
For the generated image data, a tracking unit that identifies a tracking region that is a tracking target;
A distance determination unit that determines whether or not the specified subject area is included within a predetermined distance from the specified tracking area;
An area integration unit that integrates information related to the subject area into information related to the specified tracking area when the specified subject area is included within the predetermined distance;
When information regarding the subject region is integrated into the tracking region information by the region integration unit, a control unit that performs imaging control using the subject region;
An imaging apparatus comprising:
前記領域統合部によって前記被写体領域に関する情報が前記追跡領域の情報に統合されると、前記制御部はその被写体領域を対象としてオートフォーカスまたは自動露出の制御を行うことを特徴とする請求項1に記載の撮像装置。   2. The information processing apparatus according to claim 1, wherein when the information related to the subject area is integrated into the tracking area information by the area integration unit, the control unit controls autofocus or automatic exposure for the subject area. The imaging device described. 画像データに基づく画像を表示する表示部をさらに備え、
前記領域統合部によって前記被写体領域に関する情報が前記追跡領域の情報に統合されると、前記制御部はその被写体領域のみに指標を重畳して前記表示部に表示させる制御をさらに行うことを特徴とする請求項1または2に記載の撮像装置。
A display unit for displaying an image based on the image data;
When the information related to the subject area is integrated into the tracking area information by the area integration unit, the control unit further performs control to superimpose an index only on the subject area and display the information on the display unit. The imaging apparatus according to claim 1 or 2.
前記距離判断部は、前記特定された被写体領域の大きさを導出し、前記所定距離を、前記被写体領域の大きさに比例して設定することを特徴とする請求項1から3のいずれか1項に記載の撮像装置。   The distance determination unit derives the size of the specified subject area, and sets the predetermined distance in proportion to the size of the subject area. The imaging device according to item. 被写体を撮像し画像データを生成し、
生成した前記画像データについて、被写体領域を特定し、
生成した前記画像データについて、追跡対象である追跡領域を特定し、
特定した前記追跡領域から所定距離内に、特定した前記被写体領域が含まれるか否かを判断し、
前記特定した被写体領域が前記所定距離内に含まれる場合、前記特定した追跡領域に関する情報に前記被写体領域に関する情報を統合し、
前記特定した被写体領域に関する情報に前記被写体領域に関する情報が統合されると、その被写体領域を使用して撮像の制御を行うことを特徴とする撮像方法。
Capture the subject, generate image data,
For the generated image data, specify a subject area,
For the generated image data, specify a tracking area to be tracked,
Determining whether the identified subject area is included within a predetermined distance from the identified tracking area;
When the specified subject area is included within the predetermined distance, information related to the subject area is integrated into information related to the specified tracking area;
An imaging method, wherein when information related to the subject area is integrated into the information related to the specified subject area, imaging is controlled using the subject area.
被写体が撮像されることで生成された画像データを処理するコンピュータを、
生成された前記画像データについて、被写体領域を特定する被写体検出部と、
生成された前記画像データについて、追跡対象である追跡領域を特定するトラッキング部と、
特定された前記追跡領域から所定距離内に、特定された前記被写体領域が含まれるか否かを判断する距離判断部と、
前記特定された被写体領域が前記所定距離内に含まれる場合、前記特定された追跡領域に関する情報に前記被写体領域に関する情報を統合する領域統合部と、
前記領域統合部によって前記被写体領域に関する情報が前記追跡領域の情報に統合されると、その被写体領域を使用して撮像の制御を行う制御部と、
して機能させるためのプログラム。
A computer that processes image data generated by imaging a subject,
A subject detection unit that identifies a subject region for the generated image data;
For the generated image data, a tracking unit that identifies a tracking region that is a tracking target;
A distance determination unit that determines whether or not the specified subject area is included within a predetermined distance from the specified tracking area;
An area integration unit that integrates information related to the subject area into information related to the specified tracking area when the specified subject area is included within the predetermined distance;
When information regarding the subject region is integrated into the tracking region information by the region integration unit, a control unit that performs imaging control using the subject region;
Program to make it function.
JP2011239660A 2011-10-31 2011-10-31 Imaging apparatus, imaging method, and program Pending JP2013098746A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011239660A JP2013098746A (en) 2011-10-31 2011-10-31 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011239660A JP2013098746A (en) 2011-10-31 2011-10-31 Imaging apparatus, imaging method, and program

Publications (1)

Publication Number Publication Date
JP2013098746A true JP2013098746A (en) 2013-05-20

Family

ID=48620260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011239660A Pending JP2013098746A (en) 2011-10-31 2011-10-31 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP2013098746A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082801A (en) * 2013-10-24 2015-04-27 株式会社ニコン Image processing apparatus, imaging apparatus and image processing program
JP2016123044A (en) * 2014-12-25 2016-07-07 キヤノン株式会社 Subject tracking device, and control method and program therefor
JP2017005582A (en) * 2015-06-12 2017-01-05 キヤノン株式会社 Image processing system, image processing method and program
JPWO2020080037A1 (en) * 2018-10-18 2021-02-15 パナソニックIpマネジメント株式会社 Imaging device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187332A (en) * 2007-01-29 2008-08-14 Nikon Corp Image tracking device and image pickup device
JP2009124565A (en) * 2007-11-16 2009-06-04 Casio Comput Co Ltd Imaging apparatus and program
JP2010072723A (en) * 2008-09-16 2010-04-02 Omron Corp Tracking device and tracking method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187332A (en) * 2007-01-29 2008-08-14 Nikon Corp Image tracking device and image pickup device
JP2009124565A (en) * 2007-11-16 2009-06-04 Casio Comput Co Ltd Imaging apparatus and program
JP2010072723A (en) * 2008-09-16 2010-04-02 Omron Corp Tracking device and tracking method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015082801A (en) * 2013-10-24 2015-04-27 株式会社ニコン Image processing apparatus, imaging apparatus and image processing program
JP2016123044A (en) * 2014-12-25 2016-07-07 キヤノン株式会社 Subject tracking device, and control method and program therefor
JP2017005582A (en) * 2015-06-12 2017-01-05 キヤノン株式会社 Image processing system, image processing method and program
JPWO2020080037A1 (en) * 2018-10-18 2021-02-15 パナソニックIpマネジメント株式会社 Imaging device
JP7113364B2 (en) 2018-10-18 2022-08-05 パナソニックIpマネジメント株式会社 Imaging device

Similar Documents

Publication Publication Date Title
US11172133B2 (en) Zoom control device, control method of zoom control device, and recording medium
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
JP5251215B2 (en) Digital camera
US8629915B2 (en) Digital photographing apparatus, method of controlling the same, and computer readable storage medium
WO2019114617A1 (en) Method, device, and system for fast capturing of still frame
US8934040B2 (en) Imaging device capable of setting a focus detection region and imaging method for imaging device
US9823331B2 (en) Object detecting apparatus, image capturing apparatus, method for controlling object detecting apparatus, and storage medium
TWI425828B (en) Image capturing apparatus, method for determing image area ,and computer-readable recording medium
US10277823B2 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
JP6184189B2 (en) SUBJECT DETECTING DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE, SUBJECT DETECTING DEVICE CONTROL PROGRAM, AND STORAGE MEDIUM
US9258481B2 (en) Object area tracking apparatus, control method, and program of the same
US20160165129A1 (en) Image Processing Method
US20120121129A1 (en) Image processing apparatus
US10121067B2 (en) Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium
US8295609B2 (en) Image processing apparatus, image processing method and computer readable-medium
KR20150078275A (en) Digital Photographing Apparatus And Method For Capturing a Moving Subject
JP2013098746A (en) Imaging apparatus, imaging method, and program
JP2007312206A (en) Imaging apparatus and image reproducing apparatus
US20120188437A1 (en) Electronic camera
US20200177814A1 (en) Image capturing apparatus and method of controlling image capturing apparatus
JP6087615B2 (en) Image processing apparatus and control method therefor, imaging apparatus, and display apparatus
JP5615012B2 (en) White balance stable adjustment device and control method thereof, program for white balance stable adjustment
US9781337B2 (en) Image processing device, image processing method, and recording medium for trimming an image based on motion information
JP7458723B2 (en) Image processing device, imaging device, control method, and program
JP2009130840A (en) Imaging apparatus, control method thereof ,and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150407