JP2012129940A - Imaging apparatus, control method of the same, and program - Google Patents

Imaging apparatus, control method of the same, and program Download PDF

Info

Publication number
JP2012129940A
JP2012129940A JP2010281983A JP2010281983A JP2012129940A JP 2012129940 A JP2012129940 A JP 2012129940A JP 2010281983 A JP2010281983 A JP 2010281983A JP 2010281983 A JP2010281983 A JP 2010281983A JP 2012129940 A JP2012129940 A JP 2012129940A
Authority
JP
Japan
Prior art keywords
main subject
evaluation value
angle
view
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010281983A
Other languages
Japanese (ja)
Other versions
JP5697429B2 (en
Inventor
Nobukazu Yoshida
宣和 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010281983A priority Critical patent/JP5697429B2/en
Publication of JP2012129940A publication Critical patent/JP2012129940A/en
Application granted granted Critical
Publication of JP5697429B2 publication Critical patent/JP5697429B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of accurately determining a main subject even when an angle of view is changed.SOLUTION: An imaging apparatus 100 determines a first candidate of the main subject by calculating a first evaluation value indicating possibility of the main subject using information depending on the angle of view, determines a second candidate of the main subject by calculating a second evaluation value indicating possibility of the main subject using information independent of the angle of view, and compares the first evaluation value with the second evaluation value to determine one of the candidates of the main subject corresponding to an evaluation value higher in possibility of the main subject as the main subject. When the angle of view is changed, the second evaluation value is used preferentially to the first evaluation value compared to the case when the angle of view is not changed.

Description

本発明は、撮像装置及びその制御方法、並びにプログラムに関し、特に、動画像撮像及び多重露光撮像が可能な撮像装置及びその制御方法、並びにプログラムに関する。   The present invention relates to an imaging apparatus, a control method thereof, and a program, and more particularly, to an imaging apparatus capable of capturing a moving image and multiple exposure imaging, a control method thereof, and a program.

撮像装置や印刷装置では、類似する色相や彩度情報を有する画素ごとに同一の領域にまとめ、その領域の画角内の位置に応じて、その領域が被写体か背景かを判別するシステムが開示されている(例えば、特許文献1参照)。   In an imaging device or a printing device, a system is disclosed in which pixels having similar hue and saturation information are grouped into the same region, and whether the region is a subject or background according to the position within the angle of view of the region is disclosed. (For example, refer to Patent Document 1).

この技術を利用すれば、画像内の背景以外の被写体が占める領域を特定することが出来る。複数の被写体が検出された場合には、それぞれの被写体に対して評価値を求め、最も高い評価値を備えた被写体を主被写体とすることが考えられる。例えば、被写体の位置の画像中心からの距離、あるいは、被写体のサイズに応じて評価値を付与するシステムが開示されている(例えば、特許文献2参照)。   By using this technique, it is possible to specify an area occupied by a subject other than the background in the image. When a plurality of subjects are detected, an evaluation value is obtained for each subject, and the subject having the highest evaluation value can be considered as the main subject. For example, a system is disclosed in which an evaluation value is given according to the distance from the image center of the position of the subject or the size of the subject (see, for example, Patent Document 2).

さらに、動画を構成する映像信号において、主被写体として検出された被写体に対し、追尾処理を行うシステムが開示されている(例えば、特許文献3参照)。   Furthermore, a system for performing tracking processing on a subject detected as a main subject in a video signal constituting a moving image is disclosed (for example, see Patent Document 3).

特開2010−233236号公報JP 2010-233236 A 特開2008−005438号公報JP 2008-005438 A 特開2010−154286号公報JP 2010-154286 A

しかしながら、分類した領域の画角内の位置に応じて、その領域が被写体か否かを判別する従来の技術では、撮像の際にズームを行うと、撮像される画像の画角に変化が生じるため、被写体か背景かの判別結果に影響が出てしまう。つまり、ズーム中等画角が安定しない状態では主被写体が誤って検出されてしまう可能性があり、検出した主被写体を追尾する機能を備えた撮像装置にこの機能を適用すると、誤検出された主被写体を追尾するケースが生じることとなる。   However, in the conventional technique for determining whether or not the area is a subject according to the position within the angle of view of the classified area, if the zoom is performed during imaging, the angle of view of the captured image changes. For this reason, the determination result of the subject or the background is affected. In other words, the main subject may be erroneously detected when the angle of view is not stable during zooming, and if this function is applied to an imaging device having a function of tracking the detected main subject, the erroneously detected main subject is detected. A case of tracking the subject will occur.

このように、従来の技術では、画角が変化している場合は、主被写体を誤検出することがあった。   As described above, in the conventional technique, when the angle of view changes, the main subject may be erroneously detected.

本発明の目的は、画角が変化している場合でも主被写体を精度よく決定することが出来る撮像装置及びその制御方法、並びにプログラムを提供することにある。   An object of the present invention is to provide an imaging apparatus capable of accurately determining a main subject even when the angle of view changes, a control method therefor, and a program.

上記目的を達成するために、請求項1の撮像装置は、被写体を撮像するとともに、画角を変更可能な撮像手段と、前記撮像手段に撮像された被写体を示す画像から、画角に依存する情報を用いて主被写体候補が主被写体である主被写体可能性を示す第1評価値を算出して第1主被写体候補を決定する第1決定手段と、前記撮像手段に撮像された被写体を示す画像から、画角に依存しない情報を用いて前記主被写体可能性を示す第2評価値を算出して第2主被写体候補を決定する第2決定手段と、前記第1評価値と前記第2評価値を用いて、いずれかの評価値に対応する主被写体候補を主被写体として決定する第3決定手段とを備え、前記第3決定手段は、前記撮像手段により撮像する画角が変更されている場合は、変更されていない場合に比較して、前記第1評価値に対する前記第2評価値を優先して用いて前記主被写体を決定する。   In order to achieve the above object, an image pickup apparatus according to claim 1 depends on an angle of view from an image pickup unit that picks up an image of a subject and can change an angle of view, and an image showing the object picked up by the image pickup unit. A first determination unit that calculates a first evaluation value indicating a main subject possibility that a main subject candidate is a main subject using information, and indicates a subject imaged by the imaging unit. Second determination means for determining a second main subject candidate by calculating a second evaluation value indicating the main subject possibility from the image using information independent of the angle of view; the first evaluation value and the second Third determination means for determining a main subject candidate corresponding to one of the evaluation values as a main subject using the evaluation value, wherein the third determination means has a field angle captured by the imaging means changed. If not changed And, determining the main subject by using with priority the second evaluation value for the first evaluation value.

本発明によれば、画角が変化している場合でも主被写体を精度よく決定することが出来る。   According to the present invention, the main subject can be accurately determined even when the angle of view is changing.

本発明の実施の形態に係る撮像装置の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an imaging apparatus according to an embodiment of the present invention. 図1におけるシステム制御部により実行される静止画記録処理の手順を示すフローチャートである。2 is a flowchart illustrating a procedure of a still image recording process executed by a system control unit in FIG. 図2のステップS201で実行される被写体枠表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the subject frame display process performed by step S201 of FIG. 図3のステップS301で実行される主被写体枠決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the main subject frame determination process performed by step S301 of FIG. 図3のステップS307で実行される追尾枠決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the tracking frame determination process performed by step S307 of FIG. 図2のステップS201で実行される被写体枠表示処理の変形例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the modification of the to-be-photographed object frame display process performed by step S201 of FIG.

以下、本発明の実施の形態について図面を参照しながら詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る撮像装置100の概略構成を示す図である。   FIG. 1 is a diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment of the present invention.

図1において、レンズ10は外光を集光する。レンズ駆動回路42は、レンズ位置を光軸に沿って前後に動かすことで焦点を調節したり、画角を変更可能である。さらに、ブレ量検知回路44で測定したカメラのブレ量を元に、手ブレ補正回路40にてレンズ10を駆動し、手ブレをキャンセルする方向に光軸を変化させることで光学的な手ブレ補正を行う構成とすることも可能である。ブレ量検知回路44には、ジャイロセンサーが含まれている。図1ではレンズ10を駆動することで手ブレ補正を実現しているが、CCD16を駆動することで同様に手ブレを補正することも可能である。   In FIG. 1, a lens 10 collects external light. The lens driving circuit 42 can adjust the focus and change the angle of view by moving the lens position back and forth along the optical axis. Further, based on the camera shake amount measured by the camera shake amount detection circuit 44, the lens 10 is driven by the camera shake correction circuit 40, and the optical axis is changed in a direction to cancel the camera shake, thereby optical camera shake. It is also possible to adopt a configuration for performing correction. The shake amount detection circuit 44 includes a gyro sensor. In FIG. 1, camera shake correction is realized by driving the lens 10, but camera shake can be similarly corrected by driving the CCD 16.

レンズ10を通過した光は絞り14により、その光量を調節することが出来る。システム制御部60は、絞り制御情報を絞り駆動回路26に伝達することで、絞り14を制御することが可能である。絞り14は、複数枚の羽から構成された虹彩絞りや、予め板を様々な径で穴を打ち抜いた丸絞りがある。システム制御部60はこれらの絞り14と絞り駆動回路26を用い、被写体輝度が高い場合は絞りを絞って光量を落とすように制御し、被写体輝度が低い場合は絞りを開放にして光を多く取り込むように制御することが可能である。   The amount of light that has passed through the lens 10 can be adjusted by the diaphragm 14. The system control unit 60 can control the diaphragm 14 by transmitting the diaphragm control information to the diaphragm driving circuit 26. The diaphragm 14 includes an iris diaphragm composed of a plurality of wings and a round diaphragm in which holes are punched out in advance with various diameters. The system control unit 60 uses the diaphragm 14 and the diaphragm drive circuit 26 to control the diaphragm so as to reduce the amount of light when the subject brightness is high. When the subject brightness is low, the system controller 60 opens the diaphragm and captures a large amount of light. It is possible to control as follows.

システム制御部60は、メカニカルシャッター制御情報をメカニカルシャッター駆動回路28に伝達することで、メカニカルシャッター12を制御することが可能である。静止画撮影時の露光時間は、メカニカルシャッター12の開閉時間により決定され、この時間はシステム制御部60が時間を判断し、メカニカルシャッター駆動回路28に指示を出す。   The system control unit 60 can control the mechanical shutter 12 by transmitting mechanical shutter control information to the mechanical shutter drive circuit 28. The exposure time during still image shooting is determined by the opening / closing time of the mechanical shutter 12, and this time is determined by the system control unit 60 and an instruction is given to the mechanical shutter drive circuit 28.

レンズ10、メカニカルシャッター12、絞り14を通過した光はCCD16に受光される。システム制御部60は、撮像素子制御信号をTG(Timing Generator)24に伝達することで、CCD16を制御することが出来る。TG24は、システム制御部60から受信した制御情報をもとにCCD16を駆動する。CCD16は素子への露光と、露光したデータの読み出し作業を周期的に行っており、この作業はTG24からの駆動信号を基準に行われる。またTG24は、CCD16の露光時間を制御することが可能である。任意のタイミングで、素子がチャージした電荷を開放するように、TG24からCCD16へ駆動信号を出すことでこれを可能としている。   Light that has passed through the lens 10, the mechanical shutter 12, and the aperture 14 is received by the CCD 16. The system control unit 60 can control the CCD 16 by transmitting an image sensor control signal to a TG (Timing Generator) 24. The TG 24 drives the CCD 16 based on the control information received from the system control unit 60. The CCD 16 periodically performs exposure of the element and reading of the exposed data, and this work is performed based on a drive signal from the TG 24. The TG 24 can control the exposure time of the CCD 16. This is made possible by outputting a drive signal from the TG 24 to the CCD 16 so as to release the charge charged by the element at an arbitrary timing.

CCD16から読み出された画像データは、CDS(Correlated Double Sampler)回路18を通過する。CDSは相関二重サンプリング方式により画像データのノイズ成分を除去することを主な役割とする。その後、画像データはPGA(Programmable Gain Amplifier)回路20により、画像データレベルを減衰/増幅することが出来る。システム制御部60は、増幅レベルをPGA回路20に伝達することで、増幅量を制御することが出来る。   The image data read from the CCD 16 passes through a CDS (Correlated Double Sampler) circuit 18. The main role of CDS is to remove noise components of image data by a correlated double sampling method. Thereafter, the image data level of the image data can be attenuated / amplified by a PGA (Programmable Gain Amplifier) circuit 20. The system control unit 60 can control the amplification amount by transmitting the amplification level to the PGA circuit 20.

通常、CCD16の露出を適正にするには、絞り14やシャッターを用いることで実現されるが、PGA回路20で画像データ信号を減衰/増幅することで、擬似的に画像データの露出を変える役割を担うことが出来る。これは、絞りやシャッター速度と並ぶ撮影時の露出条件の一つとして、感度という概念でユーザーに機能提供することが可能である。   Normally, the exposure of the CCD 16 is made appropriate by using the aperture 14 and the shutter. However, the PGA circuit 20 attenuates / amplifies the image data signal to change the exposure of the image data in a pseudo manner. Can bear. This is one of the exposure conditions at the time of shooting along with the aperture and shutter speed, and can provide a user with a function based on the concept of sensitivity.

また、ストロボ制御部48を介してストロボ46を発光させることも出来る。逆光状態や低照度時等、被写体が暗い場合にストロボ発光撮影することで、被写体を明るく撮影することが可能となる。   Further, the strobe 46 can be caused to emit light via the strobe controller 48. Shooting with flash photography when the subject is dark, such as in a backlit state or under low illuminance, makes it possible to photograph the subject brightly.

画像データはA/D(Analog/Digital Converter)回路22にてアナログ信号からデジタル信号である画像信号へ変換される。画像信号のビット幅は10ビット、12ビット、14ビット等があり、後段の画像処理回路50は、複数種類のビット幅に対応可能である。   The image data is converted from an analog signal to an image signal which is a digital signal by an A / D (Analog / Digital Converter) circuit 22. The bit width of the image signal is 10 bits, 12 bits, 14 bits, and the like, and the image processing circuit 50 in the subsequent stage can cope with a plurality of types of bit widths.

なお、図1では、CDS回路18、PGA回路20、A/D回路22をそれぞれ別のブロックとして表現しているが、1つのICパッケージにこれらの機能を搭載したものを採用することも可能である。   In FIG. 1, the CDS circuit 18, the PGA circuit 20, and the A / D circuit 22 are expressed as separate blocks, but it is also possible to adopt a circuit in which these functions are mounted in one IC package. is there.

A/D回路22からデジタル化された画像データは画像処理回路50へ入力される。画像処理回路50は複数のブロックから構成され、さまざまな機能を実現している。   The digitized image data from the A / D circuit 22 is input to the image processing circuit 50. The image processing circuit 50 includes a plurality of blocks and realizes various functions.

CCD16はカラーフィルターを通して各画素ごとに特定の色成分を抽出するものが一般的である。A/D回路22からの画像信号はCCD16の画素及びカラーフィルター配置に対応したデータ形式になっており、輝度成分のみを評価して露出制御を行う自動露出制御(AE:Auto Exposure Control)で使用するには適さない形式である。画像処理回路50では、画像信号から色情報を排除し、輝度情報のみを抜き出す機能を備えている。逆に、色情報を抽出する機能も備え、被写体の光源を特定し、色を適切に調節するホワイトバランス処理に使用することが出来る。   The CCD 16 generally extracts a specific color component for each pixel through a color filter. The image signal from the A / D circuit 22 is in a data format corresponding to the pixel and color filter arrangement of the CCD 16, and is used for automatic exposure control (AE) that performs exposure control by evaluating only the luminance component. It is a format that is not suitable for use. The image processing circuit 50 has a function of excluding color information from an image signal and extracting only luminance information. Conversely, it also has a function of extracting color information, and can be used for white balance processing that identifies the light source of the subject and adjusts the color appropriately.

さらに、画像処理回路50は、CCD16から読み出された信号の周波数成分のみを抜き出す機能を備え、その機能は自動ピント合わせ制御(AF:Auto Focus)時に使用される。また、画像処理回路50は、CCD16から読み出されたデータのどの領域の周波数成分を抽出するか、また、領域内を分割設定出来る機能を備えている。また、画像処理回路50はヒストグラムを生成する機能も持ち、画像データを入力することで画像のヒストグラムを取得することも出来る。   Further, the image processing circuit 50 has a function of extracting only the frequency component of the signal read from the CCD 16, and this function is used in automatic focus control (AF). Further, the image processing circuit 50 has a function of extracting which frequency component of the data read from the CCD 16 is to be extracted, and dividing the area. The image processing circuit 50 also has a function of generating a histogram, and can acquire an image histogram by inputting image data.

さらに、画像処理回路50は、A/D回路22によりデジタル化された画像信号のレベルの増減、画像の色効果等を操作する機能を備え、撮影画像の画質を調節するという役割も担っている。画像信号のレベルに関して、画像処理回路50は、画像全体に一律の増幅率でレベルを増減させる機能や、元の信号レベルの大小に応じて信号レベルを変換するトーンカーブ(ガンマ)機能を有する。あるいは、画像処理回路50は、画面内の領域ごとの周波数成分に応じた増幅率でレベルを増減させる機能を有する。それらの機能により、様々な画像信号レベル調節が可能となっている。   Further, the image processing circuit 50 has a function of adjusting the level of the image signal digitized by the A / D circuit 22 and operating the color effect of the image, and also plays a role of adjusting the image quality of the photographed image. . Regarding the level of the image signal, the image processing circuit 50 has a function of increasing / decreasing the level with a uniform amplification factor for the entire image, and a tone curve (gamma) function for converting the signal level according to the magnitude of the original signal level. Alternatively, the image processing circuit 50 has a function of increasing / decreasing the level with an amplification factor corresponding to the frequency component for each region in the screen. With these functions, various image signal level adjustments are possible.

A/D回路22からデジタル化された画像データが画像処理回路50へ入力すると同時に、その画像データを一時記憶メモリ30に記憶することが出来る。一旦、一時記憶メモリ30に記憶した画像データは再度読み出すことができ、システム制御部60から画像データを参照したり、読み出した画像データを画像処理回路50に入力することが可能である。さらに、画像処理回路50で画像処理した画像データを一時記憶メモリに書き戻したり、システム制御部60から任意のデータを書き込むことも可能である。   The digitized image data from the A / D circuit 22 is input to the image processing circuit 50, and at the same time, the image data can be stored in the temporary storage memory 30. The image data once stored in the temporary storage memory 30 can be read again, the image data can be referred to from the system control unit 60, and the read image data can be input to the image processing circuit 50. Further, the image data processed by the image processing circuit 50 can be written back to the temporary storage memory, or arbitrary data can be written from the system control unit 60.

画像処理回路50で適切に処理された画像データは、画像認識回路38に入力することが出来る。画像認識回路38は、入力された画像の明るさ状況、ピント合焦状況、色状況の認識に加え、人物の顔認識とその表情、文字がある場合はその文字情報を認識することが可能となっている。画像認識回路38には複数の画像を入力することが可能となっており、例えば2つの画像を入力し、その2つの画像の特徴を比較することで、同一の画像かどうかを判定することが可能となっている。   Image data appropriately processed by the image processing circuit 50 can be input to the image recognition circuit 38. The image recognition circuit 38 is capable of recognizing a person's face, its facial expression, and character information when there is a character, in addition to recognizing the brightness state, focus state, and color state of the input image. It has become. It is possible to input a plurality of images to the image recognition circuit 38. For example, it is possible to determine whether the images are the same by inputting two images and comparing the characteristics of the two images. It is possible.

画像認識回路38で画像を認識する方法に加え、システム制御部60でも画像認識処理を行うことが出来る。システム制御部60はCPU上で予めコーディングされたプログラムを実行することが出来るが、一時記憶メモリ30に記憶された画像データをシステム制御部60から読み出し、その画像データを解析してシーンの状況を認識することが出来る。   In addition to the method of recognizing an image by the image recognition circuit 38, the system control unit 60 can also perform image recognition processing. The system control unit 60 can execute a pre-coded program on the CPU, but reads the image data stored in the temporary storage memory 30 from the system control unit 60 and analyzes the image data to determine the scene status. Can be recognized.

画像をLCD等の画像表示装置108に出力する場合、画像処理回路50で画像処理を行った画像データをVRAM34上に展開しておき、それをD/A36にてアナログデータに変換して画像表示装置108に表示する。電子ファインダーを実現する場合は、CCD16から読み出される連続した画像を順次画像表示装置108に表示更新していくことで可能となる。VRAM34上に画像データを展開する際、1つの画像データを画像表示装置108に最も大きくなるように、又は複数の画像をマルチ画面表示するように等、様々な表示形態に対応するようにVRAM34上に展開することが出来る。   When outputting an image to the image display device 108 such as an LCD, the image data processed by the image processing circuit 50 is developed on the VRAM 34 and converted into analog data by the D / A 36 to display the image. Display on the device 108. In order to realize the electronic viewfinder, it is possible to sequentially update the continuous display of images read from the CCD 16 on the image display device 108. When image data is expanded on the VRAM 34, the image data is displayed on the VRAM 34 so that one image data is maximized on the image display device 108 or a plurality of images are displayed on a multi-screen. Can be deployed.

画像表示装置108には、画像だけでなく任意の情報を単独、もしくは画像と共に表示することが可能である。カメラの状態表示や、ユーザーが選択あるいはカメラが決定したシャッター速度や絞り値、感度情報等の文字情報や、画像処理回路50にて測定した輝度分布のようなグラフや、顔認識結果、シーン認識結果等も表示可能である。情報の表示位置、表示色も任意に選択可能である。これら様々な情報を表示することで、ユーザーインターフェースをとることが可能となる。   The image display device 108 can display not only images but also arbitrary information alone or together with images. Camera status display, character information such as shutter speed, aperture value, sensitivity information, etc. selected by the user or determined by the camera, graphs such as luminance distribution measured by the image processing circuit 50, face recognition results, scene recognition Results and the like can also be displayed. The display position and display color of information can be arbitrarily selected. By displaying these various types of information, a user interface can be taken.

また、画像表示装置108には、画像記憶媒体82に記憶されている画像データを表示することも可能である。画像データが圧縮されている場合、圧縮伸張部32にて伸張し、VRAM34にデータを展開する。このデータをD/A36にてアナログデータに変換して出力する。   The image display device 108 can also display image data stored in the image storage medium 82. If the image data is compressed, the data is decompressed by the compression / decompression unit 32 and the data is expanded in the VRAM 34. This data is converted into analog data by the D / A 36 and output.

画像記憶媒体82は不揮発性のものであり、主に撮影した画像データを記憶することが可能である。画像データの記憶に関しては、フォルダ階層を持たせたり、撮影した順にフォルダやファイル名が昇順に命名されるようにすることが可能である。各画像データには、絞り値やシャッター速度、ISO感度等の撮影情報や、撮影した時刻等を付加することができ、それらを画像データと共に記憶することが可能となっている。さらに、記憶した画像データの読み出しはもちろん、画像の複製、移動、消去も可能となっている。   The image storage medium 82 is non-volatile and can mainly store captured image data. Regarding the storage of image data, it is possible to have a folder hierarchy or to name folders and file names in ascending order in the order of shooting. Shooting information such as aperture value, shutter speed, ISO sensitivity, shooting time, and the like can be added to each image data, and these can be stored together with the image data. Furthermore, the stored image data can be read out, and the image can be copied, moved, and erased.

操作部70には、システムの電源オン/オフを切り替えることの出来る電源スイッチ102、撮影指示を行うためのシャッタースイッチSW1(104)、SW2(106)、モード切替スイッチ110、パラメータ選択スイッチ112が含まれる。   The operation unit 70 includes a power switch 102 that can switch the system power on / off, a shutter switch SW1 (104), SW2 (106), a mode change switch 110, and a parameter selection switch 112 for giving a shooting instruction. It is.

シャッタースイッチSW1(104)は、不図示のシャッターボタンの操作途中でONとなり、自動露出制御やピント制御等の撮影準備動作の開始を指示する。シャッタースイッチSW2(106)は、不図示のシャッターボタンの操作完了でONとなり、静止画撮影や画像認識の指示を行う操作が実現可能である。   The shutter switch SW1 (104) is turned ON during the operation of a shutter button (not shown), and instructs to start a shooting preparation operation such as automatic exposure control or focus control. The shutter switch SW2 (106) is turned on when the operation of a shutter button (not shown) is completed, and an operation for instructing still image shooting or image recognition can be realized.

モード切替スイッチ110は、静止画撮影モード、動画撮影モード、再生モード等のカメラ動作モードを切り替えることが出来る。   The mode switch 110 can switch camera operation modes such as a still image shooting mode, a moving image shooting mode, and a playback mode.

パラメータ選択スイッチ112により、測距領域や測光モードをはじめとする撮影時の撮影条件の選択や、撮影画像再生時のページ送り、カメラの動作設定全般等をユーザーが選択することが出来る。さらに前述の電子ファインダーのOn/Offを選択することも出来る。また、画像表示装置108は画像を表示すると共に、タッチパネルとして入力装置となる構成とすることも出来る。   The parameter selection switch 112 allows the user to select shooting conditions such as a distance measurement area and a photometry mode, page feed when shooting a captured image, and overall camera operation settings. Furthermore, the above-mentioned electronic viewfinder On / Off can be selected. Further, the image display device 108 can display an image and can be configured as an input device as a touch panel.

なお、図1において、撮像系として囲まれた部分が被写体を撮像するとともに、画角を変更可能な撮像手段に対応している。   In FIG. 1, a portion surrounded by the imaging system corresponds to an imaging unit that captures an image of a subject and can change the angle of view.

図2は、図1におけるシステム制御部60により実行される静止画記録処理の手順を示すフローチャートである。   FIG. 2 is a flowchart showing the procedure of the still image recording process executed by the system control unit 60 in FIG.

図2において、システム制御部60は、後述する図3の被写体枠表示処理を実行して、CCD16から読み出された画像データを解析することで被写体領域を決定する。そして、そこに主被写体を示す被写体枠を撮像された被写体を示す画像に重畳して表示する(ステップS201)。   In FIG. 2, the system control unit 60 executes a subject frame display process of FIG. 3 to be described later, and determines the subject region by analyzing the image data read from the CCD 16. Then, a subject frame indicating the main subject is displayed superimposed on the image indicating the captured subject (step S201).

次いで、シャッタースイッチSW1(104)がONか否かを判別する(ステップS202)。判別の結果、OFFのときは(ステップS202でNO)、S201に戻り、ONのときは(ステップS202でYES)、ステップS203に進み、被写体輝度を求めるための測光処理を行う(ステップS203)。この測光処理では、撮像部から読み出された画像データの信号レベルと適正レベルとの差分、測光時の露出等から被写体輝度を求め、測光値としてシステム制御部60の内部メモリ(不図示)に記憶する。また、ステップS201で表示された被写体枠の位置に対して重点測光することも可能である。   Next, it is determined whether or not the shutter switch SW1 (104) is ON (step S202). If the result of determination is OFF (NO in step S202), the process returns to S201. If ON (YES in step S202), the process proceeds to step S203, and photometric processing for obtaining subject luminance is performed (step S203). In this photometry process, subject brightness is obtained from the difference between the signal level of the image data read from the imaging unit and the appropriate level, exposure at the time of photometry, etc., and is stored in the internal memory (not shown) of the system control unit 60 as a photometric value. Remember. It is also possible to perform the focus metering on the position of the subject frame displayed in step S201.

次いで、システム制御部60は、ステップS203で記憶した測光値に基づき測距処理に適した露出に制御し(ステップS204)、測距処理を行う(ステップS205)。このステップS205ではステップS201で表示された被写体枠の位置に対して測距を行い、被写体に対してピントを合わせることが出来る。   Next, the system control unit 60 controls the exposure to be suitable for the distance measurement process based on the photometric value stored in step S203 (step S204), and performs the distance measurement process (step S205). In step S205, distance measurement is performed on the position of the subject frame displayed in step S201, and the subject can be focused.

次いで、ステップS203で記憶した測光値に基づき、シャッタースイッチSW1(104)のONを保持している間に用いる露出を制御する(ステップS206)。ここではシャッタースイッチSW2(106)がONとなった後の撮影タイムラグを短縮するため、静止画露出の絞り値に予め絞りを制御しておく。   Next, based on the photometric value stored in step S203, the exposure used while the shutter switch SW1 (104) is kept ON is controlled (step S206). Here, in order to shorten the shooting time lag after the shutter switch SW2 (106) is turned on, the aperture is controlled in advance to the aperture value for still image exposure.

次いで、シャッタースイッチSW2(106)がONか否かを判別し(ステップS207)、OFFのときは(ステップS207でNO)、シャッタースイッチSW1(104)がONか否か判別する(ステップS208)。ここで、OFFのときは(ステップS208でYES)、ステップS201に戻り、ONのときは(ステップS208でNO)、ステップS207の処理に戻る。   Next, it is determined whether or not the shutter switch SW2 (106) is ON (step S207). If it is OFF (NO in step S207), it is determined whether or not the shutter switch SW1 (104) is ON (step S208). If it is OFF (YES in step S208), the process returns to step S201. If it is ON (NO in step S208), the process returns to step S207.

ステップS207の判別の結果、ONのときは(ステップS207でYES)、ステップS203で記憶した測光値に基づき静止画用の露出に設定する(ステップS209)。また、発光撮影する場合には調光動作を行い、本露光に対する発光設定も行っておく。次いで、本露光を行う(ステップS210)。本露光されたデータは一時記憶メモリ30に記憶される。そして、撮像されたデータの現像処理を行い(ステップS211)、現像されたデータを画像記録媒体I/F80を通じて画像記憶媒体82に記録し(ステップS212)、再びステップS201の処理に戻る。   If the result of determination in step S207 is ON (YES in step S207), the still image exposure is set based on the photometric value stored in step S203 (step S209). In addition, in the case of flash photography, a light control operation is performed, and light emission settings for the main exposure are also made. Next, main exposure is performed (step S210). The data subjected to the main exposure is stored in the temporary storage memory 30. Then, the imaged data is developed (step S211), the developed data is recorded on the image storage medium 82 through the image recording medium I / F 80 (step S212), and the process returns to step S201 again.

図3は、図2のステップS201で実行される被写体枠表示処理の手順を示すフローチャートである。   FIG. 3 is a flowchart showing the procedure of the subject frame display process executed in step S201 of FIG.

なお、以下の説明において、画角を変更することをズームと表現し、望遠側をテレ側、広角側をワイド側と表現する。また、フローチャートではαT→Wのようにαに矢印を用いて表現しているが、ここでは省略する。   In the following description, changing the angle of view is expressed as zoom, the telephoto side is expressed as the tele side, and the wide angle side is expressed as the wide side. In the flowchart, α is represented using an arrow as αT → W, but is omitted here.

図3において、システム制御部60は、主被写体検出枠決定処理を実行して、被写体枠の候補となる主被写体検出枠(第1主被写体候補)を決定する(ステップS301)(第1決定手段)。   In FIG. 3, the system control unit 60 executes main subject detection frame determination processing to determine a main subject detection frame (first main subject candidate) as a subject frame candidate (step S301) (first determination means). ).

図4は、この図3のステップS301で実行される主被写体枠決定処理の手順を示すフローチャートである。   FIG. 4 is a flowchart showing a procedure of main subject frame determination processing executed in step S301 of FIG.

図4において、システム制御部60は、得られた画像データをM×Nのブロックに分割し、M×Nの各ブロックに対して輝度/色相/彩度情報を取得する(ステップS501)。ここでは画像処理回路50及び或いはシステム制御部60を用いて画像データをM×Nの輝度/色相/彩度情報に変換する(例えばM=32、N=24)。以降、このM×Nの輝度/色相/彩度情報を解析に用いる。   In FIG. 4, the system control unit 60 divides the obtained image data into M × N blocks, and acquires luminance / hue / saturation information for each M × N block (step S501). Here, the image processing circuit 50 and / or the system control unit 60 is used to convert the image data into M × N luminance / hue / saturation information (for example, M = 32, N = 24). Thereafter, this M × N luminance / hue / saturation information is used for the analysis.

次いで、取得した輝度/色相/彩度情報をもとに、M×Nのブロックを複数の領域に分割する(ステップS502)。具体的に、まず彩度情報を用いて、彩度の高いブロックと低いブロックとを認識する。次いで彩度の高いブロックについては色相情報を用いて、彩度の低いブロックについては輝度情報を用いて、それぞれの情報がある範囲内に収まるブロックを同一領域としてグルーピングする。こうすることで、M×Nのブロックが色の似た領域及び或いは輝度の似た領域に分割されることになる。   Next, based on the acquired luminance / hue / saturation information, the M × N block is divided into a plurality of regions (step S502). Specifically, first, the saturation information is used to recognize blocks with high and low saturation. Next, hue information is used for blocks with high saturation, and luminance information is used for blocks with low saturation, and blocks that fall within a certain range are grouped as the same region. By doing so, the M × N block is divided into regions having similar colors and / or regions having similar brightness.

次いで、分割された各領域が背景であるか否かを判定し、背景であると判定された領域を、主被写体領域候補から除外する(ステップS503)。具体的には、画面端に触れている部分の多い領域や、その領域と近い色相を持った領域を背景領域と判定し、それ以外は背景以外の領域として定める。同じ画面端でも画面下方向については主被写体領域が触れる可能性が高いことから、画面下方向については背景除去の対象外としてもよい。   Next, it is determined whether or not each of the divided areas is the background, and the area determined to be the background is excluded from the main subject area candidates (step S503). Specifically, an area with many parts touching the screen edge or an area having a hue close to that area is determined as a background area, and other areas are determined as areas other than the background. Since there is a high possibility that the main subject area touches the screen lower direction even at the same screen edge, the screen lower direction may be excluded from the background removal target.

主被写体領域候補から除外されずに候補に残った背景以外の領域の各々に対して、上述した第1評価値としての評価値を算出する(ステップS504)。この評価値は、画面中心からの距離、面積、扁平率のうちの少なくとも1つの情報から算出され、値が大きいほど主被写体領域である可能性が高いことを示す。例えば画面中心に近く、面積が大きく、扁平率が低いほど評価値を高くする。また、前回の主被写体枠決定処理にて評価値が一番大きかった領域と同一と判定された領域の評価値を高くすることも出来る。同一領域の判定には輝度/色相/彩度情報や位置を用いればよい。   The above-described evaluation value as the first evaluation value is calculated for each of the regions other than the background remaining in the candidate without being excluded from the main subject region candidates (step S504). This evaluation value is calculated from at least one information among the distance from the center of the screen, the area, and the flatness ratio, and the larger the value, the higher the possibility of being the main subject region. For example, the evaluation value is increased as the area is closer to the center of the screen, the area is larger, and the flatness is lower. In addition, the evaluation value of the area determined to be the same as the area having the largest evaluation value in the previous main subject frame determination process can be increased. For determination of the same area, luminance / hue / saturation information and position may be used.

次いで、主被写体である主被写体可能性を示す主被写体自信度を算出する(ステップS505)。この主被写体自信度は、評価値の一番大きかった領域の評価値、及び評価値の大きかった上位2つの領域の評価値の差分が大きいほど大きくする。また、同一領域が連続して評価値の一番大きい領域となった場合に主被写体自信度を大きくしてもよい。   Next, the main subject confidence level indicating the main subject possibility as the main subject is calculated (step S505). The main subject confidence level is increased as the difference between the evaluation value of the region having the largest evaluation value and the evaluation value of the upper two regions having the largest evaluation value increases. Further, the main subject confidence level may be increased when the same region continuously becomes the region having the largest evaluation value.

そして、上述した第1主被写体候補としての主被写体検出枠を決定して(ステップS506)、本処理を終了する。ここでは、ステップS505で算出した主被写体自信度が閾値以上であれば評価値の一番大きかった領域を主被写体検出枠として決定する。主被写体自信度が閾値に達していない場合、「主被写体検出枠なし」とする。また、ステップS503で背景除去された結果残った主被写体領域候補の数が多かった場合も、評価値のばらつきによって評価値の一番大きい領域が安定しないため「主被写体検出枠なし」としてもよい。   Then, the main subject detection frame as the first main subject candidate described above is determined (step S506), and this process ends. Here, if the main subject confidence level calculated in step S505 is equal to or greater than the threshold value, the region having the largest evaluation value is determined as the main subject detection frame. If the main subject confidence level has not reached the threshold, “no main subject detection frame” is set. Also, when there are a large number of main subject region candidates remaining as a result of background removal in step S503, the region with the largest evaluation value is not stable due to variations in the evaluation value, so that “no main subject detection frame” may be used. .

なお、この主被写体枠決定処理は、画面端に触れている部分の多い領域やその領域と近い色相を持った領域を主被写体領域候補から除外する手順であるため、画角の変動が生じるズームの影響を受けやすいものとなっている。例えば、主被写体検出枠として決定された領域における被写体であっても、その後のズームによって画角の端部に接する部分が増えてしまうと、背景として扱われることになってしまうことがある。   Note that this main subject frame determination process is a procedure for excluding, from the main subject region candidate, a region with many parts touching the edge of the screen or a region having a hue close to that region. It is easy to be affected. For example, even a subject in an area determined as a main subject detection frame may be treated as a background when the number of portions in contact with the end of the angle of view increases due to subsequent zooming.

図3に戻り、ステップS302で、追尾中か否かを判別する(ステップS302)。この追尾処理は、指定された被写体領域の主に色に基づいて、連続して撮像される画像データ中の被写体領域の位置を追跡する処理である。追尾処理の開始、終了に関する処理はS306、S318、S610等で行われるが、システム制御部60は内部メモリに記憶されたフラグを管理、参照することによって現在の追尾状態を判断することが出来る。   Returning to FIG. 3, it is determined in step S302 whether tracking is in progress (step S302). This tracking process is a process of tracking the position of the subject region in the image data that is continuously captured based on the color of the designated subject region. Processing related to the start and end of the tracking process is performed in S306, S318, S610, and the like, but the system control unit 60 can determine the current tracking state by managing and referring to the flag stored in the internal memory.

ステップS302の判別の結果、追尾中でないとき(ステップS302でNO)、ステップS301の主被写体検出枠決定処理によって得られた被写体枠の候補となる主被写体検出枠があるか否かを判別する(ステップS303)。主被写体検出枠がなかったとき(ステップS303でNO)、画像表示装置108上の被写体枠を非表示にして(ステップS304)、本処理を終了する。ステップS304では、それまで被写体枠を表示していた場合はそれを非表示とし、また表示している被写体枠がなかった場合はそのまま被写体枠が表示されない状態を保つ。   If the result of determination in step S302 is that tracking is not in progress (NO in step S302), it is determined whether or not there is a main subject detection frame that is a subject frame candidate obtained by the main subject detection frame determination processing in step S301 ( Step S303). When there is no main subject detection frame (NO in step S303), the subject frame on the image display device 108 is not displayed (step S304), and this process is terminated. In step S304, if the subject frame has been displayed so far, it is not displayed. If there is no subject frame displayed, the subject frame is not displayed as it is.

ステップS303の判別の結果、主被写体検出枠があったとき(ステップS303でYES)、主被写体検出枠を被写体枠として画像表示装置108に表示し(ステップS305)、追尾処理を開始して(ステップS306)、本処理を終了する。   If the result of determination in step S303 is that there is a main subject detection frame (YES in step S303), the main subject detection frame is displayed on the image display device 108 as the subject frame (step S305), and tracking processing is started (step S305). (S306) This process is terminated.

ステップS302の判別の結果、追尾中のとき(ステップS302でYES)、追尾枠決定処理を実行して、被写体枠の候補となる追尾枠(第2主被写体候補)を決定する(ステップS307)(第2決定手段)。   If the result of determination in step S302 is that tracking is in progress (YES in step S302), tracking frame determination processing is executed to determine a tracking frame (second main subject candidate) that is a candidate for the subject frame (step S307) ( Second determining means).

図5は、この図3のステップS307で実行される追尾枠決定処理の手順を示すフローチャートである。   FIG. 5 is a flowchart showing the tracking frame determination process performed in step S307 of FIG.

図5において、システム制御部60は、追尾対象の初期特徴色が記憶済みか否かを判別する(ステップS601)。判別の結果、記憶済みのときは(ステップS106でYES)、ステップS604に進み、記憶済みでなければ(ステップS601でNO)、対象領域の色情報を初期特徴色(予め定められた色)として記憶する(ステップS602)。初期特徴色は追尾開始直後に追尾対象の被写体の色情報を記憶しておくためのもので、追尾中にこの初期特徴色との色の差が大きくなった場合に追尾を中止するための判断等に用いる。   In FIG. 5, the system control unit 60 determines whether or not the initial characteristic color to be tracked has been stored (step S601). If the result of determination is that it has been stored (YES in step S106), the process proceeds to step S604, and if it has not been stored (NO in step S601), the color information of the target area is set as the initial characteristic color (predetermined color). Store (step S602). The initial feature color is for storing the color information of the subject to be tracked immediately after the start of tracking. If the color difference from this initial feature color becomes large during tracking, the judgment is made to stop tracking. Used for etc.

次いで、初期特徴色を追尾対象色とする(ステップS603)。追尾処理はこの追尾対象色に最も近い色の領域を追跡するように動作する。追尾対象色は追尾枠決定処理のたびに更新されるが、ステップS603は追尾開始直後に追尾対象色を初期特徴色で初期化する処理となる。   Next, the initial characteristic color is set as the tracking target color (step S603). The tracking process operates so as to track the area of the color closest to the tracking target color. The tracking target color is updated every time the tracking frame determination process is performed, but step S603 is a process of initializing the tracking target color with the initial characteristic color immediately after the tracking is started.

次いで、追尾対象色に最も近い色の領域を撮像して得られた画像内の領域を探索して、追尾対象領域として決定する(ステップS604)。最も近い色か否かの判断には画像データのR/G/B信号を用いればよく、例えばR/G/Bそれぞれのデータと追尾対象色のR/G/B成分との差分が閾値以内に収まるかを調べればよい。また、探索する画像を示す画像データそのものではデータサイズが大きい場合があるため、画像データを加工等して得られたデータから該当領域を探索してもよい。   Next, a region in the image obtained by imaging the color region closest to the tracking target color is searched and determined as the tracking target region (step S604). It is sufficient to use the R / G / B signal of the image data to determine whether or not it is the closest color. For example, the difference between the R / G / B data and the R / G / B component of the tracking target color is within the threshold value. Find out if it fits. In addition, since the image data itself indicating the image to be searched may have a large data size, the corresponding area may be searched from data obtained by processing the image data.

次いで、追尾対象色をステップS604で決定した追尾対象領域の色に更新し、記憶する(ステップS605)。追尾対象色を追尾枠決定処理を行うたびに更新することで、外光等の影響で少しずつ被写体の色が変わってしまうような場合でも追尾し続けることが可能となる。   Next, the tracking target color is updated to the color of the tracking target area determined in step S604 and stored (step S605). By updating the tracking target color every time the tracking frame determination process is performed, it is possible to continue tracking even when the color of the subject gradually changes due to the influence of external light or the like.

次いで、最終的な第2主被写体候補としての追尾枠を決定する(ステップS606)。基本的には上記予め定められた色に最も近い色を有する領域を追尾枠とする。しかしながら、追尾対象色と似た色の領域が存在しなかった場合や、ステップS604で見つかった領域の色が初期特徴色からある程度以上変わってしまっている場合等は、ステップS604で決定した領域を最終的な追尾枠としては採用せずに「追尾枠なし」とする。   Next, a tracking frame as a final second main subject candidate is determined (step S606). Basically, an area having a color closest to the predetermined color is set as a tracking frame. However, if there is no region having a color similar to the tracking target color, or if the color of the region found in step S604 has changed to some extent from the initial feature color, the region determined in step S604 is determined. The final tracking frame is not adopted and “no tracking frame” is set.

次いで、第2評価値としての追尾自信度を算出する(ステップS607)。追尾自信度は、予め定められた色と追尾枠における領域の色との類似度により算出される。具体的には、追尾対象色と初期特徴色の差が小さい場合に大きい値にする。追尾対象色と初期特徴色の差が小さい場合は、追尾開始時と同一被写体を追尾している可能性が高いと判断出来るためである。また、追尾枠のサイズ変動が小さい場合や追尾枠の移動距離が小さい場合、また追尾開始からの時間経過が短い場合に追尾自信度を大きくしてもよい。   Next, the tracking confidence level as the second evaluation value is calculated (step S607). The tracking confidence level is calculated based on the similarity between a predetermined color and the color of the area in the tracking frame. Specifically, a large value is set when the difference between the tracking target color and the initial characteristic color is small. This is because when the difference between the tracking target color and the initial characteristic color is small, it can be determined that there is a high possibility of tracking the same subject as when tracking started. Further, the degree of tracking confidence may be increased when the size variation of the tracking frame is small, the movement distance of the tracking frame is small, or when the time elapsed from the start of tracking is short.

次いで、ステップS606で追尾枠として決定された枠があるか否かを判別し(ステップS608)、追尾枠があるとき(ステップS608でYES)、本処理を終了する。ステップS606での判別の結果、追尾枠がないとき(ステップS608でNO)、追尾情報をクリアし(ステップS609)、追尾を中止して(ステップS610)、本処理を終了する。   Next, it is determined whether or not there is a frame determined as a tracking frame in step S606 (step S608), and when there is a tracking frame (YES in step S608), this process ends. If the result of determination in step S606 is that there is no tracking frame (NO in step S608), the tracking information is cleared (step S609), tracking is stopped (step S610), and this process ends.

上記追尾情報は初期特徴色、追尾対象色等の色情報である。他にも、追尾開始時点の追尾枠サイズ等を記憶している場合はそれもクリアされる。追尾の中止に関し、追尾中か否かを管理するフラグを用意している場合はフラグをクリアしておく。   The tracking information is color information such as an initial characteristic color and a tracking target color. In addition, when the tracking frame size at the time of tracking start is stored, it is also cleared. When a flag for managing whether tracking is in progress is prepared regarding the cancellation of tracking, the flag is cleared.

なお、この追尾枠決定処理は、追尾対象色に最も近い色の領域を探索するものであるため、追尾対象とする被写体の一部が画面の外にはみ出している場合であっても、被写体の残りの部分から追尾を行うことが可能である。そのため、主被写体枠決定処理に比較して、画角の変動が生じるズームの影響を受けにくい。   Since the tracking frame determination process searches for an area of the color closest to the tracking target color, even if a part of the subject to be tracked protrudes outside the screen, Tracking can be performed from the remaining portion. Therefore, compared to the main subject frame determination process, it is less susceptible to the influence of zoom that causes a change in the angle of view.

図3に戻り、現在ズーム中であるか否かを判別する(ステップS308)。判別の結果、ズーム中のとき(ステップS308でYES)、そのズームがワイド側(W)からテレ側(T)に向かう方向(W→T)か否かを判別する(ステップS309)。ズームがW→Tのとき(ステップS309でYES)、係数αにαWTを設定する(ステップS310)。ズームがW→Tではないとき、すなわちテレ側(T)からワイド側(W)に向かう方向T→Wのときは(ステップS309でNO)、係数αにαTWを設定する(ステップS311)。   Returning to FIG. 3, it is determined whether or not zooming is currently being performed (step S308). As a result of the determination, when zooming is in progress (YES in step S308), it is determined whether or not the zoom is in a direction (W → T) from the wide side (W) to the tele side (T) (step S309). When the zoom is W → T (YES in step S309), αWT is set to the coefficient α (step S310). When the zoom is not W → T, that is, in the direction T → W from the tele side (T) to the wide side (W) (NO in step S309), αTW is set to the coefficient α (step S311).

ここで、係数αは、0≦αWT≦αTW<1を満たす。すなわち、ズームがワイド側(W)からテレ側(T)に向かう方向のときの値は、テレ側(T)からワイド側(W)に向かう方向のときの値以下となる。従って、αは、撮像する画角がワイド側からテレ側に変更されている場合は、テレ側からワイド側に変更されている場合と比較してより大きく主被写体可能性を低くするように評価値を補正するものである。そして、係数αは主被写体検出枠決定処理(ステップS301)で決定された主被写体自信度(第1評価値)を減じる係数である。すなわち、αは、主被写体可能性を低くするように主被写体自信度を補正する係数である。   Here, the coefficient α satisfies 0 ≦ αWT ≦ αTW <1. That is, the value when the zoom is in the direction from the wide side (W) to the tele side (T) is equal to or less than the value when the zoom is in the direction from the tele side (T) to the wide side (W). Therefore, α is evaluated to be larger when the field angle to be imaged is changed from the wide side to the tele side, and to reduce the possibility of the main subject more than when the angle of view is changed from the tele side to the wide side. The value is corrected. The coefficient α is a coefficient for reducing the main subject confidence level (first evaluation value) determined in the main subject detection frame determination process (step S301). That is, α is a coefficient for correcting the main subject confidence level so as to reduce the possibility of the main subject.

次いで、α倍した主被写体自信度を改めて主被写体自信度とする(ステップS312)(補正手段)。この主被写体自信度は、主被写体検出枠が被写体枠として有力だと主被写体検出枠決定処理中で判断した場合に大きくなる評価値である。   Next, the main subject confidence level multiplied by α is changed to the main subject confidence level (step S312) (correction means). The main subject confidence level is an evaluation value that increases when it is determined during the main subject detection frame determination process that the main subject detection frame is influential as a subject frame.

このステップS312において、αWTはαTW以下であるので、ズームがワイド側(W)からテレ側(T)に向かう方向の場合に主被写体自信度がより低下することとなる。これは、ズームがワイド側(W)からテレ側(T)に向かう方向の場合、ズーム前に画角内にあった被写体がズームした結果画角外に出てしまう場合があるためである。また、中心からの距離もばらつきが大きくなり主被写体検出枠決定処理の精度が低下しやすいためである。   In this step S312, αWT is equal to or less than αTW, so that the main subject confidence level is further reduced when the zoom is in the direction from the wide side (W) to the telephoto side (T). This is because when the zoom is in the direction from the wide side (W) to the tele side (T), a subject that was within the angle of view before zooming may go out of the angle of view as a result of zooming. Further, the distance from the center also varies greatly, and the accuracy of the main subject detection frame determination process is likely to decrease.

一方、テレ側(T)からワイド側(W)に向かう方向の場合はズーム前に画角内にあったものはズームしても画角内に収まっている可能性が高いと考えられる。また、中心からの距離のばらつきも小さくなる方向であるため主被写体検出枠決定処理の精度はあまり低下しないと考えられる。これらを考慮し、ズームがワイド側(W)からテレ側(T)に向かう方向の場合に主被写体自信度がより低下するようにしている。   On the other hand, in the case of the direction from the tele side (T) to the wide side (W), it is highly possible that what was within the field angle before zooming is still within the field angle even after zooming. Further, since the variation in the distance from the center is also reduced, it is considered that the accuracy of the main subject detection frame determination process does not decrease so much. Considering these, the main subject confidence level is further reduced when the zoom is in the direction from the wide side (W) to the tele side (T).

次いで、主被写体自信度が閾値以上か否かを判別する(ステップS313)。閾値より小さときは(ステップS313でNO)、ステップS315に進み、主被写体自信度が閾値以上であったときは(ステップS313でYES)、追尾自信度(第2評価値)が閾値以下か否かを判別する(ステップS314)。この追尾自信度は、追尾枠決定処理(ステップS307)で決定される追尾枠が被写体として有力だと判定された場合に大きくなる評価値であり、追尾枠決定処理で算出される。   Next, it is determined whether or not the main subject confidence level is greater than or equal to a threshold value (step S313). If it is smaller than the threshold (NO in step S313), the process proceeds to step S315, and if the main subject confidence level is equal to or greater than the threshold (YES in step S313), whether the tracking confidence level (second evaluation value) is equal to or less than the threshold value. Is determined (step S314). This tracking confidence level is an evaluation value that increases when it is determined that the tracking frame determined in the tracking frame determination process (step S307) is influential as a subject, and is calculated in the tracking frame determination process.

ステップS314の判別の結果、追尾自信度が閾値より大きいときは(ステップS314でNO)、ステップS315に進む。主被写体自信度が低く追尾自信度が高いことから、主被写体検出枠でなく追尾枠を被写体枠として決定し、追尾枠を画像表示装置108に表示して(ステップS315)(表示手段)、本処理を終了する。なお、追尾枠決定処理において追尾枠が決定されなかった場合は、当然に追尾枠を被写体枠として表示しないこととなる。   As a result of the determination in step S314, when the tracking confidence level is larger than the threshold (NO in step S314), the process proceeds to step S315. Since the main subject confidence level is low and the tracking confidence level is high, the tracking frame instead of the main subject detection frame is determined as the subject frame, and the tracking frame is displayed on the image display device 108 (step S315) (display means). The process ends. If the tracking frame is not determined in the tracking frame determination process, the tracking frame is naturally not displayed as the subject frame.

ステップS314の判別の結果、追尾自信度が閾値以下であったときは(ステップS314でYES)、ステップS316に進む。主被写体自信度が高く追尾自信度が低いことから、追尾枠でなく主被写体検出枠を被写体枠として決定し、被写体枠を画像表示装置108に表示する(ステップS316)(表示手段)。   As a result of the determination in step S314, when the tracking confidence level is equal to or less than the threshold (YES in step S314), the process proceeds to step S316. Since the main subject confidence level is high and the tracking confidence level is low, the main subject detection frame instead of the tracking frame is determined as the subject frame, and the subject frame is displayed on the image display device 108 (step S316) (display means).

次いで、これまでの追尾情報をクリアし(ステップS317)、追尾処理を再開して(ステップS318)、本処理を終了する。ステップS318では、記憶していた追尾対象領域の色情報をクリアし、新たな被写体枠の領域の色情報を記憶し直して追尾を再開することとなる。   Next, the tracking information thus far is cleared (step S317), the tracking process is resumed (step S318), and this process is terminated. In step S318, the stored color information of the tracking target area is cleared, the color information of the new subject frame area is stored again, and tracking is resumed.

上記ステップS313〜316が第3決定手段に対応している。これらの処理で主被写体可能性が高い方の評価値に対応する主被写体候補を主被写体として決定することについて説明する。まずズーム中であるならば、ステップS308から分岐してαが補正され、そこでステップS313、或いはさらにステップS314の処理が行われる。ズーム中に主被写体枠が追尾枠となるケースは、追尾自信度によらずに主被写体自信度が閾値未満の場合、又は主被写体自信度が閾値以上かつ追尾自信度が閾値より大きい場合がありうる。追尾枠のほうがズームによる画角の変動を受けにくいため、追尾自信度のほうが主被写体枠として選択されやすい。反対に、ズーム中に主被写体枠が追尾枠となるケースは、主被写体自信度が閾値以上かつ追尾自信度が閾値未満の場合のみである。   Steps S313 to S316 correspond to the third determining unit. A description will be given of determining a main subject candidate corresponding to an evaluation value having a higher main subject possibility as a main subject in these processes. If zooming is in progress, the process branches from step S308 to correct α, and the process of step S313 or further step S314 is performed there. The case where the main subject frame becomes the tracking frame during zooming may be when the main subject confidence level is less than the threshold value regardless of the tracking confidence level, or the main subject confidence level is greater than or equal to the threshold value and the tracking confidence level may be greater than the threshold value. sell. Since the tracking frame is less susceptible to fluctuations in the angle of view due to zooming, the tracking confidence level is more easily selected as the main subject frame. Conversely, the case where the main subject frame becomes the tracking frame during zooming is only when the main subject confidence level is greater than or equal to the threshold and the tracking confidence level is less than the threshold.

図3の処理によれば、まず画角に依存する情報を用いて主被写体可能性を示す第1評価値を算出して第1主被写体候補を決定する(ステップS301)。次いで、画角に依存しない情報を用いて前記主被写体可能性を示す第2評価値を算出して第2主被写体候補を決定(ステップS307)する。次いで、画角が変更されている場合に(ステップS308でYES)、主被写体可能性を低くするように第1評価値を補正し(ステップS310、311)、補正された第1評価値と第2評価値とを比較する。そして、主被写体可能性が高い方の評価値に対応する主被写体候補を主被写体として決定する(ステップS313〜316)。このように構成することでで、画角が変化している場合でも主被写体を精度よく決定することが出来る。なお、主被写体自信度をα倍する代わりに、追尾自信度を1/α倍して追尾自信度を高くさせても同様の効果を得ることが出来る。   According to the process of FIG. 3, firstly, a first main subject candidate is determined by calculating a first evaluation value indicating the main subject possibility using information depending on the angle of view (step S301). Next, a second evaluation value indicating the main subject possibility is calculated using information independent of the angle of view, and a second main subject candidate is determined (step S307). Next, when the angle of view is changed (YES in step S308), the first evaluation value is corrected so as to reduce the possibility of the main subject (steps S310 and 311), and the corrected first evaluation value and the first evaluation value are corrected. 2 The evaluation value is compared. Then, the main subject candidate corresponding to the evaluation value with the higher main subject possibility is determined as the main subject (steps S313 to S316). With this configuration, the main subject can be accurately determined even when the angle of view changes. The same effect can be obtained by increasing the tracking confidence level by multiplying the tracking confidence level by 1 / α instead of multiplying the main subject confidence level by α.

また、ズーム中は画角の変動により、主に画面中心からの距離等、画角に依存する評価値によって被写体領域を決定する主被写体検出枠決定処理の精度が低下するため、ステップS312で主被写体自信度をズームしていないときよりも減じている。一方、主に画角に依存しない色情報を基に被写体領域を決定する追尾枠決定処理に対する追尾自信度に関しては、特に減じる処理等を行わない。特に追尾枠決定処理に関しては、ズーム開始前に記憶した初期特徴色に似た色の領域を追跡することになるため、被写体が安定していたときの情報を基に被写体領域を決定している点でズーム中も正しく被写体枠を決定出来る可能性が高い。   Also, during zooming, the accuracy of the main subject detection frame determination process for determining the subject region based on the evaluation value that depends on the angle of view, such as the distance from the center of the screen, due to the change in the angle of view is reduced. Subject confidence level is lower than when zooming is not performed. On the other hand, with regard to the tracking confidence level for the tracking frame determination process that determines the subject region mainly based on color information that does not depend on the angle of view, no particular reduction process or the like is performed. In particular, with regard to the tracking frame determination process, an area of a color similar to the initial characteristic color stored before the start of zooming is tracked, so the object area is determined based on information when the object is stable. There is a high possibility that the subject frame can be correctly determined even during zooming.

さらに、ズーム中は画角の変動により、主に画面中心からの距離等、画角に左右される評価値によって被写体領域を決定する主被写体検出枠決定処理の精度が低下するため、主被写体自信度を低減させている。こうすることで、主に画角には左右されない色情報を基に決定される追尾枠が被写体枠として選択されやすくしている。これにより、ズーム中に主被写体検出枠決定処理が誤検出することによって、誤検出された被写体を追尾してしまう確率を減らすことが出来る。   Furthermore, during zooming, the accuracy of the main subject detection frame determination process that determines the subject area based on the evaluation value that depends mainly on the angle of view, such as the distance from the center of the screen, due to fluctuations in the angle of view decreases. The degree is reduced. In this way, a tracking frame that is determined based on color information that is mainly independent of the angle of view is easily selected as the subject frame. As a result, it is possible to reduce the probability that the erroneously detected subject is tracked by erroneously detecting the main subject detection frame determination process during zooming.

図6は、図2のステップS201で実行される被写体枠表示処理の変形例の手順を示すフローチャートである。   FIG. 6 is a flowchart showing the procedure of a modified example of the subject frame display process executed in step S201 of FIG.

図6において、現在ズーム中であるか否かを判別(ステップS701)する。判別の結果、ズーム中でないときは(ステップS701でNO)、図4の主被写体検出枠決定処理を行い(ステップS702)、ステップS703に進み、ズーム中のときは(ステップS701でYES)、ステップS703で追尾中か否か判別する。   In FIG. 6, it is determined whether or not zooming is currently being performed (step S701). If the result of determination is that zooming is not in progress (NO in step S701), the main subject detection frame determination process of FIG. 4 is performed (step S702), and the process proceeds to step S703. If zooming is in progress (YES in step S701), step In step S703, it is determined whether tracking is in progress.

ステップS703での判別の結果、追尾中ではないときは(ステップS703でNO)、ステップS702の主被写体検出枠決定処理によって被写体枠の候補となる主被写体検出枠があったか否かを判別する(ステップS704)。主被写体検出枠がなかった場合は(ステップS704でNO)、画像表示装置108上の被写体枠を非表示にして(ステップS705)、本処理を終了する。このとき、それまで被写体枠を表示していた場合はそれを非表示とし、また表示している被写体枠がなかった場合はそのまま被写体枠が表示されない状態を保つ。   If the result of determination in step S703 is that tracking is not in progress (NO in step S703), it is determined whether or not there is a main subject detection frame that is a subject frame candidate by the main subject detection frame determination processing in step S702 (step S703). S704). If there is no main subject detection frame (NO in step S704), the subject frame on the image display device 108 is not displayed (step S705), and this process ends. At this time, if the subject frame has been displayed so far, it is not displayed, and if there is no displayed subject frame, the subject frame is not displayed as it is.

ステップS704の判別の結果、主被写体検出枠があったとき(ステップS704でYES)、主被写体検出枠を被写体枠として画像表示装置108に表示し(ステップS706)、追尾処理を開始して(ステップS707)、本処理を終了する。   If the result of determination in step S704 is that there is a main subject detection frame (YES in step S704), the main subject detection frame is displayed as a subject frame on the image display device 108 (step S706), and tracking processing is started (step S706). S707), the process is terminated.

ステップS703の判別の結果、追尾中のとき(ステップS703でYES)、図5の追尾枠決定処理によって被写体枠の候補となる追尾枠を決定し(ステップS708)、現在ズーム中である否かを判別する(ステップS709)。ステップS709の判別の結果、ズーム中であったときは(ステップS709でYES)、追尾枠を被写体枠として選択し、追尾枠を画像表示装置108に表示して(ステップS712)、本処理を終了する。なお、追尾枠決定処理において追尾枠が決定されなかった場合は、当然に追尾枠を被写体枠として表示しないこととなる。   As a result of the determination in step S703, when tracking is in progress (YES in step S703), a tracking frame that is a subject frame candidate is determined by the tracking frame determination processing in FIG. 5 (step S708), and whether or not zooming is currently in progress. A determination is made (step S709). If the result of determination in step S709 is that zooming is in progress (YES in step S709), the tracking frame is selected as the subject frame, the tracking frame is displayed on the image display device 108 (step S712), and this processing ends. To do. If the tracking frame is not determined in the tracking frame determination process, the tracking frame is naturally not displayed as the subject frame.

ステップS709の判別の結果、ズーム中でないときは(ステップS709でNO)、主被写体自信度が閾値以上か否かを判別し(ステップS710)、閾値より小さかったときは(ステップS710でNO)、上述したステップS712に進む。なお、ズーム中でS702を実行しなかった場合は、主被写体自信度は算出されず、ステップS710の判定としては主被写体自信度が閾値に満たないとする。   If the result of determination in step S709 is that zooming is not in progress (NO in step S709), it is determined whether or not the main subject confidence level is greater than or equal to a threshold (step S710), and if it is less than the threshold (NO in step S710), The process proceeds to step S712 described above. If S702 is not executed during zooming, the main subject confidence level is not calculated, and it is assumed that the main subject confidence level is less than the threshold in the determination in step S710.

ステップS710の判別の結果、主被写体自信度が閾値以上であったときは(ステップS710でYES)、追尾自信度が閾値以下か否かを判別し(ステップS711)、追尾自信度が閾値以下でないときは上述したステップS712に進む。このステップS711を経由してステップS712に到達した場合は、主被写体自信度も追尾自信度も高いこととなるので、主被写体検出枠でなく追尾枠を優先して被写体枠として決定し、追尾枠を画像表示装置108に表示することとなる。   If the result of the determination in step S710 is that the main subject confidence level is greater than or equal to the threshold value (YES in step S710), it is determined whether or not the tracking confidence level is less than or equal to the threshold value (step S711). If so, the process proceeds to step S712 described above. When step S712 is reached via step S711, both the main subject confidence level and the tracking confidence level are high, so that the tracking frame is preferentially determined as the subject frame instead of the main subject detection frame, and the tracking frame is determined. Is displayed on the image display device 108.

ステップS711の判別の結果、追尾自信度が閾値以下であったときは(ステップS711でYES)、主被写体自信度が高く追尾自信度が低いことから、追尾枠でなく主被写体検出枠を被写体枠として決定する。それとともに、主被写体検出枠を画像表示装置108に表示する(ステップS713)。次いで、これまでの追尾情報をクリアし(ステップS714)、追尾処理を再開して(ステップS715)、本処理を終了する。このとき、記憶していた追尾対象領域の色情報をクリアし、新たな被写体枠の領域の色情報を記憶し直して追尾を再開することとなる。   As a result of the determination in step S711, if the tracking confidence level is equal to or less than the threshold (YES in step S711), the main subject detection frame is not the tracking frame but the main subject detection frame because the main subject confidence level is high and the tracking confidence level is low. Determine as. At the same time, the main subject detection frame is displayed on the image display device 108 (step S713). Next, the tracking information thus far is cleared (step S714), the tracking process is resumed (step S715), and this process ends. At this time, the stored color information of the tracking target area is cleared, the color information of the new subject frame area is stored again, and tracking is resumed.

上記処理において、ズーム中は画角の変動により、主に画面中心からの距離等画角に左右される評価値によって被写体領域を決定する主被写体検出枠決定処理の精度が低下するため、主被写体検出枠決定処理をズーム中は行わないようにしている。一方で、主に画角には左右されない色情報を基に被写体領域を決定する追尾枠決定処理を行い、被写体枠として追尾枠を採用する。主被写体検出枠決定処理の精度低下による被写体枠表示精度の低下を避けるとともに、ズーム中の主被写体検出枠決定処理によるシステム制御部60の処理負荷の増加を抑えることが出来る。   In the above processing, the accuracy of the main subject detection frame determination process for determining the subject area based on the evaluation value that depends mainly on the angle of view, such as the distance from the screen center, decreases due to the change in the angle of view during zooming. The detection frame determination process is not performed during zooming. On the other hand, a tracking frame determining process for determining a subject area is performed mainly based on color information that is not influenced by the angle of view, and the tracking frame is adopted as the subject frame. A decrease in subject frame display accuracy due to a decrease in accuracy of the main subject detection frame determination process can be avoided, and an increase in processing load on the system control unit 60 due to the main subject detection frame determination process during zooming can be suppressed.

また、上述した主被写体検出枠決定処理では、ステップS504、505で履歴情報を用いて評価値を算出することも出来る。しかしながら、特に履歴情報を利用できない初回の判定は位置、面積、形状といった画角に影響を受ける指標をもとに主被写体検出枠を決定するため、そこで被写体を誤検知してしまうとその後追尾を開始することで誤った被写体を追尾してしまうことになる。精度の低下する可能性が高いズーム中の主被写体検出決定処理を停止することで、画角の安定している非ズーム時に検出した被写体のみを追尾することが出来るようになり、誤追尾しにくくすることが出来る。   In the main subject detection frame determination process described above, an evaluation value can be calculated using history information in steps S504 and S505. However, the first judgment that cannot use history information is to determine the main subject detection frame based on the index that is affected by the angle of view such as position, area, and shape. By starting, an incorrect subject is tracked. By stopping the main subject detection determination process during zooming, which is likely to reduce accuracy, it is possible to track only the subject detected during non-zoom with a stable angle of view, making it difficult to track incorrectly. I can do it.

さらに、本実施の形態では画角の変動する条件としてズーム中であるか否かで主被写体自信度の低減や、主被写体検出枠決定処理の停止を行っているが、ジャイロ信号や加速度センサの出力に基づいて同様の処理を行ってもよい。例えばジャイロ信号が大きい場合や、加速度センサの出力が大きい場合は画角が変更されている可能性が高いため、主被写体自信度の低減や、主被写体検出枠決定処理の停止を行えばよい。   Furthermore, in the present embodiment, the main subject confidence level is reduced and the main subject detection frame determination process is stopped depending on whether zooming is being performed as a condition for changing the angle of view. Similar processing may be performed based on the output. For example, when the gyro signal is large or the output of the acceleration sensor is large, there is a high possibility that the angle of view has been changed. Therefore, the main subject confidence level may be reduced or the main subject detection frame determination process may be stopped.

以上説明したように、図3に示す被写体枠表示処理のフローチャートでは、ズーム中でない場合には、ズーム中である場合に比較して、追尾自信度に対する主被写体自信度の値が低減されるように補正している。また、図6に示す被写体枠表示処理のフローチャートでは、ズーム中でない場合には主被写体自信度を参照するが、ズーム中である場合には被写体自信度を参照せずに被写体枠を決定している。このように、本実施の形態では、ズーム中である場合には、ズーム中でない場合に比較して、画角に依存する主非被写体自信度よりも画角に依存しない追尾自信度を、より優先して用いて被写体枠を決定することで、主被写体を精度良く決定することが可能となる。   As described above, in the flowchart of the subject frame display process shown in FIG. 3, the value of the main subject confidence level with respect to the tracking confidence level is reduced when not zooming compared to when zooming. It is corrected to. In the flowchart of the subject frame display process shown in FIG. 6, the main subject confidence level is referred to when the zoom is not performed, but the subject frame is determined without referring to the subject confidence level when the zoom is being performed. Yes. Thus, in the present embodiment, when zooming, the tracking confidence level that does not depend on the angle of view is higher than the main non-subject confidence level that depends on the angle of view, compared to when the zoom is not performed. By determining the subject frame using the priority, it is possible to determine the main subject with high accuracy.

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

10 レンズ
16 CCD
38 画像認識回路
42 レンズ駆動回路
50 画像処理回路
60 システム制御部
100 撮像装置
104 シャッタースイッチSW1
106 シャッタースイッチSW2
108 画像表示装置
10 Lens 16 CCD
38 Image recognition circuit 42 Lens drive circuit 50 Image processing circuit 60 System control unit 100 Imaging device 104 Shutter switch SW1
106 Shutter switch SW2
108 Image display device

Claims (9)

被写体を撮像するとともに、画角を変更可能な撮像手段と、
前記撮像手段に撮像された被写体を示す画像から、画角に依存する情報を用いて主被写体候補が主被写体である主被写体可能性を示す第1評価値を算出して第1主被写体候補を決定する第1決定手段と、
前記撮像手段に撮像された被写体を示す画像から、画角に依存しない情報を用いて前記主被写体可能性を示す第2評価値を算出して第2主被写体候補を決定する第2決定手段と、
前記第1評価値と前記第2評価値を用いて、いずれかの評価値に対応する主被写体候補を主被写体として決定する第3決定手段と
を備え、
前記第3決定手段は、前記撮像手段により撮像する画角が変更されている場合は、変更されていない場合に比較して、前記第1評価値に対する前記第2評価値を優先して用いて前記主被写体を決定することを特徴とする撮像装置。
An imaging means capable of imaging a subject and changing an angle of view;
A first evaluation value indicating the main subject possibility that the main subject candidate is the main subject is calculated from the image showing the subject imaged by the imaging means using information depending on the angle of view, and the first main subject candidate is selected. First determining means for determining;
Second determination means for calculating a second evaluation value indicating the main subject possibility by using information independent of an angle of view from an image showing the subject imaged by the imaging means and determining a second main subject candidate; ,
Using the first evaluation value and the second evaluation value, third determining means for determining a main subject candidate corresponding to any of the evaluation values as a main subject,
The third determination unit preferentially uses the second evaluation value with respect to the first evaluation value when the angle of view captured by the imaging unit is changed, compared to when the angle of view is not changed. An image pickup apparatus that determines the main subject.
前記第3決定手段は、前記撮像手段により撮像する画角が変更されている場合に、画角が変更されていない場合に比較して、前記主被写体可能性を低くするように前記第1評価値を補正するか、あるいは、前記主被写体可能性を高くするように前記第2評価値を補正する補正手段を備え、前記補正手段によりいずれかが補正された第1評価値と前記第2評価値を比較して、前記主被写体可能性が高い方の評価値に対応する主被写体候補を前記主被写体として決定することを特徴とする請求項1に記載の撮像装置。   The third evaluation unit is configured to reduce the possibility that the main subject is lower when the angle of view captured by the imaging unit is changed than when the angle of view is not changed. A correction means for correcting the second evaluation value so as to correct the value or to increase the possibility of the main subject, and the first evaluation value corrected by the correction means and the second evaluation value. The imaging apparatus according to claim 1, wherein the main subject candidates corresponding to the evaluation value with the higher possibility of the main subject are determined as the main subject by comparing values. 前記補正手段は、前記撮像手段により撮像する画角が広角側から望遠側に変更されている場合は、望遠側から広角側に変更されている場合と比較してより大きく前記主被写体可能性を低くするように前記第1評価値を補正するか、あるいは、より大きく前記主被写体可能性を高くするように前記第2評価値を補正することを特徴とする請求項2に記載の撮像装置。   The correction means increases the possibility of the main subject when the angle of view captured by the imaging means is changed from the wide-angle side to the telephoto side compared to when the angle of view is changed from the telephoto side to the wide-angle side. The imaging apparatus according to claim 2, wherein the first evaluation value is corrected so as to be lowered, or the second evaluation value is corrected so as to increase the possibility of the main subject to be larger. 前記第3決定手段は、前記撮像手段により撮像する画角が変更されている場合は、前記第2評価値に対応する主被写体候補を前記主被写体として決定し、前記撮像手段により撮像する画角が変更されていない場合は、前記第1評価値と前記第2評価値を比較して、前記主被写体可能性が高い方の評価値に対応する主被写体候補を前記主被写体として決定することを特徴とする請求項1に記載の撮像装置。   The third determining unit determines a main subject candidate corresponding to the second evaluation value as the main subject when the angle of view captured by the imaging unit is changed, and the angle of view captured by the imaging unit. Is not changed, the first evaluation value and the second evaluation value are compared, and a main subject candidate corresponding to an evaluation value having a higher main subject possibility is determined as the main subject. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記第1決定手段は、輝度、色相、及び彩度情報を用いて背景以外の領域を定め、前記第1評価値を、前記画角に依存する情報として、前記画像の中心からの距離、面積、及び扁平率のうちの少なくとも1つの情報を用いて算出することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   The first determination unit determines a region other than the background using luminance, hue, and saturation information, and uses the first evaluation value as information depending on the angle of view, as a distance and an area from the center of the image. 5. The imaging apparatus according to claim 1, wherein calculation is performed using at least one of the information of the flatness ratio and the flatness ratio. 前記画角に依存しない情報は、予め定められた色を示す情報であり、
前記第2決定手段は、前記予め定められた色に最も近い色を有する前記画像内の領域を前記第2主被写体候補として決定し、前記予め定められた色と前記第2主被写体候補における領域の色との類似度により前記第2評価値を算出することを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The information independent of the angle of view is information indicating a predetermined color,
The second determining means determines a region in the image having a color closest to the predetermined color as the second main subject candidate, and the predetermined color and the region in the second main subject candidate The imaging apparatus according to claim 1, wherein the second evaluation value is calculated based on a degree of similarity with the color of the image.
前記第3決定手段により決定された主被写体であることを示す画像を、前記撮像手段に撮像された被写体を示す画像に重畳して表示する表示手段をさらに備えたことを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。   2. The display device according to claim 1, further comprising: a display unit configured to display an image indicating that the main subject is determined by the third determination unit so as to be superimposed on an image indicating the subject captured by the imaging unit. The imaging device according to any one of 1 to 6. 被写体を撮像するとともに、画角を変更可能な撮像手段を備えた撮像装置の制御方法であって、
前記撮像手段に撮像された被写体を示す画像から、画角に依存する情報を用いて主被写体候補が主被写体である主被写体可能性を示す第1評価値を算出して第1主被写体候補を決定する第1決定ステップと、
前記撮像手段に撮像された被写体を示す画像から、画角に依存しない情報を用いて前記主被写体可能性を示す第2評価値を算出して第2主被写体候補を決定する第2決定ステップと、
前記第1評価値と前記第2評価値を用いて、いずれかの評価値に対応する主被写体候補を主被写体として決定する第3決定ステップと
を備え、
前記第3決定ステップは、前記撮像手段により撮像する画角が変更されている場合は、変更されていない場合に比較して、前記第1評価値に対する前記第2評価値を優先して用いて前記主被写体を決定することを特徴とする制御方法。
A method for controlling an image pickup apparatus including an image pickup unit that can pick up an image of a subject and change an angle of view,
A first evaluation value indicating the main subject possibility that the main subject candidate is the main subject is calculated from the image showing the subject imaged by the imaging means using information depending on the angle of view, and the first main subject candidate is selected. A first determining step for determining;
A second determination step of determining a second main subject candidate by calculating a second evaluation value indicating the main subject possibility using information independent of an angle of view from an image showing the subject imaged by the imaging means; ,
A third determination step of determining a main subject candidate corresponding to any of the evaluation values as a main subject using the first evaluation value and the second evaluation value;
In the third determination step, when the angle of view captured by the imaging unit is changed, the second evaluation value with respect to the first evaluation value is preferentially used as compared with the case where the angle of view is not changed. A control method characterized by determining the main subject.
被写体を撮像するとともに、画角を変更可能な撮像手段を備えた撮像装置の制御方法をコンピュータに実行させるためのプログラムであって、
前記制御方法は、
前記撮像手段に撮像された被写体を示す画像から、画角に依存する情報を用いて主被写体候補が主被写体である主被写体可能性を示す第1評価値を算出して第1主被写体候補を決定する第1決定ステップと、
前記撮像手段に撮像された被写体を示す画像から、画角に依存しない情報を用いて前記主被写体可能性を示す第2評価値を算出して第2主被写体候補を決定する第2決定ステップと、
前記第1評価値と前記第2評価値を用いて、いずれかの評価値に対応する主被写体候補を主被写体として決定する第3決定ステップと
を備え、
前記第3決定ステップは、前記撮像手段により撮像する画角が変更されている場合は、変更されていない場合に比較して、前記第1評価値に対する前記第2評価値を優先して用いて前記主被写体を決定することを特徴とするプログラム。
A program for causing a computer to execute a control method of an image pickup apparatus including an image pickup unit that can pick up an object and change an angle of view,
The control method is:
A first evaluation value indicating the main subject possibility that the main subject candidate is the main subject is calculated from the image showing the subject imaged by the imaging means using information depending on the angle of view, and the first main subject candidate is selected. A first determining step for determining;
A second determination step of determining a second main subject candidate by calculating a second evaluation value indicating the main subject possibility using information independent of an angle of view from an image showing the subject imaged by the imaging means; ,
A third determination step of determining a main subject candidate corresponding to any of the evaluation values as a main subject using the first evaluation value and the second evaluation value;
In the third determination step, when the angle of view captured by the imaging unit is changed, the second evaluation value with respect to the first evaluation value is preferentially used as compared with the case where the angle of view is not changed. A program for determining the main subject.
JP2010281983A 2010-12-17 2010-12-17 Imaging apparatus, control method therefor, and program Expired - Fee Related JP5697429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010281983A JP5697429B2 (en) 2010-12-17 2010-12-17 Imaging apparatus, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010281983A JP5697429B2 (en) 2010-12-17 2010-12-17 Imaging apparatus, control method therefor, and program

Publications (2)

Publication Number Publication Date
JP2012129940A true JP2012129940A (en) 2012-07-05
JP5697429B2 JP5697429B2 (en) 2015-04-08

Family

ID=46646458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010281983A Expired - Fee Related JP5697429B2 (en) 2010-12-17 2010-12-17 Imaging apparatus, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP5697429B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201636A (en) * 2015-04-08 2016-12-01 リコーイメージング株式会社 Image tracking device and image tracking method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055160A (en) * 2007-08-24 2009-03-12 Sony Corp Imaging apparatus and imaging method
JP2009265239A (en) * 2008-04-23 2009-11-12 Nikon Corp Focus detecting apparatus, focus detection method, and camera
JP2010011441A (en) * 2008-05-26 2010-01-14 Sanyo Electric Co Ltd Imaging apparatus and image playback device
JP2010015023A (en) * 2008-07-04 2010-01-21 Canon Inc Image pickup apparatus, automatic focusing detection method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009055160A (en) * 2007-08-24 2009-03-12 Sony Corp Imaging apparatus and imaging method
JP2009265239A (en) * 2008-04-23 2009-11-12 Nikon Corp Focus detecting apparatus, focus detection method, and camera
JP2010011441A (en) * 2008-05-26 2010-01-14 Sanyo Electric Co Ltd Imaging apparatus and image playback device
JP2010015023A (en) * 2008-07-04 2010-01-21 Canon Inc Image pickup apparatus, automatic focusing detection method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016201636A (en) * 2015-04-08 2016-12-01 リコーイメージング株式会社 Image tracking device and image tracking method

Also Published As

Publication number Publication date
JP5697429B2 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
JP5088118B2 (en) Focus adjustment device
JP5159515B2 (en) Image processing apparatus and control method thereof
US8797423B2 (en) System for and method of controlling a parameter used for detecting an objective body in an image and computer program
JP5759170B2 (en) TRACKING DEVICE AND ITS CONTROL METHOD
JP5869808B2 (en) Imaging apparatus and control method thereof
JP5115210B2 (en) Imaging device
KR101728042B1 (en) Digital photographing apparatus and control method thereof
JP5166860B2 (en) Image processing apparatus and method, and imaging apparatus
JP5371719B2 (en) Imaging apparatus and control method thereof
JP5217451B2 (en) Imaging device
JP2008109305A (en) Image processing device, and control method of image processing device
JP4328606B2 (en) Digital camera
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP5697429B2 (en) Imaging apparatus, control method therefor, and program
JP2016092513A (en) Image acquisition device, shake reduction method and program
JP2011130384A (en) Subject tracking apparatus and control method thereof
JP2007124245A (en) Imaging apparatus and its parameter setting method
JP5222429B2 (en) Subject tracking device and control method thereof
US8594371B2 (en) Subject tracking device and camera
JP4789776B2 (en) Imaging apparatus and imaging method
JP2006243609A (en) Autofocus device
JP4839389B2 (en) Digital camera and image processing apparatus
JP2001169178A (en) Image processing method, image processor and electronic camera
JP2016092708A (en) Image pickup device, interval shooting method and program
JP2009117982A (en) Automatic tracking apparatus and method, and image pickup apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150210

R151 Written notification of patent or utility model registration

Ref document number: 5697429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees