JP6768449B2 - Imaging control device, control method and program of imaging device - Google Patents

Imaging control device, control method and program of imaging device Download PDF

Info

Publication number
JP6768449B2
JP6768449B2 JP2016205347A JP2016205347A JP6768449B2 JP 6768449 B2 JP6768449 B2 JP 6768449B2 JP 2016205347 A JP2016205347 A JP 2016205347A JP 2016205347 A JP2016205347 A JP 2016205347A JP 6768449 B2 JP6768449 B2 JP 6768449B2
Authority
JP
Japan
Prior art keywords
item
displayed
face
control device
predetermined subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016205347A
Other languages
Japanese (ja)
Other versions
JP2018067802A (en
Inventor
玄志郎 芝上
玄志郎 芝上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016205347A priority Critical patent/JP6768449B2/en
Publication of JP2018067802A publication Critical patent/JP2018067802A/en
Application granted granted Critical
Publication of JP6768449B2 publication Critical patent/JP6768449B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

本発明は、撮像制御装置に関し、特に所定の被写体に重畳してアイテムを表示する際の技術に関する。 The present invention relates to an image pickup control device, and more particularly to a technique for displaying an item superimposed on a predetermined subject.

撮像画像上において、特定の処理を行う位置をユーザに示すために画像上にアイテムを表示することがある。特許文献1にはAF処理を行う位置を示すために撮像画像上に枠を表示することが記載されている。また、撮像画像において特定の被写体のある位置を示す表示をすることもある。特許文献2には撮像画像において人物の顔が検出されたことに応じて、顔枠を表示することが記載されている。 On the captured image, an item may be displayed on the image to indicate to the user the position where a specific process is to be performed. Patent Document 1 describes that a frame is displayed on a captured image in order to indicate a position where AF processing is performed. In addition, a display indicating a certain position of a specific subject may be displayed in the captured image. Patent Document 2 describes that a face frame is displayed according to the detection of a person's face in a captured image.

特開2008−139658号公報Japanese Unexamined Patent Publication No. 2008-139658 特開2014−17665号公報Japanese Unexamined Patent Publication No. 2014-17665

人物の顔が検出された位置に特定の処理を行う場合がある。特許文献1のように特定の処理を行う位置を表示した後に、特定の処理を行う領域内で人物の顔が検出された場合、特許文献2の方法では顔枠が新たに表示される。人物の顔の領域には予め特定の処理を行う位置として表示がされているので、人物の顔が見えにくくなってしまう可能性がある。 A specific process may be performed at the position where the face of a person is detected. When a person's face is detected in the area where the specific process is performed after displaying the position where the specific process is performed as in Patent Document 1, the face frame is newly displayed by the method of Patent Document 2. Since the area of the person's face is displayed in advance as a position for performing a specific process, the person's face may be difficult to see.

本発明は上記のような点に鑑みてなされたものであり、特定の被写体に対して特定の処理を行うことを、視認性よくユーザに示すようにすることを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to show the user with good visibility that a specific process is to be performed on a specific subject.

本発明の撮像制御装置は、撮像部により撮像された画像中の所定の被写体を検出する検出手段と、前記撮像部により撮像されたライブビュー画像を表示部に表示する表示制御手段と、撮影準備指示がされる前に前記検出手段が前記所定の被写体を検出したことに応じて、前記ライブビュー画像に重畳して第1のアイテムを表示し、前記検出手段が前記所定の被写体を検出していない状態で撮影準備指示がされ、合焦したことに応じて、前記ライブビュー画像に重畳して第2のアイテムを表示し、前記第2のアイテムを表示した後に前記検出手段が前記所定の被写体を検出したことに応じて、前記第2のアイテムの表示形態を変えるように制御する制御手段とを有することを特徴とする。 The image pickup control device of the present invention includes a detection means for detecting a predetermined subject in an image captured by the image pickup unit, a display control means for displaying a live view image captured by the image pickup unit on the display unit, and an imaging preparation. In response to the detection means detecting the predetermined subject before the instruction is given, the first item is displayed by superimposing the live view image, and the detection means detects the predetermined subject. A shooting preparation instruction is given in the absence state, and in response to the focus , the second item is displayed by superimposing on the live view image, and after the second item is displayed, the detection means determines the predetermined image. It is characterized by having a control means for controlling so as to change the display form of the second item according to the detection of the subject.

本発明によれば、特定の被写体に対して特定の処理を行うことを、視認性よくユーザに示すことができる。 According to the present invention, it is possible to show the user with good visibility that a specific process is performed on a specific subject.

実施形態に係るデジタルカメラの外観図である。It is an external view of the digital camera which concerns on embodiment. 実施形態に係るデジタルカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the digital camera which concerns on embodiment. 実施形態に係るデジタルカメラによる処理動作を示すフローチャートである。It is a flowchart which shows the processing operation by the digital camera which concerns on embodiment. 撮像された画像と共にアイテムを表示する表示例を示す図である。It is a figure which shows the display example which displays the item together with the captured image. 撮像された画像と共にアイテムを表示する表示例を示す図である。It is a figure which shows the display example which displays the item together with the captured image.

以下、添付図面を参照して、本発明の好適な実施形態について説明する。
図1(a)、(b)に本発明を適用した撮像制御装置として機能する撮像装置の一例としてのデジタルカメラの外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。図1において、表示部28は、画像や各種情報を表示する、カメラ背面に設けられた表示部である。シャッターボタン61は、影準備指示や撮影指示を行うための操作部である。モード切替スイッチ60は、各種モードを切り替えるための操作部である。端子カバー40は、外部機器との接続ケーブルとデジタルカメラ100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
1A and 1B show external views of a digital camera as an example of an image pickup device that functions as an image pickup control device to which the present invention is applied. FIG. 1A is a front perspective view of the digital camera 100, and FIG. 1B is a rear perspective view of the digital camera 100. In FIG. 1, the display unit 28 is a display unit provided on the back surface of the camera for displaying images and various information. The shutter button 61 is an operation unit for giving a shadow preparation instruction and a shooting instruction. The mode changeover switch 60 is an operation unit for switching various modes. The terminal cover 40 is a cover that protects a connector (not shown) such as a connection cable for connecting a connection cable to an external device and the digital camera 100.

メイン電子ダイヤル71は、回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞り等の設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は、回転操作部材であり、選択枠の移動や画像送り等を行える。十字キー74は、上、下、左、右部分をそれぞれ押し込み可能なキー(4方向キー)である。十字キー74の押した部分に応じた操作が可能である。なお、十字キー74の代わりに、或いは十字キーに加えて、ポインティングスティックを設けても良い。SETボタン75は、押しボタンであり、主に選択項目の決定等に用いられる。 The main electronic dial 71 is a rotation operation member, and by turning the main electronic dial 71, it is possible to change set values such as a shutter speed and an aperture. The power switch 72 is an operating member that switches the power of the digital camera 100 on and off. The sub electronic dial 73 is a rotation operation member, and can move the selection frame, feed an image, and the like. The cross key 74 is a key (four-way key) capable of pressing up, down, left, and right portions, respectively. The operation can be performed according to the pressed portion of the cross key 74. A pointing stick may be provided instead of the cross key 74 or in addition to the cross key. The SET button 75 is a push button and is mainly used for determining a selection item or the like.

LVボタン76は、静止画撮影モードにおいてライブビュー(以下、LV)のONとOFFを切り替えるボタンである。また、LVボタン76は、動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。再生ボタン79は、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。 The LV button 76 is a button for switching ON / OFF of the live view (hereinafter, LV) in the still image shooting mode. Further, the LV button 76 is used to instruct the start and stop of moving image shooting (recording) in the moving image shooting mode. The play button 79 is an operation button for switching between the shooting mode and the play mode. By pressing the playback button 79 during the shooting mode, the playback mode can be entered, and the latest image among the images recorded on the recording medium 200 can be displayed on the display unit 28.

レンズユニット150は、レンズを含んでおり、レンズ位置を変更することにより焦点を調整可能である。また、絞りやシャッター速度等についてもレンズユニットにおいて調整することができる。
接眼ファインダ16は、ファインダ内表示部41(図2)を観察することで、レンズユニット150(図2)を通して得た被写体の撮像画像の焦点や構図の確認を行うための覗き込み型のファインダー(以下、ファインダ16)である。蓋202は、記録媒体200(図2)を格納するためのスロットの蓋である。グリップ部90は、ユーザがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。
The lens unit 150 includes a lens, and the focus can be adjusted by changing the lens position. In addition, the aperture, shutter speed, and the like can also be adjusted in the lens unit.
The eyepiece finder 16 is a peep-type finder (FIG. 2) for confirming the focus and composition of the captured image of the subject obtained through the lens unit 150 (FIG. 2) by observing the display unit 41 (FIG. 2) in the finder. Hereinafter, it is a finder 16). The lid 202 is a lid of a slot for storing the recording medium 200 (FIG. 2). The grip portion 90 is a holding portion having a shape that makes it easy for the user to hold the digital camera 100 with his / her right hand.

INFOボタン83は、表示部28に表示する画面を切り替えるのに用いられる。MENUボタン84は、表示部28の表示をメニュー画面に遷移させるための操作ボタンである。 The INFORMATION button 83 is used to switch the screen displayed on the display unit 28. The MENU button 84 is an operation button for transitioning the display of the display unit 28 to the menu screen.

図2は、本実施形態に係るデジタルカメラ100の構成例を示すブロック図である。
図2において、撮影レンズ103はズームレンズ、フォーカスレンズを含むレンズ群である。シャッター101は絞り機能を備えるシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。
FIG. 2 is a block diagram showing a configuration example of the digital camera 100 according to the present embodiment.
In FIG. 2, the photographing lens 103 is a lens group including a zoom lens and a focus lens. The shutter 101 is a shutter having an aperture function. The image pickup unit 22 is an image pickup device composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF処理(オートフォーカス処理)、AE処理(自動露出処理)、EF処理(フラッシュプリ発光処理)が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB処理(オートホワイトバランス処理)も行う。 The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through-the-lens) AF processing (autofocus processing), AE processing (automatic exposure processing), and EF processing (flash pre-flash processing) are performed. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and also performs a TTL method AWB process (auto white balance process) based on the obtained calculation result.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、画像処理部24を介さずメモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データ(アイテム等)を格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像及び音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器13は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器13を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器13からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器13においてアナログ変換し、表示部28に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示)を行える。
The output data from the A / D converter 23 is written directly to the memory 32 via the image processing unit 24 and the memory control unit 15, or via the memory control unit 15 without going through the image processing unit 24. The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23, and image data (items and the like) to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio.
Further, the memory 32 also serves as a memory (video memory) for displaying an image. The D / A converter 13 converts the image display data stored in the memory 32 into an analog signal and supplies it to the display unit 28. In this way, the image data for display written in the memory 32 is displayed by the display unit 28 via the D / A converter 13. The display unit 28 displays on a display such as an LCD according to the analog signal from the D / A converter 13. The digital signal once A / D converted by the A / D converter 23 and stored in the memory 32 is analog-converted by the D / A converter 13 and sequentially transferred to the display unit 28 for display as an electronic viewfinder. It functions and can display through images (live view display).

不揮発性メモリ56は、システム制御部50によって電気的に消去・記録・読出し可能な記録媒体としてのメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサーを内蔵し、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部50はメモリ32、D/A変換器13、表示部28等を制御することにより表示制御も行う。
The non-volatile memory 56 is a memory as a recording medium that can be electrically erased, recorded, and read by the system control unit 50, and for example, EEPROM or the like is used. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a computer program for executing various flowcharts described later in the present embodiment.
The system control unit 50 incorporates at least one processor and controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 56 described above, each process of the present embodiment described later is realized. RAM is used as the system memory 52. In the system memory 52, constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 56, and the like are expanded. The system control unit 50 also controls the display by controlling the memory 32, the D / A converter 13, the display unit 28, and the like.

システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
通信部54は、無線又は有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は、無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は、撮像部22で撮像された画像(スルー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像なのかを判別可能である。姿勢検知部55としては、加速度センサーやジャイロセンサー等を用いることができる。
The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock.
The communication unit 54 is connected by a wireless or wired cable to transmit and receive video signals and audio signals. The communication unit 54 can also be connected to a wireless LAN (Local Area Network) and the Internet. The communication unit 54 can transmit an image (including a through image) captured by the image pickup unit 22 and an image recorded on the recording medium 200, and also receives image data and various other information from an external device. be able to.
The posture detection unit 55 detects the posture of the digital camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 55, whether the image taken by the image pickup unit 22 is an image taken by holding the digital camera 100 horizontally or an image taken by holding the digital camera 100 vertically. It can be discriminated. As the posture detection unit 55, an acceleration sensor, a gyro sensor, or the like can be used.

モード切替スイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22による静止画撮像動作、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作すること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。ユーザは、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
The mode changeover switch 60, the shutter button 61, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50. The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image shooting mode, a playback mode, and the like.
The first shutter switch 62 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 61 provided on the digital camera 100, and the first shutter switch signal SW1 is generated. The operation of AF processing, AE processing, AWB processing, EF processing, etc. is started by the first shutter switch signal SW1.
The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processing operations from the still image imaging operation by the imaging unit 22 and the signal reading from the imaging unit 22 to the writing of the image data to the recording medium 200 by the second shutter switch signal SW2. ..
Each operation member of the operation unit 70 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 28, and acts as various function buttons. Examples of the function button include an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 28. The user can intuitively make various settings by using the menu screen displayed on the display unit 28 and the up / down / left / right four-direction buttons and the SET button.

ファインダ内表示部41は、ファインダ16を介して視認可能な表示部であり、表示部28と同様にスルー画像や、アイテム等の表示をすることができる。
電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部に供給する。
電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影時に画像を記録するためのメモリカード等の不揮発性の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。
The display unit 41 in the finder is a display unit that can be visually recognized via the finder 16, and can display through images, items, and the like like the display unit 28.
The power supply control unit 80 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period.
The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.
The recording medium I / F 18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a non-volatile recording medium such as a memory card for recording an image at the time of shooting, and is composed of a semiconductor memory, an optical disk, a magnetic disk, or the like.

上述したデジタルカメラ100では、中央1点AFや顔AFを用いた撮影が可能である。中央1点AFとは、撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは、顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。AFの方法は、コントラストAF、位相差AF等いずれの方法でもよい。 With the above-mentioned digital camera 100, it is possible to take a picture using a central one-point AF or a face AF. The central 1-point AF is to perform AF on the central position 1 point on the shooting screen. The face AF is to perform AF on the face in the shooting screen detected by the face detection function. The AF method may be any method such as contrast AF and phase difference AF.

顔検出機能について説明する。システム制御部50は、顔検出対象の画像データを画像処理部24に送る。システム制御部50の制御下で画像処理部24は、当該画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は、処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。その後、システム制御部50は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、顔の数等の特徴量をシステムメモリ52に記憶する。 The face detection function will be described. The system control unit 50 sends the image data of the face detection target to the image processing unit 24. Under the control of the system control unit 50, the image processing unit 24 applies a horizontal bandpass filter to the image data. Further, under the control of the system control unit 50, the image processing unit 24 applies a vertical bandpass filter to the processed image data. Edge components are detected from the image data by these horizontal and vertical bandpass filters. After that, the system control unit 50 performs pattern matching on the detected edge components and extracts candidate groups for eyes, nose, mouth, and ears. Then, the system control unit 50 determines from the extracted eye candidate groups that satisfy the preset conditions (for example, the distance between the two eyes, the inclination, etc.) as the eye pair, and determines that the eye pair. Only those with are narrowed down as eye candidates. The system control unit 50 associates the narrowed-down eye candidate group with other parts (nose, mouth, ear) that form the corresponding face, and passes a preset non-face condition filter to the face. Is detected. After that, the system control unit 50 outputs the above face information according to the face detection result, and ends the process. At this time, a feature amount such as the number of faces is stored in the system memory 52.

以上のようにライブビュー表示或いは再生表示される画像データを画像解析して、画像データの特徴量を抽出して被写体情報を検出することが可能である。本実施形態では、被写体情報として顔情報を例に挙げたが、被写体情報には他にも赤目判定や目の検出、目つむり検出、笑顔検出等の様々な情報がある。
なお、顔AFと同時に顔AE、顔FE、顔WBを行うことができる。顔AEとは、検出された顔の明るさに合わせて、画面全体の露出を最適化することである。顔FEとは、検出された顔を中心にフラッシュの調光をすることである。顔WBとは、検出された顔の色に合わせて画面全体のWBを最適化することである。
As described above, it is possible to perform image analysis on the image data displayed in the live view or reproduced, extract the feature amount of the image data, and detect the subject information. In the present embodiment, face information is taken as an example of subject information, but the subject information also includes various information such as red-eye determination, eye detection, eye blindness detection, and smile detection.
In addition, face AE, face FE, and face WB can be performed at the same time as face AF. Face AE is to optimize the exposure of the entire screen according to the detected brightness of the face. Face FE is to dimm the flash around the detected face. The face WB is to optimize the WB of the entire screen according to the detected face color.

図3は、本実施形態に係るデジタルカメラ100による処理動作を示すフローチャートである。この処理は、システム制御部50が、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開して実行することで実現される。図3の処理動作に際して、撮像部22により撮像された画像を表示部28に逐次表示するライブビュー表示が実行されている。
ステップS301で、システム制御部50は、顔追尾AFに設定されているか、1点AFに設定されているかを判定する。顔追尾AFに設定されていると判定した場合、ステップS302に処理を進め、1点AFに設定されていると判定した場合、ステップS324に処理を進める。
FIG. 3 is a flowchart showing a processing operation by the digital camera 100 according to the present embodiment. This process is realized by the system control unit 50 expanding the program recorded in the non-volatile memory 56 into the system memory 52 and executing the program. During the processing operation of FIG. 3, a live view display is executed in which the images captured by the imaging unit 22 are sequentially displayed on the display unit 28.
In step S301, the system control unit 50 determines whether the face tracking AF is set or the one-point AF is set. If it is determined that the face tracking AF is set, the process proceeds to step S302, and if it is determined that the one-point AF is set, the process proceeds to step S324.

ステップS301において顔追尾AFに設定されていると判定した場合、ステップS302で、システム制御部50は、顔領域でAFを実施するフラグ(顔領域AFフラグと呼ぶ)をOFFにする。顔領域AFフラグは、システムメモリ52に格納される。
ステップS303で、システム制御部50は、撮像部22で撮像された画像中に人物の顔が検出されているか否かを判定する。例えば撮像部22で撮像された画像において顔の大きさが所定の大きさ以上のときに、顔を検出可能であるとする。顔の検出は定期的に実施され、検出結果はシステムメモリ52に格納される。顔が検出されていると判定した場合、ステップS304に処理を進め、顔が検出されていないと判定した場合、ステップS305に処理を進める。
When it is determined in step S301 that the face tracking AF is set, the system control unit 50 turns off the flag for performing AF in the face area (referred to as the face area AF flag) in step S302. The face area AF flag is stored in the system memory 52.
In step S303, the system control unit 50 determines whether or not a person's face is detected in the image captured by the imaging unit 22. For example, it is assumed that the face can be detected when the size of the face is larger than a predetermined size in the image captured by the imaging unit 22. Face detection is performed periodically, and the detection result is stored in the system memory 52. If it is determined that the face is detected, the process proceeds to step S304, and if it is determined that the face is not detected, the process proceeds to step S305.

ステップS304で、システム制御部50は、システムメモリ52を参照し、図4(a)に示すように、表示部28に表示するスルー画像に重畳させて、顔領域を示す顔枠401を表示する。このようにシャッターボタン61の半押しによる撮影準備指示がされる前に顔を検出したことに応じて、表示部28に第1のアイテムとして顔枠401を表示する。顔枠401は、顔を囲うように、顔の大きさに基づいた大きさで表示される。なお、ステップS303において顔が検出されていない場合、顔枠401は表示されず、表示部28にはライブビュー画像のみが表示される。 In step S304, the system control unit 50 refers to the system memory 52 and superimposes it on the through image displayed on the display unit 28 to display the face frame 401 indicating the face area, as shown in FIG. 4A. .. In response to the fact that the face is detected before the shooting preparation instruction is given by half-pressing the shutter button 61 in this way, the face frame 401 is displayed on the display unit 28 as the first item. The face frame 401 is displayed in a size based on the size of the face so as to surround the face. If the face is not detected in step S303, the face frame 401 is not displayed and only the live view image is displayed on the display unit 28.

ステップS305で、システム制御部50は、第1シャッタースイッチ信号SW1がONであるか否か、すなわちシャッターボタン61の半押しによる撮影準備指示がされたか否かを判定する。撮影準備指示がされていないと判定した場合、ステップS303に処理を戻し、撮影準備指示がされたと判定した場合、ステップS306に処理を進める。
ステップS306で、システム制御部50は、ステップS303と同様、撮像部22で撮像された画像中に顔が検出されているか否かを判定する。顔が検出されていると判定した場合、ステップS307に処理を進め、顔が検出されていないと判定した場合、ステップS312に処理を進める。
In step S305, the system control unit 50 determines whether or not the first shutter switch signal SW1 is ON, that is, whether or not a shooting preparation instruction is given by half-pressing the shutter button 61. If it is determined that the shooting preparation instruction has not been given, the process is returned to step S303, and if it is determined that the shooting preparation instruction has been given, the process proceeds to step S306.
In step S306, the system control unit 50 determines whether or not a face is detected in the image captured by the imaging unit 22, as in step S303. If it is determined that the face is detected, the process proceeds to step S307, and if it is determined that the face is not detected, the process proceeds to step S312.

ステップS307で、システム制御部50は、顔領域AFフラグをONにする。顔領域AFフラグは、システムメモリ52に格納される。顔領域AFフラグは、顔が検出された状態で撮影準備指示がされたことを示すフラグである。顔領域AFフラグがONである場合には、検出されていた顔領域においてAF処理を行うように制御する。
ステップS308で、システム制御部50は、顔領域、すなわち顔枠401が表示されている位置においてAF処理をし、顔領域への追尾を開始する。
ステップS309で、システム制御部50は、AF処理を実施した結果、顔領域で合焦したか否かを判定する。顔領域で合焦したと判定した場合、ステップS310に処理を進め、顔領域で合焦していないと判定した場合、ステップS311に処理を進める。
In step S307, the system control unit 50 turns on the face area AF flag. The face area AF flag is stored in the system memory 52. The face area AF flag is a flag indicating that a shooting preparation instruction has been given while the face has been detected. When the face area AF flag is ON, control is performed so that AF processing is performed in the detected face area.
In step S308, the system control unit 50 performs AF processing at the face region, that is, the position where the face frame 401 is displayed, and starts tracking to the face region.
In step S309, the system control unit 50 determines whether or not the face region is in focus as a result of performing the AF process. If it is determined that the face region is in focus, the process proceeds to step S310, and if it is determined that the face region is not in focus, the process proceeds to step S311.

ステップS310で、システム制御部50は、図4(b)に示すように、表示部28に表示するスルー画像に重畳させて、合焦用顔枠402を表示する。合焦用顔枠402は、顔枠401の表示形態を変えたものであり、顔を囲う一の枠として表示される。その後、システム制御部50は、ステップS319に処理を進める。
ステップS311で、システム制御部50は、図4(c)に示すように、表示部28に表示するスルー画像に重畳させて、非合焦用顔枠403を表示する。非合焦用顔枠403は、顔枠401の表示形態を変えたものである。その後、システム制御部50は、ステップS319に処理を進める。
In step S310, the system control unit 50 displays the focusing face frame 402 by superimposing it on the through image displayed on the display unit 28, as shown in FIG. 4B. The focusing face frame 402 is a modification of the display form of the face frame 401, and is displayed as one frame surrounding the face. After that, the system control unit 50 proceeds to step S319.
In step S311 the system control unit 50 displays the out-of-focus face frame 403 by superimposing it on the through image displayed on the display unit 28, as shown in FIG. 4C. The non-focusing face frame 403 is a variation of the display form of the face frame 401. After that, the system control unit 50 proceeds to step S319.

ステップS312で、システム制御部50は、顔領域AFフラグをOFFにする。
ステップS313で、システム制御部50は、AF処理し、合焦した被写体への追尾を開始する。AF処理を実施する領域は画面全体でも良いし、画面の中央付近等の限定した領域でも良い。なお、限定した領域は画面の中央付近に限らない。また、限定した領域は、予め定められていても良いし、撮影準備指示の実施前にユーザが指定できるようにしても良い。この所定領域を所定数で分割した領域でAF処理を行い、各分割した領域で合焦したか否かを判定する。本実施形態では、画面の8割を所定領域とし、横7分割、縦7分割した各領域でAF処理を実施するものとする。
ステップS314で、システム制御部50は、ステップS313においてAF処理を実施した結果、合焦領域があるか否かを判定する。合焦領域があると判定した場合、ステップS315に処理を進め、合焦領域がないと判定した場合、ステップS318に処理を進める。
In step S312, the system control unit 50 turns off the face area AF flag.
In step S313, the system control unit 50 performs AF processing and starts tracking the focused subject. The area where AF processing is performed may be the entire screen or a limited area such as near the center of the screen. The limited area is not limited to the vicinity of the center of the screen. Further, the limited area may be predetermined, or may be specified by the user before the shooting preparation instruction is executed. AF processing is performed on the predetermined area divided by a predetermined number, and it is determined whether or not each divided area is in focus. In the present embodiment, 80% of the screen is set as a predetermined area, and AF processing is performed in each area divided into 7 horizontally and 7 vertically.
In step S314, the system control unit 50 determines whether or not there is a focusing region as a result of performing the AF process in step S313. If it is determined that there is an in-focus area, the process proceeds to step S315, and if it is determined that there is no in-focus area, the process proceeds to step S318.

ステップS315で、システム制御部50は、図5(a)に示すように、表示部28に表示するスルー画像に重畳させて、合焦枠501を表示する。合焦枠501は、合焦領域を示す枠として表示される。図5(a)に示す状態は、人物が写っているが、顔の大きさが所定の大きさ以上でないため、顔検出がなされていない。このように顔を検出していない状態でシャッターボタン61の半押しによる撮影準備指示がされたことに応じて、表示部28に第2のアイテムとして合焦枠501を表示する。さらにスルー画像内の人物の大きさが大きくなると合焦領域が大きくなり、図5(c)に示すように、図5(a)に比べて合焦枠501が広い範囲に表示される。よって、撮影準備指示がされる前に顔を検出した場合よりも顔の中で枠が重畳して表示されている領域が大きくなる。すなわち、合焦枠501(後述する顔用合焦枠503)が表示される場合には、顔枠401や合焦用顔枠402が表示される場合よりも顔に重畳して表示される領域が大きくなり、顔の視認性が低下しやすい。
ステップS316で、システム制御部50は、合焦枠501内において顔が検出されているか否かを判定する。顔が検出されていると判定した場合、ステップS317に処理を進め、顔が検出されていないと判定した場合、ステップS319に処理を進める。
In step S315, the system control unit 50 displays the focusing frame 501 by superimposing it on the through image displayed on the display unit 28, as shown in FIG. 5A. The focusing frame 501 is displayed as a frame indicating the focusing area. In the state shown in FIG. 5A, a person is shown, but the face is not detected because the size of the face is not larger than the predetermined size. In response to the instruction to prepare for shooting by half-pressing the shutter button 61 in the state where the face is not detected in this way, the focusing frame 501 is displayed on the display unit 28 as the second item. Further, as the size of the person in the through image becomes larger, the focusing area becomes larger, and as shown in FIG. 5C, the focusing frame 501 is displayed in a wider range than in FIG. 5A. Therefore, the area in which the frames are superimposed and displayed in the face becomes larger than when the face is detected before the shooting preparation instruction is given. That is, when the focusing frame 501 (the focusing frame 503 for the face described later) is displayed, the area is displayed so as to be superimposed on the face than when the face frame 401 and the focusing face frame 402 are displayed. Is large, and the visibility of the face tends to decrease.
In step S316, the system control unit 50 determines whether or not a face is detected in the focusing frame 501. If it is determined that the face is detected, the process proceeds to step S317, and if it is determined that the face is not detected, the process proceeds to step S319.

ステップS317で、システム制御部50は、図5(d)に示すように、表示部28に表示するスルー画像に重畳させて、顔用合焦枠503を表示する。図5(d)は、顔の大きさが所定の大きさ以上となり、顔検出がされて、顔のある領域の表示が合焦枠501から顔用合焦枠503となった場合の表示例を示している。顔用合焦枠503は、合焦領域において人物の顔が検出されたことを示している。顔用合焦枠503は、合焦領域内において検出された人物の顔の位置を示す表示であり、人物の顔の視認性が低下しないようにしている。なお、顔の検出されなかった領域の合焦枠501の表示形態は変わらない。顔用合焦枠503は、合焦枠501の表示形態を変えて、顔の表情を見やすくするようにしたものである。この場合に、例えば図5(d)に示すように、顔用合焦枠503は、顔の大きさに応じて、その表示形態を可変とする。その後、システム制御部50は、ステップS319に処理を進める。 In step S317, as shown in FIG. 5D, the system control unit 50 displays the face focusing frame 503 by superimposing it on the through image displayed on the display unit 28. FIG. 5D shows a display example when the size of the face becomes larger than a predetermined size, the face is detected, and the display of the area with the face changes from the focusing frame 501 to the focusing frame 503 for the face. Is shown. The face focusing frame 503 indicates that a person's face has been detected in the focusing region. The face focusing frame 503 is a display indicating the position of the face of the person detected in the focusing area, and the visibility of the face of the person is not deteriorated. The display form of the focusing frame 501 in the area where the face is not detected does not change. The focusing frame 503 for the face changes the display form of the focusing frame 501 so that the facial expression can be easily seen. In this case, for example, as shown in FIG. 5D, the display form of the face focusing frame 503 is variable according to the size of the face. After that, the system control unit 50 proceeds to step S319.

図5(d)は顔用合焦枠の一例を示しており、合焦枠501の表示形態を実線から点線にした顔用合焦枠503を示している。顔用合焦枠の表示例は、図5(e)、(f)に示すものでもよい。図5(e)では、顔用合焦枠503の透過度を合焦枠のときよりも高くした表示例を示している。図5(f)では、顔用合焦枠503を四角形から角のみを示した表示にしている。その他にも、数を少なくしたり、枠の大きさを大きくしたりしてもよい。顔用合焦枠は合焦枠と比べて、顔に重畳して表示される部分(枠と重なって見えない顔の領域)が小さくなる、又は透過度が高くなることにより顔の部分の視認性を上げる表示である。また、合焦枠は合焦範囲を示すために顔に重畳して複数表示されるが、顔用合焦枠は検出された顔の大きさに合わせて表示をするので、合焦枠が複数合わさった大きさの枠となる。言い換えれば、顔用合焦枠は検出された顔の大きさに基づいた大きさで(顔の視認性が低下しないように)表示されるが、合焦枠は顔を検出していたとしても顔の大きさに基づかず表示されているので、顔に重なり視認性が低下してしまう。しかし、顔に重なって表示されていたとしても上述したように表示形態を変えることで視認性の低下を低減することができる。なお、図5(g)に示すように、顔用合焦枠503が顔に対して十分に小さいものとなれば、顔用合焦枠503の透過率を上げたり、線の数を少なくしたりするのを止めて、顔の表情を見やすくするよりも、合焦領域を示すようにしても良い。なお、顔用合焦枠の表示形態は、上述したものの他に、形状、サイズ、色等を変えてもよい。
ステップS318で、システム制御部50は、図5(b)に示すように、表示部28に表示するスルー画像に重畳させて、非合焦表示502を表示する。その後、システム制御部50は、ステップS319に処理を進める。
FIG. 5D shows an example of the focusing frame for the face, and shows the focusing frame 503 for the face in which the display form of the focusing frame 501 is changed from a solid line to a dotted line. Display examples of the face focusing frame may be those shown in FIGS. 5 (e) and 5 (f). FIG. 5E shows a display example in which the transparency of the face focusing frame 503 is higher than that of the focusing frame. In FIG. 5 (f), the face focusing frame 503 is displayed by showing only the corners from the quadrangle. In addition, the number may be reduced or the size of the frame may be increased. Compared to the focusing frame, the focusing frame for the face has a smaller part (the area of the face that overlaps the frame and cannot be seen) that is superimposed on the face, or has a higher transparency so that the part of the face can be visually recognized. It is a display that raises the sex. In addition, multiple focusing frames are displayed superimposed on the face to indicate the focusing range, but since the face focusing frame is displayed according to the detected face size, there are multiple focusing frames. It becomes a frame of the combined size. In other words, the face focus frame is displayed in a size based on the detected face size (so that the visibility of the face is not reduced), but the focus frame even if the face is detected. Since the display is not based on the size of the face, it overlaps with the face and visibility is reduced. However, even if the display is superimposed on the face, the decrease in visibility can be reduced by changing the display form as described above. As shown in FIG. 5 (g), if the face focusing frame 503 is sufficiently small with respect to the face, the transmittance of the face focusing frame 503 is increased or the number of lines is reduced. Rather than stop doing this and make the facial expression easier to see, it may indicate the in-focus area. The display form of the face focusing frame may be changed in shape, size, color, etc., in addition to those described above.
In step S318, the system control unit 50 displays the out-of-focus display 502 by superimposing it on the through image displayed on the display unit 28, as shown in FIG. 5B. After that, the system control unit 50 proceeds to step S319.

ステップS319で、システム制御部50は、撮影準備指示が継続され、連続したAF処理が継続されているか否かを判定する。撮影準備指示が継続されていると判定した場合、ステップS320に処理を進め、撮影準備指示が継続されていないと判定した場合、ステップS321に処理を進める。
ステップS320で、システム制御部50は、顔領域AFフラグがONであるか否かを判定する。顔領域AFフラグがONであると判定した場合、ステップS308に処理を戻し、システムメモリ52に格納されている顔検出情報に基づき、顔領域においてAF処理を繰り返す。この処理を繰り返すことにより、顔を検出し続け、顔にピントを合わせ続けることができる。顔領域フラグがOFFであると判定した場合、ステップS313に処理を戻し、画面の所定領域にてAF処理を繰り返す。
ステップS321で、システム制御部50は、第2シャッタースイッチ信号SW2がONであるか否か、すなわちシャッターボタン61の全押しによる撮影指示がされたか否かを判定する。撮影指示がされていると判定した場合、ステップS322に処理を進め、撮影指示がされていないと判定した場合、ステップS323に処理を進める。
ステップS322で、システム制御部50は、撮影処理を実行して、処理を完了する。
ステップS323で、システム制御部50は、シャッターボタン61の押下が停止されて撮影準備指示が解除されたので、表示部28に表示するスルー画像に重畳させて表示していたアイテムを消して、処理を完了する。
In step S319, the system control unit 50 determines whether or not the shooting preparation instruction is continued and the continuous AF process is continued. If it is determined that the shooting preparation instruction is continued, the process proceeds to step S320, and if it is determined that the shooting preparation instruction is not continued, the process proceeds to step S321.
In step S320, the system control unit 50 determines whether or not the face area AF flag is ON. When it is determined that the face area AF flag is ON, the process is returned to step S308, and the AF process is repeated in the face area based on the face detection information stored in the system memory 52. By repeating this process, the face can be continuously detected and the face can be continuously focused. When it is determined that the face area flag is OFF, the process is returned to step S313, and the AF process is repeated in a predetermined area of the screen.
In step S321, the system control unit 50 determines whether or not the second shutter switch signal SW2 is ON, that is, whether or not a shooting instruction is given by fully pressing the shutter button 61. If it is determined that the shooting instruction has been given, the process proceeds to step S322, and if it is determined that the shooting instruction has not been given, the process proceeds to step S323.
In step S322, the system control unit 50 executes a shooting process and completes the process.
In step S323, since the pressing of the shutter button 61 was stopped and the shooting preparation instruction was canceled, the system control unit 50 erased the displayed item superimposed on the through image displayed on the display unit 28 and processed it. To complete.

一方、ステップS301において1点AFに設定されていると判定した場合、ステップS324で、システム制御部50は、表示部28の画面の中央にAF枠を表示する。
ステップS325で、システム制御部50は、ユーザによりAF枠の移動操作がなされたか否かを判定する。AF枠の移動操作がなされたと判定した場合、ステップS326に処理を進め、AF枠の移動操作がなされていないと判定した場合、ステップS327に処理を進める。
ステップS326で、システム制御部50は、AF枠の移動操作に従ってAF枠を表示する位置を変更する。
On the other hand, if it is determined in step S301 that the one-point AF is set, in step S324, the system control unit 50 displays the AF frame in the center of the screen of the display unit 28.
In step S325, the system control unit 50 determines whether or not the AF frame has been moved by the user. If it is determined that the AF frame movement operation has been performed, the process proceeds to step S326, and if it is determined that the AF frame movement operation has not been performed, the process proceeds to step S327.
In step S326, the system control unit 50 changes the position where the AF frame is displayed according to the movement operation of the AF frame.

ステップS327で、システム制御部50は、シャッターボタン61の半押しによる撮影準備指示がされたか否かを判定する。撮影準備指示がされていないと判定した場合、ステップS325に処理を戻し、撮影準備指示がされたと判定した場合、ステップS328に処理を進める。
ステップS328で、システム制御部50は、AF枠が表示されている位置においてAF処理を実施し、合焦枠を表示する。1点AF時は、撮影準備指示がされた後にはAF枠は移動せず、合焦枠は例えばAF枠の線を太く表示したものとすれば良い。
In step S327, the system control unit 50 determines whether or not a shooting preparation instruction has been given by half-pressing the shutter button 61. If it is determined that the shooting preparation instruction has not been given, the process returns to step S325, and if it is determined that the shooting preparation instruction has been given, the process proceeds to step S328.
In step S328, the system control unit 50 performs AF processing at the position where the AF frame is displayed and displays the focusing frame. In the case of one-point AF, the AF frame does not move after the shooting preparation instruction is given, and the focusing frame may be, for example, a thick line of the AF frame.

ステップS329で、システム制御部50は、シャッターボタン61の全押しによる撮影指示がされたか否かを判定する。撮影指示がされていると判定した場合、ステップS330に処理を進め、撮影指示がされていないと判定した場合、ステップS331に処理を進める。
ステップS330で、システム制御部50は、撮影処理を実行して、処理を完了する。
ステップS331で、システム制御部50は、撮影準備指示が継続されているか否かを判定する。撮影準備指示が継続されていると判定した場合、ステップS329に処理を戻し、撮影準備指示が継続されていないと判定した場合、ステップS324に処理を戻す。
In step S329, the system control unit 50 determines whether or not a shooting instruction has been given by fully pressing the shutter button 61. If it is determined that the shooting instruction has been given, the process proceeds to step S330, and if it is determined that the shooting instruction has not been given, the process proceeds to step S331.
In step S330, the system control unit 50 executes a shooting process and completes the process.
In step S331, the system control unit 50 determines whether or not the shooting preparation instruction is continued. If it is determined that the shooting preparation instruction is continued, the process is returned to step S329, and if it is determined that the shooting preparation instruction is not continued, the process is returned to step S324.

以上述べたように、追尾対象とする人物の顔が未検出の状態で合焦しているときに、顔が検出された場合、合焦領域に顔があると、合焦枠501の表示形態を変えた顔用合焦枠503を表示するようにして、顔の表情を見やすくすることができる。このように撮像された画像と共にアイテムを表示部28に表示するときに、所定の被写体の状態を視認しやすくすることができる。
顔を検出する前に、AF処理を行い、追尾を開始すると合焦枠が表示され、スルー画像における顔の大きさが大きくなっても、顔に重なるように合焦枠501が表示されてしまう。しかし、顔が検出されたことに応じて顔の領域の合焦枠の表示形態を変え、顔の視認性が向上するようにするので、ユーザは顔の表情を確認しつつ、顔に合焦していることを認識することができる。一方で、AF処理を行う前に顔が検出されていた場合には、顔を囲うように顔枠401が表示されている。よって、スルー画像内における顔の大きさが変わったり、位置が変わったりしても、検出済みの顔の大きさに合わせて顔枠を表示するので、途中で顔の視認性が低下しない。
なお、上述の実施形態では表示部28において合焦枠等の表示を行うことを説明したがユーザがファインダを覗いており、ファインダ内表示部41に表示をしているときにはファインダ内表示部41において表示を行うようにしてもよい。
As described above, if a face is detected when the face of the person to be tracked is in focus in an undetected state, and if there is a face in the focusing area, the display form of the focusing frame 501 It is possible to make the facial expression easier to see by displaying the face focusing frame 503 with a different value. When the item is displayed on the display unit 28 together with the image captured in this way, the state of a predetermined subject can be easily visually recognized.
If AF processing is performed before the face is detected and tracking is started, the focusing frame is displayed, and even if the size of the face in the through image becomes large, the focusing frame 501 is displayed so as to overlap the face. .. However, since the display form of the focusing frame in the face area is changed according to the detection of the face so that the visibility of the face is improved, the user focuses on the face while checking the facial expression. You can recognize that you are doing it. On the other hand, if a face is detected before the AF process is performed, the face frame 401 is displayed so as to surround the face. Therefore, even if the size or position of the face in the through image changes, the face frame is displayed according to the detected face size, so that the visibility of the face does not deteriorate in the middle.
In the above-described embodiment, it has been described that the in-focus frame and the like are displayed on the display unit 28, but when the user is looking into the finder and the display is displayed on the in-finder display unit 41, the in-finder display unit 41 is used. It may be displayed.

以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
本実施形態では、所定の被写体として人物の顔を例としたが、それに限られるものではない。例えば色や形に特徴があり、その状態を確認したいとの要求がありえるので、色や形といった特徴量に基づいて検出される被写体を対象としても良い。
また、システム制御部50が行うものとして説明した各種処理は、1つのハードウェアが行っても良いし、複数のハードウェア(例えば複数のプロセッサや回路)が処理を分担すること行っても良い。
Although the present invention has been described above together with the embodiments, the above-described embodiments merely show examples of embodiment of the present invention, and the technical scope of the present invention is interpreted in a limited manner by these. It should not be. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
In the present embodiment, a person's face is taken as an example as a predetermined subject, but the present invention is not limited thereto. For example, since there is a feature in color and shape and there may be a request to confirm the state, a subject detected based on a feature amount such as color and shape may be targeted.
Further, the various processes described as those performed by the system control unit 50 may be performed by one hardware, or may be shared by a plurality of hardware (for example, a plurality of processors and circuits).

また、実施形態においては、本発明をデジタルカメラに適用した例を説明したが、本発明は、ライブビュー画像上に、検出された所定の被写体を示すアイテムの表示を制御可能な撮像制御装置であれば適用可能である。すなわち、本発明は、カメラ以外にも、カメラ機能付きの各種端末(携帯電話端末、タブレット端末、スマートフォン等)にも適用可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Further, in the embodiment, an example in which the present invention is applied to a digital camera has been described, but the present invention is an imaging control device capable of controlling the display of an item indicating a detected predetermined subject on a live view image. If there is, it is applicable. That is, the present invention can be applied not only to a camera but also to various terminals having a camera function (mobile phone terminal, tablet terminal, smartphone, etc.).
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

22:撮像部、24:画像処理部、28:表示部、50:システム制御部、52:システムメモリ、56:不揮発性メモリ、100:デジタルカメラ 22: Imaging unit, 24: Image processing unit, 28: Display unit, 50: System control unit, 52: System memory, 56: Non-volatile memory, 100: Digital camera

Claims (17)

撮像部により撮像された画像中の所定の被写体を検出する検出手段と、
前記撮像部により撮像されたライブビュー画像を表示部に表示する表示制御手段と、
撮影準備指示がされる前に前記検出手段が前記所定の被写体を検出したことに応じて、前記ライブビュー画像に重畳して第1のアイテムを表示し、
前記検出手段が前記所定の被写体を検出していない状態で撮影準備指示がされ、合焦したことに応じて、前記ライブビュー画像に重畳して第2のアイテムを表示し、
前記第2のアイテムを表示した後に前記検出手段が前記所定の被写体を検出したことに応じて、前記第2のアイテムの表示形態を変えるように制御する制御手段とを有することを特徴とする撮像制御装置。
A detection means for detecting a predetermined subject in an image captured by an imaging unit, and
A display control means for displaying a live view image captured by the imaging unit on the display unit, and
In response to the detection means detecting the predetermined subject before the shooting preparation instruction is given, the first item is displayed by superimposing it on the live view image.
A shooting preparation instruction is given in a state where the detection means has not detected the predetermined subject, and in response to the focus , the second item is displayed by superimposing the live view image.
Imaging characterized by having a control means for controlling the display form of the second item to be changed in response to the detection means detecting the predetermined subject after displaying the second item. Control device.
前記第2のアイテムは、前記第1のアイテムよりも、前記所定の被写体に重畳して表示される領域が大きくなることを特徴とする請求項1に記載の撮像制御装置。 The imaging control device according to claim 1, wherein the second item has a larger area to be displayed superimposed on the predetermined subject than the first item. 前記第2のアイテムは、所定の処理に関する範囲を示す複数の所定の大きさのアイテムであり、前記制御手段は、前記撮影準備指示がされた際に前記第1のアイテムが表示されている場合には、前記所定の被写体と重畳して、前記所定の被写体を囲う一の枠としてアイテムが表示されるように制御することを特徴とする請求項1又は2に記載の撮像制御装置。 The second item is a plurality of items having a predetermined size indicating a range related to a predetermined process, and the control means displays the first item when the shooting preparation instruction is given. The imaging control device according to claim 1 or 2, wherein the item is controlled so as to be superimposed on the predetermined subject and displayed as a frame surrounding the predetermined subject . 前記所定の処理はオートフォーカス処理であり、前記制御手段は、前記撮像部により撮像されたライブビュー画像のうちオートフォーカス処理がされた被写体の範囲を前記所定の大きさのアイテムで示すように制御することを特徴とする請求項3に記載の撮像制御装置。 The predetermined process is an autofocus process, and the control means controls the range of the subject to which the autofocus process is performed in the live view image captured by the imaging unit so as to be indicated by an item of the predetermined size. The image pickup control device according to claim 3, wherein the image pickup control device is characterized. 前記制御手段は、第1のアイテムを検出した前記所定の被写体の大きさに基づいた大きさで表示するようにし、前記第2のアイテムを前記所定の被写体に基づかない大きさで表示するように制御する請求項1乃至4のいずれか1項に記載の撮像制御装置。 The control means displays the first item in a size based on the detected size of the predetermined subject, and displays the second item in a size not based on the predetermined subject. The imaging control device according to any one of claims 1 to 4, which is controlled. 前記制御手段は、前記第2のアイテムを表示した後に前記検出手段が前記所定の被写体を検出すると、前記第2のアイテムの透過率を低下するように制御することを特徴とする請求項1乃至5のいずれか1項に記載の撮像制御装置。 The control means is characterized in that when the detection means detects the predetermined subject after displaying the second item, the control means controls so as to reduce the transmittance of the second item. 5. The imaging control device according to any one of 5. 前記制御手段は、前記第2のアイテムを表示した後に前記検出手段が前記所定の被写体を検出すると、前記第2のアイテムを構成する線の数、前記第2のアイテムの形状、前記第2のアイテムのサイズ、及び前記第2のアイテムの色のうち少なくともいずれかを変えるように制御することを特徴とする請求項1乃至5のいずれか1項に記載の撮像制御装置。 When the detecting means detects the predetermined subject after displaying the second item, the control means determines the number of lines constituting the second item, the shape of the second item, and the second item. The imaging control device according to any one of claims 1 to 5, wherein the size of the item and at least one of the colors of the second item are controlled to be changed. 前記制御手段は、前記第2のアイテムが表示された後に前記検出手段が前記所定の被写体を検出した際に、前記第2のアイテムのうち前記所定の被写体の位置を示す部分の表示形態を変え、前記第2のアイテムのうち前記部分とは異なる部分の表示形態を変えないように制御することを特徴とする請求項1乃至7のいずれか1項に記載の撮像制御装置。 When the detection means detects the predetermined subject after the second item is displayed, the control means changes the display form of the portion of the second item indicating the position of the predetermined subject. The imaging control device according to any one of claims 1 to 7, wherein the display form of a portion of the second item different from the portion is controlled so as not to be changed. 前記第1のアイテムは前記所定の被写体の領域を示す枠であることを特徴とする請求項1乃至8のいずれか1項に記載の撮像制御装置。 The imaging control device according to any one of claims 1 to 8, wherein the first item is a frame indicating a region of the predetermined subject. 前記所定の被写体は人物の顔であることを特徴とする請求項1乃至9のいずれか1項に記載の撮像制御装置。 The imaging control device according to any one of claims 1 to 9, wherein the predetermined subject is a person's face. 前記制御手段は、前記第1のアイテムが表示されている場合に、前記撮影準備指示がされたことに応じて、前記第1のアイテムが表示されている位置でオートフォーカス処理を行うように制御することを特徴とする請求項1乃至10のいずれか1項に記載の撮像制御装置。 When the first item is displayed, the control means controls to perform autofocus processing at the position where the first item is displayed in response to the shooting preparation instruction. The imaging control device according to any one of claims 1 to 10, wherein the image pickup control device is characterized. 前記制御手段は、前記第1のアイテムが表示されている際に前記撮影準備指示がされたことにより、前記第1のアイテムが表示されている位置で合焦がされた場合と、前記第1のアイテムが表示されている位置で合焦がされなかった場合とで、前記第1のアイテムの表示形態を変えるように制御することを特徴とする請求項11に記載の撮像制御装置。 The control means is focused on the position where the first item is displayed and when the first item is displayed because the shooting preparation instruction is given when the first item is displayed. The imaging control device according to claim 11, wherein the image control device is controlled so as to change the display form of the first item depending on whether the item is not focused at the displayed position. 前記検出手段は、前記撮像部により撮像された画像における前記所定の被写体の大きさが所定の大きさ以上の場合に、前記所定の被写体として検出することを特徴とする請求項1乃至12のいずれか1項に記載の撮像制御装置。 Any of claims 1 to 12, wherein the detection means detects the predetermined subject as the predetermined subject when the size of the predetermined subject in the image captured by the imaging unit is equal to or larger than the predetermined size. The image pickup control device according to claim 1. 前記表示制御手段は、前記所定の被写体を追尾して合焦するモードにおいて、前記制御を行うことを特徴とする請求項1乃至13のいずれか1項に記載の撮像制御装置。 The imaging control device according to any one of claims 1 to 13, wherein the display control means performs the control in a mode of tracking and focusing on the predetermined subject. 撮像部により撮像された画像中の所定の被写体を検出する機能を有する撮像装置の制御方法であって、
前記撮像部により撮像されたライブビュー画像を表示部に表示するステップと、
撮影準備指示がされる前に前記所定の被写体を検出したことに応じて、前記ライブビュー画像に重畳して第1のアイテムを表示し、
前記所定の被写体を検出していない状態で撮影準備指示がされ、合焦したことに応じて、前記ライブビュー画像に重畳して第2のアイテムを表示し、
前記第2のアイテムを表示した後に前記所定の被写体を検出したことに応じて、前記第2のアイテムの表示形態を変えるように制御するステップとを有することを特徴とする撮像装置の制御方法。
It is a control method of an image pickup apparatus having a function of detecting a predetermined subject in an image captured by an image pickup unit.
A step of displaying the live view image captured by the imaging unit on the display unit, and
In response to the detection of the predetermined subject before the shooting preparation instruction is given, the first item is displayed by superimposing it on the live view image.
When the shooting preparation instruction is given in a state where the predetermined subject is not detected and the subject is in focus , the second item is displayed by superimposing it on the live view image.
A control method for an imaging device, which comprises a step of controlling the display form of the second item to be changed according to the detection of the predetermined subject after displaying the second item.
コンピュータを、請求項1乃至14のいずれか1項に記載された撮像制御装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the imaging control device according to any one of claims 1 to 14. コンピュータを、請求項1乃至14のいずれか1項に記載された撮像制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the imaging control device according to any one of claims 1 to 14.
JP2016205347A 2016-10-19 2016-10-19 Imaging control device, control method and program of imaging device Active JP6768449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016205347A JP6768449B2 (en) 2016-10-19 2016-10-19 Imaging control device, control method and program of imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016205347A JP6768449B2 (en) 2016-10-19 2016-10-19 Imaging control device, control method and program of imaging device

Publications (2)

Publication Number Publication Date
JP2018067802A JP2018067802A (en) 2018-04-26
JP6768449B2 true JP6768449B2 (en) 2020-10-14

Family

ID=62086406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016205347A Active JP6768449B2 (en) 2016-10-19 2016-10-19 Imaging control device, control method and program of imaging device

Country Status (1)

Country Link
JP (1) JP6768449B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7293025B2 (en) 2019-07-29 2023-06-19 キヤノン株式会社 Imaging device and its control method
JP6882417B2 (en) * 2019-10-10 2021-06-02 キヤノン株式会社 Display control device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107335A (en) * 2001-09-28 2003-04-09 Ricoh Co Ltd Image pickup device, automatic focusing method, and program for making computer execute the method
JP4182117B2 (en) * 2006-05-10 2008-11-19 キヤノン株式会社 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP5233720B2 (en) * 2009-02-12 2013-07-10 ソニー株式会社 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP2014017665A (en) * 2012-07-09 2014-01-30 Canon Inc Display control unit, control method for display control unit, program, and recording medium
JP6418827B2 (en) * 2014-07-16 2018-11-07 キヤノン株式会社 Imaging apparatus and control method thereof
JP5911557B2 (en) * 2014-12-16 2016-04-27 オリンパス株式会社 Imaging device

Also Published As

Publication number Publication date
JP2018067802A (en) 2018-04-26

Similar Documents

Publication Publication Date Title
CN110636211B (en) Electronic device, lens unit, control method thereof, and computer-readable medium
CN108377329B (en) Image pickup apparatus and control method thereof
US9036073B2 (en) Imaging apparatus and for controlling an automatic focus (AF) area and an enlargement area in a live view
US9819857B2 (en) Electronic apparatus, control method for the same, and image capturing apparatus
CN107040718B (en) Display control apparatus and control method thereof
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
JP6460868B2 (en) Display control apparatus and control method thereof
US10388035B2 (en) Image processing apparatus, image processing method, and storage medium
JP7293025B2 (en) Imaging device and its control method
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
US10511761B2 (en) Image capturing control apparatus, control method, and storage medium
JP2009060291A (en) Image processing apparatus, image processing method and program
US20190149730A1 (en) Image capturing control apparatus and control method therefor
JP6768449B2 (en) Imaging control device, control method and program of imaging device
JP2019219584A (en) Electronic device and control method therefor
JP6324278B2 (en) Imaging apparatus, image processing apparatus, and control method thereof
CN107800956B (en) Image pickup apparatus, control method, and storage medium
JP6758843B2 (en) Shooting control device and its control method
JP2015034895A (en) Imaging device and control method for the same
JP7532042B2 (en) IMAGING CONTROL DEVICE, CONTROL METHOD FOR IMAGING CONTROL DEVICE, PROG
EP3879813B1 (en) Electronic apparatus and control method thereof
JP7077022B2 (en) Electronic devices and their control methods
JP6851788B2 (en) Focus control device, control method and program of focus control device
JP6971709B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R151 Written notification of patent or utility model registration

Ref document number: 6768449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151