JP2021081589A - Display controller and method of controlling the same, and program therefor - Google Patents

Display controller and method of controlling the same, and program therefor Download PDF

Info

Publication number
JP2021081589A
JP2021081589A JP2019208990A JP2019208990A JP2021081589A JP 2021081589 A JP2021081589 A JP 2021081589A JP 2019208990 A JP2019208990 A JP 2019208990A JP 2019208990 A JP2019208990 A JP 2019208990A JP 2021081589 A JP2021081589 A JP 2021081589A
Authority
JP
Japan
Prior art keywords
item
display
focus
displayed
guide
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019208990A
Other languages
Japanese (ja)
Other versions
JP7418083B2 (en
Inventor
雄介 山下
Yusuke Yamashita
雄介 山下
敬司 関
Takashi Seki
敬司 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019208990A priority Critical patent/JP7418083B2/en
Publication of JP2021081589A publication Critical patent/JP2021081589A/en
Application granted granted Critical
Publication of JP7418083B2 publication Critical patent/JP7418083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

To make it easy to adjust a focus and to make it less hard to view a subject.SOLUTION: A display controller has: focusing degree acquisition means which acquires information associated with a degree of focusing of a focus detection region included in a live view image; detection result acquisition means which acquires a result of detection processing on a specific subject; and control means which performs control to switch S408, S411 between a display of a first item indicative of the focus detection region and a second item indicative of a subject region as a region of a specific subject, and a non-display of one of the first item and the second item over the live view image according to an overlap state between a guide display including the first item and an index indicative of a degree of focusing, and the second item, and then display S409, S410, S412, and S413 the index indicative of the degree of focusing of the guide display irrelevantly to the overlap state between the guide display and the second item.SELECTED DRAWING: Figure 4

Description

本発明は、フォーカス調整と被写体検出に関する情報表示をするための表示制御装置における表示制御に関するものである。 The present invention relates to display control in a display control device for displaying information related to focus adjustment and subject detection.

従来、ユーザーがマニュアル操作でフォーカスを合わせようとしている場合に、ガイド表示なしには、細かなフォーカス合わせが難しい。特許文献1には、撮影中にマニュアル操作でフォーカスを合わせる際に、フォーカス検出領域とフォーカス検出領域での合焦状態を示すガイドを表示することで、ユーザーがマニュアル操作でも、より細かなフォーカス調整を行いやすく、操作性を向上させている。 Conventionally, when a user tries to focus manually, it is difficult to perform fine focusing without a guide display. In Patent Document 1, when focusing manually during shooting, a guide indicating the focusing state in the focus detection area and the focus detection area is displayed, so that the user can perform finer focus adjustment even by manual operation. It is easy to do and the operability is improved.

特開2016−197180号公報Japanese Unexamined Patent Publication No. 2016-197180

しかし特許文献1では、合焦度合いを示すガイド枠とは異なる枠表示があることを考慮しておらず、合焦度合いを示すガイド枠とは異なる、別の枠表示が表示される場合には、ガイド枠と別の枠表示が表示されることになる。例えば、撮影中に、被写体の顔を検出した際に顔検出枠を表示すると、被写体に重畳して複数の枠が表示される。そのため、ユーザーがマニュアル操作でフォーカス調整を行っている場合に、被写体を視認しにくく邪魔に感じ、フォーカス調整が行いにくくなり、シャッターチャンスを逃す可能性がある。 However, Patent Document 1 does not consider that there is a frame display different from the guide frame indicating the degree of focusing, and when a different frame display different from the guide frame indicating the degree of focusing is displayed, , A frame display different from the guide frame will be displayed. For example, if the face detection frame is displayed when the face of the subject is detected during shooting, a plurality of frames are displayed superimposed on the subject. Therefore, when the user manually adjusts the focus, the subject is difficult to see and feels in the way, making it difficult to adjust the focus, and there is a possibility that a photo opportunity is missed.

そこで本発明は、撮影中に、ユーザーがフォーカス調整を行いやすく、かつ、被写体を視認しにくくなることを低減することを目的とする。 Therefore, an object of the present invention is to make it easier for the user to adjust the focus during shooting and to reduce the difficulty of visually recognizing the subject.

上記目的を達成するために、本発明は、
撮像手段で撮像されているライブビュー画像に含まれる焦点検出領域についての合焦度合いに関する情報を取得する合焦度合い取得手段と、
前記ライブビュー画像に対して実行された、特定の被写体の検出処理の結果を取得する検出結果取得手段と、
前記ライブビュー画像に重畳して、
前記焦点検出領域を示す第1のアイテムと合焦度合いを示す指標を含むガイド表示と、
前記ライブビュー画像から検出された前記特定の被写体の領域である被写体領域を示す第2のアイテムと、の重なりの状態に応じて、
前記第1のアイテムと前記第2のアイテムの両方を表示するか、
前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にするか、
を切り替え、
前記ガイド表示と前記第2のアイテムとの重なりの状態にかかわらず、前記ライブビュー画像に重畳して前記ガイド表示のうち前記合焦度合いを示す指標を表示するように制御する制御手段と
を有する。
In order to achieve the above object, the present invention
Focusing degree acquisition means for acquiring information on the focusing degree for the focus detection region included in the live view image captured by the imaging means, and focusing degree acquisition means.
A detection result acquisition means for acquiring the result of the detection process of a specific subject executed on the live view image, and
Superimpose on the live view image
A guide display including a first item indicating the focus detection area and an index indicating the degree of focus, and
Depending on the state of overlap with the second item indicating the subject area, which is the area of the specific subject detected from the live view image,
Display both the first item and the second item,
Whether to hide one of the first item and the second item
To switch,
It has a control means for controlling so as to superimpose on the live view image and display an index indicating the degree of focusing in the guide display regardless of the overlapping state of the guide display and the second item. ..

本発明によれば、ユーザーが合焦度合いを示すガイド表示と被写体領域を示す指標によって、フォーカス調整を行いやすく、かつ、被写体を視認しにくくなることを低減できる。 According to the present invention, it is possible to easily adjust the focus and reduce the difficulty in visually recognizing the subject by the guide display indicating the degree of focusing and the index indicating the subject area.

本実施形態における、デジタルカメラ10の構成ブロック図である。It is a block diagram of the block of the digital camera 10 in this embodiment. 本実施形態における、撮像素子102の受光面の説明図である。It is explanatory drawing of the light receiving surface of the image pickup device 102 in this embodiment. 本実施形態における、フォーカスガイドの説明図である。It is explanatory drawing of the focus guide in this embodiment. 本実施形態における、フォーカスガイドのガイド枠と顔検出枠の表示制御に関する処理のうち、条件を満たしたことに応じてガイド枠のみを表示する制御フローである。This is a control flow for displaying only the guide frame when the conditions are satisfied among the processes related to the display control of the guide frame and the face detection frame of the focus guide in the present embodiment. 本実施形態における、フォーカスガイドのガイド枠と顔検出枠の表示制御に関する処理のうち、条件を満たしたことに応じて顔検出枠のみを表示する制御フローである。This is a control flow for displaying only the face detection frame when the conditions are satisfied among the processes related to the display control of the guide frame and the face detection frame of the focus guide in the present embodiment. 図4、図5における制御フローで行う、演算処理に関する制御フローと説明図である。4 is a control flow and an explanatory diagram relating to arithmetic processing performed by the control flow in FIGS. 4 and 5. 本実施形態において、1つの顔が検出されている際のフォーカスガイドと顔検出枠の表示例である。In this embodiment, it is a display example of a focus guide and a face detection frame when one face is detected. 本実施形態において、複数の顔が検出されている際のフォーカスガイドと顔検出枠の表示例である。In this embodiment, it is a display example of a focus guide and a face detection frame when a plurality of faces are detected. 本実施形態における、設定メニュー画面である。This is the setting menu screen in this embodiment.

以下に、図面を参照して本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1に、本発明の表示制御装置の一例としてのデジタルカメラ10のハードウェア構成の一例を示す。筺体100は、デジタルカメラ10の構成要素の多くを内包する外装である。各種の操作部や表示部107、外部出力部121は筺体100の表面に露出している。 FIG. 1 shows an example of the hardware configuration of the digital camera 10 as an example of the display control device of the present invention. The housing 100 is an exterior that includes many of the components of the digital camera 10. Various operation units, display units 107, and external output units 121 are exposed on the surface of the housing 100.

交換レンズ101は、複数のレンズ群からなる撮影レンズであり、フォーカスレンズ、ズームレンズ、シフトレンズを内部に備えるほか、絞りを含む。 The interchangeable lens 101 is a photographing lens composed of a plurality of lens groups, includes a focus lens, a zoom lens, and a shift lens inside, and also includes an aperture.

撮像素子102は、光電変換素子を有する画素が複数、二次元状に配列された構成を有する。撮像素子102は、交換レンズ101により結像された被写体光学像を各画素で光電変換し、さらにA/D変換回路によってアナログ・デジタル変換して、画素単位の画像信号(RAW画像データ)を出力する。本実施形態に用いる撮像素子102と、関連する測距部108の詳細は、図2とともに後述する。 The image pickup device 102 has a configuration in which a plurality of pixels having a photoelectric conversion element are arranged in a two-dimensional manner. The image sensor 102 photoelectrically converts the subject optical image imaged by the interchangeable lens 101 with each pixel, further analog-digitally converts it with an A / D conversion circuit, and outputs an image signal (RAW image data) for each pixel. To do. Details of the image sensor 102 used in this embodiment and the related ranging unit 108 will be described later together with FIG.

NDフィルタ103はレンズに備えられた絞りとは別に入射光量を調整するためにデジタルカメラ10に設けられたものである。画像処理部118は、撮像素子102に起因するレベル差を補正する。例えば、OB領域(OPTICAL BLACK領域)の画素を用いて、有効領域の画素のレベルを補正するほか、欠陥画素に対して周囲画素を用いた補正を行う。また、周辺光量落ちに対する補正、色補正、輪郭強調、ノイズ除去、ガンマ補正、ディベイヤー、圧縮などの各処理を行う。画像処理部118は、撮像素子102から入力されたRAW画像データに対して上記処理を行うと、その他の制御部へ補正した画像データを出力する。 The ND filter 103 is provided in the digital camera 10 in order to adjust the amount of incident light separately from the diaphragm provided in the lens. The image processing unit 118 corrects the level difference caused by the image sensor 102. For example, the pixels in the OB region (OPTICAL BLACK region) are used to correct the level of the pixels in the effective region, and the defective pixels are corrected by using the peripheral pixels. In addition, each process such as correction for vignetting, color correction, contour enhancement, noise removal, gamma correction, debayer, and compression is performed. When the image processing unit 118 performs the above processing on the RAW image data input from the image sensor 102, the image processing unit 118 outputs the corrected image data to other control units.

記録媒体I/F部104は、記録媒体105とデジタルカメラ10とのインターフェースであり、記録媒体105に対して、画像処理部118から入力された画像データの記録や記録した画像データの読み出しを制御する。記録媒体105は、撮影された映像あるいは画像データを記録するための半導体メモリ等で構成される記録媒体であり、記録媒体I/F部104による制御に応じて画像データの記録や記録された画像データの読み出しを実行する。記録媒体105は、着脱可能なメモリーカード等である。なお、内蔵の記録媒体でもよい。 The recording medium I / F unit 104 is an interface between the recording medium 105 and the digital camera 10, and controls the recording of the image data input from the image processing unit 118 and the reading of the recorded image data with respect to the recording medium 105. To do. The recording medium 105 is a recording medium composed of a semiconductor memory or the like for recording captured video or image data, and the image data is recorded or the recorded image is controlled by the recording medium I / F unit 104. Read the data. The recording medium 105 is a removable memory card or the like. The built-in recording medium may be used.

GPU115は、デジタルカメラの各種情報表示やメニュー画面をVRAMに描画するレンダリングエンジンである。文字列や図形の描画機能のほか、拡大縮小描画機能や、回転描画機能、レイヤ合成機能を備えている。VRAMは透過度を表すアルファチャネルを備えており、VRAMに描画された表示物を表示用I/F部106によって撮像画像や再生画像上にオンスクリーン表示することができる。 The GPU 115 is a rendering engine that draws various information displays and menu screens of a digital camera on VRAM. In addition to the drawing function of character strings and figures, it has an enlargement / reduction drawing function, a rotation drawing function, and a layer composition function. The VRAM has an alpha channel indicating transparency, and a display object drawn on the VRAM can be displayed on-screen on a captured image or a reproduced image by the display I / F unit 106.

表示用I/F部106は、画像処理部118からの映像データ(撮影画像、再生画像)およびGPU115でVRAMに描画した表示物に対して、重畳合成およびリサイズ処理を行い、表示部107へ出力する(表示する)。拡大表示モードになっているときは、表示用I/F部106は映像データの部分領域に対して重畳合成およびリサイズ処理を行う。その結果、拡大表示モードでは、通常時よりも拡大された映像が表示部107に表示されるため、撮影者がマニュアルフォーカス(以下、MF)での焦点調整操作をより正確に行いやすくなる。 The display I / F unit 106 performs superimposition composition and resizing processing on the video data (captured image, reproduced image) from the image processing unit 118 and the display object drawn on the VRAM by the GPU 115, and outputs the image to the display unit 107. (Display). When the enlarged display mode is set, the display I / F unit 106 performs superimposition composition and resizing processing on a partial area of the video data. As a result, in the enlarged display mode, the image enlarged as compared with the normal time is displayed on the display unit 107, which makes it easier for the photographer to perform the focus adjustment operation in manual focus (hereinafter referred to as MF) more accurately.

表示部107は、表示用I/F部106から出力された画像データを画角確認用に表示する筐体100の側から視認可能なファインダー内表示部や筐体100の表面に配置されるファインダー外表示部である。また、筐体100に付属していない外部モニターである。表示部107は、液晶ディスプレイや有機ELディスプレイ(ORGANIC LIGHT−EMITTING DIODE DISPLAY)などで構成可能である。 The display unit 107 is a finder arranged on the surface of the display unit in the finder or the surface of the housing 100 that can be visually recognized from the side of the housing 100 that displays the image data output from the display I / F unit 106 for checking the angle of view. It is an outside display unit. Further, it is an external monitor that is not attached to the housing 100. The display unit 107 can be configured by a liquid crystal display, an organic EL display (ORGANIC LIGHT-EMITTING DIODE DISPLAY), or the like.

本体マイコン119は、デジタルカメラ10の全体の動作を制御する制御部であり、マイクロコンピュータなどで構成される。本体マイコン119は、CPU119a、ROM119b、RAM119cを備える。CPU119aは、ROM119Bに記憶されたプログラムを、RAM119cに展開して実行することにより、後述の各種フローチャートの動作を実行する。 The main body microcomputer 119 is a control unit that controls the overall operation of the digital camera 10, and is composed of a microcomputer or the like. The main body microcomputer 119 includes a CPU 119a, a ROM 119b, and a RAM 119c. The CPU 119a executes the operations of various flowcharts described later by expanding the program stored in the ROM 119B into the RAM 119c and executing the program.

以下に説明するゲイン制御部109、シャッター制御部110、ND制御部111および絞り制御部112は、いずれも露出制御のためのブロックである。これらは、それぞれ画像処理部118の出力した画像データの輝度レベルを本体マイコン119で算出した結果に基づいて、あるいは撮影者がマニュアル設定した動作パラメータに基づいて、本体マイコン119によって制御される。ゲイン制御部109は、撮像素子102のゲインを制御する。 The gain control unit 109, the shutter control unit 110, the ND control unit 111, and the aperture control unit 112, which will be described below, are all blocks for exposure control. These are controlled by the main body microcomputer 119 based on the result of calculating the brightness level of the image data output by the image processing unit 118 by the main body microcomputer 119 or based on the operation parameters manually set by the photographer. The gain control unit 109 controls the gain of the image sensor 102.

シャッター制御部110は、撮像素子102のシャッタースピードを制御する。 The shutter control unit 110 controls the shutter speed of the image sensor 102.

ND制御部111は、NDフィルタ103を介して撮像素子102に入射する光量を制御する。 The ND control unit 111 controls the amount of light incident on the image sensor 102 via the ND filter 103.

絞り制御部112は、交換レンズ101の絞りを制御する。 The aperture control unit 112 controls the aperture of the interchangeable lens 101.

フォーカス制御部113は、本体マイコン119で保持されるフォーカス駆動状態がAF(オートフォーカス)かMF(マニュアルフォーカス)かによって異なる動作を行う。 The focus control unit 113 performs different operations depending on whether the focus drive state held by the main body microcomputer 119 is AF (autofocus) or MF (manual focus).

AFのときは、画像処理部118から出力された画像データを参照して本体マイコン119でフォーカスの合焦情報を算出し、それをもとにフォーカス制御部113が交換レンズ101内部のフォーカスレンズを制御する。あるいは、撮像面位相差検出によって測距部108から出力されたデフォーカス量を元にフォーカス制御部113が交換レンズ101内部のフォーカスレンズを制御する。画像データの部分領域にAF枠を設定し、AF枠内の被写体のみに基づいてフォーカス情報を算出することもできる。AFは、本体マイコン119の振る舞いによって、さらに2つの動作モードを備えている。一つはワンショットAFモードであり、ワンショットAFキー129が押下されたときだけAF制御を行い、合焦成功または合焦失敗が確定した後はフォーカス制御部113の制御を停止するモードである。もう一つはコンティニュアスAFモード(サーボAF)であり、常にAF制御を行うモードである。ただし、コンティニュアスAFモードであっても、AFロックキー130の押下によってAFロック状態になっているときは、フォーカス制御部113の制御を停止する。2つのモードの切り替えはメニュー画面内の設定変更によって行う。MFのときは、フォーカス制御部113はAF制御を停止する。この場合、撮影者が交換レンズ101に組み込まれたフォーカスリング134を回転させることによって、任意のフォーカス調整を行うことができる。 In the case of AF, the focus control information 113 calculates the focus focusing information in the main body microcomputer 119 with reference to the image data output from the image processing unit 118, and the focus control unit 113 sets the focus lens inside the interchangeable lens 101 based on the calculated focus information. Control. Alternatively, the focus control unit 113 controls the focus lens inside the interchangeable lens 101 based on the defocus amount output from the distance measuring unit 108 by the imaging surface phase difference detection. It is also possible to set an AF frame in a partial area of image data and calculate focus information based only on the subject in the AF frame. The AF further has two operation modes depending on the behavior of the main body microcomputer 119. One is the one-shot AF mode, which is a mode in which AF control is performed only when the one-shot AF key 129 is pressed, and control of the focus control unit 113 is stopped after focusing success or failure is confirmed. .. The other is the continuous AF mode (servo AF), which is a mode in which AF control is always performed. However, even in the continuous AF mode, when the AF lock state is set by pressing the AF lock key 130, the control of the focus control unit 113 is stopped. Switching between the two modes is done by changing the settings in the menu screen. In the case of MF, the focus control unit 113 stops AF control. In this case, the photographer can perform arbitrary focus adjustment by rotating the focus ring 134 incorporated in the interchangeable lens 101.

防振制御部114は、画像処理部118から出力された画像データを参照して本体マイコン119で被写体の動きベクトルを算出し、算出した動きベクトルをもとに手ブレを相殺するように交換レンズ101内部のシフトレンズを制御する光学式防振処理を行う。あるいは、防振制御部114は手ブレによる像ブレを相殺する方向に動画の各フレームで画像を切り出す電子式防振処理を行う。 The anti-vibration control unit 114 calculates the motion vector of the subject with the main body microcomputer 119 with reference to the image data output from the image processing unit 118, and the interchangeable lens so as to cancel the camera shake based on the calculated motion vector. Optical vibration isolation processing is performed to control the shift lens inside the 101. Alternatively, the anti-vibration control unit 114 performs an electronic anti-vibration process that cuts out an image at each frame of the moving image in a direction that cancels the image blur caused by camera shake.

メモリI/F部116は、撮像素子102から出力された全画素分のRAW画像データをメモリ117に書き込み、また、メモリ117に保持されたRAW画像データを読み出して画像処理部118に出力する。メモリ117は、数フレームの全画素分のRAW画像データを格納する揮発性の記憶媒体である。 The memory I / F unit 116 writes the RAW image data for all pixels output from the image sensor 102 to the memory 117, and reads the RAW image data held in the memory 117 and outputs the RAW image data to the image processing unit 118. The memory 117 is a volatile storage medium that stores RAW image data for all pixels of several frames.

画像処理部118は、メモリI/F部116から送られた全画素分のRAW画像データに対し、制御に必要な画像処理を行う。 The image processing unit 118 performs image processing necessary for control on the RAW image data for all pixels sent from the memory I / F unit 116.

外部出力I/F部120は、画像処理部118からの映像データにリサイズ処理を行う。また、外部出力部121の規格に適した信号変換および制御信号の付与を行い、外部出力部121へ出力する。外部出力部121は、映像データを外部出力する端子であり、例えばSDI(SERIAL DIGITAL INTERFACE)端子やHDMI(登録商標)(HIGH−DEFINITION MULTIMEDIA INTERFACE)端子である。外部機器であるモニターディスプレイや、外部記録装置が接続可能である。 The external output I / F unit 120 resizes the video data from the image processing unit 118. Further, the signal conversion and the control signal suitable for the standard of the external output unit 121 are performed and output to the external output unit 121. The external output unit 121 is a terminal for externally outputting video data, and is, for example, a SDI (SERIAL DIGITAL INTERFACE) terminal or an HDMI (registered trademark) (HIGH-DEFINITION MULTIMEDIA INTERFACE) terminal. A monitor display, which is an external device, and an external recording device can be connected.

外部操作用I/F部122は、外部操作部123による制御指示を受信し、本体マイコン119へ通知するインターフェースである。例えば、赤外線リモコン受光部や、無線LAN(LOCAL AREA NETWORK)インターフェースや、LANC(登録商標)(LOCAL APPLICATION CONTROL BUS SYSTEM)が相当する。外部操作部123は、外部操作用I/F部122に対して制御指示(制御コマンド)を送信する。筺体100や交換レンズ101に組み込まれた操作部124〜135の各部の操作に相当する指示(コマンド)を送信することができるほか、表示部107で表示するメニュー画面における設定変更情報を送信することができる。 The external operation I / F unit 122 is an interface that receives a control instruction from the external operation unit 123 and notifies the main body microcomputer 119 of the control instruction. For example, an infrared remote control light receiving unit, a wireless LAN (LOCAL AREA NETWORK) interface, and a LANC (registered trademark) (LOCAL APPLICATION CONTROL BUS SYSTEM) correspond. The external operation unit 123 transmits a control instruction (control command) to the external operation I / F unit 122. In addition to being able to send instructions (commands) corresponding to the operations of the operating units 124 to 135 incorporated in the housing 100 and the interchangeable lens 101, it is also possible to transmit setting change information on the menu screen displayed on the display unit 107. Can be done.

メニューキー124〜AF/MFスイッチ135は操作部であり、キー(ボタン)やダイヤル、タクトスイッチ、リング、タッチパネル等の部材からなる。いずれも撮影者の操作を受けつけ、本体マイコン119に対して制御指示を通知する役割を担っている。メニューキー124〜START/STOPキー133は筺体100に組みつけられている本体側の操作部である。フォーカスリング134とAF/MFスイッチ135は、交換レンズ101に組みつけられているレンズ側の操作部である。これらの操作部の一部は、メニュー画面内の設定によって、キーの役割を交換したり、別の機能にアサインしたりすることも可能である。メニューキー124は、表示部107にメニュー画面を表示する指示、あるいはすでに開いているメニュー画面を閉じる指示を行う。十字キー125およびダイヤル126は、どちらもメニュー画面内で項目を選択するためのカーソルを移動したり、フォーカスに関する枠表示を撮影者の望む方向へ移動したりする指示を行う。十字キー125は、上キー、下キー、左キー、右キーよりなる方向キーであり、それぞれ別体の操作部材であってもいいし、同一の操作部材として構成して押下する位置に応じて上下左右の何れか指示が行えるように構成しても良い。ダイヤル126は、時計回りの操作と反時計回りの操作が行える回転操作部材である。SETキー127は、メニュー画面内でカーソルの当たっている項目を選択したり、各種の設定操作を確定したりする指示を行う。 Menu keys 124 to AF / MF switch 135 are operation units, and are composed of members such as keys (buttons), dials, tact switches, rings, and touch panels. All of them have a role of receiving the operation of the photographer and notifying the main body microcomputer 119 of the control instruction. Menu keys 124 to START / STOP keys 133 are operation units on the main body side assembled to the housing 100. The focus ring 134 and the AF / MF switch 135 are lens-side operating units that are assembled to the interchangeable lens 101. Some of these operation units can be assigned to different functions or exchange key roles by setting in the menu screen. The menu key 124 gives an instruction to display the menu screen on the display unit 107 or an instruction to close the already open menu screen. Both the cross key 125 and the dial 126 give instructions to move the cursor for selecting an item in the menu screen and to move the frame display related to the focus in the direction desired by the photographer. The cross key 125 is a direction key composed of an up key, a down key, a left key, and a right key, and may be separate operation members, or may be configured as the same operation member and pressed depending on the position to be pressed. It may be configured so that any of up, down, left and right instructions can be given. The dial 126 is a rotation operating member that can be operated clockwise and counterclockwise. The SET key 127 gives an instruction to select the item on which the cursor is located in the menu screen and to confirm various setting operations.

キャンセルキー128は、メニュー画面で深い階層の選択を行っているときにひとつ前の階層へ戻ったり、各種の設定操作を破棄したりする指示を行う。ワンショットAFキー129は、AFモードがワンショットAFであるときに、フォーカス制御部113によってAFを駆動する指示を行う。AFロックキー130は、AFモードがコンティニュアスAFであるときに、フォーカス制御部113による制御を停止させる停止指示、制御停止状態を解除する解除指示を行う。拡大キー131は、表示部107に表示される映像を拡大したり元に戻したりする指示を行う。DISPLAYキー132は、本体マイコン119で保持されるDISPレベルを変更する指示を行う。選択されたDISPレベルに基づいて、表示部107に表示される各種情報表示が制限され、より詳細な情報を表示したり、映像をよりクリアに表示したりすることができる。START/STOPキー133は、記録媒体I/F部104による記録の開始と停止の指示を行う。フォーカスリング134は、フォーカス駆動状態がMFであるときに、交換レンズ101内のフォーカスレンズを移動し、フォーカス調整を行うことができる。AF/MFスイッチ135は、フォーカス駆動状態、すなわちAFとMFを相互に切り替える指示を行う。 The cancel key 128 gives an instruction to return to the previous layer or discard various setting operations when selecting a deep layer on the menu screen. The one-shot AF key 129 gives an instruction to drive AF by the focus control unit 113 when the AF mode is one-shot AF. The AF lock key 130 gives a stop instruction to stop the control by the focus control unit 113 and a release instruction to release the control stop state when the AF mode is continuous AF. The enlargement key 131 gives an instruction to enlarge or restore the image displayed on the display unit 107. The DISPLAY key 132 gives an instruction to change the DISP level held by the main body microcomputer 119. Based on the selected DISP level, various information displays displayed on the display unit 107 are restricted, and more detailed information can be displayed and images can be displayed more clearly. The START / STOP key 133 instructs the recording medium I / F unit 104 to start and stop recording. The focus ring 134 can move the focus lens in the interchangeable lens 101 to adjust the focus when the focus drive state is MF. The AF / MF switch 135 gives an instruction to switch between the focus drive state, that is, AF and MF.

図2は、画像センサーとしての撮像素子102の受光面の一部を示している。 FIG. 2 shows a part of the light receiving surface of the image sensor 102 as an image sensor.

撮像素子102は、撮像面位相差AFを可能にするために、一つのマイクロレンズに対して光電変換手段として受光部であるフォトダイオードを2つ保持している画素部をアレイ状に並べている。これにより、各画素部で、交換レンズ101の射出瞳を分割した光束を受光することが可能になっている。 In order to enable phase-difference AF on the imaging surface, the image sensor 102 arranges pixel units that hold two photodiodes, which are light receiving units, as photoelectric conversion means for one microlens in an array. As a result, each pixel unit can receive the light flux obtained by dividing the exit pupil of the interchangeable lens 101.

図2(A)は、参考として、赤(R)、青(B)、緑(GB、GR)のベイヤー配列例の画像センサー表面の一部の模式図である。図2(B)は、図2(A)のカラーフィルターの配列に対応させて、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを2つ保持している画素部例である。 FIG. 2A is a schematic view of a part of the image sensor surface of the Bayer arrangement example of red (R), blue (B), and green (GB, GR) for reference. FIG. 2B is an example of a pixel portion in which two photodiodes as photoelectric conversion means are held for one microlens in correspondence with the arrangement of the color filters of FIG. 2A.

こうした構成を有する画像センサーは、各画素部から位相差検出用の2つの信号(以下、A像信号、B像信号ともいう。)を出力できるようになっている。また、2つのフォトダイオードの信号を加算した撮像の記録用の信号(A像信号+B像信号)も出力できるようになっている。この加算した信号の場合には、図2(A)で概略説明したベイヤー配列例の画像センサーの出力と同等の信号が出力される。 An image sensor having such a configuration can output two signals for phase difference detection (hereinafter, also referred to as A image signal and B image signal) from each pixel unit. In addition, a signal for recording imaging (A image signal + B image signal), which is the sum of the signals of the two photodiodes, can also be output. In the case of this added signal, a signal equivalent to the output of the image sensor of the Bayer arrangement example outlined in FIG. 2 (A) is output.

このような画像センサーとしての撮像素子102からの出力信号を使って、測距部108が2つの像信号の相関演算を行い、デフォーカス量や各種信頼性などの情報を算出する。デフォーカス量は、A像信号、B像信号のズレに基づき、像面でのデフォーカス量を算出する。デフォーカス量は正負の値を持っており、デフォーカス量が正の値であるか負の値であるかによって、前ピンか後ピンかがわかる。また、デフォーカス量の絶対値によって、合焦までの度合いが分かり、デフォーカス量が0であれば合焦である。すなわち、測距部108は、測距位置(測距領域、焦点検出位置、焦点検出領域)について算出したデフォーカス量の正負を元に前ピンか後ピンかの情報をCPU119aなどに出力する。また、デフォーカス量の絶対値に基づいて、合焦の度合い(ピントのズレの度合い)である合焦度合い情報をCPU119aなどに出力する。前ピンか後ピンかの情報は、デフォーカス量が所定値を超える場合に出力し、デフォーカス量の絶対値が所定値以内である場合には、合焦であるという情報を出力する。なお、合焦度合い情報は、デフォーカス量を、合焦させるまでにフォーカスリング134を回転させる操作量に換算した値として出力する。 Using the output signal from the image sensor 102 as such an image sensor, the ranging unit 108 performs a correlation calculation of the two image signals to calculate information such as the defocus amount and various reliability. The defocus amount is calculated based on the deviation between the A image signal and the B image signal. The defocus amount has positive and negative values, and it can be determined whether the defocus amount is a front pin or a rear pin depending on whether the defocus amount is a positive value or a negative value. Further, the degree of focusing is known from the absolute value of the defocus amount, and if the defocus amount is 0, the focus is achieved. That is, the distance measuring unit 108 outputs information on whether the front pin or the rear pin is to the CPU 119a or the like based on the positive / negative of the defocus amount calculated for the distance measuring position (distance measuring area, focus detection position, focus detection area). Further, based on the absolute value of the defocus amount, the focusing degree information, which is the degree of focusing (the degree of defocus), is output to the CPU 119a or the like. The information on whether the front focus or the rear focus is output when the defocus amount exceeds a predetermined value, and when the absolute value of the defocus amount is within the predetermined value, the information that the focus is in focus is output. The focus degree information is output as a value obtained by converting the defocus amount into an operation amount for rotating the focus ring 134 before focusing.

なお、本実施形態は撮像用の信号及び位相差検出用の2つの信号の2つの計3つの信号を撮像素子102から出力している。この点、このような方法に限定されない。例えば、撮像用の信号と位相差AF用の像信号の2つの信号のうちの1つの計2つ信号を出力するようにしてもよい。この場合、出力後に位相差検出用の像信号の2つの信号のうちの他の1つの信号は、撮像素子102からの2つの出力信号を利用して算出される。 In this embodiment, a total of three signals, a signal for imaging and two signals for detecting the phase difference, are output from the image sensor 102. In this respect, the method is not limited to such a method. For example, a total of two signals, one of the two signals of the imaging signal and the phase difference AF image signal, may be output. In this case, the other one of the two signals of the image signal for phase difference detection after output is calculated using the two output signals from the image sensor 102.

また、図2では、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを2つ保持している画素部をアレイ状に並べている例を示した。この点、一つのマイクロレンズに対して光電変換手段としてのフォトダイオードを3つ以上保持している画素部をアレイ状に並べているようにしてもよい。また、マイクロレンズに対して受光部の開口位置が異なる画素部を複数有するようにしてもよい。つまり、結果としてA像信号とB像信号といった位相差検出可能な位相差検出用の2つの信号が得られるようになっていれば足りる。 Further, FIG. 2 shows an example in which pixel portions holding two photodiodes as photoelectric conversion means are arranged in an array for one microlens. In this regard, pixel portions holding three or more photodiodes as photoelectric conversion means may be arranged in an array for one microlens. Further, it may have a plurality of pixel portions having different aperture positions of the light receiving portions with respect to the microlens. That is, as a result, it is sufficient if two signals for phase difference detection, such as an A image signal and a B image signal, that can detect the phase difference can be obtained.

本実施形態では、ユーザーがデジタルカメラ10を用いて被写体にフォーカスを合わせる際に、焦点検出領域を示すガイド枠(アイテム)や合焦度合いを示す指標をフォーカスガイド(ガイド表示)として表示する。これにより、ユーザーが所望の被写体にフォーカスを合わせやすくする。具体的には、焦点検出領域(測距位置)の被写体に合焦させるまでに、フォーカスリング134をどちら側にどの程度操作すれば良いかをフォーカスガイドを用いて視認しやすく示している。すなわち、フォーカスガイドは、焦点検出領域の被写体の合焦度合いを示すガイド表示である。フォーカスガイドを表示することで、ユーザーは焦点検出領域の被写体に合焦させた場合の焦点距離と現在の焦点距離のずれを視認することができる。 In the present embodiment, when the user focuses on the subject using the digital camera 10, a guide frame (item) indicating the focus detection area and an index indicating the degree of focusing are displayed as a focus guide (guide display). This makes it easier for the user to focus on the desired subject. Specifically, the focus guide is used to easily visually indicate to which side and how much the focus ring 134 should be operated before focusing on the subject in the focus detection region (distance measuring position). That is, the focus guide is a guide display indicating the degree of focusing of the subject in the focus detection region. By displaying the focus guide, the user can visually recognize the difference between the focal length and the current focal length when the subject in the focus detection area is focused.

フォーカスガイドは、ライブビュー画像(以下、LV画像)上にフォーカスガイドの表示要素のうち、ガイド枠が重畳表示された位置(枠内)に対応する撮像範囲から取得されたデフォーカス量に基づいた表示を行う。具体的には、フォーカスガイドは、撮像素子102に配置されたデフォーカス量を取得可能な画素(撮像面位相差検出の可能な画素)のうち、ガイド枠の位置に対応する範囲内の画素群からの出力値に基づいて算出されたデフォーカス量に基づいて合焦度合いを示す。すなわちフォーカスガイドは、LV画像上でガイド枠300が重畳表示された位置の被写体について、合焦度合いを指標や色などの情報で表示する。本実施形態では合焦度合いについて、図3の指標301〜311により表現する。なお、指標301〜311は図3(A)〜(D)に示す点線の円に沿って動くようにする。 The focus guide is based on the amount of defocus acquired from the imaging range corresponding to the position (within the frame) in which the guide frame is superimposed and displayed among the display elements of the focus guide on the live view image (hereinafter referred to as LV image). Display. Specifically, the focus guide is a group of pixels arranged on the image sensor 102 that can acquire the amount of defocus (pixels capable of detecting the phase difference of the imaging surface) within a range corresponding to the position of the guide frame. The degree of focusing is shown based on the amount of defocus calculated based on the output value from. That is, the focus guide displays the degree of focusing with information such as an index and a color for the subject at the position where the guide frame 300 is superimposed and displayed on the LV image. In the present embodiment, the degree of focusing is expressed by the indexes 301 to 311 of FIG. The indexes 301 to 311 are made to move along the dotted circles shown in FIGS. 3 (A) to 3 (D).

図3(A)では、ガイド枠300の上部に配置される指標301と指標302の位置が一致している。これは合焦状態(焦点検出領域の被写体に合焦している状態)を示しており、後述する指標304と指標305とが重なりあって一体化し、指標303と一点を共有して隣接した位置に表示されている。指標301と指標302の位置が一致することで、ガイド枠300が表示されている位置(焦点検出領域)の被写体で合焦していることを示す。このとき、ガイド枠300、指標301、指標302の表示色を、合焦していない場合(非合焦状態)とは異なる色で表示する。例えば、ガイド枠300、指標301、指標302について、非合焦状態では白色で表示し、図3(A)に示すような合焦状態では緑色で表示を行う。また、ガイド枠300について、非合焦状態では図3(B)〜(D)に示すように四隅のみの表示で合焦させたい被写体を視認できるようにし、合焦状態では図3(A)に示すように実線で全周を囲う枠のように、閉区間で表示するように変化させる。ユーザーは所望の被写体に合焦したタイミングで撮影指示を行おうとしている可能性が高い。そのため特に、合焦状態に遷移した場合にはユーザーが認識しやすいように表示色を変更したり、焦点検出領域を示すガイド枠の表示形態を変更したりする。これによって、ユーザーは合焦状態になったことを視認しやすく、撮影タイミングを逃しにくい。 In FIG. 3A, the positions of the index 301 and the index 302 arranged at the upper part of the guide frame 300 coincide with each other. This indicates an in-focus state (a state in which the subject in the focus detection region is in focus), and the index 304 and the index 305, which will be described later, are overlapped and integrated, and share one point with the index 303 and are adjacent to each other. It is displayed in. When the positions of the index 301 and the index 302 match, it indicates that the subject at the position where the guide frame 300 is displayed (focus detection area) is in focus. At this time, the display colors of the guide frame 300, the index 301, and the index 302 are displayed in a color different from that in the case where the guide frame 300, the index 301, and the index 302 are not in focus (out-of-focus state). For example, the guide frame 300, the index 301, and the index 302 are displayed in white in the out-of-focus state and displayed in green in the in-focus state as shown in FIG. 3A. Further, regarding the guide frame 300, as shown in FIGS. 3 (B) to 3 (D), the subject to be focused can be visually recognized by displaying only the four corners in the out-of-focus state, and FIG. 3 (A) in the in-focus state. As shown in, change to display in a closed section like a frame surrounding the entire circumference with a solid line. It is highly possible that the user is trying to give a shooting instruction at the timing when the desired subject is in focus. Therefore, in particular, when the focus state is entered, the display color is changed so that the user can easily recognize it, or the display form of the guide frame indicating the focus detection area is changed. This makes it easier for the user to visually recognize that the subject is in focus, and it is difficult to miss the shooting timing.

図3(B)では、焦点検出領域の被写体より手前で合焦している、前ピン状態である場合のフォーカスガイドの表示形態を示す。指標303は合焦状態になるための指標304と指標305の目標地点を示す。指標304と指標305は、それぞれの表示距離(表示位置の位置関係)によって、焦点検出領域の合焦度合いを示す。ユーザーが交換レンズ101を操作したことによる焦点距離の変化や、被写体とデジタルカメラ10の距離の変動により合焦度合いが変化するため、指標304と指標305の距離(角度)が狭まったり広がったりする。指標304と指標305の表示距離(角度)は、合焦度合い情報に基づき、焦点距離領域において合焦状態からのズレが大きい場合に比べて小さい場合のほうが小さく(狭く)なる。 FIG. 3B shows a display mode of the focus guide in the front focus state in which the subject is in focus in front of the subject in the focus detection area. The index 303 indicates the target points of the index 304 and the index 305 for achieving the in-focus state. The index 304 and the index 305 indicate the degree of focusing of the focus detection region according to their respective display distances (positional relationship of display positions). Since the degree of focusing changes due to changes in the focal length due to the user operating the interchangeable lens 101 and changes in the distance between the subject and the digital camera 10, the distance (angle) between the index 304 and the index 305 narrows or widens. .. The display distance (angle) between the index 304 and the index 305 is smaller (narrower) when the deviation from the in-focus state is larger than when the deviation from the in-focus state is large in the focal length region based on the in-focus degree information.

図3(C)では、焦点検出領域の被写体より奥で合焦している、後ピン状態である場合のフォーカスガイドの表示形態を示す。指標306は合焦状態になるための指標307と指標308の目標地点を示す。指標307と指標308は、図3(B)における指標304と指標305と同様に、それぞれの表示距離によって、焦点検出領域の合焦度合いを示す。 FIG. 3C shows a display mode of the focus guide in a rear focus state in which the subject is in focus behind the subject in the focus detection region. The index 306 indicates the target points of the index 307 and the index 308 for achieving the in-focus state. Similar to the index 304 and the index 305 in FIG. 3B, the index 307 and the index 308 indicate the degree of focusing of the focus detection region according to their respective display distances.

図3(B)、(C)より、ユーザーは、フォーカスガイドが重畳表示されている被写体への合焦度合いが、前ピン状態なのか後ピン状態なのかを一目で視認することができる。指標304や指標305、指標307や指標308を合焦度合い情報に基づき表示距離を動的に変動させることで、ユーザーは、フォーカス位置の調整方向と調整量を視覚的に認識することができる。そのため、例えばフォーカスリング134の操作量を大きくしたり小さくしたり、微調整を行うことができ、フォーカスガイドが表示されていないときよりも容易に調整を行うことができ、所望の被写体にフォーカスを合わせやすくなる。 From FIGS. 3B and 3C, the user can visually recognize at a glance whether the degree of focusing on the subject on which the focus guide is superimposed is in the front focus state or the rear focus state. By dynamically changing the display distance of the index 304, the index 305, the index 307, and the index 308 based on the focus degree information, the user can visually recognize the adjustment direction and the adjustment amount of the focus position. Therefore, for example, the amount of operation of the focus ring 134 can be increased or decreased, and fine adjustments can be made, and adjustments can be made more easily than when the focus guide is not displayed, and the focus can be focused on the desired subject. It will be easier to match.

図3(D)では、被写体が大ボケ状態である場合のフォーカスガイドの表示形態を示す。指標309〜311は、指標301〜308とは異なり、四角形で表現されている。このとき、指標301〜308の表示色である白色ではなく、濃いグレーで表示する。このような表示により大ボケ状態であることを表し、合焦状態、前ピン状態、後ピン状態のいずれとも異なる、特に測距に失敗した状態であることを、ユーザーが視覚的に認識しやすいようにする。これによって、ユーザーは例えばフォーカスリング134の操作量を大きくする必要があることを認識できる可能性が高い。 FIG. 3D shows a display mode of the focus guide when the subject is in a large blurred state. The indexes 309 to 311 are represented by a quadrangle unlike the indexes 301 to 308. At this time, it is displayed in dark gray instead of white, which is the display color of the indexes 301 to 308. Such a display indicates that the camera is in a large blur state, and it is easy for the user to visually recognize that the focus state, the front focus state, and the rear focus state are different from each other, especially that the distance measurement has failed. To do so. This is likely to allow the user to recognize, for example, that the amount of operation of the focus ring 134 needs to be increased.

図3(B)〜(D)に示すように、フォーカスガイドは、ユーザー所望の被写体の非合焦状態の場合に、複数の段階で合焦度合いを示す。また、図3では指標301〜311はガイド枠300の上部に配置しているが、ガイド枠300の下部に配置してもよい。 As shown in FIGS. 3B to 3D, the focus guide indicates the degree of focusing in a plurality of stages when the subject desired by the user is out of focus. Further, although the indexes 301 to 311 are arranged in the upper part of the guide frame 300 in FIG. 3, they may be arranged in the lower part of the guide frame 300.

なお、本実施形態では、フォーカスガイドの表示形態について、図3(A)〜図3(D)を用いて説明したが、これに限るものではない。また、フォーカスガイドは、撮像素子102から得られる信号(撮像面位相差信号)に基づくデフォーカス量に基づく合焦度合いを表示するものとして説明したが、これに限るものではない。撮像面とは異なる場所に設定された焦点検出センサ(位相差センサー等)からの出力値に基づいて合焦度合いを示すものでもよいし、コントラスト値に基づいて合焦度合いを示すものでも良い。 In the present embodiment, the display mode of the focus guide has been described with reference to FIGS. 3 (A) to 3 (D), but the present invention is not limited to this. Further, although the focus guide has been described as displaying the degree of focusing based on the defocus amount based on the signal (imaging surface phase difference signal) obtained from the image sensor 102, the focus guide is not limited to this. The degree of focusing may be indicated based on an output value from a focus detection sensor (phase difference sensor or the like) set at a location different from the imaging surface, or the degree of focusing may be indicated based on a contrast value.

本実施形態では、デジタルカメラ10におけるフォーカスガイドの表示形態の制御処理について説明する。図4は、デジタルカメラ10において、CPU119aがROM119bに記憶されたプログラムを実行することにより実現される。図4、(B)、(C)の制御フローは、デジタルカメラ10を撮影モードで起動し、撮影待機状態であるときに、フォーカスの設定がMFに設定されており、かつ、フォーカスガイドの設定が入である場合に開始される。フォーカスの設定がMFであるとは、本実施形態では、交換レンズ101にあるレンズのフォーカスモードのスイッチをMFにすることで設定ができる。交換レンズ101のスイッチでなくても、設定メニュー画面でユーザーがAF/MFを選択できるような設定方法でもよい。また、フォーカスガイドの設定は図9(A)に示す、AF設定メニュー画面で行うことができる。項目901、項目902はフォーカスの設定をMFにした際に設定できる項目である。項目901は、合焦した被写体の輪郭を色づきの強調表示にすることで、被写体に合焦しているかどうかが撮影者にわかりやすくなり、精密な合焦を行うことができる、MFピーキング設定である。図9(A)では、MFピーキング設定は切になっている。項目902は、現在のフォーカス位置から合焦位置への調整方向と調整量が、ガイド枠で視覚的に表示される、フォーカスガイド設定である。設定項目902aを選択すると、フォーカスガイド設定が入になり、合焦しようとしている被写体位置(焦点検出領域)にガイド枠が表示され、ガイド枠と共に合焦度合いを示す指標が表示される。設定候補902bを選択すると、フォーカスガイド設定が切になり、ユーザーがフォーカスリング134を操作したとしても、ガイド枠と指標は表示されない。図9(A)では、フォーカスガイド設定は入になっている。フォーカスの設定がMFであるときにフォーカスガイドの設定が切である場合は、ユーザーは合焦している位置や合焦度合い(合焦状態)を自身の目で確認することで所望の被写体にフォーカスを合わせる。この場合、合焦させるまでに時間がかかってしまい、シャッターチャンスを逃す可能性が生じる。MFのみで所望の被写体に合焦させたいユーザーや、AFである程度大まかに合焦させた後に細かくMFで合焦させたい、と考えているユーザーにとっては、フォーカスガイドによって、より容易にMFで所望の被写体に合焦させることができるようになる。 In this embodiment, the control processing of the display form of the focus guide in the digital camera 10 will be described. FIG. 4 is realized by the CPU 119a executing the program stored in the ROM 119b in the digital camera 10. In the control flow of FIGS. 4, (B) and (C), the focus setting is set to MF and the focus guide is set when the digital camera 10 is activated in the shooting mode and is in the shooting standby state. Is started when is on. In the present embodiment, the focus setting can be set to MF by setting the focus mode switch of the lens on the interchangeable lens 101 to MF. Instead of using the switch of the interchangeable lens 101, a setting method may be used so that the user can select AF / MF on the setting menu screen. Further, the focus guide can be set on the AF setting menu screen shown in FIG. 9A. Items 901 and 902 are items that can be set when the focus is set to MF. Item 901 is an MF peaking setting that makes it easier for the photographer to know whether or not the subject is in focus by highlighting the outline of the focused subject in color, and enables precise focusing. is there. In FIG. 9A, the MF peaking setting is turned off. Item 902 is a focus guide setting in which the adjustment direction and the adjustment amount from the current focus position to the in-focus position are visually displayed in the guide frame. When the setting item 902a is selected, the focus guide setting is turned on, a guide frame is displayed at the subject position (focus detection area) to be focused, and an index indicating the degree of focusing is displayed together with the guide frame. When the setting candidate 902b is selected, the focus guide setting is turned off, and even if the user operates the focus ring 134, the guide frame and the index are not displayed. In FIG. 9A, the focus guide setting is turned on. When the focus setting is MF and the focus guide setting is off, the user can check the in-focus position and the degree of focus (focus state) with his / her own eyes to obtain the desired subject. Focus on it. In this case, it takes time to focus, and there is a possibility that a photo opportunity is missed. For users who want to focus on the desired subject only with MF, or users who want to focus with MF finely after focusing roughly with AF, the focus guide makes it easier to focus with MF. You will be able to focus on the subject.

合焦状態を示すフォーカスガイドは、RAM119cに保持された測距位置(焦点検出位置、ガイド枠300によって示される位置)を読み出し、測距位置に対応する被写体について、合焦情報および測距成否の情報について、測距部108から取得する。この合焦情報および測距成否の情報から、図3(A)〜(D)に示したように、合焦状態、前ピン状態、後ピン状態、大ボケ状態(測距が失敗した状態)のいずれかの表示を行う。 The focus guide indicating the focusing state reads out the focusing position (focus detection position, position indicated by the guide frame 300) held in the RAM 119c, and for the subject corresponding to the focusing position, the focusing information and the focusing success / failure are determined. Information is acquired from the ranging unit 108. From this focusing information and the distance measurement success / failure information, as shown in FIGS. 3 (A) to 3 (D), the focus state, the front focus state, the rear focus state, and the large blur state (the state in which the distance measurement fails). Display either of.

同様に、顔検出機能の設定についても、設定メニュー画面でユーザーが有効/無効を選択できる。顔検出に関する設定を有効にすると、デジタルカメラ10が撮像した画像から顔検出処理を行い、人物の顔があるか否かをCPU119aが判定し、検出結果取得により、顔が検出できた場合は検出した顔の位置に顔検出枠を表示する。顔が検出できなかった場合は、顔検出枠は表示されない。顔検出に関する設定を無効にすると顔検出は行われず、顔検出枠も表示されない。顔検出枠とは、本実施形態では、認識した被写体の特に顔について表示する枠のことを指すが、枠に限らずCPU119aが認識している被写体範囲を示す指標であればよい。顔検出枠については、図7(A)〜(D)、図8(A)〜(C)を用いて後述する。顔検出機能はLV画像上に人物の顔に対応する領域を表示する機能である。顔検出は、撮像素子102で取得された画像情報を解析することで行われる。画像処理部118で得られた入力画像に対し、エッジ検出フィルタ、ノイズ除去フィルタを通してパターンマッチングを行い、瞳、鼻、口、耳などのパーツの候補群を抽出する。そして、候補領域群の中から、検出信頼度、パーツ間の距離、ペア情報(瞳、耳)などの特徴量を算出し、その特徴量から顔に該当する領域を算出する。パターンマッチングおよびフィルタリングのプログラムは、予めROM119bに格納されており、このプログラムは必要に応じてRAM119cに展開し、CPU119aで演算されることで実行される。別の形態として、上述した処理を実装した専用回路(図示しない)を用意し、画像処理部118から出力された信号を処理してもよい。 Similarly, regarding the setting of the face detection function, the user can select enable / disable on the setting menu screen. When the setting related to face detection is enabled, face detection processing is performed from the image captured by the digital camera 10, CPU119a determines whether or not there is a person's face, and if the face can be detected by acquiring the detection result, it is detected. A face detection frame is displayed at the position of the face. If the face cannot be detected, the face detection frame is not displayed. If the face detection setting is disabled, face detection will not be performed and the face detection frame will not be displayed. In the present embodiment, the face detection frame refers to a frame for displaying a recognized subject, particularly a face, but the frame is not limited to the frame and may be an index indicating a subject range recognized by the CPU 119a. The face detection frame will be described later with reference to FIGS. 7 (A) to 7 (D) and FIGS. 8 (A) to 8 (C). The face detection function is a function of displaying an area corresponding to a person's face on an LV image. Face detection is performed by analyzing the image information acquired by the image sensor 102. The input image obtained by the image processing unit 118 is pattern-matched through an edge detection filter and a noise removal filter, and candidate groups of parts such as eyes, nose, mouth, and ears are extracted. Then, from the candidate area group, feature amounts such as detection reliability, distance between parts, and pair information (pupils, ears) are calculated, and the area corresponding to the face is calculated from the feature amounts. The pattern matching and filtering program is stored in ROM 119b in advance, and this program is expanded to RAM 119c as needed and executed by being calculated by CPU 119a. As another form, a dedicated circuit (not shown) carrying the above-described processing may be prepared and the signal output from the image processing unit 118 may be processed.

図4、(C)の制御フローでは、図9(B)に示すガイド表示設定の表示優先に関する設定が、フォーカスガイドに設定されている場合を説明する。すなわち、本実施形態においてフォーカスガイドのガイド枠と顔検出枠のどちらか一方のみを表示すると判定された場合には、ガイド枠のみを表示し顔検出枠を非表示とするように制御する。 In the control flow of FIGS. 4 and 4C, a case where the setting related to the display priority of the guide display setting shown in FIG. 9B is set in the focus guide will be described. That is, when it is determined in the present embodiment that only one of the guide frame of the focus guide and the face detection frame is displayed, only the guide frame is displayed and the face detection frame is hidden.

S401では、CPU119aは、デジタルカメラ10で撮像したライブビュー画像(以下LV画像)内に顔が検出されたか否かを判定する。顔が検出された場合はS403へ進み、顔が検出されない場合はS402へ進む。前述したように、ユーザーは設定メニュー画面において、顔検出に関する設定を有効/無効のどちらかに設定をすることができる。設定を有効にすると、LV画像から顔が検出された否かを判定し、顔が検出できた場合は検出できた顔の位置に、被写体領域を示す顔検出枠を表示部107に表示する。この顔検出枠は、検出できた顔の領域の面積に応じて大きさを変化させる。顔が検出されない場合は顔検出枠を表示しない。設定を無効にすると、顔の有無を判定せず、顔検出枠は表示しない。 In S401, the CPU 119a determines whether or not a face is detected in the live view image (hereinafter referred to as LV image) captured by the digital camera 10. If a face is detected, the process proceeds to S403, and if no face is detected, the process proceeds to S402. As described above, the user can enable / disable the face detection setting on the setting menu screen. When the setting is enabled, it is determined whether or not a face is detected from the LV image, and if a face can be detected, a face detection frame indicating a subject area is displayed on the display unit 107 at the position of the detected face. The size of this face detection frame is changed according to the area of the detected face area. If the face is not detected, the face detection frame is not displayed. When the setting is disabled, the presence or absence of a face is not determined and the face detection frame is not displayed.

S402では、CPU119aは、フォーカスガイドのみの表示を行う。S401でNOと判定されたことより、デジタルカメラ10で撮像したLV画像内に顔が検出されなかったことから、顔検出枠を表示しない。そのため、フォーカスガイドのみを表示部107に表示する。 In S402, the CPU 119a displays only the focus guide. Since the face was not detected in the LV image captured by the digital camera 10 because it was determined to be NO in S401, the face detection frame is not displayed. Therefore, only the focus guide is displayed on the display unit 107.

S403では、CPU119aは、デジタルカメラ10で撮像したLV画像内に顔が複数検出されたか否かを判定する。顔が複数検出された場合は、S404へ進み、顔が1つだけ検出された場合は、S405へ進む。複数の顔が検出された場合は、図8(A)に示すように被写体810、811それぞれに対して顔検出枠800a、801aを表示する。検出された被写体、ここでは人物の顔に対して、メインかそれ以外かの判定がされる。メインであると判定された顔に対しては、図8(A)に示すように被写体810に対して、顔検出枠800aの両側に指標802と指標803を表示し、ユーザーが被写体810がメインの被写体であること視認できるように表示する。本実施形態では指標802と指標803を合わせて主顔ガイド指標と呼ぶ。メインとそれ以外の判定は、検出した顔のサイズやデジタルカメラと被写体の距離、または、ユーザーによって登録された顔などの条件によって、CPU119aによって自動的に判定される。例えば、検出した顔のサイズを比較してサイズがより大きい顔や、デジタルカメラと被写体の距離が他の被写体に比べて最も近い被写体をメインと判定してもよい。メインとする被写体の切替は、十字キー125の操作、ダイヤル126の回転操作、表示部107と一体化したタッチ操作が可能なタッチパネル(不図示)への操作などで切り替えることができる。また、人物の顔に限らず、例えば動物や乗り物について認識することができた場合に、複数の動物や乗り物があった場合は、それぞれに対してメインの被写体かそれ以外か、を判定して上述した主顔ガイド指標のようなガイドを出すこともできる。複数の人物の顔に対して、メインかそれ以外かの判定を行うことで、様々な場面でメインの被写体が優先して選択される。例えば、主顔ガイド指標が表示されている顔について、優先的にAFが実行されたりする。そのため、LV画像に複数の被写体がいる場合は、メインと判定された被写体であることをユーザーが識別できるようなガイド指標を表示する。なお、本実施形態では主顔ガイド指標を顔検出枠の両側に表示するとしたが、両側に限らず上下に表示してもよい。ユーザーがメインである被写体であることを認識できればよいため、メインの被写体の近傍に表示すればよい。 In S403, the CPU 119a determines whether or not a plurality of faces are detected in the LV image captured by the digital camera 10. If a plurality of faces are detected, the process proceeds to S404, and if only one face is detected, the process proceeds to S405. When a plurality of faces are detected, the face detection frames 800a and 801a are displayed for each of the subjects 810 and 811 as shown in FIG. 8A. The detected subject, here the face of a person, is determined to be main or not. For the face determined to be the main face, as shown in FIG. 8A, the index 802 and the index 803 are displayed on both sides of the face detection frame 800a for the subject 810, and the user uses the subject 810 as the main subject. It is displayed so that it can be visually recognized that it is the subject of. In the present embodiment, the index 802 and the index 803 are collectively referred to as a main face guide index. The main and other determinations are automatically determined by the CPU 119a according to conditions such as the detected face size, the distance between the digital camera and the subject, or the face registered by the user. For example, a face having a larger size by comparing the detected face sizes or a subject whose distance between the digital camera and the subject is closest to that of other subjects may be determined as the main subject. The main subject can be switched by operating the cross key 125, rotating the dial 126, or touching a touch panel (not shown) integrated with the display unit 107. Also, if there are multiple animals or vehicles, for example, when it is possible to recognize not only the face of a person but also animals and vehicles, it is determined whether each is the main subject or something else. It is also possible to issue a guide such as the main face guide index described above. By determining whether the faces of a plurality of people are main or other, the main subject is preferentially selected in various scenes. For example, AF is preferentially executed for a face on which the main face guide index is displayed. Therefore, when there are a plurality of subjects in the LV image, a guide index is displayed so that the user can identify the subject as the main subject. In the present embodiment, the main face guide index is displayed on both sides of the face detection frame, but it may be displayed not only on both sides but also on the top and bottom. Since it is only necessary for the user to recognize that the subject is the main subject, the display may be performed in the vicinity of the main subject.

S404では、CPU119aは、S403で判定した結果を基に、ROM119bに複数顔フラグを格納する。S403でYesと判定された場合、複数の顔が検出されたことから、複数顔フラグとして「1」を格納する。 In S404, the CPU 119a stores the plurality of face flags in the ROM 119b based on the result determined in S403. When it is determined Yes in S403, since a plurality of faces are detected, "1" is stored as the multiple face flag.

S405では、CPU119aは、S403で判定した結果を基に、ROM119bに複数顔フラグを格納する。S403でYesと判定された場合、顔が1つだけ検出されたことから、複数顔フラグとして「0」を格納する。 In S405, the CPU 119a stores the plurality of face flags in the ROM 119b based on the result determined in S403. When it is determined Yes in S403, since only one face is detected, "0" is stored as a plurality of face flags.

S406では、CPU119aは、フォーカスガイドのガイド枠と顔検出枠の表示に関する演算処理を行う。ここでの演算処理の詳細については、図6(A)のS601〜S608と図7(A)〜(D)、図8(A)〜(C)を用いて後述する。S406の演算処理では、S407での判定に用いる枠表示フラグの判定処理を行う。枠表示フラグとは、表示部107に表示するガイド枠と顔検出枠について、ガイド枠と顔検出枠の両方を表示するか、もしくはガイド枠のみを表示し顔検出枠を表示しないように制御するか、の判定結果を示すフラグである。詳しくは図6(A)のS601〜S608で後述する。 In S406, the CPU 119a performs arithmetic processing related to the display of the guide frame of the focus guide and the face detection frame. The details of the arithmetic processing here will be described later with reference to S601 to S608 of FIG. 6 (A), FIGS. 7 (A) to (D), and FIGS. 8 (A) to 8 (C). In the arithmetic processing of S406, the determination processing of the frame display flag used for the determination in S407 is performed. The frame display flag controls the guide frame and the face detection frame to be displayed on the display unit 107 so that both the guide frame and the face detection frame are displayed, or only the guide frame is displayed and the face detection frame is not displayed. It is a flag indicating the determination result of. Details will be described later in S601 to S608 of FIG. 6 (A).

S407では、CPU119aはROM119bを参照して、枠表示フラグが1であるか否かを判定する。枠表示フラグが1である場合は、S408へ進み、枠表示フラグが0である場合は、S411へ進む。枠表示フラグについては、S406の演算処理で判定するため、図6(A)のS601〜S608で後述する。 In S407, the CPU 119a refers to the ROM 119b and determines whether or not the frame display flag is 1. If the frame display flag is 1, the process proceeds to S408, and if the frame display flag is 0, the process proceeds to S411. Since the frame display flag is determined by the arithmetic processing of S406, it will be described later in S601 to S608 of FIG. 6A.

S408では、CPU119aはROM119bを参照し、複数顔フラグが1であるか否かを判定する。複数顔フラグが1、すなわちS403においてLV画像内に複数の顔が検出された場合はS409へ進み、複数顔フラグが0、すなわちS403においてLV画像内に顔が1つだけ検出された場合は、S410へ進む。 In S408, the CPU 119a refers to the ROM 119b and determines whether or not the plurality of face flags are 1. If the multiple face flag is 1, that is, if multiple faces are detected in the LV image in S403, the process proceeds to S409, and if the multiple face flag is 0, that is, if only one face is detected in the LV image in S403, the process proceeds to S409. Proceed to S410.

S409では、CPU119aはROM119bを参照し、S407においてYesと判定されたことから、表示部107にガイド枠のみを表示し顔検出枠は表示しない。さらに、S408においてYesと判定されたことから、LV画像から検出した複数の顔のうちメインの顔に主顔ガイド指標を表示する。ここでS406の演算処理により、枠表示フラグが1となったことから、ガイド枠を表示すると、顔検出枠の一部もしくは全体が重なってしまい、2つの枠を両方表示しているとユーザーが被写体を確認するのに邪魔に感じる可能性が高い。そのため、ガイド枠のみを表示し顔検出枠を表示せず、ユーザーが被写体を視認しやすくする。これにより、ユーザーはフォーカス調整を行いやすく、かつ、被写体を視認しにくくなることを低減する。S409のフォーカスガイドのガイド枠と顔検出枠の表示例については、図8(B)を用いて後述する。なお、上述したように、顔検出枠を非表示としても主顔ガイド指標は表示する。主顔ガイド指標を表示することで、ユーザーは顔検出枠が表示されなくても顔が検出われていることが視認できる。また、主顔ガイド指標を表示することで、メインの被写体を認識できることから、たとえ顔検出枠が表示されていなくても操作性が悪くなる可能性は低い。 In S409, the CPU 119a refers to the ROM 119b, and since it is determined to be Yes in S407, only the guide frame is displayed on the display unit 107 and the face detection frame is not displayed. Further, since it was determined to be Yes in S408, the main face guide index is displayed on the main face among the plurality of faces detected from the LV image. Here, since the frame display flag is set to 1 by the arithmetic processing of S406, when the guide frame is displayed, a part or the whole of the face detection frame overlaps, and the user displays both of the two frames. It is likely to get in the way of checking the subject. Therefore, only the guide frame is displayed and the face detection frame is not displayed, making it easier for the user to visually recognize the subject. This makes it easier for the user to adjust the focus and reduces the difficulty in visually recognizing the subject. A display example of the guide frame and the face detection frame of the focus guide of S409 will be described later with reference to FIG. 8 (B). As described above, the main face guide index is displayed even if the face detection frame is hidden. By displaying the main face guide index, the user can visually recognize that the face is detected even if the face detection frame is not displayed. Further, since the main subject can be recognized by displaying the main face guide index, it is unlikely that the operability will deteriorate even if the face detection frame is not displayed.

S410では、CPU119aは、ROM119bを参照し、S407においてYesと判定されたことから、表示部107にガイド枠のみを表示し顔検出枠は表示しない。さらに、S408においてNoと判定されたことから、LV画像内に検出された顔が1つだけであるため主顔ガイド指標を表示しない。S410における表示例については、図7(B)を用いて後述する。図4の制御フローでは、枠表示フラグ=1である場合に、ガイド枠のみを表示し顔検出枠を表示しないとしたが、どちらの枠表示を優先して表示するか否かは、ユーザーが設定メニュー画面において任意に設定できるようにしてもよい。例えば、図9(B)に示すように、ガイド表示設定について、項目911の表示優先をガイド枠(フォーカスガイド)にするか顔検出枠にするか選択することができる。設定候補911aを選択すると、枠表示フラグ=1となった際には、ガイド枠を表示せず顔検出枠を表示する。設定候補911bを選択すれば、枠表示フラグ=1となると、ガイド枠を表示し顔検出枠を表示しない。図9(B)では、設定候補911bが選択されていることから、図4、(C)の制御フローでは、枠表示フラグ=1となった際には、ガイド枠を表示し顔検出枠を表示しないように制御する。設定候補911aが選択された場合の、すなわち、ガイド表示設定の表示優先が顔検出枠に設定されていた場合の制御フローについては、図5、(C)を用いて後述する。また、上述したような設定メニュー画面において表示を優先する枠をユーザーが選ばなくても、ガイド枠と顔検出枠のうち枠のサイズが小さいほうを非表示にするなど、サイズに応じて決定するようにしてもよい。 In S410, the CPU 119a refers to the ROM 119b, and since it is determined to be Yes in S407, only the guide frame is displayed on the display unit 107 and the face detection frame is not displayed. Further, since it was determined as No in S408, the main face guide index is not displayed because only one face is detected in the LV image. A display example in S410 will be described later with reference to FIG. 7 (B). In the control flow of FIG. 4, when the frame display flag = 1, only the guide frame is displayed and the face detection frame is not displayed, but the user decides which frame display is to be displayed with priority. It may be possible to set arbitrarily on the setting menu screen. For example, as shown in FIG. 9B, with respect to the guide display setting, it is possible to select whether the display priority of item 911 is set to the guide frame (focus guide) or the face detection frame. When the setting candidate 911a is selected, when the frame display flag = 1, the face detection frame is displayed without displaying the guide frame. If the setting candidate 911b is selected and the frame display flag = 1, the guide frame is displayed and the face detection frame is not displayed. Since the setting candidate 911b is selected in FIG. 9B, in the control flow of FIGS. 4 and 4C, when the frame display flag = 1, the guide frame is displayed and the face detection frame is displayed. Control not to display. The control flow when the setting candidate 911a is selected, that is, when the display priority of the guide display setting is set in the face detection frame will be described later with reference to FIGS. 5 and 5 (C). In addition, even if the user does not select a frame for which display is prioritized on the setting menu screen as described above, the smaller frame size of the guide frame and the face detection frame is hidden, and the size is determined according to the size. You may do so.

S411では、S408と同様に、CPU119aはROM119bを参照し、複数顔フラグが1であるか否かを判定する。複数顔フラグが1である場合は、S412へ進み、複数顔フラグが0であった場合はS413へ進む。 In S411, similarly to S408, the CPU 119a refers to the ROM 119b and determines whether or not the plurality of face flags are 1. If the multiple face flag is 1, the process proceeds to S412, and if the multiple face flag is 0, the process proceeds to S413.

S412では、CPU119aは、ROM119bを参照し、ガイド枠と顔検出枠の両方を表示部107に表示する。また、S411においてYesと判定されたことから、LV画像内から検出した複数の顔のうちメインであると判定された顔に対して主顔ガイド指標を表示する。S406の演算処理により枠表示フラグが0となったことから、ガイド枠と顔検出枠が重なっていても、S406の演算処理で求めたそれぞれの枠の面積比から、両方の枠を表示しても、ユーザーは被写体を視認しにくいと感じる可能性が低い。また、ガイド枠と顔検出枠が重なっていない場合は、どちらか一方を非表示にしてしまうと、フォーカス調整が行いにくくなることが想定される。例えば図8(C)に示すように、ガイド枠806cと顔検出枠800cが重なっていない場合を考える。この場合に、ガイド枠のみを表示すると、ユーザーが顔検出枠を表示するように設定しているにもかかわらず表示されないことから、顔が検出されていない(CPU119aに認識されていない)と勘違いする可能性がある。一方で、ガイド枠を表示せず顔検出枠を表示すると、ユーザーはガイド枠が示す焦点検出領域を特定できず、フォーカス調整を行いにくい。そのため、ユーザーが設定メニュー画面で行った設定に従い、ガイド枠と顔検出枠の両方を表示部107に表示する。S412の表示例については、図8(C)を用いて後述する。 In S412, the CPU 119a refers to the ROM 119b and displays both the guide frame and the face detection frame on the display unit 107. Further, since it was determined to be Yes in S411, the main face guide index is displayed for the face determined to be the main face among the plurality of faces detected in the LV image. Since the frame display flag became 0 by the arithmetic processing of S406, even if the guide frame and the face detection frame overlap, both frames are displayed from the area ratio of each frame obtained by the arithmetic processing of S406. However, it is unlikely that the user will find it difficult to see the subject. If the guide frame and the face detection frame do not overlap, it is assumed that it will be difficult to adjust the focus if one of them is hidden. For example, as shown in FIG. 8C, consider a case where the guide frame 806c and the face detection frame 800c do not overlap. In this case, if only the guide frame is displayed, it is not displayed even though the user has set the face detection frame to be displayed, so it is misunderstood that the face is not detected (not recognized by the CPU 119a). there's a possibility that. On the other hand, if the face detection frame is displayed without displaying the guide frame, the user cannot specify the focus detection area indicated by the guide frame, and it is difficult to adjust the focus. Therefore, both the guide frame and the face detection frame are displayed on the display unit 107 according to the settings made by the user on the setting menu screen. A display example of S412 will be described later with reference to FIG. 8 (C).

S413では、CPU119aはROM119bを参照し、ガイド枠と顔検出枠の両方を表示部107に表示する。S413ではS411でNoと判定されたことから、LV画像内で検出された顔が1つだけであるため、メインであることを示す主顔ガイド指標を表示しない。S413の表示例については、図7(C)を用いて後述する。 In S413, the CPU 119a refers to the ROM 119b and displays both the guide frame and the face detection frame on the display unit 107. In S413, since it was determined as No in S411, since only one face was detected in the LV image, the main face guide index indicating that it is the main face is not displayed. A display example of S413 will be described later with reference to FIG. 7 (C).

S414では、CPU119aは、ユーザーによる撮影指示があったか否かを判定する。撮影指示があった場合はS415へ進み、なかった場合はS401へ戻る。 In S414, the CPU 119a determines whether or not there is a shooting instruction by the user. If there is a shooting instruction, the process proceeds to S415, and if not, the process returns to S401.

S415では、CPU119aは、撮影処理を行う。表示部107にフォーカスガイドが表示されている場合は、撮影指示があった時点でフォーカスガイドが表示されている位置、特にガイド枠300の表示位置の合焦度合いで撮影が行われる。S416での撮影とは、CPU119aは撮影指示により、撮影指示信号の読み出しから記録媒体105に画像データを書き込み、画像ファイルを作成する、一連の撮影処理の動作のことを指す。静止画の撮影と動画の撮影のいずれであってもよい。 In S415, the CPU 119a performs a shooting process. When the focus guide is displayed on the display unit 107, shooting is performed at the position where the focus guide is displayed at the time when the shooting instruction is given, particularly at the degree of focusing of the display position of the guide frame 300. The shooting in S416 refers to a series of shooting processing operations in which the CPU 119a reads a shooting instruction signal, writes image data to the recording medium 105, and creates an image file in response to a shooting instruction. It may be either a still image shooting or a moving image shooting.

S416では、CPU119aは、撮影待機状態が終了したか否かを判定する。撮影待機状態が終了した場合は、本制御フローを終了し、そうでない場合はS401へ戻る。 In S416, the CPU 119a determines whether or not the shooting standby state has ended. When the shooting standby state ends, the present control flow ends, and if not, the process returns to S401.

図5、(C)の制御フローはデジタルカメラ10を撮影モードで起動し、撮影待機状態であるときに、フォーカスの設定がMFに設定されており、かつ、フォーカスガイドの設定が入である場合に開始される。また、図5の制御フローでは図9(B)の設定候補911aが選択されているとし、フォーカスガイドのガイド枠と顔検出枠のどちらか一方のみを表示する(枠表示フラグ=1)と判定された場合には、ガイド枠を表示せず顔検出枠を表示するように制御する。 The control flow of FIGS. 5 and 5 shows the case where the digital camera 10 is activated in the shooting mode and the focus setting is set to MF and the focus guide setting is turned on when the shooting standby state is set. Is started on. Further, in the control flow of FIG. 5, it is assumed that the setting candidate 911a of FIG. 9B is selected, and it is determined that only one of the guide frame of the focus guide and the face detection frame is displayed (frame display flag = 1). If this is the case, control is performed so that the face detection frame is displayed without displaying the guide frame.

S501では、S401と同様に、CPU119aは、デジタルカメラ10で撮像したライブビュー画像(以下LV画像)内に顔が検出されたか否かを判定する。顔が検出された場合はS503へ進み、顔が検出されない場合はS502へ進む。 In S501, similarly to S401, the CPU 119a determines whether or not a face is detected in the live view image (hereinafter referred to as LV image) captured by the digital camera 10. If a face is detected, the process proceeds to S503, and if no face is detected, the process proceeds to S502.

S502では、S402と同様に、CPU119aは、フォーカスガイドのみの表示を行う。 In S502, similarly to S402, the CPU 119a displays only the focus guide.

S503では、S403と同様に、CPU119aは、デジタルカメラ10で撮像したLV画像内に顔が複数検出されたか否かを判定する。顔が複数検出された場合は、S504へ進み、顔が1つだけ検出された場合は、S505へ進む。 In S503, similarly to S403, the CPU 119a determines whether or not a plurality of faces are detected in the LV image captured by the digital camera 10. If a plurality of faces are detected, the process proceeds to S504, and if only one face is detected, the process proceeds to S505.

S504では、S404と同様に、CPU119aは、ROM119bに複数顔フラグを格納する。S402でYesと判定された場合、複数の顔が検出されたことから、複数顔フラグとして「1」を格納する。 In S504, similarly to S404, the CPU 119a stores the plurality of face flags in the ROM 119b. When it is determined Yes in S402, since a plurality of faces are detected, "1" is stored as the multiple face flag.

S505では、S405と同様に、CPU119aは、ROM119bに複数顔フラグを格納する。S402でNoと判定された場合、顔が1つだけ検出されたことから、複数顔フラグとして「0」を格納する。 In S505, similarly to S405, the CPU 119a stores the plurality of face flags in the ROM 119b. When No is determined in S402, since only one face is detected, "0" is stored as a plurality of face flags.

S506では、S406と同様に、CPU119aは、フォーカスガイドのガイド枠と顔検出枠の表示に関する演算処理を行う。ここでの演算処理の詳細については、図6(A)のS601〜S608を用いて後述する。 In S506, similarly to S406, the CPU 119a performs arithmetic processing related to the display of the guide frame and the face detection frame of the focus guide. The details of the arithmetic processing here will be described later with reference to S601 to S608 of FIG. 6A.

S507では、S407と同様に、CPU119aはROM119bを参照して、ガイド枠と顔検出枠の両方を表示するか、もしくは、顔検出枠のみを表示するかの判定に用いる、枠表示フラグが1であるか否かを判定する。枠表示フラグが1である場合は、S508へ進み、枠表示フラグが0である場合は、S509へ進む。枠表示フラグについては、S506の演算処理で判定するため、図6(A)のS601〜S608で後述する。 In S507, similarly to S407, the frame display flag set to 1 is used by the CPU 119a to refer to the ROM 119b and determine whether to display both the guide frame and the face detection frame or to display only the face detection frame. Determine if it exists. If the frame display flag is 1, the process proceeds to S508, and if the frame display flag is 0, the process proceeds to S509. Since the frame display flag is determined by the arithmetic processing of S506, it will be described later in S601 to S608 of FIG. 6A.

S508では、S408と同様に、CPU119aはROM119bを参照し、複数顔フラグが1であるか否かを判定する。複数顔フラグが1、すなわちS503においてLV画像内に複数の顔が検出された場合はS509へ進み、複数顔フラグが0、すなわちS503においてLV画像内に顔が1つだけ検出された場合は、S510へ進む。 In S508, similarly to S408, the CPU 119a refers to the ROM 119b and determines whether or not the plurality of face flags are 1. If the multiple face flag is 1, that is, if multiple faces are detected in the LV image in S503, the process proceeds to S509, and if the multiple face flag is 0, that is, if only one face is detected in the LV image in S503, the process proceeds to S509. Proceed to S510.

S509では、CPU119aはROM119bを参照し、表示部107にガイド枠を表示せず顔検出枠のみを表示する。S508においてYesと判定されたことから、LV画像から検出した複数の顔のうちメインの顔に主顔ガイド指標を表示する。S405の演算処理から、ガイド枠と顔検出枠の一部もしくは全体が重なっており、2つの枠を両方表示しているとユーザーが被写体を確認するのに邪魔に感じる可能性が高い。そのため、ガイド枠を表示せず顔検出枠のみを表示し、ユーザーが被写体を視認しやすくする。これにより、ユーザーはフォーカス調整を行いやすく、かつ、被写体を視認しにくいことを低減する。なお、ガイド枠を非表示としても合焦度合いを示す指標は表示を行う。合焦度合いを示す指標は、上述したように、ガイド枠の上部(もしくは下部)に表示される。図5、(C)の制御フローでガイド枠が非表示になったとしても、合焦度合いを示す指標は、ガイド枠が表示されるはずだった位置の上部(もしくは下部)に表示されるため、ユーザーはガイド枠が示す焦点検出領域を大まかに視認することができる。また、合焦度合いを示す指標はガイド枠に比べて表示が小さいことや被写体に重畳して表示されていないことから、たとえ表示を継続してもユーザーが邪魔に感じる可能性は低い。したがって、ガイド枠を非表示にしても、合焦度合いを示す指標によるフォーカス調整の行いやすさと、被写体の視認性の両立ができる。 In S509, the CPU 119a refers to the ROM 119b and displays only the face detection frame without displaying the guide frame on the display unit 107. Since it was determined to be Yes in S508, the main face guide index is displayed on the main face among the plurality of faces detected from the LV image. From the arithmetic processing of S405, a part or the whole of the guide frame and the face detection frame overlap, and if both of the two frames are displayed, there is a high possibility that the user will find it annoying to confirm the subject. Therefore, only the face detection frame is displayed without displaying the guide frame, so that the user can easily see the subject. This makes it easier for the user to adjust the focus and reduces the difficulty of visually recognizing the subject. Even if the guide frame is hidden, the index indicating the degree of focusing is displayed. As described above, the index indicating the degree of focusing is displayed at the upper part (or lower part) of the guide frame. Even if the guide frame is hidden in the control flow shown in FIGS. 5 and 5 (C), the index indicating the degree of focusing is displayed above (or below) the position where the guide frame should have been displayed. , The user can roughly see the focus detection area indicated by the guide frame. In addition, since the index indicating the degree of focusing is smaller than the guide frame and is not displayed superimposed on the subject, it is unlikely that the user will feel annoyed even if the display is continued. Therefore, even if the guide frame is hidden, it is possible to achieve both ease of focus adjustment using an index indicating the degree of focusing and visibility of the subject.

S510では、CPU119aは、ROM119bを参照し、S507においてYesと判定されたことから、表示部107にガイド枠を表示せず顔検出枠のみを表示する。さらに、S510ではS508でNoと判定されたことから、LV画像内に検出された顔が1つだけであるため主顔ガイド指標を表示しない。図5の制御フローでは、枠表示フラグ=1である場合にガイド枠を表示せず顔検出枠のみを表示するとしたが、図4のS410で述べたように、どちらの枠を優先表示するかは、ユーザーが設定メニュー画面において任意に設定できるようにしてもよい。図5の制御フローでは、図9(B)のような設定メニュー画面において表示優先として設定候補911aである顔検出枠が選択されているとする。 In S510, the CPU 119a refers to the ROM 119b and determines Yes in S507, so that the guide frame is not displayed on the display unit 107 and only the face detection frame is displayed. Further, in S510, since it was determined as No in S508, the main face guide index is not displayed because only one face is detected in the LV image. In the control flow of FIG. 5, when the frame display flag = 1, the guide frame is not displayed and only the face detection frame is displayed. However, as described in S410 of FIG. 4, which frame is preferentially displayed. May be arbitrarily set by the user on the setting menu screen. In the control flow of FIG. 5, it is assumed that the face detection frame, which is the setting candidate 911a, is selected as the display priority on the setting menu screen as shown in FIG. 9B.

S511では、S411と同様に、CPU119aはROM119bを参照し、複数顔フラグが1であるか否かを判定する。複数顔フラグが1である場合は、S512へ進み、複数顔フラグが0であった場合はS513へ進む。 In S511, similarly to S411, the CPU 119a refers to the ROM 119b and determines whether or not the plurality of face flags are 1. If the multiple face flag is 1, the process proceeds to S512, and if the multiple face flag is 0, the process proceeds to S513.

S512では、CPU119aは、ROM119bを参照し、ユーザーのガイド枠と顔検出枠の両方を表示部107に表示する。また、S511においてYesと判定されたことから、LV画像内から検出した複数の顔のうちメインであると判定された顔に対して主顔ガイド指標を表示する。S405の演算処理から、ガイド枠と顔検出枠が重なっていても、それぞれの枠の面積比から両方を表示しても、ユーザーは被写体を視認しにくいと感じる可能性が低い。また、ガイド枠と顔検出枠が重なっていない場合は、どちらか一方を非表示にしてしまうと、フォーカス調整が行いにくくなることが想定される。例えば図8(C)に示すように、ガイド枠806cと顔検出枠800cが重なっていない場合を考える。この場合に、ガイド枠を表示せず顔検出枠のみを表示すると、ユーザーがガイド枠を表示するように設定しているにもかかわらず表示されないため、誤解が生じる可能性がある。また、ガイド枠と顔検出枠が重なっていなければ、フォーカスガイドは顔検出枠から大きく離れた位置に表示されている可能性があり、合焦度合いを示す指標を表示したとしても、指標が小さいために位置を確認するのに時間がかかってしまう可能性がある。また、ガイド枠が表示されないとユーザーは厳密な焦点検出領域を特定することができず、フォーカス調整を行いにくい。そのため、ガイド枠と顔検出枠の両方を表示部107に表示する。 In S512, the CPU 119a refers to the ROM 119b and displays both the user's guide frame and the face detection frame on the display unit 107. Further, since it was determined to be Yes in S511, the main face guide index is displayed for the face determined to be the main face among the plurality of faces detected in the LV image. From the arithmetic processing of S405, even if the guide frame and the face detection frame overlap, or even if both are displayed from the area ratio of each frame, it is unlikely that the user feels that the subject is difficult to see. If the guide frame and the face detection frame do not overlap, it is assumed that it will be difficult to adjust the focus if one of them is hidden. For example, as shown in FIG. 8C, consider a case where the guide frame 806c and the face detection frame 800c do not overlap. In this case, if only the face detection frame is displayed without displaying the guide frame, it is not displayed even though the user has set the guide frame to be displayed, which may cause a misunderstanding. Also, if the guide frame and the face detection frame do not overlap, the focus guide may be displayed at a position far away from the face detection frame, and even if an index indicating the degree of focusing is displayed, the index is small. Therefore, it may take time to confirm the position. Further, if the guide frame is not displayed, the user cannot specify the exact focus detection area, and it is difficult to adjust the focus. Therefore, both the guide frame and the face detection frame are displayed on the display unit 107.

S513では、CPU119aはROM119bを参照し、ガイド枠と顔検出枠の両方を表示部107に表示する。S513ではS511でNOと判定されたことから、LV画像内で検出された顔が1つだけであるため、メインであることを示す主顔ガイド指標を表示しない。なお、図5、(C)の制御フローでは、ガイド表示設定の表示優先が顔検出枠である。そのため、枠表示フラグ=1となった際には、顔検出枠を表示してガイド枠を表示しないようにする。このときガイド枠を表示しないように制御したとしても、フォーカスガイドの合焦度合いを示す指標は表示を継続する。合焦度合いを示す指標は、上述したように、ガイド枠の上部(もしくは下部)に表示される。図5、(C)の制御フローにおいてガイド枠が非表示になったとしても、合焦度合いを示す指標は、ガイド枠が表示されるはずだった位置の上部(もしくは下部)に表示されるため、ユーザーはガイド枠が示す焦点検出領域を大まかに視認することができる。また、合焦度合いを示す指標はガイド枠に比べて表示が小さいことや被写体に重畳して表示されていないことから、たとえ表示を継続してもユーザーが邪魔に感じる可能性は低い。したがって、ガイド枠と顔検出枠のどちらを優先して表示するようにしても、フォーカスガイドによるフォーカス調整の行いやすさと、被写体の視認性の両立ができる。 In S513, the CPU 119a refers to the ROM 119b and displays both the guide frame and the face detection frame on the display unit 107. In S513, since it was determined as NO in S511, since only one face was detected in the LV image, the main face guide index indicating that it is the main face is not displayed. In the control flow of FIGS. 5 and 5C, the display priority of the guide display setting is the face detection frame. Therefore, when the frame display flag = 1, the face detection frame is displayed and the guide frame is not displayed. At this time, even if the guide frame is controlled not to be displayed, the index indicating the degree of focusing of the focus guide continues to be displayed. As described above, the index indicating the degree of focusing is displayed at the upper part (or lower part) of the guide frame. Even if the guide frame is hidden in the control flow shown in FIGS. 5 and 5 (C), the index indicating the degree of focusing is displayed above (or below) the position where the guide frame should have been displayed. , The user can roughly see the focus detection area indicated by the guide frame. In addition, since the index indicating the degree of focusing is smaller than the guide frame and is not displayed superimposed on the subject, it is unlikely that the user will feel annoyed even if the display is continued. Therefore, regardless of which of the guide frame and the face detection frame is prioritized for display, it is possible to achieve both ease of focus adjustment by the focus guide and visibility of the subject.

S514では、CPU119aは合焦度合いの変化があったか否かを判定する。合焦度合いの変化があった場合は、S516へ進み、変化がなかった(すなわち、合焦状態が継続している)場合はS515へ進む。合焦度合いの変化の有無は、S514での合焦度合いと、S509、S510、S512、S513において枠表示を行った際の合焦度合いとの比較によって判定する。合焦度合いの変化が所定量以上あるということは、ユーザーがフォーカスリング134を操作している、もしくは、ガイド枠の表示位置の被写体とデジタルカメラ10の距離が変化したということである。このような場合、ユーザーはMF操作することで、ガイド枠が表示されている被写体の合焦状態を変化させている、もしくは変化する必要が生じることが想定できる。 In S514, the CPU 119a determines whether or not there is a change in the degree of focusing. If there is a change in the degree of focusing, the process proceeds to S516, and if there is no change (that is, the focusing state continues), the process proceeds to S515. The presence or absence of a change in the degree of focusing is determined by comparing the degree of focusing in S514 with the degree of focusing when the frame is displayed in S509, S510, S512, and S513. The fact that the degree of focusing changes by a predetermined amount or more means that the user is operating the focus ring 134 or that the distance between the subject at the display position of the guide frame and the digital camera 10 has changed. In such a case, it can be assumed that the user changes or needs to change the focusing state of the subject on which the guide frame is displayed by operating the MF.

S515では、CPU119aは、操作部材への操作があったか否かを判定する。操作部材への操作があった場合は、S516へ進み、操作がなかった場合は、S519へ進む。操作部材への操作とは、具体的にはデジタルカメラ10に搭載されているメニューキー124〜AF/MFスイッチ135などの操作部への操作を指す。例えば、ワンショットAFキー129やAFロックキー130への押下や十字キー125やダイヤル126への操作が行われた場合は、S506での演算処理の結果から非表示とした顔検出枠を表示したいと考えていると想定できる。デジタルカメラ10にLV画像を表示する表示部とタッチ操作可能な操作部材が一体になったものが搭載されている場合を考える。このようなタッチ操作可能な操作部材への操作が行われた場合は、ユーザーがフォーカスガイドの表示位置(焦点検出領域の位置)を確認・変更をしたいと考えていることが想定できる。また、十字キー125やダイヤル126を用いてもタッチ操作と同様に、合焦位置を示すフォーカスガイドの表示位置を変更することができる。十字キー125やダイヤル126、タッチ操作部材への操作が行われたことにより、ユーザーがフォーカスガイドを重畳表示する位置を移動する移動指示を行い、合焦/非合焦状態を判定する被写体を変更しようとしている可能性が考えられる。そのため、S506で判定したS509、S510において表示しなかったガイド枠を表示する。すなわち、後述するS415でガイド枠と顔検出枠の両方を表示部107に表示する。なお、ワンショットAFキー129やAFロックキー130は、MF操作中には押下があっても実行されない機能、すなわち自動焦点調節を行うAFモードに設定されている際に用いる機能を持ったキーである。 In S515, the CPU 119a determines whether or not there has been an operation on the operating member. If there is an operation on the operating member, the process proceeds to S516, and if there is no operation, the process proceeds to S519. The operation on the operation member specifically refers to an operation on an operation unit such as the menu keys 124 to AF / MF switch 135 mounted on the digital camera 10. For example, when the one-shot AF key 129 or AF lock key 130 is pressed or the cross key 125 or dial 126 is operated, it is desired to display the face detection frame hidden from the result of the calculation processing in S506. It can be assumed that you are thinking. Consider a case where the digital camera 10 is equipped with a display unit for displaying an LV image and an operation member capable of touch operation. When such an operation on the touch-operable operating member is performed, it can be assumed that the user wants to confirm / change the display position (position of the focus detection area) of the focus guide. Further, the display position of the focus guide indicating the focusing position can be changed by using the cross key 125 or the dial 126 as well as the touch operation. By operating the cross key 125, dial 126, and touch operation member, the user gives a move instruction to move the position where the focus guide is superimposed and displayed, and changes the subject that determines the in-focus / out-of-focus state. It is possible that you are trying. Therefore, the guide frame that was not displayed in S509 and S510 determined in S506 is displayed. That is, in S415 described later, both the guide frame and the face detection frame are displayed on the display unit 107. The one-shot AF key 129 and AF lock key 130 are keys that have a function that is not executed even if pressed during MF operation, that is, a function that is used when the AF mode for automatic focus adjustment is set. is there.

S516では、CPU119aは、S506で判定し、S509、S510で表示しなかったガイド枠を表示し、ガイド枠と顔検出枠の両方を表示部107に表示するようにする。S509、S510において、ユーザーが被写体を確認しやすいように表示をしなかったガイド枠を表示部17に表示する。S514でYesと判定されたことから、S514で述べたように、ユーザーはMF操作で被写体の合焦状態を変化させている、もしくは変化する必要が生じていることが想定できる。また、S514でYesと判定されたことから、表示しなかったガイド枠を表示し、検出された顔を示す顔検出枠と焦点検出領域を示すガイド枠の両方を表示したほうが、ユーザーはガイド枠と顔検出枠の両方を確認しつつフォーカス調整を行える。したがって、ユーザーは所望位置でフォーカス調整を行いやすく、操作性が良い。 In S516, the CPU 119a determines in S506, displays the guide frame that was not displayed in S509 and S510, and displays both the guide frame and the face detection frame on the display unit 107. In S509 and S510, the guide frame that is not displayed is displayed on the display unit 17 so that the user can easily confirm the subject. Since it was determined to be Yes in S514, it can be assumed that the user has changed or needs to change the focusing state of the subject by the MF operation as described in S514. Further, since it was determined to be Yes in S514, it is better for the user to display the guide frame that was not displayed and display both the face detection frame indicating the detected face and the guide frame indicating the focus detection area. You can adjust the focus while checking both the face detection frame and the face detection frame. Therefore, the user can easily adjust the focus at a desired position, and the operability is good.

S517では、CPU119aは、所定時間経過したか否かを判定する。所定時間経過した場合は、S518へ進み、経過していない場合はS517へ戻る。S516においてガイド枠と顔検出枠を両方表示した時点で計時を開始し、所定時間が経過したことに応じて、ユーザーはフォーカス調整を終えた、もしくは、画像全体のチェックを行っていると想定できる。なお、ガイド枠と顔検出枠を両方表示した時点から計時を開始すると上述したが、両方表示しても合焦度合いが変化している間は計時を開始しないというようにしてもよい。このようにすると、所定時間が経過してもフォーカス調整を行っている間はガイド枠と顔検出枠が両方表示されるため、顔検出位置を視認しながら、ガイド枠の表示位置である焦点検出領域の位置でフォーカス調整を行うことができる。 In S517, the CPU 119a determines whether or not a predetermined time has elapsed. If the predetermined time has elapsed, the process proceeds to S518, and if not, the process returns to S517. It can be assumed that the time counting is started when both the guide frame and the face detection frame are displayed in S516, and the user has finished the focus adjustment or is checking the entire image according to the elapse of the predetermined time. .. It should be noted that, although it was described above that the time counting is started from the time when both the guide frame and the face detection frame are displayed, the time counting may not be started while the degree of focusing is changing even if both are displayed. In this way, both the guide frame and the face detection frame are displayed while the focus adjustment is being performed even after a predetermined time has elapsed. Focus can be adjusted at the position of the area.

S518では、ROM119bを参照し、ガイド枠を非表示にし、顔検出枠を表示する。S517でYesと判定された場合、ガイド枠と顔検出枠の両方が表示されてから所定時間経過により、ユーザーはフォーカス調整をし終えて、被写体や画像全体を確認しようとしていると考えられる。そのため、S516で表示したガイド枠と顔検出枠について、ROM119bに格納されている枠表示フラグを参照し、ガイド枠を再度非表示にして被写体に対する視認性を高める。なお、合焦度合いを示すガイド指標はガイド枠を非表示にしても継続して表示する。これにより、たとえ焦点検出領域であるガイド枠が表示されなくなったとしても、ユーザーは合焦させようとしている焦点検出領域を視認することができるため、合焦させようとしている位置を視認することができる。 In S518, the guide frame is hidden and the face detection frame is displayed with reference to ROM 119b. When it is determined to be Yes in S517, it is considered that the user finishes the focus adjustment and tries to confirm the subject or the entire image after a lapse of a predetermined time after both the guide frame and the face detection frame are displayed. Therefore, with respect to the guide frame and the face detection frame displayed in S516, the frame display flag stored in the ROM 119b is referred to, and the guide frame is hidden again to improve the visibility to the subject. The guide index indicating the degree of focusing is continuously displayed even if the guide frame is hidden. As a result, even if the guide frame, which is the focus detection area, is not displayed, the user can visually recognize the focus detection area to be focused, so that the position to be focused can be visually recognized. it can.

S519では、S414と同様に、CPU119aは、ユーザーによる撮影指示があったか否かを判定する。撮影指示があった場合はS520へ進み、なかった場合はS401へ戻る。 In S519, similarly to S414, the CPU 119a determines whether or not there is a shooting instruction by the user. If there is a shooting instruction, the process proceeds to S520, and if not, the process returns to S401.

S520では、S415と同様に、CPU119aは、上述したように撮影処理を行う。 In S520, similarly to S415, the CPU 119a performs the shooting process as described above.

S521では、S416と同様に、CPU119aは、撮影待機状態が終了したか否かを判定する。撮影待機状態が終了した場合は、本制御フローを終了し、そうでない場合はS501へ戻る。 In S521, similarly to S416, the CPU 119a determines whether or not the shooting standby state has ended. When the shooting standby state ends, the present control flow ends, and if not, the process returns to S501.

図4のS405、図5のS506で述べた演算処理について、図6(A)のS601〜S608と図6(B)を用いて説明する。 The arithmetic processing described in S405 of FIG. 4 and S506 of FIG. 5 will be described with reference to S601 to S608 of FIG. 6A and FIG. 6B.

S601では、CPU119aは、中間演算値A1を求める。中間演算値A1は、顔検出枠の顔中心値F1からガイド枠のガイド中心値G1を引いて絶対値にしたものをいう。また、横方向をX方向、縦方向をY方向とする。したがって、
A1X=|F1X−G1X|
A1Y=|F1Y−G1Y|
と表すことができる。図6(B)に、顔中心値F1、ガイド中心値G1、中間演算値A1を示す。
In S601, the CPU 119a obtains the intermediate calculation value A1. The intermediate calculation value A1 is obtained by subtracting the guide center value G1 of the guide frame from the face center value F1 of the face detection frame to obtain an absolute value. Further, the horizontal direction is the X direction and the vertical direction is the Y direction. Therefore,
A1X = | F1X-G1X |
A1Y = | F1Y-G1Y |
It can be expressed as. FIG. 6B shows the face center value F1, the guide center value G1, and the intermediate calculation value A1.

S602では、CPU119aは、中間演算値A2を求める。中間演算値A2は、顔検出枠のサイズF2に1/2をかけたものと、ガイド枠のサイズG2に1/2をかけたものの和をいう。またS601と同様に、横方向をX方向、縦方向をY方向とする。図6(B)のように、F2X,F2YとG2X,G2Yとおくと、
A2X=F2X*1/2+G2X*1/2
A2Y=F2Y*1/2+G2Y*1/2
と表すことができる。
In S602, the CPU 119a obtains the intermediate calculation value A2. The intermediate calculation value A2 is the sum of the face detection frame size F2 multiplied by 1/2 and the guide frame size G2 multiplied by 1/2. Further, similarly to S601, the horizontal direction is the X direction and the vertical direction is the Y direction. As shown in FIG. 6B, if F2X, F2Y and G2X, G2Y are set,
A2X = F2X * 1/2 + G2X * 1/2
A2Y = F2Y * 1/2 + G2Y * 1/2
It can be expressed as.

S603では、CPU119aは、S601,S602で求めた中間演算値A1、A2について、横方向であるX方向の値が、A2X≧A1Xであるか否かを判定する。A2X≧A1Xである場合は、S604へ進み、そうでない場合はS608へ進む。 In S603, the CPU 119a determines whether or not the value in the X direction in the horizontal direction is A2X ≧ A1X with respect to the intermediate calculation values A1 and A2 obtained in S601 and S602. If A2X ≧ A1X, the process proceeds to S604, and if not, the process proceeds to S608.

S604では、CPU119aは、S601,S602で求めた中間演算値A1、A2について、縦方向であるY方向の値が、A2Y≧A1Yであるか否かを判定する。A2Y≧A1Yである場合は、S605へ進み、そうでない場合はS608へ進む。S603とS604の判定より、A2≧A1(A2X≧A1XかつA2Y≧A1Y)とは、ガイド枠と顔検出枠の少なくとも一部分が重なっていることを示す。一部分が重なっていることから、ユーザーがガイド枠の表示位置での焦点調節を行うために被写体を視認する際に、枠表示のせいで被写体を十分に観察することができず、邪魔に感じる可能性が高い。 In S604, the CPU 119a determines whether or not the value in the Y direction, which is the vertical direction, is A2Y ≧ A1Y with respect to the intermediate calculation values A1 and A2 obtained in S601 and S602. If A2Y ≧ A1Y, the process proceeds to S605, otherwise the process proceeds to S608. From the determinations of S603 and S604, A2 ≧ A1 (A2X ≧ A1X and A2Y ≧ A1Y) indicates that at least a part of the guide frame and the face detection frame overlap. Since the parts overlap, when the user visually adjusts the subject to adjust the focus at the display position of the guide frame, the frame display makes it impossible to fully observe the subject, which may be annoying. Highly sexual.

S605では、CPU119aは、ガイド枠の全体が顔検出枠に内包されているか否かを判定する。ガイド枠の全体が顔検出枠に内包されている場合は、S606へ進み、に内包されていない場合は、S607へ進む。S605の内包判定については、例えば、ベクトル外積演算を使用して判定する。 In S605, the CPU 119a determines whether or not the entire guide frame is included in the face detection frame. If the entire guide frame is included in the face detection frame, the process proceeds to S606, and if it is not included in, the process proceeds to S607. The inclusion determination of S605 is determined by using, for example, a vector cross product operation.

S606では、CPU119aは、ガイド枠と顔検出枠の面積比が所定値以上であるか否かを判定する。所定値以上であれば、S607へ進み、所定値より小さければ、S608へ進む。S605においてYesと判定されたことから、顔検出枠内にガイド枠が内包されていることがわかる。顔検出枠内にガイド枠が内包されている場合、ガイド枠と顔検出枠の面積比が所定値よりも小さければ(ガイド枠の大きさが顔検出枠に対して十分に小さければ)、ガイド枠と顔検出枠の両方を表示してもユーザーが煩わしく感じる可能性は低い。ガイド枠の面積をSg、顔検出枠の面積をSfとする。ここでの所定値というのは、例えば1/25(0.04)とする。Sg/Sf≧1/25である場合は、顔検出枠に対してガイド枠の大きさが相対的に大きいため、どちらか一方を非表示にしたほうがユーザーが被写体を視認しやすい。一方で、Sg/Sf<1/25である場合は、顔検出枠に対してガイド枠が十分に小さいと想定できるため、ガイド枠と顔検出枠の両方を表示していても、ユーザーが被写体を視認しにくいと感じる可能性が低い。例えば、図7(D)に示すように、被写体750の特に右目にガイド枠703dが表示されていると、ユーザーは被写体750の右目への合焦度合いを調整することができる。このような場合、顔検出枠700に対してガイド枠703dの面積は十分小さく、たとえ顔検出枠内にガイド枠が内包されて表示していたとしても、ユーザーが被写体を視認しにくいと感じる可能性が低い。すなわち、面積比が所定値よりも小さければ、顔検出枠に対してガイド枠が十分小さいものとなり、被写体を視認するのに邪魔になる可能性は低くなる。一方で、図7(D)のような状況であっても、顔検出枠700に対してガイド枠703dの面積比が所定値以上であると、ユーザーが被写体を視認する際に邪魔に感じる可能性がある。本実施形態では所定値を1/25としたが、ユーザーが設定メニュー画面で任意に設定できるものでもよいし、撮影状況に応じて変化するようにしてもよい。所定値を1/25よりも小さく設定すると、顔検出枠に対してガイド枠が被写体を視認するのに邪魔にならない程度に小さくても、顔検出枠を非表示にし、ガイド枠のみを表示する。これにより視認性は高まるが、ガイド枠が小さすぎてユーザーが焦点検出領域を視認しづらくなる可能性が生じる。所定値を1/25よりも大きく設定すると、顔検出枠に対してガイド枠が比較的大きくても、ガイド枠と顔検出枠の両方を表示する。そのため、ユーザーが煩わしく感じることが生じ、視認性が悪くなる可能性が高くなる。なお、S606をスキップして、S604から直接S607もしくはS608へ行くようにしてもよい。 In S606, the CPU 119a determines whether or not the area ratio of the guide frame and the face detection frame is equal to or greater than a predetermined value. If it is equal to or more than the predetermined value, the process proceeds to S607, and if it is smaller than the predetermined value, the process proceeds to S608. Since it was determined to be Yes in S605, it can be seen that the guide frame is included in the face detection frame. When the guide frame is included in the face detection frame, if the area ratio of the guide frame and the face detection frame is smaller than the predetermined value (if the size of the guide frame is sufficiently smaller than the face detection frame), the guide Displaying both the frame and the face detection frame is unlikely to be annoying to the user. Let Sg be the area of the guide frame and Sf be the area of the face detection frame. The predetermined value here is, for example, 1/25 (0.04). When Sg / Sf ≧ 1/25, the size of the guide frame is relatively large with respect to the face detection frame, so it is easier for the user to visually recognize the subject by hiding one of them. On the other hand, when Sg / Sf <1/25, it can be assumed that the guide frame is sufficiently smaller than the face detection frame, so even if both the guide frame and the face detection frame are displayed, the user is the subject. It is unlikely that you will find it difficult to see. For example, as shown in FIG. 7D, when the guide frame 703d is displayed on the right eye of the subject 750 in particular, the user can adjust the degree of focusing of the subject 750 on the right eye. In such a case, the area of the guide frame 703d is sufficiently smaller than the face detection frame 700, and even if the guide frame is included in the face detection frame and displayed, the user may find it difficult to visually recognize the subject. The sex is low. That is, if the area ratio is smaller than the predetermined value, the guide frame is sufficiently smaller than the face detection frame, and the possibility of obstructing the visual recognition of the subject is reduced. On the other hand, even in the situation as shown in FIG. 7D, if the area ratio of the guide frame 703d to the face detection frame 700 is equal to or more than a predetermined value, the user may feel an obstacle when visually recognizing the subject. There is sex. In the present embodiment, the predetermined value is set to 1/25, but the value may be arbitrarily set by the user on the setting menu screen, or may be changed according to the shooting situation. When the predetermined value is set smaller than 1/25, the face detection frame is hidden and only the guide frame is displayed even if the guide frame is small enough to not interfere with the visual recognition of the subject with respect to the face detection frame. .. This enhances visibility, but the guide frame may be too small to allow the user to see the focus detection area. When the predetermined value is set to be larger than 1/25, both the guide frame and the face detection frame are displayed even if the guide frame is relatively large with respect to the face detection frame. Therefore, the user may feel annoyed, and there is a high possibility that the visibility will be deteriorated. It is also possible to skip S606 and go directly from S604 to S607 or S608.

S607では、CPU119aは、枠表示フラグを「1」としてROM119bに格納し、演算処理を終了する。すなわち、図4のS407、図5のS507へ進む。 In S607, the CPU 119a stores the frame display flag as "1" in the ROM 119b, and ends the arithmetic processing. That is, the process proceeds to S407 in FIG. 4 and S507 in FIG.

S608では、CPU119aは、枠表示フラグを「0」としてROM119bに格納し、演算処理を終了する。すなわち、図4のS407、図5のS507へ進む。 In S608, the CPU 119a stores the frame display flag as "0" in the ROM 119b, and ends the arithmetic processing. That is, the process proceeds to S407 in FIG. 4 and S507 in FIG.

なお、図6(A)の制御フローでは、ガイド枠と顔検出枠との重なりの状態に応じて、枠表示フラグを「1」とするか「0」とするか(すなわち、ガイド枠と顔検出枠の両方を表示するか、いずれか一方を非表示とするか)を判定したが、これに限るものではない。すなわち、フォーカスガイドのガイド枠と顔検出枠の重なりの状態でなく、合焦度合いを示す指標を含めたフォーカスガイド全体と顔検出枠の重なりの状態で判定するようにしてもよい。 In the control flow of FIG. 6A, the frame display flag is set to "1" or "0" (that is, the guide frame and the face) according to the overlapping state of the guide frame and the face detection frame. Whether to display both of the detection frames or to hide one of them) was determined, but the present invention is not limited to this. That is, the determination may be made not based on the overlapping state of the guide frame of the focus guide and the face detection frame, but on the overlapping state of the entire focus guide including the index indicating the degree of focusing and the face detection frame.

図7(A)〜(D)、図8(A)〜(C)を用いて、ガイド枠と顔検出枠の表示例を示す。 Display examples of the guide frame and the face detection frame are shown with reference to FIGS. 7 (A) to 7 (D) and FIGS. 8 (A) to 8 (C).

図7(A)〜(D)に、顔検出設定が有効でフォーカスガイドの表示設定が入、かつ、検出した顔が1つだけであった場合の表示例を示す。 7 (A) to 7 (D) show a display example when the face detection setting is valid, the focus guide display setting is set, and only one face is detected.

図7(A)では、本実施形態を適用しなかった場合の基本の表示例を示す。CPU119aは被写体710の顔を検出し、検出できた顔に対して顔検出枠700aを表示する。これにより、ユーザーは検出された顔位置を認識・特定できる。図7(A)ではフォーカスガイドのガイド枠が被写体710の右目に表示されている(ガイド枠703a表示位置)。指標701a、指標702a、ガイド枠703aを合わせてフォーカスガイドと呼ぶ。指標701a、指標702aはガイド枠703aの表示位置での合焦度合いを示しており、図7(A)では、ガイド枠703aにおいて合焦状態であることを示している。ガイド枠703aは焦点検出領域を示しており、ガイド枠703aの表示位置である被写体710の右目に合焦している。なお、ガイド枠700aの表示形態については、図7(A)のガイド枠700aのような表示形態には限らない。ガイド枠と顔検出枠の両方を表示する図7(A)のような表示形態であると、被写体710の右目に合焦していることは視認できるが、被写体710上(付近)に様々な枠が表示されるため、被写体710の、特に顔部分を視認しにくい。そのため、図7(A)について本実施形態を適用、すなわち図4の制御フローを適用する。なお、上述したように、図7(A)は本実施形態を適用していない表示例で、図7(B)は図7(A)に本実施形態を適用した場合の表示例である。 FIG. 7A shows a basic display example when this embodiment is not applied. The CPU 119a detects the face of the subject 710 and displays the face detection frame 700a on the detected face. As a result, the user can recognize and identify the detected face position. In FIG. 7A, the guide frame of the focus guide is displayed on the right eye of the subject 710 (guide frame 703a display position). The index 701a, the index 702a, and the guide frame 703a are collectively called a focus guide. The index 701a and the index 702a indicate the degree of focusing at the display position of the guide frame 703a, and FIG. 7A shows that the guide frame 703a is in the focused state. The guide frame 703a indicates a focus detection region, and is focused on the right eye of the subject 710, which is the display position of the guide frame 703a. The display form of the guide frame 700a is not limited to the display form of the guide frame 700a of FIG. 7A. In the display form as shown in FIG. 7A that displays both the guide frame and the face detection frame, it is visible that the subject 710 is in focus on the right eye, but there are various types on (near) the subject 710. Since the frame is displayed, it is difficult to visually recognize the subject 710, especially the face portion. Therefore, the present embodiment is applied to FIG. 7A, that is, the control flow of FIG. 4 is applied. As described above, FIG. 7A is a display example to which the present embodiment is not applied, and FIG. 7B is a display example when the present embodiment is applied to FIG. 7A.

S601、S602から図7(A)のときの中央演算値A1、A2を求めると、図7(B)の表の項目730b、731b、740b、741bより、
A1X=|960−860|=100
A1Y=|740−620|=80
A2X=350*1/2+190*1/2=270
A2Y=350*1/2+100*1/2=225
となる。また、ガイド枠703aの全体が顔検出枠700aに内包されていない。
When the centrally calculated values A1 and A2 in FIG. 7A are obtained from S601 and S602, the items 730b, 731b, 740b, and 741b in the table of FIG. 7B can be found.
A1X = | 960-860 | = 100
A1Y = | 740-620 | = 80
A2X = 350 * 1/2 + 190 * 1/2 = 270
A2Y = 350 * 1/2 + 100 * 1/2 = 225
Will be. Further, the entire guide frame 703a is not included in the face detection frame 700a.

これら結果からS603〜S606にて判定すると、A2≧A1、かつ、Sg/Sf≧1/25となる。したがって、枠表示フラグ=1となる。枠表示フラグ=1かつ複数顔フラグ=0から図4ではS410へと進み、図7(B)に示すように顔検出枠700aを非表示にし、ガイド枠703aを表示する。図5ではS510へ進み、顔検出枠を表示し、ガイド枠を表示しない。なお、顔検出枠を非表示にしても主顔ガイド指標は表示を行い、ガイド枠を非表示にしても合焦度合いを示す指標は表示を行う。これにより、ユーザーが合焦させようとしている被写体に対して多くの指標が表示されることがなく、被写体を視認しにくくなることを低減することができる。これによりユーザーは、被写体を視認しやすく、かつ、フォーカス調整が行いやすい。 Judging from these results in S603 to S606, A2 ≧ A1 and Sg / Sf ≧ 1/25. Therefore, the frame display flag = 1. From the frame display flag = 1 and the plurality of face flags = 0 to S410 in FIG. 4, the face detection frame 700a is hidden and the guide frame 703a is displayed as shown in FIG. 7 (B). In FIG. 5, the process proceeds to S510, the face detection frame is displayed, and the guide frame is not displayed. Even if the face detection frame is hidden, the main face guide index is displayed, and even if the guide frame is hidden, the index indicating the degree of focusing is displayed. As a result, many indexes are not displayed for the subject that the user is trying to focus on, and it is possible to reduce the difficulty in visually recognizing the subject. This makes it easier for the user to visually recognize the subject and adjust the focus.

図7(C)では、被写体710の顔を検出し、顔検出枠700cを被写体710の顔位置に表示している。一方でユーザーは被写体720で合焦させようとしており、ガイド枠の示す焦点検出領域を被写体720に表示している(フォーカスガイドが被写体720に表示されている)。図7(C)の状況を図6(A)の制御フローに適用して考えると、図7(C)の表の項目730c、731c、740c、741cより、
A1X=|1300−860|=510
A1Y=|680620|=40
A2X=350*1/2+190*1/2=270
A2Y=350*1/2+100*1/2=225
となる。
In FIG. 7C, the face of the subject 710 is detected, and the face detection frame 700c is displayed at the face position of the subject 710. On the other hand, the user is trying to focus on the subject 720, and the focus detection area indicated by the guide frame is displayed on the subject 720 (the focus guide is displayed on the subject 720). Considering the situation of FIG. 7 (C) by applying it to the control flow of FIG. 6 (A), from the items 730c, 731c, 740c, 741c of the table of FIG. 7 (C),
A1X = | 1300-860 | = 510
A1Y = | 680620 | = 40
A2X = 350 * 1/2 + 190 * 1/2 = 270
A2Y = 350 * 1/2 + 100 * 1/2 = 225
Will be.

これら結果をS603において判定すると、A2X<A1Xとなる。したがって、枠表示フラグ=0となる。枠表示フラグ=0かつ複数顔フラグ=0から図4ではS413へ、図5ではS513へと進み、ガイド枠と顔検出枠の両方を表示する表示形態となる。図7(C)に示すように、ガイド枠と顔検出枠とが重なり合っていないと、ユーザーが合焦させたい被写体720に表示される表示はガイド枠のみになり、ガイド枠と顔検出枠との両方を表示したとしても、ユーザーが被写体を視認しづらくなるということがない。 When these results are determined in S603, A2X <A1X. Therefore, the frame display flag = 0. From the frame display flag = 0 and the plurality of face flags = 0, the process proceeds to S413 in FIG. 4 and S513 in FIG. 5, and the display form is such that both the guide frame and the face detection frame are displayed. As shown in FIG. 7C, if the guide frame and the face detection frame do not overlap, the display displayed on the subject 720 that the user wants to focus on is only the guide frame, and the guide frame and the face detection frame are displayed. Even if both are displayed, it does not make it difficult for the user to see the subject.

図7(D)では、CPU119aは被写体750の顔を検出し、検出できた顔に対して顔検出枠700dを表示する。これにより、ユーザーは検出した顔位置を視認できる。図7(D)ではガイド枠703dが被写体710の右目に表示されている。図7(D)に示す状況を図6(A)の制御フローに適用して考えると、図7(D)の表の項目730d、731d、740d、741dより、
A1X=|920−1010|=90
A1Y=|650−590|=60
A2X=50*1/2+470*1/2=260
A2Y=50*1/2+470*1/2=260
となる。また、ガイド枠703dの全体が顔検出枠700dに内包されている(S605においてYesと判定)。ガイド枠703dと顔検出枠700d、それぞれの面積は、
Sg=2700、Sf=220900
となる。
In FIG. 7D, the CPU 119a detects the face of the subject 750 and displays the face detection frame 700d on the detected face. As a result, the user can visually recognize the detected face position. In FIG. 7D, the guide frame 703d is displayed on the right eye of the subject 710. Considering the situation shown in FIG. 7 (D) by applying it to the control flow of FIG. 6 (A), from items 730d, 731d, 740d, 741d in the table of FIG. 7 (D),
A1X = | 920-1010 | = 90
A1Y = | 650-590 | = 60
A2X = 50 * 1/2 + 470 * 1/2 = 260
A2Y = 50 * 1/2 + 470 * 1/2 = 260
Will be. Further, the entire guide frame 703d is included in the face detection frame 700d (determined as Yes in S605). The area of the guide frame 703d and the face detection frame 700d is
Sg = 2700, Sf = 220900
Will be.

これら結果をS603〜S606において判定すると、A2≧A1かつSg/Sf<1/25となる。したがって、枠表示フラグ=0となる。枠表示フラグ=0かつ複数顔フラグ=0から図4ではS413へ、図5ではS513へと進み、ガイド枠と顔検出枠の両方を表示する表示形態となる。 When these results are judged in S603 to S606, A2 ≧ A1 and Sg / Sf <1/25. Therefore, the frame display flag = 0. From the frame display flag = 0 and the plurality of face flags = 0, the process proceeds to S413 in FIG. 4 and S513 in FIG. 5, and the display form is such that both the guide frame and the face detection frame are displayed.

図7(D)と図7(A)を比較すると、LV画像内の構図が酷似しているが、図7(A)では顔検出枠700aに対するガイド枠703aの相対的な表示面積が大きく、図7(D)では顔検出枠700dに対するガイド枠703dの相対的な表示面積が小さい。これにより、たとえ顔検出枠内にガイド枠が包含されていたとしても、面積比が一定の値以下であれば、ガイド枠と顔検出枠の両方が表示されていても、ユーザーは表示枠をわずらわしいと感じる可能性は低く、視認性は保たれる。そのため、ユーザーが被写体を視認しづらくなることがない。また、CPU119aが認識した被写体750の顔のうち、被写体750の目に合焦させようとしていることが視認できるため、厳密なフォーカス調整を行うことができる。なお、図6(A)の制御フローにおいてS605、S606をスキップしてS604からS607もしくはS608へ直接進むようにした場合は、図7(D)の状況においても、顔検出枠700dを非表示にし、ガイド枠703dを表示するようにする。このように制御しても、フォーカスガイドのうち合焦度合いを示す指標は表示されるため、大まかな焦点検出領域は認識でき操作性が悪くなることは避けられる。 Comparing FIG. 7 (D) and FIG. 7 (A), the composition in the LV image is very similar, but in FIG. 7 (A), the relative display area of the guide frame 703a with respect to the face detection frame 700a is large. In FIG. 7D, the relative display area of the guide frame 703d with respect to the face detection frame 700d is small. As a result, even if the guide frame is included in the face detection frame, if the area ratio is less than a certain value, the user can display the display frame even if both the guide frame and the face detection frame are displayed. It is unlikely to be annoying and visibility is maintained. Therefore, it does not become difficult for the user to visually recognize the subject. Further, since it is possible to visually recognize that the face of the subject 750 recognized by the CPU 119a is to be focused on the eyes of the subject 750, strict focus adjustment can be performed. If S605 and S606 are skipped in the control flow of FIG. 6A and the process directly proceeds from S604 to S607 or S608, the face detection frame 700d is hidden even in the situation of FIG. 7D. , The guide frame 703d is displayed. Even with this control, the index indicating the degree of focusing in the focus guide is displayed, so that the rough focus detection area can be recognized and it is possible to avoid deterioration of operability.

図8(A)〜(C)に、顔検出設定が有効、フォーカスガイドの表示設定が入、かつ、検出した顔が複数(2つ)であった場合の表示例を示す。 8 (A) to 8 (C) show a display example when the face detection setting is valid, the focus guide display setting is set, and the number of detected faces is a plurality (two).

図8(A)では、本実施形態を適用しなかったときの基本の表示例を示す。CPU119aは被写体810、被写体811の顔を検出し、検出した顔に対して顔検出枠800a、801aを表示する。これにより、ユーザーは検出した顔位置を視認できる。図8(A)ではフォーカスガイドが被写体810の右目に表示されている。指標804a、指標805a、ガイド枠806aを合わせてフォーカスガイドと呼ぶ。指標804a、指標805aはガイド枠806a位置での合焦度合いを示しており、図8(A)では、合焦状態であることを示している。ガイド枠806a位置に焦点検出領域を示しており、ガイド枠806aが表示されている右目に合焦させようとしていることがわかる。なお、図8(A)の顔検出枠800aは図8(A)に示したような表示形態には限らない。複数の顔を検出しているため、顔検出枠は被写体810には顔検出枠800aを、被写体811には顔検出枠801aを表示する。検出された顔が複数(2つ以上)である場合は、メインである被写体の枠の両側に指標802a、指標803aで示す主顔ガイド指標を表示する。指標802aと指標803aを表示することで、ユーザーはメインの被写体を視認することができる。メインかそれ以外かの判定は、予め決められた判定基準や、検出できた顔のサイズ、デジタルカメラ10と被写体との距離で判定する。メインを切り替える場合は、例えば十字キー125の操作、ダイヤル126の回転操作、表示部107と一体化するタッチ操作可能なタッチパネル(不図示)を用いて被写体をタッチするなどのタッチ操作で切り替えることができる。ガイド枠と顔検出枠の両方を表示する図8(A)に示すような表示形態であると、被写体810の右目に合焦していることは視認できるが、被写体810上に様々な枠が表示されているため、被写体810の、特に顔全体を視認しにくい。そのため、図8(A)に示す状況について、本実施形態の図6(A)の制御フローに適用して考える。なお、上述したように、図8(A)は本実施形態を適用していない表示例で、図8(B)は図8(A)に本実施形態を適用した場合の表示例である。 FIG. 8A shows a basic display example when this embodiment is not applied. The CPU 119a detects the faces of the subject 810 and the subject 811 and displays the face detection frames 800a and 801a on the detected faces. As a result, the user can visually recognize the detected face position. In FIG. 8A, the focus guide is displayed on the right eye of the subject 810. The index 804a, the index 805a, and the guide frame 806a are collectively called a focus guide. The index 804a and the index 805a indicate the degree of focusing at the position of the guide frame 806a, and FIG. 8A shows that the subject is in the focused state. The focus detection area is shown at the position of the guide frame 806a, and it can be seen that the guide frame 806a is trying to focus on the displayed right eye. The face detection frame 800a of FIG. 8 (A) is not limited to the display form as shown in FIG. 8 (A). Since a plurality of faces are detected, the face detection frame displays the face detection frame 800a on the subject 810 and the face detection frame 801a on the subject 811. When there are a plurality of detected faces (two or more), the main face guide index indicated by the index 802a and the index 803a is displayed on both sides of the frame of the main subject. By displaying the index 802a and the index 803a, the user can visually recognize the main subject. Judgment as to whether it is main or not is made based on a predetermined judgment standard, the size of the detected face, and the distance between the digital camera 10 and the subject. When switching the main, for example, the cross key 125 can be operated, the dial 126 can be rotated, or the subject can be touched using a touch-operable touch panel (not shown) integrated with the display unit 107. it can. In the display form as shown in FIG. 8A, which displays both the guide frame and the face detection frame, it is visible that the subject 810 is in focus on the right eye, but various frames are displayed on the subject 810. Since it is displayed, it is difficult to visually recognize the subject 810, especially the entire face. Therefore, the situation shown in FIG. 8 (A) will be considered by applying it to the control flow of FIG. 6 (A) of the present embodiment. As described above, FIG. 8A is a display example to which the present embodiment is not applied, and FIG. 8B is a display example when the present embodiment is applied to FIG. 8A.

図8(B)の表より、図4のS406の演算処理、すなわち図6(A)の制御フローを行う。ここでは主顔ガイド指標が表示されている被写体を、「検出番号1」とする。主顔ガイド指標が表示されているメインの被写体にのみ図6(A)の制御フローを適用する。S601、S602から図8(B)のときの中央演算値A1、A2を求めると、図8(B)の表の項目830b、831b、840b、841bより、
A1X=|9901050|=80
A1Y=|820−770|=50
A2X=220*1/2+95*1/2=157.5
A2Y=220*1/2+50*1/2=135
となる。また、これら結果をS603〜S606において判定すると、A2≧A1、かつ、ガイド枠の全体が顔検出枠に内包されていないことから、枠表示フラグ=1となる。枠表示フラグ=1かつ複数顔フラグ=1からS409へと進み、ガイド枠806a(ガイド枠806b)を表示し、顔検出枠800aを非表示にする。また、メインと判定された被写体の顔に主顔ガイド指標を表示する表示形態となる(図8(B))。複数の顔(被写体)が検出されている場合、図6(A)の制御フローを適用するのは、メインの被写体のみにする。つまり、顔検出枠の表示の有無についても、メインの被写体に対してのみ判定する。具体的には、図8(B)では、被写体810、811の2つの顔を検出しており、被写体810をメインの被写体と認識し、主顔ガイド指標を表示する。メインの被写体のみに図6(A)の制御フローを適用するため、被写体810に対してガイド枠806bを表示し顔検出枠800aは表示しないようにし、被写体811の顔検出枠801bは表示を行う。仮にメインの被写体が被写体810から被写体811に変更になり、ガイド枠も被写体810の右目から被写体811の右目に変更になった場合には、被写体811に対して図6(A)の制御フローが適用され、被写体810には顔検出枠800aが表示される。主顔ガイド指標についても、被写体810から被写体811へと移動する。このように制御することで、ユーザーが合焦させようとしている被写体に対して多くの指標が表示されることがないため、ユーザーは被写体を視認しやすく、かつ、フォーカス調整が行いやすい。なお、主顔ガイド指標は顔検出枠800aが表示されなかったとしても表示する。
From the table of FIG. 8 (B), the arithmetic processing of S406 of FIG. 4, that is, the control flow of FIG. 6 (A) is performed. Here, the subject on which the main face guide index is displayed is referred to as "detection number 1". The control flow of FIG. 6A is applied only to the main subject on which the main face guide index is displayed. When the central calculated values A1 and A2 in FIG. 8 (B) are obtained from S601 and S602, the items 830b, 831b, 840b, 841b in the table of FIG. 8 (B) show.
A1X = | 9901050 | = 80
A1Y = | 820-770 | = 50
A2X = 220 * 1/2 + 95 * 1/2 = 157.5
A2Y = 220 * 1/2 + 50 * 1/2 = 135
Will be. Further, when these results are determined in S603 to S606, since A2 ≧ A1 and the entire guide frame is not included in the face detection frame, the frame display flag = 1. The frame display flag = 1 and the plurality of face flags = 1 proceed to S409, the guide frame 806a (guide frame 806b) is displayed, and the face detection frame 800a is hidden. In addition, the display mode is such that the main face guide index is displayed on the face of the subject determined to be the main (FIG. 8 (B)). When a plurality of faces (subjects) are detected, the control flow of FIG. 6 (A) is applied only to the main subject. That is, whether or not the face detection frame is displayed is also determined only for the main subject. Specifically, in FIG. 8B, two faces of the subjects 810 and 811 are detected, the subject 810 is recognized as the main subject, and the main face guide index is displayed. In order to apply the control flow of FIG. 6A only to the main subject, the guide frame 806b is displayed for the subject 810 and the face detection frame 800a is not displayed, and the face detection frame 801b of the subject 811 is displayed. .. If the main subject is changed from the subject 810 to the subject 811 and the guide frame is also changed from the right eye of the subject 810 to the right eye of the subject 811, the control flow of FIG. 6 (A) is applied to the subject 811. It is applied, and the face detection frame 800a is displayed on the subject 810. The main face guide index also moves from the subject 810 to the subject 811. By controlling in this way, many indexes are not displayed for the subject that the user is trying to focus on, so that the user can easily see the subject and adjust the focus easily. The main face guide index is displayed even if the face detection frame 800a is not displayed.

同様に図8(C)に示すような場合を考えると、
A1X=|710−1050|=740
A1Y=|470770|=320
A2X=220*1/2+95*1/2=157.5
A2Y=220*1/2+50*1/2=135
となる。
Similarly, considering the case shown in FIG. 8 (C),
A1X = | 710-1050 | = 740
A1Y = | 470770 | = 320
A2X = 220 * 1/2 + 95 * 1/2 = 157.5
A2Y = 220 * 1/2 + 50 * 1/2 = 135
Will be.

これら結果をS603、S604において判定すると、A2X<A1Xとなる。したがって、枠表示フラグ=0となる。これにより、枠表示フラグ=0かつ複数顔フラグ=1であるから、図4ではS412へ、図5ではS512へと進む。図8(C)に示すように、ガイド枠と顔検出枠が重なり合っていないと、ユーザー所望の合焦位置である被写体811の持つグラスにはガイド枠806cのみが表示され、ユーザーが被写体を視認しづらくなるということがない。なお、枠表示フラグ=1と判定された場合、すなわち、図7(B)、図8(B)において、顔検出枠を表示せずガイド枠を表示にするとしたが、この限りではない。S409〜S413において上述したように、ユーザーが設定メニュー画面において表示しない枠表示を選択できるようにしてもよいし、図4のS406の演算処理での判定結果から表示しない枠表示を判定するようにしてもよい。また、顔検出枠を表示しないように制御したとしても主顔ガイド指標は表示するように制御すると述べたが、この限りではない。具体的には、顔検出枠を表示しないように制御した場合は、主顔ガイド指標も表示しないようにしてもよい。さらには、ユーザーの設定によって表示する枠を顔検出枠と設定した場合には、ガイド枠を非表示とした際には、ガイド枠と共に合焦度合いを示す指標も一緒に非表示としてもよい。これによりユーザーは、メインである被写体を視認できなくなったり、焦点検出領域を大まかに視認することができなくなったりするが、図4のS413において指標や枠の表示が必要だと想定されるときには表示される。また、S414において、ユーザー所望のタイミング(ユーザーによる操作)で指標や枠が表示されるため、操作性が悪くなることはない。 When these results are judged in S603 and S604, A2X <A1X. Therefore, the frame display flag = 0. As a result, since the frame display flag = 0 and the multiple face flag = 1, the process proceeds to S412 in FIG. 4 and to S512 in FIG. As shown in FIG. 8C, if the guide frame and the face detection frame do not overlap, only the guide frame 806c is displayed on the glass of the subject 811 which is the user's desired focusing position, and the user can visually recognize the subject. It doesn't get hard. When it is determined that the frame display flag = 1, that is, in FIGS. 7 (B) and 8 (B), the face detection frame is not displayed and the guide frame is displayed, but this is not the case. As described above in S409 to S413, the user may be able to select the frame display that is not displayed on the setting menu screen, or the frame display that is not displayed is determined from the determination result in the arithmetic processing of S406 in FIG. You may. In addition, it was stated that even if the face detection frame is controlled not to be displayed, the main face guide index is controlled to be displayed, but this is not the case. Specifically, when the face detection frame is controlled not to be displayed, the main face guide index may not be displayed either. Furthermore, when the frame to be displayed is set as the face detection frame by the user's setting, when the guide frame is hidden, the index indicating the degree of focusing may be hidden together with the guide frame. As a result, the user may not be able to see the main subject or the focus detection area roughly, but it is displayed when it is assumed that the index or frame needs to be displayed in S413 of FIG. Will be done. Further, in S414, since the index and the frame are displayed at the timing desired by the user (operation by the user), the operability does not deteriorate.

また、本実施形態において、S406もしくはS506で枠表示フラグ=1と判定され、ガイド枠と顔検出枠のうち一方が非表示になっている状態(例えばS410/S510)を考える。この状態から、ユーザーがデジタルカメラ10を動かしたり、被写体が動いたりして構図が変化した場合、構図の変化によってガイド枠と顔検出枠の重なりがなくなり、枠表示フラグ=0と判定されることが生じる。このような場合、枠表示フラグが1から0へと変化したことに応じて、ガイド枠と顔検出枠の両方を表示するようにする(例えばS13/S513)。すなわち、ユーザーが行った設定に従って、ガイド枠と顔検出枠の両方を表示する。 Further, in the present embodiment, consider a state in which the frame display flag = 1 is determined in S406 or S506 and one of the guide frame and the face detection frame is hidden (for example, S410 / S510). From this state, when the composition changes due to the user moving the digital camera 10 or the subject moving, the change in the composition eliminates the overlap between the guide frame and the face detection frame, and the frame display flag = 0 is determined. Occurs. In such a case, both the guide frame and the face detection frame are displayed according to the change of the frame display flag from 1 to 0 (for example, S13 / S513). That is, both the guide frame and the face detection frame are displayed according to the settings made by the user.

図7(B)〜(D)、図8(B)、(C)は図4、(C)の制御処理のフローに従って、フォーカスガイドのガイド枠と顔検出枠の両方の表示、もしくは、ガイド枠のみ表示し顔検出枠を表示しない、のいずれかを判定し制御処理を行う。図7(B)は図7(A)の顔検出枠700aを表示せずガイド枠703b(703a)を表示する(S410)。すなわち、ガイド枠と顔検出枠が重なっている(ガイド枠の全体が顔検出枠に内包されていない)場合には、ガイド枠のみを表示する。これにより、フォーカス調整を行っている被写体に多くの指標や枠が表示されることによる視認しづらさを低減し、視認性を高め、フォーカス調整を行いやすくする。図7(C)、(D)では、ガイド枠と顔検出枠の両方を表示する(S413)。すなわち、ガイド枠と顔検出枠が重なっていない、もしくは、ガイド枠全体が顔検出枠に内包されているが面積比が一定値より小さい場合は、ガイド枠と顔検出枠を両方表示する。これにより、検出された顔を視認しつつ、フォーカス調整を行おうとしている被写体の合焦位置を視認でき、フォーカス調整を行うことができる。図8(B)は図8(A)の顔検出枠800aを表示せずガイド枠806bを表示する(S409)。すなわち、ガイド枠と顔検出枠が重なっている(ガイド枠の全体が顔検出枠に内包されていない)場合には、ガイド枠のみを表示する。ただし、ガイド枠と重なり合っていない顔検出枠については表示を行う。図8(C)では、ガイド枠と顔検出枠の両方を表示する(S412)。すなわち、ガイド枠と顔検出枠が重なっていない場合は、ガイド枠と顔検出枠を両方表示する。これにより、検出された顔を視認しつつ、フォーカス調整を行おうとしている被写体の合焦位置を視認でき、フォーカス調整を行うことができる。なお、フォーカスガイドの合焦度合いを示す指標は、ガイド枠を表示しなくても表示を行う。また、主顔ガイド指標は、顔検出枠を表示しなくても表示を行う。このように制御することで、たとえガイド枠や顔検出枠が表示されなくても、合焦度合いを示す指標や主顔ガイド指標により、ユーザーは表示されていないガイド枠や顔検出枠の位置を大まかに把握することができる。上述した本実施形態のガイド枠と顔検出枠の表示により、ユーザー所望の被写体へのフォーカス調整を行いやすく、かつ、被写体が視認しにくくなることを低減できる。 7 (B) to (D), 8 (B), and (C) display or guide both the guide frame and the face detection frame of the focus guide according to the flow of the control process of FIGS. 4 and 4 (C). It is determined whether only the frame is displayed and the face detection frame is not displayed, and the control process is performed. FIG. 7B does not display the face detection frame 700a of FIG. 7A, but displays the guide frame 703b (703a) (S410). That is, when the guide frame and the face detection frame overlap (the entire guide frame is not included in the face detection frame), only the guide frame is displayed. As a result, it is possible to reduce the difficulty of visibility due to the display of many indexes and frames on the subject for which the focus is adjusted, improve the visibility, and facilitate the focus adjustment. In FIGS. 7C and 7D, both the guide frame and the face detection frame are displayed (S413). That is, if the guide frame and the face detection frame do not overlap, or if the entire guide frame is included in the face detection frame but the area ratio is smaller than a certain value, both the guide frame and the face detection frame are displayed. As a result, while visually recognizing the detected face, the focusing position of the subject for which the focus adjustment is to be performed can be visually recognized, and the focus adjustment can be performed. FIG. 8B does not display the face detection frame 800a of FIG. 8A, but displays the guide frame 806b (S409). That is, when the guide frame and the face detection frame overlap (the entire guide frame is not included in the face detection frame), only the guide frame is displayed. However, the face detection frame that does not overlap with the guide frame is displayed. In FIG. 8C, both the guide frame and the face detection frame are displayed (S412). That is, when the guide frame and the face detection frame do not overlap, both the guide frame and the face detection frame are displayed. As a result, while visually recognizing the detected face, the focusing position of the subject for which the focus adjustment is to be performed can be visually recognized, and the focus adjustment can be performed. The index indicating the degree of focus of the focus guide is displayed without displaying the guide frame. Further, the main face guide index is displayed without displaying the face detection frame. By controlling in this way, even if the guide frame or face detection frame is not displayed, the user can determine the position of the guide frame or face detection frame that is not displayed by the index indicating the degree of focusing or the main face guide index. It can be roughly grasped. By displaying the guide frame and the face detection frame of the present embodiment described above, it is possible to easily adjust the focus on the subject desired by the user and reduce the difficulty in visually recognizing the subject.

上述した制御フローでは、デジタルカメラ10がファインダーを備えていた場合に、ユーザーがファインダーを覗いて撮影を行おうとする際にも適用することができる。すなわち、表示部107がファインダー内表示部であっても上述の制御フローを適用し、フォーカスガイドと顔検出枠の表示制御を行うことが可能である。 The above-mentioned control flow can also be applied when the user looks into the finder and tries to take a picture when the digital camera 10 is provided with the finder. That is, even if the display unit 107 is the display unit in the viewfinder, it is possible to apply the above-mentioned control flow to control the display of the focus guide and the face detection frame.

なお、CPU119aが行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 The above-mentioned various controls described as those performed by the CPU 119a may be performed by one hardware, or the entire device may be controlled by sharing the processing among a plurality of hardware (for example, a plurality of processors and circuits). May be done.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。 Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Some of the above-described embodiments may be combined as appropriate.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されず撮像手段で撮像された画像を表示可能な機器であれば適用可能である。すなわち、本発明はタブレットPCや携帯電話端末、ディスプレイを備える音楽プレーヤーやゲーム機などに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example, but this is not limited to this example and is applicable to any device capable of displaying an image captured by an imaging means. It is possible. That is, the present invention can be applied to tablet PCs, mobile phone terminals, music players and game machines provided with displays, and the like.

また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側のディスプレイで表示できるようにしてもよい。 Further, the present invention can be applied not only to the main body of the imaging device but also to a control device that remotely controls the imaging device by communicating with the imaging device (including a network camera) via wired or wireless communication. As a device for remotely controlling the image pickup device, for example, there are devices such as smartphones, tablet PCs, and desktop PCs. The image pickup device can be controlled remotely by notifying the image pickup device of commands for performing various operations and settings from the control device side based on the operations performed on the control device side and the processes performed on the control device side. is there. Further, the live view image taken by the imaging device may be received via wired or wireless communication and displayed on the display on the control device side.

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the storage medium that stores the program constitute the present invention.

Claims (17)

撮像手段で撮像されているライブビュー画像に含まれる焦点検出領域についての合焦度合いに関する情報を取得する合焦度合い取得手段と、
前記ライブビュー画像に対して実行された、特定の被写体の検出処理の結果を取得する検出結果取得手段と、
前記ライブビュー画像に重畳して、
前記焦点検出領域を示す第1のアイテムと合焦度合いを示す指標を含むガイド表示と、
前記ライブビュー画像から検出された前記特定の被写体の領域である被写体領域を示す第2のアイテムと、の重なりの状態に応じて、
前記第1のアイテムと前記第2のアイテムの両方を表示するか、
前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にするか、
を切り替え、
前記ガイド表示と前記第2のアイテムとの重なりの状態にかかわらず、前記ライブビュー画像に重畳して前記ガイド表示のうち前記合焦度合いを示す指標を表示するように制御する制御手段と
を有することを特徴とする表示制御装置。
Focusing degree acquisition means for acquiring information on the focusing degree for the focus detection region included in the live view image captured by the imaging means, and focusing degree acquisition means.
A detection result acquisition means for acquiring the result of the detection process of a specific subject executed on the live view image, and
Superimpose on the live view image
A guide display including a first item indicating the focus detection area and an index indicating the degree of focus, and
Depending on the state of overlap with the second item indicating the subject area, which is the area of the specific subject detected from the live view image,
Display both the first item and the second item,
Whether to hide one of the first item and the second item
To switch,
It has a control means for controlling so as to superimpose on the live view image and display an index indicating the degree of focusing in the guide display regardless of the overlapping state of the guide display and the second item. A display control device characterized by the fact that.
前記制御手段は、
前記重なりの状態が、前記ガイド表示のうち前記第1のアイテムで示された領域の一部あるいは全体が第2のアイテムで示された領域の一部と重なっている状態である場合に、
前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にすることを特徴とする請求項1に記載の表示制御装置。
The control means
When the overlapping state is a state in which a part or the whole of the area indicated by the first item in the guide display overlaps with a part of the area indicated by the second item.
The display control device according to claim 1, wherein one of the first item and the second item is hidden.
前記制御手段は、
前記重なりの状態が、前記ガイド表示のうち前記第1のアイテムで示された領域が前記第2のアイテムで示された領域に内包され、かつ、前記第1のアイテムの領域に対する前記第2のアイテムの相対的なサイズが所定値以上である場合に、前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にすることを特徴とする請求項1または2に記載の表示制御装置。
The control means
In the overlapping state, the region indicated by the first item in the guide display is included in the region indicated by the second item, and the second item with respect to the region of the first item. The invention according to claim 1 or 2, wherein when the relative size of the items is equal to or larger than a predetermined value, one of the first item and the second item is hidden. Display control device.
前記制御手段は、
前記重なりの状態が、前記ガイド表示のうち前記第1のアイテムに示された領域が前記第2のアイテムで示された領域に内包されていない、かつ、前記第1のアイテムで示された領域の一部と前記第2のアイテムで示された領域の一部が重なっている状態である場合に、前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にすることを特徴とする請求項1乃至3のいずれか1項に記載の表示制御装置。
The control means
In the overlapping state, the region indicated by the first item in the guide display is not included in the region indicated by the second item, and the region indicated by the first item. When a part of the item and a part of the area indicated by the second item overlap, one of the first item and the second item is hidden. The display control device according to any one of claims 1 to 3, wherein the display control device is characterized.
前記制御手段は、
前記重なりの状態に応じて、前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にする表示形態へと切り替えた場合には、
前記第1のアイテムと前記第2のアイテムに関する設定手段において、前記第1のアイテムと前記第2のアイテムの両方を前記ライブビュー画像に表示する設定にしていたとしても、前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にすることを特徴とする請求項1乃至4のいずれか1項に記載の表示制御装置。
The control means
When switching to a display mode in which one of the first item and the second item is hidden according to the overlapping state,
Even if both the first item and the second item are set to be displayed in the live view image in the setting means relating to the first item and the second item, the first item and the setting means The display control device according to any one of claims 1 to 4, wherein one of the second items is hidden.
前記制御手段は、
前記特定の被写体が複数検出された場合は、複数の前記特定の被写体のうち、主である前記特定の被写体を識別するための第1の指標を前記被写体領域の近傍に表示することを特徴とする請求項1に記載の表示制御装置。
The control means
When a plurality of the specific subjects are detected, a first index for identifying the specific subject, which is the main subject, is displayed in the vicinity of the subject area among the plurality of the specific subjects. The display control device according to claim 1.
前記第1の指標は、前記重なりの状態に応じて前記第2のアイテムを非表示にした場合でも、表示することを特徴とする請求項6に記載の表示制御装置。 The display control device according to claim 6, wherein the first index is displayed even when the second item is hidden according to the overlapping state. 前記制御手段が、
前記重なりの状態に応じて、前記第1のアイテムを非表示にした後、
前記合焦度合い取得手段で取得した前記合焦度合いの所定の条件を満たす変化、もしくは、ユーザーによる特定の操作手段への操作のうち少なくとも一方があったことに応じて、前記第1のアイテムを表示することを特徴とする請求項1乃至7のいずれか1項に記載の表示制御装置。
The control means
After hiding the first item according to the overlapping state,
The first item is changed according to a change that satisfies a predetermined condition of the degree of focusing acquired by the means for acquiring the degree of focusing, or at least one of operations on a specific operating means by the user. The display control device according to any one of claims 1 to 7, wherein the display is displayed.
前記制御手段が、
前記合焦度合い取得手段で取得した前記合焦度合いの所定の条件を満たす変化、もしくは、ユーザーによる特定の操作手段への操作のうち少なくとも一方があったことに応じて、前記第1のアイテムと前記第2のアイテムの両方を表示した後、
前記合焦度合い取得手段で取得した前記合焦度合いの前記所定の条件を満たす変化がない状態が所定時間経過したことに応じて、前記第1のアイテムを非表示にすることを特徴とする請求項8に記載の表示制御装置。
The control means
With the first item, depending on the change that satisfies the predetermined condition of the focusing degree acquired by the focusing degree acquisition means, or at least one of the operations on the specific operating means by the user. After displaying both of the second items,
A claim characterized in that the first item is hidden according to the elapse of a predetermined time in a state in which there is no change in the degree of focusing that satisfies the predetermined condition acquired by the means for acquiring the degree of focusing. Item 8. The display control device according to item 8.
前記特定の操作手段は、
測距位置の移動指示を行う操作部材、自動焦点調節を行うAFモードに設定されている際に用いる機能を有した押しボタン、タッチ操作可能なタッチ操作手段のうち少なくとも1つであることを特徴とする請求項8または9に記載の表示制御装置。
The specific operating means
It is characterized by being at least one of an operation member for instructing the movement of the distance measurement position, a push button having a function used when the AF mode for performing automatic focus adjustment is set, and a touch operation means capable of touch operation. The display control device according to claim 8 or 9.
前記制御手段は、
前記重なりの状態に応じて、前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にした後、
前記ライブビュー画像の前記第1のアイテムで示された領域と前記第2のアイテムで示された領域との重なりがなくなった場合は、前記第1のアイテムと前記第2のアイテムの両方を前記ライブビュー画像に表示することを特徴とする請求項1乃至10のいずれか1項に記載の表示制御装置。
The control means
After hiding one of the first item and the second item according to the overlapping state,
When the area indicated by the first item and the area indicated by the second item in the live view image no longer overlap, both the first item and the second item are said to be the same. The display control device according to any one of claims 1 to 10, wherein the display is displayed on a live view image.
前記ガイド表示は、互いの表示位置の関係によって合焦度合いを示す第2の指標および第3の指標と、合焦状態になるための目標地点を示す第4の指標から成ることを特徴とする請求項1乃至11のいずれか1項に記載の表示制御装置。 The guide display is characterized by including a second index and a third index indicating the degree of focusing according to the relationship between the display positions of each other, and a fourth index indicating a target point for achieving the in-focus state. The display control device according to any one of claims 1 to 11. 前記ガイド表示は、
合焦していない場合に、複数の段階で合焦度合いを示すものであることを特徴とする請求項1乃至12のいずれか1項に記載の表示制御装置。
The guide display is
The display control device according to any one of claims 1 to 12, wherein the degree of focusing is indicated in a plurality of stages when the subject is not in focus.
ファインダーと、ファインダー内表示手段と、ファインダー外表示手段とを更に有し、
前記制御手段は、
前記ファインダー内表示手段と前記ファインダー外表示手段のうち、いずれか一方に前記ライブビュー画像を表示し、
前記第1のアイテムと前記第2のアイテムとの重なりの状態に応じて、前記第1のアイテムと前記第2のアイテムの両方もしくはいずれかを、前記ライブビュー画像を表示している表示手段に表示するようにし、
前記第1のアイテムと前記第2のアイテムとの重なりの状態にかかわらず、前記ガイド表示のうち前記合焦度合いを示す指標を前記ライブビュー画像を表示している前記表示手段に表示することを特徴とする請求項1乃至13のいずれか1項に記載の表示制御装置。
It further has a finder, a display means inside the finder, and a display means outside the finder.
The control means
The live view image is displayed on either one of the display means inside the finder and the display means outside the finder.
Depending on the overlapping state of the first item and the second item, the first item and / or the second item may be used as the display means for displaying the live view image. To display
Regardless of the overlapping state of the first item and the second item, the index indicating the degree of focusing in the guide display is displayed on the display means displaying the live view image. The display control device according to any one of claims 1 to 13, which is characterized.
撮像手段で撮像されているライブビュー画像に含まれる焦点検出領域についての合焦度合いに関する情報を取得する合焦度合い取得ステップと、
前記ライブビュー画像に対して実行された、特定の被写体の検出処理の結果を取得する検出結果取得ステップと、
前記ライブビュー画像に重畳して、
前記焦点検出領域を示す第1のアイテムと合焦度合いを示す指標を含むガイド表示と、
前記ライブビュー画像から検出された前記特定の被写体の領域である被写体領域を示す第2のアイテムと、の重なりの状態に応じて、
前記第1のアイテムと前記第2のアイテムの両方を表示するか、
前記第1のアイテムと前記第2のアイテムのうち、いずれか一方を非表示にするか、
を切り替え、
前記ガイド表示と前記第2のアイテムとの重なりの状態にかかわらず、前記ライブビュー画像に重畳して前記ガイド表示のうち前記合焦度合いを示す指標を表示するように制御する制御ステップと
を有することを特徴とする表示制御装置の制御方法。
A focus degree acquisition step for acquiring information on the focus degree for the focus detection region included in the live view image captured by the imaging means, and a focus degree acquisition step.
A detection result acquisition step for acquiring the result of the detection process of a specific subject executed for the live view image, and
Superimpose on the live view image
A guide display including a first item indicating the focus detection area and an index indicating the degree of focus, and
Depending on the state of overlap with the second item indicating the subject area, which is the area of the specific subject detected from the live view image,
Display both the first item and the second item,
Whether to hide one of the first item and the second item
To switch,
It has a control step for controlling so as to superimpose the guide display on the live view image and display an index indicating the degree of focusing in the guide display regardless of the overlapping state of the guide display and the second item. A control method for a display control device.
コンピュータを、請求項1乃至14のいずれか1項に記載された表示制御装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the display control device according to any one of claims 1 to 14. コンピュータを、請求項1乃至14のいずれか1項に記載された表示制御装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium containing a program for causing the computer to function as each means of the display control device according to any one of claims 1 to 14.
JP2019208990A 2019-11-19 2019-11-19 Display control device, its control method, and its program Active JP7418083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019208990A JP7418083B2 (en) 2019-11-19 2019-11-19 Display control device, its control method, and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019208990A JP7418083B2 (en) 2019-11-19 2019-11-19 Display control device, its control method, and its program

Publications (2)

Publication Number Publication Date
JP2021081589A true JP2021081589A (en) 2021-05-27
JP7418083B2 JP7418083B2 (en) 2024-01-19

Family

ID=75965037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019208990A Active JP7418083B2 (en) 2019-11-19 2019-11-19 Display control device, its control method, and its program

Country Status (1)

Country Link
JP (1) JP7418083B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016197181A (en) * 2015-04-03 2016-11-24 キヤノン株式会社 Display control device and control method therefor
JP2019023666A (en) * 2012-08-24 2019-02-14 オートモーティブ コアリション フォー トラフィック セーフティ, インコーポレイテッド Breath Inspection System

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6010303B2 (en) 2012-01-31 2016-10-19 株式会社ザクティ Image playback device
JP2016115337A (en) 2014-12-15 2016-06-23 キヤノン株式会社 User interface device, image forming apparatus, control method of user interface device, and storage medium
JP2019023686A (en) 2017-07-24 2019-02-14 キヤノン株式会社 Imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019023666A (en) * 2012-08-24 2019-02-14 オートモーティブ コアリション フォー トラフィック セーフティ, インコーポレイテッド Breath Inspection System
JP2016197181A (en) * 2015-04-03 2016-11-24 キヤノン株式会社 Display control device and control method therefor

Also Published As

Publication number Publication date
JP7418083B2 (en) 2024-01-19

Similar Documents

Publication Publication Date Title
US8780200B2 (en) Imaging apparatus and image capturing method which combine a first image with a second image having a wider view
US9830947B2 (en) Image-capturing device
JP6512810B2 (en) Image pickup apparatus, control method and program
CN108377329B (en) Image pickup apparatus and control method thereof
JP4582212B2 (en) Imaging apparatus and program
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP5331128B2 (en) Imaging device
CN107040718B (en) Display control apparatus and control method thereof
US10212353B2 (en) Display control apparatus and method of controlling display control apparatus
JP2005284155A (en) Manual focusing device and focusing assist program
JP2014077994A (en) Image display device, control method and control program for the same, and imaging device
JP7049163B2 (en) Electronic devices and their control methods, programs and storage media
US9177395B2 (en) Display device and display method for providing image display in first color mode and second color mode
JPH09149311A (en) Image pickup device
JP5959217B2 (en) Imaging apparatus, image quality adjustment method, and image quality adjustment program
JP6389342B2 (en) Imaging apparatus and control method thereof
US10587811B2 (en) Display control apparatus and control method for the same
JP2021021857A (en) Imaging apparatus and control method thereof
KR101839473B1 (en) Method for providing reference image and image photographing device thereof
JP2006072332A (en) Imaging apparatus
JP2011193066A (en) Image sensing device
JP7418083B2 (en) Display control device, its control method, and its program
JP2012134680A (en) Imaging apparatus
JP6882417B2 (en) Display control device
WO2012099174A1 (en) Autofocus system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R151 Written notification of patent or utility model registration

Ref document number: 7418083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151