JP2014110596A - Image pickup device, control method, and program therefor, and recording medium - Google Patents

Image pickup device, control method, and program therefor, and recording medium Download PDF

Info

Publication number
JP2014110596A
JP2014110596A JP2012265171A JP2012265171A JP2014110596A JP 2014110596 A JP2014110596 A JP 2014110596A JP 2012265171 A JP2012265171 A JP 2012265171A JP 2012265171 A JP2012265171 A JP 2012265171A JP 2014110596 A JP2014110596 A JP 2014110596A
Authority
JP
Japan
Prior art keywords
shooting
display
unit
photographing
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012265171A
Other languages
Japanese (ja)
Inventor
Daisuke Emoto
大介 荏本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012265171A priority Critical patent/JP2014110596A/en
Publication of JP2014110596A publication Critical patent/JP2014110596A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable an instruction for photographing preparatory operation to be issued again simply on the basis of the result of a photographing preparatory operation prior to photographing (adjustment of photographing settings).SOLUTION: A system control unit adjusts specific photographing setting when a photograph is taken by an image pickup unit, performs photographing by the image pickup unit on the basis of the photographing setting, and executes a photographing process for recording image data on a recording medium. The system control unit detects a touch operation on a display unit 28 on which a through-image is displayed, and, when a touch-down is detected, displays a region of a prescribed range including the touch-down position on a display unit as an enlarged image 306, and displays a display item 304 for instructing readjustment of the photographing setting on the display unit. The system control unit detects a touch-down on the through-image and adjusts the photographing setting according to the touch-down position, adjusts the photographing setting again according to a touch operation on the display item, and performs photographing processing when there is no more touch-down.

Description

本発明は、タッチパネルを有する撮像装置、その制御方法、およびプログラム、並びに記憶媒体に関し、特に、タッチ操作によって撮影を行う手法に関する。   The present invention relates to an imaging device having a touch panel, a control method thereof, a program, and a storage medium, and more particularly, to a technique for performing imaging by a touch operation.

デジタルカメラなどの撮像装置において、その表示部にタッチパネルが設けられたものがある。この種の撮像装置では、表示部に表示された被写体画像にタッチ(タッチダウン)することによってフォーカスおよび露出などを合わせるべき被写体が指定されて、オートフォーカス(AF)処理および自動露出(AE)処理など撮影準備動作が行われる。そして、タッチパネルにタッチした指を離す(タッチアップ)と、撮像装置は撮影処理を行う(特許文献1参照)。   Some imaging apparatuses such as digital cameras have a touch panel provided on the display unit. In this type of imaging device, a subject to be focused and exposed is specified by touching (touching down) a subject image displayed on the display unit, and an autofocus (AF) process and an automatic exposure (AE) process are performed. The shooting preparation operation is performed. Then, when the finger touching the touch panel is released (touch-up), the imaging device performs a shooting process (see Patent Document 1).

特開2011−193249号公報JP 2011-193249 A

ところが、上述の特許文献1に記載の手法では、タッチパネルのタッチ操作に応じてAF処理、AE処理、およびAWB(オートホワイトバランス)処理などの撮影準備動作が行われる。このため、撮影準備動作の結果を確認した後、ユーザーがピントおよび露出を自動又は手動によって再調整して撮影を行うことができない。   However, in the method described in Patent Document 1 described above, shooting preparation operations such as AF processing, AE processing, and AWB (auto white balance) processing are performed in response to a touch operation on the touch panel. For this reason, after confirming the result of the shooting preparation operation, the user cannot adjust the focus and exposure automatically or manually to perform shooting.

さらに、特許文献1に記載の手法では、タッチ操作(タッチダウン)によって被写体が指定されると撮像装置が撮影準備動作を行い、タッチを離す操作(タッチアップ)によって撮影を行うので、つまり、撮影準備動作によって調整されたピントおよび露出で撮影が行われる結果、ピントおよび露出の再調整を行うことができない。   Furthermore, in the method described in Patent Document 1, the imaging apparatus performs a shooting preparation operation when a subject is specified by a touch operation (touch down), and performs shooting by an operation of releasing the touch (touch up). As a result of shooting with the focus and exposure adjusted by the preparation operation, readjustment of focus and exposure cannot be performed.

従って、本発明の目的は、撮影前の撮影準備動作の結果に基づいて簡易に再び撮影準備動作の指示を行うことができる撮像装置、その制御方法、およびプログラム、並びに記憶媒体を提供することにある。   Therefore, an object of the present invention is to provide an imaging apparatus, a control method thereof, a program, and a storage medium that can easily instruct the imaging preparation operation again based on the result of the imaging preparation operation before imaging. is there.

上記の目的を達成するために、本発明による撮像装置は、被写体を撮影して画像データを得る撮像手段と、前記撮像手段による撮影の際に特定の撮影設定の調整を行う撮影準備手段と、前記撮影準備手段によって調整された撮影設定に基づいて前記撮像手段による撮影を行って、当該撮影の結果として得られた画像データを記録媒体に記録する撮影処理を行う撮影処理手段と、前記画像データに応じたスルー画像が表示される表示手段に対するタッチ操作を検出可能な検出手段と、前記表示手段に表示されたスルー画像に対するタッチダウンが前記検出手段により検知されると、当該タッチダウンされた位置を含む所定の範囲の領域を拡大画像として前記表示手段に拡大して表示し、かつ前記撮影準備手段による前記撮影設定の調整のやり直しを指示するための表示アイテムを前記表示手段に表示するように制御する表示制御手段と、前記表示手段に表示されたスルー画像に対する前記タッチダウンが前記検出手段により検知されると、当該タッチダウンされた位置に応じて前記撮影準備手段による前記撮影設定の調整を行い、該タッチダウンに応じて前記表示制御手段によって表示された前記表示アイテムに対するタッチ操作に応じて、前記撮影準備手段による前記撮影設定の調整を再び行って、前記タッチダウンの後に前記タッチダウンがなくなったことが前記検出手段により検出されると、前記撮影処理手段による前記撮影処理を行うように制御する制御手段と、を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject and obtains image data, an imaging preparation unit that adjusts specific imaging settings at the time of imaging by the imaging unit, Shooting processing means for performing shooting processing for performing shooting by the imaging means based on the shooting settings adjusted by the shooting preparation means and recording image data obtained as a result of the shooting on a recording medium; and the image data A detection unit capable of detecting a touch operation on a display unit on which a through image corresponding to the display unit is displayed, and a touch-down position on the through image displayed on the display unit when the detection unit detects a touchdown. A region of a predetermined range including the image is enlarged and displayed on the display unit as an enlarged image, and the photographing setting adjustment by the photographing preparation unit is performed again. Display control means for controlling display items for instructing to be displayed on the display means, and when the touchdown with respect to the through image displayed on the display means is detected by the detection means, the touchdown is performed. The shooting setting unit adjusts the shooting setting according to the position, and the shooting setting by the shooting preparation unit according to a touch operation on the display item displayed by the display control unit according to the touchdown. And a control unit that controls to perform the imaging process by the imaging processing unit when the detection unit detects that the touchdown is lost after the touchdown. It is characterized by.

本発明によれば、撮影前の撮影設定(つまり、撮影準備動作)の調整結果に基づいて簡易に再びの撮影設定の調整の指示を行うことができるので、ユーザーの撮影意図に合致した撮影が可能となる。   According to the present invention, it is possible to easily instruct the adjustment of the shooting setting again based on the adjustment result of the shooting setting before shooting (that is, the shooting preparation operation). It becomes possible.

本発明の第1の実施形態による撮像装置の一例についてその外観を示す斜視図である。1 is a perspective view illustrating an appearance of an example of an imaging apparatus according to a first embodiment of the present invention. 図1に示すカメラの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the camera shown in FIG. 図1に示すカメラにおける被写体撮影の一例を説明するための図である。It is a figure for demonstrating an example of the to-be-photographed object in the camera shown in FIG. 図1にカメラにおける撮影処理の一例を説明するためのフローチャートである。FIG. 1 is a flowchart for explaining an example of photographing processing in the camera. 図1に示すカメラにおける撮影処理の他の例を説明するためのフローチャートである。6 is a flowchart for explaining another example of the photographing process in the camera shown in FIG. 1. 本発明の第2の実施形態によるカメラで行われる撮影処理の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the imaging | photography process performed with the camera by the 2nd Embodiment of this invention. 本発明の第2の実施形態によるカメラで行われる撮影処理の他の例を説明するためのフローチャートである。It is a flowchart for demonstrating the other example of the imaging | photography process performed with the camera by the 2nd Embodiment of this invention.

以下、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging apparatus according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は本発明の第1の実施形態による撮像装置の一例についてその外観を示す斜視図である。
[First Embodiment]
FIG. 1 is a perspective view showing an appearance of an example of an imaging apparatus according to the first embodiment of the present invention.

図示の撮像装置は、所謂デジタルカメラ(以下単にカメラと呼ぶ)であり、少なくとも静止画の撮影を行うことができる。カメラ100はその背面側に表示部28が配置されており、この表示部28には画像および各種情報が表示される。カメラ100の上面には電源オンおよび電源オフを切り替える電源スイッチ72が配置されるとともに、シャッターボタン61が配置されている。   The illustrated imaging apparatus is a so-called digital camera (hereinafter simply referred to as a camera), and can capture at least a still image. The display unit 28 is disposed on the back side of the camera 100, and images and various types of information are displayed on the display unit 28. On the upper surface of the camera 100, a power switch 72 for switching between power on and power off is disposed, and a shutter button 61 is disposed.

表示部28の右側には、各種モードを切り替えるモードダイアル(モード切替スイッチともいう)60が配置されるとともに、ユーザーからの各種操作を受け付ける操作部70が配置されている。なお、シャッターボタン61は操作部70の1つである。   On the right side of the display unit 28, a mode dial (also referred to as a mode switch) 60 for switching various modes and an operation unit 70 for receiving various operations from the user are disposed. The shutter button 61 is one of the operation units 70.

操作部70にはユーザーからの各種操作を受け付けるための各種スイッチおよびボタンなどが備えられている。さらに、操作部70にはコントローラーホイール13が備えられており、このコントローラーホイール13は回転操作に応じた指令を送出する。   The operation unit 70 includes various switches and buttons for receiving various operations from the user. Further, the operation unit 70 is provided with a controller wheel 13, and the controller wheel 13 sends out a command corresponding to the rotation operation.

図示の例では、カメラ100には、カメラ100と外部機器(図示せず)とを接続するための接続ケーブル111が接続されている。接続ケーブル111はコネクタ112によってカメラ100に接続される。   In the illustrated example, the camera 100 is connected with a connection cable 111 for connecting the camera 100 and an external device (not shown). The connection cable 111 is connected to the camera 100 by a connector 112.

カメラには記録媒体スロット101が形成されており、この記録媒体スロット101にはメモリカード又はハードディスクなどの記録媒体200が収納される。記録媒体スロット101に記録媒体200を収納する際には、カメラ100に設けられた蓋部102を開いて、記録媒体スロット101に記録媒体200を収納する。   A recording medium slot 101 is formed in the camera, and a recording medium 200 such as a memory card or a hard disk is stored in the recording medium slot 101. When storing the recording medium 200 in the recording medium slot 101, the lid 102 provided in the camera 100 is opened, and the recording medium 200 is stored in the recording medium slot 101.

図2は、図1に示すカメラ100の構成の一例を示すブロック図である。   FIG. 2 is a block diagram showing an example of the configuration of the camera 100 shown in FIG.

図2において、カメラ100は撮影レンズユニット(以下単に撮影レンズと呼ぶ)103を備えており、撮影レンズ103の後段には絞り機能を備えるシャッター101が配置されている。そして、シャッター101の後側には、光学像を電気信号に変換するCCD又はCMOS素子を有する撮像部22が配置されている。撮像部22の出力であるアナログ信号はA/D変換器23によってデジタル信号(画像データ)に変換される。   In FIG. 2, the camera 100 includes a photographic lens unit (hereinafter simply referred to as a photographic lens) 103, and a shutter 101 having an aperture function is disposed at the subsequent stage of the photographic lens 103. On the rear side of the shutter 101, an imaging unit 22 having a CCD or CMOS element that converts an optical image into an electrical signal is disposed. The analog signal that is the output of the imaging unit 22 is converted into a digital signal (image data) by the A / D converter 23.

なお、撮影レンズ103の前面側にはバリア102が配置されており、このバリア102は撮影レンズ103、シャッター101、および撮像部22などを覆って、汚れおよび破損を防止するためのものである。   A barrier 102 is disposed on the front side of the photographic lens 103. The barrier 102 covers the photographic lens 103, the shutter 101, the imaging unit 22, and the like to prevent dirt and damage.

画像処理部24はA/D変換器23の出力である画像データ、又はメモリ制御部15から画像データを受けて、所定の画素補間および縮小などのリサイズ処理と色変換処理とを行う。また、画像処理部24は撮像の結果得られた画像データを用いて所定の演算処理を行う。そして、システム制御部50は当該演算結果に基づいて露光制御および測距制御を行う。   The image processing unit 24 receives the image data that is the output of the A / D converter 23 or the image data from the memory control unit 15 and performs a resizing process such as predetermined pixel interpolation and reduction and a color conversion process. Further, the image processing unit 24 performs a predetermined calculation process using image data obtained as a result of imaging. The system control unit 50 performs exposure control and distance measurement control based on the calculation result.

これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、およびEF(フラッシュプリ発光)処理が行われる。   As a result, TTL (through the lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing are performed.

さらに、画像処理部24は撮像の結果得られた画像データを用いて所定の演算処理を行って、当該演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。   Further, the image processing unit 24 performs predetermined calculation processing using image data obtained as a result of imaging, and performs TTL AWB (auto white balance) processing based on the calculation result.

A/D変換器23からの出力である画像データは、画像処理部24およびメモリ制御部15を介して、或いは直接メモリ制御部15を介して、メモリ32に書き込まれる。メモリ32は、所定枚数の静止画像又は所定時間の動画像および音声を格納するための十分な記憶容量を備えている。   The image data output from the A / D converter 23 is written into the memory 32 via the image processing unit 24 and the memory control unit 15 or directly via the memory control unit 15. The memory 32 has a sufficient storage capacity for storing a predetermined number of still images or moving images and sound for a predetermined time.

図示のメモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねており、メモリに書き込まれた表示用の画像データはD/A変換器13を介して表示部28に与えられて、画像として表示される。なお、表示部28は、例えば、LCDである。   The illustrated memory 32 also serves as an image display memory (video memory). Display image data written in the memory is provided to the display unit 28 via the D / A converter 13 and displayed as an image. Is done. The display unit 28 is, for example, an LCD.

システム制御部50はカメラ100全体の制御を司る。不揮発性メモリ56にはシステム制御部50の動作用の定数、変数、およびプログラムなどが格納されている。このプログラムには、後述する各種フローチャートを実行するためのプログラムが含まれる。不揮発性メモリ56は電気的に消去・記録可能なメモリであって、例えば、EEPROMが用いられる。   The system control unit 50 controls the entire camera 100. The nonvolatile memory 56 stores constants, variables, programs, and the like for operating the system control unit 50. This program includes a program for executing various flowcharts to be described later. The nonvolatile memory 56 is an electrically erasable / recordable memory, and for example, an EEPROM is used.

システムメモリ52は、例えば、RAMであり、システム制御部50は不揮発性メモリ56から動作用の定数、変数、およびプログラムなどを読み出して、システムメモリ52に展開する。   The system memory 52 is, for example, a RAM, and the system control unit 50 reads operation constants, variables, programs, and the like from the nonvolatile memory 56 and develops them in the system memory 52.

なお、メモリ32に書き込まれた画像データは、システム制御部50においてファイル化されて、インターフェース(I/F)18を介して記録媒体200に記録される。   The image data written in the memory 32 is filed in the system control unit 50 and recorded on the recording medium 200 via the interface (I / F) 18.

前述のモード切替スイッチ60は、例えば、システム制御部50の動作モードを静止画撮影モード、連続撮影(連写)モード、動画モード、および再生モードのいずれかに切り替えるためのスイッチである。   The above-described mode switch 60 is a switch for switching the operation mode of the system control unit 50 to one of a still image shooting mode, a continuous shooting (continuous shooting) mode, a moving image mode, and a playback mode, for example.

シャッターボタン61が操作途中(半押し:撮影準備指示)であると、第1のシャッタースイッチがオンとなって、第1のシャッタースイッチ信号SW1がシステム制御部50に与えられる。これによって、システム制御部50はAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、およびEF(フラッシュプリ発光)処理などの動作を開始する。   When the shutter button 61 is in the middle of operation (half-press: photographing preparation instruction), the first shutter switch is turned on and the first shutter switch signal SW1 is given to the system control unit 50. Accordingly, the system control unit 50 starts operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash preflash) processing.

シャッターボタン61が操作完了(全押し)になると、第2のシャッタースイッチがオンとなって、第2のシャッタースイッチ信号SW2がシステム制御部50に与えられる。これによって、システム制御部50は撮像部22の信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮像処理の動作を開始する。   When the operation of the shutter button 61 is completed (fully pressed), the second shutter switch is turned on, and the second shutter switch signal SW2 is given to the system control unit 50. Accordingly, the system control unit 50 starts a series of imaging processing operations from reading the signal of the imaging unit 22 to writing the image data on the recording medium 200.

前述の操作部70は各種ボタンおよびタッチパネルなどを有している。各種ボタンとして、例えば、消去ボタン、メニューボタン、SETボタン、十字に配置された4方向キー、およびコネクタ112に接続されたプリンタ(図示せず)に対して印刷予約を行うための印刷予約ボタンがある。   The aforementioned operation unit 70 has various buttons and a touch panel. Examples of various buttons include a delete button, a menu button, a SET button, a four-way key arranged in a cross shape, and a print reservation button for making a print reservation for a printer (not shown) connected to the connector 112. is there.

メニューボタンが操作されると、システム制御部50は各種設定を行うためのメニュー画面を表示部28に表示する。ユーザーは表示部28に表示されたメニュー画面を見て、4方向キーおよびSETボタンを用いて直感的に各種設定を行うことができる。   When the menu button is operated, the system control unit 50 displays a menu screen for performing various settings on the display unit 28. The user can intuitively make various settings using the four-way key and the SET button by looking at the menu screen displayed on the display unit 28.

電源制御部39は電池検出回路、DC−DCコンバータ、および通電するブロックを切り替えるスイッチ回路などを備えている。そして、電源制御部39は電池の装着の有無、電池の種類、および電池残量の検出を行う。また、電源制御部39は上記の検出結果およびシステム制御回路50の指示に基づいてDC−DCコンバータを制御して、所定の電圧を必要な期間の間記録媒体200を含む各部に供給する。   The power control unit 39 includes a battery detection circuit, a DC-DC converter, and a switch circuit that switches blocks to be energized. Then, the power control unit 39 detects the presence / absence of a battery, the type of battery, and the remaining battery level. The power control unit 39 controls the DC-DC converter based on the detection result and the instruction from the system control circuit 50, and supplies a predetermined voltage to each unit including the recording medium 200 for a necessary period.

電源制御部39には電源部30が接続されている。電池部30はアルカリ電池又はリチウム電池などの一次電池、又はNiCd電池、NiMH電池、又はLi電池などの二次電池を備えるとともに、ACアダプターなどを有している。   A power supply unit 30 is connected to the power supply control unit 39. The battery unit 30 includes a primary battery such as an alkaline battery or a lithium battery, or a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, and an AC adapter.

前述のように、表示部28にはタッチパネル(図示せず)が備えられたおり、システム制御部50はタッチパネルに対するタッチを検出可能である。システム制御部50はタッチパネル(つまり、表示部28)に対する次の操作を検知する。   As described above, the display unit 28 includes a touch panel (not shown), and the system control unit 50 can detect a touch on the touch panel. The system control unit 50 detects the next operation on the touch panel (that is, the display unit 28).

つまり、システム制御部50はタッチパネルを指又はペンで触れる操作(タッチダウン)、タッチパネルを指又はペンで触れた状態で同一の位置に保持する操作(タッチオン)、およびタッチパネルを指又はペンで触れた状態で始めの位置から移動する操作(ムーブ)を検知する。   That is, the system control unit 50 touches the touch panel with a finger or pen (touch down), touches the touch panel with the finger or pen (touch on), and touches the touch panel with the finger or pen. The operation (move) to move from the first position in the state is detected.

さらに、システム制御部50は、タッチパネルを指又はペンで触れた状態から離す操作(タッチアップ)およびタッチパネルに何も触れていない状態(タッチオフ)を検知する。   Furthermore, the system control unit 50 detects an operation (touch-up) for releasing the touch panel from a touched state with a finger or a pen and a state (touch-off) in which nothing is touched on the touch panel.

上記の操作およびタッチパネルに指又はペンが触れている位置を示す位置座標は内部バス(図示せず)を介してタッチ情報としてシステム制御部50に送られる。システム制御部50はタッチ情報に基づいてタッチパネルでどの様な操作が行なわれたかについて判定する。   The above-described operation and position coordinates indicating the position where the finger or pen is touching the touch panel are sent to the system control unit 50 as touch information via an internal bus (not shown). The system control unit 50 determines what operation has been performed on the touch panel based on the touch information.

ムーブの場合には、システム制御部50はタッチパネル上で移動する指又はペンの移動方向についても位置座標の変化に応じて、タッチパネル上の垂直成分および水平成分毎に判定する。   In the case of a move, the system control unit 50 determines the moving direction of a finger or pen moving on the touch panel for each vertical component and horizontal component on the touch panel according to the change in position coordinates.

なお、タッチパネルにおいてタッチダウンから一定のムーブを経てタッチアップをした際、ストロークを描いたとする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指又はペンを触れたままある程度の距離だけ素早く動かして、そのまま離すという操作であり、言い換えると、タッチパネルを指ではじくように素早くなぞる操作である。   It is assumed that a stroke is drawn when touch-up is performed through a certain move from touch-down on the touch panel. The operation of drawing a stroke quickly is called a flick. Flicking is an operation of quickly moving a certain distance while touching a finger or pen on the touch panel and then releasing it, in other words, an operation of quickly tracing the touch panel with a finger.

所定の距離以上かつ所定の速度以上でムーブしたことを検知して、その状態でタッチアップを検知すると、システム制御部50はフリックが行なわれたと判定する。また、所定の距離以上かつ所定の速度未満でムーブしたことを検知すると、システム制御部50はドラッグが行なわれたと判定する。   When it is detected that a move has occurred at a predetermined distance or more and at a predetermined speed or more, and touch-up is detected in this state, the system control unit 50 determines that a flick has been performed. In addition, when it is detected that the movement is performed at a predetermined distance or more and less than a predetermined speed, the system control unit 50 determines that the drag has been performed.

ところで、カメラ100においては所謂中央1点AFおよび顔AFを用いた撮影を行うことが可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された顔に対してAFを行うことである。   By the way, in the camera 100, it is possible to perform photographing using so-called center single point AF and face AF. Central one-point AF is to perform AF on one central position in the shooting screen. Face AF is to perform AF on the face detected by the face detection function.

ここで、顔検出機能について説明する。   Here, the face detection function will be described.

システム制御部50は顔検出対象の画像データを画像処理部20に送る。システム制御部50の制御下で画像処理部20は、当該画像データに対して水平方向バンドパスフィルタ処理を行う。そして、システム制御部50の制御下で画像処理部20は、水平方向バンドパスフィルタ処理された画像データに垂直方向バンドパスフィルタ処理を行う。これら水平および垂直方向バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。   The system control unit 50 sends the image data to be detected to the image processing unit 20. Under the control of the system control unit 50, the image processing unit 20 performs horizontal bandpass filter processing on the image data. Then, under the control of the system control unit 50, the image processing unit 20 performs vertical bandpass filter processing on the image data subjected to horizontal bandpass filter processing. By these horizontal and vertical band pass filter processes, edge components are detected from the image data.

その後、システム制御部50は、検出されたエッジ成分についてパターンマッチング処理を行って、目および鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群から予め設定された条件(例えば、2つの目の距離および傾きなど)を満たす候補を、目の対と判断して目の対があるもののみ目の候補群(絞込み目の候補群)として絞り込みを行う。   Thereafter, the system control unit 50 performs a pattern matching process on the detected edge component to extract a candidate group of eyes, nose, mouth, and ears. Then, the system control unit 50 determines that a candidate that satisfies a preset condition (for example, the distance and inclination of two eyes) from the extracted eye candidate group is an eye pair and has an eye pair. Narrowing is performed as a candidate group of only eyes (candidate group of narrowing eyes).

システム制御部50は、絞込み目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応づけて、予め設定した非顔条件フィルタ処理を行って顔(顔領域)を検出する。システム制御部50は、顔の検出結果に応じて顔情報を出力して処理を終了する。この際、システム制御部50は顔の数などの特徴量をメモリ52に記憶する。   The system control unit 50 associates a candidate group for narrowing eyes with other parts (nose, mouth, ears) that form a face corresponding thereto, and performs a preset non-face condition filtering process to perform a face (face region). Is detected. The system control unit 50 outputs face information according to the face detection result and ends the process. At this time, the system control unit 50 stores feature quantities such as the number of faces in the memory 52.

このようにして、ライブビュー表示又は再生表示される画像データを画像解析して、画像データの特徴量を抽出すれば被写体情報(ここでは、顔情報)を得ることができる。なお、ここでは、顔情報を例に挙げて説明したが、被写体情報には他にも赤目判定結果、目の検出結果、目つむり検出結果、および笑顔検出結果などの様々な情報がある。   In this way, subject image information (here, face information) can be obtained by analyzing the image data displayed in live view or reproduced and extracting the feature amount of the image data. Although the face information has been described as an example here, the subject information includes various information such as a red-eye determination result, an eye detection result, an eyelid detection result, and a smile detection result.

上述の顔AFとともに、カメラ100では顔AE,顔FE、および顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化する処理である。また、顔FEとは検出された顔を中心としてフラッシュの調光を行う処理である。さらに、顔WBとは検出された顔の色に合わせて画面全体のWBを最適化する処理である。   In addition to the above-described face AF, the camera 100 can perform the face AE, the face FE, and the face WB. The face AE is a process for optimizing the exposure of the entire screen in accordance with the brightness of the detected face. The face FE is a process for performing flash light control around the detected face. Furthermore, the face WB is a process of optimizing the WB of the entire screen according to the detected face color.

次に、図1に示すカメラ100における被写体撮影の流れを簡単に説明する。   Next, the flow of subject shooting in the camera 100 shown in FIG. 1 will be briefly described.

図3は、図1に示すカメラ100における被写体撮影の一例を説明するための図である。   FIG. 3 is a diagram for explaining an example of subject photographing by the camera 100 shown in FIG.

撮影の際には、ユーザーは表示部28に表示された被写体画像を目視しつつ、被写体を確認する。そして、ユーザーは表示部28の前面に配置されたタッチパネル302上の被写体位置305をタッチして被写体を指定する。   At the time of shooting, the user checks the subject while viewing the subject image displayed on the display unit 28. Then, the user touches the subject position 305 on the touch panel 302 arranged on the front surface of the display unit 28 and designates the subject.

システム制御部50は、ユーザーによって指定された被写体位置305についてAF、AE、およびAWB(自動撮影設定)などの撮影準備動作(つまり、撮影設定の調整)を行う。続いて、ユーザーは、表示部28の一部に表示される拡大表示画像306を目視して撮影準備動作の結果を確認して、そのまま撮影を実行するか又は必要に応じて再び自動あるいは手動で撮影準備動作を行うかを判断する。そして、ユーザーはカメラ100に撮影又は再び撮影準備動作を実行させる。   The system control unit 50 performs shooting preparation operations (that is, adjustment of shooting settings) such as AF, AE, and AWB (automatic shooting setting) for the subject position 305 designated by the user. Subsequently, the user visually checks the enlarged display image 306 displayed on a part of the display unit 28 and confirms the result of the shooting preparation operation, and executes shooting as it is, or automatically or manually again as necessary. Judge whether to perform shooting preparation operation. Then, the user causes the camera 100 to perform shooting or to perform a shooting preparation operation again.

ここで、ユーザーがカメラ100によるAF結果を確認した後、再AFボタン304を用いて被写体の撮影を行う場合について説明する。   Here, a case will be described in which after the user confirms the AF result by the camera 100, the subject is shot using the re-AF button 304.

図4は、図1にカメラ100における撮影処理を説明するためのフローチャートである。このフローチャートにおける各処理はカメラ100が撮影モードで動作の際、システム制御部50が不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することによって行われる。   FIG. 4 is a flowchart for explaining the photographing process in the camera 100 in FIG. Each process in this flowchart is performed by the system control unit 50 developing and executing a program stored in the nonvolatile memory 56 in the system memory 52 when the camera 100 operates in the shooting mode.

撮影処理を開始すると、システム制御部50は、スルー画像が表示された表示部28(タッチパネル302と一体的に構成されている)に対するタッチダウンがあったか否かを判定する(ステップS401)。タッチダウンがないと(ステップS401において、NO)、システム制御部50は待機する。   When the photographing process is started, the system control unit 50 determines whether or not there is a touchdown on the display unit 28 (configured integrally with the touch panel 302) on which the through image is displayed (step S401). If there is no touchdown (NO in step S401), system control unit 50 stands by.

一方、タッチダウンがあると(ステップS401において、YES)、システム制御部50はタッチダウンされた位置座標をタッチ入力位置座標として取得する(ステップS402)。続いて、システム制御部50は、タッチ入力位置座標が顔領域内であるか否かを判定する(ステップS403)。   On the other hand, if there is a touchdown (YES in step S401), the system control unit 50 acquires the touched position coordinates as touch input position coordinates (step S402). Subsequently, the system control unit 50 determines whether or not the touch input position coordinates are within the face area (step S403).

タッチ入力位置座標(タッチ位置)が顔領域内であると(ステップS403において、YES)、システム制御部50はタッチ位置で検出された顔領域に対してAFを実行する(ステップS404)。一方、タッチ位置が顔領域外であると(ステップS403において、NO)、システム制御部50はタッチ入力位置座標(タッチ位置)から所定の範囲内の領域に対してAFを実行する(ステップS405)。   If the touch input position coordinates (touch position) are within the face area (YES in step S403), system control unit 50 performs AF on the face area detected at the touch position (step S404). On the other hand, when the touch position is outside the face area (NO in step S403), the system control unit 50 performs AF on an area within a predetermined range from the touch input position coordinates (touch position) (step S405). .

ステップS404又はS405の処理を行った後、システム制御部50は、タッチ入力位置座標(タッチ位置)から所定の範囲内にある位置座標周辺領域に係る画像を表示部28に拡大表示する(ステップS406)。これによって、図3に示すように、表示部28にはスルー画像に重畳して拡大表示画像(拡大画像)306が表示される。   After performing the process of step S404 or S405, the system control unit 50 enlarges and displays the image related to the position coordinate peripheral region within the predetermined range from the touch input position coordinate (touch position) on the display unit 28 (step S406). ). As a result, as shown in FIG. 3, an enlarged display image (enlarged image) 306 is displayed on the display unit 28 so as to be superimposed on the through image.

なお、図3に示す拡大画像306は、タッチ位置およびタッチ位置で指定されたフォーカス範囲(AFを行った範囲)には重ならない位置に表示される。例えば、表示部28のうち中央より左側の左側領域と中央より右側の右側領域とのうち、フォーカス位置を指定したタッチ位置から遠い側のエリアに拡大画像306が表示される。ここでは、左側領域がタッチされて左側領域のいずれかでAFが行われた場合には、右側領域に拡大画像306を表示する拡大表示エリアが設定される。   Note that the enlarged image 306 shown in FIG. 3 is displayed at a position that does not overlap the touch position and the focus range (the range where AF is performed) specified by the touch position. For example, the enlarged image 306 is displayed in an area farther from the touch position in which the focus position is specified, in the left side area to the left of the center and the right side area to the right of the center. Here, when the left area is touched and AF is performed in any of the left areas, an enlarged display area for displaying the enlarged image 306 is set in the right area.

続いて、システム制御部50は、ユーザーが再びAFを指示するための再AFボタン304(図3)を表示部28に表示する。ここでは、図3に示すように、スルー画像に重畳して再AFボタン(表示アイテム又はアイテム)304が表示される。   Subsequently, the system control unit 50 displays on the display unit 28 a re-AF button 304 (FIG. 3) for the user to instruct AF again. Here, as shown in FIG. 3, a re-AF button (display item or item) 304 is displayed superimposed on the through image.

この再AFボタン304は、被写体位置を指定する指とは異なる指によるタッチダウン(被写体位置を指定する指をタッチした状態で他の指でタッチする所謂マルチタッチ)によって操作することができる。被写体位置を指定する指と同一の手の指で指定しやすいように、再AFボタン304は、指定された被写体位置に隣接するか又は拡大表示画像306よりも被写体位置に近い位置に表示される。   The re-AF button 304 can be operated by touching down with a finger different from the finger specifying the subject position (so-called multi-touch where the finger specifying the subject position is touched with another finger). The re-AF button 304 is displayed at a position adjacent to the designated subject position or closer to the subject position than the enlarged display image 306 so that it can be easily designated with the finger of the same hand as the finger that designates the subject position. .

次に、システム制御部50はユーザーが再AFボタン304をタッチ操作したか否かを判定する(ステップS408)。再AFボタン304がタッチされると(ステップS408において、YES)、システム制御部50は直前のAF結果をキャンセルして再びAF動作を実行する(ステップS409)。そして、システム制御部50はステップS407の処理に戻る。   Next, the system control unit 50 determines whether or not the user has touched the re-AF button 304 (step S408). When re-AF button 304 is touched (YES in step S408), system control unit 50 cancels the previous AF result and executes the AF operation again (step S409). Then, the system control unit 50 returns to the process of step S407.

一方、所定の時間を経過しても再AFボタンがタッチされないと(ステップS408において、NO)、システム制御部50はユーザーが本撮影実行の指示を行ったか否かを判定する(ステップS410)。この本撮影実行の指示は、全ての指のタッチアップ又はシャッターボタン61を全押しすることによって行われる。つまり、ステップS410では、システム制御部50は全ての指がタッチアップされたか又はシャッターボタン51が全押しされたか(前述のSW2がオンとなったか)否かを判定することになる。なお、スルー画像の撮影と区別するため、ここでの撮影は本撮影と呼ぶ。   On the other hand, if the re-AF button is not touched even after a predetermined time has elapsed (NO in step S408), the system control unit 50 determines whether or not the user has instructed execution of main shooting (step S410). The instruction to execute the main photographing is performed by touching up all fingers or pressing the shutter button 61 fully. That is, in step S410, the system control unit 50 determines whether all fingers have been touched up or the shutter button 51 has been fully pressed (the above-described SW2 is turned on). In addition, in order to distinguish from the shooting of a through image, the shooting here is referred to as main shooting.

本撮影実行指示が行われると(ステップS410において、YES)、システム制御部50は直前のAF結果に基づいて本撮影を実行する(ステップS411)。本撮影においては、撮像部22による撮像の結果得られた画像データについて静止画が生成されて、画像ファイルとして記録媒体200に記録される。本撮影の実行後、システム制御部50はステップS401の処理に戻って、タッチダウンがあったか否かを判定する。   When a main shooting execution instruction is issued (YES in step S410), system control unit 50 executes main shooting based on the immediately preceding AF result (step S411). In the main shooting, a still image is generated for the image data obtained as a result of imaging by the imaging unit 22, and is recorded on the recording medium 200 as an image file. After execution of the main photographing, the system control unit 50 returns to the process of step S401 and determines whether or not there is a touchdown.

一方、所定の時間が経過しても本撮影実行指示がないと(ステップS410において、NO)、システム制御部50はユーザーが本撮影の中止を指示したか否かを判定する(ステップS412)。本撮影の中止指示は、例えば、表示部28に表示されたスルー画像をタッチする指を、表示部28において周辺部に位置する撮影中止指示領域までムーブすることによって行う。   On the other hand, if there is no main shooting execution instruction even after a predetermined time has elapsed (NO in step S410), system control unit 50 determines whether or not the user has instructed to stop main shooting (step S412). The instruction to stop the main shooting is performed by moving a finger touching the through image displayed on the display unit 28 to the shooting stop instruction area located in the periphery of the display unit 28, for example.

ユーザーが撮影中止指示領域までムーブすると、つまり、本撮影の中止指示を行うと(ステップS412において、YES)、システム制御部50は本撮影を行うことなく、つまり、本撮影を中止してステップS401の処理に戻る。一方、所定の時間が経過しても本撮影の中止指示がないと(ステップS412において、YES)、システム制御部50はステップS410の処理に戻って本撮影実行指示があったか否かを判定する。   When the user moves to the shooting stop instruction area, that is, when the main shooting is instructed (YES in step S412), the system control unit 50 stops the main shooting without performing the main shooting, that is, step S401. Return to the process. On the other hand, if there is no instruction to stop the main shooting even after the predetermined time has elapsed (YES in step S412), the system control unit 50 returns to the process of step S410 and determines whether or not there is an instruction to execute the main shooting.

なお、本撮影の中止指示は上記の操作に限るものではなく、前述の特許文献1に記載されたような様々な操作がある。   Note that the instruction to stop the actual photographing is not limited to the above-described operation, and there are various operations as described in Patent Document 1 described above.

このように、本発明の第1の実施形態では、ユーザーがAF実行の結果を確認して、必要に応じて簡易な操作で再びAFを実行することができ、ユーザーの撮影意図に沿った被写体撮影を行うことができる。   As described above, in the first embodiment of the present invention, the user can confirm the AF execution result, and can perform AF again with a simple operation as necessary. Shooting can be performed.

そして、ユーザーは表示部28の被写体位置をタッチした状態で、拡大画像でピントを確認しつつ再AFボタンをタッチすることができる。これによって、ピントの確認が容易になり、さらにユーザーが被写体位置の指示を複数回行うという手間を省くことができる。   The user can touch the re-AF button while confirming the focus on the enlarged image while touching the subject position on the display unit 28. This makes it easy to check the focus and further saves the user from having to instruct the subject position a plurality of times.

さらに、被写体位置を指示した状態で、再AFの操作を行うことができる。例えば、タッチ操作(タッチダウン)によって被写体位置を指定してAFを実行させ、タッチを離す操作(タッチアップ)によって本撮影を実行する所謂タッチアップ撮影における操作性を改善することができる。   Furthermore, the re-AF operation can be performed in a state where the subject position is instructed. For example, it is possible to improve operability in so-called touch-up shooting in which AF is performed by designating a subject position by a touch operation (touch down) and main shooting is performed by an operation of releasing the touch (touch up).

前述のように、図4で説明した撮影処理ではAFを実行した後、ステップS407において自動的に再AFボタン304を表示部28に表示している。これによって、AFの結果に拘わらず、ユーザーは直ぐに再AFを実行することができるようになり、シャッターチャンスを逃すことなく本撮影を行うことができる。   As described above, in the photographing process described with reference to FIG. 4, after the AF is executed, the re-AF button 304 is automatically displayed on the display unit 28 in step S407. As a result, regardless of the AF result, the user can immediately perform the re-AF, and can perform the actual photographing without missing the photo opportunity.

一方、AFの結果が非合焦であった際に、上述の再AFボタン304を表示部28に表示するようにしてもよい。   On the other hand, when the AF result is out of focus, the above-described re-AF button 304 may be displayed on the display unit 28.

図5は、図1に示すカメラ100における撮影処理の他の例を説明するためのフローチャートである。なお、図5に示すフローチャートにおいて、図4に示すステップと同一の処理については同一の参照符号を付して説明を省略する。   FIG. 5 is a flowchart for explaining another example of the photographing process in the camera 100 shown in FIG. In the flowchart shown in FIG. 5, the same processes as those in the steps shown in FIG.

図4で説明したようにして、ステップS404又はS405の処理を行った後、システム制御部50は、直前の撮影準備動作におけるAFの結果が合焦であるか否かを判定する(ステップS501)。AFの結果が合焦であると(ステップS501において、YES)、システム制御部はステップS410の処理に進んで、本撮影実行指示があったか否かを判定する。   As described with reference to FIG. 4, after performing the process of step S404 or S405, the system control unit 50 determines whether or not the AF result in the immediately preceding shooting preparation operation is in focus (step S501). . If the AF result is in focus (YES in step S501), the system control unit proceeds to the process of step S410, and determines whether or not a main photographing execution instruction has been issued.

一方、AFの結果が非合焦であると(ステップS501において、NO)、システム制御部50はステップS406の処理に進んで、タッチ入力位置座標から所定の範囲内にある位置座標周辺領域に係る画像を表示部28に拡大表示する。その後、システム制御部50はステップS407の処理に進んで、再AFボタン304を表示部28に表示する。   On the other hand, if the AF result is out of focus (NO in step S501), the system control unit 50 proceeds to the process of step S406, and relates to the position coordinate peripheral region within the predetermined range from the touch input position coordinate. The image is enlarged and displayed on the display unit 28. Thereafter, the system control unit 50 proceeds to the process of step S407 and displays the re-AF button 304 on the display unit 28.

このように、AFの結果が非合焦であった場合にのみ、再AFボタン304を表示部28に表示するようにしたので、合焦の際に被写体の拡大表示および再AFボタンの表示によってライブビュー表示が遮られて、被写体の確認がしづらくなるという事態を回避することができる。   As described above, the re-AF button 304 is displayed on the display unit 28 only when the AF result is out-of-focus, so that when the subject is in focus, the subject is enlarged and the re-AF button is displayed. It is possible to avoid a situation where the live view display is blocked and it is difficult to check the subject.

なお、上述の第1の実施形態では、再AFボタン304がタッチされた際、一度だけ焦点検出を行うシングルAFを行うが、例えば、本撮影が実行されるまで、自動的にピントを合わせ続ける所謂サーボAFを行わせるためのサーボAFボタンを表示部28に表示するようにしてもよい。ここでは、図4に示すステップS407において、表示部28にサーボAFボタンが表示されることになる。   In the first embodiment described above, when the re-AF button 304 is touched, single AF that performs focus detection only once is performed. However, for example, the automatic focusing is continued until the actual photographing is executed. A servo AF button for performing so-called servo AF may be displayed on the display unit 28. Here, the servo AF button is displayed on the display unit 28 in step S407 shown in FIG.

サーボAFボタンを表示するようにすれば、例えば、動きのある被写体の撮影の際にユーザーが再AFを繰り返すという手間を省くことができる。   If the servo AF button is displayed, for example, it is possible to save the user from repeating the re-AF when shooting a moving subject.

また、第1の実施形態においては、AFの再調整を行う場合について説明したが、再調整の対象となる撮影準備動作としてAE又はAWBを行うようにしてもよい。   In the first embodiment, the case of performing AF readjustment has been described. However, AE or AWB may be performed as a shooting preparation operation to be readjusted.

[第2の実施形態]
次に、本発明の第2の実施形態によるカメラの一例について説明する。なお、第2の実施形態によるカメラの構成は図1および図2に示すカメラと同様である。そして、第2の実施形態では、ユーザーがAFの結果を確認した後、ピントを手動調整して本撮影を行う場合について説明する。
[Second Embodiment]
Next, an example of a camera according to the second embodiment of the present invention will be described. The configuration of the camera according to the second embodiment is the same as that of the camera shown in FIGS. In the second embodiment, a case will be described in which after the user confirms the AF result, the focus is manually adjusted to perform the main photographing.

図6は、本発明の第2の実施形態によるカメラで行われる撮影処理の一例を説明するためのフローチャートである。図6に示すフローチャートにおける処理はカメラ100が撮影モードで動作の際に、システム制御部50が不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより行われる。   FIG. 6 is a flowchart for explaining an example of a photographing process performed by the camera according to the second embodiment of the present invention. The processing in the flowchart shown in FIG. 6 is performed by the system control unit 50 developing the program stored in the nonvolatile memory 56 in the system memory 52 and executing it when the camera 100 operates in the shooting mode.

なお、図6に示すフローチャートにおいて、図4に示すステップと同一の処理については同一の参照符号を付して説明を省略する。   In the flowchart shown in FIG. 6, the same processes as those in the step shown in FIG.

図4で説明したようにして、ステップS404又はS405の処理を行った後、システム制御部50は、ステップS406でタッチ入力位置座標から所定の範囲内にある位置座標周辺領域に係る画像を表示部28に拡大表示する。続いて、システム制御部50は、表示部28にユーザーがMF(マニュアルフォーカス)調整を行うためのMF調整バーを表示する(ステップS601)。   As described with reference to FIG. 4, after performing the processing of step S404 or S405, the system control unit 50 displays an image related to the position coordinate peripheral region within the predetermined range from the touch input position coordinate in step S406. 28 is enlarged and displayed. Subsequently, the system control unit 50 displays an MF adjustment bar for the user to perform MF (manual focus) adjustment on the display unit 28 (step S601).

このMF調整バーは、例えば、図3に示す再AFボタン304と同様の位置に表示される。つまり、MF調整バーはタッチ入力位置座標と拡大画像が表示される表示領域を除く領域に表示される。   For example, the MF adjustment bar is displayed at the same position as the re-AF button 304 shown in FIG. That is, the MF adjustment bar is displayed in an area other than the display area where the touch input position coordinates and the enlarged image are displayed.

次に、システム制御部50はユーザーがMF調整バーをタッチ操作したか否かを判定する(ステップS602)。MF調整バーがタッチ操作されると(ステップS602において、YES)、システム制御部50は直前のAF結果をキャンセルして、MF調整モードに移行する。そして、システム制御部50はユーザーによるMF調整バーの操作に応じてMF調整を実行する(ステップS603)。MF調整の後、システム制御部50はステップS601の処理に戻って、再び表示部28にMF調整バーを表示する。   Next, the system control unit 50 determines whether the user has touched the MF adjustment bar (step S602). When the MF adjustment bar is touched (YES in step S602), system control unit 50 cancels the previous AF result and shifts to MF adjustment mode. Then, the system control unit 50 performs MF adjustment according to the operation of the MF adjustment bar by the user (step S603). After the MF adjustment, the system control unit 50 returns to the process of step S601 and displays the MF adjustment bar on the display unit 28 again.

予め設定された時間が経過しても、ユーザーがMF調整バーをタッチ操作しないと(ステップS602において、NO)、システム制御部50は、図4で説明したステップS410の処理に進んで、本撮影実行指示があったか否かを判定する。   If the user does not touch the MF adjustment bar even after the preset time has elapsed (NO in step S602), the system control unit 50 proceeds to the process of step S410 described in FIG. It is determined whether or not there is an execution instruction.

このように、本発明の第2の実施形態では、ユーザーがAF結果を確認して、当該確認の結果、必要に応じて本撮影の前にMF調整を行うことができる。よって、ユーザーの撮影意図に沿った被写の体撮影を行うことができる。   As described above, in the second embodiment of the present invention, the user can confirm the AF result, and as a result of the confirmation, MF adjustment can be performed before the actual photographing as necessary. Accordingly, it is possible to perform body photographing of the subject in accordance with the user's photographing intention.

さらに、ユーザーは表示部28の被写体位置をタッチした状態で、拡大画像でピントを確認しつつMF調整バーをタッチすることができる。これによって、ピントの確認が容易になり、さらにユーザーが被写体位置の指示を複数回行うという手間を省くことができる。さらに、被写体位置を指示した状態で、MF調整のための操作を行うことができる。例えば、タッチ操作(タッチダウン)によって被写体位置を指定してAFを実行させた後、MF調整バーをタッチ操作すれば本撮影を実行する前に容易にMF調整を行うことができる。   Further, the user can touch the MF adjustment bar while confirming the focus on the enlarged image while touching the subject position on the display unit 28. This makes it easy to check the focus and further saves the user from having to instruct the subject position a plurality of times. Furthermore, an operation for MF adjustment can be performed in a state where the subject position is instructed. For example, if AF is performed by specifying a subject position by a touch operation (touch down), MF adjustment can be easily performed before actual shooting is performed by touching an MF adjustment bar.

ところで、図6に示すフローチャートでは、AFが行われた後、自動的にMF調整バーが表示部28に表示される。このため、ユーザーは必要に応じてMF調整を行うことができ、シャッターチャンスを逃すことなく本撮影を実行することができる。   Incidentally, in the flowchart shown in FIG. 6, after AF is performed, the MF adjustment bar is automatically displayed on the display unit 28. For this reason, the user can perform MF adjustment as necessary, and can perform the main photographing without missing a photo opportunity.

一方、AFの結果が非合焦であった際に、上述のMF調整バーを表示部28に表示するようにしてもよい。   On the other hand, when the AF result is out of focus, the above-described MF adjustment bar may be displayed on the display unit 28.

図7は、本発明の第2の実施形態によるカメラで行われる撮影処理の他の例を説明するためのフローチャートである。なお、図7に示すフローチャートにおいて、図4〜図6に示すステップと同一の処理については同一の参照符号を付して説明を省略する。   FIG. 7 is a flowchart for explaining another example of the photographing process performed by the camera according to the second embodiment of the present invention. In the flowchart shown in FIG. 7, the same processes as those shown in FIG. 4 to FIG.

図5で説明したように、ステップS404又はS405の後、システム制御部50は、ステップS501において直前の撮影準備動作におけるAFの結果が合焦であるか否かを判定する。AFの結果が合焦であれば、システム制御部はステップS410の処理に進んで、本撮影実行指示があったか否かを判定することになる。   As described with reference to FIG. 5, after step S404 or S405, the system control unit 50 determines whether or not the AF result in the immediately preceding shooting preparation operation is in focus in step S501. If the AF result is in focus, the system control unit proceeds to the process of step S410, and determines whether or not there has been a main shooting execution instruction.

一方、AFの結果が非合焦であると、システム制御部50はステップS406の処理に進んで、タッチ入力位置座標から所定の範囲内にある位置座標周辺領域に係る画像を表示部28に拡大表示する。その後、システム制御部50はステップS601の処理に進んで、MF調整バーを表示部28に表示し、ステップS602でユーザーがMF調整バーをタッチ操作したか否かを判定することになる。   On the other hand, if the AF result is out of focus, the system control unit 50 proceeds to the process of step S406 and enlarges the image related to the position coordinate peripheral region within the predetermined range from the touch input position coordinate on the display unit 28. indicate. Thereafter, the system control unit 50 proceeds to the process of step S601, displays the MF adjustment bar on the display unit 28, and determines whether or not the user has touched the MF adjustment bar in step S602.

このように、AFの結果が非合焦であった場合にのみ、MF調整バーを表示部28に表示するようにしたので、合焦の際に被写体の拡大表示およびMF調整バーの表示によってライブビュー表示が遮られて、被写体の確認がしづらくなるという事態を回避することができる。   As described above, the MF adjustment bar is displayed on the display unit 28 only when the AF result is out-of-focus. Therefore, the live view is displayed by the enlarged display of the subject and the display of the MF adjustment bar at the time of focusing. It is possible to avoid a situation in which the view display is blocked and it is difficult to check the subject.

なお、第2の実施形態においては、MF調整を行う場合について説明したが、マニュアル調整の対象となる撮影準備動作として露出調整又はホワイトバランス調整を行うようにしてもよい。   In the second embodiment, the case where the MF adjustment is performed has been described. However, the exposure adjustment or the white balance adjustment may be performed as a shooting preparation operation to be manually adjusted.

上述の説明から明らかなように、図2に示す例では、少なくとも撮影レンズ103、シャッター101、撮像部22、およびA/D変換器23が撮像手段を構成する。また、画像処理部24、メモリ制御部15、およびシステム制御部50は撮影準備手段、撮影処理手段、検出手段、表示制御手段、および制御手段として機能することになる。   As is clear from the above description, in the example shown in FIG. 2, at least the photographing lens 103, the shutter 101, the imaging unit 22, and the A / D converter 23 constitute an imaging unit. Further, the image processing unit 24, the memory control unit 15, and the system control unit 50 function as shooting preparation means, shooting processing means, detection means, display control means, and control means.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

なお、上述のシステム制御部50による制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。   Note that the control by the system control unit 50 described above may be performed by one piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。   Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention are also included in the present invention. included. Furthermore, each embodiment mentioned above shows only one embodiment of this invention, and it is also possible to combine each embodiment suitably.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例に挙げて説明したが、この例に限定されず、撮像手段を有する電子機器であれば適用可能である。例えば、本発明は携帯電話端末などのカメラが付属する各種端末機器に適用することができる。   In the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example. However, the present invention is not limited to this example, and can be applied to any electronic device having an imaging unit. For example, the present invention can be applied to various terminal devices attached with a camera such as a mobile phone terminal.

[他の実施形態]
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
[Other Embodiments]
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program code. It is a process to be executed. In this case, the program and the storage medium storing the program constitute the present invention.

15 メモリ制御部
22 撮像部
24 画像処理部
28 表示部
50 システム制御部
60 モード切替スイッチ
61 シャッターボタン
70 操作部
72 電源スイッチ
80 電源制御部
DESCRIPTION OF SYMBOLS 15 Memory control part 22 Imaging part 24 Image processing part 28 Display part 50 System control part 60 Mode switch 61 Shutter button 70 Operation part 72 Power switch 80 Power control part

Claims (10)

被写体を撮影して画像データを得る撮像手段と、
前記撮像手段による撮影の際に特定の撮影設定の調整を行う撮影準備手段と、
前記撮影準備手段によって調整された撮影設定に基づいて前記撮像手段による撮影を行って、当該撮影の結果として得られた画像データを記録媒体に記録する撮影処理を行う撮影処理手段と、
前記画像データに応じたスルー画像が表示される表示手段に対するタッチ操作を検出可能な検出手段と、
前記表示手段に表示されたスルー画像に対するタッチダウンが前記検出手段により検知されると、当該タッチダウンされた位置を含む所定の範囲の領域を拡大画像として前記表示手段に拡大して表示し、かつ前記撮影準備手段による前記撮影設定の調整のやり直しを指示するための表示アイテムを前記表示手段に表示するように制御する表示制御手段と、
前記表示手段に表示されたスルー画像に対する前記タッチダウンが前記検出手段により検知されると、当該タッチダウンされた位置に応じて前記撮影準備手段による前記撮影設定の調整を行い、該タッチダウンに応じて前記表示制御手段によって表示された前記表示アイテムに対するタッチ操作に応じて、前記撮影準備手段による前記撮影設定の調整を再び行って、前記タッチダウンの後に前記タッチダウンがなくなったことが前記検出手段により検出されると、前記撮影処理手段による前記撮影処理を行うように制御する制御手段と、
を有することを特徴とする撮像装置。
Imaging means for capturing a subject and obtaining image data;
Shooting preparation means for adjusting specific shooting settings at the time of shooting by the imaging means;
Photographing processing means for performing photographing processing for performing photographing by the imaging means based on the photographing setting adjusted by the photographing preparation means and recording image data obtained as a result of the photographing on a recording medium;
Detection means capable of detecting a touch operation on a display means on which a through image corresponding to the image data is displayed;
When a touchdown with respect to the through image displayed on the display unit is detected by the detection unit, an area of a predetermined range including the touched-down position is enlarged and displayed on the display unit as an enlarged image; and Display control means for controlling the display means to display a display item for instructing re-adjustment of the shooting setting by the shooting preparation means;
When the touchdown for the through image displayed on the display unit is detected by the detection unit, the shooting setting unit adjusts the shooting setting according to the touched-down position, and responds to the touchdown. In response to a touch operation on the display item displayed by the display control unit, the photographing setting is adjusted again by the photographing preparation unit, and it is detected that the touchdown is lost after the touchdown. Control means for controlling to perform the photographing processing by the photographing processing means,
An imaging device comprising:
前記表示制御手段は、前記タッチダウンされた位置および前記拡大画像が表示される領域を除く領域に前記表示アイテムを表示することを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the display control unit displays the display item in an area excluding an area where the touched-down position and the enlarged image are displayed. 前記表示制御手段は、前記タッチダウンされた位置に応じた前記撮影準備手段による前記撮影設定の調整が所定の調整となっていない場合に、前記表示手段に前記拡大画像および前記表示アイテムを表示することを特徴とする請求項1又は2に記載の撮像装置。   The display control unit displays the enlarged image and the display item on the display unit when the adjustment of the shooting setting by the shooting preparation unit according to the touched-down position is not a predetermined adjustment. The imaging apparatus according to claim 1 or 2, wherein 前記タッチダウンされた位置に応じた前記撮影準備手段による前記撮影設定の調整が所定の調整となっていると、前記表示制御手段は前記表示手段に前記拡大画像および前記表示アイテムを表示しないことを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   When the adjustment of the shooting setting by the shooting preparation unit according to the touched-down position is a predetermined adjustment, the display control unit does not display the enlarged image and the display item on the display unit. The imaging apparatus according to any one of claims 1 to 3, wherein the imaging apparatus is characterized. 前記制御手段は、前記タッチダウンされた位置に応じた前記撮影準備手段による前記撮影設定の調整が所定の調整となっていると、前記タッチダウンの後に前記タッチダウンがなくなったことが前記検出手段により検出されると、前記撮影処理手段による前記撮影処理を行うように制御することを特徴とする請求項4に記載の撮像装置。   When the adjustment of the shooting setting by the shooting preparation unit according to the touched-down position is a predetermined adjustment, the control unit detects that the touchdown is lost after the touchdown. The imaging apparatus according to claim 4, wherein the imaging processing unit performs control so that the imaging processing is performed when detected by the imaging processing unit. 前記特定の撮影設定はAF、AE、およびAWBの少なくとも一つである自動撮影設定であり、
前記表示アイテムは前記撮影準備手段による前記自動撮影設定の調整のやり直しを指示するためのアイテムであることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The specific shooting setting is an automatic shooting setting that is at least one of AF, AE, and AWB;
The imaging apparatus according to claim 1, wherein the display item is an item for instructing re-adjustment of the automatic shooting setting by the shooting preparation unit.
前記特定の撮影設定はAF、AE、およびAWBの少なくとも一つである自動撮影設定であり、
前記表示アイテムは前記撮影準備手段にマニュアルによる前記撮影設定の調整のやり直しを指示するためのアイテムであることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。
The specific shooting setting is an automatic shooting setting that is at least one of AF, AE, and AWB;
The imaging apparatus according to claim 1, wherein the display item is an item for instructing the imaging preparation unit to redo the adjustment of the imaging setting manually.
被写体を撮影して画像データを得る撮像手段を備える撮像装置の制御方法であって、
前記撮像手段による撮影の際に特定の撮影設定の調整を行う撮影準備ステップと、
前記撮影準備ステップで調整された撮影設定に基づいて前記撮像手段による撮影を行って、当該撮影の結果として得られた画像データを記録媒体に記録する撮影処理を行う撮影処理ステップと、
前記画像データに応じたスルー画像が表示される表示手段に対するタッチ操作を検出する検出ステップと、
前記表示手段に表示されたスルー画像に対するタッチダウンが前記検出ステップで検知されると、当該タッチダウンされた位置を含む所定の範囲の領域を拡大画像として前記表示手段に拡大して表示し、かつ前記撮影準備ステップにおける前記撮影設定の調整のやり直しを指示するための表示アイテムを前記表示手段に表示するように制御する表示制御ステップと、
前記表示手段に表示されたスルー画像に対する前記タッチダウンが前記検出ステップで検知されると、当該タッチダウンされた位置に応じて前記撮影準備ステップにおける前記撮影設定の調整を行い、該タッチダウンに応じて前記表示制御ステップで表示された前記表示アイテムに対するタッチ操作に応じて、前記撮影準備ステップで前記撮影設定の調整を再び行って、前記タッチダウンの後に前記タッチダウンがなくなったことが前記検出ステップで検出されると、前記撮影処理ステップによる前記撮影処理を行うように制御する制御ステップと、
を有することを特徴とする制御方法。
A method for controlling an imaging apparatus including an imaging unit that captures an image of a subject and obtains image data,
A shooting preparation step of adjusting specific shooting settings at the time of shooting by the imaging means;
A shooting process step of performing a shooting process in which shooting is performed by the imaging unit based on the shooting setting adjusted in the shooting preparation step, and image data obtained as a result of the shooting is recorded in a recording medium;
A detection step of detecting a touch operation on a display unit on which a through image corresponding to the image data is displayed;
When a touchdown with respect to the through image displayed on the display means is detected in the detection step, an area of a predetermined range including the touched-down position is enlarged and displayed on the display means as an enlarged image; and A display control step for controlling the display means to display a display item for instructing re-adjustment of the shooting setting in the shooting preparation step;
When the touchdown with respect to the through image displayed on the display means is detected in the detection step, the shooting setting in the shooting preparation step is adjusted according to the touchdown position, and the touchdown is performed. In response to a touch operation on the display item displayed in the display control step, the shooting setting is adjusted again in the shooting preparation step, and the detection step is performed after the touchdown. A control step for controlling to perform the shooting process by the shooting process step;
A control method characterized by comprising:
コンピュータを、請求項1乃至7のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the imaging device described in any one of Claims 1 thru | or 7. コンピュータを、請求項1乃至7のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to function as each unit of the imaging apparatus according to any one of claims 1 to 7.
JP2012265171A 2012-12-04 2012-12-04 Image pickup device, control method, and program therefor, and recording medium Pending JP2014110596A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012265171A JP2014110596A (en) 2012-12-04 2012-12-04 Image pickup device, control method, and program therefor, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012265171A JP2014110596A (en) 2012-12-04 2012-12-04 Image pickup device, control method, and program therefor, and recording medium

Publications (1)

Publication Number Publication Date
JP2014110596A true JP2014110596A (en) 2014-06-12

Family

ID=51030968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012265171A Pending JP2014110596A (en) 2012-12-04 2012-12-04 Image pickup device, control method, and program therefor, and recording medium

Country Status (1)

Country Link
JP (1) JP2014110596A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016065998A (en) * 2014-09-25 2016-04-28 株式会社ニコン Imaging device and imaging program
CN106257913A (en) * 2015-06-18 2016-12-28 佳能株式会社 Imaging-control apparatus and control method thereof
JPWO2021044638A1 (en) * 2019-09-05 2021-03-11
US11874177B2 (en) 2018-04-20 2024-01-16 Panasonic Intellectual Property Management Co., Ltd. Image display device and image display method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016065998A (en) * 2014-09-25 2016-04-28 株式会社ニコン Imaging device and imaging program
CN106257913A (en) * 2015-06-18 2016-12-28 佳能株式会社 Imaging-control apparatus and control method thereof
JP2017011401A (en) * 2015-06-18 2017-01-12 キヤノン株式会社 Imaging control apparatus, control method of the same, and program
CN106257913B (en) * 2015-06-18 2020-03-27 佳能株式会社 Image pickup control apparatus and control method thereof
US11874177B2 (en) 2018-04-20 2024-01-16 Panasonic Intellectual Property Management Co., Ltd. Image display device and image display method
JPWO2021044638A1 (en) * 2019-09-05 2021-03-11
WO2021044638A1 (en) * 2019-09-05 2021-03-11 ソニー株式会社 Photographing program, information processing device, and method
JP7315010B2 (en) 2019-09-05 2023-07-26 ソニーグループ株式会社 Imaging program, information processing device, and method
US11889179B2 (en) 2019-09-05 2024-01-30 Sony Group Corporation Image capturing program, information processing device, and method for changing an image capturing parameter of a camera

Similar Documents

Publication Publication Date Title
US9013618B2 (en) Image pickup apparatus and its control method
US9569814B2 (en) Display control apparatus, image capture apparatus, display control method, and image capture apparatus control method
US9398222B2 (en) Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus
JP2018125612A (en) Imaging apparatus and control method thereof
JP2014228629A (en) Imaging apparatus, control method and program thereof, and storage medium
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
US9992405B2 (en) Image capture control apparatus and control method of the same
JP6460868B2 (en) Display control apparatus and control method thereof
JP2014017665A (en) Display control unit, control method for display control unit, program, and recording medium
JP2014110596A (en) Image pickup device, control method, and program therefor, and recording medium
JP2009060291A (en) Image processing apparatus, image processing method and program
US8866934B2 (en) Image pickup apparatus capable of deleting video effect superimposed on moving image, method of controlling the apparatus, and moving image-recording apparatus, as well as storage medium
JP5575290B2 (en) Imaging apparatus and control method thereof
JP6768449B2 (en) Imaging control device, control method and program of imaging device
JP2018107753A (en) Imaging control device and method for controlling the same
US9088762B2 (en) Image capturing apparatus and control method thereof
JP5863418B2 (en) Imaging apparatus and control method thereof
JP6851788B2 (en) Focus control device, control method and program of focus control device
JP2017120942A (en) Imaging apparatus
JP6711599B2 (en) Imaging device, control method thereof, program, and storage medium
JP6472248B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2015133625A (en) Image reproduction device, control method, and control program thereof
JP5832280B2 (en) Display control apparatus, control method therefor, program, and storage medium
JP2016201710A (en) Imaging apparatus
JP2013161003A (en) Imaging apparatus