JP2018006803A - Imaging apparatus, control method for imaging apparatus, and program - Google Patents

Imaging apparatus, control method for imaging apparatus, and program Download PDF

Info

Publication number
JP2018006803A
JP2018006803A JP2016126561A JP2016126561A JP2018006803A JP 2018006803 A JP2018006803 A JP 2018006803A JP 2016126561 A JP2016126561 A JP 2016126561A JP 2016126561 A JP2016126561 A JP 2016126561A JP 2018006803 A JP2018006803 A JP 2018006803A
Authority
JP
Japan
Prior art keywords
subject
touch
unit
pressure
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016126561A
Other languages
Japanese (ja)
Other versions
JP6679430B2 (en
Inventor
横山 俊一
Shunichi Yokoyama
俊一 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016126561A priority Critical patent/JP6679430B2/en
Publication of JP2018006803A publication Critical patent/JP2018006803A/en
Application granted granted Critical
Publication of JP6679430B2 publication Critical patent/JP6679430B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Lens Barrels (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate selection of a subject to be a focus object through a touch operation.SOLUTION: A digital camera 100 comprises: an imaging device 105 or the like for acquiring a subject image; a display device 110 including a touch panel 112 and a display part 111 for displaying the subject image; a touch panel control part 114 for detecting a touch operation and a touch pressure onto the display device 110; a subject detection part 107 for detecting subjects within a predetermined distance range around a touch position; a distance information generation part 108 for measuring a distance to the subject; a CPU 113 for selecting a subject to be focused from among the subjects detected by the subject detection part 107 in accordance with a magnitude of the detected touch pressure; and a lens control part 104 for focusing the subject selected by the CPU 113 based on the distance information that is acquired by the distance information generation part 108.SELECTED DRAWING: Figure 3

Description

本発明は、撮像装置、撮像装置の制御方法及びプログラムに関し、特に、タッチ圧力を検出可能なタッチパネルを備える撮像装置に関する。   The present invention relates to an imaging apparatus, an imaging apparatus control method, and a program, and more particularly, to an imaging apparatus including a touch panel capable of detecting a touch pressure.

デジタルカメラ等の撮像装置には、撮影時に被写体を表示する液晶パネル等の表示装置が設けられており、ユーザ(撮影者)は表示装置の画面を確認しながら撮影操作を行うことができる。撮影時には、例えば、手前に樹木の枝葉や花、人物が写り込むと同時に、その奥に山々や建造物群等の背景が写り込む構図のように、奥行き方向に存在する複数の被写体が重なって表示装置に表示されることが多々ある。このような場合に、複数の被写体の中からユーザが選択した所望の被写体にフォーカスを合わせるためにユーザが行う操作をアシストする技術が提案されている。例えば、特許文献1には、ユーザのレンズ操作に応じて、表示装置の画面上のコントラスト情報を表示することにより、フォーカス対象となる被写体の選択をアシストする技術が提案されている。   An imaging device such as a digital camera is provided with a display device such as a liquid crystal panel that displays a subject at the time of shooting, and a user (photographer) can perform a shooting operation while checking the screen of the display device. At the time of shooting, for example, multiple subjects existing in the depth direction overlap each other, such as a composition in which trees, leaves, flowers, and people appear in the foreground and mountains and buildings in the background appear in the background. It is often displayed on a display device. In such a case, a technique for assisting an operation performed by the user in order to focus on a desired subject selected by the user from among a plurality of subjects has been proposed. For example, Patent Document 1 proposes a technique for assisting selection of a subject to be focused by displaying contrast information on a screen of a display device in accordance with a user's lens operation.

特許第4374574号公報Japanese Patent No. 4374574

しかしながら、上記特許文献1に記載された技術は、ユーザが手動でレンズを操作する撮像装置を前提としている。そのため、ユーザがフォーカスを合わせたい被写体領域の選択を、表示装置に対する指先等によるタッチ操作によって行う撮像装置には適用することができない。   However, the technique described in Patent Document 1 is based on an imaging apparatus in which a user manually operates a lens. For this reason, the selection of the subject area that the user wants to focus on cannot be applied to an imaging apparatus that performs a touch operation with a fingertip or the like on the display apparatus.

本発明は、フォーカス対象となる被写体のタッチ操作による選択を容易にする技術を提供することを目的とする。   An object of the present invention is to provide a technique that facilitates selection by a touch operation of a subject to be focused.

本発明に係る撮像装置は、被写体像を取得する取得手段と、タッチパネルを含み、前記取得手段が取得した被写体像を表示する表示手段と、前記表示手段へのタッチ操作を検出するタッチ検出手段と、前記表示手段に対するタッチ圧力を検出する圧力検出手段と、前記表示手段に対するタッチ位置を中心とした所定の距離範囲内の被写体を検出する被写体検出手段と、前記被写体検出手段により検出された被写体までの距離を測定する測距手段と、前記圧力検出手段によって検出されたタッチ圧力の大きさに応じて、前記被写体検出手段により検出された被写体の中からフォーカスを合わせる被写体を選択する選択手段と、前記測距手段が取得した距離情報に基づいて前記選択手段によって選択された被写体にフォーカスを合わせるフォーカス手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention includes an acquisition unit that acquires a subject image, a touch panel, a display unit that displays the subject image acquired by the acquisition unit, and a touch detection unit that detects a touch operation on the display unit. A pressure detection means for detecting a touch pressure on the display means; a subject detection means for detecting a subject within a predetermined distance range centered on a touch position on the display means; and a subject detected by the subject detection means. A distance measuring means for measuring the distance, and a selecting means for selecting a subject to be focused from among the objects detected by the object detecting means according to the magnitude of the touch pressure detected by the pressure detecting means, Focuser that focuses on the subject selected by the selection means based on the distance information acquired by the distance measurement means Characterized in that it comprises a means.

本発明によれば、表示装置の画面に複数の被写体が重なって表示されている場合であっても、表示装置の画面に対するタッチ操作によりフォーカス対象となる被写体を容易に選択することができる。   According to the present invention, even when a plurality of subjects are displayed on the screen of the display device, the subject to be focused can be easily selected by a touch operation on the screen of the display device.

本発明の実施形態に係るデジタルカメラの概略構成を示すブロック図である。1 is a block diagram illustrating a schematic configuration of a digital camera according to an embodiment of the present invention. デジタルカメラの外観構成を示す正面図と背面図である。It is the front view and back view which show the external appearance structure of a digital camera. デジタルカメラでの撮影時にフォーカスを合わせる被写体を決定する処理を説明するフローチャートである。6 is a flowchart for describing processing for determining a subject to be focused upon when shooting with a digital camera. デジタルカメラにおいて生成される距離マップを説明する図である。It is a figure explaining the distance map produced | generated in a digital camera. ステップS304での被写体検出処理を説明する図である。It is a figure explaining the to-be-photographed object detection process in step S304. ステップS304で検出された被写体からフォーカス対象を選択する過程を説明する図である。It is a figure explaining the process which selects a focus object from the to-be-photographed object detected by step S304. ステップS304で決定されたフォーカス対象の表示例を示す図である。It is a figure which shows the example of a display of the focus object determined by step S304. デジタルカメラでの別の撮影動作を説明するフローチャートである。It is a flowchart explaining another imaging operation with a digital camera.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。ここでは、本発明に係る撮像装置として、所謂、デジタルカメラを取り上げる。但し、本発明は、これに限定されるものではなく、タッチパネルを備える液晶パネルや有機ELパネル等の表示装置を有すると共に光電変換素子による撮像機能を有する各種の電子機器への適用が可能である。例えば、本発明に係る撮像装置は、デジタルビデオカメラ、スマートフォン、携帯電話、パーソナルコンピュータ(タブレット端末、モバイル端末等)、ゲーム機等の各種の電子機器にも適用が可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Here, a so-called digital camera is taken up as an imaging apparatus according to the present invention. However, the present invention is not limited to this, and can be applied to various electronic devices that have a display device such as a liquid crystal panel or an organic EL panel including a touch panel and have an imaging function using a photoelectric conversion element. . For example, the imaging apparatus according to the present invention can also be applied to various electronic devices such as a digital video camera, a smartphone, a mobile phone, a personal computer (tablet terminal, mobile terminal, etc.), and a game machine.

図1は、本発明の実施形態に係るデジタルカメラ100の概略構成を示すブロック図である。デジタルカメラ100は、DRAM101、データバス102、レンズユニット103、レンズ制御部104、撮像素子105、カメラ信号処理部106、被写体検出部107、距離情報生成部108、表示制御部109及び表示装置110を備える。表示装置110は、表示部111とタッチパネル112を備える。デジタルカメラ100はまた、CPU113、タッチパネル制御部114、操作部115、プログラムバス116、ROM117、RAM118、制御バス119及びメディアIF部120を備える。デジタルカメラ100に対して、メモリカード(半導体記憶装置)等の記憶媒体150の着脱が可能となっている。   FIG. 1 is a block diagram showing a schematic configuration of a digital camera 100 according to an embodiment of the present invention. The digital camera 100 includes a DRAM 101, a data bus 102, a lens unit 103, a lens control unit 104, an image sensor 105, a camera signal processing unit 106, a subject detection unit 107, a distance information generation unit 108, a display control unit 109, and a display device 110. Prepare. The display device 110 includes a display unit 111 and a touch panel 112. The digital camera 100 also includes a CPU 113, a touch panel control unit 114, an operation unit 115, a program bus 116, a ROM 117, a RAM 118, a control bus 119, and a media IF unit 120. A storage medium 150 such as a memory card (semiconductor storage device) can be attached to and detached from the digital camera 100.

DRAM101は、デジタルカメラ100のメインメモリであり、画像データ等を一時保存する。データバス102は、DRAM101へのアクセスするための伝送路である。レンズユニット103は、被写体を撮影するための撮影光路を形成するズームレンズやフォーカスレンズ、像ぶれ補正レンズ、絞り等を含み、レンズユニット103を通過した光は、被写体の光学像として撮像素子105に結像する。レンズ制御部104は、レンズユニット103の動作制御を司り、ズームレンズの駆動による画角調整やフォーカスレンズの駆動によるオートフォーカス等を行う。撮像素子105は、結像した光学像をアナログ電気信号に変換するCCDセンサ又はCMOSセンサ等の光電変換素子である。撮像素子105には、撮像面の各画素の信号を分割して取り込む位相差検出用センサが埋め込まれており、各画素単位で位相差信号を出力することができるように構成されている。なお、本実施形態では、撮像素子105は、A/D変換器を有しており、光電変換により生成したアナログ電気信号をA/D変換によりデジタルデータ(撮像データ)へ変換してDRAM101へ一時保存することができるように構成されているものとする。   The DRAM 101 is a main memory of the digital camera 100, and temporarily stores image data and the like. The data bus 102 is a transmission path for accessing the DRAM 101. The lens unit 103 includes a zoom lens, a focus lens, an image blur correction lens, a diaphragm, and the like that form a photographing optical path for photographing a subject. Light that has passed through the lens unit 103 is transmitted to the image sensor 105 as an optical image of the subject. Form an image. The lens control unit 104 controls the operation of the lens unit 103, and performs angle adjustment by driving the zoom lens, autofocus by driving the focus lens, and the like. The imaging element 105 is a photoelectric conversion element such as a CCD sensor or a CMOS sensor that converts an optical image formed into an analog electric signal. The image sensor 105 is embedded with a phase difference detection sensor that divides and captures a signal of each pixel on the imaging surface, and is configured to output a phase difference signal for each pixel. In this embodiment, the image sensor 105 has an A / D converter, converts an analog electric signal generated by photoelectric conversion into digital data (image data) by A / D conversion, and temporarily stores it in the DRAM 101. It is assumed that it can be stored.

カメラ信号処理部106は、DRAM101へ一時保存された撮像データに対するノイズリダクション処理、現像処理、画像補正処理、リサイズ等の各種の画像処理を行う画像処理手段である。カメラ信号処理部106による画像処理が行われた後の撮像データ(画像データ)は、DRAM101を介して又はメディアIF部120を通して直接に、記憶媒体150に書き込まれる。被写体検出部107は、カメラ信号処理部106によって生成された画像データに基づいて被写体を検出する。なお、被写体の検出方法には周知の技術を用いることができ、ここでの詳細な説明は省略する。距離情報生成部108は、撮像素子105(に組み込まれた位相差検出用センサ)によって取得された位相差信号に基づき、デジタルカメラ100から被写体検出部107が検出した被写体までの距離を測定し、距離情報を生成する測距手段である。   The camera signal processing unit 106 is an image processing unit that performs various types of image processing such as noise reduction processing, development processing, image correction processing, resizing, and the like on the image data temporarily stored in the DRAM 101. The imaging data (image data) after the image processing by the camera signal processing unit 106 is performed is written in the storage medium 150 through the DRAM 101 or directly through the media IF unit 120. The subject detection unit 107 detects a subject based on the image data generated by the camera signal processing unit 106. Note that a well-known technique can be used for the subject detection method, and a detailed description thereof is omitted here. The distance information generation unit 108 measures the distance from the digital camera 100 to the subject detected by the subject detection unit 107 based on the phase difference signal acquired by the image sensor 105 (phase difference detection sensor incorporated in the image sensor 105). This is a distance measuring means for generating distance information.

CPU113は、プログラムバス116を介してROM117に記憶されたコンピュータプログラムをRAM118に展開してデジタルカメラ100を構成する各部の動作を制御することにより、デジタルカメラ100の全体的な動作及び制御を実現する。ROM117には、CPU113が実行する各種コンピュータプログラムやパラメータ等が格納されている。RAM118は、CPU113のワークメモリ等として機能する。制御バス119は、CPU113がデジタルカメラ100を構成する各部との通信を行うための伝送路である。なお、デジタルカメラ100の全体的な制御は、デジタルカメラ100を構成する各部の処理の全部又は一部を論理回路により実現するASIC等の専用プロセッサによって行われてもよい。カメラ信号処理部106や被写体検出部107、距離情報生成部108等についても同様に、ソフトウェア(プログラム)による実装とハードウェアによる実装のいずれも可能であり、ソフトウェアとハードウェアとの組合せによって実装されていてもよい。   The CPU 113 implements the overall operation and control of the digital camera 100 by developing the computer program stored in the ROM 117 via the program bus 116 to the RAM 118 and controlling the operation of each part constituting the digital camera 100. . The ROM 117 stores various computer programs executed by the CPU 113, parameters, and the like. The RAM 118 functions as a work memory for the CPU 113. The control bus 119 is a transmission path for the CPU 113 to communicate with each unit constituting the digital camera 100. Note that overall control of the digital camera 100 may be performed by a dedicated processor such as an ASIC that implements all or part of the processing of each unit constituting the digital camera 100 by a logic circuit. Similarly, the camera signal processing unit 106, the subject detection unit 107, the distance information generation unit 108, and the like can be implemented by software (program) or hardware, and can be implemented by a combination of software and hardware. It may be.

表示制御部109は、DRAM101に一時保持されている画像データを読み込み、表示部111へ出力する。表示部111は、液晶パネル又は有機ELパネル等のフラットパネルであり、表示制御部109を通して取得する画像データ(レンズユニット103を通して得られる被写体の映像)を表示する。表示制御部109は、表示部111に表示する画像データの任意の領域を強調して表示部111に表示する機能を有する。タッチパネル112は、ユーザからのタッチ操作を受け付ける。タッチパネル112は、表示部111に対して重畳配置されている。   The display control unit 109 reads the image data temporarily stored in the DRAM 101 and outputs it to the display unit 111. The display unit 111 is a flat panel such as a liquid crystal panel or an organic EL panel, and displays image data acquired through the display control unit 109 (subject image obtained through the lens unit 103). The display control unit 109 has a function of highlighting an arbitrary area of image data displayed on the display unit 111 and displaying the highlighted area on the display unit 111. The touch panel 112 receives a touch operation from the user. The touch panel 112 is superimposed on the display unit 111.

タッチパネル制御部114は、タッチパネル112に対する入力に基づき、少なくとも以下の操作を検出する。タッチパネル制御部114は、タッチパネル112に対して指やペン等(以下「指等」という)によるタッチ操作が行われたことを検出するタッチ検出手段として機能する。具体的には、タッチパネル制御部114は、タッチパネル112へ指等が触れるタッチダウンと、触れていた指等がタッチパネル112から離れるタッチアップを検出する。タッチパネル制御部114は、指等がタッチパネル112に触れている状態(以下「タッチオン」という)にあるときに、タッチパネル112に対するタッチ圧力を所定時間毎に検知する圧力検出手段としても機能する。タッチオンの継続時間(タッチダウンからタッチアップまでの時間)に制限はない。タッチパネル制御部114は更に、例えば、タッチパネル112にタッチした指等の面積を検知し、検知した面積に基づいてタッチ圧力を取得する圧力検出手段としても機能する。タッチパネル112に指等がタッチしたときのタッチ面積をタッチ圧力とする技術や製品は周知であるので、ここでの説明を省略する。本実施形態では、タッチパネル制御部114が検出可能なタッチ圧力の最大値を“Fmax”とする。タッチパネル制御部114が検知した操作やタッチ圧力は、制御バス119を通じてCPU113に通知される。   The touch panel control unit 114 detects at least the following operations based on the input to the touch panel 112. The touch panel control unit 114 functions as a touch detection unit that detects that a touch operation with a finger, a pen, or the like (hereinafter referred to as a “finger”) is performed on the touch panel 112. Specifically, the touch panel control unit 114 detects a touch-down in which a finger or the like touches the touch panel 112 and a touch-up in which the touched finger or the like leaves the touch panel 112. The touch panel control unit 114 also functions as a pressure detection unit that detects a touch pressure on the touch panel 112 every predetermined time when a finger or the like is in contact with the touch panel 112 (hereinafter referred to as “touch-on”). There is no limit on the duration of touch-on (time from touchdown to touchup). The touch panel control unit 114 further functions as a pressure detection unit that detects the area of a finger or the like that touches the touch panel 112 and acquires the touch pressure based on the detected area. Techniques and products that use the touch area as a touch pressure when a finger or the like touches the touch panel 112 are well known, and thus the description thereof is omitted here. In the present embodiment, the maximum value of the touch pressure that can be detected by the touch panel control unit 114 is “Fmax”. The operation and touch pressure detected by the touch panel control unit 114 are notified to the CPU 113 through the control bus 119.

また、タッチパネル制御部114は、タッチパネル112上で指等が移動する動作であるムーブ(ドラッグ)を検出することができる。タッチパネル制御部114は、タッチパネル112上を移動する指等の移動方向を、タッチパネル112上の垂直方向と水平方向のそれぞれについて、タッチ位置(タッチ点)の座標(以下「タッチ座標」という)の変化に基づいて求めることができる。なお、タッチパネル制御部114は、一般的に、フリック、ピンチアウト等と称呼される動作の検知も可能であるが、本実施形態ではこれらの動作を直接に、フォーカスを合わせる被写体の決定に用いることはないので、ここでの説明を省略する。   Further, the touch panel control unit 114 can detect a move (drag) that is an operation of moving a finger or the like on the touch panel 112. The touch panel control unit 114 changes the coordinates of the touch position (touch point) (hereinafter referred to as “touch coordinates”) for the movement direction of the finger or the like moving on the touch panel 112 in each of the vertical direction and the horizontal direction on the touch panel 112. Can be determined based on Note that the touch panel control unit 114 can also detect operations generally referred to as flicking, pinching out, and the like, but in the present embodiment, these operations are directly used to determine a subject to be focused. Because there is no, explanation here is omitted.

プログラムバス116は、CPU113、ROM117、RAM118及び操作部115を接続する伝送路である。操作部115は、ユーザがデジタルカメラ100の動作指示を行うためのボタンや十字キー等である。メディアIF部120は、DRAM101に一時保持されている画像データを読み込んで記憶媒体150へ書き込み、逆に、記憶媒体150に記憶されている画像データをDRAM101に読み出すためのインタフェースである。   The program bus 116 is a transmission path that connects the CPU 113, the ROM 117, the RAM 118, and the operation unit 115. The operation unit 115 is a button or a cross key for the user to instruct the operation of the digital camera 100. The media IF unit 120 is an interface for reading the image data temporarily held in the DRAM 101 and writing it to the storage medium 150, and conversely reading the image data stored in the storage medium 150 to the DRAM 101.

図2は、デジタルカメラ100の外観構成を簡略的に説明する図であり、図2(a)は正面図であり、図2(b)は背面図である。デジタルカメラ100の筐体(ボディ)の正面には、レンズユニット103が配置されている。筐体の上面には、シャッタボタン201や電源ボタン(不図示)等が配置されている。筐体の背面には、十字キー202と表示画面203が配置されている。表示画面203は、表示部111にタッチパネル112が重畳されたものである。ユーザが表示画面203に表示された被写体等に対して指等でタッチ操作を行うと、そのタッチ操作がタッチパネル112を通じてタッチパネル制御部114によって検出される。   FIG. 2 is a diagram for simply explaining the external configuration of the digital camera 100, FIG. 2 (a) is a front view, and FIG. 2 (b) is a rear view. A lens unit 103 is disposed in front of the housing (body) of the digital camera 100. A shutter button 201, a power button (not shown), and the like are disposed on the top surface of the housing. A cross key 202 and a display screen 203 are arranged on the back of the housing. The display screen 203 is obtained by superimposing the touch panel 112 on the display unit 111. When the user performs a touch operation on a subject or the like displayed on the display screen 203 with a finger or the like, the touch operation is detected by the touch panel control unit 114 through the touch panel 112.

図3は、デジタルカメラ100での撮影時にフォーカスを合わせる被写体を決定する処理を説明するフローチャートである。図3のフローチャートに示される各処理は、CPU113がROM117に格納されたプログラムをRAM118に展開して、デジタルカメラ100を構成する各部の動作を制御することによって実現される。   FIG. 3 is a flowchart for explaining processing for determining a subject to be focused on when the digital camera 100 performs shooting. Each process shown in the flowchart of FIG. 3 is realized by the CPU 113 developing the program stored in the ROM 117 in the RAM 118 and controlling the operation of each unit constituting the digital camera 100.

ステップS301においてCPU113は、被写体像であるライブビュー映像を表示部111(表示画面203)に表示する。具体的には、レンズユニット103を通して入射した光が撮像素子105に光学像として結像すると、撮像素子105は光学像をデジタルデータである撮像データに変換し、生成された撮像データがDRAM101に一時保存される。DRAM101に一時保存された撮像データは、カメラ信号処理部106によって読み出された後にカメラ信号処理部106により画像処理され、画像データとしてDRAM101へ一時保存される。DRAM101に一時保存された画像データは表示制御部109によって読み出され、表示制御部109はD/A変換等を行って表示部111へ出力する。これにより、表示部111に被写体像が表示される。なお、ステップS301では、CPU113の制御下でレンズ制御部104が、被写体像がパンフォーカスとなるようにレンズユニット103の絞りを所定の設定値に制御することが望ましい。また、ステップS301の処理は、撮影開始から所定時間毎に行われ、これにより時間的に連続する被写体像が得られる。   In step S301, the CPU 113 displays a live view video that is a subject image on the display unit 111 (display screen 203). Specifically, when light incident through the lens unit 103 forms an optical image on the image sensor 105, the image sensor 105 converts the optical image into image data that is digital data, and the generated image data is temporarily stored in the DRAM 101. Saved. The imaging data temporarily stored in the DRAM 101 is read out by the camera signal processing unit 106, subjected to image processing by the camera signal processing unit 106, and temporarily stored in the DRAM 101 as image data. The image data temporarily stored in the DRAM 101 is read by the display control unit 109, and the display control unit 109 performs D / A conversion or the like and outputs it to the display unit 111. As a result, the subject image is displayed on the display unit 111. In step S301, it is desirable that the lens control unit 104 controls the aperture of the lens unit 103 to a predetermined set value so that the subject image is pan-focused under the control of the CPU 113. Further, the process of step S301 is performed every predetermined time from the start of photographing, thereby obtaining a temporally continuous subject image.

ステップS302においてCPU113は、タッチパネル112に対するタッチ操作があったか否かを判定する。例えば、CPU113は、タッチパネル制御部114からタッチダウンの検出信号を受信することにより、タッチパネル112に対する指等のタッチ操作があったと判定する。タッチパネル制御部114は、タッチ操作を検出した場合には、タッチダウンの検出信号に加えて、タッチ座標(X1,Y1)と、タッチ圧力F1をCPU113に通知する。そして、CPU113は、タッチパネル制御部114から通知されたタッチ座標(X1,Y1)とタッチ圧力F1をRAM118に記憶する。CPU113は、タッチ操作が検出されるまで待機し(S302でNO)、タッチ操作が検出されると(S302でYES)、処理をステップS303へ進める。   In step S <b> 302, the CPU 113 determines whether there is a touch operation on the touch panel 112. For example, the CPU 113 receives a touchdown detection signal from the touch panel control unit 114 and determines that a touch operation such as a finger on the touch panel 112 has been performed. When the touch operation is detected, the touch panel control unit 114 notifies the CPU 113 of the touch coordinates (X1, Y1) and the touch pressure F1 in addition to the touchdown detection signal. Then, the CPU 113 stores the touch coordinates (X1, Y1) and the touch pressure F1 notified from the touch panel control unit 114 in the RAM 118. CPU 113 waits until a touch operation is detected (NO in S302), and when a touch operation is detected (YES in S302), the process proceeds to step S303.

ステップS303においてCPU113は、距離情報生成部108に距離情報の生成を指示する。距離情報生成部108は、撮像素子105によって取得された位相差信号に基づいて被写体像の距離情報(距離マップ)を生成し、DRAM101に一時保存されている画像データに関連付けてDRAM101に記憶する。CPU113は、DRAM101に記憶された距離マップを取得する。   In step S303, the CPU 113 instructs the distance information generation unit 108 to generate distance information. The distance information generation unit 108 generates distance information (distance map) of the subject image based on the phase difference signal acquired by the image sensor 105, and stores it in the DRAM 101 in association with the image data temporarily stored in the DRAM 101. The CPU 113 acquires a distance map stored in the DRAM 101.

ここで、距離情報生成部108による距離情報の生成処理について説明する。図4(A)は、デジタルカメラ100と被写体410,411,412との位置関係(距離関係)を模式的に示す図である。デジタルカメラ100から被写体410,411,412までの各距離を距離L1,L2,L3(L1<L2<L3)とする。撮像素子105は、前述の通りに画素単位でオートフォーカス(AF)用の位相差情報を取得することができるため、距離情報生成部108は、撮像素子105から取得した位相差情報に基づいて被写体までの距離情報を所定の分解能で生成する。なお、このような撮像面位相差の検出による距離情報の生成方法については、周知の技術を用いることができるため、ここでの詳細な説明は省略する。   Here, the distance information generation processing by the distance information generation unit 108 will be described. FIG. 4A is a diagram schematically showing a positional relationship (distance relationship) between the digital camera 100 and the subjects 410, 411, and 412. The distances from the digital camera 100 to the subjects 410, 411, 412 are distances L1, L2, L3 (L1 <L2 <L3). Since the image sensor 105 can acquire phase difference information for autofocus (AF) in units of pixels as described above, the distance information generation unit 108 uses the object based on the phase difference information acquired from the image sensor 105. Distance information is generated with a predetermined resolution. In addition, since a known technique can be used for the method of generating distance information by detecting the imaging surface phase difference, detailed description thereof is omitted here.

図4(B)は、被写体410,411,412と距離L1〜L2の関係を2次元画像情報として表した距離マップ400と、距離マップ400に対応するインジケータ405を説明する図である。距離マップ400では、デジタルカメラ100から被写体までの距離が画像の濃淡に置換されている。なお、距離マップ400において模式的に示される多数の略矩形の1区画は、撮像素子105の1画素に対応していてもよいし、複数画素に対応していてもよい。ここでは、被写体が存在する領域の色が、デジタルカメラ100に近くなるにしたがって淡色で表され、デジタルカメラ100から遠ざかるにしたがって濃色で表されるようにしている。図4(B)中において、被写体410,411,412はそれぞれ、距離データ420,421,422に対応しており、被写体410がデジタルカメラ100に最も近い位置にあり、被写体412がデジタルカメラ100から最も遠い位置にあることがわかる。   FIG. 4B is a diagram illustrating a distance map 400 that represents the relationship between the subjects 410, 411, and 412 and the distances L1 and L2 as two-dimensional image information, and an indicator 405 corresponding to the distance map 400. In the distance map 400, the distance from the digital camera 100 to the subject is replaced with the density of the image. Note that a large number of substantially rectangular sections schematically shown in the distance map 400 may correspond to one pixel of the image sensor 105 or may correspond to a plurality of pixels. Here, the color of the area where the subject is present is expressed in light color as it approaches the digital camera 100, and is expressed in dark color as it moves away from the digital camera 100. In FIG. 4B, subjects 410, 411, and 412 correspond to distance data 420, 421, and 422, respectively, and subject 410 is at the closest position to digital camera 100, and subject 412 is from digital camera 100. It can be seen that it is at the farthest position.

インジケータ405は、デジタルカメラ100から被写体までの距離と距離マップ400での濃淡との関係を示している。図3のフローチャートにしたがう処理の間に、実際に距離マップ400やインジケータ405が表示画面203(表示部111)に表示されることはない。距離マップの表示形式は、これに限られるものではなく、デジタルカメラ100からの複数の被写体の距離関係(遠近関係)がわかればよい。   An indicator 405 indicates the relationship between the distance from the digital camera 100 to the subject and the shading in the distance map 400. During the processing according to the flowchart of FIG. 3, the distance map 400 and the indicator 405 are not actually displayed on the display screen 203 (display unit 111). The display format of the distance map is not limited to this, and it is only necessary to know the distance relationship (perspective relationship) of a plurality of subjects from the digital camera 100.

図3のフローチャートの説明に戻る。ステップS304においてCPU113は、RAM118に記憶されたタッチ座標(X1,Y1)に基づき、タッチ座標から予め定められた所定の距離範囲内にある被写体の検出を被写体検出部107に指示する。被写体検出部107は、ステップS303において距離情報生成部108によって生成されてDRAM101に保存された距離マップ400を用いて、タッチ座標(X1,Y1)から所定の距離範囲内に存在する被写体を検出する。   Returning to the flowchart of FIG. In step S304, based on the touch coordinates (X1, Y1) stored in the RAM 118, the CPU 113 instructs the subject detection unit 107 to detect a subject within a predetermined distance range determined in advance from the touch coordinates. The subject detection unit 107 detects a subject existing within a predetermined distance range from the touch coordinates (X1, Y1) using the distance map 400 generated by the distance information generation unit 108 and stored in the DRAM 101 in step S303. .

ここで、被写体検出部107による被写体検出処理について説明する。図5(A)は、表示画面203(表示部111)に表示されたライブビュー映像を示す図である。表示画面203には、被写体501,502,503が写り込んでおり、点Aがユーザによる指等によるタッチ座標(X1,Y1)として検出されたものとする。図5(B)は、図5(A)に対応する距離マップ500とインジケータ405を示す図である。距離マップ500に示される領域501a,502a,503aはそれぞれ、被写体501,502,503に対応している。距離マップ500は、ステップS304において生成されて、DRAM101に保存される。図5(A)に示すように、点Aがタッチ座標(X1,Y1)として検出されると、被写体検出部107は、点Aを中心として点Aから所定の距離範囲Pの内部にある被写体を検出する。図5(B)に示す距離マップ500上の領域Paは、図5(A)の表示画面203内の距離範囲Pに対応している。   Here, subject detection processing by the subject detection unit 107 will be described. FIG. 5A is a diagram showing a live view video displayed on the display screen 203 (display unit 111). It is assumed that the subjects 501, 502, and 503 are shown on the display screen 203, and the point A is detected as touch coordinates (X1, Y1) by the user's finger or the like. FIG. 5B is a diagram illustrating a distance map 500 and an indicator 405 corresponding to FIG. Regions 501a, 502a, and 503a shown in the distance map 500 correspond to the subjects 501, 502, and 503, respectively. The distance map 500 is generated in step S304 and stored in the DRAM 101. As shown in FIG. 5A, when the point A is detected as the touch coordinates (X1, Y1), the subject detection unit 107 has the subject within the predetermined distance range P from the point A with the point A as the center. Is detected. A region Pa on the distance map 500 shown in FIG. 5B corresponds to the distance range P in the display screen 203 of FIG.

被写体検出部107は、領域Pa内の距離情報を解析し、距離データの数を距離の最小値から最大値の昇順に集計する。距離データの数は、距離マップ500において各距離範囲に対応する略正方形の区画が幾つあるかを検出することになる。図6(A)は、領域Pa内での距離情報の解析結果を示す図である。図6(B)は、図6(A)を図式化した度数分布図である。被写体検出部107は、度数分布図に基づき、領域Pa内に存在する被写体を検出する。図6(C)は、被写体検出部107による距離データと被写体との関連付け処理の結果を示す図である。ここでは、被写体501,502が、距離範囲P(領域Pa)内の被写体として検出されている。   The subject detection unit 107 analyzes the distance information in the area Pa, and counts the number of distance data in ascending order from the minimum value to the maximum value. The number of the distance data is to detect how many substantially square sections corresponding to each distance range in the distance map 500. FIG. 6A is a diagram illustrating an analysis result of distance information in the region Pa. FIG. 6B is a frequency distribution diagram that is a schematic representation of FIG. The subject detection unit 107 detects a subject existing in the area Pa based on the frequency distribution diagram. FIG. 6C is a diagram illustrating a result of the association processing between the distance data and the subject by the subject detection unit 107. Here, the subjects 501 and 502 are detected as subjects within the distance range P (area Pa).

図3のフローチャートの説明に戻る。ステップS305においてCPU113は、被写体選択手段として機能し、フォーカス対象となる(ピントを合わせる)被写体を選択する。具体的には、CPU113は、ステップS304にて被写体検出部107が検出した被写体数に基づき、タッチパネル制御部114が取得可能なタッチ圧力の最大値FmaxをステップS304で検出した距離範囲P内の被写体の数で等分割する。そして、CPU113は、タッチ圧力の圧力範囲とフォーカス対象被写体の関連付けを行う。図6(D)は、距離範囲Pについてタッチ圧力と被写体との関連付けを行った結果を示す図である。被写体検出部107が検出した被写体の数がN(Nは自然数)である場合、最大値FmaxはN分割される。図6(C)に示したように被写体検出部107が検出した被写体の数が2つの場合、最大値Fmaxを2分割することにより、タッチ圧力と被写体とが関連付けられる。   Returning to the flowchart of FIG. In step S305, the CPU 113 functions as a subject selection unit, and selects a subject to be focused (focused). Specifically, based on the number of subjects detected by the subject detection unit 107 in step S304, the CPU 113 detects subjects within the distance range P detected by the touch panel control unit 114 in the distance range P detected in step S304. Divide equally by the number of. Then, the CPU 113 associates the pressure range of the touch pressure with the focus target subject. FIG. 6D is a diagram illustrating a result of associating the touch pressure with the subject with respect to the distance range P. When the number of subjects detected by the subject detection unit 107 is N (N is a natural number), the maximum value Fmax is divided into N. When the number of subjects detected by the subject detection unit 107 is two as shown in FIG. 6C, the touch pressure and the subject are associated by dividing the maximum value Fmax into two.

CPU113は、タッチパネル制御部114の取得したタッチ圧力及び図6(D)の情報を参照し、フォーカス対象の被写体を選択する。例えば、ステップS302で検出されたタッチ圧力F1が、0<F1<Fmax/2である場合には、フォーカス対象となる被写体として被写体501が選択される。図7は、被写体501がフォーカス対象として選択されたときの表示画面203の例を示す図である。CPU113の制御下において表示制御部109は、被写体501を被写体502と区別して、被写体501に対して所定の色等を重畳表示する(被写体501の色を変える)等の強調表示を行う。これにより、ユーザは、フォーカス対象となっている被写体を容易に認識することができる。なお、フォーカス対象となっている被写体の強調表示は、色の変更に限定されず、例えば、エッジの強調等でもよい。また、ここでは、タッチ圧力が小さい場合に、デジタルカメラ100に近い被写体がフォーカス対象として選択される構成としている。しかし、これとは逆に、タッチ圧力が大きい場合にデジタルカメラ100に近い被写体がフォーカス対象として選択される構成としてもよい。   The CPU 113 selects the subject to be focused with reference to the touch pressure acquired by the touch panel control unit 114 and the information in FIG. For example, when the touch pressure F1 detected in step S302 is 0 <F1 <Fmax / 2, the subject 501 is selected as the subject to be focused. FIG. 7 is a diagram illustrating an example of the display screen 203 when the subject 501 is selected as a focus target. Under the control of the CPU 113, the display control unit 109 distinguishes the subject 501 from the subject 502 and performs highlighting such as displaying a predetermined color or the like superimposed on the subject 501 (changing the color of the subject 501). As a result, the user can easily recognize the subject that is the focus target. Note that the highlighted display of the subject that is the focus target is not limited to the color change, and may be, for example, edge enhancement. Further, here, when the touch pressure is small, a subject close to the digital camera 100 is selected as a focus target. However, on the contrary, a subject close to the digital camera 100 may be selected as a focus target when the touch pressure is large.

ステップS306においてCPU113は、ステップS304で検出した被写体の数が1より多いか否かを判定する。CPU113は、被写体の数が1以下の場合(S306でNO)、処理をステップS308へ進め、被写体の数が1より多い場合(S306でYES)、処理をステップS307へ進める。なお、被写体の数が1つの場合には、タッチ圧力の変化(ステップS307)を考慮しない。これは、被写体の数が1つの場合には、タッチ位置が変化しない限りは、フォーカス対象となる被写体が変わることはないからである。よって、被写体の数が1つの場合には、タッチ位置が変わったか否かを判定すればよいため、処理はステップS308へ進められることになる。   In step S306, the CPU 113 determines whether or not the number of subjects detected in step S304 is greater than one. If the number of subjects is 1 or less (NO in S306), the CPU 113 proceeds the process to step S308, and if the number of subjects is greater than 1 (YES in S306), the process proceeds to step S307. When the number of subjects is one, the change in touch pressure (step S307) is not considered. This is because when the number of subjects is one, the subject to be focused does not change unless the touch position changes. Therefore, when the number of subjects is one, it is only necessary to determine whether or not the touch position has changed, and thus the process proceeds to step S308.

ステップS307においてCPU113は、タッチパネル制御部114からのタッチ位置でのタッチ圧力の通知に基づき、タッチ圧力が変化したか否かを判定する。なお、タッチパネル制御部114は、タッチオン時には所定の時間毎にタッチ位置でのタッチ圧力を検出し、検出結果をCPU113へ通知している。そして、CPU113は、タッチパネル制御部114からのタッチ圧力の通知に基づき、タッチ圧力を監視している。前述の通り、タッチ圧力の変化はタッチ面積の変化によって検出されるため、例えば、表示画面203に指が強く押し付けられるとタッチ面積が大きくなることで、タッチ圧力が大きくなったと判定される。CPU113は、タッチ圧力が変化した場合(S307でYES)、RAM118に記憶されているタッチ圧力F1をタッチ圧力F2へと更新して、処理をステップS305に戻す。例えば、0<F1<Fmax/2の関係からFmax/2<F2<Fmaxの関係へと変化した場合、ステップS307から戻ったステップS305では、フォーカス対象が被写体501から被写体502に変更される。この場合、図7を参照して説明した強調表示の対象も被写体501から被写体502へ変更される。一方、CPU113は、タッチ圧力が変化しない場合(S307でNO)、処理をステップS308へ進める。   In step S <b> 307, the CPU 113 determines whether or not the touch pressure has changed based on the notification of the touch pressure at the touch position from the touch panel control unit 114. Note that the touch panel control unit 114 detects the touch pressure at the touch position every predetermined time when the touch is turned on, and notifies the CPU 113 of the detection result. The CPU 113 monitors the touch pressure based on the notification of the touch pressure from the touch panel control unit 114. As described above, since the change in the touch pressure is detected by the change in the touch area, for example, when the finger is strongly pressed against the display screen 203, it is determined that the touch pressure is increased by increasing the touch area. When the touch pressure changes (YES in S307), the CPU 113 updates the touch pressure F1 stored in the RAM 118 to the touch pressure F2, and returns the process to step S305. For example, when the relationship of 0 <F1 <Fmax / 2 is changed to the relationship of Fmax / 2 <F2 <Fmax, the focus target is changed from the subject 501 to the subject 502 in step S305 after returning from step S307. In this case, the highlight target described with reference to FIG. 7 is also changed from the subject 501 to the subject 502. On the other hand, if the touch pressure does not change (NO in S307), the CPU 113 advances the process to step S308.

ステップS308においてCPU113は、タッチパネル制御部114からのタッチ位置の座標情報(タッチ座標)に基づき、タッチ位置が変化したか否かを判定する。なお、タッチパネル制御部114は、所定の時間毎にタッチ位置を検出し、検出結果(タッチ座標)をCPU113へ通知している。CPU113は、タッチ位置の座標が変化した場合(S308でYES)、処理をステップS303へ戻し、タッチ位置の座標が変化しない場合(S308でNO)、処理をステップS309へ進める。   In step S <b> 308, the CPU 113 determines whether the touch position has changed based on the coordinate information (touch coordinates) of the touch position from the touch panel control unit 114. Note that the touch panel control unit 114 detects a touch position every predetermined time and notifies the CPU 113 of the detection result (touch coordinates). CPU113 returns a process to step S303, when the coordinate of a touch position changes (it is YES at S308), and when a coordinate of a touch position does not change (it is NO at S308), a process is advanced to step S309.

ステップS309においてCPU113は、タッチパネル制御部114からのタッチ位置の座標情報に基づき、タッチアップが検出されたか否か判定する。CPU113は、タッチアップが検出されていない場合(S309でNO)、処理をステップS306へ戻し、タッチアップが検出された場合(S309でYES)、処理をステップS310へ進める。ステップS310においてCPU113は、直近のステップS306で選択された被写体を、フォーカス対象の被写体として決定させる。そして、ステップS311では、CPU113の制御下でレンズ制御部104がレンズユニット103を駆動して、ステップS310でフォーカス対象として決定された被写体に対してフォーカスを合わせ、これにより本処理は終了となる。   In step S <b> 309, the CPU 113 determines whether touch-up has been detected based on the coordinate information of the touch position from the touch panel control unit 114. If the touch-up is not detected (NO in S309), the process returns to step S306, and if the touch-up is detected (YES in S309), the process proceeds to step S310. In step S310, the CPU 113 determines the subject selected in the latest step S306 as the subject to be focused. In step S311, the lens control unit 104 drives the lens unit 103 under the control of the CPU 113 to focus the subject determined as the focus target in step S310, thereby ending this processing.

なお、デジタルカメラ100では、ステップS311の後に、撮影動作が行われる。レンズユニット103が制御された後、撮像素子105による撮影が行われ、生成された画像データがDRAM101及びメディアIF部120を介して又は直接にメディアIF部120を介して、記憶媒体150に書き込まれる。以上の説明の通り、デジタルカメラ100では、タッチ圧力に応じてフォーカス対象となる被写体を選択するため、複数の被写体が重なる場合でも、確実にフォーカス対象となる被写体を決定することができる。   In the digital camera 100, a shooting operation is performed after step S311. After the lens unit 103 is controlled, shooting is performed by the imaging element 105, and the generated image data is written to the storage medium 150 via the DRAM 101 and the media IF unit 120 or directly via the media IF unit 120. . As described above, in the digital camera 100, the subject to be focused is selected according to the touch pressure, so that the subject to be focused can be reliably determined even when a plurality of subjects overlap.

次に、デジタルカメラ100によるデジタルカメラ100での撮影動作の際にフォーカスを合わせる被写体を決定する別の処理について説明する。図8は、デジタルカメラ100での撮影動作の際にフォーカスを合わせる被写体を決定する別の処理のフローチャートである。図8のフローチャートに示すステップS801〜S804の処理は、図3のフローチャートに示したステップS301〜S304の処理と同様であるため、ここでの説明を省略する。ステップS805においてCPU113は、ステップS802で検出されてRAM118に記憶されたタッチ圧力F1が予め定められた所定値以上であるか否かを判定する。なお、所定値としての閾値F0は、0以上Fmax以下の範囲で定められる。   Next, another process for determining a subject to be focused on when the digital camera 100 performs a shooting operation with the digital camera 100 will be described. FIG. 8 is a flowchart of another process for determining a subject to be focused on when the digital camera 100 performs a shooting operation. The processes in steps S801 to S804 shown in the flowchart of FIG. 8 are the same as the processes in steps S301 to S304 shown in the flowchart of FIG. In step S805, the CPU 113 determines whether or not the touch pressure F1 detected in step S802 and stored in the RAM 118 is greater than or equal to a predetermined value. Note that the threshold value F0 as the predetermined value is determined in a range of 0 to Fmax.

CPU113は、タッチ圧力F1が閾値F0以上である場合(F1≧F0,S805でYES)、処理をステップS806へ進め、タッチ圧力F1が閾値F0未満である場合(F1<F0,S805でNO)、処理をステップS807へ進める。ステップS806においてCPU113は、図6(C)を参照して説明した距離データと被写体とが関連付けられたテーブルに基づき、最遠方の被写体をフォーカス対象として選択する。一方、ステップS807においてCPU113は、図6(C)を参照して説明した距離データと被写体とが関連付けられたテーブルに基づき、最近方の被写体をフォーカス対象として選択する。よって、ユーザは、遠方の被写体にフォーカスを合わせたい場合には表示画面203に広い面積でタッチすればよいし、近方の被写体にフォーカスを合わせたい場合には表示画面203に狭い面積でタッチすればよい。このように、タッチダウンがあったときに最初に検出されるタッチ圧力F1の大きさに基づいてフォーカス対象となる被写体を選択可能な構成とすることにより、フォーカス対象となる被写体の選択を効率よく且つ容易に行うことができる。ステップS808〜S813の処理は、図3のフローチャートのステップS306〜S311の処理と同様であるため、ここでの説明を省略する。なお、ステップS808〜813の処理を行うことにより、例えば、タッチ位置から距離範囲P内に3つ以上の被写体がある場合でも、最近方の被写体と最遠方の被写体との間にある被写体をフォーカスを合わせる被写体として容易に選択することができる。   If the touch pressure F1 is greater than or equal to the threshold F0 (F1 ≧ F0, YES in S805), the CPU 113 advances the process to step S806, and if the touch pressure F1 is less than the threshold F0 (F1 <F0, NO in S805). The process proceeds to step S807. In step S806, the CPU 113 selects the farthest subject as the focus target based on the table in which the distance data and the subject described with reference to FIG. On the other hand, in step S807, the CPU 113 selects the closest subject as the focus target based on the table in which the distance data and the subject described with reference to FIG. Therefore, when the user wants to focus on a distant subject, the user may touch the display screen 203 with a large area. When the user wants to focus on a near subject, the user touches the display screen 203 with a small area. That's fine. In this way, by selecting a subject to be focused on based on the magnitude of the touch pressure F1 detected first when there is a touchdown, it is possible to efficiently select the subject to be focused. And it can be done easily. Since the processing in steps S808 to S813 is the same as the processing in steps S306 to S311 in the flowchart of FIG. 3, the description thereof is omitted here. By performing the processing in steps S808 to 813, for example, even when there are three or more subjects within the distance range P from the touch position, the subject between the nearest subject and the farthest subject is focused. Can be easily selected as a subject to be matched.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、ステップS307の処理では、CPU113に代えてタッチパネル制御部114がタッチ位置のタッチ圧力が変化したか否かを判定する構成としてもよい。この場合、CPU113は、タッチパネル制御部114から判定結果の通知を受けて、処理を進める構成とすればよい。同様に、ステップS308,S309の処理も、タッチパネル制御部114が判定を行う構成としてもよい。上述したフォーカス対象となる被写体の決定方法は、動画撮影時においてフォーカス対象を決定する場面にも適用することができる。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. For example, in the process of step S307, the touch panel control unit 114 may determine whether or not the touch pressure at the touch position has changed in place of the CPU 113. In this case, the CPU 113 may be configured to advance the process upon receiving a notification of the determination result from the touch panel control unit 114. Similarly, the touch panel control unit 114 may determine the processes in steps S308 and S309. The above-described method for determining a subject to be focused can be applied to a scene in which a focus target is determined at the time of moving image shooting.

また、上記実施形態で説明したデジタルカメラ100は、被写体を撮像する撮像部と、撮像部によって得られた情報に基づいて種々の処理を行う本体部とが一体となった構造を有するが、撮像部と本体部とは別体であってもよい。撮像部と本体部とが別体となっている撮像装置としては、監視カメラ等を挙げることができる。この場合、撮像部と本体部とは、有線通信又は有線通信により通信可能に接続される。そして、デジタルカメラ100の構成要素のうち、撮像部は少なくともレンズユニット103、レンズ制御部104及び撮像素子105を備え、その他の構成要素を本体部が備える構成とすればよい。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   In addition, the digital camera 100 described in the above embodiment has a structure in which an imaging unit that images a subject and a main body unit that performs various processes based on information obtained by the imaging unit are integrated. The part and the body part may be separate. As an imaging device in which the imaging unit and the main unit are separate, a surveillance camera or the like can be cited. In this case, the imaging unit and the main unit are communicably connected by wired communication or wired communication. Of the components of the digital camera 100, the imaging unit may include at least the lens unit 103, the lens control unit 104, and the imaging element 105, and the main unit may include other components. The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 デジタルカメラ
104 レンズ制御部
105 撮像素子
106 カメラ信号処理部
107 被写体検出部
108 距離情報生成部
109 表示制御部
110 表示装置
111 表示部
112 タッチパネル
113 CPU
114 タッチパネル制御部
DESCRIPTION OF SYMBOLS 100 Digital camera 104 Lens control part 105 Image pick-up element 106 Camera signal processing part 107 Subject detection part 108 Distance information generation part 109 Display control part 110 Display apparatus 111 Display part 112 Touch panel 113 CPU
114 Touch panel control unit

Claims (10)

被写体像を取得する取得手段と、
タッチパネルを含み、前記取得手段が取得した被写体像を表示する表示手段と、
前記表示手段へのタッチ操作を検出するタッチ検出手段と、
前記表示手段に対するタッチ圧力を検出する圧力検出手段と、
前記表示手段に対するタッチ位置を中心とした所定の距離範囲内の被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体までの距離を測定する測距手段と、
前記圧力検出手段によって検出されたタッチ圧力の大きさに応じて、前記被写体検出手段により検出された被写体の中からフォーカスを合わせる被写体を選択する選択手段と、
前記測距手段が取得した距離情報に基づいて前記選択手段によって選択された被写体にフォーカスを合わせるフォーカス手段と、を備えることを特徴とする撮像装置。
Acquisition means for acquiring a subject image;
Display means for displaying a subject image acquired by the acquisition means, including a touch panel;
Touch detection means for detecting a touch operation on the display means;
Pressure detecting means for detecting a touch pressure on the display means;
Subject detection means for detecting a subject within a predetermined distance range centered on a touch position with respect to the display means;
Distance measuring means for measuring the distance to the subject detected by the subject detecting means;
A selection unit that selects a subject to be focused from among the subjects detected by the subject detection unit according to the magnitude of the touch pressure detected by the pressure detection unit;
An imaging apparatus comprising: focusing means for focusing on a subject selected by the selection means based on distance information acquired by the distance measuring means.
前記被写体検出手段により前記距離範囲内に複数の被写体が検出された場合に、前記圧力検出手段が検出可能なタッチ圧力の最大値を前記複数の被写体の数で等分割した圧力範囲を求め、前記等分割された圧力範囲と前記複数の被写体とを関連付ける関連付け手段を備え、
前記選択手段は、フォーカスを合わせる被写体として、前記等分割された圧力範囲のうち前記圧力検出手段が検出したタッチ圧力を含む圧力範囲に関連付けられた被写体を選択することを特徴とする請求項1に記載の撮像装置。
When a plurality of subjects are detected within the distance range by the subject detection means, a pressure range is obtained by equally dividing the maximum value of the touch pressure that can be detected by the pressure detection means by the number of the plurality of subjects, An associating means for associating the equally divided pressure range with the plurality of subjects;
The selection unit selects a subject associated with a pressure range including a touch pressure detected by the pressure detection unit from among the equally divided pressure ranges as a subject to be focused. The imaging device described.
前記選択手段は、前記タッチ検出手段が前記表示手段へのタッチ操作を検出したときに前記圧力検出手段により検出されたタッチ圧力が、所定値以上である場合には前記距離範囲内の被写体のうち最遠方にある被写体を、前記所定値以上でない場合には前記距離範囲内の被写体のうち最近方にある被写体をそれぞれ、フォーカスを合わせる被写体として選択することを特徴とする請求項1に記載の撮像装置。   The selection unit is configured to select a subject within the distance range when the touch pressure detected by the pressure detection unit when the touch detection unit detects a touch operation on the display unit is a predetermined value or more. 2. The imaging according to claim 1, wherein when the subject is farthest away, the subject closest to the subject within the distance range is selected as the subject to be focused when the subject is not equal to or greater than the predetermined value. apparatus. 前記選択手段によってフォーカスを合わせる被写体として選択された被写体を前記表示手段に強調して表示する強調表示手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The imaging apparatus according to any one of claims 1 to 3, further comprising highlight display means for highlighting and displaying the subject selected as the subject to be focused by the selection means on the display means. 前記圧力検出手段は、前記表示手段に対するタッチ操作でのタッチ面積に基づいてタッチ圧力を検出することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   5. The imaging apparatus according to claim 1, wherein the pressure detection unit detects a touch pressure based on a touch area in a touch operation on the display unit. 前記フォーカス手段は、前記タッチ検出手段が前記表示手段からのタッチアップを前記タッチ操作として検出したときに前記選択手段によってフォーカスを合わせる被写体として選択されている被写体にフォーカスを合わせることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The focus means focuses an object selected as an object to be focused by the selection means when the touch detection means detects a touch-up from the display means as the touch operation. Item 6. The imaging device according to any one of Items 1 to 5. 撮像装置の制御方法であって、
被写体像を取得する取得ステップと、
タッチパネルを有する表示装置に前記取得ステップで取得した被写体像を表示する表示ステップと、
前記表示装置に対するタッチ操作を検出するタッチ検出ステップと、
前記表示装置に対するタッチ圧力を検出する圧力検出ステップと、
前記表示装置に対するタッチ位置を中心とした所定の距離範囲内の被写体を検出する被写体検出ステップと、
前記被写体検出ステップで検出された被写体までの距離を測定する測距ステップと、
前記圧力検出ステップで検出されたタッチ圧力の大きさに応じて前記被写体検出ステップで検出された被写体の中からフォーカスを合わせる被写体を選択する選択ステップと、
前記測距ステップで取得した距離情報に基づいて前記選択ステップで選択された被写体にフォーカスを合わせるフォーカスステップと、を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus,
An acquisition step of acquiring a subject image;
A display step of displaying the subject image acquired in the acquisition step on a display device having a touch panel;
A touch detection step of detecting a touch operation on the display device;
A pressure detection step of detecting a touch pressure on the display device;
A subject detection step of detecting a subject within a predetermined distance range centered on a touch position on the display device;
A distance measuring step for measuring the distance to the subject detected in the subject detecting step;
A selection step of selecting a subject to be focused from among the subjects detected in the subject detection step according to the magnitude of the touch pressure detected in the pressure detection step;
And a focusing step of focusing on the subject selected in the selection step based on the distance information acquired in the ranging step.
前記選択ステップでは、前記表示装置へのタッチ操作が検出されたときの前記圧力検出ステップで検出したタッチ圧力が、所定値以上である場合には前記距離範囲内の被写体のうち最遠方にある被写体を、前記所定値以上でない場合には前記距離範囲内の被写体のうち最近方にある被写体をそれぞれ、フォーカスを合わせる被写体として選択することを特徴とする請求項7に記載の撮像装置の制御方法。   In the selection step, if the touch pressure detected in the pressure detection step when a touch operation on the display device is detected is equal to or greater than a predetermined value, the subject that is farthest among the subjects within the distance range 8. The method of controlling an imaging apparatus according to claim 7, wherein if the distance is not equal to or greater than the predetermined value, the closest subject among the subjects within the distance range is selected as the subject to be focused. コンピュータに請求項7又は8に記載の制御方法の各ステップを実行させるためのプログラム。   The program for making a computer perform each step of the control method of Claim 7 or 8. 被写体を撮像する撮像部と、前記撮像部と有線通信または有線通信により通信可能に接続された本体部と、を備え、前記撮像部と前記本体部とが別体である撮像装置であって、
前記本体部は、
タッチパネルを含み、前記撮像部が取得した被写体像を表示する表示手段と、
前記表示手段へのタッチ操作を検出するタッチ検出手段と、
前記表示手段に対するタッチ圧力を検出する圧力検出手段と、
前記表示手段に対するタッチ位置を中心とした所定の距離範囲内の被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体までの距離を測定する測距手段と、
前記圧力検出手段によって検出されたタッチ圧力の大きさに応じて、前記被写体検出手段により検出された被写体の中からフォーカスを合わせる被写体を選択する選択手段とを備え、
前記撮像部は、
前記測距手段が取得した距離情報に基づいて前記選択手段によって選択された被写体にフォーカスを合わせるフォーカス手段を備えることを特徴とする撮像装置。
An imaging device comprising: an imaging unit that captures an image of a subject; and a main body unit that is communicably connected to the imaging unit via wired communication or wired communication, and the imaging unit and the main body unit are separate bodies,
The main body is
A display unit including a touch panel and displaying a subject image acquired by the imaging unit;
Touch detection means for detecting a touch operation on the display means;
Pressure detecting means for detecting a touch pressure on the display means;
Subject detection means for detecting a subject within a predetermined distance range centered on a touch position with respect to the display means;
Distance measuring means for measuring the distance to the subject detected by the subject detecting means;
Selection means for selecting a subject to be focused from among the subjects detected by the subject detection means according to the magnitude of the touch pressure detected by the pressure detection means;
The imaging unit
An imaging apparatus comprising: a focusing unit that focuses on a subject selected by the selection unit based on distance information acquired by the ranging unit.
JP2016126561A 2016-06-27 2016-06-27 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM Expired - Fee Related JP6679430B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016126561A JP6679430B2 (en) 2016-06-27 2016-06-27 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016126561A JP6679430B2 (en) 2016-06-27 2016-06-27 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2018006803A true JP2018006803A (en) 2018-01-11
JP6679430B2 JP6679430B2 (en) 2020-04-15

Family

ID=60949872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016126561A Expired - Fee Related JP6679430B2 (en) 2016-06-27 2016-06-27 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6679430B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7369941B2 (en) 2021-07-12 2023-10-27 パナソニックIpマネジメント株式会社 Imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7369941B2 (en) 2021-07-12 2023-10-27 パナソニックIpマネジメント株式会社 Imaging device

Also Published As

Publication number Publication date
JP6679430B2 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
US20210287343A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
US10055081B2 (en) Enabling visual recognition of an enlarged image
US9998651B2 (en) Image processing apparatus and image processing method
KR102114377B1 (en) Method for previewing images captured by electronic device and the electronic device therefor
RU2612892C2 (en) Method and device of auto focus
US10375312B2 (en) Imaging device and video generation method by imaging device
JP6016226B2 (en) Length measuring device, length measuring method, program
US10291843B2 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
US10152218B2 (en) Operation device, information processing apparatus comprising operation device, and operation receiving method for information processing apparatus
KR102655625B1 (en) Method and photographing device for controlling the photographing device according to proximity of a user
EP3259658B1 (en) Method and photographing apparatus for controlling function based on gesture of user
KR102173109B1 (en) Method of processing a digital image, Computer readable storage medium of recording the method and digital photographing apparatus
US20180220066A1 (en) Electronic apparatus, operating method of electronic apparatus, and non-transitory computer-readable recording medium
US8866921B2 (en) Devices and methods involving enhanced resolution image capture
US11099728B2 (en) Electronic apparatus, control method, and non-transitory computer readable medium for displaying a display target
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
CN107105158B (en) Photographing method and mobile terminal
US20220244831A1 (en) Image processing device, imaging device, method of controlling image processing device, and recording medium
JP2016111521A (en) Information processing device, information processing program and information processing method
US11463619B2 (en) Image processing apparatus that retouches and displays picked-up image, image processing method, and storage medium
US20230291998A1 (en) Electronic apparatus, method for controlling the same, and computer-readable storage medium storing program
US20150326789A1 (en) Image pickup apparatus having touch panel, image processing method, and storage medium
JP6708402B2 (en) Electronic device, touch panel control method, program, and storage medium
JP2015079519A (en) Image processing device, image processing method, and image processing program
KR20240067963A (en) User interface for camera focus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R151 Written notification of patent or utility model registration

Ref document number: 6679430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees