JP6679430B2 - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM - Google Patents

IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM Download PDF

Info

Publication number
JP6679430B2
JP6679430B2 JP2016126561A JP2016126561A JP6679430B2 JP 6679430 B2 JP6679430 B2 JP 6679430B2 JP 2016126561 A JP2016126561 A JP 2016126561A JP 2016126561 A JP2016126561 A JP 2016126561A JP 6679430 B2 JP6679430 B2 JP 6679430B2
Authority
JP
Japan
Prior art keywords
subject
touch
unit
pressure
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016126561A
Other languages
Japanese (ja)
Other versions
JP2018006803A (en
Inventor
横山 俊一
俊一 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016126561A priority Critical patent/JP6679430B2/en
Publication of JP2018006803A publication Critical patent/JP2018006803A/en
Application granted granted Critical
Publication of JP6679430B2 publication Critical patent/JP6679430B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Lens Barrels (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、撮像装置の制御方法及びプログラムに関し、特に、タッチ圧力を検出可能なタッチパネルを備える撮像装置に関する。   The present invention relates to an image pickup apparatus, a method for controlling the image pickup apparatus, and a program, and particularly to an image pickup apparatus including a touch panel capable of detecting touch pressure.

デジタルカメラ等の撮像装置には、撮影時に被写体を表示する液晶パネル等の表示装置が設けられており、ユーザ(撮影者)は表示装置の画面を確認しながら撮影操作を行うことができる。撮影時には、例えば、手前に樹木の枝葉や花、人物が写り込むと同時に、その奥に山々や建造物群等の背景が写り込む構図のように、奥行き方向に存在する複数の被写体が重なって表示装置に表示されることが多々ある。このような場合に、複数の被写体の中からユーザが選択した所望の被写体にフォーカスを合わせるためにユーザが行う操作をアシストする技術が提案されている。例えば、特許文献1には、ユーザのレンズ操作に応じて、表示装置の画面上のコントラスト情報を表示することにより、フォーカス対象となる被写体の選択をアシストする技術が提案されている。   An imaging device such as a digital camera is provided with a display device such as a liquid crystal panel that displays a subject at the time of shooting, and a user (photographer) can perform a shooting operation while checking the screen of the display device. When shooting, for example, the branches and leaves of trees and flowers, people are reflected in the foreground, and at the same time the background of mountains, buildings, etc. is reflected in the back, and multiple subjects existing in the depth direction overlap. Often displayed on a display device. In such a case, there has been proposed a technique for assisting an operation performed by a user in order to focus on a desired subject selected by the user from a plurality of subjects. For example, Patent Document 1 proposes a technique of displaying contrast information on the screen of a display device according to a user's lens operation to assist selection of a subject to be focused.

特許第4374574号公報Japanese Patent No. 4374574

しかしながら、上記特許文献1に記載された技術は、ユーザが手動でレンズを操作する撮像装置を前提としている。そのため、ユーザがフォーカスを合わせたい被写体領域の選択を、表示装置に対する指先等によるタッチ操作によって行う撮像装置には適用することができない。   However, the technique described in Patent Document 1 is premised on an imaging device in which a user manually operates a lens. Therefore, it cannot be applied to an image pickup apparatus in which the user selects a subject area to be focused by a touch operation with a fingertip or the like on the display apparatus.

本発明は、フォーカス対象となる被写体のタッチ操作による選択を容易にする技術を提供することを目的とする。   An object of the present invention is to provide a technique for facilitating selection of a subject to be focused by touch operation.

本発明に係る撮像装置は、被写体像を取得する取得手段と、タッチパネルを含み、前記取得手段が取得した被写体像を表示する表示手段と、前記表示手段へのタッチ操作を検出するタッチ検出手段と、前記表示手段に対するタッチ圧力を検出する圧力検出手段と、前記表示手段に対するタッチ位置を中心とした所定の距離範囲内の被写体を検出する被写体検出手段と、前記被写体検出手段により検出された被写体までの距離を測定する測距手段と、前記圧力検出手段によって検出されたタッチ圧力の大きさに応じて、前記被写体検出手段により検出された被写体の中からフォーカスを合わせる被写体を選択する選択手段と、前記測距手段が取得した距離情報に基づいて前記選択手段によって選択された被写体にフォーカスを合わせるフォーカス手段と、を備えることを特徴とする。   An imaging apparatus according to the present invention includes an acquisition unit that acquires a subject image, a touch panel, a display unit that displays the subject image acquired by the acquisition unit, and a touch detection unit that detects a touch operation on the display unit. A pressure detecting means for detecting a touch pressure on the display means, a subject detecting means for detecting a subject within a predetermined distance range around a touch position on the display means, and a subject detected by the subject detecting means Distance measuring means for measuring the distance, and selecting means for selecting a subject to be focused from among the subjects detected by the subject detecting means according to the magnitude of the touch pressure detected by the pressure detecting means, A focus that focuses on the subject selected by the selecting means based on the distance information acquired by the distance measuring means. Characterized in that it comprises a means.

本発明によれば、表示装置の画面に複数の被写体が重なって表示されている場合であっても、表示装置の画面に対するタッチ操作によりフォーカス対象となる被写体を容易に選択することができる。   According to the present invention, even when a plurality of subjects are displayed in an overlapping manner on the screen of the display device, it is possible to easily select the subject to be focused by a touch operation on the screen of the display device.

本発明の実施形態に係るデジタルカメラの概略構成を示すブロック図である。It is a block diagram showing a schematic structure of a digital camera concerning an embodiment of the present invention. デジタルカメラの外観構成を示す正面図と背面図である。It is the front view and rear view which show the external appearance constitution of the digital camera. デジタルカメラでの撮影時にフォーカスを合わせる被写体を決定する処理を説明するフローチャートである。6 is a flowchart illustrating a process of determining a subject to be focused when shooting with a digital camera. デジタルカメラにおいて生成される距離マップを説明する図である。It is a figure explaining the distance map generated in a digital camera. ステップS304での被写体検出処理を説明する図である。It is a figure explaining the to-be-photographed object detection process in step S304. ステップS304で検出された被写体からフォーカス対象を選択する過程を説明する図である。It is a figure explaining the process which selects a focus object from the to-be-photographed object detected by step S304. ステップS304で決定されたフォーカス対象の表示例を示す図である。It is a figure which shows the example of a display of the focus object determined by step S304. デジタルカメラでの別の撮影動作を説明するフローチャートである。9 is a flowchart illustrating another shooting operation of the digital camera.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。ここでは、本発明に係る撮像装置として、所謂、デジタルカメラを取り上げる。但し、本発明は、これに限定されるものではなく、タッチパネルを備える液晶パネルや有機ELパネル等の表示装置を有すると共に光電変換素子による撮像機能を有する各種の電子機器への適用が可能である。例えば、本発明に係る撮像装置は、デジタルビデオカメラ、スマートフォン、携帯電話、パーソナルコンピュータ(タブレット端末、モバイル端末等)、ゲーム機等の各種の電子機器にも適用が可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Here, a so-called digital camera is taken up as an image pickup apparatus according to the present invention. However, the present invention is not limited to this, and can be applied to various electronic devices having a display device such as a liquid crystal panel or an organic EL panel having a touch panel and having an imaging function by a photoelectric conversion element. . For example, the imaging device according to the present invention can be applied to various electronic devices such as a digital video camera, a smart phone, a mobile phone, a personal computer (tablet terminal, mobile terminal, etc.), and a game machine.

図1は、本発明の実施形態に係るデジタルカメラ100の概略構成を示すブロック図である。デジタルカメラ100は、DRAM101、データバス102、レンズユニット103、レンズ制御部104、撮像素子105、カメラ信号処理部106、被写体検出部107、距離情報生成部108、表示制御部109及び表示装置110を備える。表示装置110は、表示部111とタッチパネル112を備える。デジタルカメラ100はまた、CPU113、タッチパネル制御部114、操作部115、プログラムバス116、ROM117、RAM118、制御バス119及びメディアIF部120を備える。デジタルカメラ100に対して、メモリカード(半導体記憶装置)等の記憶媒体150の着脱が可能となっている。   FIG. 1 is a block diagram showing a schematic configuration of a digital camera 100 according to the embodiment of the present invention. The digital camera 100 includes a DRAM 101, a data bus 102, a lens unit 103, a lens controller 104, an image sensor 105, a camera signal processor 106, a subject detector 107, a distance information generator 108, a display controller 109 and a display device 110. Prepare The display device 110 includes a display unit 111 and a touch panel 112. The digital camera 100 also includes a CPU 113, a touch panel control unit 114, an operation unit 115, a program bus 116, a ROM 117, a RAM 118, a control bus 119, and a media IF unit 120. A storage medium 150 such as a memory card (semiconductor storage device) can be attached to and detached from the digital camera 100.

DRAM101は、デジタルカメラ100のメインメモリであり、画像データ等を一時保存する。データバス102は、DRAM101へのアクセスするための伝送路である。レンズユニット103は、被写体を撮影するための撮影光路を形成するズームレンズやフォーカスレンズ、像ぶれ補正レンズ、絞り等を含み、レンズユニット103を通過した光は、被写体の光学像として撮像素子105に結像する。レンズ制御部104は、レンズユニット103の動作制御を司り、ズームレンズの駆動による画角調整やフォーカスレンズの駆動によるオートフォーカス等を行う。撮像素子105は、結像した光学像をアナログ電気信号に変換するCCDセンサ又はCMOSセンサ等の光電変換素子である。撮像素子105には、撮像面の各画素の信号を分割して取り込む位相差検出用センサが埋め込まれており、各画素単位で位相差信号を出力することができるように構成されている。なお、本実施形態では、撮像素子105は、A/D変換器を有しており、光電変換により生成したアナログ電気信号をA/D変換によりデジタルデータ(撮像データ)へ変換してDRAM101へ一時保存することができるように構成されているものとする。   The DRAM 101 is a main memory of the digital camera 100 and temporarily stores image data and the like. The data bus 102 is a transmission path for accessing the DRAM 101. The lens unit 103 includes a zoom lens, a focus lens, an image blur correction lens, an aperture, and the like that form a shooting optical path for shooting a subject, and the light that has passed through the lens unit 103 is transmitted to the image sensor 105 as an optical image of the subject. Form an image. The lens control unit 104 controls the operation of the lens unit 103, and adjusts the angle of view by driving the zoom lens and performs autofocus by driving the focus lens. The image pickup element 105 is a photoelectric conversion element such as a CCD sensor or a CMOS sensor that converts the formed optical image into an analog electric signal. The image sensor 105 is embedded with a phase difference detection sensor that divides and captures the signal of each pixel on the imaging surface, and is configured to be able to output the phase difference signal for each pixel. In the present embodiment, the image sensor 105 has an A / D converter, converts an analog electric signal generated by photoelectric conversion into digital data (imaging data) by A / D conversion, and temporarily stores it in the DRAM 101. It shall be configured so that it can be saved.

カメラ信号処理部106は、DRAM101へ一時保存された撮像データに対するノイズリダクション処理、現像処理、画像補正処理、リサイズ等の各種の画像処理を行う画像処理手段である。カメラ信号処理部106による画像処理が行われた後の撮像データ(画像データ)は、DRAM101を介して又はメディアIF部120を通して直接に、記憶媒体150に書き込まれる。被写体検出部107は、カメラ信号処理部106によって生成された画像データに基づいて被写体を検出する。なお、被写体の検出方法には周知の技術を用いることができ、ここでの詳細な説明は省略する。距離情報生成部108は、撮像素子105(に組み込まれた位相差検出用センサ)によって取得された位相差信号に基づき、デジタルカメラ100から被写体検出部107が検出した被写体までの距離を測定し、距離情報を生成する測距手段である。   The camera signal processing unit 106 is an image processing unit that performs various image processing such as noise reduction processing, development processing, image correction processing, and resizing on the imaged data temporarily stored in the DRAM 101. The imaging data (image data) after the image processing by the camera signal processing unit 106 is written to the storage medium 150 via the DRAM 101 or directly via the media IF unit 120. The subject detection unit 107 detects a subject based on the image data generated by the camera signal processing unit 106. A known technique can be used for the method of detecting the subject, and detailed description thereof will be omitted here. The distance information generation unit 108 measures the distance from the digital camera 100 to the subject detected by the subject detection unit 107 based on the phase difference signal acquired by the image sensor 105 (the phase difference detection sensor incorporated therein), It is a distance measuring unit that generates distance information.

CPU113は、プログラムバス116を介してROM117に記憶されたコンピュータプログラムをRAM118に展開してデジタルカメラ100を構成する各部の動作を制御することにより、デジタルカメラ100の全体的な動作及び制御を実現する。ROM117には、CPU113が実行する各種コンピュータプログラムやパラメータ等が格納されている。RAM118は、CPU113のワークメモリ等として機能する。制御バス119は、CPU113がデジタルカメラ100を構成する各部との通信を行うための伝送路である。なお、デジタルカメラ100の全体的な制御は、デジタルカメラ100を構成する各部の処理の全部又は一部を論理回路により実現するASIC等の専用プロセッサによって行われてもよい。カメラ信号処理部106や被写体検出部107、距離情報生成部108等についても同様に、ソフトウェア(プログラム)による実装とハードウェアによる実装のいずれも可能であり、ソフトウェアとハードウェアとの組合せによって実装されていてもよい。   The CPU 113 realizes the overall operation and control of the digital camera 100 by expanding the computer program stored in the ROM 117 into the RAM 118 via the program bus 116 and controlling the operation of each unit constituting the digital camera 100. . The ROM 117 stores various computer programs executed by the CPU 113, parameters, and the like. The RAM 118 functions as a work memory or the like of the CPU 113. The control bus 119 is a transmission path for the CPU 113 to communicate with each unit that constitutes the digital camera 100. Note that the overall control of the digital camera 100 may be performed by a dedicated processor such as an ASIC that implements all or part of the processing of each unit configuring the digital camera 100 by a logic circuit. Similarly, the camera signal processing unit 106, the subject detection unit 107, the distance information generation unit 108, and the like can be implemented by software (program) or hardware, and are implemented by a combination of software and hardware. May be.

表示制御部109は、DRAM101に一時保持されている画像データを読み込み、表示部111へ出力する。表示部111は、液晶パネル又は有機ELパネル等のフラットパネルであり、表示制御部109を通して取得する画像データ(レンズユニット103を通して得られる被写体の映像)を表示する。表示制御部109は、表示部111に表示する画像データの任意の領域を強調して表示部111に表示する機能を有する。タッチパネル112は、ユーザからのタッチ操作を受け付ける。タッチパネル112は、表示部111に対して重畳配置されている。   The display control unit 109 reads the image data temporarily stored in the DRAM 101 and outputs it to the display unit 111. The display unit 111 is a flat panel such as a liquid crystal panel or an organic EL panel, and displays image data acquired through the display control unit 109 (video of a subject obtained through the lens unit 103). The display control unit 109 has a function of emphasizing an arbitrary area of the image data displayed on the display unit 111 and displaying the highlighted area on the display unit 111. The touch panel 112 receives a touch operation from a user. The touch panel 112 is superposed on the display unit 111.

タッチパネル制御部114は、タッチパネル112に対する入力に基づき、少なくとも以下の操作を検出する。タッチパネル制御部114は、タッチパネル112に対して指やペン等(以下「指等」という)によるタッチ操作が行われたことを検出するタッチ検出手段として機能する。具体的には、タッチパネル制御部114は、タッチパネル112へ指等が触れるタッチダウンと、触れていた指等がタッチパネル112から離れるタッチアップを検出する。タッチパネル制御部114は、指等がタッチパネル112に触れている状態(以下「タッチオン」という)にあるときに、タッチパネル112に対するタッチ圧力を所定時間毎に検知する圧力検出手段としても機能する。タッチオンの継続時間(タッチダウンからタッチアップまでの時間)に制限はない。タッチパネル制御部114は更に、例えば、タッチパネル112にタッチした指等の面積を検知し、検知した面積に基づいてタッチ圧力を取得する圧力検出手段としても機能する。タッチパネル112に指等がタッチしたときのタッチ面積をタッチ圧力とする技術や製品は周知であるので、ここでの説明を省略する。本実施形態では、タッチパネル制御部114が検出可能なタッチ圧力の最大値を“Fmax”とする。タッチパネル制御部114が検知した操作やタッチ圧力は、制御バス119を通じてCPU113に通知される。   The touch panel control unit 114 detects at least the following operations based on the input to the touch panel 112. The touch panel control unit 114 functions as a touch detection unit that detects that a touch operation is performed on the touch panel 112 with a finger, a pen, or the like (hereinafter referred to as “finger or the like”). Specifically, the touch panel control unit 114 detects touch-down in which a finger or the like touches the touch panel 112 and touch-up in which the touched finger or the like separates from the touch panel 112. The touch panel control unit 114 also functions as a pressure detection unit that detects the touch pressure on the touch panel 112 at predetermined intervals when the finger or the like is in contact with the touch panel 112 (hereinafter referred to as “touch on”). There is no limit on the duration of touch-on (time from touch-down to touch-up). The touch panel control unit 114 further functions as, for example, a pressure detection unit that detects the area of a finger or the like touching the touch panel 112 and acquires the touch pressure based on the detected area. Techniques and products that use the touch area when the touch panel 112 is touched by a finger or the like as the touch pressure are well known, so description thereof will be omitted here. In the present embodiment, the maximum value of the touch pressure that the touch panel control section 114 can detect is “Fmax”. The operation and touch pressure detected by the touch panel control unit 114 are notified to the CPU 113 through the control bus 119.

また、タッチパネル制御部114は、タッチパネル112上で指等が移動する動作であるムーブ(ドラッグ)を検出することができる。タッチパネル制御部114は、タッチパネル112上を移動する指等の移動方向を、タッチパネル112上の垂直方向と水平方向のそれぞれについて、タッチ位置(タッチ点)の座標(以下「タッチ座標」という)の変化に基づいて求めることができる。なお、タッチパネル制御部114は、一般的に、フリック、ピンチアウト等と称呼される動作の検知も可能であるが、本実施形態ではこれらの動作を直接に、フォーカスを合わせる被写体の決定に用いることはないので、ここでの説明を省略する。   In addition, the touch panel control unit 114 can detect a move (drag), which is an operation of moving a finger or the like on the touch panel 112. The touch panel control unit 114 changes coordinates of touch positions (touch points) (hereinafter, referred to as “touch coordinates”) in the moving direction of a finger or the like moving on the touch panel 112 in each of the vertical direction and the horizontal direction on the touch panel 112. Can be determined based on. Note that the touch panel control unit 114 can also detect actions generally referred to as flicks, pinch-outs, etc., but in the present embodiment, these actions are directly used to determine the subject to be focused. Since it does not exist, the description is omitted here.

プログラムバス116は、CPU113、ROM117、RAM118及び操作部115を接続する伝送路である。操作部115は、ユーザがデジタルカメラ100の動作指示を行うためのボタンや十字キー等である。メディアIF部120は、DRAM101に一時保持されている画像データを読み込んで記憶媒体150へ書き込み、逆に、記憶媒体150に記憶されている画像データをDRAM101に読み出すためのインタフェースである。   The program bus 116 is a transmission line that connects the CPU 113, the ROM 117, the RAM 118, and the operation unit 115. The operation unit 115 is a button, a cross key, or the like for the user to give an operation instruction of the digital camera 100. The media IF unit 120 is an interface for reading the image data temporarily stored in the DRAM 101 and writing the image data in the storage medium 150, and conversely, reading the image data stored in the storage medium 150 into the DRAM 101.

図2は、デジタルカメラ100の外観構成を簡略的に説明する図であり、図2(a)は正面図であり、図2(b)は背面図である。デジタルカメラ100の筐体(ボディ)の正面には、レンズユニット103が配置されている。筐体の上面には、シャッタボタン201や電源ボタン(不図示)等が配置されている。筐体の背面には、十字キー202と表示画面203が配置されている。表示画面203は、表示部111にタッチパネル112が重畳されたものである。ユーザが表示画面203に表示された被写体等に対して指等でタッチ操作を行うと、そのタッチ操作がタッチパネル112を通じてタッチパネル制御部114によって検出される。   2A and 2B are diagrams for briefly explaining the external configuration of the digital camera 100. FIG. 2A is a front view and FIG. 2B is a rear view. A lens unit 103 is arranged on the front surface of the housing of the digital camera 100. A shutter button 201, a power button (not shown), and the like are arranged on the upper surface of the housing. A cross key 202 and a display screen 203 are arranged on the back surface of the housing. The display screen 203 is one in which the touch panel 112 is superimposed on the display unit 111. When the user performs a touch operation on a subject or the like displayed on the display screen 203 with a finger or the like, the touch operation is detected by the touch panel control unit 114 through the touch panel 112.

図3は、デジタルカメラ100での撮影時にフォーカスを合わせる被写体を決定する処理を説明するフローチャートである。図3のフローチャートに示される各処理は、CPU113がROM117に格納されたプログラムをRAM118に展開して、デジタルカメラ100を構成する各部の動作を制御することによって実現される。   FIG. 3 is a flowchart illustrating a process of determining a subject to be focused on when shooting with the digital camera 100. Each process shown in the flowchart of FIG. 3 is realized by the CPU 113 loading the program stored in the ROM 117 into the RAM 118 and controlling the operation of each unit constituting the digital camera 100.

ステップS301においてCPU113は、被写体像であるライブビュー映像を表示部111(表示画面203)に表示する。具体的には、レンズユニット103を通して入射した光が撮像素子105に光学像として結像すると、撮像素子105は光学像をデジタルデータである撮像データに変換し、生成された撮像データがDRAM101に一時保存される。DRAM101に一時保存された撮像データは、カメラ信号処理部106によって読み出された後にカメラ信号処理部106により画像処理され、画像データとしてDRAM101へ一時保存される。DRAM101に一時保存された画像データは表示制御部109によって読み出され、表示制御部109はD/A変換等を行って表示部111へ出力する。これにより、表示部111に被写体像が表示される。なお、ステップS301では、CPU113の制御下でレンズ制御部104が、被写体像がパンフォーカスとなるようにレンズユニット103の絞りを所定の設定値に制御することが望ましい。また、ステップS301の処理は、撮影開始から所定時間毎に行われ、これにより時間的に連続する被写体像が得られる。   In step S301, the CPU 113 displays a live view image that is a subject image on the display unit 111 (display screen 203). Specifically, when the light incident through the lens unit 103 forms an optical image on the image sensor 105, the image sensor 105 converts the optical image into digital image data, and the generated image data is temporarily stored in the DRAM 101. Saved. The imaging data temporarily stored in the DRAM 101 is read by the camera signal processing unit 106, then image-processed by the camera signal processing unit 106, and temporarily stored in the DRAM 101 as image data. The image data temporarily stored in the DRAM 101 is read by the display control unit 109, and the display control unit 109 performs D / A conversion or the like and outputs it to the display unit 111. As a result, the subject image is displayed on the display unit 111. In step S301, it is desirable that the lens control unit 104, under the control of the CPU 113, controls the aperture of the lens unit 103 to a predetermined set value so that the subject image becomes a pan focus. In addition, the process of step S301 is performed every predetermined time from the start of shooting, whereby a subject image that is temporally continuous is obtained.

ステップS302においてCPU113は、タッチパネル112に対するタッチ操作があったか否かを判定する。例えば、CPU113は、タッチパネル制御部114からタッチダウンの検出信号を受信することにより、タッチパネル112に対する指等のタッチ操作があったと判定する。タッチパネル制御部114は、タッチ操作を検出した場合には、タッチダウンの検出信号に加えて、タッチ座標(X1,Y1)と、タッチ圧力F1をCPU113に通知する。そして、CPU113は、タッチパネル制御部114から通知されたタッチ座標(X1,Y1)とタッチ圧力F1をRAM118に記憶する。CPU113は、タッチ操作が検出されるまで待機し(S302でNO)、タッチ操作が検出されると(S302でYES)、処理をステップS303へ進める。   In step S302, the CPU 113 determines whether or not there is a touch operation on the touch panel 112. For example, the CPU 113 determines that there is a touch operation such as a finger on the touch panel 112 by receiving a touchdown detection signal from the touch panel control unit 114. When the touch operation is detected, the touch panel control unit 114 notifies the CPU 113 of the touch coordinates (X1, Y1) and the touch pressure F1 in addition to the touchdown detection signal. Then, the CPU 113 stores the touch coordinates (X1, Y1) and the touch pressure F1 notified from the touch panel control unit 114 in the RAM 118. The CPU 113 waits until a touch operation is detected (NO in S302), and when the touch operation is detected (YES in S302), advances the process to step S303.

ステップS303においてCPU113は、距離情報生成部108に距離情報の生成を指示する。距離情報生成部108は、撮像素子105によって取得された位相差信号に基づいて被写体像の距離情報(距離マップ)を生成し、DRAM101に一時保存されている画像データに関連付けてDRAM101に記憶する。CPU113は、DRAM101に記憶された距離マップを取得する。   In step S303, the CPU 113 instructs the distance information generation unit 108 to generate distance information. The distance information generation unit 108 generates distance information (distance map) of the subject image based on the phase difference signal acquired by the image sensor 105, and stores it in the DRAM 101 in association with the image data temporarily stored in the DRAM 101. The CPU 113 acquires the distance map stored in the DRAM 101.

ここで、距離情報生成部108による距離情報の生成処理について説明する。図4(A)は、デジタルカメラ100と被写体410,411,412との位置関係(距離関係)を模式的に示す図である。デジタルカメラ100から被写体410,411,412までの各距離を距離L1,L2,L3(L1<L2<L3)とする。撮像素子105は、前述の通りに画素単位でオートフォーカス(AF)用の位相差情報を取得することができるため、距離情報生成部108は、撮像素子105から取得した位相差情報に基づいて被写体までの距離情報を所定の分解能で生成する。なお、このような撮像面位相差の検出による距離情報の生成方法については、周知の技術を用いることができるため、ここでの詳細な説明は省略する。   Here, the distance information generation processing by the distance information generation unit 108 will be described. FIG. 4A is a diagram schematically showing the positional relationship (distance relationship) between the digital camera 100 and the subjects 410, 411, 412. The respective distances from the digital camera 100 to the subjects 410, 411, 412 are distances L1, L2, L3 (L1 <L2 <L3). Since the image sensor 105 can acquire the phase difference information for autofocus (AF) on a pixel-by-pixel basis as described above, the distance information generation unit 108 sets the subject based on the phase difference information acquired from the image sensor 105. Distance information up to is generated with a predetermined resolution. A well-known technique can be used for the method of generating the distance information by detecting the phase difference of the imaging plane, and thus the detailed description thereof is omitted here.

図4(B)は、被写体410,411,412と距離L1〜L2の関係を2次元画像情報として表した距離マップ400と、距離マップ400に対応するインジケータ405を説明する図である。距離マップ400では、デジタルカメラ100から被写体までの距離が画像の濃淡に置換されている。なお、距離マップ400において模式的に示される多数の略矩形の1区画は、撮像素子105の1画素に対応していてもよいし、複数画素に対応していてもよい。ここでは、被写体が存在する領域の色が、デジタルカメラ100に近くなるにしたがって淡色で表され、デジタルカメラ100から遠ざかるにしたがって濃色で表されるようにしている。図4(B)中において、被写体410,411,412はそれぞれ、距離データ420,421,422に対応しており、被写体410がデジタルカメラ100に最も近い位置にあり、被写体412がデジタルカメラ100から最も遠い位置にあることがわかる。   FIG. 4B is a diagram illustrating a distance map 400 that represents the relationship between the subjects 410, 411, and 412 and the distances L1 and L2 as two-dimensional image information, and an indicator 405 corresponding to the distance map 400. In the distance map 400, the distance from the digital camera 100 to the subject is replaced with the shading of the image. Note that a large number of substantially rectangular one sections schematically shown in the distance map 400 may correspond to one pixel of the image sensor 105 or may correspond to a plurality of pixels. Here, the color of the area in which the subject is present is represented by a light color as it gets closer to the digital camera 100, and as a color as it gets farther from the digital camera 100. In FIG. 4B, the subjects 410, 411, and 412 correspond to the distance data 420, 421, and 422, respectively, the subject 410 is closest to the digital camera 100, and the subject 412 is from the digital camera 100. You can see that it is in the farthest position.

インジケータ405は、デジタルカメラ100から被写体までの距離と距離マップ400での濃淡との関係を示している。図3のフローチャートにしたがう処理の間に、実際に距離マップ400やインジケータ405が表示画面203(表示部111)に表示されることはない。距離マップの表示形式は、これに限られるものではなく、デジタルカメラ100からの複数の被写体の距離関係(遠近関係)がわかればよい。   The indicator 405 indicates the relationship between the distance from the digital camera 100 to the subject and the shade in the distance map 400. During the process according to the flowchart of FIG. 3, the distance map 400 and the indicator 405 are not actually displayed on the display screen 203 (display unit 111). The display format of the distance map is not limited to this, and the distance relationship (distance relationship) between the plurality of subjects from the digital camera 100 may be known.

図3のフローチャートの説明に戻る。ステップS304においてCPU113は、RAM118に記憶されたタッチ座標(X1,Y1)に基づき、タッチ座標から予め定められた所定の距離範囲内にある被写体の検出を被写体検出部107に指示する。被写体検出部107は、ステップS303において距離情報生成部108によって生成されてDRAM101に保存された距離マップ400を用いて、タッチ座標(X1,Y1)から所定の距離範囲内に存在する被写体を検出する。   Returning to the description of the flowchart in FIG. In step S304, the CPU 113 instructs the subject detection unit 107 to detect a subject within a predetermined distance range determined in advance from the touch coordinates, based on the touch coordinates (X1, Y1) stored in the RAM 118. The subject detecting unit 107 detects a subject existing within a predetermined distance range from the touch coordinates (X1, Y1) using the distance map 400 generated by the distance information generating unit 108 and stored in the DRAM 101 in step S303. .

ここで、被写体検出部107による被写体検出処理について説明する。図5(A)は、表示画面203(表示部111)に表示されたライブビュー映像を示す図である。表示画面203には、被写体501,502,503が写り込んでおり、点Aがユーザによる指等によるタッチ座標(X1,Y1)として検出されたものとする。図5(B)は、図5(A)に対応する距離マップ500とインジケータ405を示す図である。距離マップ500に示される領域501a,502a,503aはそれぞれ、被写体501,502,503に対応している。距離マップ500は、ステップS304において生成されて、DRAM101に保存される。図5(A)に示すように、点Aがタッチ座標(X1,Y1)として検出されると、被写体検出部107は、点Aを中心として点Aから所定の距離範囲Pの内部にある被写体を検出する。図5(B)に示す距離マップ500上の領域Paは、図5(A)の表示画面203内の距離範囲Pに対応している。   Here, the subject detection processing by the subject detection unit 107 will be described. FIG. 5A is a diagram showing a live view image displayed on the display screen 203 (display unit 111). It is assumed that the subjects 501, 502, and 503 are reflected on the display screen 203, and that the point A is detected as touch coordinates (X1, Y1) by the finger or the like of the user. FIG. 5B is a diagram showing the distance map 500 and the indicator 405 corresponding to FIG. Areas 501a, 502a, 503a shown in the distance map 500 correspond to the subjects 501, 502, 503, respectively. The distance map 500 is generated in step S304 and stored in the DRAM 101. As shown in FIG. 5A, when the point A is detected as touch coordinates (X1, Y1), the subject detecting unit 107 causes the subject within the predetermined distance range P from the point A to be the center. To detect. The area Pa on the distance map 500 shown in FIG. 5B corresponds to the distance range P in the display screen 203 of FIG. 5A.

被写体検出部107は、領域Pa内の距離情報を解析し、距離データの数を距離の最小値から最大値の昇順に集計する。距離データの数は、距離マップ500において各距離範囲に対応する略正方形の区画が幾つあるかを検出することになる。図6(A)は、領域Pa内での距離情報の解析結果を示す図である。図6(B)は、図6(A)を図式化した度数分布図である。被写体検出部107は、度数分布図に基づき、領域Pa内に存在する被写体を検出する。図6(C)は、被写体検出部107による距離データと被写体との関連付け処理の結果を示す図である。ここでは、被写体501,502が、距離範囲P(領域Pa)内の被写体として検出されている。   The subject detection unit 107 analyzes the distance information in the area Pa, and totalizes the number of distance data in ascending order from the minimum value to the maximum value of the distance. The number of distance data will detect how many substantially square sections corresponding to each distance range are present in the distance map 500. FIG. 6A is a diagram showing an analysis result of the distance information within the area Pa. FIG. 6B is a frequency distribution diagram in which FIG. 6A is schematically illustrated. The subject detection unit 107 detects a subject existing in the area Pa based on the frequency distribution chart. FIG. 6C is a diagram showing a result of the process of associating the distance data with the subject by the subject detection unit 107. Here, the subjects 501 and 502 are detected as subjects within the distance range P (region Pa).

図3のフローチャートの説明に戻る。ステップS305においてCPU113は、被写体選択手段として機能し、フォーカス対象となる(ピントを合わせる)被写体を選択する。具体的には、CPU113は、ステップS304にて被写体検出部107が検出した被写体数に基づき、タッチパネル制御部114が取得可能なタッチ圧力の最大値FmaxをステップS304で検出した距離範囲P内の被写体の数で等分割する。そして、CPU113は、タッチ圧力の圧力範囲とフォーカス対象被写体の関連付けを行う。図6(D)は、距離範囲Pについてタッチ圧力と被写体との関連付けを行った結果を示す図である。被写体検出部107が検出した被写体の数がN(Nは自然数)である場合、最大値FmaxはN分割される。図6(C)に示したように被写体検出部107が検出した被写体の数が2つの場合、最大値Fmaxを2分割することにより、タッチ圧力と被写体とが関連付けられる。   Returning to the description of the flowchart in FIG. In step S305, the CPU 113 functions as a subject selection unit and selects a subject to be focused (focused). Specifically, the CPU 113 determines, based on the number of subjects detected by the subject detection unit 107 in step S304, the maximum value Fmax of the touch pressure that can be acquired by the touch panel control unit 114 within the distance range P detected in step S304. Divide equally by the number of. Then, the CPU 113 associates the pressure range of the touch pressure with the subject to be focused. FIG. 6D is a diagram showing a result of associating the touch pressure with the subject in the distance range P. When the number of subjects detected by the subject detection unit 107 is N (N is a natural number), the maximum value Fmax is divided into N. When the number of subjects detected by the subject detection unit 107 is two, as shown in FIG. 6C, the touch pressure and the subject are associated by dividing the maximum value Fmax into two.

CPU113は、タッチパネル制御部114の取得したタッチ圧力及び図6(D)の情報を参照し、フォーカス対象の被写体を選択する。例えば、ステップS302で検出されたタッチ圧力F1が、0<F1<Fmax/2である場合には、フォーカス対象となる被写体として被写体501が選択される。図7は、被写体501がフォーカス対象として選択されたときの表示画面203の例を示す図である。CPU113の制御下において表示制御部109は、被写体501を被写体502と区別して、被写体501に対して所定の色等を重畳表示する(被写体501の色を変える)等の強調表示を行う。これにより、ユーザは、フォーカス対象となっている被写体を容易に認識することができる。なお、フォーカス対象となっている被写体の強調表示は、色の変更に限定されず、例えば、エッジの強調等でもよい。また、ここでは、タッチ圧力が小さい場合に、デジタルカメラ100に近い被写体がフォーカス対象として選択される構成としている。しかし、これとは逆に、タッチ圧力が大きい場合にデジタルカメラ100に近い被写体がフォーカス対象として選択される構成としてもよい。   The CPU 113 refers to the touch pressure acquired by the touch panel control unit 114 and the information in FIG. 6D to select the subject to be focused. For example, when the touch pressure F1 detected in step S302 is 0 <F1 <Fmax / 2, the subject 501 is selected as the subject to be focused. FIG. 7 is a diagram showing an example of the display screen 203 when the subject 501 is selected as the focus target. Under the control of the CPU 113, the display control unit 109 distinguishes the subject 501 from the subject 502, and performs highlighting such as superimposing a predetermined color or the like on the subject 501 (changing the color of the subject 501). This allows the user to easily recognize the subject that is the focus target. It should be noted that the highlighting of the subject to be focused is not limited to changing the color, and may be, for example, edge highlighting. Further, here, when the touch pressure is small, a subject close to the digital camera 100 is selected as a focus target. However, conversely, when the touch pressure is large, a subject close to the digital camera 100 may be selected as the focus target.

ステップS306においてCPU113は、ステップS304で検出した被写体の数が1より多いか否かを判定する。CPU113は、被写体の数が1以下の場合(S306でNO)、処理をステップS308へ進め、被写体の数が1より多い場合(S306でYES)、処理をステップS307へ進める。なお、被写体の数が1つの場合には、タッチ圧力の変化(ステップS307)を考慮しない。これは、被写体の数が1つの場合には、タッチ位置が変化しない限りは、フォーカス対象となる被写体が変わることはないからである。よって、被写体の数が1つの場合には、タッチ位置が変わったか否かを判定すればよいため、処理はステップS308へ進められることになる。   In step S306, the CPU 113 determines whether the number of subjects detected in step S304 is greater than one. When the number of subjects is 1 or less (NO in S306), CPU 113 advances the process to step S308, and when the number of subjects is more than 1 (YES in S306), advances the process to step S307. When the number of subjects is one, the change in touch pressure (step S307) is not considered. This is because when the number of subjects is one, the subject to be focused does not change unless the touch position changes. Therefore, when the number of subjects is one, it suffices to determine whether or not the touch position has changed, and thus the process proceeds to step S308.

ステップS307においてCPU113は、タッチパネル制御部114からのタッチ位置でのタッチ圧力の通知に基づき、タッチ圧力が変化したか否かを判定する。なお、タッチパネル制御部114は、タッチオン時には所定の時間毎にタッチ位置でのタッチ圧力を検出し、検出結果をCPU113へ通知している。そして、CPU113は、タッチパネル制御部114からのタッチ圧力の通知に基づき、タッチ圧力を監視している。前述の通り、タッチ圧力の変化はタッチ面積の変化によって検出されるため、例えば、表示画面203に指が強く押し付けられるとタッチ面積が大きくなることで、タッチ圧力が大きくなったと判定される。CPU113は、タッチ圧力が変化した場合(S307でYES)、RAM118に記憶されているタッチ圧力F1をタッチ圧力F2へと更新して、処理をステップS305に戻す。例えば、0<F1<Fmax/2の関係からFmax/2<F2<Fmaxの関係へと変化した場合、ステップS307から戻ったステップS305では、フォーカス対象が被写体501から被写体502に変更される。この場合、図7を参照して説明した強調表示の対象も被写体501から被写体502へ変更される。一方、CPU113は、タッチ圧力が変化しない場合(S307でNO)、処理をステップS308へ進める。   In step S307, the CPU 113 determines whether the touch pressure has changed, based on the notification of the touch pressure at the touch position from the touch panel control unit 114. Note that the touch panel control unit 114 detects the touch pressure at the touch position at every predetermined time when the touch is on, and notifies the CPU 113 of the detection result. Then, the CPU 113 monitors the touch pressure based on the notification of the touch pressure from the touch panel control unit 114. As described above, the change in the touch pressure is detected by the change in the touch area. Therefore, for example, when the finger is strongly pressed against the display screen 203, the touch area is increased, and thus it is determined that the touch pressure is increased. When the touch pressure changes (YES in S307), the CPU 113 updates the touch pressure F1 stored in the RAM 118 to the touch pressure F2, and returns the process to step S305. For example, when the relationship of 0 <F1 <Fmax / 2 is changed to the relationship of Fmax / 2 <F2 <Fmax, the focus target is changed from the subject 501 to the subject 502 in step S305 returned from step S307. In this case, the target of the highlighted display described with reference to FIG. 7 is also changed from the subject 501 to the subject 502. On the other hand, when the touch pressure does not change (NO in S307), CPU 113 advances the process to step S308.

ステップS308においてCPU113は、タッチパネル制御部114からのタッチ位置の座標情報(タッチ座標)に基づき、タッチ位置が変化したか否かを判定する。なお、タッチパネル制御部114は、所定の時間毎にタッチ位置を検出し、検出結果(タッチ座標)をCPU113へ通知している。CPU113は、タッチ位置の座標が変化した場合(S308でYES)、処理をステップS303へ戻し、タッチ位置の座標が変化しない場合(S308でNO)、処理をステップS309へ進める。   In step S308, the CPU 113 determines whether the touch position has changed, based on the coordinate information (touch coordinates) of the touch position from the touch panel control unit 114. The touch panel control unit 114 detects the touch position at every predetermined time and notifies the CPU 113 of the detection result (touch coordinates). CPU113 returns a process to step S303, when the coordinate of a touch position changes (it is YES at S308), and when a coordinate of a touch position does not change (NO at S308), advances a process to step S309.

ステップS309においてCPU113は、タッチパネル制御部114からのタッチ位置の座標情報に基づき、タッチアップが検出されたか否か判定する。CPU113は、タッチアップが検出されていない場合(S309でNO)、処理をステップS306へ戻し、タッチアップが検出された場合(S309でYES)、処理をステップS310へ進める。ステップS310においてCPU113は、直近のステップS306で選択された被写体を、フォーカス対象の被写体として決定させる。そして、ステップS311では、CPU113の制御下でレンズ制御部104がレンズユニット103を駆動して、ステップS310でフォーカス対象として決定された被写体に対してフォーカスを合わせ、これにより本処理は終了となる。   In step S309, the CPU 113 determines whether touch-up is detected based on the coordinate information of the touch position from the touch panel control unit 114. CPU113 returns a process to step S306, when a touch up is not detected (NO in S309), and when a touch up is detected (YES in S309), advances a process to step S310. In step S310, the CPU 113 determines the subject selected in the latest step S306 as the subject to be focused. Then, in step S311, the lens control unit 104 drives the lens unit 103 under the control of the CPU 113 to focus on the subject determined as the focus target in step S310, and this processing ends.

なお、デジタルカメラ100では、ステップS311の後に、撮影動作が行われる。レンズユニット103が制御された後、撮像素子105による撮影が行われ、生成された画像データがDRAM101及びメディアIF部120を介して又は直接にメディアIF部120を介して、記憶媒体150に書き込まれる。以上の説明の通り、デジタルカメラ100では、タッチ圧力に応じてフォーカス対象となる被写体を選択するため、複数の被写体が重なる場合でも、確実にフォーカス対象となる被写体を決定することができる。   In the digital camera 100, the shooting operation is performed after step S311. After the lens unit 103 is controlled, imaging is performed by the image sensor 105, and the generated image data is written in the storage medium 150 via the DRAM 101 and the media IF unit 120 or directly via the media IF unit 120. . As described above, since the digital camera 100 selects the subject to be focused according to the touch pressure, the subject to be focused can be reliably determined even when a plurality of subjects overlap.

次に、デジタルカメラ100によるデジタルカメラ100での撮影動作の際にフォーカスを合わせる被写体を決定する別の処理について説明する。図8は、デジタルカメラ100での撮影動作の際にフォーカスを合わせる被写体を決定する別の処理のフローチャートである。図8のフローチャートに示すステップS801〜S804の処理は、図3のフローチャートに示したステップS301〜S304の処理と同様であるため、ここでの説明を省略する。ステップS805においてCPU113は、ステップS802で検出されてRAM118に記憶されたタッチ圧力F1が予め定められた所定値以上であるか否かを判定する。なお、所定値としての閾値F0は、0以上Fmax以下の範囲で定められる。   Next, another process for determining a subject to be focused when the digital camera 100 performs a shooting operation with the digital camera 100 will be described. FIG. 8 is a flowchart of another process of determining a subject to be focused during the shooting operation of the digital camera 100. The processing of steps S801 to S804 shown in the flowchart of FIG. 8 is the same as the processing of steps S301 to S304 shown in the flowchart of FIG. 3, so description thereof will be omitted here. In step S805, the CPU 113 determines whether the touch pressure F1 detected in step S802 and stored in the RAM 118 is greater than or equal to a predetermined value. The threshold value F0 as a predetermined value is set in the range of 0 or more and Fmax or less.

CPU113は、タッチ圧力F1が閾値F0以上である場合(F1≧F0,S805でYES)、処理をステップS806へ進め、タッチ圧力F1が閾値F0未満である場合(F1<F0,S805でNO)、処理をステップS807へ進める。ステップS806においてCPU113は、図6(C)を参照して説明した距離データと被写体とが関連付けられたテーブルに基づき、最遠方の被写体をフォーカス対象として選択する。一方、ステップS807においてCPU113は、図6(C)を参照して説明した距離データと被写体とが関連付けられたテーブルに基づき、最近方の被写体をフォーカス対象として選択する。よって、ユーザは、遠方の被写体にフォーカスを合わせたい場合には表示画面203に広い面積でタッチすればよいし、近方の被写体にフォーカスを合わせたい場合には表示画面203に狭い面積でタッチすればよい。このように、タッチダウンがあったときに最初に検出されるタッチ圧力F1の大きさに基づいてフォーカス対象となる被写体を選択可能な構成とすることにより、フォーカス対象となる被写体の選択を効率よく且つ容易に行うことができる。ステップS808〜S813の処理は、図3のフローチャートのステップS306〜S311の処理と同様であるため、ここでの説明を省略する。なお、ステップS808〜813の処理を行うことにより、例えば、タッチ位置から距離範囲P内に3つ以上の被写体がある場合でも、最近方の被写体と最遠方の被写体との間にある被写体をフォーカスを合わせる被写体として容易に選択することができる。   When the touch pressure F1 is greater than or equal to the threshold F0 (F1 ≧ F0, YES in S805), the CPU 113 advances the process to step S806, and when the touch pressure F1 is less than the threshold F0 (F1 <F0, NO in S805), The process proceeds to step S807. In step S806, the CPU 113 selects the farthest subject as the focus target based on the table in which the distance data and the subject are described with reference to FIG. 6C. On the other hand, in step S807, the CPU 113 selects the closest subject as the focus target based on the table in which the distance data and the subject are described with reference to FIG. 6C. Therefore, when the user wants to focus on a distant subject, he or she may touch the display screen 203 over a wide area, and when he wants to focus on a near subject, touch the display screen 203 over a narrow area. Good. In this way, the subject to be focused can be selected based on the magnitude of the touch pressure F1 that is initially detected when a touchdown occurs, so that the subject to be focused can be efficiently selected. And it can be performed easily. The processing of steps S808 to S813 is the same as the processing of steps S306 to S311 of the flowchart of FIG. 3, and therefore description thereof will be omitted here. By performing the processing of steps S808 to 813, for example, even when there are three or more subjects within the distance range P from the touch position, a subject between the closest subject and the farthest subject is focused. Can be easily selected as a subject to which is matched.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。例えば、ステップS307の処理では、CPU113に代えてタッチパネル制御部114がタッチ位置のタッチ圧力が変化したか否かを判定する構成としてもよい。この場合、CPU113は、タッチパネル制御部114から判定結果の通知を受けて、処理を進める構成とすればよい。同様に、ステップS308,S309の処理も、タッチパネル制御部114が判定を行う構成としてもよい。上述したフォーカス対象となる被写体の決定方法は、動画撮影時においてフォーカス対象を決定する場面にも適用することができる。   Although the present invention has been described above in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various embodiments within the scope not departing from the gist of the present invention are also included in the present invention. included. For example, in the process of step S307, the touch panel control unit 114, instead of the CPU 113, may be configured to determine whether the touch pressure at the touch position has changed. In this case, the CPU 113 may be configured to proceed with the process upon receiving the notification of the determination result from the touch panel control unit 114. Similarly, the processes of steps S308 and S309 may be configured such that the touch panel control unit 114 makes a determination. The above-described method of determining the subject to be the focus target can also be applied to a scene in which the focus target is determined when shooting a moving image.

また、上記実施形態で説明したデジタルカメラ100は、被写体を撮像する撮像部と、撮像部によって得られた情報に基づいて種々の処理を行う本体部とが一体となった構造を有するが、撮像部と本体部とは別体であってもよい。撮像部と本体部とが別体となっている撮像装置としては、監視カメラ等を挙げることができる。この場合、撮像部と本体部とは、有線通信又は有線通信により通信可能に接続される。そして、デジタルカメラ100の構成要素のうち、撮像部は少なくともレンズユニット103、レンズ制御部104及び撮像素子105を備え、その他の構成要素を本体部が備える構成とすればよい。本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   Further, the digital camera 100 described in the above embodiment has a structure in which an image pickup unit that picks up an image of a subject and a main body unit that performs various processes based on information obtained by the image pickup unit are integrated. The part and the body part may be separate bodies. A surveillance camera or the like can be given as an example of the image pickup apparatus in which the image pickup section and the main body section are separate bodies. In this case, the imaging unit and the main body unit are communicably connected by wired communication or wired communication. Then, among the constituent elements of the digital camera 100, the image pickup section may include at least the lens unit 103, the lens control section 104, and the image pickup element 105, and the main body section may include the other constituent elements. The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 デジタルカメラ
104 レンズ制御部
105 撮像素子
106 カメラ信号処理部
107 被写体検出部
108 距離情報生成部
109 表示制御部
110 表示装置
111 表示部
112 タッチパネル
113 CPU
114 タッチパネル制御部
100 Digital Camera 104 Lens Control Unit 105 Image Sensor 106 Camera Signal Processing Unit 107 Subject Detection Unit 108 Distance Information Generation Unit 109 Display Control Unit 110 Display Device 111 Display Unit 112 Touch Panel 113 CPU
114 Touch panel control unit

Claims (10)

被写体像を取得する取得手段と、
タッチパネルを含み、前記取得手段が取得した被写体像を表示する表示手段と、
前記表示手段へのタッチ操作を検出するタッチ検出手段と、
前記表示手段に対するタッチ圧力を検出する圧力検出手段と、
前記表示手段に対するタッチ位置を中心とした所定の距離範囲内の被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体までの距離を測定する測距手段と、
前記圧力検出手段によって検出されたタッチ圧力の大きさに応じて、前記被写体検出手段により検出された被写体の中からフォーカスを合わせる被写体を選択する選択手段と、
前記測距手段が取得した距離情報に基づいて前記選択手段によって選択された被写体にフォーカスを合わせるフォーカス手段と、を備えることを特徴とする撮像装置。
Acquisition means for acquiring a subject image,
A display unit that includes a touch panel and displays the subject image acquired by the acquisition unit;
Touch detection means for detecting a touch operation on the display means,
Pressure detection means for detecting the touch pressure on the display means,
Subject detection means for detecting a subject within a predetermined distance range centered on the touch position on the display means,
Distance measuring means for measuring the distance to the subject detected by the subject detecting means,
Selecting means for selecting a subject to be focused from among the subjects detected by the subject detecting means according to the magnitude of the touch pressure detected by the pressure detecting means;
An image pickup apparatus comprising: a focusing unit that focuses on a subject selected by the selecting unit based on the distance information acquired by the distance measuring unit.
前記被写体検出手段により前記距離範囲内に複数の被写体が検出された場合に、前記圧力検出手段が検出可能なタッチ圧力の最大値を前記複数の被写体の数で等分割した圧力範囲を求め、前記等分割された圧力範囲と前記複数の被写体とを関連付ける関連付け手段を備え、
前記選択手段は、フォーカスを合わせる被写体として、前記等分割された圧力範囲のうち前記圧力検出手段が検出したタッチ圧力を含む圧力範囲に関連付けられた被写体を選択することを特徴とする請求項1に記載の撮像装置。
When a plurality of subjects are detected by the subject detection unit within the distance range, a pressure range obtained by equally dividing the maximum value of the touch pressure detectable by the pressure detection unit by the number of the plurality of subjects is calculated. An associating unit for associating the equally divided pressure range with the plurality of subjects,
The selection unit selects a subject associated with a pressure range including the touch pressure detected by the pressure detection unit from the equally divided pressure range as a subject to be focused. The imaging device described.
前記選択手段は、前記タッチ検出手段が前記表示手段へのタッチ操作を検出したときに前記圧力検出手段により検出されたタッチ圧力が、所定値以上である場合には前記距離範囲内の被写体のうち最遠方にある被写体を、前記所定値以上でない場合には前記距離範囲内の被写体のうち最近方にある被写体をそれぞれ、フォーカスを合わせる被写体として選択することを特徴とする請求項1に記載の撮像装置。   When the touch pressure detected by the pressure detection unit when the touch detection unit detects a touch operation on the display unit is a predetermined value or more, the selection unit selects one of the subjects within the distance range. 2. The imaging according to claim 1, wherein the farthest subject is selected as a subject to be focused, among the subjects within the distance range, if the subject is not more than the predetermined value. apparatus. 前記選択手段によってフォーカスを合わせる被写体として選択された被写体を前記表示手段に強調して表示する強調表示手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   4. The image pickup apparatus according to claim 1, further comprising highlighting means for highlighting and displaying on the display means a subject selected as a subject to be focused by the selecting means. 前記圧力検出手段は、前記表示手段に対するタッチ操作でのタッチ面積に基づいてタッチ圧力を検出することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   The image pickup apparatus according to claim 1, wherein the pressure detection unit detects a touch pressure based on a touch area of a touch operation performed on the display unit. 前記フォーカス手段は、前記タッチ検出手段が前記表示手段からのタッチアップを前記タッチ操作として検出したときに前記選択手段によってフォーカスを合わせる被写体として選択されている被写体にフォーカスを合わせることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The focusing means focuses an object selected as an object to be focused by the selecting means when the touch detection means detects a touch-up from the display means as the touch operation. Item 6. The imaging device according to any one of items 1 to 5. 撮像装置の制御方法であって、
被写体像を取得する取得ステップと、
タッチパネルを有する表示装置に前記取得ステップで取得した被写体像を表示する表示ステップと、
前記表示装置に対するタッチ操作を検出するタッチ検出ステップと、
前記表示装置に対するタッチ圧力を検出する圧力検出ステップと、
前記表示装置に対するタッチ位置を中心とした所定の距離範囲内の被写体を検出する被写体検出ステップと、
前記被写体検出ステップで検出された被写体までの距離を測定する測距ステップと、
前記圧力検出ステップで検出されたタッチ圧力の大きさに応じて前記被写体検出ステップで検出された被写体の中からフォーカスを合わせる被写体を選択する選択ステップと、
前記測距ステップで取得した距離情報に基づいて前記選択ステップで選択された被写体にフォーカスを合わせるフォーカスステップと、を有することを特徴とする撮像装置の制御方法。
A method of controlling an imaging device, comprising:
An acquisition step of acquiring a subject image,
A display step of displaying the subject image acquired in the acquisition step on a display device having a touch panel,
A touch detection step of detecting a touch operation on the display device;
A pressure detection step of detecting a touch pressure on the display device,
A subject detection step of detecting a subject within a predetermined distance range centered on the touch position on the display device;
A distance measuring step for measuring the distance to the subject detected in the subject detecting step,
A selection step of selecting a subject to be focused from among the subjects detected in the subject detection step according to the magnitude of the touch pressure detected in the pressure detection step,
A focusing step of focusing on the subject selected in the selecting step based on the distance information acquired in the distance measuring step.
前記選択ステップでは、前記表示装置へのタッチ操作が検出されたときの前記圧力検出ステップで検出したタッチ圧力が、所定値以上である場合には前記距離範囲内の被写体のうち最遠方にある被写体を、前記所定値以上でない場合には前記距離範囲内の被写体のうち最近方にある被写体をそれぞれ、フォーカスを合わせる被写体として選択することを特徴とする請求項7に記載の撮像装置の制御方法。   In the selecting step, if the touch pressure detected in the pressure detecting step when a touch operation on the display device is detected is equal to or more than a predetermined value, the farthest object among the objects within the distance range. The method of controlling the image pickup apparatus according to claim 7, wherein, when the value is not equal to or more than the predetermined value, the most recent subject among the subjects within the distance range is selected as a subject to be focused. コンピュータに請求項7又は8に記載の制御方法の各ステップを実行させるためのプログラム。   A program for causing a computer to execute each step of the control method according to claim 7. 被写体を撮像する撮像部と、前記撮像部と有線通信または有線通信により通信可能に接続された本体部と、を備え、前記撮像部と前記本体部とが別体である撮像装置であって、
前記本体部は、
タッチパネルを含み、前記撮像部が取得した被写体像を表示する表示手段と、
前記表示手段へのタッチ操作を検出するタッチ検出手段と、
前記表示手段に対するタッチ圧力を検出する圧力検出手段と、
前記表示手段に対するタッチ位置を中心とした所定の距離範囲内の被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体までの距離を測定する測距手段と、
前記圧力検出手段によって検出されたタッチ圧力の大きさに応じて、前記被写体検出手段により検出された被写体の中からフォーカスを合わせる被写体を選択する選択手段とを備え、
前記撮像部は、
前記測距手段が取得した距離情報に基づいて前記選択手段によって選択された被写体にフォーカスを合わせるフォーカス手段を備えることを特徴とする撮像装置。
An image pickup apparatus comprising: an image pickup section for picking up an image of a subject;
The main body is
A display unit that includes a touch panel and displays the subject image acquired by the imaging unit;
Touch detection means for detecting a touch operation on the display means,
Pressure detection means for detecting the touch pressure on the display means,
Subject detection means for detecting a subject within a predetermined distance range centered on the touch position on the display means,
Distance measuring means for measuring the distance to the subject detected by the subject detecting means,
A selection unit that selects a subject to be focused from among the subjects detected by the subject detection unit according to the magnitude of the touch pressure detected by the pressure detection unit,
The imaging unit is
An image pickup apparatus comprising: a focusing unit that focuses on a subject selected by the selecting unit based on the distance information acquired by the distance measuring unit.
JP2016126561A 2016-06-27 2016-06-27 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM Expired - Fee Related JP6679430B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016126561A JP6679430B2 (en) 2016-06-27 2016-06-27 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016126561A JP6679430B2 (en) 2016-06-27 2016-06-27 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2018006803A JP2018006803A (en) 2018-01-11
JP6679430B2 true JP6679430B2 (en) 2020-04-15

Family

ID=60949872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016126561A Expired - Fee Related JP6679430B2 (en) 2016-06-27 2016-06-27 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP6679430B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7113327B1 (en) 2021-07-12 2022-08-05 パナソニックIpマネジメント株式会社 Imaging device

Also Published As

Publication number Publication date
JP2018006803A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
US20210287343A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
CN111052727B (en) Electronic device and control method thereof
US10055081B2 (en) Enabling visual recognition of an enlarged image
EP2822267B1 (en) Method and apparatus for previewing a dual-shot image
EP3236650A1 (en) Method and device for controlling a camera
JP5740822B2 (en) Information processing apparatus, information processing method, and program
JP6016226B2 (en) Length measuring device, length measuring method, program
KR20150113889A (en) Image processing apparatus, image processing method, and storage medium
US10277544B2 (en) Information processing apparatus which cooperate with other apparatus, and method for controlling the same
KR102655625B1 (en) Method and photographing device for controlling the photographing device according to proximity of a user
US20110063327A1 (en) Display and imager displaying and magnifying images on their screen
KR102173109B1 (en) Method of processing a digital image, Computer readable storage medium of recording the method and digital photographing apparatus
US9521329B2 (en) Display device, display method, and computer-readable recording medium
CN112135034A (en) Photographing method and device based on ultrasonic waves, electronic equipment and storage medium
JPWO2016063736A1 (en) Operation device, information processing device including operation device, and operation reception method for information processing device
WO2017018043A1 (en) Electronic device, electronic device operation method, and control program
US8866921B2 (en) Devices and methods involving enhanced resolution image capture
JP6679430B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM
JP5152317B2 (en) Presentation control apparatus and program
JP2011188023A (en) Information processing unit, method of processing information, and program
CN107105158B (en) Photographing method and mobile terminal
JP2011135376A (en) Imaging device and image processing method
KR101216094B1 (en) Mobile Communication Device Having Function for Setting up Focus Area and Method thereby
KR102614026B1 (en) Electronic device having a plurality of lens and controlling method thereof
US9307142B2 (en) Imaging method and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190617

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R151 Written notification of patent or utility model registration

Ref document number: 6679430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees