JP7191592B2 - ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM - Google Patents

ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM Download PDF

Info

Publication number
JP7191592B2
JP7191592B2 JP2018158456A JP2018158456A JP7191592B2 JP 7191592 B2 JP7191592 B2 JP 7191592B2 JP 2018158456 A JP2018158456 A JP 2018158456A JP 2018158456 A JP2018158456 A JP 2018158456A JP 7191592 B2 JP7191592 B2 JP 7191592B2
Authority
JP
Japan
Prior art keywords
touch
slide operation
electronic device
image
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018158456A
Other languages
Japanese (ja)
Other versions
JP2020035002A5 (en
JP2020035002A (en
Inventor
一基 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018158456A priority Critical patent/JP7191592B2/en
Publication of JP2020035002A publication Critical patent/JP2020035002A/en
Publication of JP2020035002A5 publication Critical patent/JP2020035002A5/ja
Application granted granted Critical
Publication of JP7191592B2 publication Critical patent/JP7191592B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、撮像装置などの電子機器に関する。 The present invention relates to an electronic device such as an imaging device.

撮像装置には、ボディの背面に設けられたディスプレイに撮像中の画像を表示し、ディスプレイに重ねて配置されるタッチパネルに対する操作位置にフォーカス調整用の選択枠を設定し、その選択枠の画像を基準にフォーカスを制御し、撮像できるものがある。たとえば、特許文献1では、ボディの背面に設けられたディスプレイに撮影する被写体の顔をライブビュー表示し、その被写体の一対の目の位置を検出し、その一対の目の間でフォーカス調整用のエリアを切り替えている。 The imaging device displays the image being captured on the display provided on the back of the body. Some can control the focus based on the reference and take an image. For example, in Japanese Unexamined Patent Application Publication No. 2002-100001, a face of a subject to be photographed is displayed as a live view on a display provided on the back of a body, the position of a pair of eyes of the subject is detected, and a focus adjustment is performed between the pair of eyes. switching areas.

特開2015-096961号公報JP 2015-096961 A

ところで、撮像装置には、ファインダ式表示手段に、撮像中の画像を表示できるものがある。しかしながら、ユーザは、ファインダ式表示手段を覗いて撮像しようとする際に選択枠の位置を変更する場合には、ファインダ式表示手段から目を離す必要がある。そして、ユーザは、ボディの背面に設けられたディスプレイを視認し、ディスプレイに重ねて配置されるタッチパネルに対して選択枠の位置を変更する操作をしなければならない。このように、撮像装置では、たとえばファインダ式表示手段を覗いたままであっても、表示する画像について設定される選択枠の位置を好適に変更できるようにすることが求められている。そして、特に、ファインダ式表示手段を覗いているユーザが把持するボディについての挟持部に指先で操作可能なタッチパネルを設けようとすると、タッチパネルの操作面のサイズは大きくすることができない。このため、ユーザは、タッチパネルの操作によりたとえば撮像中の画像に映る複数の顔の間で選択枠の位置を大きく移動させようとする場合には、タッチパネルに対して何度もスライド操作を繰り返さなければならない。ファインダ式表示手段を覗いたままで、指先でタッチパネルに対するスライド操作を何度も繰り返すことは、ユーザにとって負担である。なお、画像に対して選択枠を設定することは、撮像装置において撮像中の画像を表示する場合に限られることはではない。たとえば、撮像した画像その他の画像に対する処理を実行する電子機器では、表示する画像に対して選択枠を設定し、選択枠の位置を移動し、選択枠の部分画像に基づいて画像のたとえば明るさや色あいなどの画質を調整する。すなわち、撮像装置に限らず、電子機器では、表示する画像について設定される選択位置を好適に変更できるようにすることが望まれている。 By the way, some imaging apparatuses are capable of displaying an image being captured on a finder-type display means. However, the user needs to look away from the viewfinder display means to change the position of the selection frame while looking through the viewfinder display means. Then, the user has to view the display provided on the back of the body and perform an operation to change the position of the selection frame on the touch panel arranged over the display. As described above, in the imaging apparatus, it is required to be able to change the position of the selection frame set for the image to be displayed, even while looking through the viewfinder display means. In particular, if a fingertip-operable touch panel is provided at the holding portion of the body gripped by the user looking into the finder-type display means, the size of the operation surface of the touch panel cannot be increased. For this reason, when the user attempts to move the position of the selection frame significantly between, for example, a plurality of faces appearing in an image being captured by operating the touch panel, the user has to repeat the slide operation on the touch panel many times. must. It is a burden for the user to repeat the slide operation on the touch panel with the fingertip while looking through the viewfinder display means. Setting a selection frame for an image is not limited to displaying an image being picked up by an imaging device. For example, in an electronic device that processes a captured image or other images, a selection frame is set for an image to be displayed, the position of the selection frame is moved, and the brightness or the like of the image is adjusted based on the partial image of the selection frame. Adjust image quality such as color tone. In other words, it is desired not only for imaging devices but also for electronic devices to be able to suitably change the selection position set for an image to be displayed.

本発明の電子機器は、表示手段に表示される画像についての特徴点を取得する取得手段と、操作面に対するタッチ操作を検出するタッチ検知手段と、前記操作面に対してタッチしたままタッチ位置を移動させる操作であるスライド操作に基づいて、前記表示手段に表示される画像について設定されている選択位置を制御する制御手段であって、前記表示手段に表示される画像についての現在の前記選択位置を基準として前記スライド操作に対応する方向に前記特徴点が取得されている場合、前記選択位置を前記スライド操作の方向の前記特徴点の位置へ変更し、前記特徴点が取得されていない場合、前記スライド操作に対応する移動量で、前記スライド操作に対応する方向へ、前記選択位置を移動するように制御する制御手段と、を有し、前記制御手段は、前記タッチ検知手段から出力される操作の押圧力が所定の圧力範囲である場合、前記スライド操作に応じて前記選択位置を前記特徴点の位置へ変更し、前記押圧力が前記所定の圧力範囲でない場合、前記スライド操作に対応する移動量で、前記スライド操作に対応する方向へ、前記選択位置を変更する。 The electronic device of the present invention comprises acquisition means for acquiring feature points of an image displayed on a display means, touch detection means for detecting a touch operation on an operation surface, and detecting a touch position while touching the operation surface. Control means for controlling a selection position set for an image displayed on the display means based on a slide operation that is a movement operation, wherein the current selection position for the image displayed on the display means If the feature point is acquired in the direction corresponding to the slide operation with reference to, the selection position is changed to the position of the feature point in the direction of the slide operation, and if the feature point is not acquired, and a control means for controlling to move the selected position in a direction corresponding to the slide operation by a movement amount corresponding to the slide operation , wherein the control means is output from the touch detection means. When the pressing force of the operation is within a predetermined pressure range, the selected position is changed to the position of the feature point according to the slide operation, and when the pressing force is not within the predetermined pressure range, the sliding operation is performed. The selected position is changed in the direction corresponding to the slide operation by the amount of movement .

本発明では、電子機器に表示する画像について設定される選択位置を、タッチ検知手段スライド操作により好適に変更することができる。 In the present invention, the selection position set for the image to be displayed on the electronic device can be suitably changed by the touch sensing means slide operation.

本発明の第一実施形態に係る撮像装置のシステム構成図である。1 is a system configuration diagram of an imaging device according to a first embodiment of the present invention; FIG. 図1の撮像装置のボディの外観を示す斜視図である。2 is a perspective view showing the appearance of the body of the imaging device of FIG. 1; FIG. 図2のボディの挟持部に設けられる前部タッチ検知部材の構造の説明図である。FIG. 3 is an explanatory diagram of a structure of a front touch detection member provided in a holding portion of the body of FIG. 2; 図1のマイクロコンピュータのブロック図である。2 is a block diagram of the microcomputer of FIG. 1; FIG. 第一実施形態での、フォーカス調整用の選択枠の位置の移動による被写体の選択制御の流れを示すフローチャートである。9 is a flowchart showing the flow of subject selection control by moving the position of a selection frame for focus adjustment in the first embodiment. 図5の選択制御による、撮像中の画像での選択枠の位置の移動制御の一例を示す説明図である。6 is an explanatory diagram showing an example of movement control of the position of a selection frame in an image being captured by the selection control of FIG. 5; FIG. 本発明の第二実施形態の選択枠の位置の移動制御についての、前部タッチ検知部材の押圧力に応じた切り替え制御を説明する図である。FIG. 10 is a diagram illustrating switching control in accordance with the pressing force of the front touch detection member, regarding movement control of the position of the selection frame according to the second embodiment of the present invention; 第二実施形態での、フォーカス調整用の選択枠の位置の移動による被写体の選択制御の流れを示すフローチャートである。10 is a flow chart showing the flow of subject selection control by moving the position of a selection frame for focus adjustment in the second embodiment. 図8の選択制御による、撮像中の画像での選択枠の位置の移動制御の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of movement control of the position of a selection frame in an image being captured by the selection control of FIG. 8; 本発明の第三実施形態の選択枠の位置の移動制御についての、前部タッチ検知部材の押圧力に応じた切り替え制御を説明する図である。FIG. 12 is a diagram illustrating switching control according to the pressing force of the front touch detection member, regarding movement control of the position of the selection frame according to the third embodiment of the present invention;

以下、本発明の実施形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施形態に記載されている構成によって限定されることはない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the configurations described in the following embodiments are merely examples, and the scope of the present invention is not limited by the configurations described in the embodiments.

[第一実施形態]
図1は、本発明の第一実施形態に係る撮像装置100のシステム構成図である。撮像装置100は、画像を表示する電子機器の一例である。図1の撮像装置100は、撮像信号処理回路101、表示装置制御回路102、スイッチセンス回路103、タッチセンス回路104、押圧力検出回路105、焦点検出回路106、およびこれらが接続されるマイクロコンピュータ107、を有する。マイクロコンピュータ107の本体メモリ402には、後述するマイクロコンピュータ107のCPU401が実行するプログラム406とともに、各種設定値が記録される。また、図1のマイクロコンピュータ107には、たとえば被写体特徴点検出回路407が実現される。被写体特徴点検出回路407は、撮像のために表示する画像についての人物(被写体)の顔または顔の器官を認識して特徴点として検出して取得する。マイクロコンピュータ107は、撮像装置100の動作制御を司るものであり、接続されている各部に対して様々な処理や指示を実行する。撮像ユニット110は、レンズ装置150の撮影レンズ151を透過した光が集光する撮像面を有する。撮像ユニット110は、たとえば撮像面に配列された複数の光電変換素子を有する。光電変換素子には、たとえばCCD型、CMOS型、CID型などかある。撮像ユニット110は、撮像面での被写体の画像を撮像し、撮像した画像についてのアナログ信号を出力する。クランプ/CDS回路111は、撮像ユニット110から出力されたアナログ信号に対して、A/D変換する前の基本的なアナログ処理を行う。ここで、CDSは、相関二重サンプリングをいう。クランプ/CDS回路111は、たとえば、アナログ信号のクランプレベルを変更する。AGC112は、クランプ/CDS回路111で処理されたアナログ信号に対して、A/D変換する前の基本的なアナログ処理を行う。AGC112は、自動的に利得を調整して、たとえばAGCの基本レベルを変更する。A/D変換器113は、撮像ユニット110から出力された後にクランプ/CDS回路111およびAGC112により処理されたアナログ信号を、デジタル信号へ変換する。これにより、撮像中の画像データが生成される。撮像信号処理回路101は、A/D変換器113により生成された画像データに対して、たとえばガンマ/ニー処理、フィルタ処理、ハードウェアによる画像処理、を実行する。撮像信号処理回路101は、処理後の画像データを、焦点検出回路106、マイクロコンピュータ107、表示装置制御回路102へ出力する。また、撮像信号処理回路101は、画像についての焦点を合わせる部分を示すフォーカス調整用の選択枠601の位置情報を、焦点検出回路106、表示装置制御回路102へ出力する。焦点検出回路106は、撮像信号処理回路101で生成される画像データについての選択枠601でのコントラスト比が最大となるように焦点検出演算を行い、デフォーカス量及びデフォーカス方向を求める。焦点検出回路106は、演算したデフォーカス量及びデフォーカス方向を、マイクロコンピュータ107へ出力する。マイクロコンピュータ107は、レンズ装置150のレンズ制御回路152とマウント接点114を介して通信する。レンズ制御回路152は、マイクロコンピュータ107との通信に基づいて、レンズ装置150の撮影レンズ151を駆動する。これにより、撮像装置100は、焦点検出回路106で処理した画像部分の被写体に合焦する画像を撮像し得る。
[First embodiment]
FIG. 1 is a system configuration diagram of an imaging device 100 according to the first embodiment of the present invention. The imaging device 100 is an example of an electronic device that displays an image. The imaging apparatus 100 of FIG. 1 includes an imaging signal processing circuit 101, a display device control circuit 102, a switch sense circuit 103, a touch sense circuit 104, a pressing force detection circuit 105, a focus detection circuit 106, and a microcomputer 107 to which these are connected. , has In the main body memory 402 of the microcomputer 107, various set values are recorded together with a program 406 executed by the CPU 401 of the microcomputer 107, which will be described later. For example, a subject feature point detection circuit 407 is implemented in the microcomputer 107 of FIG. A subject feature point detection circuit 407 recognizes a person's (subject's) face or facial organs in an image to be displayed for imaging, and detects and acquires them as feature points. The microcomputer 107 controls the operation of the imaging apparatus 100, and executes various processes and instructions to each connected unit. The imaging unit 110 has an imaging surface on which light transmitted through the imaging lens 151 of the lens device 150 is collected. The imaging unit 110 has, for example, a plurality of photoelectric conversion elements arranged on an imaging surface. Photoelectric conversion elements include, for example, CCD type, CMOS type, and CID type. The imaging unit 110 captures an image of a subject on an imaging plane and outputs an analog signal for the captured image. The clamp/CDS circuit 111 performs basic analog processing on the analog signal output from the imaging unit 110 before A/D conversion. Here, CDS refers to correlated double sampling. Clamp/CDS circuit 111 changes, for example, the clamp level of the analog signal. The AGC 112 performs basic analog processing before A/D conversion on the analog signal processed by the clamp/CDS circuit 111 . AGC 112 automatically adjusts the gain to change, for example, the AGC base level. The A/D converter 113 converts the analog signal output from the imaging unit 110 and then processed by the clamp/CDS circuit 111 and the AGC 112 into a digital signal. Thereby, the image data being captured is generated. The imaging signal processing circuit 101 performs, for example, gamma/knee processing, filter processing, and hardware image processing on the image data generated by the A/D converter 113 . The imaging signal processing circuit 101 outputs the processed image data to the focus detection circuit 106 , the microcomputer 107 and the display device control circuit 102 . The imaging signal processing circuit 101 also outputs position information of a selection frame 601 for focus adjustment indicating a portion of the image to be focused to the focus detection circuit 106 and the display device control circuit 102 . The focus detection circuit 106 performs focus detection calculations to maximize the contrast ratio in the selection frame 601 of the image data generated by the imaging signal processing circuit 101, and obtains the defocus amount and the defocus direction. The focus detection circuit 106 outputs the calculated defocus amount and defocus direction to the microcomputer 107 . Microcomputer 107 communicates with lens control circuit 152 of lens device 150 via mount contact 114 . A lens control circuit 152 drives the taking lens 151 of the lens device 150 based on communication with the microcomputer 107 . As a result, the imaging apparatus 100 can capture an image in which the subject in the image portion processed by the focus detection circuit 106 is in focus.

表示装置制御回路102には、画像を表示する外部表示部材121、画像を表示するファインダ式表示部材122、が接続される。表示装置制御回路102は、撮像信号処理回路101からモニタ表示用の画像データを、外部表示部材121およびファインダ式表示部材122に表示する。これにより、外部表示部材121およびファインダ式表示部材122は、撮像中の画像などを表示する。撮像装置100のユーザは、撮像中の画像を、外部表示部材121またはファインダ式表示部材122において確認できる。表示装置制御回路102は、外部表示部材121およびファインダ式表示部材122において、選択枠601を画像に重ねて表示させる。これにより、撮像装置100のユーザは、撮像中の画像において、合焦する被写体(画像の部分)を確認できる。 The display device control circuit 102 is connected to an external display member 121 for displaying images and a viewfinder display member 122 for displaying images. The display device control circuit 102 displays the image data for monitor display from the imaging signal processing circuit 101 on the external display member 121 and the viewfinder display member 122 . As a result, the external display member 121 and the finder-type display member 122 display an image being captured. The user of the imaging device 100 can check the image being captured on the external display member 121 or the viewfinder display member 122 . The display device control circuit 102 causes the external display member 121 and the viewfinder display member 122 to display the selection frame 601 superimposed on the image. As a result, the user of the imaging device 100 can confirm the focused subject (portion of the image) in the image being captured.

スイッチセンス回路103には、被写体選択開始ボタン131などの各種のスイッチが接続される。スイッチセンス回路103は、スイッチの操作に応じた入力信号を、マイクロコンピュータ107へ出力する。マイクロコンピュータ107は、たとえば被写体選択開始ボタン131の押下についての入力信号に基づいて、撮影する被写体の選択を開始し、選択枠601の位置などの情報を、撮像信号処理回路101へ出力する。撮像信号処理回路101は、撮像中の画像データとともに選択枠601の位置情報の出力を開始する。タッチセンス回路104には、外部表示タッチ検知部材141、前部タッチ検知部材142、が接続される。外部表示タッチ検知部材141、または前部タッチ検知部材142は、たとえば静電容量方式のタッチパネルである。タッチパネルには、この他にもたとえば、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式などの様々な方式のものがある。タッチパネルは、実際に操作面に対する接触があったことを検出したり、操作面に対して指などが近接することを検出したりする。外部表示タッチ検知部材141は、外部表示部材121の表示面に、指による操作が可能な操作面が重ねて設けられる。前部タッチ検知部材142は、ファインダ式表示部材122とは別に設けられ、指による操作が可能な操作面を有する。タッチセンス回路104は、外部表示タッチ検知部材141、または前部タッチ検知部材142に対する操作に応じた入力信号を、マイクロコンピュータ107へ出力する。タッチセンス回路104は、たとえば前部タッチ検知部材142の操作面に対するタッチ操作を検出し、検出したタッチ操作の種別を判断する。マイクロコンピュータ107は、タッチセンス回路104により判断されたタッチ操作の種別に応じて、たとえば撮影する被写体の選択を開始したり、選択枠601の位置を変更したりする。マイクロコンピュータ107は、それらの情報を、撮像信号処理回路101へ出力する。撮像信号処理回路101は、撮像中の画像データとともに選択枠601の位置情報の出力を開始する。ここで、タッチ操作には、たとえばタッチダウン(Touch-Down)、タッチオン(Touch-On)、タッチムーブ(Touch-Move)、タッチオフ(Touch-Off)、がある。タッチダウンは、外部表示タッチ検知部材141または前部タッチ検知部材142にタッチしていなかった指が、新たに外部表示タッチ検知部材141または前部タッチ検知部材142にタッチし始めた状態である。タッチセンス回路104は、タッチダウン操作によりタッチ操作の開始を判断する。タッチオンは、外部表示タッチ検知部材141または前部タッチ検知部材142を指で継続的にタッチしている状態である。タッチセンス回路104は、継続的なタッチ状態にあると判断する。タッチムーブは、外部表示タッチ検知部材141または前部タッチ検知部材142を指でタッチしたままタッチ位置を移動させている状態である。タッチセンス回路104は、タッチムーブによるスライド操作を判断する。タッチアップは、外部表示タッチ検知部材141または前部タッチ検知部材142へタッチしていた指やペンを離した状態である。タッチセンス回路104は、タッチの終了を判断する。タッチオフは、外部表示タッチ検知部材141または前部タッチ検知部材142に何もタッチしていない状態である。タッチセンス回路104は、タッチが無いことを判断する。なお、タッチセンス回路104は、一般的に、タッチダウンを検出すると、その後にタッチオンを検出し続ける。タッチセンス回路104は、タッチダウンの後、タッチアップが検出されるまでは、タッチオンを検出し続ける。また、その期間中に、タッチセンス回路104は、タッチムーブを検出することになる。タッチセンス回路104は、タッチオンが検出されていても、タッチ位置Fpが移動しなければ、タッチムーブを検出しない。 Various switches such as the subject selection start button 131 are connected to the switch sense circuit 103 . The switch sense circuit 103 outputs an input signal to the microcomputer 107 according to the operation of the switch. Microcomputer 107 starts selecting a subject to be photographed based on an input signal for pressing subject selection start button 131 , for example, and outputs information such as the position of selection frame 601 to imaging signal processing circuit 101 . The imaging signal processing circuit 101 starts outputting the position information of the selection frame 601 together with the image data being imaged. An external display touch detection member 141 and a front touch detection member 142 are connected to the touch sensing circuit 104 . The external display touch sensing member 141 or the front touch sensing member 142 is, for example, a capacitive touch panel. In addition to this, there are touch panels of various types such as a resistive film type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. The touch panel detects actual contact with the operation surface, or detects proximity of a finger or the like to the operation surface. The external display touch detection member 141 is provided with an operation surface that can be operated with a finger overlaid on the display surface of the external display member 121 . The front touch detection member 142 is provided separately from the viewfinder display member 122 and has an operation surface that can be operated with a finger. The touch sensing circuit 104 outputs to the microcomputer 107 an input signal corresponding to an operation on the external display touch sensing member 141 or the front touch sensing member 142 . Touch sensing circuit 104 detects, for example, a touch operation on the operation surface of front touch sensing member 142, and determines the type of the detected touch operation. Microcomputer 107 starts selecting a subject to be photographed or changes the position of selection frame 601 , for example, according to the type of touch operation determined by touch sensing circuit 104 . The microcomputer 107 outputs the information to the imaging signal processing circuit 101 . The imaging signal processing circuit 101 starts outputting the position information of the selection frame 601 together with the image data being imaged. Here, touch operations include, for example, Touch-Down, Touch-On, Touch-Move, and Touch-Off. A touchdown is a state in which a finger that has not touched the externally displayed touch sensing member 141 or the front touch sensing member 142 has newly started to touch the externally displayed touch sensing member 141 or the front touch sensing member 142 . The touch sense circuit 104 determines the start of the touch operation by the touchdown operation. Touch-on is a state in which the external display touch detection member 141 or the front touch detection member 142 is continuously touched with a finger. The touch sense circuit 104 determines that there is a continuous touch condition. A touch move is a state in which the touch position is moved while touching the external display touch detection member 141 or the front touch detection member 142 with a finger. A touch sense circuit 104 determines a slide operation by touch move. Touch-up is a state in which the finger or pen that has touched the external display touch detection member 141 or the front touch detection member 142 is released. The touch sense circuit 104 determines the end of the touch. Touch-off is a state in which nothing is touched on the external display touch sensing member 141 or the front touch sensing member 142 . Touch sense circuit 104 determines that there is no touch. Note that the touch sense circuit 104 generally continues to detect touch-on after detecting touch-down. The touch sense circuit 104 continues to detect touch-on until touch-up is detected after touch-down. Also, during that period, the touch sense circuit 104 will detect a touch move. The touch sense circuit 104 does not detect a touch move unless the touch position Fp moves even if a touch-on is detected.

タッチセンス回路104は、ユーザによる外部表示タッチ検知部材141または前部タッチ検知部材142へのスライド操作に応じて、スライド操作についてのタッチ操作情報を、マイクロコンピュータ107へ出力する。ここで、スライド操作についてのタッチ操作情報には、タッチ位置Fp、タッチムーブ移動方向Fd、タッチムーブ移動量Fm、が含まれる。マイクロコンピュータ107は、これらの選択位置の情報を、選択枠601の位置の移動に関する情報として、表示装置制御回路102などへ出力する。これにより、外部表示部材121およびファインダ式表示部材122において画像に重ねて表示される選択枠601の位置が変更される。ユーザは、前部タッチ検知部材142に対してなされたスライド操作に基づいて、外部表示タッチ検知部材141または前部タッチ検知部材142に表示する画像について設定されている選択枠601の位置が変更されたことを確認できる。 The touch sensing circuit 104 outputs touch operation information about the slide operation to the microcomputer 107 in response to the user's sliding operation on the external display touch sensing member 141 or the front touch sensing member 142 . Here, the touch operation information about the slide operation includes the touch position Fp, the touch-move movement direction Fd, and the touch-move movement amount Fm. The microcomputer 107 outputs information on these selection positions to the display device control circuit 102 or the like as information on movement of the position of the selection frame 601 . As a result, the position of the selection frame 601 superimposed on the image on the external display member 121 and the viewfinder display member 122 is changed. The user changes the position of the selection frame 601 set for the image displayed on the external display touch detection member 141 or the front touch detection member 142 based on the slide operation performed on the front touch detection member 142 . can confirm that

図2は、図1の撮像装置100のボディ200を示す斜視図である。図2(a)は、撮像装置100のボディ200を前上側からみた前面斜視図である。図2(b)は、撮像装置100のボディ200を後上側からみた背面斜視図である。図2に示すように、撮像装置100のボディ200の背面には、ファインダ201、外部表示部材121、被写体選択開始ボタン131、が配置される。外部表示部材121の表示面には、外部表示タッチ検知部材141の操作面が重ねて設けられる。ファインダ201の内側には、図1のペンタプリズム123を介して、ファインダ式表示部材122が設けられる。ファインダ式表示部材122は、外部表示部材121と同様に、撮像中の画像などとともに選択枠601を表示する。撮像装置100のボディ200の前面には、レンズ装置150が不図示のレンズマウントにより接続される。ボディ200についてのレンズ装置150の右側には、挟持部202が設けられる。挟持部202の上面には、ファインダ式表示部材122とは異なる位置となるように、前部タッチ検知部材142が設けられる。これにより、ユーザは、ファインダ201からファインダ式表示部材122を覗いた状態で、挟持部202の上面の前部タッチ検知部材142を指で操作することができる。タッチセンス回路104は、外部表示タッチ検知部材141および前部タッチ検知部材142に対するユーザの指などによるタッチ操作を、検出する。タッチセンス回路104は、タッチ位置Fp、タッチムーブ移動量Fm、タッチムーブ移動方向Fd、を逐次検出する。マイクロコンピュータ107は、それらの情報を、選択枠601の位置を変更する情報を、撮像信号処理回路101へ出力する。撮像信号処理回路101は、タッチ位置Fpに選択枠601を変更する。これにより、ユーザは、表示される画像の被写体にタッチするように操作することで、選択枠601を所望の位置へ移動させることができる。 2 is a perspective view showing the body 200 of the imaging device 100 of FIG. 1. FIG. FIG. 2A is a front perspective view of the body 200 of the imaging device 100 as seen from the front upper side. FIG. 2B is a rear perspective view of the body 200 of the imaging device 100 as seen from the rear upper side. As shown in FIG. 2, a viewfinder 201, an external display member 121, and a subject selection start button 131 are arranged on the back of the body 200 of the imaging device 100. As shown in FIG. The operation surface of the external display touch detection member 141 is provided over the display surface of the external display member 121 . A viewfinder display member 122 is provided inside the viewfinder 201 via the pentaprism 123 shown in FIG. Similar to the external display member 121, the viewfinder display member 122 displays a selection frame 601 together with an image being captured. A lens device 150 is connected to the front surface of the body 200 of the imaging device 100 by a lens mount (not shown). A holding portion 202 is provided on the right side of the lens device 150 with respect to the body 200 . A front touch detection member 142 is provided on the upper surface of the clamping portion 202 so as to be located at a different position from the viewfinder display member 122 . This allows the user to operate the front touch detection member 142 on the upper surface of the holding section 202 with a finger while looking into the viewfinder display member 122 through the viewfinder 201 . The touch sensing circuit 104 detects a touch operation by a user's finger or the like on the external display touch sensing member 141 and the front touch sensing member 142 . The touch sensing circuit 104 sequentially detects the touch position Fp, the touch-move movement amount Fm, and the touch-move movement direction Fd. The microcomputer 107 outputs the information for changing the position of the selection frame 601 to the imaging signal processing circuit 101 . The imaging signal processing circuit 101 changes the selection frame 601 to the touch position Fp. Accordingly, the user can move the selection frame 601 to a desired position by performing an operation to touch the subject of the displayed image.

図3は、図2のボディ200の挟持部202に設けられる前部タッチ検知部材142の構造の説明図である。図3(a)は、前部タッチ検知部材142の表面部分の斜視図である。図3(b)は、前部タッチ検知部材142の裏面部分の斜視図である。図3(c)は、前部タッチ検知部材142の表面側からの分解斜視図である。図3(d)は、前部タッチ検知部材142の裏面側からの分解斜視図である。図3(e)は、前部タッチ検知部材142とタッチセンス回路104との結線状態の説明図である。図3に示すように、前部タッチ検知部材142は、前部タッチ操作可能部301、前部タッチ操作検出部302、前部タッチ検出部固定部材303、を有する。前部タッチ操作可能部301は、ボディ200の挟持部202の上面部分としてボディ200と一体的に形成される。前部タッチ操作可能部301は、前部タッチ検知部材142の操作面として機能する。これにより、ボディ200の挟持部202の上面部分に、前部タッチ操作可能部301を設けるための開口を設ける必要がない。防塵防滴性能及び外観意匠の自由度を向上し得る。前部タッチ操作検出部302は、接着剤等の前部タッチ検出部固定部材303により、前部タッチ操作可能部301の裏面に貼着される。前部タッチ操作検出部302は、略四角形のポリイミドのベース部材の四辺に、銅パターン(302-1、302-2、302-3、302-4)が形成されたフレキシブルプリント基板(=FPC)と同等の構造を有する。上側検出部として、銅パターン302-1が、下側検出部として、銅パターン302-3が、右側検出部として、銅パターン302-2が、左側検出部として、銅パターン302-4が対応している。4辺の銅パターン302-1~302-4は、個別にタッチセンス回路104と接続される。タッチセンス回路104は、上下左右それぞれの銅パターンから得られる静電容量の変化を検出する。これにより、タッチセンス回路104は、前部タッチ操作可能部301による略四角形の操作面におけるタッチ位置Fp、タッチムーブ移動量Fm、タッチムーブ移動方向Fdを検出することができる。タッチセンス回路104は、前部タッチ操作可能部301による略四角形の操作面に対する指による操作位置を繰り返し検出することにより、たとえば操作面に対するスライド操作を検出することができる。タッチセンス回路104は、前部タッチ操作可能部301による略四角形の操作面に対する指による操作位置を連続的に検出して得られる複数の操作位置による操作方向を、スライド操作の方向としてのタッチムーブ移動方向Fdとして検出できる。タッチセンス回路104は、前部タッチ操作可能部301による略四角形の操作面に対する指による操作位置を連続的に検出して得られる複数の操作位置による操作距離を、スライド操作の操作量としてのタッチムーブ移動量Fmとして検出できる。 3A and 3B are explanatory diagrams of the structure of the front touch sensing member 142 provided on the holding portion 202 of the body 200 of FIG. FIG. 3A is a perspective view of the surface portion of the front touch sensing member 142. FIG. FIG. 3B is a perspective view of the rear surface portion of the front touch sensing member 142. FIG. FIG. 3C is an exploded perspective view of the front touch sensing member 142 from the surface side. FIG. 3D is an exploded perspective view of the front touch sensing member 142 from the back side. FIG. 3E is an explanatory diagram of a connection state between the front touch sensing member 142 and the touch sensing circuit 104. FIG. As shown in FIG. 3 , the front touch sensing member 142 has a front touch operable portion 301 , a front touch sensing portion 302 , and a front touch sensing portion fixing member 303 . Front touch operable portion 301 is integrally formed with body 200 as an upper surface portion of holding portion 202 of body 200 . Front touch operable portion 301 functions as an operation surface of front touch sensing member 142 . Accordingly, it is not necessary to provide an opening for providing the front touch operable portion 301 in the upper surface portion of the holding portion 202 of the body 200 . It is possible to improve the degree of freedom of dustproof and dripproof performance and appearance design. The front touch detection section 302 is adhered to the rear surface of the front touch operation enabled section 301 with a front touch detection section fixing member 303 such as an adhesive. The front touch operation detection unit 302 is a flexible printed circuit board (=FPC) in which copper patterns (302-1, 302-2, 302-3, 302-4) are formed on the four sides of a substantially rectangular polyimide base member. has a structure equivalent to Copper pattern 302-1 corresponds to the upper detector, copper pattern 302-3 corresponds to the lower detector, copper pattern 302-2 corresponds to the right detector, and copper pattern 302-4 corresponds to the left detector. ing. The four copper patterns 302-1 to 302-4 are individually connected to the touch sense circuit 104. FIG. The touch sense circuit 104 detects changes in capacitance obtained from the top, bottom, left, and right copper patterns. Thereby, the touch sense circuit 104 can detect the touch position Fp, the touch-move movement amount Fm, and the touch-move movement direction Fd on the substantially rectangular operation surface of the front touch operable portion 301 . The touch sense circuit 104 can detect, for example, a slide operation on the operation surface by repeatedly detecting the operation position of the finger on the substantially rectangular operation surface of the front touch operable portion 301 . The touch sense circuit 104 detects the operation position of the finger on the substantially rectangular operation surface of the front touch operable part 301 continuously, and detects the operation direction of the plurality of operation positions obtained by touch movement as the direction of the slide operation. It can be detected as the moving direction Fd. The touch sensing circuit 104 detects the operation positions of the finger on the substantially rectangular operation surface of the front touch operable unit 301 continuously, and the operation distances obtained by the plurality of operation positions are used as the operation amount of the slide operation. It can be detected as a move movement amount Fm.

図4は、図1のマイクロコンピュータ107のブロック図である。図4のマイクロコンピュータ107は、CPU401、本体メモリ402、RAM403、外部インターフェース404、およびこれらが接続される内部バス405、を有する。外部インターフェース404には、たとえば、撮像信号処理回路101、表示装置制御回路102、スイッチセンス回路103、タッチセンス回路104、押圧力検出回路105、焦点検出回路106、が接続される。本体メモリ402は、たとえばEEPROMである。本体メモリ402は、プログラム406、各種の設定値などを記録する。本体メモリ402に記録されるプログラム406は、撮像装置100の出荷前に記録されたものでも、撮像装置100の出荷後に記録されたものでもよい。撮像装置100の出荷後に記録されるプログラム406は、たとえばCDROMなどの記録媒体に記録されていたものをコンピュータのCPU401により読み取り、本体メモリ402にインストールしたものでよい。RAM403は、撮像設定や画像データなどを記録するワークメモリである。CPU401は、本体メモリ402に記録されるプログラム406をRAM403に展開して実行する。これにより、マイクロコンピュータ107には、制御部が実現される。制御部は、撮像装置100の動作を全体的に制御する。図1の被写体特徴点検出回路407は、制御部の機能の一部として図1のマイクロコンピュータ107に実現される。 FIG. 4 is a block diagram of the microcomputer 107 of FIG. The microcomputer 107 of FIG. 4 has a CPU 401, a body memory 402, a RAM 403, an external interface 404, and an internal bus 405 to which these are connected. The external interface 404 is connected with the imaging signal processing circuit 101, the display device control circuit 102, the switch sense circuit 103, the touch sense circuit 104, the pressing force detection circuit 105, and the focus detection circuit 106, for example. Main body memory 402 is, for example, an EEPROM. A main body memory 402 records a program 406, various setting values, and the like. The program 406 recorded in the main body memory 402 may be recorded before shipment of the imaging apparatus 100 or may be recorded after shipment of the imaging apparatus 100 . The program 406 that is recorded after the imaging apparatus 100 is shipped may be one that has been recorded in a recording medium such as a CDROM, read by the CPU 401 of the computer, and installed in the main body memory 402 . A RAM 403 is a work memory that records imaging settings, image data, and the like. The CPU 401 expands the program 406 recorded in the main body memory 402 to the RAM 403 and executes it. Thus, the microcomputer 107 implements a control unit. The control unit controls the operation of the imaging device 100 as a whole. The subject feature point detection circuit 407 in FIG. 1 is implemented in the microcomputer 107 in FIG. 1 as part of the functions of the control unit.

図5は、第一実施形態での、フォーカス調整位置であるフォーカス調整用の選択枠601の位置の移動による被写体の選択制御の流れを示すフローチャートである。図5のフローチャートは、本体メモリ402に記録されるプログラム406をRAM403に展開してCPU401が実行することにより実現される。図6は、図5の被写体選択制御による、撮像中の画像での選択枠601の位置の移動制御の一例を示す説明図である。図6には、外部表示タッチ検知部材141もしくは前部タッチ検知部材142に表示される複数の画像が図示されている。画像には、画像の中央およびその左側に二人の人物の顔が含まれる。この場合、被写体特徴点検出回路407は、これら二人の人物の顔を特徴点603,604として抽出する。また、画像には、選択枠601が重ねて表示されている。 FIG. 5 is a flowchart showing the flow of subject selection control by moving the position of the selection frame 601 for focus adjustment, which is the focus adjustment position, in the first embodiment. The flowchart of FIG. 5 is realized by developing the program 406 recorded in the main body memory 402 in the RAM 403 and executing it by the CPU 401 . FIG. 6 is an explanatory diagram showing an example of movement control of the position of the selection frame 601 in the image being captured by the subject selection control of FIG. FIG. 6 illustrates a plurality of images displayed on the external display touch sensing member 141 or the front touch sensing member 142 . The image contains the faces of two people in the center of the image and to the left of it. In this case, subject feature point detection circuit 407 extracts the faces of these two people as feature points 603 and 604 . In addition, a selection frame 601 is superimposed on the image.

図5のステップS501において、CPU401は、被写体選択開始ボタン131がユーザにより押下されたことに基づいて、選択枠601による被写体の選択を開始する。ステップS502において、CPU401は、タッチセンス回路104の検出に基づいて、外部表示タッチ検知部材141もしくは前部タッチ検知部材142に対するタッチ操作が行われているか否かを判定する。タッチ操作が行われていない場合、CPU401は、タッチ操作が行われるまで、判断を繰り返す。タッチ操作が行われた場合、CPU401は、処理をステップS502へ進める。ステップS503において、被写体特徴点検出回路407としてのCPU401は、撮像しようとしている画像に、被写体としての人物の顔または顔の器官といった特徴的な形状が含まれているか否かを判定する。被写体特徴点検出回路407としてのCPU401は、撮像しようとしている画像について判定した顔または顔の器官の位置を、特徴点603,604の位置としてRAM403に記録してよい。撮像しようとしている画像に人物の顔または顔の器官による特徴点603,604が判定された場合、CPU401は、処理をステップS504へ進める。ステップS504において、CPU401は、画像についての予め設定されているたとえば画像の中心といった基準位置に最も近い特徴点603としての顔または顔の器官の位置に、選択枠601を移動させる。CPU401は、たとえば選択枠601の中心に特徴点603である顔または顔の器官の中心が位置するように、選択枠601の位置を演算し、表示装置制御回路102および撮像信号処理回路101へ出力する。これにより、選択枠601は、図6(a)Iおよび図6(b)Iに示すように、画像の中央にて判定された特徴点603である1つの顔または顔の器官と重ねて表示される。ステップS503において撮像しようとしている画像に人物の顔または顔の器官が判定されない場合、CPU401は、処理をステップS505へ進める。ステップS505において、CPU401は、画像に対する選択枠601の位置が、操作面に対するタッチ位置Fpに対応するように、選択枠601の位置を演算し、表示装置制御回路102および撮像信号処理回路101へ出力する。 In step S501 in FIG. 5, the CPU 401 starts selecting a subject using the selection frame 601 when the subject selection start button 131 is pressed by the user. In step S<b>502 , the CPU 401 determines whether or not a touch operation is performed on the external display touch detection member 141 or the front touch detection member 142 based on detection by the touch sense circuit 104 . If the touch operation has not been performed, the CPU 401 repeats the determination until the touch operation is performed. If a touch operation has been performed, the CPU 401 advances the process to step S502. In step S503, the CPU 401 as the subject feature point detection circuit 407 determines whether or not the image to be captured includes a characteristic shape such as the face or facial organs of a person as the subject. The CPU 401 as the subject feature point detection circuit 407 may record the positions of the face or facial organs determined for the image to be captured in the RAM 403 as the positions of the feature points 603 and 604 . If feature points 603 and 604 due to a person's face or facial organs are determined in the image to be captured, the CPU 401 advances the process to step S504. In step S504, the CPU 401 moves the selection frame 601 to the position of the face or facial organ as the feature point 603 closest to a preset reference position for the image, such as the center of the image. The CPU 401 calculates the position of the selection frame 601 so that the center of the face or facial organ, which is the feature point 603 , is positioned in the center of the selection frame 601 , and outputs the position to the display device control circuit 102 and the imaging signal processing circuit 101 . do. As a result, the selection frame 601 is superimposed on one face or facial organ, which is the feature point 603 determined in the center of the image, as shown in FIGS. 6(a)I and 6(b)I. be done. If the image to be captured in step S503 does not identify a person's face or facial organs, the CPU 401 advances the process to step S505. In step S505, the CPU 401 calculates the position of the selection frame 601 so that the position of the selection frame 601 with respect to the image corresponds to the touch position Fp with respect to the operation surface, and outputs the position to the display device control circuit 102 and the imaging signal processing circuit 101. do.

次に、ステップS506において、CPU401は、タッチセンス回路104の検出に基づいて、外部表示タッチ検知部材141もしくは前部タッチ検知部材142に対してタッチムーブ操作が行われているか否かを判定する。タッチムーブ操作が行われていると判定されない場合、CPU401は、処理をステップS508へ進める。ステップS508において、CPU401は、表示装置制御回路102に、選択枠601についての現在の位置を維持させる。その後、CPU401は、処理をステップS512へ進める。ステップS506においてタッチムーブ操作が行われていると判定される場合、CPU401は、処理をステップS507へ進める。ステップS507において、CPU401は、タッチセンス回路104から、タッチムーブ操作についてのタッチムーブ移動量Fmと、タッチムーブ移動方向Fdとを取得する。ステップS509において、CPU401は、タッチムーブ移動方向Fdに、画像内の他の特徴点である被写体の顔部または顔の器官が存在するか否かを判断する。 Next, in step S<b>506 , the CPU 401 determines whether or not a touch-move operation is performed on the external display touch detection member 141 or the front touch detection member 142 based on detection by the touch sensing circuit 104 . If it is not determined that the touch-move operation has been performed, the CPU 401 advances the process to step S508. In step S<b>508 , the CPU 401 causes the display device control circuit 102 to maintain the current position of the selection frame 601 . Thereafter, CPU 401 advances the process to step S512. If it is determined in step S506 that a touch move operation has been performed, the CPU 401 advances the process to step S507. In step S<b>507 , the CPU 401 acquires the touch-move movement amount Fm and the touch-move movement direction Fd for the touch-move operation from the touch sense circuit 104 . In step S509, the CPU 401 determines whether or not the subject's face or facial organs, which are other feature points in the image, are present in the touch-move movement direction Fd.

タッチムーブ移動方向Fdに他の特徴点としての顔などが無い場合、CPU401は、処理をステップS511へ進める。ステップS511において、CPU401は、選択枠601の中心の移動量を、タッチムーブ移動量Fmに比例する第一の選択枠移動量L1を演算し、表示装置制御回路102および撮像信号処理回路101へ出力する。CPU401は、表示している画像についての現在の選択枠601の位置を基準としてスライド操作の方向に特徴点としての他の顔が取得されていない場合、選択枠601の位置を、スライド操作に正比例で対応する移動量で移動させるように変更する。ここで、たとえばタッチムーブ移動量Fmと第一の選択枠移動量L1の関係が1:1の場合、タッチムーブ移動量Fmと第一の選択枠移動量L1は等しくなる。移動の比率については、被写体画像の拡大率や、操作部材の有効範囲などに基づいて任意に設定してよい。ここで、たとえば図6(a)IIのように、ユーザは、指による操作で、図の右方向へ向けてタッチムーブ操作する。この場合、図6(a)IIIのように、選択枠601の中心は、画像の中央の元の被写体の顔の中心602から、タッチムーブ移動方向Fdである右方向へ、第一の選択枠移動量L1で移動するように変更される。その後、CPU401は、処理をステップS512へ進める。 If there is no face or the like as another feature point in the touch-move movement direction Fd, the CPU 401 advances the process to step S511. In step S<b>511 , the CPU 401 calculates a first selection frame movement amount L<b>1 proportional to the touch move movement amount Fm from the movement amount of the center of the selection frame 601 , and outputs it to the display device control circuit 102 and the imaging signal processing circuit 101 . do. The CPU 401 changes the position of the selection frame 601 in direct proportion to the slide operation if no other face is acquired as a feature point in the direction of the slide operation with reference to the current position of the selection frame 601 for the displayed image. Change to move by the corresponding amount of movement with . Here, for example, when the relationship between the touch-move movement amount Fm and the first selection frame movement amount L1 is 1:1, the touch-move movement amount Fm and the first selection frame movement amount L1 are equal. The movement ratio may be arbitrarily set based on the magnification of the subject image, the effective range of the operation member, and the like. Here, for example, as shown in FIG. 6(a)II, the user performs a touch-move operation with a finger toward the right direction in the drawing. In this case, as shown in FIG. 6(a) III, the center of the selection frame 601 moves from the center 602 of the original subject's face in the center of the image toward the right in the touch-move movement direction Fd to the first selection frame. It is changed to move by the movement amount L1. Thereafter, CPU 401 advances the process to step S512.

タッチムーブ移動方向Fdに特徴点604としての他の顔などがある場合、CPU401は、ステップS510において、選択枠601がタッチムーブ移動方向Fdにある他の特徴点604の顔と重なるように、第二の選択枠移動量L2を演算する。CPU401は、選択枠601の第二の選択枠移動量L2を、表示装置制御回路102および撮像信号処理回路101へ出力する。CPU401は、表示している画像についての現在の選択枠601の位置を基準としてスライド操作の方向に特徴点604としての他の顔が取得されている場合、選択枠601の位置を、特徴点604としての他の顔の位置まで移動させる。CPU401は、スライド操作に応じて選択枠601の位置を、スライド操作に対応する移動量にかかわらず、特徴点604としての他の顔の位置まで移動させるように変更する。CPU401は、スライド操作についての最初の操作位置を、現在の選択枠601の位置として、スライド操作による操作位置の移動方向に応じて、選択枠601の位置を変更する。ここで、たとえば図6(b)IIのように、ユーザは、指による操作で、図の左方向へ向けてタッチムーブ操作する。この場合、CPU401は、図6(b)IIIのように、選択枠601の中心が、タッチムーブ移動方向Fdにある左側の他の特徴点604の人物の顔の中心と一致するように、第二の選択枠移動量L2を演算する。CPU401は、タッチムーブ移動量Fmにはよらず、第二の選択枠移動量L2を演算する。その後、CPU401は、処理をステップS512へ進める。 If there is another face or the like as the feature point 604 in the touch-move movement direction Fd, the CPU 401, in step S510, selects the face of the other feature point 604 in the touch-move movement direction Fd so that the selection frame 601 overlaps the face of the other feature point 604 in the touch-move movement direction Fd. A second selection frame movement amount L2 is calculated. The CPU 401 outputs the second selection frame movement amount L2 of the selection frame 601 to the display device control circuit 102 and the imaging signal processing circuit 101 . CPU 401 changes the position of selection frame 601 to feature point 604 when another face is acquired as feature point 604 in the direction of the slide operation with reference to the current position of selection frame 601 for the displayed image. Move to other face positions as The CPU 401 changes the position of the selection frame 601 according to the slide operation so as to move it to another face position as the feature point 604 regardless of the amount of movement corresponding to the slide operation. The CPU 401 changes the position of the selection frame 601 according to the movement direction of the operation position by the slide operation, with the initial operation position of the slide operation as the current position of the selection frame 601 . Here, for example, as shown in FIG. 6(b)II, the user performs a touch-move operation with a finger toward the left in the drawing. In this case, as shown in FIG. 6(b)III, the CPU 401 adjusts the selection frame 601 so that the center of the selection frame 601 coincides with the center of the person's face at another feature point 604 on the left side in the touch-move movement direction Fd. A second selection frame movement amount L2 is calculated. The CPU 401 calculates the second selection frame movement amount L2 regardless of the touch move movement amount Fm. Thereafter, CPU 401 advances the process to step S512.

ステップS512において、CPU401は、タッチセンス回路104の検出に基づいて、ユーザによるタッチ操作が有る状態から無い状態に移行するタッチアップ操作が行われているか否かを判定する。タッチアップ操作が行われたと判定されない場合、CPU401は、処理をステップS502へ戻す。CPU401は、以上の処理を繰り返す。タッチアップ操作が行われたと判定される場合、CPU401は、処理をステップS513へ進める。ステップS513において、CPU401は、タッチアップ操作の時点で選択されている選択枠601の位置を、フォーカス調整用の選択枠601の位置と決定し、表示装置制御回路102および撮像信号処理回路101へ出力する。撮像信号処理回路101は、決定された選択枠601の位置と、撮像中の画像のデータとを、焦点検出回路106へ出力する。焦点検出回路106は、撮像信号処理回路101で生成される画像データについての選択枠601でのコントラスト比が最大となるように焦点検出演算を行い、デフォーカス量及びデフォーカス方向を求める。このように、CPU401が図5の被写体の選択制御を実行することにより、ユーザは、少ない回数および移動量のタッチ操作により、撮像中の画像に含まれる複数の被写体の顔の間で、フォーカス調整用の選択枠601を移動させることができる。画像に対する選択枠601の位置を移動させる操作性は、向上する。 In step S<b>512 , the CPU 401 determines based on detection by the touch sensing circuit 104 whether or not the user has performed a touch-up operation that shifts from a state with a touch operation to a state without a touch operation. If it is not determined that the touchup operation has been performed, the CPU 401 returns the process to step S502. The CPU 401 repeats the above processing. If it is determined that a touch-up operation has been performed, the CPU 401 advances the process to step S513. In step S513, the CPU 401 determines the position of the selection frame 601 selected at the time of the touch-up operation as the position of the selection frame 601 for focus adjustment, and outputs the position to the display device control circuit 102 and the imaging signal processing circuit 101. do. The imaging signal processing circuit 101 outputs the determined position of the selection frame 601 and the data of the image being captured to the focus detection circuit 106 . The focus detection circuit 106 performs focus detection calculations to maximize the contrast ratio in the selection frame 601 of the image data generated by the imaging signal processing circuit 101, and obtains the defocus amount and the defocus direction. In this way, the CPU 401 executes the subject selection control in FIG. 5, so that the user can adjust the focus between the faces of a plurality of subjects included in the image being captured by touch operations with a small number of times and a small amount of movement. The selection frame 601 for can be moved. The operability of moving the position of the selection frame 601 with respect to the image is improved.

以上のように、本実施形態の撮像装置100は、画像を表示するファインダ式表示部材122とは別に設けられた前部タッチ検知部材142、を有する。そして、CPU401は、前部タッチ検知部材142の操作面に対してなされた指によるスライド操作に基づいて、ファインダ式表示部材122に表示する画像について設定されている選択枠601の位置を制御する。具体的には、CPU401は、ファインダ式表示部材122の表示画像についての現在の選択枠601の位置を基準としてスライド操作の方向に特徴点としての顔が取得されている場合、選択枠601の位置を、特徴点を含む位置へ変更する。CPU401は、スライド操作に応じて、選択枠601の位置を、スライド操作に対応する移動量によらずに、特徴点を含む位置へ変更する。また、CPU401は、スライド操作の方向に特徴点が取得されていない場合、スライド操作に正比例で対応する移動量で、スライド操作の方向へ、選択枠601の位置を変更する。よって、ユーザは、前部タッチ検知部材142に対してスライド操作をするだけで、選択枠601の位置の位置を、画像の特徴点の間で移動させたり、スライド操作による移動量で移動させたりできる。たとえば本実施形態のように、ファインダ式表示部材122に表示している撮像中の画像の被写体の顔または顔の器官を特徴点とし、スライド操作の方向に特徴点が取得できている場合には、選択枠601を、複数の被写体の顔の間で移動することができる。ユーザは、1回のスライド操作では撮像の選択枠601を複数の被写体の顔の間で移動させることが難しい場合でも、スライド操作の方向により容易にその移動操作をすることができる。しかも、ユーザは、スライド操作の操作量に対応する移動量で移動させる操作についても、同じ前部タッチ検知部材142に対する操作により実施できるので、これらの複数の操作をするために、撮像装置100を持ち替えたりする必要もない。 As described above, the imaging device 100 of this embodiment has the front touch detection member 142 provided separately from the finder-type display member 122 that displays an image. Then, the CPU 401 controls the position of the selection frame 601 set for the image to be displayed on the viewfinder display member 122 based on the finger slide operation performed on the operation surface of the front touch detection member 142 . Specifically, the CPU 401 determines the position of the selection frame 601 when a face as a feature point is acquired in the direction of the slide operation with reference to the current position of the selection frame 601 in the display image of the finder-type display member 122 . to the position containing the feature points. The CPU 401 changes the position of the selection frame 601 to a position including the feature point according to the slide operation regardless of the amount of movement corresponding to the slide operation. Further, when no feature point is acquired in the direction of the slide operation, the CPU 401 changes the position of the selection frame 601 in the direction of the slide operation by a movement amount corresponding to the slide operation in direct proportion. Therefore, the user can move the position of the selection frame 601 between the feature points of the image or move the position of the selection frame 601 by the movement amount of the slide operation, simply by performing the slide operation on the front touch detection member 142 . can. For example, as in the present embodiment, when the face or facial organs of the subject in the image being captured displayed on the viewfinder display member 122 is set as the feature point, and the feature point can be acquired in the direction of the slide operation. , the selection frame 601 can be moved among the faces of a plurality of subjects. Even if it is difficult for the user to move the imaging selection frame 601 between the faces of a plurality of subjects with one slide operation, the user can easily perform the movement operation by changing the direction of the slide operation. Moreover, since the user can also operate the same front touch detection member 142 to move by a movement amount corresponding to the operation amount of the slide operation, the imaging device 100 can be used to perform these multiple operations. No need to switch.

特に、本実施形態では、ファインダ201式のファインダ式表示部材122を覗いた状態で操作可能となるように、前部タッチ検知部材142は、ファインダ201式のファインダ式表示部材122とは異なるボディ200の端の挟持部202に設けられる。それがゆえに、前部タッチ検知部材142として大きな操作面を確保することが難しい。しかしながら、本実施形態では、このような条件下においても、スライド操作に対応する移動量で移動させる操作性を損なうことなく、撮像中の画像において離れている複数の被写体の間で撮像の選択枠601をスライド操作により移動させることができる。ユーザは、ボディ200の背面に設けられる別の外部表示タッチ検知部材141などへ指を置き直す必要はない。ユーザは、指を置き直している間に決定的な撮像タイミングを撮り逃してしまうこともない。ユーザは、前部タッチ検知部材142を、目視していない状態で、直感的に操作することができる。 In particular, in the present embodiment, the front touch detection member 142 has a body 200 different from the finder-type display member 122 of the finder 201 type so that it can be operated while looking into the finder-type display member 122 of the finder 201 type. is provided in the clamping portion 202 at the end of the . Therefore, it is difficult to secure a large operation surface as the front touch detection member 142 . However, in this embodiment, even under such conditions, the imaging selection frame can be selected between a plurality of distant subjects in the image being captured without impairing the operability of moving by the amount of movement corresponding to the slide operation. 601 can be moved by a slide operation. The user does not need to rest his finger on another external display touch sensing member 141 or the like provided on the back surface of the body 200 . The user does not miss a decisive imaging timing while repositioning the finger. The user can intuitively operate the front touch sensing member 142 without looking at it.

本実施形態では、前部タッチ検知部材142は、操作面に対する操作位置を繰り返し出力する。よって、CPU401は、前部タッチ検知部材142から連続的に出力される複数の操作位置による操作方向を取得でき、それをスライド操作の方向とすることができる。本実施形態では、CPU401は、前部タッチ検知部材142から出力される最初の操作位置を、現在の選択枠601の位置として、操作位置の移動方向、操作位置の移動量に応じて、選択枠601の位置を変更する。よって、CPU401は、ファインダ式表示部材122とは別に設けられている操作手段の操作に基づいて、選択枠601についての画像での位置を変更することができる。 In this embodiment, the front touch sensing member 142 repeatedly outputs the operating position on the operating surface. Therefore, the CPU 401 can acquire the operation direction of the plurality of operation positions continuously output from the front touch detection member 142, and use it as the direction of the slide operation. In this embodiment, the CPU 401 regards the first operation position output from the front touch detection member 142 as the current position of the selection frame 601, and adjusts the selection frame according to the movement direction of the operation position and the movement amount of the operation position. Change the position of 601. Therefore, the CPU 401 can change the position of the selection frame 601 in the image based on the operation of the operation means provided separately from the viewfinder display member 122 .

[第二実施形態]
次に、本発明の第二実施形態に係る撮像装置100を説明する。本実施形態では、前部タッチ検知部材142に対する押圧力Fsに応じて制御を切り替えて、特徴点としての顔の間で選択枠601を優先的に切り替える機能を維持しつつ、顔以外についても被写体として容易に選択可能になる例を述べる。以下の説明では、主に第一実施形態の撮像装置100との相違点について説明する。
[Second embodiment]
Next, an imaging device 100 according to a second embodiment of the invention will be described. In the present embodiment, the control is switched according to the pressing force Fs applied to the front touch detection member 142, and while maintaining the function of preferentially switching the selection frame 601 between faces as feature points, subjects other than the face can also be detected. An example that can be easily selected as In the following description, differences from the imaging apparatus 100 of the first embodiment are mainly described.

図7は、本発明の第二実施形態の選択枠601の位置の移動制御についての、前部タッチ検知部材142の押圧力Fsに応じた切り替え制御を説明する図である。図7は、外部表示タッチ検知部材141もしくは前部タッチ検知部材142への押圧力Fsと、押下操作による静電容量出力値Sとの対応関係を示す図である。図7において下方向および右方向が、縦軸および横軸のプラス方向である。押圧力Fsが大きくなると、静電容量出力値Sも大きくなる。押下力を検出するデバイスには、静電容量方式のものの他にも、抵抗膜方式のものなどがある。ここでは、静電容量方式を例として説明する。ユーザの指による操作により、押圧力Fsが増加すると、外部表示タッチ検知部材141もしくは前部タッチ検知部材142に対する指の接地面積が増加する。押圧力検出回路105は、指の接地面積の増減による静電容量の変化を、押下操作による静電容量出力値Sとして検出する。押圧力検出回路105では、押圧力Fsに応じて外部表示タッチ検知部材141もしくは前部タッチ検知部材142から出力される静電容量出力値Sに対して、第一閾値αと、第一閾値αより大きい押圧力Fsに対応する第二閾値βとが設定される。押圧力検出回路105は、静電容量出力値Sと第一閾値αとの大小関係と、静電容量出力値Sと第二閾値βとの大小関係とを示す信号を、マイクロコンピュータ107へ出力する。 FIG. 7 is a diagram for explaining switching control according to the pressing force Fs of the front touch detection member 142 regarding the movement control of the position of the selection frame 601 according to the second embodiment of the present invention. FIG. 7 is a diagram showing the correspondence relationship between the pressing force Fs applied to the external display touch sensing member 141 or the front touch sensing member 142 and the capacitance output value S due to the pressing operation. Downward and rightward directions in FIG. 7 are positive directions of the vertical and horizontal axes. As the pressing force Fs increases, the capacitance output value S also increases. Devices for detecting the pressing force include, in addition to the capacitive type, a resistive type and the like. Here, the capacitance method will be described as an example. When the user's finger operation increases the pressing force Fs, the contact area of the finger with respect to the external display touch detection member 141 or the front touch detection member 142 increases. The pressing force detection circuit 105 detects a change in capacitance due to an increase or decrease in the contact area of the finger as a capacitance output value S due to a pressing operation. In the pressing force detection circuit 105, a first threshold value α and a first threshold value α A second threshold value β corresponding to a larger pressing force Fs is set. The pressing force detection circuit 105 outputs to the microcomputer 107 a signal indicating the magnitude relationship between the capacitance output value S and the first threshold value α and the magnitude relationship between the capacitance output value S and the second threshold value β. do.

マイクロコンピュータ107のCPU401は、静電容量出力値Sと第一閾値αとの大小関係と、静電容量出力値Sと第二閾値βとの大小関係とに基づいて、3種類の制御モードの間で、制御を切り替える。マイクロコンピュータ107のCPU401は、静電容量出力値Sが第一閾値α(および第二閾値β)より小さい場合、一つ目の顔優先タッチムーブモードに、制御を切り替える。顔優先タッチムーブモードでは、CPU401は、ユーザの指のタッチムーブ移動方向Fdに被写体の他の顔部が検出されている場合には、選択枠601をタッチムーブ移動量Fmによらずに該他の顔部へ移動させる。これにより、CPU401は、第一閾値α未満の押圧力範囲の操作において、スライド操作に応じて選択枠601の位置を、スライド操作に対応する移動量によらずに、人物の顔といった特徴点の位置へ変更することができる。マイクロコンピュータ107のCPU401は、静電容量出力値Sが第一閾値αより大きく第二閾値βより小さい場合、二つ目の操作量比例タッチムーブモードに、制御を切り替える。操作量比例タッチムーブモードでは、CPU401は、ユーザの指のタッチムーブ移動量Fmおよびタッチムーブ移動方向Fdに比例させて、選択枠601を逐次移動させる。これにより、CPU401は、第一閾値α以上となる押圧力Fsの操作において、スライド操作に応じて選択枠601の位置を、スライド操作に正比例で対応する移動量で、スライド操作の方向へ、選択枠601の位置を変更することができる。マイクロコンピュータ107のCPU401は、静電容量出力値Sが第二閾値β(および第一閾値α)より大きい場合、三つ目の被写体決定モードに、制御を切り替える。被写体決定モードでは、CPU401は、その時点で選択されている選択枠601の位置を、最終的な選択枠601の位置として決定する。このように、第一閾値αは、顔優先タッチムーブ状態から操作量比例タッチムーブ状態に遷移する閾値である。第二閾値βは、操作量比例タッチムーブ状態から撮影被写体決定状態に遷移する閾値である。第一閾値αの値は、たとえば押下操作による静電容量変化を検知できる全範囲の4割程度の値とし、第二閾値βは押下操作による静電容量変化を検知できる全範囲の8割程度の値とすればよい。これにより、顔優先タッチムーブ状態および、操作量比例タッチムーブ状態での操作において、ユーザの指によるタッチムーブ操作中に押圧力Fsが変動したとしても、各モードにおいて所定の操作が可能となるように感度幅に余裕を持たせることができる。意図しないモード移行を生じさせないようにできる。ユーザの操作性は向上し得る。 The CPU 401 of the microcomputer 107 selects three types of control modes based on the magnitude relationship between the capacitance output value S and the first threshold value α and the magnitude relationship between the capacitance output value S and the second threshold value β. Toggles control between When the capacitance output value S is smaller than the first threshold value α (and the second threshold value β), the CPU 401 of the microcomputer 107 switches control to the first face priority touch move mode. In the face-prioritized touch-move mode, when another face of the subject is detected in the touch-move movement direction Fd of the user's finger, the CPU 401 sets the selection frame 601 to the other face regardless of the touch-move movement amount Fm. to the face of the As a result, the CPU 401 can move the position of the selection frame 601 according to the slide operation to the position of the feature point such as a person's face, regardless of the amount of movement corresponding to the slide operation. position can be changed. When the capacitance output value S is greater than the first threshold α and less than the second threshold β, the CPU 401 of the microcomputer 107 switches control to the second operation amount proportional touch move mode. In the operation amount proportional touch-move mode, the CPU 401 sequentially moves the selection frame 601 in proportion to the touch-move movement amount Fm and the touch-move movement direction Fd of the user's finger. As a result, the CPU 401 selects the position of the selection frame 601 according to the slide operation in the direction of the slide operation by the amount of movement corresponding to the slide operation in direct proportion to the operation of the pressing force Fs equal to or greater than the first threshold value α. The position of frame 601 can be changed. When the capacitance output value S is greater than the second threshold value β (and the first threshold value α), the CPU 401 of the microcomputer 107 switches control to the third subject determination mode. In the subject determination mode, the CPU 401 determines the position of the selection frame 601 currently selected as the final position of the selection frame 601 . Thus, the first threshold α is a threshold for transition from the face-prioritized touch-move state to the operation amount-proportional touch-move state. The second threshold value β is a threshold value for transitioning from the operation amount proportional touch move state to the shooting subject determination state. The value of the first threshold value α is, for example, about 40% of the entire range in which a change in capacitance due to a pressing operation can be detected, and the second threshold value β is about 80% of the entire range in which a change in capacitance due to a pressing operation can be detected. should be the value of As a result, in operations in the face-prioritized touch-move state and the operation amount-proportional touch-move state, even if the pressing force Fs fluctuates during the touch-move operation with the user's finger, predetermined operations can be performed in each mode. It is possible to give a margin to the sensitivity range. Unintended mode transition can be prevented. User operability can be improved.

図8は、第二実施形態での、フォーカス調整用の選択枠601の位置の移動による被写体の選択制御の流れを示すフローチャートである。図8のフローチャートは、本体メモリ402に記録されるプログラム406をRAM403に展開してCPU401が実行することにより実現される。図9は、図8の選択制御による、撮像中の画像での選択枠601の位置の移動制御の一例を示す説明図である。図8のステップS801からステップS805までの制御動作は、図4のステップS501からステップS505までと同様であるため、その説明を省略する。 FIG. 8 is a flowchart showing the flow of subject selection control by moving the position of the selection frame 601 for focus adjustment in the second embodiment. The flowchart of FIG. 8 is realized by developing the program 406 recorded in the main body memory 402 in the RAM 403 and executing it by the CPU 401 . FIG. 9 is an explanatory diagram showing an example of movement control of the position of the selection frame 601 in the image being captured by the selection control of FIG. Since the control operation from step S801 to step S805 in FIG. 8 is the same as from step S501 to step S505 in FIG. 4, the description thereof is omitted.

ステップS806において、CPU401は、押圧力検出回路105の出力信号に基づいて、ユーザの指が外部表示タッチ検知部材141もしくは前部タッチ検知部材142への押下操作による静電容量出力値Sが第一閾値α未満であるかを判定する。静電容量出力値Sが第一閾値α未満である場合、CPU401は、ステップS807において、タッチセンス回路104の出力信号に基づいて、操作者によるタッチムーブ動作が行われたかを判定する。タッチムーブ動作が行われていない場合、CPU401は、ステップS809において、CPU401は、現在の選択枠601の位置を維持する。その後、CPU401は、処理をステップS816へ進める。タッチムーブ動作が行われている場合、CPU401は、ステップS808において、タッチセンス回路104から、タッチムーブ移動量Fmおよびタッチムーブ移動方向Fdを取得する。そして、ステップS810において、CPU401は、タッチムーブ移動方向Fdに、他の顔部が検出されているか否かを判定する。タッチムーブ移動方向Fdに他の顔がある場合、ステップS811において、CPU401は、選択枠601の中心が、他の顔部の中心と一致するように、選択枠601の位置を移動させる。その後、CPU401は、処理をステップS816へ進める。タッチムーブ移動方向Fdに他の顔がない場合、ステップS809において、CPU401は、現在の選択枠601の位置を維持する。その後、CPU401は、処理をステップS816へ進める。 In step S806, based on the output signal of the pressing force detection circuit 105, the CPU 401 determines that the capacitance output value S due to the pressing operation of the user's finger on the external display touch detection member 141 or the front touch detection member 142 is the first. It is determined whether it is less than the threshold α. If the capacitance output value S is less than the first threshold α, the CPU 401 determines whether the operator has performed a touch move operation based on the output signal of the touch sensing circuit 104 in step S807. If the touch-move action has not been performed, the CPU 401 maintains the current position of the selection frame 601 in step S809. Thereafter, CPU 401 advances the process to step S816. If the touch-move operation is performed, the CPU 401 acquires the touch-move movement amount Fm and the touch-move movement direction Fd from the touch sense circuit 104 in step S808. Then, in step S810, the CPU 401 determines whether or not another face is detected in the touch-move movement direction Fd. If there is another face in the touch-move movement direction Fd, in step S811 the CPU 401 moves the position of the selection frame 601 so that the center of the selection frame 601 matches the center of the other face. Thereafter, CPU 401 advances the process to step S816. If there is no other face in the touch-move movement direction Fd, the CPU 401 maintains the current position of the selection frame 601 in step S809. Thereafter, CPU 401 advances the process to step S816.

ここで、図9を用いて、押下操作による静電容量出力値Sが第一閾値α以下である場合での、選択枠601の位置の変更処理について説明する。図9(a)は、押下操作による静電容量出力値Sが第一閾値α以下である場合であって、タッチムーブ移動方向Fdに他の特徴点604としての顔部がある場合の状態遷移図である。この場合、CPU401は、ステップS809からステップS810を通じてステップS811へ処理を進める。この場合、図9(a)Iのように、画像の中央の特徴点603としての人物の顔部に選択枠601が設定されている状態において、図9(a)IIに示すように、ユーザは、左向きにスライド操作する。ユーザは、タッチムーブ移動方向Fdに、タッチムーブ移動量Fmでスライド操作する。画像の左側には他の特徴点604としての人物の顔部が撮像されている。よって、CPU401は、図9(a)IIIに示すように、選択枠601の中心が画像の左側の他の特徴点604としての人物の顔部の中心と一致するように、第二の選択枠移動量L2で選択枠601を移動させる。CPU401は、タッチムーブ移動量Fmによらずに、第二の選択枠移動量L2により選択枠601を移動させる。図9(b)は、押下操作による静電容量出力値Sが第一閾値α以下で有る場合であって、タッチムーブ移動方向Fdに他の特徴点としての顔部がない場合の状態遷移図である。この場合、CPU401は、ステップS809からステップS810を通じてステップS809へ処理を進める。この場合、図9(b)Iのように、画像の中央の特徴点603としての人物の顔部に選択枠601が設定されている状態において、図9(b)IIに示すように、ユーザは、右向きにスライド操作する。ユーザは、タッチムーブ移動方向Fdに、タッチムーブ移動量Fmでスライド操作する。画像の右側には他の特徴点としての人物の顔部が撮像されていない。よって、CPU401は、図9(b)IIIに示すように、選択枠601を元の位置に維持する。これにより、ユーザが操作の押圧力Fsにより意図的に顔優先タッチムーブモードを選択しようとしている場合には、顔優先による移動ができない方向への選択枠601の移動を禁止できる。ユーザの意図しない誤操作を防止することができる。 Here, the process of changing the position of the selection frame 601 when the capacitance output value S due to the pressing operation is equal to or less than the first threshold value α will be described with reference to FIG. 9 . FIG. 9A shows the state transition when the capacitance output value S due to the pressing operation is equal to or less than the first threshold value α and when there is a face as another feature point 604 in the touch-move movement direction Fd. It is a diagram. In this case, the CPU 401 advances the process from step S809 to step S811 through step S810. In this case, as shown in FIG. 9(a)I, in a state where a selection frame 601 is set on the face of a person as a feature point 603 in the center of the image, as shown in FIG. 9(a)II, the user , slide to the left. The user performs a slide operation in a touch-move movement direction Fd with a touch-move movement amount Fm. A person's face is captured as another feature point 604 on the left side of the image. Therefore, as shown in FIG. 9(a)III, the CPU 401 sets the second selection frame so that the center of the selection frame 601 coincides with the center of the person's face as another feature point 604 on the left side of the image. The selection frame 601 is moved by the movement amount L2. The CPU 401 moves the selection frame 601 by the second selection frame movement amount L2 regardless of the touch move movement amount Fm. FIG. 9B is a state transition diagram when the capacitance output value S due to the pressing operation is equal to or less than the first threshold value α and there is no face as another feature point in the touch-move movement direction Fd. is. In this case, the CPU 401 advances the process from step S809 to step S809 through step S810. In this case, as shown in FIG. 9(b)I, in a state where a selection frame 601 is set on the face of a person as a feature point 603 in the center of the image, as shown in FIG. 9(b)II, the user , slide to the right. The user performs a slide operation in a touch-move movement direction Fd with a touch-move movement amount Fm. On the right side of the image, the face of a person as another feature point is not captured. Therefore, the CPU 401 maintains the selection frame 601 at its original position, as shown in FIG. 9(b)III. As a result, when the user intentionally selects the face-prioritized touch-move mode with the pressing force Fs of the operation, movement of the selection frame 601 in a direction in which face-prioritized movement is not possible can be prohibited. Unintentional erroneous operations by the user can be prevented.

ステップS816において、CPU401は、タッチセンス回路104の出力信号に基づいて、タッチアップ操作が行われたかを判定する。タッチアップ操作が行われたと判定した場合、CPU401は、ステップS817において、その時点で選択されている選択枠601の位置を、撮像するための選択枠601の位置として決定する。タッチアップ操作が行われていないと判定した場合、CPU401は、処理をステップS806へ戻す。ステップS806において静電容量出力値Sが第一閾値α未満ではないと判定した場合、CPU401は、処理をステップS812へ進める。ステップS812において、CPU401は、さらに静電容量出力値Sが第二閾値β未満であるかを判定する。静電容量出力値Sが第二閾値β未満でない場合、CPU401は、処理をステップS817へ進める。静電容量出力値Sが第二閾値β未満である場合、CPU401は、ステップS813において、タッチセンス回路104の出力信号に基づいて、操作者によるタッチムーブ動作が行われたかを判定する。タッチムーブ動作が行われていない場合、CPU401は、ステップS809において、CPU401は、現在の選択枠601の位置を維持する。その後、CPU401は、処理をステップS816へ進める。タッチムーブ動作が行われている場合、CPU401は、ステップS814において、タッチセンス回路104から、タッチムーブ移動量Fmおよびタッチムーブ移動方向Fdを取得する。そして、ステップS815において、CPU401は、選択枠601を、タッチムーブ移動方向Fdに、タッチムーブ移動量Fmに比例した移動量で移動させる。ここで、たとえばタッチムーブ移動量Fmと第一の選択枠移動量L1の関係が1:1の場合、タッチムーブ移動量Fmと第一の選択枠移動量L1は等しくなる。移動の比率については、被写体画像の拡大率や、操作部材の有効範囲などに基づいて任意に設定してよい。この際、たとえタッチムーブ移動量Fmに他の顔部があったとしても、CPU401は、選択枠601の中心を他の顔部の中心に合わせるための処理は実行しない。 In step S<b>816 , the CPU 401 determines whether a touch-up operation has been performed based on the output signal of the touch sense circuit 104 . When determining that a touch-up operation has been performed, the CPU 401 determines the position of the selection frame 601 currently selected as the position of the selection frame 601 for imaging in step S817. When determining that the touch-up operation has not been performed, the CPU 401 returns the process to step S806. When determining in step S806 that the capacitance output value S is not less than the first threshold α, the CPU 401 advances the process to step S812. In step S812, the CPU 401 further determines whether the capacitance output value S is less than the second threshold value β. If the capacitance output value S is not less than the second threshold value β, the CPU 401 advances the process to step S817. When the capacitance output value S is less than the second threshold value β, the CPU 401 determines whether the operator has performed a touch move operation based on the output signal of the touch sense circuit 104 in step S813. If the touch-move action has not been performed, the CPU 401 maintains the current position of the selection frame 601 in step S809. Thereafter, CPU 401 advances the process to step S816. When the touch-move operation is performed, the CPU 401 acquires the touch-move movement amount Fm and the touch-move movement direction Fd from the touch sense circuit 104 in step S814. Then, in step S815, the CPU 401 moves the selection frame 601 in the touch-move movement direction Fd by a movement amount proportional to the touch-move movement amount Fm. Here, for example, when the relationship between the touch-move movement amount Fm and the first selection frame movement amount L1 is 1:1, the touch-move movement amount Fm and the first selection frame movement amount L1 are equal. The movement ratio may be arbitrarily set based on the magnification of the subject image, the effective range of the operation member, and the like. At this time, even if there is another face in the touch-move movement amount Fm, the CPU 401 does not execute processing for aligning the center of the selection frame 601 with the center of the other face.

ここで、図9を用いて、押下操作による静電容量出力値Sが第一閾値α以上であり且つ第二閾値β未満である場合での、選択枠601の位置の変更処理について説明する。図9(c)は、押下操作による静電容量出力値Sが第一閾値α以上であり且つ第二閾値β未満である場合であって、タッチムーブ移動方向Fdに他の特徴点604としての顔部がある場合の状態遷移図である。この場合、CPU401は、ステップS809からステップS812およびステップS813を通じてステップS815へ処理を進める。この場合、図9(c)Iのように、画像の中央の特徴点603としての人物の顔部に選択枠601が設定されている状態において、図9(c)IIに示すように、ユーザは、左向きにスライド操作する。ユーザは、タッチムーブ移動方向Fdに、タッチムーブ移動量Fmでスライド操作する。画像の左側には他の特徴点604としての人物の顔部が撮像されている。しかしながら、CPU401は、図9(c)IIIに示すように、選択枠601の中心の位置を、画像の左側の他の特徴点604としての人物の顔部の中心に合わせるのではなく、タッチムーブ移動方向Fdに、タッチムーブ移動量Fmで移動させる。図9(d)は、押下操作による静電容量出力値Sが第一閾値α以上であり且つ第二閾値β未満である場合であって、タッチムーブ移動方向Fdに他の特徴点としての顔部がない場合の状態遷移図である。この場合、CPU401は、ステップS809からステップS810を通じてステップS809へ処理を進める。この場合、図9(d)Iのように、画像の中央の特徴点603としての人物の顔部に選択枠601が設定されている状態において、図9(d)IIに示すように、ユーザは、右向きにスライド操作する。ユーザは、タッチムーブ移動方向Fdに、タッチムーブ移動量Fmでスライド操作する。画像の右側には他の特徴点としての人物の顔部が撮像されていない。しかしながら、CPU401は、図9(d)IIIに示すように、選択枠601の中心の位置を、タッチムーブ移動方向Fdに、タッチムーブ移動量Fmで移動させる。これにより、ユーザが操作の押圧力Fsにより意図的に操作量比例タッチムーブモードを選択しようとしている場合には、顔優先タッチムーブモードによる選択枠601の移動を禁止し、スライド操作に応じて選択枠601の位置を移動させる。ユーザが意図していない誤操作を防止することができる。押圧力Fsにより操作量比例タッチムーブモードの操作と顔優先タッチムーブモードの操作とを区別することにより、ユーザが意図する操作モードでの操作を確実に実施できる。ユーザの操作性は、向上し得る。 Here, the process of changing the position of the selection frame 601 when the capacitance output value S due to the pressing operation is equal to or greater than the first threshold value α and less than the second threshold value β will be described with reference to FIG. 9 . FIG. 9C shows the case where the capacitance output value S due to the pressing operation is equal to or greater than the first threshold value α and less than the second threshold value β, and the touch-move movement direction Fd as another feature point 604 It is a state transition diagram when there is a face. In this case, the CPU 401 advances the process from step S809 to step S815 through steps S812 and S813. In this case, as shown in FIG. 9(c)I, in a state where a selection frame 601 is set on the face of a person as a feature point 603 in the center of the image, as shown in FIG. 9(c)II, the user , slide to the left. The user performs a slide operation in a touch-move movement direction Fd with a touch-move movement amount Fm. A person's face is captured as another feature point 604 on the left side of the image. However, the CPU 401 does not align the center of the selection frame 601 with the center of the person's face as another feature point 604 on the left side of the image, as shown in FIG. 9(c)III. It is moved in the movement direction Fd by the touch-move movement amount Fm. FIG. 9D shows a case where the capacitance output value S due to the pressing operation is equal to or greater than the first threshold value α and less than the second threshold value β, and the face as another feature point in the touch-move movement direction Fd. It is a state transition diagram when there is no part. In this case, the CPU 401 advances the process from step S809 to step S809 through step S810. In this case, as shown in FIG. 9(d)I, in a state where a selection frame 601 is set on the face of a person as a feature point 603 in the center of the image, as shown in FIG. 9(d)II, the user , slide to the right. The user performs a slide operation in a touch-move movement direction Fd with a touch-move movement amount Fm. On the right side of the image, the face of a person as another feature point is not captured. However, the CPU 401 moves the center position of the selection frame 601 in the touch-move movement direction Fd by the touch-move movement amount Fm, as shown in FIG. 9(d)III. As a result, when the user intentionally selects the operation amount proportional touch-move mode with the pressing force Fs of the operation, movement of the selection frame 601 in the face-priority touch-move mode is prohibited, and selection is made according to the slide operation. The position of the frame 601 is moved. It is possible to prevent erroneous operations not intended by the user. By distinguishing between the operation in the operation amount proportional touch-move mode and the operation in the face-priority touch-move mode by the pressing force Fs, the operation in the operation mode intended by the user can be reliably performed. User operability may be improved.

以上のように、本実施形態では、前部タッチ検知部材142への操作の押圧力Fsは、第一閾値α未満の押圧力範囲となることがある。この場合、本実施形態では、スライド操作に応じて選択枠601の位置を、スライド操作に対応する移動量によらずに、特徴点を含む位置へ変更する。よって、ユーザは、第一閾値α未満の押圧力Fsで操作することにより、選択枠601を、特徴点を含む位置へ変更することができる。また、操作の押圧力Fsが、その圧力範囲以外である場合、CPU401は、スライド操作に正比例で対応する移動量で、スライド操作の方向へ、選択枠601の位置を変更する。よって、ユーザは、選択枠601の位置を微調整する際に直感的な強い力で操作することにより、選択枠601の位置を微調整することができる。 As described above, in the present embodiment, the pressing force Fs of the operation on the front touch detection member 142 may fall within the pressing force range less than the first threshold value α. In this case, in this embodiment, the position of the selection frame 601 is changed to a position including the feature point according to the slide operation regardless of the amount of movement corresponding to the slide operation. Therefore, the user can change the selection frame 601 to a position including the feature point by operating with a pressing force Fs less than the first threshold α. Further, when the pressing force Fs of the operation is outside the pressure range, the CPU 401 changes the position of the selection frame 601 in the direction of the slide operation by a moving amount corresponding to the slide operation in direct proportion. Therefore, the user can finely adjust the position of the selection frame 601 by operating with strong intuitive force when finely adjusting the position of the selection frame 601 .

[第三実施形態]
次に、本発明の第三実施形態に係る撮像装置100を説明する。本実施形態では、押圧力Fsに対する顔優先タッチムーブモードと操作量比例タッチムーブモードとの割付が、第二実施形態と逆になっている。以下の説明では、主に第二実施形態の撮像装置100との相違点について説明する。
[Third embodiment]
Next, an imaging device 100 according to a third embodiment of the invention will be described. In this embodiment, the allocation of the face-prioritized touch-move mode and the operation amount-proportional touch-move mode to the pressing force Fs is reversed from that in the second embodiment. In the following description, differences from the imaging apparatus 100 of the second embodiment are mainly described.

図10は、本発明の第三実施形態の選択枠601の位置の移動制御についての、前部タッチ検知部材142の押圧力Fsに応じた切り替え制御を説明する図である。図10は、図7と対応し、外部表示タッチ検知部材141もしくは前部タッチ検知部材142への押圧力Fsと、押下操作による静電容量出力値Sとの対応関係を示す図である。マイクロコンピュータ107のCPU401は、静電容量出力値Sが第一閾値α(および第二閾値β)より小さい場合、一つ目の操作量比例タッチムーブモードに、制御を切り替える。マイクロコンピュータ107のCPU401は、静電容量出力値Sが第一閾値αより大きく第二閾値βより小さい場合、二つ目の顔優先タッチムーブモードに、制御を切り替える。マイクロコンピュータ107のCPU401は、静電容量出力値Sが第二閾値β(および第一閾値α)より大きい場合、三つ目の被写体決定モードに、制御を切り替える。なお、本実施形態での、フォーカス調整用の選択枠601の位置の移動による被写体の選択制御の流れは、基本的に、第二実施形態での図8と同様である。ただし、図8のステップS806の判断において静電容量出力値Sが第一閾値α未満であると判断した場合、CPU401は、処理をステップS813へ進める。また、図8のステップS812の判断において静電容量出力値Sが第二閾値β未満であると判断した場合、CPU401は、処理をステップS807へ進める。 10A and 10B are diagrams illustrating switching control according to the pressing force Fs of the front touch detection member 142 regarding the movement control of the position of the selection frame 601 according to the third embodiment of the present invention. FIG. 10 corresponds to FIG. 7 and is a diagram showing the correspondence relationship between the pressing force Fs on the external display touch sensing member 141 or the front touch sensing member 142 and the capacitance output value S due to the pressing operation. When the capacitance output value S is smaller than the first threshold value α (and the second threshold value β), the CPU 401 of the microcomputer 107 switches control to the first operation amount proportional touch move mode. The CPU 401 of the microcomputer 107 switches control to the second face priority touch move mode when the capacitance output value S is larger than the first threshold value α and smaller than the second threshold value β. When the capacitance output value S is greater than the second threshold value β (and the first threshold value α), the CPU 401 of the microcomputer 107 switches control to the third subject determination mode. Note that the flow of subject selection control by moving the position of the selection frame 601 for focus adjustment in this embodiment is basically the same as in FIG. 8 in the second embodiment. However, if it is determined in step S806 in FIG. 8 that the capacitance output value S is less than the first threshold α, the CPU 401 advances the process to step S813. If it is determined in step S812 in FIG. 8 that the capacitance output value S is less than the second threshold value β, the CPU 401 advances the process to step S807.

以上のように、本実施形態では、前部タッチ検知部材142への操作の押圧力Fsは、第一閾値α以上であり且つ第二閾値β未満の押圧力範囲となることがある。この場合、本実施形態では、スライド操作に応じて選択枠601の位置を、スライド操作に対応する移動量によらずに、特徴点を含む位置へ変更する。よって、ユーザは、第一閾値α未満の押圧力Fsで操作することにより、選択枠601を、特徴点を含む位置へ変更することができる。また、操作の押圧力Fsが、その圧力範囲以外である第一閾値α未満である場合、CPU401は、スライド操作に正比例で対応する移動量で、スライド操作の方向へ、選択枠601の位置を変更する。よって、ユーザは、選択枠601の位置を微調整する際に直感的な強い力で操作することにより、選択枠601の位置を微調整することができる。 As described above, in the present embodiment, the pressing force Fs of the operation on the front touch detection member 142 may fall within the range of the pressing force equal to or greater than the first threshold value α and less than the second threshold value β. In this case, in this embodiment, the position of the selection frame 601 is changed to a position including the feature point according to the slide operation regardless of the amount of movement corresponding to the slide operation. Therefore, the user can change the selection frame 601 to a position including the feature point by operating with a pressing force Fs less than the first threshold α. Further, when the pressing force Fs of the operation is less than the first threshold α outside the pressure range, the CPU 401 moves the position of the selection frame 601 in the direction of the slide operation by a movement amount corresponding to the slide operation in direct proportion. change. Therefore, the user can finely adjust the position of the selection frame 601 by operating with strong intuitive force when finely adjusting the position of the selection frame 601 .

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 Although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms without departing from the gist of the present invention can be applied to the present invention. included.

上記実施形態では、前部タッチ検知部材142の操作面は、ボディ200において、撮像装置100のファインダ201式のファインダ式表示部材122とは異なる部位に設けられる。この他にもたとえば、タッチ検知部材の操作面は、撮像装置100の表示部材と重ねて設けられてもよい。上述した実施形態では、外部表示タッチ検知部材141の操作面は、外部表示部材121の表示面に重ねられている。また、タッチ検知部材の操作面のサイズは、表示部材の表示面のサイズと同じであってもよい。上述した実施形態では、外部表示タッチ検知部材141の操作面のサイズは、外部表示部材121の表示面のサイズと同じである。このよう変形例においても、表示部材を見ながらタッチ検知部材に対してスライド操作する際に、上述した本実施形態による選択枠601の位置の制御は、好適に利用し得る。ユーザは、たとえば大きな画面に対してその一端から他端までにわたる大きなスライド操作をしなくても、小さなスライド操作をするだけで、選択枠601の位置を好適に変更することができる。 In the above-described embodiment, the operation surface of the front touch detection member 142 is provided on the body 200 at a location different from the finder-type display member 122 of the finder 201 type of the imaging device 100 . Alternatively, for example, the operation surface of the touch detection member may be provided so as to overlap the display member of the imaging device 100 . In the above-described embodiments, the operation surface of the external display touch detection member 141 overlaps the display surface of the external display member 121 . Also, the size of the operation surface of the touch detection member may be the same as the size of the display surface of the display member. In the embodiment described above, the size of the operation surface of the external display touch detection member 141 is the same as the size of the display surface of the external display member 121 . In such a modified example as well, the control of the position of the selection frame 601 according to the present embodiment described above can be preferably used when performing a sliding operation on the touch detection member while looking at the display member. The user can preferably change the position of the selection frame 601 only by performing a small sliding operation, for example, without performing a large sliding operation from one end to the other end of a large screen.

上記実施形態では、選択枠601は、撮像中の画像についてのフォーカスを調整するための基準枠である。この他にもたとえば、選択枠601は、撮像中の画像についての露出、明るさなどの画質を調整するための基準枠として用いられてよい。 In the above embodiment, the selection frame 601 is a reference frame for adjusting the focus of the image being captured. In addition, for example, the selection frame 601 may be used as a reference frame for adjusting image quality such as exposure and brightness of the image being captured.

上記実施形態では、選択枠601は、撮像中の画像に対して設けられている。この他にもたとえば、選択枠601は、撮影した後の画像、その他の画像に対して設けられてよい。これらの画像に対する選択枠601としては、たとえば、画質の色合いや明るさなどを調整するための基準となる画像部分を選択するものがある。 In the above embodiment, the selection frame 601 is provided for the image being captured. In addition, for example, the selection frame 601 may be provided for an image after being photographed or other images. As the selection frame 601 for these images, for example, there is one for selecting an image portion that serves as a reference for adjusting the color tone and brightness of image quality.

上記実施形態では、前部タッチ検知部材142に対する押圧力Fsに対して、選択枠601の位置を操作するための2種類のモードを割り当てている。この他にもたとえば、前部タッチ検知部材142に対する押圧力Fsに対して、選択枠601の位置を操作するための3種類以上のモードを割り当てもよい。また、前部タッチ検知部材142に対する押圧力Fsに対して、選択枠601の位置を操作するためのモード以外の操作を割り当ててもよい。たとえば、1つの押圧力範囲に対して、シャッタ操作を割り当ててよい。 In the above embodiment, two types of modes for operating the position of the selection frame 601 are assigned to the pressing force Fs on the front touch detection member 142 . In addition, for example, three or more modes for operating the position of selection frame 601 may be assigned to pressing force Fs on front touch detection member 142 . Also, an operation other than the mode for operating the position of selection frame 601 may be assigned to pressing force Fs on front touch detection member 142 . For example, a shutter operation may be assigned to one pressing force range.

なお、CPU401が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(たとえば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 Note that the various controls described above that are performed by the CPU 401 may be performed by one piece of hardware, or a plurality of pieces of hardware (for example, a plurality of processors or circuits) may share the processing to control the entire apparatus. may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Moreover, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention can be applied to the present invention. included. Furthermore, each embodiment described above merely shows one embodiment of the present invention, and it is also possible to combine each embodiment as appropriate.

また、上述した実施形態においては、本発明を撮像装置100に適用した場合を例にして説明したが、これはこの例に限定されず、表示する画像に対して選択枠601を設ける電子機器であれば適用可能である。すなわち、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the imaging device 100 has been described as an example, but this is not limited to this example. applicable if available. That is, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, printers equipped with displays, digital photo frames, music players, game machines, electronic book readers, and the like.

また、撮像装置100の本体に限らず、有線または無線通信を介して撮像装置100(ネットワーク撮像装置を含む)と通信して、撮像装置100を遠隔で制御する電子機器にも本発明を適用可能である。撮像装置100を遠隔で制御する電子機器としては、たとえば、スマートフォン、タブレットPC、デスクトップPCなどの装置がある。遠隔で制御する電子機器で行われた操作や処理に基づいて、遠隔で制御する電子機器から撮像装置100へ各種動作や設定を行わせるコマンドを通知することにより、撮像装置100を遠隔から制御可能である。また、撮像装置100で撮影したライブビュー画像を有線または無線通信を介して受信して電子機器に表示できるようにしてもよい。 In addition, the present invention can be applied not only to the main body of the imaging device 100 but also to an electronic device that remotely controls the imaging device 100 by communicating with the imaging device 100 (including a network imaging device) via wired or wireless communication. is. Examples of electronic devices that remotely control the imaging device 100 include devices such as smartphones, tablet PCs, and desktop PCs. The imaging apparatus 100 can be remotely controlled by notifying the imaging apparatus 100 of commands for performing various operations and settings from the remotely controlled electronic apparatus based on operations and processes performed by the remotely controlled electronic apparatus. is. Also, a live view image captured by the imaging device 100 may be received via wired or wireless communication and displayed on the electronic device.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやマイクロコンピュータ等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを格納した記録媒体は本発明を構成することになる。 The present invention is also realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to a system or device via a network or various recording media, and the computer (or CPU, microcomputer, etc.) of the system or device reads the program code. It is a process to be executed by In this case, the program and the recording medium storing the program constitute the present invention.

100 撮像装置
104 タッチセンス回路
105 押圧力検出回路
107 マイクロコンピュータ
121 外部表示部材
122 ファインダ式表示部材
141 外部表示タッチ検知部材
142 前部タッチ検知部材
401 CPU
402 本体メモリ
403 RAM
406 プログラム
407 被写体特徴点検出回路
601 選択枠
100 imaging device 104 touch sense circuit 105 pressure detection circuit 107 microcomputer 121 external display member 122 viewfinder display member 141 external display touch detection member 142 front touch detection member 401 CPU
402 body memory 403 RAM
406 Program 407 Subject feature point detection circuit 601 Selection frame

Claims (16)

表示手段に表示される画像についての特徴点を取得する取得手段と、
操作面に対するタッチ操作を検出するタッチ検知手段と、
前記操作面に対してタッチしたままタッチ位置を移動させる操作であるスライド操作に基づいて、前記表示手段に表示される画像について設定されている選択位置を制御する制御手段であって、
前記表示手段に表示される画像についての現在の前記選択位置を基準として前記スライド操作に対応する方向に前記特徴点が取得されている場合、前記選択位置を前記スライド操作の方向の前記特徴点の位置へ変更し、
前記特徴点が取得されていない場合、前記スライド操作に対応する移動量で、前記スライド操作に対応する方向へ、前記選択位置を移動するように制御する制御手段と、
を有し、
前記制御手段は、
前記タッチ検知手段から出力される操作の押圧力が所定の圧力範囲である場合、前記スライド操作に応じて前記選択位置を前記特徴点の位置へ変更し、
前記押圧力が前記所定の圧力範囲でない場合、前記スライド操作に対応する移動量で、前記スライド操作に対応する方向へ、前記選択位置を変更することを特徴とする電子機器。
Acquisition means for acquiring feature points for an image displayed on the display means;
touch detection means for detecting a touch operation on the operation surface;
Control means for controlling a selection position set for an image displayed on the display means based on a slide operation, which is an operation of moving a touch position while touching the operation surface,
When the feature point is acquired in the direction corresponding to the slide operation with reference to the current selection position for the image displayed on the display means, the selection position is the feature point in the direction of the slide operation. position and
control means for controlling to move the selected position in a direction corresponding to the slide operation by a movement amount corresponding to the slide operation when the feature point is not acquired;
has
The control means is
when the pressing force of the operation output from the touch detection means is within a predetermined pressure range, changing the selected position to the position of the feature point in accordance with the slide operation;
An electronic device , wherein when the pressing force is not within the predetermined pressure range, the selected position is changed in a direction corresponding to the slide operation by a movement amount corresponding to the slide operation .
前記制御手段は、前記表示手段に表示される画像についての現在の前記選択位置を基準として前記スライド操作に対応する方向に前記特徴点が取得されていない場合、前記スライド操作に対応する移動量で、前記スライド操作に対応する方向へ、前記選択位置を移動するように制御する、
ことを特徴とする請求項1に記載の電子機器。
If the feature point is not acquired in the direction corresponding to the slide operation with reference to the current selected position of the image displayed on the display means, the control means moves the image by the amount of movement corresponding to the slide operation. , controlling to move the selected position in a direction corresponding to the slide operation;
The electronic device according to claim 1, characterized by:
前記制御手段は、前記表示手段に表示される画像についての現在の前記選択位置を基準として前記スライド操作に対応する方向に前記特徴点が取得されている場合、前記スライド操作の移動量にかかわらず、前記選択位置を前記スライド操作の方向の前記特徴点の位置へ変更するように制御する、
ことを特徴とする請求項1または2に記載の電子機器。
When the feature point is obtained in the direction corresponding to the slide operation with reference to the current selected position of the image displayed on the display means, the control means controls the movement of the image displayed on the display means regardless of the amount of movement of the slide operation. , controlling to change the selected position to the position of the feature point in the direction of the slide operation;
3. The electronic device according to claim 1, wherein:
前記スライド操作に対応する移動量は、前記スライド操作の移動量に比例する移動量である、
ことを特徴とする請求項1から3のいずれか1項に記載の電子機器。
The amount of movement corresponding to the slide operation is an amount of movement proportional to the amount of movement of the slide operation.
The electronic device according to any one of claims 1 to 3, characterized in that:
前記タッチ検知手段は、前記操作面に対する操作位置を繰り返し出力し、
前記制御手段は、前記タッチ検知手段から連続的に出力される複数の操作位置による操作方向を、前記スライド操作に対応する方向とする、
ことを特徴とする請求項1から4のいずれか1項に記載の電子機器。
The touch detection means repeatedly outputs an operation position on the operation surface,
The control means sets the operation direction corresponding to the plurality of operation positions continuously output from the touch detection means to the direction corresponding to the slide operation.
The electronic device according to any one of claims 1 to 4, characterized in that:
前記制御手段は、前記タッチ検知手段から出力される最初の操作位置を、現在の選択位置として、操作位置の移動方向、操作位置の移動量に応じて、前記選択位置を変更する、 ことを特徴とする請求項1から5のいずれか1項に記載の電子機器。 The control means changes the selected position according to the movement direction of the operation position and the movement amount of the operation position, with the first operation position output from the touch detection means as the current selection position. The electronic device according to any one of claims 1 to 5. 前記所定の圧力範囲は、第一閾値より小さい押圧力の範囲である、
ことを特徴とする請求項1から6のいずれか1項に記載の電子機器。
The predetermined pressure range is a range of pressing force smaller than the first threshold,
The electronic device according to any one of claims 1 to 6 , characterized in that:
画像を撮像する撮像手段を更に有する、
ことを特徴とする請求項1からのいずれか1項に記載の電子機器。
further comprising imaging means for capturing an image;
The electronic device according to any one of claims 1 to 7 , characterized in that:
前記表示手段に表示される画像は前記撮像手段で撮像された画像であり、
前記選択位置は、前記撮像手段で撮像する際のフォーカス調整位置である、
ことを特徴とする請求項に記載の電子機器。
The image displayed on the display means is an image captured by the imaging means,
The selected position is a focus adjustment position when imaging with the imaging means,
9. The electronic device according to claim 8 , characterized by:
前記取得手段は、前記表示手段に表示される画像から、人物の顔または顔の器官を特徴点として取得する、
ことを特徴とする請求項1からのいずれか1項に記載の電子機器。
The acquisition means acquires a person's face or facial organs as feature points from the image displayed on the display means.
The electronic device according to any one of claims 1 to 9 , characterized in that:
前記表示手段および前記タッチ検知手段が設けられるボディ、を有し、
前記表示手段は、撮像中の画像を表示するファインダ式表示手段であり、
前記タッチ検知手段は、前記ボディにおいて、前記ファインダ式の表示手段を覗いた状態で操作可能となるように前記ファインダ式の表示手段とは異なる部位に設けられる、
ことを特徴とする請求項1から10のいずれか1項に記載の電子機器。
a body in which the display means and the touch sensing means are provided;
The display means is a finder-type display means for displaying an image being captured,
The touch detection means is provided on the body at a location different from the finder-type display means so as to be operable while looking into the finder-type display means.
The electronic device according to any one of claims 1 to 10 , characterized in that:
前記タッチ検知手段は、画像を表示する前記表示手段と重ねて設けられる、
ことを特徴とする請求項1から11のいずれか1項に記載の電子機器。
The touch detection means is provided overlapping with the display means for displaying an image,
The electronic device according to any one of claims 1 to 11 , characterized in that:
前記タッチ検知手段は、画像を表示する前記表示手段とは異なる部位に設けられる、
ことを特徴とする請求項1から11のいずれか1項に記載の電子機器。
The touch detection means is provided at a different site from the display means for displaying an image,
The electronic device according to any one of claims 1 to 11 , characterized in that:
電子機器の制御方法であって、
表示手段に表示される画像についての特徴点を取得する取得工程と、
操作面に対するタッチ操作を検出するタッチ検知工程と、
前記操作面に対してタッチしたままタッチ位置を移動させる操作であるスライド操作に基づいて、前記表示手段に表示される画像について設定されている選択位置を制御する制御工程であって、
前記表示手段に表示される画像についての現在の前記選択位置を基準として前記スライド操作に対応する方向に前記特徴点が取得されている場合、前記選択位置を前記スライド操作の方向の前記特徴点の位置へ変更し、
前記特徴点が取得されていない場合、前記スライド操作に対応する移動量で、前記スライド操作に対応する方向へ、前記選択位置を移動するように制御する制御工程と、
を有し、
前記制御工程は、 前記タッチ検知工程から出力される操作の押圧力が所定の圧力範囲である場合、前記スライド操作に応じて前記選択位置を前記特徴点の位置へ変更し、
前記押圧力が前記所定の圧力範囲でない場合、前記スライド操作に対応する移動量で、前記スライド操作に対応する方向へ、前記選択位置を変更することを特徴とする電子機器の制御方法。
A control method for an electronic device,
an acquisition step of acquiring feature points for the image displayed on the display means;
a touch detection step of detecting a touch operation on the operation surface;
A control step of controlling a selection position set for an image displayed on the display means based on a slide operation, which is an operation of moving a touch position while touching the operation surface,
When the feature point is acquired in the direction corresponding to the slide operation with reference to the current selection position for the image displayed on the display means, the selection position is the feature point in the direction of the slide operation. position and
a control step of controlling to move the selected position in a direction corresponding to the slide operation by a movement amount corresponding to the slide operation when the feature point is not acquired;
has
the control step changes the selected position to the position of the feature point in response to the slide operation when the pressing force of the operation output from the touch detection step is within a predetermined pressure range;
A control method for an electronic device , wherein the selected position is changed in a direction corresponding to the slide operation by a movement amount corresponding to the slide operation when the pressing force is not within the predetermined pressure range .
コンピュータを、請求項1から13のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 13 . コンピュータを、請求項1から13のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium storing a program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 13 .
JP2018158456A 2018-08-27 2018-08-27 ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM Active JP7191592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018158456A JP7191592B2 (en) 2018-08-27 2018-08-27 ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018158456A JP7191592B2 (en) 2018-08-27 2018-08-27 ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM

Publications (3)

Publication Number Publication Date
JP2020035002A JP2020035002A (en) 2020-03-05
JP2020035002A5 JP2020035002A5 (en) 2021-10-14
JP7191592B2 true JP7191592B2 (en) 2022-12-19

Family

ID=69668097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018158456A Active JP7191592B2 (en) 2018-08-27 2018-08-27 ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM

Country Status (1)

Country Link
JP (1) JP7191592B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037860A (en) 2016-08-31 2018-03-08 キヤノン株式会社 Imaging apparatus and control method therefor, program, and storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040018A (en) * 1996-04-24 1998-02-13 Sharp Corp Controller for mouse cursor and recording medium for recording control program of mouse cursor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037860A (en) 2016-08-31 2018-03-08 キヤノン株式会社 Imaging apparatus and control method therefor, program, and storage medium

Also Published As

Publication number Publication date
JP2020035002A (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP5306266B2 (en) Imaging apparatus and control method thereof
JP6039328B2 (en) Imaging control apparatus and imaging apparatus control method
JP4510713B2 (en) Digital camera
US9606718B2 (en) Electronic apparatus and control method thereof
US20130021274A1 (en) Electronic apparatus and control method therefor
US20100166404A1 (en) Device and Method Using a Touch-Detecting Surface
KR102655625B1 (en) Method and photographing device for controlling the photographing device according to proximity of a user
KR20170042491A (en) Electronic apparatus and control method thereof
JP2012010061A (en) Imaging apparatus
US20190116318A1 (en) Electronic apparatus and method for controlling the same
US9742987B2 (en) Image pickup display apparatus, image pickup display method, and recording medium
US10488923B1 (en) Gaze detection, identification and control method
JP7191592B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM
JP5575290B2 (en) Imaging apparatus and control method thereof
JP6218911B2 (en) Imaging control device and control method of imaging control device
JP2020149336A (en) Information processor, display control method, and program
CN104780298A (en) Camera device with no image display function
WO2023062911A1 (en) Electronic apparatus, control method, program, and storage medium
JP7154064B2 (en) IMAGING CONTROL DEVICE, CONTROL METHOD THEREOF, PROGRAM AND RECORDING MEDIUM
JP2019061539A (en) Input assisting device and portable terminal
KR100693088B1 (en) Photographing device
JP2023047536A (en) Electronic device
JP6157263B2 (en) Operating device and control method thereof
JP2023131498A (en) Electronic apparatus and method for controlling the same, and program
JP2023125345A (en) Electronic apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221207

R151 Written notification of patent or utility model registration

Ref document number: 7191592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151