JP6976707B2 - Electronic devices and their control methods - Google Patents

Electronic devices and their control methods Download PDF

Info

Publication number
JP6976707B2
JP6976707B2 JP2017080097A JP2017080097A JP6976707B2 JP 6976707 B2 JP6976707 B2 JP 6976707B2 JP 2017080097 A JP2017080097 A JP 2017080097A JP 2017080097 A JP2017080097 A JP 2017080097A JP 6976707 B2 JP6976707 B2 JP 6976707B2
Authority
JP
Japan
Prior art keywords
touch
angle
touch panel
axial direction
moved
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017080097A
Other languages
Japanese (ja)
Other versions
JP2018182547A (en
Inventor
拓人 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017080097A priority Critical patent/JP6976707B2/en
Publication of JP2018182547A publication Critical patent/JP2018182547A/en
Application granted granted Critical
Publication of JP6976707B2 publication Critical patent/JP6976707B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、電子機器およびその制御方法に関し、特にタッチ操作に応じて位置を入力する技術に関する。 The present invention relates to an electronic device and a control method thereof, and particularly to a technique of inputting a position in response to a touch operation.

近年、タッチ操作によりAF枠を移動する方法がある。特許文献1にはファインダを覗いた状態でタッチ位置を移動すると、AFターゲット枠がタッチ位置の移動量に応じて移動されることが記載されている。さらに、タッチパネルにおいてタッチ操作を行っている指の向きを検出する方法がある。特許文献2には、タッチパネルへのタッチ操作をしている操作指の大きさと操作指の向きとを検出し、操作指の方向へと座標位置を補正することが開示されている。 In recent years, there is a method of moving the AF frame by touch operation. Patent Document 1 describes that when the touch position is moved while looking through the finder, the AF target frame is moved according to the amount of movement of the touch position. Further, there is a method of detecting the direction of the finger performing the touch operation on the touch panel. Patent Document 2 discloses that the size of the operating finger performing a touch operation on the touch panel and the direction of the operating finger are detected, and the coordinate position is corrected in the direction of the operating finger.

特開2012−203143号公報Japanese Unexamined Patent Publication No. 2012-203143 特開2014−92988号公報Japanese Unexamined Patent Publication No. 2014-92988

特許文献1方法では、ファインダを覗いた状態ではタッチ操作をする指が見えにくいため、ユーザの意図しない方向にタッチ位置が移動した場合には、意図しない位置にAFターゲット枠が表示されてしまう。そこで、特許文献2のように操作指の向きにタッチ位置を補正しても、タッチ位置がユーザの意図しない方向へ移動してしまった場合には、移動量に応じてAFターゲット枠が移動するので、意図しない方向にAFターゲット枠が移動してしまう。そのため、AFターゲット枠の表示等の所定の処理を行う位置がユーザの意図に沿った方向へと移動できない可能性がある。 In the method of Patent Document 1, since it is difficult to see the finger performing the touch operation while looking through the finder, when the touch position moves in a direction not intended by the user, the AF target frame is displayed at the unintended position. Therefore, even if the touch position is corrected to the direction of the operating finger as in Patent Document 2, if the touch position moves in a direction not intended by the user, the AF target frame moves according to the amount of movement. Therefore, the AF target frame moves in an unintended direction. Therefore, there is a possibility that the position where a predetermined process such as the display of the AF target frame is performed cannot be moved in the direction in line with the user's intention.

本発明は、上記の課題に鑑み、ユーザのより意図に沿った方向に入力する位置を移動できるようにすることを目的とする。 In view of the above problems, it is an object of the present invention to enable the user to move the input position in a direction more in line with the intention.

上記目的を達成するために、本発明の電子機器は、タッチパネルへのタッチ操作を検出するタッチ検出手段と、前記タッチ検出手段が前記タッチパネルにおける第1の位置から第1の軸方向にも第2の軸方向にも移動した位置である、第2の位置へとタッチ位置が移動されたことを検出した際に、前記第1の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の長軸の角度である第1の角度と、前記第2の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の長軸の角度である第2の角度との差が所定の角度より大きな角度である場合には、前記第1の位置から前記第2の位置への移動に応じた分、前記第1の軸方向にも前記第2の軸方向にも入力する位置を移動し、前記第1の角度と前記第2の角度との差が前記所定の角度より小さな角度である場合には、前記第1の位置から前記第2の位置への移動のうち、前記第1の軸方向の移動成分の分、前記第1の軸方向に、入力する位置を移動するように制御する制御手段とを有することを特徴とする。 In order to achieve the above object, the electronic device of the present invention includes a touch detecting means for detecting a touch operation on the touch panel and a second touch detecting means also in the first axial direction from the first position on the touch panel. When it is detected that the touch position has been moved to the second position, which is also the position moved in the axial direction of the above, the touch touch panel detected while touching the first position is touched. Alternatively, the first angle, which is the angle of the long axis of the adjacent region, and the second angle, which is the angle of the long axis of the region that touches or is close to the touch panel, which is detected while touching the second position. When the difference from the angle of is larger than a predetermined angle, the second axis is also in the first axial direction by the amount corresponding to the movement from the first position to the second position. The position to be input is also moved in the direction, and when the difference between the first angle and the second angle is smaller than the predetermined angle, the position is changed from the first position to the second position. of movement, minute movement component of the first axis direction; a first axis direction, characterized in that a control means for controlling to move the position to be input.

本発明によれば、ユーザのより意図に沿った方向に入力する位置を移動できるようにすることができる。 According to the present invention, it is possible to move the input position in a direction more in line with the user's intention.

(a)、(b)本実施形態の構成を適用可能な装置の一例としてのデジタルカメラの外観図(A), (b) External view of a digital camera as an example of an apparatus to which the configuration of the present embodiment can be applied. 本実施形態の構成を適用可能な装置の一例としてのデジタルカメラの構成例を示すブロック図A block diagram showing a configuration example of a digital camera as an example of a device to which the configuration of the present embodiment can be applied. タッチ操作を行う際の指の様子を示す図A diagram showing the state of a finger when performing a touch operation 本実施形態におけるAF枠の移動処理を示すフローチャートA flowchart showing the AF frame movement process in the present embodiment. 本実施形態におけるタッチ操作の様子と、AF枠の表示例を示す図The figure which shows the state of the touch operation in this embodiment, and the display example of an AF frame.

以下、図面を参照して本発明の好適な実施形態を説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1(a)、(b)に本発明を適用可能な撮像制御装置の一実施形態としてのデジタルカメラの外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。図1(a)、(b)において、表示部28は画像や各種情報を表示する表示部である。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。メイン電子ダイヤル71は回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。サブ電子ダイヤル73は選択枠の移動や画像送りなどを行う回転操作部材である。十字キー74は上、下、左、右部分をそれぞれ押し込み可能な4方向キーである。十字キー74の押された部分に応じた操作が可能である。SETボタン75は、主に選択項目の決定などに用いられる押しボタンである。シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、サブ電子ダイヤル73、十字キー74、SETボタン75は、操作部70に含まれる。クイックリターンミラー12は、システム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。通信端子10はデジタルカメラ100がレンズ側(着脱可能)と通信を行う為の通信端子である。ファインダ16は後述するフォーカシングスクリーン13を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。また、ファインダ16を介してファインダ内表示部76を視認可能であり、ファインダ16への物体の接近は接眼検知センサ77により行うことができる。グリップ部90は、ユーザがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。 FIGS. 1A and 1B show external views of a digital camera as an embodiment of an image pickup control device to which the present invention can be applied. 1 (a) is a front perspective view of the digital camera 100, and FIG. 1 (b) is a rear perspective view of the digital camera 100. In FIGS. 1A and 1B, the display unit 28 is a display unit that displays images and various information. The shutter button 61 is an operation unit for giving a shooting instruction. The mode changeover switch 60 is an operation unit for switching various modes. The main electronic dial 71 is a rotation operation member, and by turning the main electronic dial 71, setting values such as a shutter speed and an aperture can be changed. The power switch 72 is an operating member that switches the power of the digital camera 100 on and off. The sub-electronic dial 73 is a rotation operation member that moves a selection frame, feeds an image, and the like. The cross key 74 is a four-way key that can be pushed up, down, left, and right. The operation according to the pressed portion of the cross key 74 is possible. The SET button 75 is a push button mainly used for determining a selection item or the like. The shutter button 61, the main electronic dial 71, the power switch 72, the sub electronic dial 73, the cross key 74, and the SET button 75 are included in the operation unit 70. The quick return mirror 12 is instructed by the system control unit 50 and is moved up and down by an actuator (not shown). The communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens side (detachable). The finder 16 is a peep-type finder for confirming the focus and composition of the optical image of the subject obtained through the lens unit 150 by observing the focusing screen 13 described later. Further, the display unit 76 in the finder can be visually recognized via the finder 16, and the object can be approached to the finder 16 by the eyepiece detection sensor 77. The grip portion 90 is a holding portion having a shape that makes it easy for the user to hold the digital camera 100 with his / her right hand.

図2は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図2において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。 FIG. 2 is a block diagram showing a configuration example of the digital camera 100 according to the present embodiment. In FIG. 2, the lens unit 150 is a lens unit equipped with an interchangeable photographing lens.

レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。レンズユニット150は、通信端子を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り102の制御を行い、AF駆動回路3を介して、レンズ103の位置を変位させることで焦点を合わせる。 The lens 103 is usually composed of a plurality of lenses, but here, only one lens is shown for brevity. The lens unit 150 communicates with the system control unit 50 via the communication terminal, controls the aperture 102 via the aperture drive circuit 2 by the internal lens system control circuit 4, and controls the aperture 102 via the AF drive circuit 3. Focus by shifting the position of.

AEセンサ17は、レンズユニット150、クイックリターンミラー12を通しフォーカシングスクリーン13上に結像した被写体の輝度を測光する。 The AE sensor 17 measures the brightness of the subject imaged on the focusing screen 13 through the lens unit 150 and the quick return mirror 12.

焦点検出部11(AFセンサー)は、クイックリターンミラー12及びサブミラー120を介して入射する像を撮像しシステム制御部50にデフォーカス量情報を出力する位相差検出方式のAFセンサである。システム制御部50は前記デフォーカス量情報に基づいてレンズユニット150を制御し、位相差AFを行う。 The focus detection unit 11 (AF sensor) is a phase difference detection type AF sensor that captures an image incident through the quick return mirror 12 and the sub mirror 120 and outputs defocus amount information to the system control unit 50. The system control unit 50 controls the lens unit 150 based on the defocus amount information, and performs phase difference AF.

クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ103から入射した光束をファインダ16側と撮像部22側とに切替えるためのミラーである。ミラー12は通常時はファインダ16へと光束を導くよう反射させるように配されているが、撮影が行われる場合やライブビュー表示の場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。AFの方法は、位相差AFでなくてもよく、コントラストAFでもよい。また、移動差AFは焦点検出部11を用いずに、撮像部22の撮像面で検出されたデフォーカス量に基づいて行ってもよい(撮像面位相差AF)。 The quick return mirror 12 (hereinafter referred to as the mirror 12) is instructed by the system control unit 50 at the time of exposure, live view shooting, and moving image shooting, and is moved up and down by an actuator (not shown). The mirror 12 is a mirror for switching the luminous flux incident from the lens 103 between the finder 16 side and the image pickup unit 22 side. Normally, the mirror 12 is arranged so as to guide the light flux to the finder 16, but when shooting is performed or in the case of live view display, the mirror 12 is upward so as to guide the light flux to the image pickup unit 22. Escape from the jumping luminous flux (mirror lockup). Further, the mirror 12 is a half mirror so that the central portion thereof can transmit a part of the light, and a part of the light flux is transmitted so as to be incident on the focus detection unit 11 for performing the focus detection. The AF method does not have to be phase-difference AF, and may be contrast AF. Further, the movement difference AF may be performed based on the defocus amount detected on the image pickup surface of the image pickup unit 22 without using the focus detection unit 11 (imaging surface phase difference AF).

撮影者は、ペンタプリズム14とファインダ16を介して、フォーカシングスクリーン13上に結像した像を観察することで、レンズユニット150を通して得た被写体の光学像の焦点状態や構図の確認が可能となる。ファインダ内表示部76はファインダ16を介して視認可能な表示部であり、フォーカシングスクリーン13上の被写体の光学像と重畳してアイテムやAF枠、撮影に関する設定値を視認可能である。ファインダ16は、光学ファインダでなくても、電子ビューファインダでもよく、電子ビューファインダの場合には、表示部28と同様にライブビュー画像を視認することができる。 By observing the image formed on the focusing screen 13 via the pentaprism 14 and the finder 16, the photographer can confirm the focal state and composition of the optical image of the subject obtained through the lens unit 150. .. The display unit 76 in the finder is a display unit that can be visually recognized via the finder 16, and can visually recognize items, AF frames, and set values related to shooting by superimposing the optical image of the subject on the focusing screen 13. The finder 16 may be an electronic viewfinder instead of an optical viewfinder, and in the case of the electronic viewfinder, the live view image can be visually recognized in the same manner as the display unit 28.

シャッター101は、システム制御部50の制御で撮像部22の露光時間を制御するためのものである。 The shutter 101 is for controlling the exposure time of the imaging unit 22 under the control of the system control unit 50.

撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。 The image pickup unit 22 is an image pickup device composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 23 converts an analog signal into a digital signal. The A / D converter 23 is used to convert an analog signal output from the image pickup unit 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。 The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. Further, in the image processing unit 24, a predetermined calculation process is performed using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-flash) processing are performed. Further, the image processing unit 24 performs a predetermined calculation process using the captured image data, and also performs a TTL method AWB (auto white balance) process based on the obtained calculation result.

A/D変換器23は撮像素子20によって電気信号に変換されたアナログ信号をデジタル信号に変換する。A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。 The A / D converter 23 converts an analog signal converted into an electric signal by the image sensor 20 into a digital signal. The output data from the A / D converter 23 is written directly to the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. The memory 32 stores image data obtained by the image pickup unit 22 and converted into digital data by the A / D converter 23, and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio.

表示部28は画像を表示するための背面モニタであり、図1(b)に示すようにデジタルカメラ100の背面に設けられている。画像を表示するディスプレイであれば液晶方式に限らず、有機ELなど他の方式のディスプレイであってもよい。 The display unit 28 is a rear monitor for displaying an image, and is provided on the back surface of the digital camera 100 as shown in FIG. 1 (b). The display as long as it displays an image is not limited to the liquid crystal display, and may be another display such as an organic EL.

不揮発性メモリ56は、システム制御部50によって電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。 The non-volatile memory 56 is a memory that can be electrically erased and recorded by the system control unit 50, and for example, EEPROM or the like is used. The non-volatile memory 56 stores constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a program for executing various flowcharts described later in this embodiment.

システム制御部50は、少なくとも1つのプロセッサーを内蔵し、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開し、RAMが用いられる。また、システム制御部50はメモリ32、D/A変換器19、表示部28、ファインダ内表示部76等を制御することにより表示制御も行う。また、接眼検知センサ77は、ファインダへの物体の接近を検知可能であり、例えばユーザがファインダを覗こうとしてファインダ16に近づいたこと、すなわち、ユーザがファインダ16を覗こうとしているか否かの検知をすることができる。また、接眼検知センサ77がなくても(接眼検知センサ77の判定以外にも)、ユーザが手動で表示先を切り替えられるようにしてもよい。 The system control unit 50 incorporates at least one processor and controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 56 described above, each process of the present embodiment described later is realized. The system memory 52 expands constants, variables, programs read from the non-volatile memory 56, and the like for the operation of the system control unit 50, and the RAM is used. The system control unit 50 also controls the display by controlling the memory 32, the D / A converter 19, the display unit 28, the display unit 76 in the finder, and the like. Further, the eyepiece detection sensor 77 can detect the approach of an object to the finder, for example, detecting that the user approaches the finder 16 in an attempt to look into the finder, that is, whether or not the user is looking into the finder 16. Can be done. Further, even if the eyepiece detection sensor 77 is not provided (in addition to the determination of the eyepiece detection sensor 77), the user may manually switch the display destination.

モード切替スイッチ60、シャッターボタン61、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。 The mode changeover switch 60, the shutter button 61, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50. The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image shooting mode, a playback mode, and the like.

第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。 The first shutter switch 62 is turned on by a so-called half-pressing (shooting preparation instruction) during the operation of the shutter button 61 provided on the digital camera 100, and the first shutter switch signal SW1 is generated. The first shutter switch signal SW1 starts operations such as AF (autofocus) processing, AE (autoexposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing. The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, that is, when the shutter button 61 is fully pressed (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processes from reading the signal from the image pickup unit 22 to writing the image data to the recording medium 200 by the second shutter switch signal SW2.

操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。 Each operation member of the operation unit 70 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 28, and acts as various function buttons. Examples of the function button include an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the menu button is pressed, various configurable menu screens are displayed on the display unit 28. The user can intuitively make various settings by using the menu screen displayed on the display unit 28 and the up / down / left / right four-direction buttons and the SET button.

電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源スイッチ72はデジタルカメラ100の電源のONとOFFとを切り替える。 The power supply control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 80 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period. The power switch 72 switches between turning on and off the power of the digital camera 100.

電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。 The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. The recording medium I / F18 is an interface with a recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like.

なお操作部70の一つとして、表示部28に対する接触を検知可能(タッチ検出)なタッチパネル70aを有する。タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aを光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネルにおける入力座標と、表示部28上の表示座標とを対応付ける。これにより、恰もユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。システム制御部50はタッチパネル70aへの以下の操作、あるいは状態を検出できる。 As one of the operation units 70, there is a touch panel 70a capable of detecting contact with the display unit 28 (touch detection). The touch panel 70a and the display unit 28 can be integrally configured. For example, the touch panel 70a is configured so that the light transmittance does not interfere with the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel and the display coordinates on the display unit 28 are associated with each other. This makes it possible to configure a GUI (graphical user interface) as if the user can directly operate the screen displayed on the display unit 28. The system control unit 50 can detect the following operations or states on the touch panel 70a.

・タッチパネルにタッチしていなかった指やペンが新たにタッチパネルにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパネルを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパネルを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパネルへタッチしていた指やペンを離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパネルに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
-A finger or pen that was not touching the touch panel has newly touched the touch panel. That is, the start of touch (hereinafter referred to as touch-down).
-The touch panel is in a state of being touched with a finger or a pen (hereinafter referred to as touch-on).
-Move while touching the touch panel with a finger or pen (hereinafter referred to as Touch-Move).
-You have released your finger or pen that was touching the touch panel. That is, the end of the touch (hereinafter referred to as touch-up (Touch-Up)).
-A state in which nothing is touched on the touch panel (hereinafter referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When touchdown is detected, it is also detected that it is touch-on. After touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch move is also detected when touch on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知され、システム制御部50は通知された情報に基づいてタッチパネル上にどのような操作が行なわれたかを判定する。タッチムーブについてはタッチパネル上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル上の垂直成分・水平成分毎に判定できる。またタッチパネル上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。方式によって、タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。 These operations / states and the position coordinates that the finger or pen is touching on the touch panel are notified to the system control unit 50 through the internal bus, and the system control unit 50 what kind of information is on the touch panel based on the notified information. Determine if the operation was performed. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel can also be determined for each vertical component and horizontal component on the touch panel based on the change in the position coordinates. It is also assumed that a stroke is drawn when the touch panel is touched up from a touchdown through a certain touch move. The operation of drawing a stroke quickly is called flicking. Flicking is an operation in which a finger is quickly moved on the touch panel by a certain distance while being touched, and then released as it is. In other words, it is an operation in which the touch panel is swiftly traced as if the finger is flicked. It can be determined that the flick has been performed when it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is. In addition, if it is detected that the touch move is performed at a speed equal to or longer than a predetermined distance, it is determined that the drag has been performed. As the touch panel, any of various touch panels such as a resistance film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method may be used. .. Depending on the method, there are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel, but any method may be used.

さらに、タッチパネル70aはタッチ操作されている際の指の近接及びタッチしている領域(接触及び近接している領域)も検出可能である。つまり、実際にタッチしていなくても静電容量の変化が閾値以上である領域(タッチしている点も含む)を検出することで、タッチ操作をしている指がタッチパネル70aに対してどの方向から挿入されているかがわかる。例えば、タッチパネル70a平面の垂直方向3センチ以内や5センチ以内といった所定距離以内にある物体の、タッチパネル70aにおける領域を検出するので、指の形が分かる。図3(a)、(b)は、タッチパネル70aにおいてタッチした指の入力角度(タッチパネル70aのY軸方向に対する近接領域の長軸の角度)について説明するための図である。なお、図3(a)、(b)において原点はタッチパネル70aの左上とする。図3(a)に示すように、ユーザが実際にタッチパネル70aに触れているのは(Xn、Yn)であり、この時タッチパネル70aの右下から指がタッチパネル70aに入力しているとする。タッチ面垂直軸301(Y軸)に対する角度をαとする。 Further, the touch panel 70a can also detect the proximity of the finger and the touched region (contact and proximity region) when the touch operation is performed. In other words, by detecting the area where the change in capacitance is equal to or greater than the threshold value (including the touched point) even if the finger is not actually touched, which finger is touching the touch panel 70a? You can see if it is inserted from the direction. For example, since the region of the touch panel 70a of an object within a predetermined distance such as within 3 cm or 5 cm in the vertical direction of the touch panel 70a plane is detected, the shape of the finger can be known. 3A and 3B are diagrams for explaining the input angle of the finger touched on the touch panel 70a (the angle of the long axis of the proximity region with respect to the Y-axis direction of the touch panel 70a). In FIGS. 3A and 3B, the origin is the upper left of the touch panel 70a. As shown in FIG. 3A, it is assumed that the user is actually touching the touch panel 70a (Xn, Yn), and at this time, a finger is inputting to the touch panel 70a from the lower right of the touch panel 70a. Let α be the angle with respect to the touch surface vertical axis 301 (Y axis).

図3(b)は、ユーザがX軸に平行にタッチ位置を移動させようとした場合のタッチ位置の移動の仕方の一例を示したものである。タッチ開始した(X0,Y0)の位置から(X(n+1)、Y(n+1))の位置へと、デジタルカメラ100を保持した状態でタッチ位置を移動した場合に、タッチ開始時の指の入力角度をα0、移動後の指の入力角度をα(n+1)とする。ユーザはX軸方向に平行にタッチ位置を移動したつもりであっても、実際にはグリップ部90を握りながらタッチ操作をしているため、少しY軸方向に移動してしまう可能性が高い。例えば、開始位置で指を伸ばした状態でタッチを開始し、グリップ部90を保持した状態でX軸のプラス方向にタッチ位置を移動するには、タッチ点が指を徐々に曲げていく必要がある。これはグリップ部90を保持した状態でタッチ操作をするので、タッチ操作をする指の付け根位置302の位置は大きく移動しないため、付け根位置302に近い位置は指を曲げてタッチ操作をしなければならないためである。特にユーザがファインダ16を覗きながら操作をしている場合には、指を見ずに操作をしているので、X軸に平行にタッチ位置を移動して、少しずつ指を曲げて操作をしているつもりでも実際には曲げる量が足りずY軸方向にも移動している可能性が高い。つまり、実際には、図3(c)のように、最初は指を伸ばしていて徐々に指を曲げてタッチパネル70aに対して指を立てないとX軸に平行にタッチ位置を移動できない場合でも図3(b)のように少し指を曲げるだけになってしまう可能性が高い。またファインダ16を覗きながら操作をしているため、覗いている顔とタッチパネル70aの間は狭く、指を立てたり、大きく曲げてタッチパネル70aに対して垂直に近づくようにする空間がない可能性も高い。図3(d)は、デジタルカメラ100の上面側、タッチパネル70aを横から見た図であり、ファインダ16をユーザが覗きながらタッチ操作をしている様子を示している。ユーザはX軸方向に平行に立ち位置の移動をしようとしているので、指の入力角度を大きく変えずにタッチ位置を動かしている可能性が高い。例えば、ななめにタッチ位置を移動しようとしている場合には、入力角度を変えながらタッチ位置を変えている可能性が高いので、入力角度は大きく変わる可能性が高い。つまり、図3(b)においてY軸方向においてタッチ位置が多少移動した場合であっても、指の入力角度α0とαn+1とが所定の範囲内であるのであれば、ユーザはX軸方向にタッチ位置を移動しようとしたが、Y軸方向にも移動してしまった可能性が高い。 FIG. 3B shows an example of how to move the touch position when the user tries to move the touch position in parallel with the X axis. Finger input at the start of touch when the touch position is moved from the position where the touch started (X0, Y0) to the position (X (n + 1), Y (n + 1)) while holding the digital camera 100. The angle is α0, and the input angle of the finger after movement is α (n + 1). Even if the user intends to move the touch position in parallel with the X-axis direction, since the touch operation is actually performed while holding the grip portion 90, there is a high possibility that the touch position will move slightly in the Y-axis direction. For example, in order to start the touch with the finger extended at the start position and move the touch position in the positive direction of the X axis while holding the grip portion 90, the touch point must gradually bend the finger. be. Since the touch operation is performed while holding the grip portion 90, the position of the base position 302 of the finger to perform the touch operation does not move significantly, so the position close to the base position 302 must be touched by bending the finger. This is because it does not become. In particular, when the user is operating while looking into the finder 16, the operation is performed without looking at the finger, so move the touch position parallel to the X axis and bend the finger little by little to operate. There is a high possibility that the amount of bending is not enough and the finger is actually moving in the Y-axis direction. That is, in reality, as shown in FIG. 3C, even if the touch position cannot be moved in parallel with the X-axis unless the finger is initially extended, the finger is gradually bent, and the finger is raised with respect to the touch panel 70a. There is a high possibility that you will only have to bend your finger a little as shown in FIG. 3 (b). In addition, since the operation is performed while looking into the finder 16, the space between the looking face and the touch panel 70a is narrow, and there is a possibility that there is no space for raising a finger or bending it greatly so as to approach the touch panel 70a vertically. expensive. FIG. 3D is a side view of the touch panel 70a on the upper surface side of the digital camera 100, and shows a state in which the user is performing a touch operation while looking into the finder 16. Since the user is trying to move the standing position in parallel with the X-axis direction, it is highly possible that the user is moving the touch position without significantly changing the input angle of the finger. For example, when trying to move the touch position smoothly, it is highly possible that the touch position is changed while changing the input angle, so that the input angle is likely to change significantly. That is, even if the touch position moves slightly in the Y-axis direction in FIG. 3B, if the finger input angles α0 and αn + 1 are within a predetermined range, the user touches in the X-axis direction. I tried to move the position, but it is highly possible that it also moved in the Y-axis direction.

図4は、本実施形態におけるAF枠の移動処理を示したフローチャートである。この処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現する。なお、この処理は、デジタルカメラ100に電源が入り、表示部28及びファインダ内表示部76への表示が可能になると開始する。 FIG. 4 is a flowchart showing the movement process of the AF frame in the present embodiment. This process is realized by expanding the program recorded in the non-volatile memory 56 to the system memory 52 and executing the program by the system control unit 50. This process starts when the digital camera 100 is turned on and can be displayed on the display unit 28 and the display unit 76 in the finder.

S401では、システム制御部50は、ファインダ16外にある表示部28にライブビュー画像(LV画像)を表示する。 In S401, the system control unit 50 displays a live view image (LV image) on the display unit 28 outside the finder 16.

S402では、システム制御部50は、接眼検知センサ77がファインダ16への物体の接近を検知したか否かを判定する。接眼検知センサ77がファインダ16への物体の接近(すなわちユーザがファインダ16を覗こうとしているか否か)を検知したと判定した場合は、S403へ進み、そうでない場合は、S415へ進む。 In S402, the system control unit 50 determines whether or not the eyepiece detection sensor 77 has detected the approach of the object to the finder 16. If it is determined that the eyepiece detection sensor 77 has detected the approach of an object to the finder 16 (that is, whether or not the user is looking into the finder 16), the process proceeds to S403, and if not, the process proceeds to S415.

S403では、システム制御部50は、表示部28の表示を非表示にしてファインダ16内のファインダ内表示部76への表示をする。ファインダ16が光学ファインダである場合には、ミラー12がアップされ、撮像部22で取得した撮像画像が表示部28に表示される状態から、ミラー12をダウンして被写体の光学像がファインダ16を介して視認可能な状態にする。また、ファインダ16が電子ビューファインダである場合には、ライブビュー画像の表示先を表示部28からファインダ内表示部76に切り替える。S403において、AF枠を例えば中央や被写体の位置など初期位置に表示してもよい。なお、本実施形態ではファインダ16を覗いた状態で、ファインダ16外にあるタッチパネル70aへのタッチ操作を行うことでAF枠が移動することができる。また、ファインダ16を覗いておらず表示部28に表示されるLV画像を見ながら、タッチパネル70aに直接操作を行うことでタッチ位置にAF枠を移動することができる。 In S403, the system control unit 50 hides the display of the display unit 28 and displays it on the display unit 76 in the finder in the finder 16. When the finder 16 is an optical finder, the mirror 12 is raised and the captured image acquired by the image pickup unit 22 is displayed on the display unit 28. Make it visible through. When the finder 16 is an electronic view finder, the display destination of the live view image is switched from the display unit 28 to the display unit 76 in the finder. In S403, the AF frame may be displayed at an initial position such as the center or the position of the subject. In the present embodiment, the AF frame can be moved by performing a touch operation on the touch panel 70a outside the finder 16 while looking into the finder 16. Further, the AF frame can be moved to the touch position by directly operating the touch panel 70a while looking at the LV image displayed on the display unit 28 without looking into the finder 16.

S404では、システム制御部50は、タッチパネル70aへのタッチ操作が検出されたか否かを判定する。タッチパネル70aへのタッチ操作が検出されたと判定した場合は、S405へ進み、そうでない場合は、S421へ進む。 In S404, the system control unit 50 determines whether or not a touch operation to the touch panel 70a is detected. If it is determined that the touch operation to the touch panel 70a is detected, the process proceeds to S405, and if not, the process proceeds to S421.

S405では、システム制御部50は、S404においてタッチ操作の開始が検出された際のタッチ位置(タッチ開始位置の座標)を取得する。タッチ開始位置の座標は(X0,Y0)として、システムメモリ52に記録する。 In S405, the system control unit 50 acquires the touch position (coordinates of the touch start position) when the start of the touch operation is detected in S404. The coordinates of the touch start position are recorded in the system memory 52 as (X0, Y0).

S406では、システム制御部50は、S404においてタッチ操作の開始が検出された際の指の入力角度をタッチパネル70aより取得する。タッチ開始時の指の入力角度は、α0としてシステムメモリ52に記録する。 In S406, the system control unit 50 acquires the input angle of the finger when the start of the touch operation is detected in S404 from the touch panel 70a. The input angle of the finger at the start of touch is recorded in the system memory 52 as α0.

S407では、システム制御部50は、タッチ位置の移動が検出されたか(タッチムーブがされたか)否かを判定する。タッチ位置の移動が検出されたと判定された場合は、S408へ進み、そうでない場合は、S414へ進む。 In S407, the system control unit 50 determines whether or not the movement of the touch position is detected (whether or not the touch move is performed). If it is determined that the movement of the touch position is detected, the process proceeds to S408, and if not, the process proceeds to S414.

S408では、システム制御部50は、S407においてYesと判定されて移動した後のタッチ位置を取得する。S404においてタッチ操作が開始された位置から移動したことが検出された場合には、タッチ位置の座標は(Xn,Yn)とする。また、タッチ操作が開始されてから移動した後、さらに移動した場合には、タッチ位置の座標は(X(n+1)、Y(n+1))とし、S407の判定を行う前のタッチ位置の座標を(Xn,Yn)として、システムメモリ52に記録する。 In S408, the system control unit 50 acquires the touch position after being determined to be Yes in S407 and moved. When it is detected in S404 that the touch operation has moved from the started position, the coordinates of the touch position are set to (Xn, Yn). Further, when the touch operation is started, the movement is performed, and then the movement is further performed, the coordinates of the touch position are set to (X (n + 1), Y (n + 1)), and the coordinates of the touch position before the determination of S407 are set. It is recorded in the system memory 52 as (Xn, Yn).

S409では、システム制御部50は、移動した後のタッチ位置における指の入力角度を取得する。S404においてタッチ操作が開始された位置から移動したことが検出された場合には、指の入力角度はαnとする。また、タッチ操作が開始されてから移動した後、さらに移動した場合には、指の入力角度はα(n+1)とし、S407の判定を行う前の指の入力角度をαnとして、システムメモリ52に記録する。 In S409, the system control unit 50 acquires the input angle of the finger at the touch position after moving. When it is detected in S404 that the finger has moved from the position where the touch operation is started, the input angle of the finger is set to αn. Further, when the finger is moved further after the touch operation is started, the input angle of the finger is set to α (n + 1), and the input angle of the finger before the determination of S407 is set to αn in the system memory 52. Record.

S410では、システム制御部50は、タッチ位置の移動距離が所定距離以上であるか否かを判定する。所定距離とは例えば、タッチパネル70aの全体のX軸方向の長さに対して10分の1や15分の1といった短い長さである。タッチ位置の移動距離が所定距離以上であると判定した場合は、S411へ進み、そうでない場合は、S413へ進む。 In S410, the system control unit 50 determines whether or not the moving distance of the touch position is equal to or longer than a predetermined distance. The predetermined distance is, for example, a short length such as 1/10 or 1/15 of the total length of the touch panel 70a in the X-axis direction. If it is determined that the moving distance of the touch position is equal to or longer than a predetermined distance, the process proceeds to S411, and if not, the process proceeds to S413.

S411では、システム制御部50は、タッチ位置の移動後と、タッチ操作の開始位置での指の入力角度の差(α(n+1)―α0)が所定角度より小さいか否かを判定する。つまり、タッチ操作の開始位置での指の入力角度からみて、タッチ位置の移動後の指の入力角度が所定角度より小さい範囲でしか変化していないか否かを判定する。指の入力角度の差が所定角度より小さいと判定した場合は、S412へ進み、そうでない場合は、S413へ進む。所定角度とは、例えば5度や10度である。S411の判定は、入力角度による判定以外にも、タッチパネル70aの近接領域の長軸と短軸との長さの差が短くなったか否かにより判定してもよい。つまり、後述する図5(c)、(d)を用いて説明するように、X軸方向への移動に応じてタッチする指は徐々にタッチパネル70aに対して垂直方向へ曲がる(寝ている状態から立っているようになる)。よって、検出された近接領域はタッチ操作開始時(指を伸ばして寝ている状態)の長軸に長い状態から変化する。タッチの移動後の近接領域は指を立てているため、近接領域として検出される領域が小さくなり、さらに長軸と短軸の関係も変化し、短軸に対する長軸の長さも小さくなる。タッチ操作の開始時の短軸に対する長軸の値と、タッチ移動後の短軸に対する長軸の値との差が所定よりも大きくなっていれば(長軸の長さが所定以上短くなっているので、指が寝た状態から立った状態になっている)、S411をYesと判定する。 In S411, the system control unit 50 determines whether or not the difference (α (n + 1) − α0) between the input angles of the fingers after the movement of the touch position and the start position of the touch operation is smaller than the predetermined angle. That is, it is determined whether or not the input angle of the finger after the movement of the touch position changes only within a range smaller than the predetermined angle in view of the input angle of the finger at the start position of the touch operation. If it is determined that the difference between the input angles of the fingers is smaller than the predetermined angle, the process proceeds to S412, and if not, the process proceeds to S413. The predetermined angle is, for example, 5 degrees or 10 degrees. In addition to the determination based on the input angle, the determination of S411 may be determined based on whether or not the difference in length between the major axis and the minor axis in the proximity region of the touch panel 70a is shortened. That is, as described later with reference to FIGS. 5 (c) and 5 (d), the finger touched in response to the movement in the X-axis direction gradually bends in the direction perpendicular to the touch panel 70a (sleeping state). Become standing from). Therefore, the detected proximity region changes from a long state to the long axis at the start of the touch operation (a state in which the finger is extended and sleeping). Since the proximity region after the touch is moved with the finger raised, the region detected as the proximity region becomes smaller, the relationship between the major axis and the minor axis changes, and the length of the major axis with respect to the minor axis also becomes smaller. If the difference between the value of the long axis with respect to the short axis at the start of the touch operation and the value of the long axis with respect to the short axis after touch movement is larger than the predetermined value (the length of the long axis becomes shorter than the specified value). Since the finger is in a standing state from a sleeping state), S411 is determined to be Yes.

S412では、システム制御部50は、X軸方向の移動成分(X(n+1)―Xn)分、AF枠を移動する。図5(a)〜(e)はタッチパネル70a上におけるタッチ位置の移動の様子と対応するAF枠の移動の様子の一例を示したものである。図5(a)は、S411においてYesと判定された、すなわち、タッチ位置の移動距離が所定以上であり、かつ指の入力角度の差が所定角度より小さかった場合を示している。図5(b)は図5(a)に示すようにタッチする指を移動させた場合のAF枠の移動の様子を示している。図5(b)においては、タッチ位置の移動前のAF枠が位置501にあった場合には、(X(n+1)―Xn)に対応する距離、ファインダ内表示部76における距離p分、もともと表示されていた位置から位置502にAF枠が移動する。つまり、タッチ位置移動に応じてAF位置が移動し、異なる位置に合焦するようになる。 In S412, the system control unit 50 moves the AF frame by the movement component (X (n + 1) -Xn) in the X-axis direction. FIGS. 5A to 5E show an example of the movement of the touch position on the touch panel 70a and the movement of the corresponding AF frame. FIG. 5A shows a case where Yes is determined in S411, that is, the moving distance of the touch position is equal to or more than a predetermined angle, and the difference in the input angle of the finger is smaller than the predetermined angle. FIG. 5B shows how the AF frame moves when the finger to be touched is moved as shown in FIG. 5A. In FIG. 5B, when the AF frame before the movement of the touch position is at the position 501, the distance corresponding to (X (n + 1) -Xn), the distance p in the display unit 76 in the finder, originally. The AF frame moves from the displayed position to the position 502. That is, the AF position moves according to the movement of the touch position, and the focus is on a different position.

S413では、システム制御部50は、タッチ位置の移動に応じた分、すなわちX軸方向にもY軸方向にもタッチ位置が移動した場合には、X軸方向、Y軸方向ともにAF枠を移動する。図5(c)は、S411においてYesと判定された、すなわち、タッチ位置の移動距離が所定以上であり、かつ指の入力角度の差が所定角度より大きかった場合を示している。図5(d)は図5(c)に示すようにタッチする指を移動させた場合のAF枠の移動の様子を示している。図5(b)でタッチ位置の移動前のAF枠の位置が503であった場合には、(X(n+1)―Xn、Y(n+1)―Yn)に対応する距離、ファインダ内表示部76における距離(q、r)分、もともと表示されていた位置から位置504にAF枠が移動する。 In S413, the system control unit 50 moves the AF frame in both the X-axis direction and the Y-axis direction by the amount corresponding to the movement of the touch position, that is, when the touch position moves in both the X-axis direction and the Y-axis direction. do. FIG. 5C shows a case where Yes is determined in S411, that is, the moving distance of the touch position is equal to or greater than a predetermined angle, and the difference in the input angle of the finger is larger than the predetermined angle. FIG. 5D shows how the AF frame moves when the finger to be touched is moved as shown in FIG. 5C. In FIG. 5B, when the position of the AF frame before moving the touch position is 503, the distance corresponding to (X (n + 1) -Xn, Y (n + 1) -Yn), the display unit 76 in the finder. The AF frame moves from the originally displayed position to the position 504 by the distance (q, r) in.

S414では、システム制御部50は、タッチパネル70aからタッチが離されたか否かを判定する。タッチが離された(タッチアップ)と判定した場合は、S402へ進み、そうでない場合は、S407へ進む。 In S414, the system control unit 50 determines whether or not the touch is released from the touch panel 70a. If it is determined that the touch is released (touch-up), the process proceeds to S402, and if not, the process proceeds to S407.

S415では、システム制御部50は、S404と同様に、タッチパネル70aへのタッチ操作が検出されたか否かを判定する。タッチパネル70aへのタッチ操作が検出されたと判定した場合は、S416へ進み、そうでない場合は、S421へ進む。 In S415, the system control unit 50 determines whether or not a touch operation to the touch panel 70a is detected, as in S404. If it is determined that the touch operation to the touch panel 70a is detected, the process proceeds to S416, and if not, the process proceeds to S421.

S416では、システム制御部50は、S405と同様に、S415においてタッチ操作の開始が検出された際のタッチ位置(タッチ開始位置の座標)を取得する。タッチ開始位置の座標は(X0,Y0)として、システムメモリ52に記録する。 In S416, the system control unit 50 acquires the touch position (coordinates of the touch start position) when the start of the touch operation is detected in S415, similarly to S405. The coordinates of the touch start position are recorded in the system memory 52 as (X0, Y0).

S417では、システム制御部50は、タッチ位置の移動が検出されたか(タッチムーブがされたか)否かを判定する。タッチ位置の移動が検出されたと判定された場合は、S418へ進み、そうでない場合は、S419へ進む。 In S417, the system control unit 50 determines whether or not the movement of the touch position is detected (whether or not the touch move is performed). If it is determined that the movement of the touch position is detected, the process proceeds to S418, and if not, the process proceeds to S419.

S418では、システム制御部50は、S408と同様にS417においてYesと判定されて移動した後のタッチ位置を取得し、システムメモリ52に記録する。 In S418, the system control unit 50 acquires the touch position after it is determined to be Yes in S417 and moves, and records it in the system memory 52, as in S408.

S419では、システム制御部50は、表示部28における、S418において取得したタッチ位置の座標、もしくはタッチ位置の移動していない場合にはS416において取得したタッチ操作の開始位置の座標にAF枠を表示する。図5(e)には、表示部ユーザがファインダ16を覗いていない場合には、ユーザは表示部28の表示(LV画像)を見ながらタッチパネル70aへの操作をしているので、タッチ位置にAF枠が表示されるようにする。 In S419, the system control unit 50 displays the AF frame on the coordinates of the touch position acquired in S418 in the display unit 28, or the coordinates of the start position of the touch operation acquired in S416 when the touch position has not moved. do. In FIG. 5 (e), when the display unit user is not looking into the finder 16, the user is operating the touch panel 70a while looking at the display (LV image) of the display unit 28, so that the touch panel is in the touch position. Make the AF frame displayed.

S420では、システム制御部50は、タッチパネル70aからタッチが離されたか否かを判定する。タッチが離された(タッチアップ)と判定した場合は、S402へ進み、そうでない場合は、S415へ進む。 In S420, the system control unit 50 determines whether or not the touch is released from the touch panel 70a. If it is determined that the touch has been released (touch-up), the process proceeds to S402, and if not, the process proceeds to S415.

S421では、システム制御部50は、撮影指示がされたか否かを判定する。撮影指示はシャッターボタン61の押下によって行うことができる。またはタッチ操作によって撮影指示を受け付けてもよい。撮影指示がされたと判定した場合は、S422へ進み、そうでない場合は、S423へ進む。 In S421, the system control unit 50 determines whether or not a shooting instruction has been given. The shooting instruction can be given by pressing the shutter button 61. Alternatively, the shooting instruction may be accepted by touch operation. If it is determined that the shooting instruction has been given, the process proceeds to S422, and if not, the process proceeds to S423.

S422では、システム制御部50は、S412、S413、S419で設定されたAF位置において撮影をする。なお、AF処理の実行はS412、S413、S419のAF枠の移動に応じて行ってもよいし、撮影時(シャッターボタン61の半押しなどの撮影準備指示に応じて)に行ってもよい。 In S422, the system control unit 50 shoots at the AF position set in S412, S413, and S419. The AF process may be executed according to the movement of the AF frame of S412, S413, and S419, or may be performed at the time of shooting (in response to a shooting preparation instruction such as half-pressing the shutter button 61).

以上、説明した実施形態によれば、タッチ位置を移動して指示をする際に、ユーザのより意図した入力ができるようになる。ファインダ16を覗きながらタッチ操作をしている場合に、ユーザのタッチの入力角度の変化を見ることでユーザが平行に指を移動しようとしているのか斜めに移動しようとしているのかを判定する。これにより、ユーザはX軸方向に真っすぐ操作をしているつもりなのに、斜めにAF枠が移動してしまう可能性が低減する。 According to the above-described embodiment, when the touch position is moved to give an instruction, the user can input more intentionally. When the touch operation is performed while looking into the finder 16, it is determined whether the user is trying to move the finger in parallel or diagonally by observing the change in the input angle of the user's touch. This reduces the possibility that the AF frame will move diagonally even though the user intends to operate straight in the X-axis direction.

なお、タッチ位置が移動したか否かの判定は、所定時間毎に行ってもよいし、タッチ位置が移動した後、所定時間以上タッチ位置が移動しなくなったことに応じて行ってもよい。また、タッチアップがされた際に、タッチの開始位置からタッチ位置が移動しているか否かを判定してもよい。 It should be noted that the determination as to whether or not the touch position has moved may be performed at predetermined time intervals, or may be performed according to the fact that the touch position has stopped moving for a predetermined time or longer after the touch position has moved. Further, when the touch-up is performed, it may be determined whether or not the touch position has moved from the touch start position.

また、上述の実施形態においてはタッチ位置の移動方向のうち、X軸方向の成分だけをAF枠移動に用いることを説明したが、これに限らず、Y軸方向やその他の所定の方向において適用してもよい。 Further, in the above-described embodiment, it has been described that only the component in the X-axis direction is used for the AF frame movement among the moving directions of the touch position, but the present invention is not limited to this, and is applied in the Y-axis direction and other predetermined directions. You may.

また、指の入力角度が所定角度より小さかった場合に、X軸方向とY軸方向のうち移動量の大きかった方の移動成分のみをAF枠の移動に用いてもよい。 Further, when the input angle of the finger is smaller than the predetermined angle, only the movement component having the larger movement amount in the X-axis direction and the Y-axis direction may be used for the movement of the AF frame.

タッチパネル70aへのタッチ操作による位置の指示方法としては相対座標入力と絶対座標入力とがある。直前に指示されていた位置とは関係なく、タッチパネル70aにおけるタッチ位置と対応する位置を指定する(S419と同じ)方法を絶対座標入力という。また、直前に指示されていた位置から、タッチパネル70aにおけるタッチ位置の移動量に対応した分、移動した位置を指定する(S412、S413)方法を相対座標入力という。相対座標入力では、タッチ位置の移動方向がユーザの意図した方向とは異なると、指示する位置もそのままユーザの意図する方向とは異なる方向に移動してしまう。よって、ユーザがファインダ16を覗いていてもいなくても、指の入力角度が所定角度より小さければ1つの軸方向のみに指示位置を移動するようにしてもよい。一方で、絶対座標入力、かつ、表示部28と重畳するタッチパネル70aへのタッチ操作を行っている場合には、ユーザが操作する指と例えばAF枠とを見ながら操作をしているので、意図しない方向へAF枠が移動してしまう可能性が低い。絶対座標入力であるが、ユーザがファインダ16を覗きながらタッチ操作をしている場合には、指の入力角度による指示位置の制御をしてもよい。 There are relative coordinate input and absolute coordinate input as a method of instructing the position by touch operation to the touch panel 70a. The method of designating the position corresponding to the touch position on the touch panel 70a (same as S419) regardless of the position specified immediately before is called absolute coordinate input. Further, the method of designating the moved position by the amount corresponding to the movement amount of the touch position on the touch panel 70a from the position designated immediately before (S412, S413) is called relative coordinate input. In the relative coordinate input, if the moving direction of the touch position is different from the direction intended by the user, the instructed position also moves in the direction different from the direction intended by the user. Therefore, regardless of whether the user is looking into the finder 16, if the input angle of the finger is smaller than the predetermined angle, the designated position may be moved to only one axial direction. On the other hand, when the absolute coordinates are input and the touch panel 70a superimposed on the display unit 28 is touched, the operation is performed while looking at the finger operated by the user and, for example, the AF frame, so that the intention is It is unlikely that the AF frame will move in the wrong direction. Although it is an absolute coordinate input, when the user is performing a touch operation while looking into the finder 16, the designated position may be controlled by the input angle of the finger.

また、絶対座標入力の場合であっても、拡大表示領域の移動などにおいて、X軸とY軸の一方向にのみ移動するのと、両方向に移動するのとを切り替えるような場合にも適用可能である。指の入力角度の変化が小さい場合には、例えばX軸方向にのみ拡大表示領域を移動し、指の入力角度の変化が大きい場合には、X軸方向にもY軸方向にも拡大表示領域を移動する。 In addition, even in the case of absolute coordinate input, it can be applied to the case of switching between moving in only one direction of the X-axis and Y-axis and moving in both directions when moving the enlarged display area. Is. If the change in the finger input angle is small, for example, the enlarged display area is moved only in the X-axis direction, and if the change in the finger input angle is large, the enlarged display area is moved in both the X-axis direction and the Y-axis direction. To move.

さらに、上述した実施形態ではAF枠の表示位置を例にとって説明をしたがこれに限らず、AE(自動露出)処理をする位置や、拡大位置の選択、設定項目の設定値の選択において適用してもよい。つまり、アイテムや文字等の表示の移動だけでなく、設定値や表示領域の移動などの位置の移動(設定の変更)にも適用可能である。つまり、入力する位置を移動するようなものであれば上述の実施形態は適用可能である。 Further, in the above-described embodiment, the display position of the AF frame has been described as an example, but the description is not limited to this, and it is applied in the selection of the position for AE (automatic exposure) processing, the selection of the enlarged position, and the selection of the setting value of the setting item. You may. That is, it can be applied not only to the movement of the display of items and characters, but also to the movement of the position (change of the setting) such as the movement of the set value and the display area. That is, the above-described embodiment can be applied as long as the input position is moved.

また、ユーザがグリップ部90を握っていることを検知する検知部(不図示)を有し、ユーザがグリップを握っていると判定した場合は、タッチ開始時とタッチ位置の移動後の指の入力角度の変化に応じた処理を行うようにしてもよい。 Further, it has a detection unit (not shown) for detecting that the user is holding the grip portion 90, and when it is determined that the user is holding the grip, the finger at the start of touch and after the movement of the touch position is performed. Processing may be performed according to a change in the input angle.

指の入力角度を検出する際に、タッチパネル70aに接触している点付近においてタッチパネル70aに接近している領域の角度を検出(または角度に応じて制御)するようにしてもよい。これにより、ファインダ16を覗いており、タッチパネル70aに近接している顔により検出された角度に応じて制御されずにより正確にユーザの意図する操作が可能となる。 When detecting the input angle of the finger, the angle of the region close to the touch panel 70a near the point in contact with the touch panel 70a may be detected (or controlled according to the angle). As a result, the user can perform the operation intended by the user more accurately without being controlled according to the angle detected by the face close to the touch panel 70a while looking into the finder 16.

さらに、上述の実施形態ではX軸方向とY軸方向のうち、X軸方向(またはY軸方向)の移動量に対応した分しか、AF枠をX軸方向に移動しないことを説明したが、実際の移動量に応じてAF枠を移動してもよい。すなわち、X軸方向にa、Y軸方向に移動した場合に、指の入力角度がタッチ操作の開始時と移動後とで変わらない場合には、X軸方向にa移動するのではなく、タッチ位置の移動量分X軸方向に(aよりも長い)移動するようにしてもよい。また、タッチの入力角度は、タッチパネル70aのY軸に対するタッチの近接領域の長軸方向の角度であることを説明したが、X軸に対する長軸の角度でもよいし、Y軸に対する短軸の角度でもよいし、タッチ操作をする指の挿入角度の変化が分かればよい。 Further, in the above-described embodiment, it has been described that the AF frame moves in the X-axis direction only by the amount corresponding to the movement amount in the X-axis direction (or the Y-axis direction) out of the X-axis direction and the Y-axis direction. The AF frame may be moved according to the actual amount of movement. That is, if the input angle of the finger does not change between the start and the end of the touch operation when moving in the a and Y-axis directions in the X-axis direction, the touch is not performed in the X-axis direction. It may be moved in the X-axis direction (longer than a) by the amount of movement of the position. Further, although it has been explained that the touch input angle is the angle in the major axis direction of the region close to the touch with respect to the Y axis of the touch panel 70a, the angle of the major axis with respect to the X axis may be used, or the angle of the minor axis with respect to the Y axis. However, it suffices to know the change in the insertion angle of the finger performing the touch operation.

なお、システム制御部50が行うものとして説明した上述の各種の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。 It should be noted that the above-mentioned various controls described as those performed by the system control unit 50 may be performed by one hardware, or the entire device may be controlled by sharing the processing by a plurality of hardware. ..

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiment thereof, the present invention is not limited to these specific embodiments, and various embodiments within the range not deviating from the gist of the present invention are also included in the present invention. included. Further, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be appropriately combined.

また、上述した実施形態においては、本発明をデジタルカメラ100に適用した場合を例にして説明したが、この例に限定されず、タッチ操作によって位置の指定、もしくはアイテムの表示位置の制御を行うことができるような電子機器であれば適用可能である。すなわち、本発明は携帯電話端末や携帯型の画像ビューワ、ファインダを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to the digital camera 100 has been described as an example, but the present invention is not limited to this example, and the position is specified or the display position of the item is controlled by a touch operation. It is applicable to any electronic device that can be used. That is, the present invention can be applied to a mobile phone terminal, a portable image viewer, a printer device equipped with a finder, a digital photo frame, a music player, a game machine, an electronic book reader, and the like.

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記録媒体は本発明を構成することになる。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or device reads the program code. This is the process to be executed. In this case, the program and the recording medium in which the program is stored constitutes the present invention.

Claims (15)

タッチパネルへのタッチ操作を検出するタッチ検出手段と、
前記タッチ検出手段が前記タッチパネルにおける第1の位置から第1の軸方向にも第2の軸方向にも移動した位置である、第2の位置へとタッチ位置が移動されたことを検出した際に、
前記第1の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の長軸の角度である第1の角度と、前記第2の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の長軸の角度である第2の角度との差が所定の角度より大きな角度である場合には、前記第1の位置から前記第2の位置への移動に応じた分、前記第1の軸方向にも前記第2の軸方向にも入力する位置を移動し、
前記第1の角度と前記第2の角度との差が前記所定の角度より小さな角度である場合には、前記第1の位置から前記第2の位置への移動のうち、前記第1の軸方向の移動成分の分、前記第1の軸方向に、入力する位置を移動するように制御する制御手段とを有することを特徴とする電子機器。
Touch detection means to detect touch operation on the touch panel,
When the touch detecting means detects that the touch position has been moved to a second position, which is a position moved from the first position on the touch panel in both the first axial direction and the second axial direction. To,
When the first angle, which is the angle of the long axis of the region in contact with or close to the touch panel detected when touching the first position, and the second position are touched. When the difference from the second angle, which is the angle of the long axis of the region in contact with or close to the detected touch panel, is larger than a predetermined angle, the first position is changed to the second position. The position to be input is moved in both the first axial direction and the second axial direction by the amount corresponding to the movement of.
When the difference between the first angle and the second angle is smaller than the predetermined angle, the first axis of the movement from the first position to the second position. minute movement component in a direction, the a first axis direction, electronic apparatus, characterized in that a control means for controlling to move the position to be input.
前記タッチパネルに接触または近接する領域の長軸の角度は、前記タッチパネルに接触または近接する領域のうち前記第2の軸方向に対する角度であることを特徴とする請求項1に記載の電子機器。 The electronic device according to claim 1, wherein the angle of the long axis of the region in contact with or close to the touch panel is an angle with respect to the second axial direction in the region in contact with or close to the touch panel. 前記タッチパネルに接触または近接する領域とは、前記タッチパネルへのタッチ操作を行っている操作手段のうち、前記タッチパネルの平面から垂直方向において所定距離以内にある領域であることを特徴とする請求項1または2に記載の電子機器。 Claim 1 is characterized in that the area in contact with or in close proximity to the touch panel is an area within a predetermined distance in the vertical direction from the plane of the touch panel among the operating means performing a touch operation on the touch panel. Or the electronic device according to 2. 前記制御手段は、前記タッチ操作に応じて入力された位置を示すアイテムを表示するように制御することを特徴とする請求項1乃至のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 3 , wherein the control means is controlled so as to display an item indicating an input position in response to the touch operation. 前記制御手段は、前記タッチパネルと一体に設けられる第1の表示部において前記アイテムが表示されている場合には、前記第1の角度と前記第2の角度との差が前記所定の角度より小さな角度であっても、前記第1の軸方向にも前記第2の軸方向にも入力する位置を移動するように制御することを特徴とする請求項に記載の電子機器。 When the item is displayed on the first display unit provided integrally with the touch panel, the control means has a difference between the first angle and the second angle smaller than the predetermined angle. The electronic device according to claim 4 , wherein the electronic device is controlled so as to move an input position in both the first axial direction and the second axial direction even if it is an angle. 前記制御手段は、前記タッチパネルとは異なる第2の表示部において前記アイテムが表示されている際に、前記第1の角度と、前記第2の角度との差が前記所定の角度より大きな角度である場合には、前記第1の位置から前記第2の位置への移動に応じた分、前記第1の軸方向にも前記第2の軸方向にも入力する位置を移動し、
前記第1の角度と前記第2の角度との差が前記所定の角度より小さな角度である場合には、前記第1の位置から前記第2の位置への移動のうち、前記第1の軸方向に、入力する位置を移動することを特徴とする請求項またはに記載の電子機器。
When the item is displayed on a second display unit different from the touch panel, the control means has a difference between the first angle and the second angle larger than the predetermined angle. In some cases, the input position is moved in both the first axial direction and the second axial direction by the amount corresponding to the movement from the first position to the second position.
When the difference between the first angle and the second angle is smaller than the predetermined angle, the first axis of the movement from the first position to the second position. in a square direction, the electronic device according to claim 4 or 5, characterized in that moving the position to be input.
前記第2の表示部は、ファインダを介して視認可能なファインダ内表示部であることを特徴とする請求項に記載の電子機器。 The electronic device according to claim 6 , wherein the second display unit is a display unit in the finder that can be visually recognized via the finder. 前記タッチ操作に応じて入力された位置は、AF処理が行われる位置であることを特徴とする請求項1乃至のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 7 , wherein the position input in response to the touch operation is a position where AF processing is performed. 前記タッチパネルへのタッチ操作は前記電子機器のグリップ部を持つ手で操作可能であることを特徴とする請求項1乃至のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 8 , wherein the touch operation to the touch panel can be operated by a hand holding the grip portion of the electronic device. 前記第1の軸方向はX軸方向であり、前記第2の軸方向はY軸方向であることを特徴とする請求項1乃至のいずれか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 9 , wherein the first axial direction is the X-axis direction, and the second axial direction is the Y-axis direction. タッチパネルへのタッチ操作を検出するタッチ検出手段と、
前記タッチ検出手段が前記タッチパネルにおける第1の位置から第1の軸方向にも第2の軸方向にも移動した位置である、第2の位置へとタッチ位置が移動されたことを検出した際に、
前記第1の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の短軸の長さに対する長軸の長さを示す第1の値と、前記第2の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の短軸の長さに対する長軸の長さを示す第2の値との差が所定の値よりも大きくなっていない場合には、前記第1の位置から前記第2の位置への移動に応じた分、前記第1の軸方向にも前記第2の軸方向にも入力する位置を移動し、
前記第1の値と、前記第2の値との差が前記所定の値よりも大きくなっている場合には、前記第1の位置から前記第2の位置への移動のうち、前記第1の軸方向と前記第2の軸方向のいずれか一方に、入力する位置を移動するように制御する制御手段とを有することを特徴とする電子機器。
Touch detection means to detect touch operation on the touch panel,
When the touch detecting means detects that the touch position has been moved to a second position, which is a position moved from the first position on the touch panel in both the first axial direction and the second axial direction. To,
At the first value indicating the length of the long axis with respect to the length of the short axis of the region in contact with or close to the touch panel detected while touching the first position, and at the second position. When the difference from the second value indicating the length of the long axis with respect to the length of the short axis of the area in contact with or close to the touch panel detected during touching is not larger than a predetermined value. The position to be input is moved in both the first axial direction and the second axial direction by the amount corresponding to the movement from the first position to the second position.
When the difference between the first value and the second value is larger than the predetermined value, the first of the movements from the first position to the second position. An electronic device comprising a control means for controlling to move an input position in either one of the axial direction and the second axial direction.
タッチパネルへのタッチ操作を検出するタッチ検出ステップと、
前記タッチ検出ステップにおいて前記タッチパネルにおける第1の位置から第1の軸方向にも第2の軸方向にも移動した位置である、第2の位置へとタッチ位置が移動されたことを検出した際に、
前記第1の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の長軸の角度である第1の角度と、前記第2の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の長軸の角度である第2の角度との差が所定の角度より大きな角度である場合には、前記第1の位置から前記第2の位置への移動に応じた分、前記第1の軸方向にも前記第2の軸方向にも入力する位置を移動し、
前記第1の角度と前記第2の角度との差が前記所定の角度より小さな角度である場合には、前記第1の位置から前記第2の位置への移動のうち、前記第1の軸方向の移動成分の分、前記第1の軸方向に、入力する位置を移動するように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
A touch detection step that detects a touch operation on the touch panel,
When it is detected that the touch position has been moved to the second position, which is the position moved from the first position on the touch panel in the first axial direction and the second axial direction in the touch detection step. To,
When the first angle, which is the angle of the long axis of the region in contact with or close to the touch panel detected when touching the first position, and the second position are touched. When the difference from the second angle, which is the angle of the long axis of the region in contact with or close to the detected touch panel, is larger than a predetermined angle, the first position is changed to the second position. The position to be input is moved in both the first axial direction and the second axial direction by the amount corresponding to the movement of.
When the difference between the first angle and the second angle is smaller than the predetermined angle, the first axis of the movement from the first position to the second position. minute movement component in a direction, the a first axis direction, control method of an electronic device, characterized by a control step for controlling to move the position to be input.
タッチパネルへのタッチ操作を検出するタッチ検出ステップと、
前記タッチ検出ステップにおいて前記タッチパネルにおける第1の位置から第1の軸方向にも第2の軸方向にも移動した位置である、第2の位置へとタッチ位置が移動されたことを検出した際に、
前記第1の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の短軸の長さに対する長軸の長さを示す第1の値と、前記第2の位置にタッチをしている際に検出された前記タッチパネルに接触または近接する領域の短軸の長さに対する長軸の長さを示す第2の値との差が所定の値よりも大きくなっていない場合には、前記第1の位置から前記第2の位置への移動に応じた分、前記第1の軸方向にも前記第2の軸方向にも入力する位置を移動し、
前記第1の値と、前記第2の値との差が前記所定の値よりも大きくなっている場合には、前記第1の位置から前記第2の位置への移動のうち、前記第1の軸方向と前記第2の軸方向のいずれか一方に、入力する位置を移動するように制御する制御ステップとを有することを特徴とする電子機器の制御方法。
A touch detection step that detects a touch operation on the touch panel,
When it is detected that the touch position has been moved to the second position, which is the position moved from the first position on the touch panel in the first axial direction and the second axial direction in the touch detection step. To,
At the first value indicating the length of the long axis with respect to the length of the short axis of the region in contact with or close to the touch panel detected while touching the first position, and at the second position. When the difference from the second value indicating the length of the long axis with respect to the length of the short axis of the area in contact with or close to the touch panel detected during touching is not larger than a predetermined value. The position to be input is moved in both the first axial direction and the second axial direction by the amount corresponding to the movement from the first position to the second position.
When the difference between the first value and the second value is larger than the predetermined value, the first of the movements from the first position to the second position. A method for controlling an electronic device, which comprises a control step for controlling to move an input position in either one of the axial direction and the second axial direction.
コンピュータを、請求項1乃至11のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the electronic device according to any one of claims 1 to 11. コンピュータを、請求項1乃至11のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium containing a program for causing the computer to function as each means of the electronic device according to any one of claims 1 to 11.
JP2017080097A 2017-04-13 2017-04-13 Electronic devices and their control methods Active JP6976707B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017080097A JP6976707B2 (en) 2017-04-13 2017-04-13 Electronic devices and their control methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017080097A JP6976707B2 (en) 2017-04-13 2017-04-13 Electronic devices and their control methods

Publications (2)

Publication Number Publication Date
JP2018182547A JP2018182547A (en) 2018-11-15
JP6976707B2 true JP6976707B2 (en) 2021-12-08

Family

ID=64277234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017080097A Active JP6976707B2 (en) 2017-04-13 2017-04-13 Electronic devices and their control methods

Country Status (1)

Country Link
JP (1) JP6976707B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5267229B2 (en) * 2009-03-09 2013-08-21 ソニー株式会社 Information processing apparatus, information processing method, and information processing program
JP5790203B2 (en) * 2011-06-29 2015-10-07 ソニー株式会社 Information processing apparatus, information processing method, program, and remote operation system
JP2013020332A (en) * 2011-07-08 2013-01-31 Panasonic Corp Display input device

Also Published As

Publication number Publication date
JP2018182547A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP6667294B2 (en) Electronic device and control method thereof
JP6833506B2 (en) Imaging device and its control method
JP5873390B2 (en) Display control apparatus, control method therefor, program, and storage medium
JP2015172836A (en) Display control unit and display control method
JP7005334B2 (en) Electronic devices, their control methods and programs
JP7009096B2 (en) Electronic devices and their control methods
WO2018021165A1 (en) Electronic device and method for controlling same
JP6833505B2 (en) Imaging control device and its control method
US10313580B2 (en) Electronic apparatus, control method therefor, and storage medium
JP6833507B2 (en) Imaging control device and its control method
CN108401103B (en) Electronic device, control method of electronic device, and storage medium
US10742869B2 (en) Image pickup apparatus and control method for image pickup apparatus
JP6071616B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP6808480B2 (en) Imaging control device and its control method
JP7034619B2 (en) Image pickup device, its control method, and program, and storage medium
JP2015228270A (en) Electronic device, electronic device control method, program, and storage medium
JP6611575B2 (en) Imaging control apparatus and control method thereof
JP6976707B2 (en) Electronic devices and their control methods
JP6779777B2 (en) Imaging control device and its control method
JP2021092958A (en) Electronic apparatus, control method thereof, program, and storage medium
JP6525753B2 (en) Display control device, control method thereof, and program
JP6855317B2 (en) Imaging device, control method of imaging device, program, and recording medium
US20170180633A1 (en) Electronic apparatus and control method thereof
JP7433854B2 (en) Imaging control device, imaging control method, program, storage medium
JP6873792B2 (en) Imaging control device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211110

R151 Written notification of patent or utility model registration

Ref document number: 6976707

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151