JP2018148389A - Electronic device and control method thereof - Google Patents

Electronic device and control method thereof Download PDF

Info

Publication number
JP2018148389A
JP2018148389A JP2017041515A JP2017041515A JP2018148389A JP 2018148389 A JP2018148389 A JP 2018148389A JP 2017041515 A JP2017041515 A JP 2017041515A JP 2017041515 A JP2017041515 A JP 2017041515A JP 2018148389 A JP2018148389 A JP 2018148389A
Authority
JP
Japan
Prior art keywords
touch
approach
detected
area
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017041515A
Other languages
Japanese (ja)
Inventor
昭太郎 柳井
Shotaro Yanai
昭太郎 柳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017041515A priority Critical patent/JP2018148389A/en
Publication of JP2018148389A publication Critical patent/JP2018148389A/en
Pending legal-status Critical Current

Links

Landscapes

  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic device with a touch panel configured to prevent operation error due to unintended touch input.SOLUTION: An electronic device includes: first approach detection means which detects approaching a finder; second approach detection means which detects approaching a touch panel; touch detection means; and area calculation means which calculates the area of an approaching area detected by the second approach detection means. When the first approach detection means detects an object approaching the finder within a predetermined distance and the area of the approaching area detected by the second approach detection means is equal to or larger than a predetermined threshold, a touch operation detected in the approach detection area is disabled, and other touch operations are enabled. Setting means sets the threshold to a first value when a distance to the object by the first approach detection means is larger than a predetermined distance, and sets the threshold to a second value larger than the first value when the distance to the object is smaller than the predetermined distance.SELECTED DRAWING: Figure 1

Description

本発明は、タッチパネルによる接触位置検出機能を備えた電子機器に関するものである。   The present invention relates to an electronic device having a touch position detection function using a touch panel.

近年、注目されている入力装置の一つにタッチパネルがある。タッチパネルの検出方式としては、抵抗膜式、静電容量方式、光学式など幾つかの方式がある。特に、スマートフォン、デジタルビデオカメラや、デジタルスチルカメラのような携帯機器において、操作画面や撮像画面を表示しながら直感的に操作できる利便性から、タッチパネルを搭載した機種が普及している。携帯機器の画面大型化が進む中で、ボタンのスペースを削除することが可能となり大きなメリットがある。   In recent years, a touch panel is one of input devices that have been attracting attention. As a detection method of the touch panel, there are several methods such as a resistance film method, a capacitance method, and an optical method. In particular, in mobile devices such as smartphones, digital video cameras, and digital still cameras, models equipped with a touch panel are widely used because of the convenience of intuitive operation while displaying an operation screen or an imaging screen. As the screen size of mobile devices increases, it is possible to delete the button space, which has a great advantage.

一方で、デジタルカメラやビデオカメラの中には光学ファインダ或いは電子ビューファインダを覗いて画像の構図を確認しながら撮影するものがある。しかしながら、ファインダ付きのカメラにおいては、ファインダを覗きながら撮影をすると、顔の一部(鼻等)が背面ディスプレイの表示面に接触する。この場合、背面ディスプレイのほぼ全面においてタッチパネル操作が可能になっていると、意図しない操作によりユーザの意図しない処理が行われる可能性がある。   On the other hand, some digital cameras and video cameras shoot while checking the composition of an image through an optical viewfinder or an electronic viewfinder. However, in a camera with a finder, when taking a picture while looking through the finder, a part of the face (such as the nose) comes into contact with the display surface of the rear display. In this case, if the touch panel operation is enabled on almost the entire surface of the rear display, a process unintended by the user may be performed due to an unintended operation.

この問題に対して、特許文献1では、ユーザが効き目の情報を予め登録し、本登録情報に応じてタッチパネルの入力可能領域を設定する手法が提案されている。入力可能領域外へのタッチ入力を無効にすることで、誤動作を防止することが可能となる。   With respect to this problem, Japanese Patent Application Laid-Open No. 2004-228620 proposes a method in which a user registers information on effectiveness in advance and sets an inputable area of the touch panel according to the main registration information. It is possible to prevent malfunction by disabling touch input outside the input enabled area.

特開2009−260681号公報JP 2009-260681 A

しかしながら、上述の特許文献に開示された従来技術では、タッチパネルの入力可能領域が制限されてしてしまうため、操作性が低下する。そこで、本発明の目的は、タッチパネルの入力可能領域を制限することなく、意図しないタッチ入力による誤動作を防止することを可能にしたタッチパネル付電子機器を提供することである。   However, in the prior art disclosed in the above-mentioned patent document, the input possible area of the touch panel is limited, so that the operability is lowered. SUMMARY OF THE INVENTION An object of the present invention is to provide an electronic device with a touch panel that can prevent an erroneous operation due to an unintended touch input without limiting the input possible area of the touch panel.

上記目的を達成するために、本発明の一側面としての電子機器は
ファインダへの接近を検出する第一の接近検出手段と、
タッチパネルへの接近を検出する第二の接近検出手段と、
前記タッチパネルに対する複数箇所でのタッチ操作を検出可能なタッチ検出手段と、
前記第二の接近検出手段で検出した近接領域の面積を算出する面積算出手段を有し、
前記第一の接近検出手段によって前記ファインダに対して物体が所定距離以内に接近していることが検出されている期間において、
前記第二の接近検出手段によって検出される近接領域の面積が所定の閾値以上である場合、
前記タッチ検出手段によって、前記近接領域内で検出されたタッチ操作を無効とし、それ以外のタッチ操作を有効とする手段を有し、
前記第一の接近検出手段による検出物までの距離が所定の距離よりも遠い場合には、前記閾値を第一の値に設定し、前記検出物までの距離が前記所定の距離よりも近い場合には、前記閾値を前記第一の値よりも大きな第二の値に設定する設定手段を有することを特徴とする。
In order to achieve the above object, an electronic apparatus according to one aspect of the present invention includes first approach detection means for detecting approach to a finder,
Second approach detecting means for detecting approach to the touch panel;
Touch detection means capable of detecting touch operations at a plurality of locations on the touch panel;
An area calculating means for calculating the area of the proximity region detected by the second approach detecting means;
In a period in which the first approach detection means detects that an object is approaching the finder within a predetermined distance,
When the area of the proximity region detected by the second approach detection means is a predetermined threshold or more,
A means for invalidating the touch operation detected in the proximity region by the touch detection means, and validating other touch operations;
When the distance to the detection object by the first approach detection means is longer than a predetermined distance, the threshold value is set to a first value, and the distance to the detection object is closer than the predetermined distance Comprises setting means for setting the threshold value to a second value larger than the first value.

本発明によれば、ユーザの意図しないタッチパネルへの接触は無効なタッチ操作と判断するため、該接触に応じた誤動作が発生しない。一方、ユーザが意図した操作と判断できるタッチ操作は、有効な操作と判断され、該接触に応じた処理が実行される。これにより誤動作防止を図りながら、タッチパネル全面を使ったタッチ操作が可能になるため、ユーザの利便性が向上する。   According to the present invention, it is determined that a touch on the touch panel that is not intended by the user is an invalid touch operation, so that a malfunction according to the touch does not occur. On the other hand, a touch operation that can be determined as an operation intended by the user is determined as an effective operation, and a process corresponding to the contact is performed. This makes it possible to perform a touch operation using the entire touch panel while preventing malfunctions, thereby improving user convenience.

本発明の実施例に係るデジタルカメラの処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the digital camera which concerns on the Example of this invention. 本発明の実施例に係るデジタルカメラの外観図である。1 is an external view of a digital camera according to an embodiment of the present invention. 本発明の実施例に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on the Example of this invention. 本発明の実施例に係るデジタルカメラにて実行されるタッチの有効/無効判定手法を示す説明図である。It is explanatory drawing which shows the valid / invalid determination method of the touch performed with the digital camera which concerns on the Example of this invention. 本発明の実施例に係るデジタルカメラにおける接眼距離とタッチパネルへの近接領域面積の相関性を示す説明図である。It is explanatory drawing which shows the correlation of the eyepiece distance in the digital camera which concerns on the Example of this invention, and the proximity area area to a touchscreen. 本発明の実施例に係るデジタルカメラにて実行される撮影設定の変更操作を示す説明図である。It is explanatory drawing which shows the change operation of the imaging | photography setting performed with the digital camera which concerns on the Example of this invention.

以下、図面を参照して本発明の好適な実施形態を説明する。図2(a)、(b)に本発明の撮像装置の一例としてのデジタルカメラの外観図を示す。図2(a)はデジタルカメラ100の前面斜視図であり、図2(b)はデジタルカメラ100の背面斜視図である。図2において、表示部28は画像や各種情報を表示する、カメラ背面に設けられた表示部である。表示部28はタッチパネル27と一体的に構成される。シャッターボタン61は撮影指示を行うための操作部である。モード切替スイッチ60は各種モードを切り替えるための操作部である。   Preferred embodiments of the present invention will be described below with reference to the drawings. 2A and 2B are external views of a digital camera as an example of the imaging apparatus of the present invention. 2A is a front perspective view of the digital camera 100, and FIG. 2B is a rear perspective view of the digital camera 100. In FIG. 2, a display unit 28 is a display unit provided on the back of the camera for displaying images and various types of information. The display unit 28 is configured integrally with the touch panel 27. The shutter button 61 is an operation unit for issuing a shooting instruction. The mode switch 60 is an operation unit for switching various modes.

端子カバー40は該部機器との接続ケーブルとデジタルカメラ100とを接続する接続ケーブル等のコネクタ(不図示)を保護するカバーである。メイン電子ダイヤル71は回転操作部材であり、このメイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。十字キー74は、上、下、左、右部分をそれぞれ押し込み可能な十字キー(4方向キー)である。十字キー74の押した部分に応じた操作が可能である。   The terminal cover 40 is a cover that protects a connector (not shown) such as a connection cable for connecting the connection cable to the device and the digital camera 100. The main electronic dial 71 is a rotation operation member. By turning the main electronic dial 71, setting values such as a shutter speed and an aperture can be changed. The power switch 72 is an operation member that switches the power of the digital camera 100 on and off. The cross key 74 is a cross key (four-way key) capable of pushing in the upper, lower, left, and right portions. An operation corresponding to the pressed portion of the cross key 74 is possible.

SETボタン75は、主に選択項目の決定などに用いられる操作ボタンである。LVボタン76は、メニューボタンにおいてライブビュー(以下、LV)のONとOFFを切り替えるボタンである。動画撮影モードにおいては、動画撮影(記録)の開始、停止の指示に用いられる。拡大ボタン77は、撮影モードのライブビュー表示において拡大モードのON、OFF,及び拡大モード中の拡大率の変更を行うための操作ボタンである。再生モードにおいては再生画像を拡大し、拡大率を増加させるための拡大ボタンとして機能する。   The SET button 75 is an operation button mainly used for determining a selection item. The LV button 76 is a button for switching ON / OFF of a live view (hereinafter referred to as LV) in the menu button. In the moving image shooting mode, it is used to start and stop moving image shooting (recording). The enlargement button 77 is an operation button for turning on and off the enlargement mode and changing the enlargement ratio during the enlargement mode in the live view display in the shooting mode. In the reproduction mode, it functions as an enlargement button for enlarging the reproduction image and increasing the enlargement ratio.

縮小ボタン78は、拡大された再生画像の拡大率を低減させ、表示された画像を縮小させるための操作ボタンである。再生ボタン79は、撮影モードと再生モードとを切り替える操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部28に表示させることができる。クイックリターンミラー12は、システム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。通信端子10はデジタルカメラ100がレンズ側(着脱可能)と通信を行う為の通信端子である。   The reduction button 78 is an operation button for reducing the enlargement ratio of the enlarged reproduction image and reducing the displayed image. The playback button 79 is an operation button for switching between the shooting mode and the playback mode. When the playback button 79 is pressed during the shooting mode, the mode is switched to the playback mode, and the latest image among the images recorded on the recording medium 200 can be displayed on the display unit 28. The quick return mirror 12 is instructed by the system control unit 50 and is raised and lowered by an actuator (not shown). The communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens side (detachable).

ファインダ16はフォーカシングスクリーン13を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。ファインダ16周辺には接眼検知部(55)が搭載されており、ファインダ16への接眼の有無を検知可能である。蓋202は記録媒体200を格納ひたスロットの蓋である。グリップ部90は、ユーザがデジタルカメラ100を構えた際に右手で握りやすい形状とした保持部である。   The viewfinder 16 is a view-type viewfinder for observing the focusing screen 13 to confirm the focus and composition of the optical image of the subject obtained through the lens unit 150. An eyepiece detection unit (55) is mounted around the viewfinder 16 so that the presence or absence of an eyepiece on the viewfinder 16 can be detected. A lid 202 is a slot lid for storing the recording medium 200. The grip portion 90 is a holding portion that is shaped to be easily gripped with the right hand when the user holds the digital camera 100.

図3は、本実施形態によるデジタルカメラ100の構成例を示すブロック図である。図3において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。   FIG. 3 is a block diagram illustrating a configuration example of the digital camera 100 according to the present embodiment. In FIG. 3, a lens unit 150 is a lens unit on which a replaceable photographic lens is mounted.

レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100側と通信を行う為の通信端子であり、通信端子10はデジタルカメラ100がレンズユニット150側と通信を行う為の通信端子である。レンズユニット150は、この通信端子6、10を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行い、AF駆動回路3を介して、レンズ103の位置を変位させることで焦点を合わせる。   The lens 103 is usually composed of a plurality of lenses, but here, only a single lens is shown for simplicity. The communication terminal 6 is a communication terminal for the lens unit 150 to communicate with the digital camera 100 side, and the communication terminal 10 is a communication terminal for the digital camera 100 to communicate with the lens unit 150 side. The lens unit 150 communicates with the system control unit 50 through the communication terminals 6 and 10, controls the diaphragm 1 through the diaphragm driving circuit 2 by the internal lens system control circuit 4, and passes through the AF driving circuit 3. The focus is adjusted by displacing the position of the lens 103.

AEセンサ17は、レンズユニット150を通した被写体の輝度を測光する。焦点検出部11は、システム制御部50にデフォーカス量情報を出力する。システム制御部50はそれに基づいてレンズユニット150を制御し、位相差AFを行う。   The AE sensor 17 measures the luminance of the subject that has passed through the lens unit 150. The focus detection unit 11 outputs defocus amount information to the system control unit 50. Based on this, the system control unit 50 controls the lens unit 150 to perform phase difference AF.

クイックリターンミラー12(以下、ミラー12)は、露光、ライブビュー撮影、動画撮影の際にシステム制御部50から指示されて、不図示のアクチュエータによりアップダウンされる。ミラー12は、レンズ103から入射した光束をファインダ16側と撮像部22側とに切替えるためのミラーである。ミラー12は通常時はファインダ16へと光束を導くよう反射させるように配されているが、撮影が行われる場合やライブビュー表示の場合には、撮像部22へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。またミラー12はその中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部11に入射するように透過させる。   The quick return mirror 12 (hereinafter, mirror 12) is instructed by the system control unit 50 during exposure, live view shooting, and moving image shooting, and is moved up and down by an actuator (not shown). The mirror 12 is a mirror for switching the light beam incident from the lens 103 between the viewfinder 16 side and the imaging unit 22 side. The mirror 12 is normally arranged so as to reflect the light beam to the viewfinder 16, but in the case of shooting or live view display, the mirror 12 is directed upward to guide the light beam to the imaging unit 22. Retreat from the bounced light flux (mirror up). Further, the mirror 12 is a half mirror so that the central part can transmit part of the light, and part of the light beam is transmitted so as to enter the focus detection part 11 for performing focus detection.

ユーザは、ペンタプリズム14とファインダ16を介して、フォーカシングスクリーン13を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認が可能となる。シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。   By observing the focusing screen 13 via the pentaprism 14 and the finder 16, the user can check the focus and composition of the optical image of the subject obtained through the lens unit 150. The shutter 101 is a focal plane shutter that can freely control the exposure time of the imaging unit 22 under the control of the system control unit 50. The imaging unit 22 is an imaging device configured with a CCD, a CMOS device, or the like that converts an optical image into an electrical signal. The A / D converter 23 converts an analog signal into a digital signal. The A / D converter 23 is used to convert an analog signal output from the imaging unit 22 into a digital signal.

画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。   The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23 or the data from the memory control unit 15. The image processing unit 24 performs predetermined calculation processing using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. Thereby, AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-emission) processing of the TTL (through-the-lens) method are performed. The image processing unit 24 further performs predetermined calculation processing using the captured image data, and also performs TTL AWB (auto white balance) processing based on the obtained calculation result.

A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してシステムメモリ52に直接書き込まれる。システムメモリ52は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。   Output data from the A / D converter 23 is directly written into the system memory 52 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15. The system memory 52 stores image data obtained by the imaging unit 22 and converted into digital data by the A / D converter 23 and image data to be displayed on the display unit 28. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, a moving image and sound for a predetermined time.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ変換し、表示部28に逐次転送して表示することで、スルー画像表示(ライブビュー表示)を行える。   The memory 32 also serves as an image display memory (video memory). The D / A converter 19 converts the image display data stored in the memory 32 into an analog signal and supplies the analog signal to the display unit 28. Thus, the display image data written in the memory 32 is displayed on the display unit 28 via the D / A converter 19. The display unit 28 performs display according to the analog signal from the D / A converter 19 on a display such as an LCD. A digital signal once A / D converted by the A / D converter 23 and stored in the memory 32 is converted into an analog signal by the D / A converter 19 and sequentially transferred to the display unit 28 for display. Live view display).

ファインダ内液晶表示部41には、ファインダ内表示部駆動回路42を介して、現在オートフォーカスが行われている測距点を示す枠(AF枠)や、カメラの設定状態を表すアイコンなどが表示される。操作部70の操作により、ファインダを覗いた状態で、選択中野AF枠を示すカーソル位置を移動させ、フォーカスを合わせたいポイントを変更する事が出来る。   On the in-finder liquid crystal display unit 41, a frame (AF frame) indicating a focus point currently being auto-focused, an icon indicating a camera setting state, and the like are displayed via the in-finder display unit driving circuit 42. Is done. By operating the operation unit 70, the point where the focus is to be focused can be changed by moving the cursor position indicating the selected Nakano AF frame while looking through the viewfinder.

不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。   The nonvolatile memory 56 is an electrically erasable / recordable memory, and for example, an EEPROM or the like is used. The nonvolatile memory 56 stores constants, programs, and the like for operating the system control unit 50. Here, the program is a program for executing various flowcharts described later in the present embodiment.

システム制御部50は、デジタルカメラ100全体を制御する。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。52はシステムメモリであり、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部はメモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。   The system control unit 50 controls the entire digital camera 100. By executing the program recorded in the non-volatile memory 56 described above, each process of the present embodiment to be described later is realized. A system memory 52 is a RAM. In the system memory 52, constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 56, and the like are expanded. The system control unit also performs display control by controlling the memory 32, the D / A converter 19, the display unit 28, and the like.

システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。モード切替スイッチ60、第1シャッタースイッチ62、第2シャッタースイッチ64、操作部70はシステム制御部50に各種の動作指示を入力するための操作手段である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。   The system timer 53 is a time measuring unit that measures the time used for various controls and the time of a built-in clock. The mode switch 60, the first shutter switch 62, the second shutter switch 64, and the operation unit 70 are operation means for inputting various operation instructions to the system control unit 50. The mode switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image shooting mode, a reproduction mode, and the like.

静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、メニューボタンに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切替スイッチ60でメニューボタンに一旦切り換えた後に、メニューボタンに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。   Modes included in the still image recording mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). In addition, there are various scene modes, program AE modes, custom modes, and the like which are shooting settings for each shooting scene. The mode changeover switch 60 can directly switch to one of these modes included in the menu button. Or after switching to a menu button once with the mode switch 60, you may make it switch to either of these modes contained in a menu button using another operation member. Similarly, the moving image shooting mode may include a plurality of modes.

第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。   The first shutter switch 62 is turned on when the shutter button 61 provided in the digital camera 100 is being operated, so-called half-press (shooting preparation instruction), and generates a first shutter switch signal SW1. In response to the first shutter switch signal SW1, operations such as AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, and EF (flash pre-emission) processing are started.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。   The second shutter switch 64 is turned ON when the operation of the shutter button 61 is completed, that is, when it is fully pressed (shooting instruction), and generates a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of shooting processing operations from reading a signal from the imaging unit 22 to writing image data on the recording medium 200.

操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。   Each operation member of the operation unit 70 is appropriately assigned a function for each scene by selecting and operating various function icons displayed on the display unit 28, and functions as various function buttons. Examples of the function buttons include an end button, a return button, an image advance button, a jump button, a narrowing button, and an attribute change button. For example, when a menu button is pressed, various setting menu screens are displayed on the display unit 28. The user can make various settings intuitively using the menu screen displayed on the display unit 28, and the four-way button and the SET button.

操作部70は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部70には、少なくとも以下の操作部が含まれる。シャッターボタン61、メイン電子ダイヤル71、電源スイッチ72、十字キー74、SETボタン75、LVボタン76、拡大ボタン77、縮小ボタン78、再生ボタン79。   The operation unit 70 is various operation members as an input unit that receives an operation from a user. The operation unit 70 includes at least the following operation units. A shutter button 61, a main electronic dial 71, a power switch 72, a cross key 74, a SET button 75, an LV button 76, an enlarge button 77, a reduce button 78, and a play button 79.

なお操作部70とは別に、表示部28に対する接触を検知可能なタッチパネル27を有する。タッチパネル27と表示部28とは一体的に構成することができる。例えば、タッチパネル27を光の透過率が表示部28の表示を妨げないように構成し、表示部28の表示面の上層に取り付ける。そして、タッチパネル27における入力座標と、表示部28上の表示座標とを対応付ける。   In addition to the operation unit 70, the touch panel 27 capable of detecting contact with the display unit 28 is provided. The touch panel 27 and the display unit 28 can be configured integrally. For example, the touch panel 27 is configured such that the light transmittance does not hinder the display of the display unit 28, and is attached to the upper layer of the display surface of the display unit 28. Then, the input coordinates on the touch panel 27 are associated with the display coordinates on the display unit 28.

これにより、恰もユーザが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。タッチパネル27は、タッチパネル制御部26を介して、検出したタッチ位置座標をシステム制御部50に通知する。システム制御部50はタッチパネル駆動部26を介して、タッチパネル27への以下の操作、あるいは状態を検出できる。   Thereby, it is possible to configure a GUI (graphical user interface) as if the user can directly operate the screen displayed on the display unit 28. The touch panel 27 notifies the system control unit 50 of the detected touch position coordinates via the touch panel control unit 26. The system control unit 50 can detect the following operation or state on the touch panel 27 via the touch panel drive unit 26.

・タッチパネル27にタッチしていなかった指等が新たにタッチパネル27にタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する)。   -A finger or the like that has not touched the touch panel 27 touched the touch panel 27 anew. That is, the start of touch (hereinafter referred to as touch-down).

・タッチパネル27を指等でタッチしている状態であること(以下、タッチオン(Touch-On)と称する)。   The touch panel 27 is being touched with a finger or the like (hereinafter referred to as touch-on).

・タッチパネル27を指等でタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。   The touch panel 27 is moved while being touched with a finger or the like (hereinafter referred to as “Touch-Move”).

・タッチパネル27へタッチしていた指等を離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する)。   -The finger touching the touch panel 27 is released. That is, the end of touch (hereinafter referred to as touch-up).

・タッチパネル27に何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。   A state in which nothing is touched on the touch panel 27 (hereinafter referred to as touch-off).

・タッチパネル27に対して、指等がタッチしていないが所定の距離以内に接近している状態であること(以下、ホバー(hover)と称する)   -A finger or the like is not touching the touch panel 27 but is close to within a predetermined distance (hereinafter referred to as a hover).

・タッチオン、またはホバー状態にある指等の面積が所定の面積以上である状態(以下、ラージオブジェクト検出(Large-Object-Detect)と称する)   A state where the area of a finger or the like in a touch-on or hover state is greater than or equal to a predetermined area (hereinafter referred to as large-object-detect)

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指等がタッチアップしたことが検出された後は、タッチオフとなる。また、指等はタッチパネルに対して接近したうえで接触するため、タッチオン前には必ずホバーが検出される。   When touchdown is detected, it is also detected that touch-on is performed at the same time. After touch-down, unless touch-up is detected, normally touch-on continues to be detected. The touch move is detected in a state where touch-on is detected. Even if the touch-on is detected, the touch move is not detected unless the touch position is moved. After it is detected that all the touched fingers have been touched up, the touch is turned off. Also, since a finger or the like approaches the touch panel and comes into contact with it, the hover is always detected before touch-on.

タッチパネル制御部26は、タッチダウンが検出された複数のタッチ各々に、識別番号を付与することができる。例えば、タッチパネル制御部26は、新規にタッチダウンが検出されたタッチに、未割り当ての番号のうち、最も若い番号から時系列に番号を付与する。ただし、時系列で付与する番号の順序は、昇順と降順の何れであってもよい。タッチパネル制御部26は、タッチオン中のタッチに対しては、同じ識別番号を割り当てる。   The touch panel control unit 26 can assign an identification number to each of the plurality of touches for which the touchdown is detected. For example, the touch panel control unit 26 assigns numbers in a time series from the youngest number among the unassigned numbers to touches for which touchdown is newly detected. However, the order of numbers assigned in time series may be either ascending order or descending order. The touch panel control unit 26 assigns the same identification number to the touch during the touch-on.

検出したタッチがタッチオン中か否かは、次フレームで検出されたタッチの位置座標が、前フレームで検出した識別番号付与済みのタッチの位置座標から、一定の範囲内に存在するか否かで判断する。該一定の範囲内であれば、同じ識別番号のタッチであると判断される。この識別番号により、タッチダウン、タッチオン、タッチムーブ、タッチアップ、タッチオフの判断が可能となる。   Whether or not the detected touch is being touched on depends on whether or not the position coordinates of the touch detected in the next frame are within a certain range from the position coordinates of the touch with the identification number assigned in the previous frame. to decide. If within the certain range, it is determined that the same identification number is touched. With this identification number, touchdown, touch-on, touch-move, touch-up, and touch-off can be determined.

これらの操作・状態や、タッチの位置座標は、識別番号と関連付けられた上で内部バスを通じてシステム制御部50に通知される。システム制御部50は該通知された情報に基づいてタッチパネル27上にどのような操作が行なわれたかを判定する。システム制御部50は、タッチパネル27上で移動する指等の移動量、移動速度及び移動方向についても、位置座標の変化に基づいて判定することができる。   These operations / states and touch position coordinates are associated with the identification number and notified to the system control unit 50 through the internal bus. The system control unit 50 determines what operation has been performed on the touch panel 27 based on the notified information. The system control unit 50 can also determine the movement amount, movement speed, and movement direction of a finger or the like moving on the touch panel 27 based on the change in position coordinates.

更に、システム制御部50は、タッチムーブが所定の移動量或いは移動速度以上であるか否かを判定することができる。また、タッチパネル27上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル27上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル27上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。   Furthermore, the system control unit 50 can determine whether or not the touch move is greater than or equal to a predetermined movement amount or movement speed. Further, it is assumed that a stroke is drawn when touch-up is performed on the touch panel 27 through a certain touch move from touch-down. The operation of drawing a stroke quickly is called a flick. The flick is an operation of quickly moving a certain distance while touching the finger on the touch panel 27 and releasing it, in other words, an operation of quickly tracing the touch panel 27 with a finger. When it is detected that a touch move is performed at a predetermined speed or more over a predetermined distance and a touch-up is detected as it is, it can be determined that a flick has been performed.

また、タッチパネル制御部26はタッチダウンを検出したタッチ入力領域の面積を算出することができる。これは、既定のタッチ検出の有効閾値を超えているタッチパネル27のセンサ数を算出する事で判定できる。検出したタッチ面積は、タッチの位置座標及び識別番号と関連づけられた上で、システム制御部50に通知される。   Further, the touch panel control unit 26 can calculate the area of the touch input area where the touchdown is detected. This can be determined by calculating the number of sensors on the touch panel 27 that exceeds the predetermined effective threshold for touch detection. The detected touch area is associated with the touch position coordinates and the identification number, and is notified to the system control unit 50.

電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。   The power control unit 80 includes a battery detection circuit, a DC-DC converter, a switch circuit that switches a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power control unit 80 controls the DC-DC converter based on the detection result and an instruction from the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period.

電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li−ion電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。   The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li-ion battery, an AC adapter, or the like. The recording medium I / F 18 is an interface with the recording medium 200 such as a memory card or a hard disk. The recording medium 200 is a recording medium such as a memory card for recording a captured image, and includes a semiconductor memory, a magnetic disk, or the like.

通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(スルー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信することができる。   The communication unit 54 is connected by wireless or wired cable, and transmits and receives video signals and audio signals. The communication unit 54 can be connected to a wireless local area network (LAN) or the Internet. The communication unit 54 can transmit an image captured by the imaging unit 22 (including a through image) and an image recorded on the recording medium 200, and can receive image data and other various types of information from an external device. it can.

接眼検知部55は赤外発光体、受光回路で構成されており、一定間隔で赤外光を発光し、対象物で反射した光量を測定し、測定した光量から対象物までの距離を算出することで、既定位置に対象物が近接しているか否かを検知する。これにより、ユーザが接眼したか否かを判別できる。   The eyepiece detection unit 55 includes an infrared light emitter and a light receiving circuit, emits infrared light at regular intervals, measures the amount of light reflected by the object, and calculates the distance from the measured light amount to the object. Thus, it is detected whether or not the object is close to the predetermined position. Thus, it can be determined whether or not the user has eyeed.

[実施例]
以下、図1、図4を参照して、本発明の実施例による、デジタルカメラの制御方法について説明する。本実施例では、ユーザがデジタルカメラ100のファインダ16を覗きながら、表示部28に設置されたタッチパネル27により、ファインダ内液晶表示部41に表示されるAF枠を示すカーソル位置を移動させる手順を示す。
[Example]
Hereinafter, a digital camera control method according to an embodiment of the present invention will be described with reference to FIGS. In the present embodiment, a procedure is shown in which the user moves the cursor position indicating the AF frame displayed on the in-finder liquid crystal display unit 41 by using the touch panel 27 installed on the display unit 28 while looking through the finder 16 of the digital camera 100. .

図1はデジタルカメラ100のAF枠移動処理のフローチャートである。このフローチャートおける各処理は、システム制御部50が不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。ステップS101では、接眼検知部55が対象物までの距離を算出する。所定の時間間隔で周期的に距離算出を行い、算出した距離情報は、所定期間分だけメモリ52に格納しておく。   FIG. 1 is a flowchart of the AF frame moving process of the digital camera 100. Each process in this flowchart is realized by the system control unit 50 expanding and executing a program stored in the nonvolatile memory 56 in the system memory 52. In step S101, the eyepiece detection unit 55 calculates the distance to the object. The distance is periodically calculated at predetermined time intervals, and the calculated distance information is stored in the memory 52 for a predetermined period.

ステップS102では、接眼検知部55は既定位置に対象物が近接しているか否かを検知し、検知結果をシステム制御部50に通知する。システム制御部50は該検知結果を受信し、ユーザがファインダ16に接眼したか否かを判断する。接眼したと判断された場合は、ステップS103に進む。ステップS103では、システム制御部50は、デジタルカメラ100の操作モードを、AF枠選択モードに移行する。システム制御部50はファインダ内表示回路42を駆動し、ファインダ内液晶表示部41にAF枠を表示する。ステップS103が完了したら、ステップS104へ進む。   In step S <b> 102, the eyepiece detection unit 55 detects whether or not the object is close to the predetermined position, and notifies the system control unit 50 of the detection result. The system control unit 50 receives the detection result and determines whether or not the user has touched the finder 16. If it is determined that the eye is in contact, the process proceeds to step S103. In step S103, the system control unit 50 shifts the operation mode of the digital camera 100 to the AF frame selection mode. The system control unit 50 drives the in-finder display circuit 42 to display the AF frame on the in-finder liquid crystal display unit 41. When step S103 is completed, the process proceeds to step S104.

ステップS104では、ステップS101にて算出した距離に応じて、システム制御部50は、ホバー領域による面検出の閾値を設定する。ここでいう面検出とは、導電物体がタッチパネル27に対して所定距離以内にあるホバー状態である領域が、タッチパネル27の操作有効領域の総面積に対して、所定以上の面積を占めている状態であることを検出することである。ステップS104が完了したら、ステップS105へ進む。   In step S104, the system control unit 50 sets a threshold value for surface detection by the hover area according to the distance calculated in step S101. In this case, the surface detection is a state in which a region in which the conductive object is in a hover state within a predetermined distance with respect to the touch panel 27 occupies a predetermined area or more with respect to the total area of the operation effective region of the touch panel 27. It is detecting that it is. When step S104 is completed, the process proceeds to step S105.

ステップS105では、タッチパネル制御部26は、ホバー検出結果をシステム制御部50へ通知する。システム制御部50は、該ホバー検出通知を受信し、その通知に応じてホバー判断する。ホバー状態であると判断された場合は、ステップS106へ進む。ステップS106では、ステップS101における接眼検知部55による距離算出と同じ時間間隔で周期的にホバー状態である領域の面積を算出する。算出した面積は所定期間分だけメモリ52に格納する。   In step S105, the touch panel control unit 26 notifies the system control unit 50 of the hover detection result. The system control unit 50 receives the hover detection notification and determines hover according to the notification. If it is determined that it is in the hover state, the process proceeds to step S106. In step S106, the area of the region in the hover state is calculated periodically at the same time interval as the distance calculation by the eyepiece detection unit 55 in step S101. The calculated area is stored in the memory 52 for a predetermined period.

ステップS107では、タッチパネル制御部26は、タッチダウン検出結果をシステム制御部50へ通知する。システム制御部50は、該タッチダウン検出通知を受信し、タッチダウンがあったか否かを判断する。タッチダウンがあったと判断された場合は、ステップS108へ進む。タッチダウンがないと判断された場合は、ステップS114へ進む。   In step S <b> 107, the touch panel control unit 26 notifies the system control unit 50 of the touchdown detection result. The system control unit 50 receives the touchdown detection notification and determines whether there is a touchdown. If it is determined that touchdown has occurred, the process proceeds to step S108. If it is determined that there is no touchdown, the process proceeds to step S114.

ステップS108では、タッチダウンが検出された複数のタッチに識別番号を付与する。識別番号は検出された順番に時系列で若い番号から付与される。付与された識別番号と対応する各タッチ位置座標は、タッチパネル制御部26からシステム制御部50へ通知される。ステップS108が完了したら、ステップS109へ移行する。ステップS109では、システム制御部50が、ステップS107にてタッチダウンが検出された時点での各ホバー領域の面積がステップS104で設定された閾値を越えているか否かを判断する。閾値を越えている場合は、ステップS110へ進む。   In step S108, identification numbers are assigned to a plurality of touches for which touchdown has been detected. The identification number is given from a young number in chronological order in the detected order. Each touch position coordinate corresponding to the assigned identification number is notified from the touch panel control unit 26 to the system control unit 50. When step S108 is completed, the process proceeds to step S109. In step S109, the system control unit 50 determines whether or not the area of each hover region at the time point when the touchdown is detected in step S107 exceeds the threshold set in step S104. If it exceeds the threshold, the process proceeds to step S110.

ステップS110では、システム制御部50は、メモリ52に格納された、ファインダまでの距離情報とホバー領域の面積情報を用いて、所定期間における該距離の変化の仕方と該面積の変化の仕方に相関があるか否かを算出する。ここでの所定期間とは、ステップS105でホバー検出されてからステップS107でタッチダウン検出されるまでの期間である。相関があると判断された場合は、ステップS111に進み、相関がないと判断された場合はステップS112へ進む。   In step S110, the system control unit 50 uses the distance information to the finder and the area information of the hover area stored in the memory 52 to correlate how the distance changes and how the area changes during a predetermined period. It is calculated whether there is. Here, the predetermined period is a period from when the hover is detected at step S105 until the touchdown is detected at step S107. If it is determined that there is a correlation, the process proceeds to step S111. If it is determined that there is no correlation, the process proceeds to step S112.

ステップS111では、システム制御部50は、ステップS110で相関があると判定されたホバー領域内におけるタッチを無効操作と判定する。また、無効操作を示す無効操作フラグを識別番号と関連づけ、システムメモリ52に記憶する。ステップS112では、システム制御部50は、ステップS109で相関がないと判定されたホバー領域内におけるタッチを有効操作と判定する。また、有効操作を示す有効操作フラグを識別番号と関連づけ、システムメモリ52に記憶する。ステップS112が完了したら、ステップS113へ移行する。   In step S111, the system control unit 50 determines that the touch in the hover area determined to have a correlation in step S110 is an invalid operation. Further, the invalid operation flag indicating the invalid operation is associated with the identification number and stored in the system memory 52. In step S112, the system control unit 50 determines that the touch in the hover area determined to have no correlation in step S109 is an effective operation. Further, a valid operation flag indicating a valid operation is associated with the identification number and stored in the system memory 52. When step S112 is completed, the process proceeds to step S113.

ステップS113では、システム制御部50は、有効操作と判定されたタッチのタッチムーブにより、ファインダ内液晶表示部41に表示される選択中のAF枠を示すカーソル位置を移動する処理を実行する。このとき、無効操作と判定されたタッチ操作に応じた処理は実行されない。ステップS114では、タッチパネル制御部26は、ホバー解除の検出結果をシステム制御部50へ通知する。システム制御部50は、タッチパネル制御部26からの通知を受けて、ホバーが解除されたか否かを判断する。ホバー解除が検出されたらステップS115へ進む。   In step S <b> 113, the system control unit 50 executes a process of moving the cursor position indicating the AF frame being selected displayed on the in-finder liquid crystal display unit 41 by the touch move of the touch determined to be an effective operation. At this time, processing corresponding to the touch operation determined to be invalid is not executed. In step S114, the touch panel control unit 26 notifies the system control unit 50 of the detection result of hover release. The system control unit 50 receives the notification from the touch panel control unit 26 and determines whether or not the hover is released. If hover release is detected, the process proceeds to step S115.

ステップS115では、接眼検知部55が規定位置から対象物が遠ざかったか否かを検知し、検知結果をシステム制御部50に通知する。システム制御部50は該検知結果を受信し、ユーザがファインダ16から顔を遠ざけたか否かを判断する。遠ざけた場合は各タッチの有効、無効フラグを解除する。   In step S115, the eyepiece detection unit 55 detects whether or not the object has moved away from the specified position, and notifies the system control unit 50 of the detection result. The system control unit 50 receives the detection result and determines whether or not the user has moved his / her face away from the viewfinder 16. When it is away, the valid / invalid flag of each touch is released.

次に図4を用いて、図1に示したフローで実行されるタッチの有効/無効判定の手法を説明する。図4(a)はデジタルカメラ100を背面側から見た図である。表示部28上全面にタッチパネル27が配置されている。また、ファインダ16内部のファインダ内液晶表示41を拡大図としてデジタルカメラ100の上部に示している。例では、ファインダ内液晶表示41内には35点のAF枠が表示されており、ユーザはタッチ操作により任意の点を選択する事が可能である。図において、選択中のAF枠を表すカーソル枠410は太線で示されている。   Next, with reference to FIG. 4, a method for determining validity / invalidity of touch executed in the flow shown in FIG. 1 will be described. FIG. 4A is a diagram of the digital camera 100 viewed from the back side. A touch panel 27 is arranged on the entire surface of the display unit 28. In addition, an in-viewfinder liquid crystal display 41 inside the viewfinder 16 is shown at an upper portion of the digital camera 100 as an enlarged view. In the example, 35 AF frames are displayed in the finder liquid crystal display 41, and the user can select an arbitrary point by a touch operation. In the figure, the cursor frame 410 representing the AF frame being selected is indicated by a bold line.

図4(a)において、301はユーザの顔401の一部(鼻等)がタッチパネル27に接触したことを検出したタッチ位置を示している。302はユーザの右手親指402がタッチパネル27に接触したタッチ位置を示している。また、303はタッチ点301周辺のホバー領域を示し、304はタッチ点302周辺のホバー領域を示している。ホバー状態とは、指や鼻などの導体がタッチパネルに接近した状態であるためタッチ点周辺はホバー状態となる。鼻によるタッチの方が、指によるタッチよりもタッチ点周辺のホバー状態領域が大きい。本発明では、タッチ発生前に検出されるホバー領域の大きさの違いを利用して、指によるタッチと鼻によるタッチを判別する。   In FIG. 4A, 301 indicates a touch position where it is detected that a part of the user's face 401 (such as the nose) has touched the touch panel 27. Reference numeral 302 denotes a touch position where the user's right thumb 402 touches the touch panel 27. Reference numeral 303 denotes a hover area around the touch point 301, and 304 denotes a hover area around the touch point 302. The hover state is a state in which a conductor such as a finger or nose is close to the touch panel, so that the area around the touch point is in a hover state. A nose touch has a larger hover state area around the touch point than a finger touch. In the present invention, the touch by the finger and the touch by the nose are discriminated using the difference in the size of the hover area detected before the occurrence of the touch.

ステップS101での接眼検知後、ステップS102にてデジタルカメラ100はAF枠選択モードに移行する。デジタルカメラ100の起動後、最初にAF枠選択モードに移行すると、図4(a)に示す通り中央のAF枠が選択された状態となる。ステップS104にて接眼検知部55で測定した距離に応じてステップS109での指によるタッチか否かの判定に用いる面積閾値を設定する。撮影時にファインダ16をしっかりと覗きこむユーザの場合、図4(b)に示すようにタッチパネルから顔までの距離も短くなるため、鼻でのタッチ301周辺のホバー領域303は大きくなる。そのため、面積閾値は大きめに設定する。   After the eyepiece detection in step S101, the digital camera 100 shifts to the AF frame selection mode in step S102. When the AF frame selection mode is first shifted to after the digital camera 100 is activated, the center AF frame is selected as shown in FIG. In step S104, an area threshold value used for determining whether or not the finger is touched in step S109 is set according to the distance measured by the eyepiece detection unit 55. In the case of a user who looks into the finder 16 at the time of shooting, the distance from the touch panel to the face is shortened as shown in FIG. 4B, so the hover area 303 around the nose touch 301 becomes large. For this reason, the area threshold is set larger.

しかし、眼鏡を装着しているユーザなど、撮影時にファインダ16に顔をあまり接近しないユーザの場合は、図4(c)に示すように、図4(b)の状態よりもタッチパネルから鼻までの距離も遠くなるため、面積閾値が大きいままでは鼻部分でのホバー領域では閾値を越えず、鼻の接近が検出されない可能性がある。そのため、接眼検知部55での検出距離が離れているときは、面積閾値を小さくする。   However, in the case of a user who wears glasses, such as a user who does not bring his face close to the finder 16 at the time of shooting, as shown in FIG. Since the distance also increases, if the area threshold value remains large, the threshold value is not exceeded in the hover region in the nose portion, and the approach of the nose may not be detected. Therefore, when the detection distance in the eyepiece detection unit 55 is far, the area threshold is reduced.

ステップS107にてタッチ301及び302のタッチダウンをタッチパネル制御部26が検出すると、検出結果がシステム制御部50に通知される。ステップS108にて、タッチパネル制御部26がタッチ301に識別番号1を、タッチ302に識別番号2を付与する。識別番号はタッチダウンが検出された順に、時系列で、若い番号から順に付与される。   When the touch panel control unit 26 detects the touchdown of the touches 301 and 302 in step S107, the detection result is notified to the system control unit 50. In step S10 8, touch panel control unit 26 assigns identification number 1 to touch 301 and identification number 2 to touch 302. The identification numbers are given in chronological order from the smallest number in the order in which the touchdown is detected.

ステップS110では、接眼検知部55による検出距離とホバー領域の面積の変化の仕方に相関性があるか否かを判定する。これは図4(d)に示すように、ユーザがタッチパネル27に鼻が接触しないような距離でファインダ16を覗きこんだ状態で指によるタッチが発生した場合を想定した処理である。このような場合、接眼検知部55で検出される距離は遠いためステップS104で面積閾値は小さく設定される。その状態で指402でのタッチダウンがあった場合、本来であれば有効タッチとしたいが、面積閾値が小さいため、指402によるホバー領域304が閾値を越えてしまい無効タッチと判定されてしまう可能性がある。   In step S110, it is determined whether or not there is a correlation between the detection distance by the eyepiece detection unit 55 and the manner in which the area of the hover region changes. As shown in FIG. 4D, this is a process assuming that a touch with a finger occurs while the user looks into the finder 16 at such a distance that the nose does not touch the touch panel 27. In such a case, since the distance detected by the eyepiece detection unit 55 is far, the area threshold is set to be small in step S104. If there is a touchdown with the finger 402 in this state, it is desired to make it an effective touch. However, since the area threshold is small, the hover area 304 by the finger 402 may exceed the threshold and be determined as an invalid touch. There is sex.

鼻は顔401の一部であるため、同じ期間における接眼検知部55で検出される顔401までの距離の変化と、タッチパネル27で検出される鼻部分の接近によるホバー領域303の面積の変化の仕方には相関性がある。それに対して指402でのタッチは顔401の動きとは無関係に発生する。図5に接眼検知部55による検出距離の変化とホバー領域の変化の様子の一例を示す。ファインダ16への接眼が検出された時刻をt1、ユーザが顔の動きを止めた時刻をt2とすると、t1からt2までの間は、ファインダ16に対して顔401を接近させている動作となり、接眼検知部55での検出距離が小さくなるのに同期して顔401によるホバー領域は増加する。   Since the nose is a part of the face 401, the change in the distance to the face 401 detected by the eyepiece detection unit 55 and the change in the area of the hover region 303 due to the approach of the nose part detected by the touch panel 27 during the same period. There is a correlation in the way. On the other hand, the touch with the finger 402 occurs regardless of the movement of the face 401. FIG. 5 shows an example of changes in the detection distance and hover area by the eyepiece detection unit 55. Assuming that the time when the eyepiece to the finder 16 is detected is t1, and the time when the user stops the movement of the face is t2, the operation of moving the face 401 toward the finder 16 from t1 to t2, The hover area by the face 401 increases in synchronization with the detection distance at the eyepiece detection unit 55 becoming smaller.

しかし、指402によるホバー領域は接眼検知部55での検出距離とは無関係に増加し、タッチ(時刻t3)に至る。このように、メモリ52に格納された接眼検知部55での検出距離情報とホバー領域の面積情報の履歴を利用して、鼻がタッチパネル27に接触していない状態での指402によるタッチを判別する。   However, the hover area by the finger 402 increases regardless of the detection distance in the eyepiece detection unit 55, and reaches the touch (time t3). In this manner, the touch with the finger 402 when the nose is not in contact with the touch panel 27 is determined using the history of the detection distance information and the area information of the hover area in the eyepiece detection unit 55 stored in the memory 52. To do.

ステップS109でのホバー領域面積の大きさ判定と、ステップS110での接眼検知部による検出距離の変化の仕方とホバー領域面積の変化の仕方の相関性の判定結果に応じて、タッチの有効/無効判定を行う。鼻によるタッチ302は無効、指402によるタッチ301は有効操作と判定し、それぞれの識別番号に有効及び無効操作フラグを関連付けて、システムメモリ52に格納する。これにより、ステップS114にて、システム制御部50は、タッチ302の位置の移動方向及び移動量に応じて、ファインダ内液晶表示部41に表示される選択中のAF枠を示すカーソル410を移動するように制御する。   The validity / invalidity of the touch is determined according to the determination result of the size of the hover area in step S109 and the determination result of the correlation between the change in the detection distance and the change in the hover area by the eyepiece detection unit in step S110. Make a decision. It is determined that the touch 302 by the nose is invalid and the touch 301 by the finger 402 is a valid operation, and the valid and invalid operation flags are associated with the respective identification numbers and stored in the system memory 52. Thereby, in step S114, the system control unit 50 moves the cursor 410 indicating the AF frame being selected displayed on the in-finder liquid crystal display unit 41 in accordance with the moving direction and moving amount of the position of the touch 302. To control.

以上のように、本実施例によればファインダ付きのデジタルカメラにおいて、ファインダを覗きながら撮影をする際に、ユーザの顔の一部(鼻等)が誤って背面表示部の表示面に接触することにより発生するタッチによる誤操作を防ぐことができる。例えば、AF枠を示すカーソル410の位置は有効操作と判断されたタッチ位置の移動量に応じて移動する。従って、タッチダウンを検出したのみでは、カーソル410の移動は発生しない。これにより、不意な意図しないタッチダウンによる誤操作を防ぐことができる。   As described above, according to the present embodiment, in a digital camera with a finder, when taking a picture while looking through the finder, a part of the user's face (such as the nose) mistakenly contacts the display surface of the rear display unit. It is possible to prevent an erroneous operation caused by touch. For example, the position of the cursor 410 indicating the AF frame moves according to the amount of movement of the touch position determined to be an effective operation. Therefore, the movement of the cursor 410 does not occur only by detecting the touchdown. Thereby, it is possible to prevent an erroneous operation due to an unintentional touchdown.

また本実施例では、タッチパネル制御部26により、タッチダウン検出した各タッチに識別番号を付与することで、有効操作及び無効操作の管理を容易に行うことができる。識別番号と有効操作或いは無効操作の判定結果を関連付けてシステムメモリ52にて管理する事で、タッチオンを検出している間は判定を継続する事が出来る。また、有効操作と判定されたタッチがタッチアップしても、無効操作と判定されたタッチは継続して無効操作判定を継続する事が出来るため、継続して誤動作を防止できる。   In this embodiment, the touch panel control unit 26 can easily manage the effective operation and the invalid operation by assigning an identification number to each touch detected by touchdown. By managing the identification number and the determination result of the valid operation or the invalid operation in the system memory 52, the determination can be continued while the touch-on is detected. Further, even if a touch determined to be an effective operation is touched up, a touch determined to be an invalid operation can be continued and the invalid operation determination can be continued, so that malfunction can be prevented continuously.

更に、追加のタッチダウンが発生した場合でも、識別番号が付与されているタッチに対しては有効操作或いは無効操作の判定は行わず、追加検出されたタッチにのみ判定を行えば良い点で効率的である。以上のように意図しないタッチによる誤操作防止を行える一方で、タッチ検出領域を狭めることなく、タッチ操作を受けつけることができるため、快適な操作が可能となる。更に、本実施例は接眼検知をAF枠選択モードに移行する条件としている。他の操作手段を経ずにモードを変更できるため、操作性が良いという特徴がある。   Furthermore, even if an additional touchdown occurs, it is efficient in that it is only necessary to make a determination only for a touch that has been additionally detected without performing a determination of an effective operation or an invalid operation for a touch with an identification number. Is. While it is possible to prevent erroneous operations due to unintended touches as described above, it is possible to receive touch operations without narrowing the touch detection area, and thus comfortable operations are possible. Furthermore, in this embodiment, eyepiece detection is a condition for shifting to the AF frame selection mode. Since the mode can be changed without going through other operation means, there is a feature that operability is good.

なお、システム制御部50の制御は1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、装置全体の制御を行ってもよい。また、本実施例では有効操作と判断する条件として、ホバー領域の面積としたが、ホバー領域の形状で行うようにしても良い。鼻によるタッチ時は、ホバー領域としてはタッチ点から左右と上側に広がる三角形のような形状で発生すると考えられる。対して指によるタッチ時はタッチ点から指が伸びている方向へ楕円上にホバー領域が発生すると考えられる。このような形状の差異を利用することで鼻と指を判別することも可能である。   The control of the system control unit 50 may be performed by one piece of hardware, or the entire apparatus may be controlled by a plurality of pieces of hardware sharing the processing. In this embodiment, the area for the hover area is used as a condition for determining that the operation is valid. When touching with the nose, it is considered that the hover region is generated in a shape like a triangle extending from the touch point to the left and right and above. On the other hand, when touching with a finger, it is considered that a hover region is generated on the ellipse in the direction in which the finger extends from the touch point. It is also possible to discriminate between the nose and the finger by utilizing such a difference in shape.

また、本実施例ではタッチ操作により実行される処理をAF枠選択操作としたが、本発明はこれらの実施形態に限定されず、あらゆる操作に適用可能である。例えば、デジタルカメラの撮影設定を変更する操作に適用しても構わない。図6に幾つかの例を示す。なお、図6では、透過式のファインダ内液晶部41にて光学像に重畳して様々なグラフィック表示が可能なファインダ構成を例として説明する。図6の(a)はタッチパネル27への操作により、ファインダ内液晶表示部41に表示される絞り設定値を変更する例である。   In this embodiment, the process executed by the touch operation is the AF frame selection operation. However, the present invention is not limited to these embodiments, and can be applied to any operation. For example, you may apply to operation which changes the imaging | photography setting of a digital camera. FIG. 6 shows some examples. In FIG. 6, a finder configuration capable of various graphic displays superimposed on an optical image by the transmission type finder liquid crystal unit 41 will be described as an example. FIG. 6A shows an example in which the aperture setting value displayed on the finder liquid crystal display unit 41 is changed by operating the touch panel 27.

接眼検知後、タッチダウンを検出すると絞り設定値変更モードに移行し、601で示される帯状の絞り設定値を示す目盛りが、光学像に重畳して表示される。目盛りには対応する絞り設定値が記載されており、有効操作と判定されたタッチ位置の移動量に応じて、帯状部601の表示全体を左右にスクロールすることが可能である。601部中央に太線枠で示された目盛りが現在設定されている絞り値を示している。また、601上部に現在設定されている絞り値が数値として表示される。   When touchdown is detected after eye contact detection, the mode shifts to an aperture setting value change mode, and a scale indicating a band-shaped aperture setting value indicated by 601 is displayed superimposed on the optical image. A scale setting value corresponding to the scale is described on the scale, and the entire display of the band-shaped portion 601 can be scrolled to the left and right in accordance with the amount of movement of the touch position determined to be an effective operation. A scale indicated by a thick frame in the center of the 601 portion indicates the currently set aperture value. In addition, the currently set aperture value is displayed as a numerical value at the top of 601.

同様に、図6(b)はシャッター速度を、図6(c)はISO感度設定値を、図6(d)は露出設定値を同様の操作で変更するための表示例を示している。図6(a)に示した操作と同様に、有効操作と判定されたタッチ位置の移動量に応じて、帯状部に表示されている目盛りを左右にスクロールすることで、設定値を変更する事が出来る。また、図6(e)はタッチパネル27により、ファインダ内液晶表示部41に表示されるWB設定値を変更する例である。BはBlue、AはAmber、GはGreen、MはMagentaの各色を表している。有効操作と判定されたタッチ位置の移動量に応じて、605に示される枠内中央に太字枠で示されるカーソル610を移動するができる。この時、B、A、G、Mの各軸方向にカーソル610を移動することで、各色方向にWB設定値を変更する事が出来る。   Similarly, FIG. 6B shows a shutter speed, FIG. 6C shows an ISO sensitivity setting value, and FIG. 6D shows a display example for changing the exposure setting value by the same operation. Similar to the operation shown in FIG. 6A, the setting value can be changed by scrolling the scale displayed on the strip portion to the left and right according to the movement amount of the touch position determined to be an effective operation. I can do it. FIG. 6E shows an example in which the WB setting value displayed on the in-finder liquid crystal display unit 41 is changed by the touch panel 27. B represents Blue, A represents Amber, G represents Green, and M represents Magenta. A cursor 610 indicated by a bold frame can be moved to the center of the frame indicated by 605 in accordance with the amount of movement of the touch position determined to be an effective operation. At this time, the WB set value can be changed in each color direction by moving the cursor 610 in each of the B, A, G, and M axis directions.

更に、図6(f)はタッチパネル27への操作により、ファインダ内液晶表示部41に表示される再生画像を変更する例である。606で示される部分は再生画像が重ねて連なっているグラフィック表示を表しており、中央に表示される画像を再生することができる。有効操作と判定されたタッチ位置の移動量に応じて、画像をスクロールさせ、再生画像を選択する事が出来る。ファインダを除きながら、タッチ操作により、誤動作なく快適に撮影設定を変更できる点で、本実施例は有効である。   Further, FIG. 6F shows an example in which the reproduced image displayed on the finder liquid crystal display unit 41 is changed by an operation on the touch panel 27. A portion denoted by reference numeral 606 represents a graphic display in which reproduced images are overlapped, and an image displayed in the center can be reproduced. Depending on the amount of movement of the touch position determined as an effective operation, it is possible to scroll the image and select a reproduced image. The present embodiment is effective in that the shooting setting can be comfortably changed without malfunction by a touch operation while excluding the viewfinder.

以上のような撮影設定及び再生画像変更の例を示したが、本実施例はその他様々な設定変更に適用が可能である。なお、本実施例ではファインダ16を光学式の構成としたが、液晶方式や有機EL方式の電子ビューファインダ構成としても構わない。精細なグラフィック表示が可能である上、撮影設定が適用された撮影画像をスルー画像として確認できる利点がある。   Although the example of the shooting setting and the reproduction image change as described above has been shown, the present embodiment can be applied to various other setting changes. In this embodiment, the finder 16 has an optical configuration, but it may have a liquid crystal type or organic EL type electronic viewfinder configuration. In addition to being able to display a fine graphic, there is an advantage that a photographed image to which a photographing setting is applied can be confirmed as a through image.

また、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。   Moreover, each embodiment mentioned above only shows one Embodiment of this invention, It is also possible to combine each embodiment suitably.

26:タッチパネル制御部、27:タッチパネル、41:ファインダ内液晶表示部、50:システム制御部、55:接眼検知部、100:デジタルカメラ、410:AF枠選択カーソル、601:絞り値設定スクロールバー、602:シャッター速度設定スクロールバー、603:ISO感度値設定スクロールバー、604:露出値設定スクロールバー、606:画像スクロール選択表示、610:WB設定選択カーソル 26: touch panel control unit, 27: touch panel, 41: liquid crystal display unit in viewfinder, 50: system control unit, 55: eyepiece detection unit, 100: digital camera, 410: AF frame selection cursor, 601: aperture value setting scroll bar, 602: Shutter speed setting scroll bar, 603: ISO sensitivity value setting scroll bar, 604: Exposure value setting scroll bar, 606: Image scroll selection display, 610: WB setting selection cursor

Claims (8)

ファインダへの接近を検出する第一の接近検出手段と、
タッチパネルへの接近を検出する第二の接近検出手段と、
前記タッチパネルに対する複数箇所でのタッチ操作を検出可能なタッチ検出手段と、
前記第二の接近検出手段で検出した近接領域の面積を算出する面積算出手段を有し、
前記第一の接近検出手段によって前記ファインダに対して物体が所定距離以内に接近していることが検出されている期間において、
前記第二の接近検出手段によって検出される近接領域の面積が所定の閾値以上である場合、
前記タッチ検出手段によって、前記近接領域内で検出されたタッチ操作を無効とし、それ以外のタッチ操作を有効とし、
前記第一の接近検出手段により検出された物体までの距離が所定の距離よりも遠い場合には、前記閾値を第一の値に設定し、前記第一の接近検出手段により検出された物体までの距離が前記所定の距離よりも近い場合には、前記閾値を前記第一の値よりも大きな第二の値に設定する設定手段を有することを特徴とする電子機器。
First approach detection means for detecting approach to the viewfinder;
Second approach detecting means for detecting approach to the touch panel;
Touch detection means capable of detecting touch operations at a plurality of locations on the touch panel;
An area calculating means for calculating the area of the proximity region detected by the second approach detecting means;
In a period in which the first approach detection means detects that an object is approaching the finder within a predetermined distance,
When the area of the proximity region detected by the second approach detection means is a predetermined threshold or more,
The touch detection means invalidates the touch operation detected in the proximity area, and enables other touch operations,
When the distance to the object detected by the first approach detection unit is longer than a predetermined distance, the threshold is set to a first value, and the object detected by the first approach detection unit is reached. An electronic device comprising: setting means for setting the threshold value to a second value larger than the first value when the distance is shorter than the predetermined distance.
前記有効なタッチ操作のタッチが離された後であっても、前記第一の接近検出手段によってファインダから検出物が遠ざかったことを検出されるまで、前記無効とされたタッチ操作に応じた処理は実行しないように制御する制御手段を有することを特徴とする請求項1に記載の電子機器。 Even after the touch of the valid touch operation is released, the processing corresponding to the invalid touch operation is detected until the first approach detection unit detects that the detected object has moved away from the finder. The electronic apparatus according to claim 1, further comprising a control unit that performs control so as not to execute. 前記第一の接近検出手段にて検出した距離と、前記第二の接近検出手段にて検出した領域の面積の履歴を保存する手段を有し、前記履歴から所定の期間における前記第一の接近検出手段にて検出した距離の変化の仕方と、前記第二の接近検出手段にて検出した領域の面積の変化の仕方の相関性の有無を判定することを特徴とする請求項1または2に記載の電子機器。 The first approach detection means has a means for storing a distance detected by the first approach detection means and a history of the area of the area detected by the second approach detection means, and the first approach in a predetermined period from the history. 3. The presence or absence of correlation between a method of changing the distance detected by the detecting means and a method of changing the area of the area detected by the second approach detecting means is determined. The electronic device described. ファインダへの接近を検出する第一の接近検出手段と、
タッチパネルへの接近を検出する第二の接近検出手段と、
前記タッチパネルに対する複数箇所でのタッチ操作を検出可能なタッチ検出手段と、
前記第二の接近検出手段で検出した近接領域の形状を判別する形状判別手段を有し、
前記第一の接近検出手段によって前記ファインダに対して物体が所定距離以内に接近していることが検出されている期間において、
前記第二の接近検出手段での検出領域の形状が所定の形状である場合、
前記タッチ検出手段によって、前記検出領域において検出されたタッチ操作を無効とし、それ以外のタッチ操作を有効とするように制御する制御手段を有することを特徴とする電子機器。
First approach detection means for detecting approach to the viewfinder;
Second approach detecting means for detecting approach to the touch panel;
Touch detection means capable of detecting touch operations at a plurality of locations on the touch panel;
Having a shape determining means for determining the shape of the proximity region detected by the second approach detecting means;
In a period in which the first approach detection means detects that an object is approaching the finder within a predetermined distance,
When the shape of the detection area in the second approach detection means is a predetermined shape,
An electronic apparatus comprising: control means for controlling the touch operation detected in the detection area to be invalidated and valid for other touch operations by the touch detection means.
ファインダへの接近を検出する第一の接近検出ステップと、
タッチパネルへの接近を検出する第二の接近検出ステップと、
前記タッチパネルに対する複数箇所でのタッチ操作を検出可能なタッチ検出ステップと、
前記第二の接近検出ステップにおいて検出した近接領域の面積を算出する面積算出ステップを有し、
前記第一の接近検出ステップにおいて前記ファインダに対して物体が所定距離以内に接近していることが検出されている期間において、
前記第二の接近検出ステップにおいて検出される近接領域の面積が所定の閾値以上である場合、
前記タッチ検出ステップにおいて、前記近接領域内で検出されたタッチ操作を無効とし、それ以外のタッチ操作を有効とし、
前記第一の接近検出ステップにおいて検出された物体までの距離が所定の距離よりも遠い場合には、前記閾値を第一の値に設定し、前記第一の接近検出手段により検出された物体までの距離が前記所定の距離よりも近い場合には、前記閾値を前記第一の値よりも大きな第二の値に設定する設定ステップを有することを特徴とする電子機器の制御方法。
A first approach detection step for detecting approach to the viewfinder;
A second approach detecting step for detecting approach to the touch panel;
A touch detection step capable of detecting touch operations at a plurality of locations on the touch panel;
An area calculating step of calculating the area of the proximity region detected in the second approach detecting step;
In the period in which it is detected in the first approach detection step that the object is approaching the finder within a predetermined distance,
When the area of the proximity region detected in the second approach detection step is a predetermined threshold or more,
In the touch detection step, the touch operation detected in the proximity region is invalidated, and other touch operations are validated.
When the distance to the object detected in the first approach detection step is longer than a predetermined distance, the threshold is set to a first value, and the object detected by the first approach detection means is reached. And a setting step of setting the threshold value to a second value larger than the first value when the distance is shorter than the predetermined distance.
ファインダへの接近を検出する第一の接近検出ステップと、
タッチパネルへの接近を検出する第二の接近検出ステップと、
前記タッチパネルに対する複数箇所でのタッチ操作を検出可能なタッチ検出ステップと、
前記第二の接近検出ステップにおいて検出した近接領域の形状を判別する形状判別ステップを有し、
前記第一の接近検出ステップにおいて前記ファインダに対して物体が所定距離以内に接近していることが検出されている期間において、
前記第二の接近検出ステップにおいての検出領域の形状が所定の形状である場合、
前記タッチ検出ステップにおいて、前記検出領域において検出されたタッチ操作を無効とし、それ以外のタッチ操作を有効とするように制御する制御ステップを有することを特徴とする電子機器の制御方法。
A first approach detection step for detecting approach to the viewfinder;
A second approach detecting step for detecting approach to the touch panel;
A touch detection step capable of detecting touch operations at a plurality of locations on the touch panel;
Having a shape determining step of determining the shape of the proximity region detected in the second approach detecting step;
In the period in which it is detected in the first approach detection step that the object is approaching the finder within a predetermined distance,
When the shape of the detection region in the second approach detection step is a predetermined shape,
The electronic device control method according to claim 1, further comprising: a control step in which the touch operation detected in the detection area is invalidated and the other touch operations are validated in the touch detection step.
コンピュータを、請求項1乃至6のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the electronic device of any one of Claims 1 thru | or 6. コンピュータを、請求項1乃至6のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each unit of the electronic device according to any one of claims 1 to 6.
JP2017041515A 2017-03-06 2017-03-06 Electronic device and control method thereof Pending JP2018148389A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017041515A JP2018148389A (en) 2017-03-06 2017-03-06 Electronic device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017041515A JP2018148389A (en) 2017-03-06 2017-03-06 Electronic device and control method thereof

Publications (1)

Publication Number Publication Date
JP2018148389A true JP2018148389A (en) 2018-09-20

Family

ID=63591645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017041515A Pending JP2018148389A (en) 2017-03-06 2017-03-06 Electronic device and control method thereof

Country Status (1)

Country Link
JP (1) JP2018148389A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181450A (en) * 2019-04-26 2020-11-05 キヤノン株式会社 Electronic device, electronic device controlling method, program, and recording medium
JP7492349B2 (en) 2020-03-10 2024-05-29 キヤノン株式会社 Imaging device, control method thereof, program, and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020181450A (en) * 2019-04-26 2020-11-05 キヤノン株式会社 Electronic device, electronic device controlling method, program, and recording medium
JP7309435B2 (en) 2019-04-26 2023-07-18 キヤノン株式会社 Electronic device, electronic device control method, program, recording medium
JP7492349B2 (en) 2020-03-10 2024-05-29 キヤノン株式会社 Imaging device, control method thereof, program, and storage medium

Similar Documents

Publication Publication Date Title
US10623647B2 (en) Image capturing apparatus and control method for changing a setting based on a touch operation on a display
US10530989B2 (en) Electronic apparatus and method for controlling the same
KR101653602B1 (en) Display control apparatus and control method therefor
JP6590666B2 (en) Electronic device and control method thereof
US10447918B2 (en) Imaging control apparatus and method for controlling the same
JP2017123515A (en) Electronic apparatus and control method therefor
JP2018013745A (en) Electronic equipment and control method therefor
JP2018129765A (en) Imaging apparatus and control method
CN112015266A (en) Electronic device, control method of electronic device, and computer-readable storage medium
JP6071616B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP7465129B2 (en) Imaging device, control method thereof, program, and storage medium
JP2018148389A (en) Electronic device and control method thereof
US11269499B2 (en) Electronic apparatus and control method for fine item movement adjustment
JP2019022116A (en) Imaging apparatus, control method thereof, program, and storage medium
JP2018085570A (en) Imaging apparatus, imaging method, and program
US11093131B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
US11245835B2 (en) Electronic device
JP7336266B2 (en) ELECTRONIC DEVICE, CONTROL METHOD FOR ELECTRONIC DEVICE, PROGRAM, STORAGE MEDIUM
JP2018026683A (en) Imaging apparatus, control method, and program
JP6708516B2 (en) Electronic device, control method thereof, and program
JP2019169823A (en) Imaging apparatus
US11418715B2 (en) Display control apparatus and control method therefor
JP2019020544A (en) Camera with touch panel
JP7466304B2 (en) Imaging device, control method thereof, program, and storage medium
JP7071197B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125