JP6855317B2 - Imaging device, control method of imaging device, program, and recording medium - Google Patents

Imaging device, control method of imaging device, program, and recording medium Download PDF

Info

Publication number
JP6855317B2
JP6855317B2 JP2017094027A JP2017094027A JP6855317B2 JP 6855317 B2 JP6855317 B2 JP 6855317B2 JP 2017094027 A JP2017094027 A JP 2017094027A JP 2017094027 A JP2017094027 A JP 2017094027A JP 6855317 B2 JP6855317 B2 JP 6855317B2
Authority
JP
Japan
Prior art keywords
touch
touch panel
finder
item
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017094027A
Other languages
Japanese (ja)
Other versions
JP2018191221A (en
Inventor
健一郎 笹井
健一郎 笹井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017094027A priority Critical patent/JP6855317B2/en
Publication of JP2018191221A publication Critical patent/JP2018191221A/en
Application granted granted Critical
Publication of JP6855317B2 publication Critical patent/JP6855317B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、およびその制御方法に関し、特にタッチ操作に応じてアイテムの表示位置を変更する技術に関する。 The present invention relates to an image pickup apparatus and a control method thereof, and more particularly to a technique of changing a display position of an item in response to a touch operation.

従来より、ファインダを覗きながら、カメラの背面にあるタッチパネルを操作することによりAF位置や露出補正等の設定値を変更可能な撮像装置が知られている。
特許文献1には、ユーザがファインダを覗いている場合には、ファーストタッチがされるとファインダ用モニタの中央にAFターゲット枠を表示し、タッチの移動がされるとAFターゲット枠を移動することが開示されている。また、特許文献1には、ファインダを覗いていない場合には、ファーストタッチがされた位置にAFターゲット枠を表示することが開示されている。また、ユーザのユースケースに合わせてカメラに対するタッチパネルの位置を変更することができるカメラがある。特許文献2には、タッチパネルが操作できる状態でタッチパネルをカメラ本体に収納した状態や、タッチパネルが操作できる状態でタッチパネルをカメラ本体から開いた状態等にタッチパネルの位置を変更できることが開示されている。
Conventionally, there has been known an imaging device capable of changing set values such as AF position and exposure compensation by operating a touch panel on the back of a camera while looking through a finder.
According to Patent Document 1, when the user is looking into the finder, the AF target frame is displayed in the center of the finder monitor when the first touch is made, and the AF target frame is moved when the touch is moved. Is disclosed. Further, Patent Document 1 discloses that the AF target frame is displayed at the position where the first touch is performed when the finder is not viewed. In addition, there are cameras that can change the position of the touch panel with respect to the camera according to the user's use case. Patent Document 2 discloses that the position of the touch panel can be changed such that the touch panel is housed in the camera body while the touch panel can be operated, or the touch panel is opened from the camera body while the touch panel can be operated.

特開2012−203143号公報Japanese Unexamined Patent Publication No. 2012-203143 特開2013−200841号公報Japanese Unexamined Patent Publication No. 2013-200841

特許文献1の方法では、ユーザがファインダを覗いている場合には、AFターゲット枠は、タッチ位置の移動量に応じてAFターゲット枠が移動する。よって、選択したい位置が現在のAFターゲット枠の位置から離れるほど必要なタッチ位置の移動距離が大きくなってしまう。そこで、ファインダを覗いている場合にも、タッチ位置にAFターゲット枠を移動する方法が考えられる。しかし、特許文献2に記載のタッチパネルをカメラ本体に収納した状態では、ファインダを覗くユーザの鼻等の顔の一部がモニタに触れると、その位置にAFターゲット枠が移動し、ユーザの意図しない位置にAFターゲット枠が移動してしまう可能性がある。 In the method of Patent Document 1, when the user is looking into the finder, the AF target frame moves according to the amount of movement of the touch position. Therefore, the farther the position to be selected is from the current position of the AF target frame, the larger the required moving distance of the touch position. Therefore, a method of moving the AF target frame to the touch position can be considered even when looking through the finder. However, when the touch panel described in Patent Document 2 is housed in the camera body, when a part of the face such as the nose of the user looking into the finder touches the monitor, the AF target frame moves to that position, which is not intended by the user. There is a possibility that the AF target frame will move to the position.

本発明の目的は、ファインダを覗いた状態におけるユーザのタッチ操作の操作性を向上させることである。 An object of the present invention is to improve the operability of a user's touch operation while looking through a finder.

本発明の撮像装置は、ファインダの外にあるタッチパネルへのタッチ操作を検出可能なタッチ検出手段と、前記タッチパネルの位置を、本体部に対して、少なくとも第1の位置と、前記第1の位置よりも前記ファインダから離れた位置である第2の位置とへと変更可能な変更手段と、前記ファインダを介して視認可能なファインダ内表示部にアイテムが表示されている際に、前記タッチパネルが前記第1の位置である場合には、前記タッチパネルへのタッチの開始がされても、前記タッチの開始された位置に対応する前記ファインダ内表示部の位置に前記アイテムを表示せず、タッチ位置が移動したことに応じてタッチ位置の移動に応じた分、前記タッチの開始がされる前に前記アイテムの表示されていた位置から前記アイテムを移動し、前記タッチパネルが前記第2の位置である場合には、前記タッチパネルへのタッチの開始がされたことに応じて、前記タッチの開始位置に応じた前記ファインダ内表示部の位置に前記アイテムを表示するように制御する制御手段と、を有することを特徴とする。 The image pickup apparatus of the present invention sets the touch detection means capable of detecting a touch operation on the touch panel outside the finder and the position of the touch panel at least at least the first position and the first position with respect to the main body. When an item is displayed on the display unit in the finder, which can be changed to a second position which is a position farther from the finder, and which is visible through the finder, the touch panel is said to be the touch panel. In the case of the first position, even if the touch to the touch panel is started, the item is not displayed at the position of the display unit in the finder corresponding to the position where the touch is started, and the touch position is set. When the item is moved from the position where the item was displayed before the start of the touch by the amount corresponding to the movement of the touch position according to the movement, and the touch panel is in the second position. Has a control means for controlling the item to be displayed at the position of the display unit in the finder according to the start position of the touch in response to the start of touching the touch panel. It is characterized by.

本発明によれば、ファインダを覗いた状態におけるユーザのタッチ操作の操作性を向上させることができる。 According to the present invention, it is possible to improve the operability of the user's touch operation while looking through the finder.

デジタルカメラの外観の一例を示す図である。It is a figure which shows an example of the appearance of a digital camera. デジタルカメラの構成の一例を示す図である。It is a figure which shows an example of the structure of a digital camera. 横姿勢で表示部が閉じたデジタルカメラの状態の一例を示す図である。It is a figure which shows an example of the state of the digital camera which the display part is closed in a horizontal posture. 横姿勢で表示部が開いたデジタルカメラの状態の一例を示す図である。It is a figure which shows an example of the state of the digital camera which opened the display part in a horizontal posture. 縦姿勢で表示部が開いたデジタルカメラの状態の一例を示す図である。It is a figure which shows an example of the state of the digital camera which opened the display part in a vertical posture. 縦姿勢で表示部が開いたデジタルカメラの状態の一例を示す図である。It is a figure which shows an example of the state of the digital camera which opened the display part in a vertical posture. ユーザが接眼ファインダを覗いていないときのデジタルカメラの状態の一例を示す図である。It is a figure which shows an example of the state of a digital camera when a user does not look into an eyepiece finder. 撮影処理の一例を示すフローチャートである。It is a flowchart which shows an example of a shooting process.

(実施形態1)
以下、図面を参照して本発明の好適な実施形態を説明する。
図1(a)、(b)に撮像装置の一例であるデジタルカメラ100の外観図を示す。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
図1(a)、(b)において、表示部128は、画像や各種情報を表示する表示部であり、デジタルカメラ100の背面モニタである。
本体部110は、デジタルカメラ100の筐体である。
レンズユニット150は、交換可能なレンズ203を搭載するレンズユニットである。
シャッターボタン161は、撮影指示を行うための操作部である。
モード切替スイッチ160は、各種モードを切り替えるための操作部である。
(Embodiment 1)
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
1 (a) and 1 (b) show external views of a digital camera 100 which is an example of an imaging device. FIG. 1A is a front perspective view of the digital camera 100, and FIG. 1B is a rear perspective view of the digital camera 100.
In FIGS. 1A and 1B, the display unit 128 is a display unit that displays images and various information, and is a rear monitor of the digital camera 100.
The main body 110 is a housing of the digital camera 100.
The lens unit 150 is a lens unit equipped with an interchangeable lens 203.
The shutter button 161 is an operation unit for giving a shooting instruction.
The mode changeover switch 160 is an operation unit for switching various modes.

メイン電子ダイヤル171は、回転操作部材であり、ユーザがメイン電子ダイヤル171を回すことで、シャッター速度や絞り等の設定値の変更等が行われる。
電源スイッチ172は、デジタルカメラ100の電源のON及びOFFを切り替える操作部材である。
サブ電子ダイヤル173は、選択枠の移動や画像送り等を行う回転操作部材である。
十字キー174は、上、下、左、右部分をそれぞれ押し込み可能な4方向キーである。十字キー174の押された部分に応じた操作が可能である。
SETボタン175は、主に選択項目の決定等に用いられる押しボタンである。
ヒンジ178aは、パネル部178の位置を変更可能なヒンジである。
タッチパネル170aは、表示部128に対する接触を検知可能であり、表示部128と一体的に構成される。
The main electronic dial 171 is a rotation operation member, and the user turns the main electronic dial 171 to change set values such as a shutter speed and an aperture.
The power switch 172 is an operating member that switches the power of the digital camera 100 on and off.
The sub electronic dial 173 is a rotation operation member that moves a selection frame, feeds an image, and the like.
The cross key 174 is a four-direction key that can push up, down, left, and right parts, respectively. The operation can be performed according to the pressed portion of the cross key 174.
The SET button 175 is a push button mainly used for determining a selection item or the like.
The hinge 178a is a hinge whose position of the panel portion 178 can be changed.
The touch panel 170a can detect contact with the display unit 128 and is integrally configured with the display unit 128.

再生ボタン179は、撮影モードと再生モードとを切り替える操作ボタンである。デジタルカメラ100は、撮影モード中に再生ボタン179が押下されることで再生モードに移行し、記録媒体200に記録された画像のうち最新の画像を表示部128に表示させることができる。
シャッターボタン161、メイン電子ダイヤル171、電源スイッチ172、サブ電子ダイヤル173、十字キー174、SETボタン175は、操作部170に含まれる。
The playback button 179 is an operation button for switching between the shooting mode and the playback mode. When the playback button 179 is pressed during the shooting mode, the digital camera 100 shifts to the playback mode, and the latest image among the images recorded on the recording medium 200 can be displayed on the display unit 128.
The shutter button 161, the main electronic dial 171 and the power switch 172, the sub electronic dial 173, the cross key 174, and the SET button 175 are included in the operation unit 170.

接眼ファインダ116は、フォーカシングスクリーン213を観察することで、レンズユニット150を通して得た被写体の光学像の焦点や構図の確認を行うための覗き込み型のファインダである。
ファインダ内表示部176は、画像や各種情報を表示する表示部であり、ユーザが接眼ファインダ116を覗くことで、ユーザは接眼ファインダ116を介して視認可能であり、ファインダ内表示部176に写された画像や各種情報を参照できる。
The eyepiece finder 116 is a peep-type finder for confirming the focus and composition of the optical image of the subject obtained through the lens unit 150 by observing the focusing screen 213.
The display unit 176 in the finder is a display unit that displays images and various information, and when the user looks into the eyepiece finder 116, the user can see through the eyepiece finder 116 and is copied to the display unit 176 in the finder. You can refer to the images and various information.

近接センサ177は、ユーザの接眼ファインダ116への接眼を検出する。システム制御部250は、近接センサ177の検出値に基づいて、ファインダへの接眼状態であるか否かを判定できる。ユーザが接眼ファインダ116に接近していると判定された場合は、ミラーをダウンし、ファインダを介して被写体の光学像が視認可能にする。このとき、AF枠等の表示は、光学像と重畳して視認可能なようにファインダ内表示部176に表示される。近接センサ177は、接眼ファインダ116へ物体が接近したことを検出する接近検出手段の一例である。 The proximity sensor 177 detects the user's eyepiece on the eyepiece finder 116. The system control unit 250 can determine whether or not the eyepiece is in contact with the finder based on the detection value of the proximity sensor 177. When it is determined that the user is close to the eyepiece finder 116, the mirror is lowered so that the optical image of the subject can be visually recognized through the finder. At this time, the display of the AF frame or the like is displayed on the display unit 176 in the finder so that it can be visually recognized by superimposing it on the optical image. The proximity sensor 177 is an example of proximity detection means for detecting that an object has approached the eyepiece finder 116.

接眼ファインダ116に接近していないと判定された場合は、ミラーをアップし、撮像部が撮像した撮像画像をスルー画像(ライブビュー画像)として表示部128に表示するようにする。このとき、AF枠等の表示は、スルー画像と共に表示部128に表示される。
なお、システム制御部250は、ユーザによる操作部170を介した表示切替操作に基づいて、スルー画像の表示をするか否かを切り替えてもよい。より具体的には、システム制御部250は、操作部170に対する操作に基づいて、表示部128にスルー画像を表示する(ミラーアップ)ことと、接眼ファインダ116を介して光学像が視認可能(ミラーダウン)にすることとを切り替えるようにしてもよい。このように、システム制御部250は、AF枠やスルー画像の表示先を、ファインダ内表示部176と表示部128とで切替可能であってもよい。
なお、接眼ファインダ116は光学ファインダでなくても電子ビューファインダでもよい。その場合、システム制御部250は、近接センサ177の検知結果により、スルー画像の表示先を切り替える。
When it is determined that the eyepiece finder 116 is not close to the eyepiece finder 116, the mirror is raised so that the captured image captured by the imaging unit is displayed on the display unit 128 as a through image (live view image). At this time, the display of the AF frame or the like is displayed on the display unit 128 together with the through image.
The system control unit 250 may switch whether or not to display the through image based on the display switching operation by the user via the operation unit 170. More specifically, the system control unit 250 displays a through image on the display unit 128 (mirror lockup) based on the operation on the operation unit 170, and the optical image can be visually recognized through the eyepiece finder 116 (mirror). You may switch between setting it to down). In this way, the system control unit 250 may switch the display destination of the AF frame and the through image between the display unit 176 in the finder and the display unit 128.
The eyepiece finder 116 may be an electronic viewfinder instead of an optical viewfinder. In that case, the system control unit 250 switches the display destination of the through image according to the detection result of the proximity sensor 177.

図2は、本実施形態におけるデジタルカメラ100の構成例を示す図である。
レンズユニット150は、上記の通り、交換可能なレンズ203を搭載するレンズユニットである。レンズユニット150に搭載されるレンズ203は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。
AEセンサ217は、レンズユニット150、クイックリターンミラー212を通しフォーカシングスクリーン213上に結像した被写体の輝度を測光する。
焦点検出部211は、クイックリターンミラー212及びサブミラーを介して入射する像を撮像し、システム制御部250にデフォーカス量情報を出力する位相差検出方式のAF(オートフォーカス)センサである。システム制御部250は、焦点検出部211が出力したデフォーカス量情報に基づいてレンズユニット150を制御し、位相差AFを行う。
FIG. 2 is a diagram showing a configuration example of the digital camera 100 according to the present embodiment.
As described above, the lens unit 150 is a lens unit equipped with an interchangeable lens 203. The lens 203 mounted on the lens unit 150 is usually composed of a plurality of lenses, but here, only one lens is shown for brevity.
The AE sensor 217 measures the brightness of the subject imaged on the focusing screen 213 through the lens unit 150 and the quick return mirror 212.
The focus detection unit 211 is a phase difference detection type AF (autofocus) sensor that captures an image incident through the quick return mirror 212 and the sub-mirror and outputs defocus amount information to the system control unit 250. The system control unit 250 controls the lens unit 150 based on the defocus amount information output by the focus detection unit 211, and performs phase difference AF.

クイックリターンミラー212は、露光、ライブビュー撮影、動画撮影の際にシステム制御部250から指示されて、アクチュエータによりアップダウンされる。クイックリターンミラー212は、レンズ203から入射した光束を接眼ファインダ116側と撮像部222側とに切替えるためのミラーである。クイックリターンミラー212は、通常時は接眼ファインダ116へと光束を導くよう反射させるように配されている。しかし、クイックリターンミラー212は、撮影が行われる場合やライブビュー表示の場合には、撮像部222へと光束を導くように上方に跳ね上がり光束中から待避する(ミラーアップ)。また、クイックリターンミラー212は、その中央部が光の一部を透過できるようにハーフミラーとなっており、光束の一部を、焦点検出を行うための焦点検出部211に入射するように透過させる。 The quick return mirror 212 is instructed by the system control unit 250 at the time of exposure, live view shooting, and moving image shooting, and is moved up and down by an actuator. The quick return mirror 212 is a mirror for switching the light flux incident from the lens 203 between the eyepiece finder 116 side and the image pickup unit 222 side. The quick return mirror 212 is normally arranged so as to reflect a light beam to the eyepiece finder 116 so as to guide the light flux. However, in the case of shooting or live view display, the quick return mirror 212 jumps upward so as to guide the light flux to the imaging unit 222 and saves from the light flux (mirror lockup). Further, the quick return mirror 212 is a half mirror so that the central portion thereof can transmit a part of light, and a part of the light flux is transmitted so as to be incident on the focus detection unit 211 for performing focus detection. Let me.

ユーザは、ペンタプリズム214と接眼ファインダ116とを介して、フォーカシングスクリーン213上に結像した像を観察することで、レンズユニット150を通して得た被写体の光学像の焦点状態や構図の確認が可能となる。
本実施形態の接眼ファインダ116は、光学ファインダ(OVF)であるが、電子ビューファインダ(EVF)でもよい。
フォーカルプレーンシャッター201は、システム制御部250の制御に基づいて撮像部222の露光時間を制御する。
撮像部222は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。
A/D変換器223は、撮像部222によって電気信号に変換されたアナログ信号をデジタル信号に変換する。
By observing the image formed on the focusing screen 213 via the pentaprism 214 and the eyepiece finder 116, the user can confirm the focal state and composition of the optical image of the subject obtained through the lens unit 150. Become.
The eyepiece finder 116 of the present embodiment is an optical viewfinder (OVF), but may be an electronic viewfinder (EVF).
The focal plane shutter 201 controls the exposure time of the imaging unit 222 based on the control of the system control unit 250.
The image pickup unit 222 is an image pickup device composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal.
The A / D converter 223 converts an analog signal converted into an electric signal by the imaging unit 222 into a digital signal.

画像処理部224は、A/D変換器223からのデータ、又は、メモリ制御部215からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部224は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部250が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部224は、更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。 The image processing unit 224 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 223 or the data from the memory control unit 215. Further, the image processing unit 224 performs a predetermined calculation process using the captured image data, and the system control unit 250 performs exposure control and distance measurement control based on the obtained calculation result. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (autoexposure) processing, and EF (flash pre-flash) processing are performed. The image processing unit 224 further performs a predetermined calculation process using the captured image data, and also performs a TTL-type AWB (auto white balance) process based on the obtained calculation result.

A/D変換器223からの出力データは、画像処理部224及びメモリ制御部215を介して、又は、メモリ制御部215を介してメモリ232に直接書き込まれる。
メモリ232は、撮像部222によって得られA/D変換器223によりデジタルデータに変換された画像データや、表示部128に表示するための画像データを格納する。メモリ232は、所定枚数の静止画像や所定時間の動画像及び音声を格納するのに十分な記憶容量を備えている。また、メモリ232は画像表示用のメモリ(ビデオメモリ)を兼ねている。
The output data from the A / D converter 223 is written directly to the memory 232 via the image processing unit 224 and the memory control unit 215, or via the memory control unit 215.
The memory 232 stores the image data obtained by the image pickup unit 222 and converted into digital data by the A / D converter 223, and the image data to be displayed on the display unit 128. The memory 232 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio. Further, the memory 232 also serves as a memory (video memory) for displaying an image.

D/A変換器219は、メモリ232に格納されている画像表示用のデータをアナログ信号に変換して表示部128に供給する。こうして、メモリ232に書き込まれた表示用の画像データはD/A変換器219を介して表示部128により表示される。表示部128は、LCD等の表示器上に、D/A変換器219からのアナログ信号に応じた表示を行う。A/D変換器223によって一度A/D変換されメモリ232に蓄積されたデジタル信号はD/A変換器219においてアナログ変換され、表示部128に逐次転送され表示される。このことで、電子ビューファインダとして機能する。このため、デジタルカメラ100は、スルー画像表示(ライブビュー表示)を行える。 The D / A converter 219 converts the image display data stored in the memory 232 into an analog signal and supplies it to the display unit 128. In this way, the image data for display written in the memory 232 is displayed by the display unit 128 via the D / A converter 219. The display unit 128 displays on a display such as an LCD according to the analog signal from the D / A converter 219. The digital signal once A / D converted by the A / D converter 223 and stored in the memory 232 is analog-converted by the D / A converter 219, and is sequentially transferred to the display unit 128 for display. This functions as an electronic viewfinder. Therefore, the digital camera 100 can display a through image (live view display).

不揮発性メモリ256は、システム制御部250によって電気的に消去・記録可能なメモリであって、例えばEEPROM等が用いられる。不揮発性メモリ256には、システム制御部250の動作用の定数、プログラム等が記憶される。不揮発性メモリ256は、記録媒体の一例である。
システム制御部250は、少なくとも1つのプロセッサーを内蔵し、デジタルカメラ100全体を制御する。システム制御部250が不揮発性メモリ256に記録されたプログラムをシステムメモリ252に展開して実行することで、図4のフローチャートの処理が実現される。また、システム制御部250は、メモリ232、D/A変換器219、表示部128等を制御することにより表示制御も行う。
システムメモリ252には、RAMが用いられる。システムメモリ252には、システム制御部250の動作用の定数、変数、不揮発性メモリ256から読み出したプログラム等が展開される。
The non-volatile memory 256 is a memory that can be electrically erased and recorded by the system control unit 250, and for example, EEPROM or the like is used. The non-volatile memory 256 stores constants, programs, and the like for the operation of the system control unit 250. The non-volatile memory 256 is an example of a recording medium.
The system control unit 250 incorporates at least one processor and controls the entire digital camera 100. When the system control unit 250 expands the program recorded in the non-volatile memory 256 into the system memory 252 and executes it, the processing of the flowchart of FIG. 4 is realized. The system control unit 250 also controls the display by controlling the memory 232, the D / A converter 219, the display unit 128, and the like.
RAM is used for the system memory 252. In the system memory 252, constants and variables for the operation of the system control unit 250, a program read from the non-volatile memory 256, and the like are expanded.

パネル位置検知センサ220は、例えば磁界を検出するホール素子と磁石とを備える、タッチパネル170aと表示部128のあるパネル部178の位置を検知可能なセンサである。磁石は開閉可能なタッチパネル170a側に備えられ、ホール素子のセンサはデジタルカメラ100のタッチパネル170aの収納位置に備えられている。この両者の距離に応じて変化するホール素子の出力に応じて、システム制御部250がタッチパネル170aの開閉状態、すなわち、デジタルカメラ100の本体に収納されているかの判定を行うことができる。また、パネル位置検知センサ220は、パネル部178の向く方向(表示部128の表示方向及びタッチパネル170aのタッチ面の方向)を検知可能である。パネル部178が収納されており、パネル部178の向く方向が背面側である場合には、表示部128の表示は視認できず、またタッチパネル170aへのタッチ操作も行うことができない。しかし、パネル部178が収納されていても、背面の方向と同じ方向(背面と表示面とが向き合っていない)である場合には、表示部128の表示は視認可能であるし、さらにタッチパネル170aへのタッチ操作も可能である。
姿勢検知センサ221は、例えばデジタルカメラ100内に加速度センサを備える。そして、デジタルカメラ100の本体部110の姿勢が横姿勢であるか、縦姿勢であるかによって変化する加速度センサからの出力に応じて、システム制御部250が縦横の判定を行う。横姿勢は、被写体の上下方向が、デジタルカメラ100により撮影された画像の短辺方向と略一致するような姿勢である。縦姿勢は、被写体の上下方向が、デジタルカメラ100により撮影された画像の長辺方向と略一致するような姿勢である。
The panel position detection sensor 220 is a sensor capable of detecting the position of the panel unit 178 having the touch panel 170a and the display unit 128, which includes, for example, a Hall element for detecting a magnetic field and a magnet. The magnet is provided on the touch panel 170a side that can be opened and closed, and the Hall element sensor is provided at the storage position of the touch panel 170a of the digital camera 100. The system control unit 250 can determine the open / closed state of the touch panel 170a, that is, whether it is housed in the main body of the digital camera 100, according to the output of the Hall element that changes according to the distance between the two. Further, the panel position detection sensor 220 can detect the direction in which the panel unit 178 faces (the display direction of the display unit 128 and the direction of the touch surface of the touch panel 170a). When the panel unit 178 is housed and the panel unit 178 faces the rear side, the display of the display unit 128 cannot be visually recognized, and the touch panel 170a cannot be touched. However, even if the panel unit 178 is housed, if the direction is the same as the direction of the back surface (the back surface and the display surface do not face each other), the display of the display unit 128 is visible, and the touch panel 170a Touch operation to is also possible.
The attitude detection sensor 221 includes, for example, an acceleration sensor in the digital camera 100. Then, the system control unit 250 determines the vertical and horizontal directions according to the output from the acceleration sensor that changes depending on whether the posture of the main body 110 of the digital camera 100 is the horizontal posture or the vertical posture. The horizontal posture is such that the vertical direction of the subject substantially coincides with the short side direction of the image captured by the digital camera 100. The vertical posture is such that the vertical direction of the subject substantially coincides with the long side direction of the image captured by the digital camera 100.

モード切替スイッチ160、シャッターボタン161、操作部170は、システム制御部250に各種の動作指示を入力するための操作手段である。モード切替スイッチ160は、システム制御部250の動作モードを、静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替えるためのスイッチである。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ160で、メニュー画面に含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切替スイッチ160でメニュー画面に一旦切り換えた後に、メニュー画面に含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 The mode changeover switch 160, the shutter button 161 and the operation unit 170 are operation means for inputting various operation instructions to the system control unit 250. The mode changeover switch 160 is a switch for switching the operation mode of the system control unit 250 to any one of a still image recording mode, a moving image shooting mode, a playback mode, and the like. The modes included in the still image recording mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, an aperture priority mode (Av mode), and a shutter speed priority mode (Tv mode). In addition, there are various scene modes, program AE modes, custom modes, etc. that are shooting settings for each shooting scene. The mode changeover switch 160 directly switches to any of these modes included in the menu screen. Alternatively, after switching to the menu screen once with the mode changeover switch 160, the mode may be switched to any of these modes included in the menu screen by using another operation member. Similarly, the moving image shooting mode may include a plurality of modes.

第1シャッタースイッチ262は、デジタルカメラ100に設けられたシャッターボタン161の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF(フラッシュプリ発光)処理等の動作が開始される。
第2シャッタースイッチ264は、シャッターボタン161の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部250は、第2シャッタースイッチ信号SW2により、撮像部222からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
The first shutter switch 262 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 161 provided on the digital camera 100, and the first shutter switch signal SW1 is generated. The first shutter switch signal SW1 starts operations such as AF processing, AE processing, AWB processing, and EF (flash pre-flash) processing.
The second shutter switch 264 is turned on when the operation of the shutter button 161 is completed, that is, when the shutter button 161 is fully pressed (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 250 starts a series of shooting processing operations from reading the signal from the imaging unit 222 to writing the image data to the recording medium 200 by the second shutter switch signal SW2.

操作部170の各操作部材は、表示部128に表示される種々の機能アイコンを選択操作すること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部128に表示される。ユーザは、表示部128に表示されたメニュー画面と、十字キー174やSETボタン175とを用いて直感的に各種設定を行うことができる。 Each operation member of the operation unit 170 is assigned a function as appropriate for each scene by selecting and operating various function icons displayed on the display unit 128, and acts as various function buttons. Examples of the function button include an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 128. The user can intuitively make various settings by using the menu screen displayed on the display unit 128 and the cross key 174 and the SET button 175.

操作部170は、ユーザからの操作を受け付ける入力部としての各種操作部材である。操作部170には、少なくともシャッターボタン161、メイン電子ダイヤル171、電源スイッチ172、サブ電子ダイヤル173、十字キー174、SETボタン175が含まれる。
電源制御部280は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部280は、その検出結果及びシステム制御部250の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。
The operation unit 170 is various operation members as an input unit that receives an operation from the user. The operation unit 170 includes at least a shutter button 161, a main electronic dial 171, a power switch 172, a sub electronic dial 173, a cross key 174, and a SET button 175.
The power supply control unit 280 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining battery level. Further, the power supply control unit 280 controls the DC-DC converter based on the detection result and the instruction of the system control unit 250, and supplies a necessary voltage to each unit including the recording medium 200 for a necessary period.

電源部230は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F218は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。
記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
The power supply unit 230 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.
The recording medium I / F 218 is an interface with a recording medium 200 such as a memory card or a hard disk.
The recording medium 200 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like.

既に説明したように、タッチパネル170aと表示部128とは一体的に構成される。例えば、タッチパネル170aを光の透過率が表示部128の表示を妨げないように構成し、タッチパネル170aを表示部128の表示面の上層に取り付ける。そして、タッチパネル170aにおける入力座標と、表示部128上の表示座標とを対応付ける。これにより、あたかもユーザが表示部128上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成することができる。このように、タッチ操作が行われた位置と表示部128の位置とを対応づけて指示を受け付ける設定を絶対座標設定という。
また、絶対座標設定とは異なる次の設定を相対座標設定という。相対座標設定は、表示部128の所定の位置から、タッチ位置座標ではなく、タッチ操作の移動量(移動方向も)に応じた分、もともと表示されていた位置から移動した位置(移動操作に応じた量移動した位置)への指示を受け付ける設定である。
As described above, the touch panel 170a and the display unit 128 are integrally configured. For example, the touch panel 170a is configured so that the light transmittance does not interfere with the display of the display unit 128, and the touch panel 170a is attached to the upper layer of the display surface of the display unit 128. Then, the input coordinates on the touch panel 170a are associated with the display coordinates on the display unit 128. This makes it possible to configure a GUI (graphical user interface) as if the user can directly operate the screen displayed on the display unit 128. The setting for receiving an instruction by associating the position where the touch operation is performed with the position of the display unit 128 in this way is called an absolute coordinate setting.
The following settings, which are different from the absolute coordinate settings, are called relative coordinate settings. The relative coordinate setting is the position moved from the originally displayed position (according to the movement operation) by the amount corresponding to the movement amount (movement direction) of the touch operation instead of the touch position coordinates from the predetermined position of the display unit 128. It is a setting that accepts instructions to the position (the position moved by a large amount).

ユーザがファインダ内表示部176を見ながら操作をする場合には、絶対座標設定でタッチ操作をすると、タッチパネル170a(表示部128)を見ないでタッチすることになる。このため、ユーザは所望の位置からずれた位置に誤ってタッチ操作をしてしまう可能性が高い。一方で、相対座標設定でタッチ操作をすると、タッチ操作の位置ではなく移動量で移動指示をするので、ファインダ内表示部176に表示される操作対象の位置を見ながら所望の位置まで移動する操作をすれば所望の位置への指示をすることができる。表示部128に画像を表示しないが、タッチパネル170aがタッチ操作を受け付ける機能をタッチパッド機能と称する。 When the user operates while looking at the display unit 176 in the finder, if the touch operation is performed with the absolute coordinate setting, the touch panel 170a (display unit 128) is not viewed. Therefore, there is a high possibility that the user mistakenly performs a touch operation at a position deviated from a desired position. On the other hand, when the touch operation is performed by setting the relative coordinates, the movement instruction is given not by the position of the touch operation but by the movement amount. Therefore, the operation of moving to the desired position while observing the position of the operation target displayed on the display unit 176 in the finder. If you do, you can give an instruction to the desired position. A function in which the touch panel 170a accepts a touch operation while the image is not displayed on the display unit 128 is referred to as a touch pad function.

システム制御部250は、タッチパネル170aへの以下の操作、あるいは状態を検出可能である。
第1に、システム制御部250は、タッチパネル170aにタッチしていなかった指やペンが新たにタッチパネル170aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)を検出できる。
第2に、システム制御部250は、タッチパネル170aを指やペンでタッチしている状態であること(以下、タッチオン(Touch−On)と称する)を検出できる。
第3に、システム制御部250は、タッチパネル170aを指やペンでタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)を検出できる。
第4に、システム制御部250は、タッチパネル170aへタッチしていた指やペンを離したこと、すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)を検出できる。
第5に、システム制御部250は、タッチパネル170aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)を検出できる。
The system control unit 250 can detect the following operations or states on the touch panel 170a.
First, the system control unit 250 indicates that a finger or pen that has not touched the touch panel 170a newly touches the touch panel 170a, that is, the start of touch (hereinafter referred to as touch-down). Can be detected.
Second, the system control unit 250 can detect that the touch panel 170a is touched with a finger or a pen (hereinafter, referred to as touch-on).
Third, the system control unit 250 can detect that the touch panel 170a is moving while being touched with a finger or a pen (hereinafter, referred to as a touch move (Touch-Move)).
Fourth, the system control unit 250 can detect that the finger or pen touching the touch panel 170a is released, that is, the end of the touch (hereinafter referred to as touch-up).
Fifth, the system control unit 250 can detect a state in which nothing is touched on the touch panel 170a (hereinafter, referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When a touchdown is detected, it is also detected that it is touch-on. After a touchdown, touch-on usually continues to be detected unless touch-up is detected. Touch move is also detected when touch on is detected. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル170a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部250に通知される。システム制御部250は、通知された情報に基づいてタッチパネル170a上にどのような操作が行なわれたかを判定する。システム制御部250は、タッチムーブについてはタッチパネル170a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル170a上の垂直成分・水平成分ごとに判定できる。
また、タッチパネル170a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパネル170a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパネル170a上を指ではじくように素早くなぞる操作である。システム制御部250は、所定距離以上を、所定速度以上でタッチムーブしたことを検出し、そのままタッチアップを検出するとフリックが行なわれたと判定できる。また、システム制御部250は、所定距離以上を、所定速度未満でタッチムーブしたことを検出した場合は、ドラッグが行なわれたと判定する。タッチパネル170aに対する操作やタッチパネル170aの状態を検出する処理は、タッチ検出手段による処理の一例である。
These operations / states and the position coordinates of the finger or pen touching on the touch panel 170a are notified to the system control unit 250 via the internal bus. The system control unit 250 determines what kind of operation has been performed on the touch panel 170a based on the notified information. Regarding the touch move, the system control unit 250 can determine the moving direction of the finger or the pen moving on the touch panel 170a for each vertical component and horizontal component on the touch panel 170a based on the change in the position coordinates.
Further, it is assumed that a stroke is drawn when the touch panel 170a is touched up from the touchdown through a constant touch move. The operation of drawing a stroke quickly is called flicking. Flicking is an operation of quickly moving a finger on the touch panel 170a by a certain distance and then releasing it as it is, in other words, an operation of swiftly tracing the touch panel 170a with a finger. The system control unit 250 detects that the touch move is performed at a predetermined speed or more over a predetermined distance, and if the touch-up is detected as it is, it can be determined that the flick has been performed. Further, when the system control unit 250 detects that the touch move is performed over a predetermined distance at a speed lower than the predetermined speed, it determines that the drag has been performed. The operation on the touch panel 170a and the process of detecting the state of the touch panel 170a are examples of the processes by the touch detection means.

タッチパネル170aには、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のうちいずれの方式のものを用いてもよい。方式によって、タッチパネル170aに対する接触があったことでタッチがあったと検出する方式や、タッチパネル170aに対する指やペンの接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。 As the touch panel 170a, any of various methods such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method may be used. .. Depending on the method, there are a method of detecting that there is a touch due to contact with the touch panel 170a and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel 170a. Good.

以下、本実施形態における表示部128の開閉状態におけるユーザのタッチ操作に応じたAF枠の表示制御について図3A〜3E、図4を参照して説明する。
図3A〜図3Dは、表示部128にスルー画像(ライブビュー画像)が表示されておらず、接眼ファインダ116を介して被写体の光学像が視認可能であり、ファインダ内表示部176にAF枠の表示が表示されている状態である。また、デジタルカメラ100の背面の向く方向と、タッチパネル170aのタッチ面の方向とが同じ方向であり、背面側にいるユーザからタッチパネル170aへのタッチ操作が可能である。ただし、表示先はファインダ内表示部176である。
図3Aは、デジタルカメラ100の姿勢が横姿勢であり、表示部128は閉じた状態を示す図である。表示部128が閉じた状態とは、表示部128が本体部110に収納されており、デジタルカメラ100の背面から見たとき、表示部128が本体部110と重なる状態である。表示部128が閉じた状態のとき、表示部128の表示面、及び、タッチパネル170aのタッチ可能な面が、デジタルカメラ100の背面方向側であるユーザ側を向く。このため、ユーザは、表示部128の表示の参照、及び、タッチパネル170aに対するタッチ操作が可能である。そして、表示部128、及び、タッチパネル170aと、ファインダ内表示部176とは縦に並ぶ。縦は、デジタルカメラ100を背面から見たときに、デジタルカメラ100における上下方向である。タッチパネル170aおよび表示部128のX軸、Y軸方向は、図3Aに示すように、背面からみて右方向をX軸プラス方向、下方向をY軸プラス方向とする。
Hereinafter, the display control of the AF frame according to the touch operation of the user in the open / closed state of the display unit 128 in the present embodiment will be described with reference to FIGS. 3A to 3E and FIG.
In FIGS. 3A to 3D, the through image (live view image) is not displayed on the display unit 128, the optical image of the subject can be visually recognized through the eyepiece finder 116, and the AF frame is displayed on the display unit 176 in the finder. The display is displayed. Further, the direction of the back surface of the digital camera 100 and the direction of the touch surface of the touch panel 170a are the same, and the user on the back surface side can perform a touch operation on the touch panel 170a. However, the display destination is the display unit 176 in the finder.
FIG. 3A is a diagram showing a posture in which the digital camera 100 is in a horizontal posture and a display unit 128 in a closed state. The state in which the display unit 128 is closed means that the display unit 128 is housed in the main body unit 110, and the display unit 128 overlaps with the main body unit 110 when viewed from the back surface of the digital camera 100. When the display unit 128 is closed, the display surface of the display unit 128 and the touchable surface of the touch panel 170a face the user side, which is the rear side of the digital camera 100. Therefore, the user can refer to the display of the display unit 128 and perform a touch operation on the touch panel 170a. The display unit 128, the touch panel 170a, and the display unit 176 in the finder are arranged vertically. The vertical direction is the vertical direction in the digital camera 100 when the digital camera 100 is viewed from the back. As shown in FIG. 3A, the X-axis and Y-axis directions of the touch panel 170a and the display unit 128 are the X-axis plus direction in the right direction and the Y-axis plus direction in the downward direction when viewed from the back surface.

図3Bは、デジタルカメラ100の横姿勢であり、表示部128がデジタルカメラ100に収納されておらず開いた状態を示す図である。表示部128が開いた状態とは、表示部128が、ヒンジ178aを挟んで、デジタルカメラ100の本体部110と並んだ状態である。図3Bに示すように、表示部128が開いた状態のときは、本体部110から見て表示部128がデジタルカメラ100において横に開いた状態である。横は、デジタルカメラ100を背面から見たときに、デジタルカメラ100における上下方向と垂直な方向である。表示部128が開いた状態のとき、表示部128が閉じた状態と比べて、タッチパネル170aは、接眼ファインダ116から離れた位置となる。つまり、接眼ファインダ116を覗いているユーザの顔が図3Aのときよりも当たりにくい。また、表示部128が開いた状態のタッチパネル170aの位置は、表示部128が閉じた状態のタッチパネル170aの位置を基準としたとき、操作部170とは反対側の位置となる。また、表示部128の表示面、及び、タッチパネル170aのタッチ可能な面が、デジタルカメラ100の背面方向側であるユーザ側を向く。このため、ユーザは、表示部128の表示の参照、及び、タッチパネル170aに対するタッチ操作が可能である。 FIG. 3B is a horizontal posture of the digital camera 100, and is a diagram showing a state in which the display unit 128 is not housed in the digital camera 100 and is opened. The state in which the display unit 128 is open means that the display unit 128 is aligned with the main body unit 110 of the digital camera 100 with the hinge 178a interposed therebetween. As shown in FIG. 3B, when the display unit 128 is open, the display unit 128 is horizontally open in the digital camera 100 when viewed from the main body 110. The side is a direction perpendicular to the vertical direction of the digital camera 100 when the digital camera 100 is viewed from the back. When the display unit 128 is open, the touch panel 170a is located farther from the eyepiece finder 116 than when the display unit 128 is closed. That is, the face of the user looking into the eyepiece finder 116 is less likely to hit than in FIG. 3A. Further, the position of the touch panel 170a when the display unit 128 is open is the position opposite to the operation unit 170 when the position of the touch panel 170a when the display unit 128 is closed is used as a reference. Further, the display surface of the display unit 128 and the touchable surface of the touch panel 170a face the user side, which is the rear side of the digital camera 100. Therefore, the user can refer to the display of the display unit 128 and perform a touch operation on the touch panel 170a.

図3Cは、デジタルカメラ100の姿勢は縦姿勢であり、表示部128は、デジタルカメラ100に収納されておらず開いた状態である。このとき、デジタルカメラ100は縦姿勢であり、表示部128は図3Cに示すように下方向に開く。表示部128の表示面、及び、タッチパネル170aのタッチ可能な面が、デジタルカメラ100の背面方向側であるユーザ側を向く。このため、ユーザは、表示部128の表示の参照、及び、タッチパネル170aに対するタッチ操作が可能である。 In FIG. 3C, the posture of the digital camera 100 is a vertical posture, and the display unit 128 is not housed in the digital camera 100 and is in an open state. At this time, the digital camera 100 is in the vertical posture, and the display unit 128 opens downward as shown in FIG. 3C. The display surface of the display unit 128 and the touchable surface of the touch panel 170a face the user side, which is the rear side of the digital camera 100. Therefore, the user can refer to the display of the display unit 128 and perform a touch operation on the touch panel 170a.

図3Dは、デジタルカメラ100の姿勢は縦姿勢であり、表示部128は、デジタルカメラ100に収納されておらず開いた状態である。このとき、デジタルカメラ100は縦姿勢であり、表示部128は図3Dに示すように上方向に開く。
表示部128の表示面、及び、タッチパネル170aのタッチ可能な面が、デジタルカメラ100の背面方向側であるユーザ側を向く。このため、ユーザは、表示部128の表示の参照、及び、タッチパネル170aに対するタッチ操作が可能である。
図3Eは、ユーザが接眼ファインダ116を覗いていない状態を示す図である。
In FIG. 3D, the posture of the digital camera 100 is a vertical posture, and the display unit 128 is not housed in the digital camera 100 and is in an open state. At this time, the digital camera 100 is in the vertical posture, and the display unit 128 opens upward as shown in FIG. 3D.
The display surface of the display unit 128 and the touchable surface of the touch panel 170a face the user side, which is the rear side of the digital camera 100. Therefore, the user can refer to the display of the display unit 128 and perform a touch operation on the touch panel 170a.
FIG. 3E is a diagram showing a state in which the user is not looking into the eyepiece finder 116.

次に、図4の撮影処理のフローチャートについて説明する。図4のフローチャートの説明では、表示部128の開閉状態、デジタルカメラ100の姿勢に応じてタッチ操作の「相対位置操作」及び「絶対位置操作」の制御を自動的に切り替える「相対位置、絶対位置操作自動切り替え」設定の場合について説明する。「相対位置操作」では、システム制御部250は相対位置制御を行う。「絶対位置操作」では、システム制御部250は絶対位置制御を行う。 Next, the flowchart of the shooting process of FIG. 4 will be described. In the explanation of the flowchart of FIG. 4, "relative position, absolute position" that automatically switches the control of "relative position operation" and "absolute position operation" of the touch operation according to the open / closed state of the display unit 128 and the posture of the digital camera 100. The case of "automatic operation switching" setting will be described. In the "relative position operation", the system control unit 250 performs relative position control. In the "absolute position operation", the system control unit 250 performs absolute position control.

S401において、システム制御部250は、電源スイッチ172からの信号に基づいて、ユーザがデジタルカメラの電源をONにする操作を行ったか否かを判定する。システム制御部250は、ユーザがデジタルカメラの電源をONにする操作を行ったとき処理をS402に進め、行っていないとき再度S401を実行する。
S402において、システム制御部250は、接眼ファインダ116に設けられた近接センサ177の検出値に基づいて、ファインダへの接眼状態であるか否かを判定する。ファインダへの接眼状態とは、ユーザがファインダ内表示部176を覗いている状態である。システム制御部250は、ファインダへの接眼状態のとき処理をS403に進め、ファインダへの接眼状態ではないとき処理をS422に進める。なお、S402においては、システム制御部250は、ミラーがアップ(S402No)かダウン(S402Yes)かを判定してもよい。もしくは表示部128にスルー画像が表示されているか(S402No)、ファインダを介して被写体の光学像が視認可能か(S402Yes)を判定してもよい。さらに、接眼ファインダ116が電子ビューファインダの場合には、スルー画像の表示先がファインダ内表示部であるか否かを判定してもよい。
In S401, the system control unit 250 determines whether or not the user has performed an operation to turn on the power of the digital camera based on the signal from the power switch 172. The system control unit 250 advances the process to S402 when the user performs an operation of turning on the power of the digital camera, and executes S401 again when the user does not perform the operation.
In S402, the system control unit 250 determines whether or not the eyepiece is in the eyepiece state based on the detection value of the proximity sensor 177 provided in the eyepiece finder 116. The eyepiece state of the finder is a state in which the user is looking into the display unit 176 in the finder. The system control unit 250 advances the process to S403 when the eyepiece is in the finder, and advances the process to S422 when the eyepiece is not in the finder. In S402, the system control unit 250 may determine whether the mirror is up (S402No) or down (S402Yes). Alternatively, it may be determined whether the through image is displayed on the display unit 128 (S402No) or whether the optical image of the subject is visible through the finder (S402Yes). Further, when the eyepiece finder 116 is an electronic viewfinder, it may be determined whether or not the display destination of the through image is the display unit in the finder.

S403において、システム制御部250は、モニタ駆動回路を制御し表示部128の表示を停止する。すなわち、システム制御部250は、表示部128をOFFにする。
S404において、システム制御部250は、ファインダ内表示部176の表示を開始する。すなわち、システム制御部250は、ファインダ内表示部176をONにする。本実施形態のデジタルカメラ100は、光学ファインダであるため、クイックリターンミラー212の位置を制御し、さらにファインダ内表示部176をONにする。デジタルカメラ100が電子ビューファインダの場合、システム制御部250は、撮像部222を制御することによって撮像素子を駆動させる。そして、画像処理部224は、撮像部222を介して得られた画像データを処理する。システム制御部250は、画像処理部224によって処理された画像データに基づく被写体観察用の画像をファインダ内表示部176に表示させる。こうして、S404において被写体観察用の画像がファインダ内表示部176に表示され始める。このような画像表示により、ユーザは、ファインダ内表示部176を用いて被写体の観察を行うことが可能である。
In S403, the system control unit 250 controls the monitor drive circuit and stops the display of the display unit 128. That is, the system control unit 250 turns off the display unit 128.
In S404, the system control unit 250 starts displaying the display unit 176 in the finder. That is, the system control unit 250 turns on the display unit 176 in the finder. Since the digital camera 100 of the present embodiment is an optical finder, the position of the quick return mirror 212 is controlled, and the display unit 176 in the finder is turned on. When the digital camera 100 is an electronic viewfinder, the system control unit 250 drives the image sensor by controlling the image pickup unit 222. Then, the image processing unit 224 processes the image data obtained via the image pickup unit 222. The system control unit 250 causes the display unit 176 in the finder to display an image for subject observation based on the image data processed by the image processing unit 224. In this way, in S404, the image for observing the subject begins to be displayed on the display unit 176 in the finder. With such an image display, the user can observe the subject using the display unit 176 in the finder.

S405において、システム制御部250は、ファインダ内表示部176の表示範囲内にAF枠を表示する制御を行う。AF枠の表示位置は初期設定位置として表示範囲の中央に表示する。ただし、システム制御部250は、予め設定された位置があれば、その場所にAF枠を表示してもよい。システム制御部250は、例えば図3Aに示すように位置300にAF枠を表示する。
S406において、システム制御部250は、パネル位置検知センサ220からの出力に応じて、表示部128がデジタルカメラ100に対して閉じているか開いているかを判定する。システム制御部250は、表示部128がデジタルカメラ100に収納されており閉じていて、かつ、ユーザがタッチパネル170aを操作可能な場合、処理をS407に進め、これ以外の場合、処理をS417に進める。ユーザがタッチパネル170aを操作可能とは、表示部128の表示面がユーザの側を向いており、ユーザがタッチパネル170aに対してタッチ操作が可能な状態である。S406において、表示部128が閉じていて、かつ、ユーザがタッチパネル170aを操作可能な場合、デジタルカメラ100は、例えば図3Aに示す状態である。
In S405, the system control unit 250 controls to display the AF frame within the display range of the display unit 176 in the finder. The display position of the AF frame is displayed in the center of the display range as the initial setting position. However, if there is a preset position, the system control unit 250 may display the AF frame at that position. The system control unit 250 displays the AF frame at the position 300 as shown in FIG. 3A, for example.
In S406, the system control unit 250 determines whether the display unit 128 is closed or open with respect to the digital camera 100 according to the output from the panel position detection sensor 220. When the display unit 128 is housed in the digital camera 100 and is closed, and the user can operate the touch panel 170a, the system control unit 250 advances the process to S407, and in other cases, proceeds to the process to S417. .. The user can operate the touch panel 170a means that the display surface of the display unit 128 faces the user side and the user can perform a touch operation on the touch panel 170a. In S406, when the display unit 128 is closed and the user can operate the touch panel 170a, the digital camera 100 is in the state shown in FIG. 3A, for example.

S407において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、予め設定された期間内にタッチダウンを検出したか否かを判定する。タッチセンサ入力回路は、タッチパネル170aからの信号より、タッチパネル170a上におけるユーザの指のタッチ位置座標の検出や指の動きを解析し、解析した結果をシステム制御部250に出力する。システム制御部250は、予め設定された期間内にタッチダウンを検出したとき処理をS408に進め、予め設定された期間内にタッチダウンを検出しないとき処理をS412に進める。
S408において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、タッチムーブを検出したか否かを判定する。システム制御部250は、タッチムーブを検出したとき処理をS409に進め、タッチムーブ以外のタッチ操作を検出したとき処理をS411に進める。タッチムーブ以外のタッチ操作とは、例えば、シングルタップ操作(タッチパネル170aを1回叩く)やダブルタップ操作(タッチパネル170aを2回叩く)等のタッチ操作である。このような操作を検出した場合には、AF枠の位置は変更されないので、ユーザの意図しない位置へAF枠が移動したり、ユーザの意図しない位置でAF処理がされたりしてしまう可能性を低減することができる。
In S407, the system control unit 250 determines whether or not the touchdown is detected within a preset period based on the output from the touch sensor input circuit. The touch sensor input circuit detects the touch position coordinates of the user's finger on the touch panel 170a and analyzes the movement of the finger from the signal from the touch panel 170a, and outputs the analyzed result to the system control unit 250. The system control unit 250 advances the process to S408 when the touchdown is detected within the preset period, and advances the process to S412 when the touchdown is not detected within the preset period.
In S408, the system control unit 250 determines whether or not the touch move has been detected based on the output from the touch sensor input circuit. The system control unit 250 advances the process to S409 when it detects a touch move, and advances the process to S411 when it detects a touch operation other than the touch move. The touch operation other than the touch move is, for example, a touch operation such as a single tap operation (tapping the touch panel 170a once) or a double tap operation (tapping the touch panel 170a twice). When such an operation is detected, the position of the AF frame is not changed, so that the AF frame may move to a position not intended by the user, or AF processing may be performed at a position not intended by the user. Can be reduced.

S409において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、ユーザの指のタッチ位置座標、及び、タッチ位置の時間変化から、指のタップ操作、指の移動方向、及び、移動距離を検出する。こうして、システム制御部250は、タッチ操作の入力状態を取得する。
S410において、システム制御部250は、相対位置制御を行って、ファインダ内表示部176におけるAF枠の表示位置を変更する。より具体的には、システム制御部250は、タッチ位置の移動が検出される前にAF枠が表示されていた位置から、S409で取得した指の移動方向、及び、移動距離に対応する位置にAF枠を移動させて表示する制御を行う。
In S409, the system control unit 250 sets the finger tap operation, the finger movement direction, and the movement from the touch position coordinates of the user's finger and the time change of the touch position based on the output from the touch sensor input circuit. Detect the distance. In this way, the system control unit 250 acquires the input state of the touch operation.
In S410, the system control unit 250 performs relative position control to change the display position of the AF frame on the display unit 176 in the finder. More specifically, the system control unit 250 moves from the position where the AF frame was displayed before the movement of the touch position is detected to the position corresponding to the movement direction and the movement distance of the finger acquired in S409. Control is performed to move the AF frame and display it.

図3Aに示す状態の場合、デジタルカメラ100は相対位置設定となり、システム制御部250は相対位置制御を行う。相対位置制御は、タッチ位置の移動が検出される前にAF枠が表示されていた位置から、タッチ位置の移動した量に応じて移動した位置にAF枠を移動させて表示する制御である。図3Aに示すように、AF枠はファインダ内表示部176に表示される。図3Aの例では、システム制御部250は、ユーザによるタッチパネル170aに対するタッチムーブに基づいて、ファインダ内表示部176のAF枠を、位置300から位置301に移動させて表示する制御を行う。AF枠は、アイテムの一例であり、AF位置を表す。システム制御部250は、AF動作を実行するときに、AF枠が表すAF位置の被写体に合焦するように制御する。 In the state shown in FIG. 3A, the digital camera 100 is set to the relative position, and the system control unit 250 performs the relative position control. The relative position control is a control in which the AF frame is moved and displayed from the position where the AF frame was displayed before the movement of the touch position was detected to the position where the AF frame was moved according to the amount of movement of the touch position. As shown in FIG. 3A, the AF frame is displayed on the display unit 176 in the finder. In the example of FIG. 3A, the system control unit 250 controls the AF frame of the display unit 176 in the finder to be moved from the position 300 to the position 301 and displayed based on the touch move of the touch panel 170a by the user. The AF frame is an example of an item and represents an AF position. When executing the AF operation, the system control unit 250 controls so as to focus on the subject at the AF position represented by the AF frame.

なお、図3C、図3Dに示す状態の場合には、表示部128はデジタルカメラ100本体に対して開いた状態であるが、システム制御部250は相対位置制御を行う。これは、縦姿勢の場合には、ユーザがカメラを保持した状態でタッチ可能な領域が横姿勢の場合よりも狭まるためである。
図3Cに示す状態のとき、ユーザは、右手で本体部110におけるヒンジ178aとは反対側を掴むと考えられる。そして、ユーザは、左手でデジタルカメラ100の下側となる表示部128をしっかりと支えながら、左手の親指でタッチパネル170aに対するタッチ操作を行うと考えられる。したがって、左手の親指は、タッチパネル170aの領域の全てには届きにくく、タッチパネル170aにおける本体部110の側の半分程度の領域である第1領域303程度までしか届かない。このように、図3Cに示す状態のときは、ユーザのタッチ操作が可能な範囲が小さくなるため、相対位置制御の方が絶対位置制御より操作性が良い。
図3Dに状態のとき、ユーザは、右手で、デジタルカメラ100の下側となる、本体部110におけるヒンジ178aとは反対側をしっかりと支えると考えられる。そして、ユーザは、左手で、デジタルカメラ100の上側となる表示部128を支えながら、左手の親指でタッチパネル170aに対するタッチ操作を行うと考えられる。このような場合、接眼ファインダ116を覗いているユーザの頭部が、タッチパネル170aの下付近まできてしまう。したがって、ユーザがタッチパネル170aに対するタッチ操作を行い易い領域は、第2領域304である。このように、図3Dに示す状態のときは、ユーザのタッチ操作が可能な範囲が小さくなるため、相対位置制御の方が絶対位置制御より操作性が良い。
In the state shown in FIGS. 3C and 3D, the display unit 128 is in the open state with respect to the main body of the digital camera 100, but the system control unit 250 performs relative position control. This is because in the vertical posture, the area that can be touched by the user while holding the camera is narrower than in the horizontal posture.
In the state shown in FIG. 3C, it is considered that the user grasps the side of the main body 110 opposite to the hinge 178a with his right hand. Then, it is considered that the user firmly supports the display unit 128, which is the lower side of the digital camera 100, with the left hand, and touches the touch panel 170a with the thumb of the left hand. Therefore, the thumb of the left hand does not easily reach the entire area of the touch panel 170a, and reaches only the first area 303, which is about half the area of the touch panel 170a on the side of the main body 110a. As described above, in the state shown in FIG. 3C, the range in which the user can perform the touch operation becomes smaller, so that the relative position control has better operability than the absolute position control.
In the state shown in FIG. 3D, it is considered that the user firmly supports the lower side of the digital camera 100, which is the side opposite to the hinge 178a in the main body 110, with the right hand. Then, it is considered that the user performs a touch operation on the touch panel 170a with the thumb of the left hand while supporting the display unit 128 on the upper side of the digital camera 100 with the left hand. In such a case, the head of the user looking into the eyepiece finder 116 will reach near the bottom of the touch panel 170a. Therefore, the area where the user can easily perform the touch operation on the touch panel 170a is the second area 304. As described above, in the state shown in FIG. 3D, the range in which the user can perform the touch operation becomes smaller, so that the relative position control has better operability than the absolute position control.

S411において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、タッチアップを検出したか否かを判定する。システム制御部250は、タッチアップを検出したとき処理をS412に進め、タッチアップを検出していないとき処理をS408に戻す。
S412において、システム制御部250は、予め設定された期間内に、ユーザの合焦操作が行われたか否かを判定する。より具体的には、システム制御部250は、シャッターボタン161の操作によって発生する第1シャッタースイッチ信号SW1を取得したか否かを判定する。システム制御部250は、予め設定された期間内にユーザの合焦操作が行われた場合(第1シャッタースイッチ信号SW1を取得した場合)、処理をS413に進める。システム制御部250は、予め設定された期間内にユーザの合焦操作が行われていない場合(第1シャッタースイッチ信号SW1を取得しない場合)、処理をS402に戻す。
In S411, the system control unit 250 determines whether or not the touch-up is detected based on the output from the touch sensor input circuit. The system control unit 250 advances the process to S412 when the touch-up is detected, and returns the process to S408 when the touch-up is not detected.
In S412, the system control unit 250 determines whether or not the user's focusing operation has been performed within a preset period. More specifically, the system control unit 250 determines whether or not the first shutter switch signal SW1 generated by the operation of the shutter button 161 has been acquired. When the user's focusing operation is performed within a preset period (when the first shutter switch signal SW1 is acquired), the system control unit 250 advances the process to S413. If the user has not focused within the preset period (when the first shutter switch signal SW1 is not acquired), the system control unit 250 returns the process to S402.

S413において、システム制御部250は、その時点で表示されているAF枠が位置している被写体に合焦するようにAF動作を実行する。
S414において、システム制御部250は、予め設定された期間内にユーザの撮影操作が行われたか否かを判定する。より具体的には、システム制御部250は、シャッターボタン161の操作によって発生する第2シャッタースイッチ信号SW2を取得したか否かを判定する。システム制御部250は、予め設定された期間内にユーザの撮影操作が行われた場合(第2シャッタースイッチ信号SW2を取得した場合)、処理をS415に進める。システム制御部250は、予め設定された期間内にユーザの撮影操作が行われていない場合(第2シャッタースイッチ信号SW2を取得しない場合)、処理をS402に戻す。
In S413, the system control unit 250 executes the AF operation so as to focus on the subject on which the AF frame displayed at that time is located.
In S414, the system control unit 250 determines whether or not the user's shooting operation has been performed within a preset period. More specifically, the system control unit 250 determines whether or not the second shutter switch signal SW2 generated by the operation of the shutter button 161 has been acquired. The system control unit 250 advances the process to S415 when the user's shooting operation is performed within a preset period (when the second shutter switch signal SW2 is acquired). The system control unit 250 returns the process to S402 when the user's shooting operation is not performed within the preset period (when the second shutter switch signal SW2 is not acquired).

S415において、システム制御部250は、撮影を実行する制御を行う。
S416において、システム制御部250は、電源スイッチ172からの信号に基づいて、ユーザがデジタルカメラの電源をOFFにする操作を行ったか否かを判定する。システム制御部250は、ユーザがデジタルカメラの電源をOFFにする操作を行ったとき、デジタルカメラ100の各部の終了処理を行う。そして、システム制御部250は、図4の処理を終了する。システム制御部250は、ユーザがデジタルカメラの電源をOFFにする操作を行っていないとき、処理をS402に戻す。
In S415, the system control unit 250 controls to execute shooting.
In S416, the system control unit 250 determines whether or not the user has performed an operation of turning off the power of the digital camera based on the signal from the power switch 172. The system control unit 250 performs termination processing of each unit of the digital camera 100 when the user performs an operation of turning off the power of the digital camera. Then, the system control unit 250 ends the process of FIG. The system control unit 250 returns the process to S402 when the user has not performed an operation to turn off the power of the digital camera.

S417において、システム制御部250は、姿勢検知センサ221からの出力に基づいて、デジタルカメラ100が横姿勢で保持されているか、縦姿勢で保持されているかを判定する。そして、システム制御部250は、デジタルカメラ100が横姿勢であり、かつ、ユーザがタッチパネル170aを操作可能な場合、処理をS418に進め、これ以外の場合、処理をS407に進める。S417において、デジタルカメラ100が横姿勢であり、かつ、ユーザがタッチパネル170aを操作可能な場合、デジタルカメラ100は、図3Bに示した状態となっている。また、S417においてデジタルカメラ100が縦姿勢の場合、デジタルカメラ100は、図3C又は、図3Dに示した状態となっている。 In S417, the system control unit 250 determines whether the digital camera 100 is held in the horizontal posture or the vertical posture based on the output from the posture detection sensor 221. Then, the system control unit 250 advances the process to S418 when the digital camera 100 is in the horizontal position and the user can operate the touch panel 170a, and proceeds to S407 in other cases. In S417, when the digital camera 100 is in the horizontal posture and the user can operate the touch panel 170a, the digital camera 100 is in the state shown in FIG. 3B. Further, when the digital camera 100 is in the vertical posture in S417, the digital camera 100 is in the state shown in FIG. 3C or FIG. 3D.

S418において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、タッチダウンを検出したか否かを判定する。システム制御部250は、タッチダウンを検出したとき処理をS419に進め、タッチダウンを検出していないとき処理をS412に進める。
S419において、システム制御部250は、絶対位置制御を行って、ファインダ内表示部176におけるAF枠の表示位置を変更する。より具体的には、システム制御部250は、S418でタッチダウン(タッチ操作の開始)が検出されたタッチパネル170aの位置に対応するファインダ内表示部176の位置にAF枠を移動させて表示する制御を行う。既に説明した図3Bは、S419における絶対位置制御の例である。
図3Bに示す状態の場合、デジタルカメラ100は絶対位置設定となり、システム制御部250は絶対位置制御を行う。絶対位置制御は、ファインダ内表示部176、及び、表示部128の少なくともいずれかに表示されるAF枠等の位置を示すアイテムを、タッチ操作のタッチ開始位置に基づく位置に表示する制御である。絶対位置制御では、AF枠は、タッチ操作が検出される前にAF枠が表示されていた位置に基づかずに、タッチ操作がされた位置に基づくファインダ内表示部176の位置に表示される。図3Bに示すように、AF枠はファインダ内表示部176に表示される。図3Bの例では、システム制御部250は、ユーザによるタッチパネル170aに対するタッチに基づいて、ファインダ内表示部176のAF枠を、位置300から位置302に移動させて表示する制御を行う。位置302は、ユーザによってタッチされたタッチパネル170aの位置に対応するファインダ内表示部176の位置である。現在のAF枠の位置から離れた位置にAF枠を移動したい場合に、ユーザはその位置にAF枠が移動するまで何回もタッチムーブ操作をしなくても、タッチダウン操作で(すなわち、より少ない操作量で)所望の位置にAF枠を移動することができる。
In S418, the system control unit 250 determines whether or not a touchdown has been detected based on the output from the touch sensor input circuit. The system control unit 250 advances the process to S419 when the touchdown is detected, and advances the process to S412 when the touchdown is not detected.
In S419, the system control unit 250 performs absolute position control to change the display position of the AF frame on the display unit 176 in the finder. More specifically, the system control unit 250 controls to move the AF frame to the position of the display unit 176 in the finder corresponding to the position of the touch panel 170a where the touchdown (start of touch operation) is detected in S418 and display the AF frame. I do. FIG. 3B described above is an example of absolute position control in S419.
In the state shown in FIG. 3B, the digital camera 100 is set to the absolute position, and the system control unit 250 performs the absolute position control. The absolute position control is a control for displaying an item indicating a position such as an AF frame displayed on at least one of the display unit 176 in the finder and the display unit 128 at a position based on the touch start position of the touch operation. In the absolute position control, the AF frame is displayed at the position of the display unit 176 in the finder based on the position where the touch operation is performed, not based on the position where the AF frame was displayed before the touch operation is detected. As shown in FIG. 3B, the AF frame is displayed on the display unit 176 in the finder. In the example of FIG. 3B, the system control unit 250 controls to move the AF frame of the display unit 176 in the finder from the position 300 to the position 302 and display it based on the touch on the touch panel 170a by the user. The position 302 is the position of the display unit 176 in the finder corresponding to the position of the touch panel 170a touched by the user. When the user wants to move the AF frame to a position away from the current AF frame position, the user does not have to perform the touch move operation many times until the AF frame moves to that position by touchdown operation (that is, more). The AF frame can be moved to a desired position (with a small amount of operation).

S420において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、ユーザの指のタッチ位置座標、及び、タッチ位置の時間変化から、指のタップ操作、指の移動方向、及び、移動距離を検出する。こうして、システム制御部250は、タッチ操作の入力状態を取得する。
S421において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、タッチアップを検出したか否かを判定する。システム制御部250は、タッチアップを検出したとき処理をS412に進め、タッチアップを検出していないとき再度S419を実行する。
In S420, the system control unit 250 sets the finger tap operation, the finger movement direction, and the movement based on the touch position coordinates of the user's finger and the time change of the touch position based on the output from the touch sensor input circuit. Detect the distance. In this way, the system control unit 250 acquires the input state of the touch operation.
In S421, the system control unit 250 determines whether or not the touch-up is detected based on the output from the touch sensor input circuit. The system control unit 250 advances the process to S412 when the touch-up is detected, and executes S419 again when the touch-up is not detected.

S422において、システム制御部250は、ファインダ内表示部176の表示を停止する。すなわち、システム制御部250は、ファインダ内表示部176をOFFにする。
S423において、システム制御部250は、モニタ駆動回路を制御し表示部128の表示を開始する。すなわち、システム制御部250は、表示部128をONにする。この際、システム制御部250は、被写体観察用の画像を表示部128に表示して、スルー画像表示を行う。
S424において、システム制御部250は、表示部128の表示範囲にAF枠を表示する制御を行う。AF枠の表示位置は初期設定位置として表示範囲の中央に表示する。ただし、システム制御部250は、予め設定された位置があれば、その場所にAF枠を表示してもよい。
In S422, the system control unit 250 stops the display of the display unit 176 in the finder. That is, the system control unit 250 turns off the display unit 176 in the finder.
In S423, the system control unit 250 controls the monitor drive circuit and starts displaying the display unit 128. That is, the system control unit 250 turns on the display unit 128. At this time, the system control unit 250 displays an image for observing the subject on the display unit 128 to display a through image.
In S424, the system control unit 250 controls to display the AF frame in the display range of the display unit 128. The display position of the AF frame is displayed in the center of the display range as the initial setting position. However, if there is a preset position, the system control unit 250 may display the AF frame at that position.

S425において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、タッチダウンを検出したか否かを判定する。システム制御部250は、タッチダウンを検出したとき処理をS426に進め、タッチダウンを検出していないとき処理をS412に進める。
S426において、システム制御部250は、絶対位置制御を行って、表示部128におけるAF枠の表示位置を変更する。より具体的には、システム制御部250は、S425でタッチダウンが検出されたタッチパネル170aに対応する表示部128の位置にAF枠を移動させて表示する制御を行う。このとき、システム制御部250は、絶対位置制御を行う。
図3Eの例では、ユーザによるタッチパネル170aに対するタッチに基づいて、システム制御部250は、表示部128のAF枠を、位置300から位置305に移動させて表示する制御を行う。位置305は、ユーザによってタッチされたタッチパネル170aの位置に対応する表示部128の位置である。
In S425, the system control unit 250 determines whether or not a touchdown has been detected based on the output from the touch sensor input circuit. The system control unit 250 advances the process to S426 when the touchdown is detected, and advances the process to S412 when the touchdown is not detected.
In S426, the system control unit 250 performs absolute position control to change the display position of the AF frame on the display unit 128. More specifically, the system control unit 250 controls to move the AF frame to the position of the display unit 128 corresponding to the touch panel 170a in which the touchdown is detected in S425 and display the AF frame. At this time, the system control unit 250 performs absolute position control.
In the example of FIG. 3E, the system control unit 250 controls the AF frame of the display unit 128 to move from the position 300 to the position 305 for display based on the touch on the touch panel 170a by the user. The position 305 is the position of the display unit 128 corresponding to the position of the touch panel 170a touched by the user.

S427において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、ユーザの指のタッチ位置座標、及び、タッチ位置の時間変化から、指のタップ操作、指の移動方向、及び、移動距離を検出する。こうして、システム制御部250は、タッチ操作の入力状態を取得する。
S428において、システム制御部250は、タッチセンサ入力回路からの出力に基づいて、タッチアップを検出したか否かを判定する。システム制御部250は、タッチアップを検出したとき処理をS412に進め、タッチアップを検出していないとき再度S426を実行する。
In S427, the system control unit 250 sets the finger tap operation, the finger movement direction, and the movement from the touch position coordinates of the user's finger and the time change of the touch position based on the output from the touch sensor input circuit. Detect the distance. In this way, the system control unit 250 acquires the input state of the touch operation.
In S428, the system control unit 250 determines whether or not the touch-up is detected based on the output from the touch sensor input circuit. The system control unit 250 advances the process to S412 when the touch-up is detected, and executes S426 again when the touch-up is not detected.

以上説明したように、表示部128の開閉状態に基づいて相対位置制御と相対位置制御とを切り替えることで、ユーザが接眼ファインダ116を覗いた状態におけるユーザのタッチ操作の操作性を向上させることができる。さらに、ユーザの意図しない設定がされる可能性を低減させることができる。 As described above, by switching between the relative position control and the relative position control based on the open / closed state of the display unit 128, it is possible to improve the operability of the user's touch operation when the user looks into the eyepiece finder 116. it can. Further, it is possible to reduce the possibility that the setting is not intended by the user.

また、ユーザがデジタルカメラ100を縦姿勢、及び、横姿勢のどちらの姿勢で保持しているかによってタッチ入力操作がしやすい領域は変わる。したがって、本実施形態で説明したように、デジタルカメラ100の姿勢に基づいて相対位置制御と絶対位置制御とを切り替えることで、ユーザが接眼ファインダ116を覗いたユーザのタッチ操作の操作性を向上させることができる。 Further, the area where the touch input operation is easy to perform changes depending on whether the user holds the digital camera 100 in the vertical posture or the horizontal posture. Therefore, as described in the present embodiment, by switching between the relative position control and the absolute position control based on the posture of the digital camera 100, the operability of the user's touch operation in which the user looks into the eyepiece finder 116 is improved. be able to.

上述の実施形態では、表示部128が閉じている状態では表示部128はファインダ内表示部176のすぐ下に収納され、表示部128が開いた状態では表示部128は本体部110の左方向に位置する。しかし、表示部128が開いた状態では、表示部128は本体部110の下方向に位置してもよい。また、図1(b)に示すように表示部128は、デジタルカメラ100を背面から見たとき、デジタルカメラ100の背面の右側に位置するSETボタン175等の操作部170とは反対側の左方向に開く。しかし、操作部170とSETボタン175等の操作部170との位置関係が逆の場合、表示部128は右側に開く構成としてもよい。 In the above-described embodiment, the display unit 128 is housed immediately below the display unit 176 in the finder when the display unit 128 is closed, and the display unit 128 is moved to the left of the main body unit 110 when the display unit 128 is open. To position. However, when the display unit 128 is open, the display unit 128 may be located in the downward direction of the main body unit 110. Further, as shown in FIG. 1B, when the digital camera 100 is viewed from the back side, the display unit 128 is located on the right side of the back side of the digital camera 100 and is located on the left side opposite to the operation unit 170 such as the SET button 175. Open in the direction. However, if the positional relationship between the operation unit 170 and the operation unit 170 such as the SET button 175 is opposite, the display unit 128 may be configured to open to the right.

また、上述の実施形態では、絶対位置制御、及び、相対位置制御のいずれの場合も、AF枠は同一の表示として説明した。しかし、タッチ入力方法の制御が相対位置制御と絶対位置制御のどちらであるかをユーザが判別しやすいように、AF枠を、絶対位置制御、及び、相対位置制御で異なる表示としてもよい。例えば、AF枠の色の変更、実線・点線、大きさの変更、点滅・点灯表示等で表示を変更してもよい。また、システム制御部250は、AF枠の表示方法を変更する以外の方法で、相対位置制御、及び、絶対位置制御のいずれの制御を行っているかを判別できる情報を表示する制御を行ってもよい。
なお、上述した実施形態においては、デジタルカメラ100の姿勢が縦姿勢の場合には相対位置制御を行うことを説明したが、絶対位置制御のままでもよい。また、以下のようにしてもよい。つまり、相対位置制御にしてタッチ有効領域を例えば、図3Cの場合は第1領域303にして、小さくしてもよい。縦姿勢の場合に絶対位置制御とする場合には、タッチ有効領域をタッチパネル170aの全面でなく、一部の領域にするとよい。すなわち、例えば、図3Cの場合には第1領域303、図3Dの場合には第2領域304にしてもよい。
また、図3Cの第1領域303と図3Dの第2領域304は図示したものに限らず、例えば、例えばタッチパネル170aのX軸Y軸の共に中央付近の領域でもよいし、Y軸方向の所定値以上の領域としてもよい。
Further, in the above-described embodiment, the AF frame is described as the same display in both the absolute position control and the relative position control. However, the AF frame may be displayed differently for the absolute position control and the relative position control so that the user can easily determine whether the control of the touch input method is the relative position control or the absolute position control. For example, the display may be changed by changing the color of the AF frame, changing the solid line / dotted line, changing the size, blinking / lighting display, or the like. Further, the system control unit 250 may perform control for displaying information capable of determining which of relative position control and absolute position control is being performed by a method other than changing the display method of the AF frame. Good.
In the above-described embodiment, it has been described that the relative position control is performed when the posture of the digital camera 100 is the vertical posture, but the absolute position control may be used as it is. Further, the following may be performed. That is, the relative position control may be performed to reduce the touch effective region to, for example, the first region 303 in the case of FIG. 3C. When the absolute position is controlled in the vertical posture, the touch effective area may be a part of the touch panel 170a instead of the entire surface. That is, for example, in the case of FIG. 3C, it may be the first region 303, and in the case of FIG. 3D, it may be the second region 304.
Further, the first region 303 in FIG. 3C and the second region 304 in FIG. 3D are not limited to those shown in the drawings, and for example, both the X-axis and the Y-axis of the touch panel 170a may be regions near the center, or may be a predetermined region in the Y-axis direction. The area may be greater than or equal to the value.

また、上述の実施形態では、オートフォーカスを行うために使われるAF枠を表示する制御について説明した。しかし、オートフォーカス以外に使われるターゲット枠の表示についても、本実施形態と同様に制御してもよい。例えば、AE(自動露出)、露出設定、ISO感度設定等を行うために使われるターゲット枠の表示についても、本実施形態と同様に制御してもよい。
また、上述した実施形態では接眼ファインダ116を覗いている場合の表示部128の位置により、絶対位置制御(絶対座標設定)と相対位置制御(相対座標設定)とを変えるものとして説明をした。しかし、接眼ファインダ116を覗いていないときにも適用してもよい。すなわちタッチパッドのある装置からHDMI(登録商標)や無線を用いて外部出力先に表示をしているような場合にも適用可能である。例えば、タッチパッドと他の操作部との位置関係を変更可能な場合において、他の操作部とタッチパッドの位置が近い場合には、相対位置制御をし、遠い場合には、絶対位置制御をしてもよい。また、ノートPC等のタッチパッドを操作して画面上のカーソルや指標を操作する場合にも適用可能である。
Further, in the above-described embodiment, the control for displaying the AF frame used for performing autofocus has been described. However, the display of the target frame used other than the autofocus may be controlled in the same manner as in the present embodiment. For example, the display of the target frame used for performing AE (automatic exposure), exposure setting, ISO sensitivity setting, and the like may be controlled in the same manner as in the present embodiment.
Further, in the above-described embodiment, it has been described that the absolute position control (absolute coordinate setting) and the relative position control (relative coordinate setting) are changed depending on the position of the display unit 128 when looking into the eyepiece finder 116. However, it may be applied even when the eyepiece finder 116 is not being looked into. That is, it can also be applied to a case where a device having a touch pad displays to an external output destination using HDMI (registered trademark) or wirelessly. For example, when the positional relationship between the touchpad and another operation unit can be changed, relative position control is performed when the position of the touchpad is close to that of the other operation unit, and absolute position control is performed when the position is far. You may. It can also be applied when operating a touch pad of a notebook PC or the like to operate a cursor or an index on the screen.

なお、上述の各種実施形態では、AF処理を行う位置を移動する操作について説明をしたが、これに限らず様々な処理を行う位置(領域)を設定(選択)に適用可能である。例えば、特定の人物の顔に合焦する顔AF枠の選択や、拡大位置(ズームイン、ズームアウト)の選択等に適用可能である。さらに、AE(オートエクスポージャー、自動露出設定)、WB(ホワイトバランス)といった処理を行う際に、処理を行う際の基準となる被写体や位置や領域を選択する場合にも適用可能である。さらに、画像、アイテムを掴んで移動する際にも、適用可能である。 In the above-mentioned various embodiments, the operation of moving the position where the AF processing is performed has been described, but the present invention is not limited to this, and the position (area) where various processing is performed can be applied to the setting (selection). For example, it can be applied to the selection of a face AF frame that focuses on the face of a specific person, the selection of an enlarged position (zoom in, zoom out), and the like. Further, it can be applied to select a subject, a position or an area as a reference when performing processing such as AE (auto exposure, automatic exposure setting) and WB (white balance). Furthermore, it can be applied when grabbing and moving images and items.

また、上述の実施形態では、システム制御部250は、タッチパネル170aの全体をユーザがタッチ操作可能な領域にする制御を行う。しかし、システム制御部250は、デジタルカメラ100の設定や状態等に基づいて、タッチパネル170aにおけるユーザがタッチ操作可能な領域を変更する制御を行ってもよい。例えば、システム制御部250は、表示部128が閉じた状態のタッチパネル170aのタッチ操作が可能な領域よりも、表示部128が開いた状態のタッチパネル170aのタッチ操作が可能な領域の方を、広くするように制御してもよい。 Further, in the above-described embodiment, the system control unit 250 controls the entire touch panel 170a to be a touch-operable area by the user. However, the system control unit 250 may perform control to change the area of the touch panel 170a that can be touch-operated by the user, based on the settings and states of the digital camera 100. For example, the system control unit 250 has a wider area where the touch panel 170a can be touched when the display unit 128 is open than the area where the touch panel 170a can be touched when the display unit 128 is closed. It may be controlled to do so.

なお、システム制御部250が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェアが処理を分担することで、デジタルカメラ100全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
The above-mentioned various controls described as being performed by the system control unit 250 may be performed by one hardware, or the entire digital camera 100 may be controlled by sharing the processing among a plurality of hardware. May be good.
Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明をデジタルカメラに適用した場合を例にして説明したが、これはこの例に限定されずタッチパネルを備えた撮像装置であれば適用可能である。すなわち、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォンに適用可能である。また、本発明は投影装置、ディスプレイを備える家電装置や車載装置等に適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to a digital camera has been described as an example, but this is not limited to this example, and any image pickup device provided with a touch panel can be applied. That is, the present invention is applicable to personal computers, PDAs, mobile phone terminals, portable image viewers, printer devices equipped with displays, digital photo frames, music players, game consoles, electronic book readers, tablet terminals, and smartphones. Further, the present invention can be applied to a home appliance device including a projection device and a display, an in-vehicle device, and the like.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or recording medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 デジタルカメラ、128 表示部、170a タッチパネル、176 ファインダ内表示部、250 システム制御部 100 digital camera, 128 display unit, 170a touch panel, 176 finder display unit, 250 system control unit

Claims (16)

ファインダの外にあるタッチパネルへのタッチ操作を検出可能なタッチ検出手段と、
前記タッチパネルの位置を、本体部に対して、少なくとも第1の位置と、前記第1の位置よりも前記ファインダから離れた位置である第2の位置とへと変更可能な変更手段と、
前記ファインダを介して視認可能なファインダ内表示部にアイテムが表示されている際に、前記タッチパネルが前記第1の位置である場合には、前記タッチパネルへのタッチの開始がされても、前記タッチの開始された位置に対応する前記ファインダ内表示部の位置に前記アイテムを表示せず、タッチ位置が移動したことに応じてタッチ位置の移動に応じた分、前記タッチの開始がされる前に前記アイテムの表示されていた位置から前記アイテムを移動し、
前記タッチパネルが前記第2の位置である場合には、前記タッチパネルへのタッチの開始がされたことに応じて、前記タッチの開始位置に応じた前記ファインダ内表示部の位置に前記アイテムを表示するように制御する制御手段と、を有することを特徴とする撮像装置。
Touch detection means that can detect touch operations on the touch panel outside the finder,
A changing means capable of changing the position of the touch panel to at least a first position with respect to the main body and a second position that is farther from the finder than the first position.
When an item is displayed on the display unit in the finder that can be visually recognized via the finder, if the touch panel is in the first position, the touch is started even if the touch to the touch panel is started. The item is not displayed at the position of the display unit in the finder corresponding to the start position of, and the amount corresponding to the movement of the touch position according to the movement of the touch position is before the start of the touch. Move the item from the displayed position of the item,
When the touch panel is in the second position, the item is displayed at the position of the display unit in the finder according to the start position of the touch in response to the start of touching the touch panel. An imaging device comprising: a control means for controlling such as.
前記タッチパネルが前記第1の位置にある場合、及び、前記タッチパネルが前記第2の位置にある場合には、前記タッチパネルのタッチ面の向く方向は共に前記撮像装置の背面の向く方向と同じ方向であることを特徴とする請求項1に記載の撮像装置。 When the touch panel is in the first position and when the touch panel is in the second position, the direction in which the touch surface of the touch panel faces is the same as the direction in which the back surface of the image pickup apparatus faces. The imaging apparatus according to claim 1, wherein the image pickup apparatus is provided. 前記第1の位置は、前記タッチパネルが前記撮像装置に収納された状態の位置であることを特徴とする請求項1又は2に記載の撮像装置。 The imaging device according to claim 1 or 2, wherein the first position is a position in which the touch panel is housed in the imaging device. 前記第2の位置は、前記タッチパネルが前記撮像装置に収納されておらず、開いた状態の位置であることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 3, wherein the second position is a position in which the touch panel is not housed in the imaging device and is in an open state. 前記アイテムの表示位置に基づいて所定の処理を行う処理手段を更に有することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 4, further comprising a processing means for performing a predetermined process based on the display position of the item. 前記アイテムは、AF位置を示すアイテムであることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 5, wherein the item is an item indicating an AF position. 前記制御手段は、前記タッチパネルが前記第1の位置にある場合の前記タッチパネルのタッチ操作が可能な領域よりも、前記第2の位置にある場合の前記タッチパネルのタッチ操作が可能な領域の方を、広くするように制御することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。 The control means means that the area where the touch panel can be touch-operated when the touch panel is in the second position is larger than the area where the touch panel can be touch-operated when the touch panel is in the first position. The imaging apparatus according to any one of claims 1 to 6, wherein the image pickup device is controlled so as to be wide. 前記制御手段は、
前記タッチパネルが前記第2の位置であり、かつ、前記撮像装置の姿勢が縦姿勢である場合、前記タッチパネルへのタッチの開始がされても、前記タッチの開始された位置に対応する前記ファインダ内表示部の位置に前記アイテムを表示せず、タッチ位置が移動したことに応じてタッチ位置の移動に応じた分、前記タッチの開始がされる前に前記アイテムの表示されていた位置から前記アイテムを移動し、
前記タッチパネルが前記第2の位置であり、かつ、前記撮像装置の姿勢が横姿勢である場合、前記タッチパネルへのタッチの開始がされたことに応じて、前記タッチの開始位置に応じた前記ファインダ内表示部の位置に前記アイテムを表示するように制御することを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。
The control means
When the touch panel is in the second position and the posture of the imaging device is in the vertical posture, even if the touch to the touch panel is started, the inside of the finder corresponding to the position where the touch is started. The item is not displayed at the position of the display unit, and the item is displayed from the position where the item was displayed before the start of the touch by the amount corresponding to the movement of the touch position according to the movement of the touch position. Move and
When the touch panel is in the second position and the posture of the imaging device is in the horizontal posture, the finder corresponding to the start position of the touch in response to the start of touching the touch panel. The imaging device according to any one of claims 1 to 7, wherein the item is controlled to be displayed at a position of an inner display unit.
前記アイテムの表示先をファインダ内表示部と前記タッチパネルと一体となる表示部とで切替可能な切替手段をさらに有することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 1 to 8, further comprising a switching means capable of switching the display destination of the item between the display unit in the finder and the display unit integrated with the touch panel. 前記制御手段は、前記表示部に前記アイテムが表示されている際には、前記タッチパネルが前記第1の位置でも前記第2の位置でも、タッチの開始位置に応じた前記表示部の位置に前記アイテムを表示するように制御することを特徴とする請求項9に記載の撮像装置。 When the item is displayed on the display unit, the control means moves the touch panel to the position of the display unit according to the touch start position regardless of whether the touch panel is in the first position or the second position. The imaging device according to claim 9, wherein the image pickup device is controlled so as to display an item. 前記制御手段は、前記ファインダ内表示部に前記アイテムが表示されている際に、前記タッチパネルが前記第1の位置である場合には、前記タッチパネルへのタッチの開始がされても、前記タッチの開始された位置に対応する位置に前記アイテムを表示せず、タッチ位置が移動したことに応じてタッチ位置の移動に応じた分、前記タッチの開始がされる前に前記アイテムの表示されていた位置から前記アイテムを移動し、
前記タッチパネルが前記第2の位置である場合には、前記タッチパネルへのタッチの開始がされたことに応じて、前記タッチの開始位置に応じた位置に前記アイテムを表示するように制御することを特徴とする請求項10に記載の撮像装置。
When the item is displayed on the display unit in the finder, if the touch panel is in the first position, the control means can touch the touch panel even if the touch to the touch panel is started. The item was not displayed at the position corresponding to the started position, and the item was displayed before the start of the touch by the amount corresponding to the movement of the touch position according to the movement of the touch position. Move the item from the position and
When the touch panel is in the second position, the item is controlled to be displayed at a position corresponding to the start position of the touch in response to the start of touching the touch panel. The imaging apparatus according to claim 10.
前記ファインダへ物体が接近したことを検出する接近検出手段をさらに有し、
前記切替手段は、前記接近検出手段が前記ファインダへ物体が接近したことを検出したことに応じて前記ファインダ内表示部に前記アイテムを表示するように制御することを特徴とする請求項9乃至11のいずれか1項に記載の撮像装置。
Further having an approach detecting means for detecting that an object has approached the finder,
Claims 9 to 11 are characterized in that the switching means controls the approach detecting means to display the item on the display unit in the finder in response to detecting that an object has approached the finder. The imaging apparatus according to any one of the above.
前記切替手段は、撮像部で取得したスルー画像の表示先を切り替え可能であることを特徴とする請求項9乃至12のいずれか1項に記載の撮像装置。 The imaging device according to any one of claims 9 to 12, wherein the switching means can switch the display destination of the through image acquired by the imaging unit. タッチパネルの位置を、本体部に対して、少なくとも第1の位置と、前記第1の位置よりもファインダから離れた位置である第2の位置とへと変更可能な変更手段を有する撮像装置の制御方法であって、
前記ファインダの外にある前記タッチパネルへのタッチ操作を検出可能なタッチ検出ステップと、
前記ファインダを介して視認可能なファインダ内表示部にアイテムが表示されている際に、前記タッチパネルが前記第1の位置である場合には、前記タッチパネルへのタッチの開始がされても、前記タッチの開始された位置に対応する前記ファインダ内表示部の位置に前記アイテムを表示せず、タッチ位置が移動したことに応じてタッチ位置の移動に応じた分、前記タッチの開始がされる前に前記アイテムの表示されていた位置から前記アイテムを移動し、
前記タッチパネルが前記第2の位置である場合には、前記タッチパネルへのタッチの開始がされたことに応じて、前記タッチの開始位置に応じた前記ファインダ内表示部の位置に前記アイテムを表示するように制御する制御ステップと、を有することを特徴とする撮像装置の制御方法。
Control of an imaging device having means for changing the position of the touch panel to at least a first position with respect to the main body and a second position that is farther from the finder than the first position. It's a method
A touch detection step capable of detecting a touch operation on the touch panel outside the finder, and
When an item is displayed on the display unit in the finder that can be visually recognized via the finder, if the touch panel is in the first position, the touch is started even if the touch to the touch panel is started. The item is not displayed at the position of the display unit in the finder corresponding to the start position of, and the amount corresponding to the movement of the touch position according to the movement of the touch position is before the start of the touch. Move the item from the displayed position of the item,
When the touch panel is in the second position, the item is displayed at the position of the display unit in the finder according to the start position of the touch in response to the start of touching the touch panel. A control method for an imaging device, which comprises a control step for controlling such as.
コンピュータを、請求項1乃至13のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image pickup apparatus according to any one of claims 1 to 13. コンピュータを、請求項1乃至13のいずれか1項に記載された撮像装置の各手段として機能させるためのプログラムを記録したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium that records a program for causing the computer to function as each means of the imaging apparatus according to any one of claims 1 to 13.
JP2017094027A 2017-05-10 2017-05-10 Imaging device, control method of imaging device, program, and recording medium Active JP6855317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017094027A JP6855317B2 (en) 2017-05-10 2017-05-10 Imaging device, control method of imaging device, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094027A JP6855317B2 (en) 2017-05-10 2017-05-10 Imaging device, control method of imaging device, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2018191221A JP2018191221A (en) 2018-11-29
JP6855317B2 true JP6855317B2 (en) 2021-04-07

Family

ID=64479117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094027A Active JP6855317B2 (en) 2017-05-10 2017-05-10 Imaging device, control method of imaging device, program, and recording medium

Country Status (1)

Country Link
JP (1) JP6855317B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5613005B2 (en) * 2010-10-18 2014-10-22 オリンパスイメージング株式会社 camera
JP2015023351A (en) * 2013-07-17 2015-02-02 キヤノン株式会社 Imaging apparatus

Also Published As

Publication number Publication date
JP2018191221A (en) 2018-11-29

Similar Documents

Publication Publication Date Title
JP5620947B2 (en) Electronic device, control method therefor, program, and storage medium
US10212335B2 (en) Electronic apparatus and control method therefor
JP7009096B2 (en) Electronic devices and their control methods
WO2018021165A1 (en) Electronic device and method for controlling same
KR20170063388A (en) Electronic device and method for controlling the same
JP6701033B2 (en) Electronic device and control method thereof
US10742869B2 (en) Image pickup apparatus and control method for image pickup apparatus
JP6860368B2 (en) Electronic devices, their control methods, programs and storage media
CN112015266A (en) Electronic device, control method of electronic device, and computer-readable storage medium
JP2021068208A (en) Electronic apparatus, control method for electronic apparatus, program, storage medium
JP2015228270A (en) Electronic device, electronic device control method, program, and storage medium
US11169684B2 (en) Display control apparatuses, control methods therefor, and computer readable storage medium
JP7121612B2 (en) IMAGING CONTROL DEVICE AND CONTROL METHOD THEREOF, PROGRAM, AND STORAGE MEDIUM
JP6855317B2 (en) Imaging device, control method of imaging device, program, and recording medium
JP2021140590A (en) Electronic device, control method for electronic device, program, and storage medium
US10530988B2 (en) Electronic apparatus and control method thereof
JP6779777B2 (en) Imaging control device and its control method
JP2021097356A (en) Imaging control device
JP2021092958A (en) Electronic apparatus, control method thereof, program, and storage medium
JP2020197976A (en) Electronic apparatus, control method for electronic apparatus, program, and recording medium
US11418715B2 (en) Display control apparatus and control method therefor
JP2018023068A (en) Electronic device, control method thereof, and program
JP6976707B2 (en) Electronic devices and their control methods
JP6239077B2 (en) Electronic device, control method therefor, program, and storage medium
JP2021180437A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210317

R151 Written notification of patent or utility model registration

Ref document number: 6855317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151