JP2014038195A - Photographing equipment - Google Patents

Photographing equipment Download PDF

Info

Publication number
JP2014038195A
JP2014038195A JP2012180198A JP2012180198A JP2014038195A JP 2014038195 A JP2014038195 A JP 2014038195A JP 2012180198 A JP2012180198 A JP 2012180198A JP 2012180198 A JP2012180198 A JP 2012180198A JP 2014038195 A JP2014038195 A JP 2014038195A
Authority
JP
Japan
Prior art keywords
display
unit
control unit
user
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012180198A
Other languages
Japanese (ja)
Inventor
Manabu Kato
加藤  学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2012180198A priority Critical patent/JP2014038195A/en
Publication of JP2014038195A publication Critical patent/JP2014038195A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability of a user looking through a finder.SOLUTION: Photographing equipment includes: an imaging unit that photographs a subject; an eyepiece first display unit that performs display based on the photographed image obtained by photographing with the imaging unit; a display control unit that displays operation display on the first display unit; a touch panel that receives operations; and a control unit that emphasizes and displays a part of the operation display according to a contact position on the touch panel in an eye-contact state, determines the part in a non-contact state, and performs processing corresponding to the part.

Description

本発明は、タッチパネルを備えた撮影機器に関する。   The present invention relates to an imaging device provided with a touch panel.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)が普及している。この種の撮影機器においては表示部を有して、撮影画像を表示する機能を有するものもある。また、表示部にメニュー画面を表示して、撮影機器の操作を容易にしたものもある。更に、表示部にタッチパネルを配置して、タッチパネルに対するタッチ操作によって撮影機器の操作が可能なものもある。   In recent years, portable devices with a photographing function (photographing devices) such as digital cameras have become widespread. Some types of photographing apparatuses have a display unit and a function of displaying a photographed image. Some display screens display a menu screen to facilitate operation of the photographing device. In addition, there is a display device in which a touch panel is arranged so that the photographing apparatus can be operated by a touch operation on the touch panel.

このような表示部は、携帯機器本体の背面に設けられることが多く、ユーザは撮影時に、背面の表示部に表示されたスルー画を確認しながら撮影操作をすることも可能である。また、例えば撮影機器本体の上面にファインダ(接眼部)が設けられることもある。一眼デジタルカメラ、デジタルビデオカメラなどにおいては、画像の構図や撮影のタイミングを確認するためにファインダ(接眼部)が設けられており、ファインダを覗きながら撮影するユーザも少なくない。   Such a display unit is often provided on the back surface of the mobile device body, and the user can also perform a shooting operation while confirming a through image displayed on the display unit on the back side during shooting. Further, for example, a finder (eyepiece) may be provided on the upper surface of the photographing apparatus main body. In single-lens digital cameras, digital video cameras, and the like, a finder (eyepiece) is provided to check the composition of an image and the timing of shooting, and many users take pictures while looking through the finder.

特に周りが明るく、背面の表示部の視認性が悪化している場合には、ファインダを覗いて撮影が行われる。また、一眼デジタルカメラにおいて、大きなレンズを装着するときも、ファインダを覗きながら撮影される。   In particular, when the surroundings are bright and the visibility of the display unit on the back is deteriorated, the image is taken through the viewfinder. Also, in a single-lens digital camera, when a large lens is attached, the image is taken while looking through the viewfinder.

しかしながら、ファインダを覗いた場合には、背面の表示部を目視することができず、背面の表示部に表示されたアイコン等をダイレクトにタッチする操作は困難である。このため、ファインダを覗きながら撮影を行う場合でも、モード切換えや設定値の変更操作等のために表示部のタッチパネル操作が必要なときには、操作のためにファインダから目を離す必要があり、シャッターチャンスを逃す虞がある。   However, when looking through the viewfinder, the display unit on the back cannot be seen, and it is difficult to directly touch an icon or the like displayed on the display unit on the back. For this reason, even when taking a picture while looking through the viewfinder, if it is necessary to operate the touch panel of the display unit for mode switching or setting value change operation, it is necessary to keep an eye on the viewfinder for the operation. There is a risk of missing.

そこで、特許文献1においては、フレームに凹凸の目印を付けることで、ファインダを覗きながら表示部のタッチ操作を容易にした装置が提案されている。   Therefore, Patent Document 1 proposes an apparatus that facilitates touch operation of the display unit while peeking through the finder by attaching uneven marks to the frame.

特開2010−134077号公報     JP 2010-134077 A

しかしながら、特許文献1の発明においては、ユーザは予め操作すべき位置を記憶しておく必要がある。また指の触覚に頼りながら操作を行う必要があり、誤操作が生じやすい。また、特許文献1の発明においては、タッチ操作の位置をフレームの凹凸に合わせて決定する必要があり、タッチ操作位置の仕様に制約が生じるという問題があった。   However, in the invention of Patent Document 1, the user needs to store a position to be operated in advance. Further, it is necessary to perform an operation while relying on the sense of touch of the finger, and an erroneous operation is likely to occur. Further, in the invention of Patent Document 1, it is necessary to determine the position of the touch operation according to the unevenness of the frame, and there is a problem that the specification of the touch operation position is restricted.

本発明は、ファインダを覗いた状態での操作性を向上させることができる撮影機器を提供することを目的とする。   An object of this invention is to provide the imaging device which can improve the operativity in the state which looked at the finder.

本発明に係る撮影機器は、被写体を撮像する撮像部と、上記撮像部で撮像して得た撮像画像に基づく表示を行う接眼式の第1の表示部と、上記第1の表示部に操作表示を表示させる表示制御部と、操作を受け付けるタッチパネルと、接眼時において、上記タッチパネルの接触位置に応じた上記操作表示の部分を強調表示し、非接触によって上記部分を確定して上記部分に対応する処理を実行する制御部とを具備する。   An imaging apparatus according to the present invention includes an imaging unit that images a subject, an eyepiece-type first display unit that performs display based on a captured image obtained by imaging with the imaging unit, and an operation on the first display unit. A display control unit for displaying the display, a touch panel that accepts an operation, and a portion of the operation display corresponding to the touch position of the touch panel is highlighted when the eye is in contact, and the portion is determined by non-contact to correspond to the portion And a control unit for executing the processing.

本発明によれば、ファインダを覗いた状態での操作性を向上させることができるという効果を有する。   According to the present invention, it is possible to improve the operability when looking through the viewfinder.

本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of a photographing apparatus according to a first embodiment of the present invention. 撮影時における撮影機器1の外観を示す説明図。Explanatory drawing which shows the external appearance of the imaging device 1 at the time of imaging | photography. 撮影時における撮影機器1の構え方を示す説明図。Explanatory drawing which shows the holding method of the imaging device 1 at the time of imaging | photography. モード設定時の画面表示を説明するための説明図。Explanatory drawing for demonstrating the screen display at the time of mode setting. パラメータの設定操作を説明するための説明図。Explanatory drawing for demonstrating parameter setting operation. 第1の実施の形態の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of 1st Embodiment. 本発明の第2の実施の形態を示す説明図。Explanatory drawing which shows the 2nd Embodiment of this invention. 第2の実施の形態におけるタッチ判定を示すフローチャート。The flowchart which shows the touch determination in 2nd Embodiment. 変形例を示す説明図。Explanatory drawing which shows a modification.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図である。本実施の形態における撮影機器1は、本体部10及び交換レンズ20によって構成されている。本体部10は、撮影機器1の主要な回路部分が収納された筐体であり、前面に交換レンズ20が着脱自在に取り付けられている。
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of the photographing apparatus according to the first embodiment of the present invention. The photographing apparatus 1 in the present embodiment is configured by a main body 10 and an interchangeable lens 20. The main body 10 is a housing in which main circuit portions of the photographing apparatus 1 are housed, and an interchangeable lens 20 is detachably attached to the front surface.

交換レンズ20は、本体部10の撮像部12に被写体像を導くレンズ部21を有している。レンズ部21は、ズームやフォーカシングのためのレンズ等を備えており、これらのレンズを駆動制御するための操作部22を備えている。ズームリングやピントリング等によって構成される操作部22の操作によって、ピントのみならず、ズーム位置や絞りの調整も可能である。   The interchangeable lens 20 includes a lens unit 21 that guides a subject image to the imaging unit 12 of the main body unit 10. The lens unit 21 includes a lens for zooming and focusing, and the like, and includes an operation unit 22 for driving and controlling these lenses. By operating the operation unit 22 configured by a zoom ring, a focus ring, or the like, not only the focus but also the zoom position and the aperture can be adjusted.

操作部22は、ユーザ操作に基づく操作信号を制御部23に出力する。制御部23は、マイコン等によって構成されており、操作部22からの操作信号に基づいて、回転操作及びシフト操作に基づくフォーカス信号及びズーム信号を発生して、駆動部24を制御する。   The operation unit 22 outputs an operation signal based on a user operation to the control unit 23. The control unit 23 is configured by a microcomputer or the like, and generates a focus signal and a zoom signal based on a rotation operation and a shift operation based on an operation signal from the operation unit 22 to control the drive unit 24.

モーター等によって構成された駆動部24は、レンズ部21に設けられたピント合わせに関連するピントレンズ及びズーミングに関連するズームレンズを駆動し、ピント制御及びズーム制御を行う。レンズ部21にはピント制御部21a、ズーム制御部21b及び絞り制御部21cが設けられている。ピント制御部21aはピントレンズの位置に対応した信号をピント位置判定部25aに出力する。また、ズーム制御部21bはズームレンズの位置(ズーム位置)に対応した信号をズーム位置判定部25bに出力する。絞り制御部21cは、レンズ内の軸状光束を制限するための絞り制御部である。   The drive unit 24 configured by a motor or the like drives a focus lens related to focusing and a zoom lens related to zooming provided in the lens unit 21 to perform focus control and zoom control. The lens unit 21 is provided with a focus control unit 21a, a zoom control unit 21b, and an aperture control unit 21c. The focus control unit 21a outputs a signal corresponding to the position of the focus lens to the focus position determination unit 25a. Further, the zoom control unit 21b outputs a signal corresponding to the position (zoom position) of the zoom lens to the zoom position determination unit 25b. The aperture controller 21c is an aperture controller for limiting the axial light flux in the lens.

ピント位置判定部25aは、ピント制御部21aの出力に基づいてピント位置を判定して判定結果を制御部23に出力する。ズーム位置判定部25bは、ズーム制御部21bの出力に基づいてズーム位置を判定して判定結果を制御部23に出力する。制御部23は、ピント位置及びズーム位置の判定結果が与えられ、操作部22の操作に対応したピント位置及びズーム位置となるように、駆動部24を制御する。   The focus position determination unit 25 a determines the focus position based on the output of the focus control unit 21 a and outputs the determination result to the control unit 23. The zoom position determination unit 25 b determines the zoom position based on the output of the zoom control unit 21 b and outputs the determination result to the control unit 23. The control unit 23 receives the determination result of the focus position and the zoom position, and controls the drive unit 24 so that the focus position and the zoom position corresponding to the operation of the operation unit 22 are obtained.

交換レンズ20には、通信部28が設けられている。また、本体部10には通信部13が設けられている。通信部28は、所定の伝送路を介して本体部10の通信部13との間で情報の送受を行う。制御部23は、本体部10の通信部13との間の通信が確立すると、記録部26に格納したレンズ情報及びズーム操作に関するズーム情報等を通信部28,13によって本体部10に送信させることができる。   The interchangeable lens 20 is provided with a communication unit 28. The main body unit 10 is provided with a communication unit 13. The communication unit 28 transmits and receives information to and from the communication unit 13 of the main body unit 10 via a predetermined transmission path. When communication with the communication unit 13 of the main body 10 is established, the control unit 23 causes the communication units 28 and 13 to transmit the lens information stored in the recording unit 26 and zoom information related to the zoom operation to the main body 10. Can do.

レンズ情報により、本体部10は、交換レンズ20がどのようなズーム機能を有しているか、ズームレンズの焦点距離範囲(倍率)、焦点距離、明るさナンバー等を認識することができる。また、本体部10には、操作部22からの回転操作の情報も与えられるようになっている。制御部23は、通信部13,28介して本体部10の信号処理及び制御部11から制御信号が供給されて、信号処理及び制御部11によって制御可能に構成されている。   Based on the lens information, the main body 10 can recognize what zoom function the interchangeable lens 20 has, the focal length range (magnification), the focal length, the brightness number, and the like of the zoom lens. Further, the main body unit 10 is also provided with information on a rotation operation from the operation unit 22. The control unit 23 is configured to be controlled by the signal processing and control unit 11 by being supplied with a control signal from the signal processing and control unit 11 of the main body unit 10 via the communication units 13 and 28.

なお、本実施の形態においては、種々の交換レンズを採用することができ、更に、交換レンズだけでなく、交換不能なレンズを採用してもよい。   In the present embodiment, various interchangeable lenses can be adopted, and not only interchangeable lenses but also non-replaceable lenses may be employed.

撮影機器1を構成する本体部10は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部12を有している。撮像部12は、本体部10の前面に設けられた交換レンズ20からの被写体像を光電変換して撮影画像を得る。撮像部12は、信号処理及び制御部11によって駆動制御されて、撮影画像を出力する。   The main body 10 constituting the photographing apparatus 1 has an imaging unit 12 configured by an imaging element such as a CCD or a CMOS sensor. The imaging unit 12 photoelectrically converts a subject image from the interchangeable lens 20 provided on the front surface of the main body unit 10 to obtain a captured image. The imaging unit 12 is driven and controlled by the signal processing and control unit 11 and outputs a captured image.

信号処理及び制御部11は、CPU等によって構成されて撮影機器1の各部を制御する。信号処理及び制御部11は、撮像部12に撮像素子の駆動信号を出力すると共に、撮像部12からの撮影画像を読み出す。信号処理及び制御部11は、読み出した撮影画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。   The signal processing and control unit 11 is configured by a CPU or the like and controls each unit of the photographing apparatus 1. The signal processing and control unit 11 outputs a driving signal for the imaging element to the imaging unit 12 and reads a captured image from the imaging unit 12. The signal processing and control unit 11 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image.

本体部10には、時計部14及び操作判定部15も配設されている。時計部14は信号処理及び制御部11が用いる時間情報を発生する。操作判定部15は、本体部10に設けられた図示しないレリーズボタン、ファンクションボタン、撮影モード設定等の各種スイッチ等を含む操作部に対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部11に出力するようになっている。信号処理及び制御部11は、操作信号に基づいて、各部を制御する。   The main body unit 10 is also provided with a clock unit 14 and an operation determination unit 15. The clock unit 14 generates time information used by the signal processing and control unit 11. The operation determination unit 15 generates an operation signal based on a user operation with respect to an operation unit including a release button, a function button, and various switches such as a shooting mode setting (not shown) provided in the main body unit 10, and a signal processing and control unit 11 is output. The signal processing and control unit 11 controls each unit based on the operation signal.

信号処理及び制御部11は、信号処理後の撮影画像を圧縮処理し、圧縮後の画像を記録部16に与えて記録させることができる。記録部16としては、例えばカードインターフェースを採用することができ、記録部16はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。   The signal processing and control unit 11 can compress the captured image after signal processing, and can apply the compressed image to the recording unit 16 for recording. As the recording unit 16, for example, a card interface can be adopted, and the recording unit 16 can record image information, audio information, and the like on a recording medium such as a memory card.

また、本体部10には接眼部30が取り付けられている。接眼部30には接眼表示部31及び通信部32が設けられており、通信部32は本体部10の通信部18との間でデータの送受が可能であり、本体部10から通信部18を介して与えられた撮像画像を接眼表示部31に供給することができる。   The eyepiece 30 is attached to the main body 10. The eyepiece unit 30 is provided with an eyepiece display unit 31 and a communication unit 32. The communication unit 32 can transmit and receive data to and from the communication unit 18 of the main body unit 10. The captured image given through can be supplied to the eyepiece display unit 31.

信号処理及び制御部11の表示制御部11aは表示に関する各種処理を実行する。表示制御部11aは、信号処理後の撮影画像を表示部35及び接眼部30の接眼表示部31に与えることができる。表示部35及び接眼表示部31は、夫々LCD等の表示画面を有しており、表示制御部11aから与えられた画像を表示する。また、表示制御部11aは、各種メニュー表示等をこれらの表示画面に表示させることもできるようになっている。   The signal processing and display control unit 11a of the control unit 11 executes various processes related to display. The display control unit 11 a can provide the captured image after the signal processing to the display unit 35 and the eyepiece display unit 31 of the eyepiece unit 30. Each of the display unit 35 and the eyepiece display unit 31 has a display screen such as an LCD, and displays an image given from the display control unit 11a. Moreover, the display control part 11a can also display various menu displays etc. on these display screens.

表示部35は、後述するように、撮像画像を表示する表示画面35aを有している。また、表示画面35a上には、タッチパネル36が設けられている。タッチパネル36は、ユーザが指で指し示した表示画面35a上の位置に応じた操作信号を発生することができる。この操作信号は、信号処理及び制御部11に供給される。これにより、信号処理及び制御部11は、ユーザが表示画面35a上をタッチしたりスライドさせたりした場合には、ユーザのタッチ位置、指を離間させる操作、スライド操作やスライド操作によって到達した位置、スライド方向、タッチしている期間等の各種操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。   As will be described later, the display unit 35 includes a display screen 35a that displays a captured image. A touch panel 36 is provided on the display screen 35a. The touch panel 36 can generate an operation signal corresponding to the position on the display screen 35a pointed by the user with a finger. This operation signal is supplied to the signal processing and control unit 11. As a result, when the user touches or slides on the display screen 35a, the signal processing and control unit 11 performs a user touch position, an operation of separating a finger, a position reached by a slide operation or a slide operation, Various operations such as a sliding direction and a touch period can be detected, and processing corresponding to a user operation can be executed.

また、本体部10には、ユーザが目を接眼表示部31に近接させたことを検出するアイセンサ17が設けられている。アイセンサ17の検出結果によって、信号処理及び制御部11は、ユーザが目を接眼表示部31に近接させたか否かを判定することができるようになっている。   In addition, the main body unit 10 is provided with an eye sensor 17 that detects that the user has brought the eye close to the eyepiece display unit 31. Based on the detection result of the eye sensor 17, the signal processing and control unit 11 can determine whether or not the user has brought the eye close to the eyepiece display unit 31.

なお、表示部35は、本体部10の例えば背面の略全域を占めるように配設されており(図2(b)参照)、撮影者は、撮影時に表示部(以下、背面表示部ともいう)35の表示画面35a上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うことができる。   The display unit 35 is arranged so as to occupy substantially the entire rear surface of the main body unit 10 (see FIG. 2B), and the photographer can display the display unit (hereinafter also referred to as a rear display unit) during shooting. ) A through image displayed on the display screen 35a of 35 can be confirmed, and a shooting operation can be performed while confirming the through image.

信号処理及び制御部11は、スルー画を接眼表示部31に表示させてもよく、背面表示部35に表示させてもよい。これにより、ユーザは、接眼表示部31を覗きスルー画を確認しながら撮影を行うこともでき、背面表示部35に表示されたスルー画を確認しながら撮影を行うこともできる。   The signal processing and control unit 11 may display the through image on the eyepiece display unit 31 or the rear display unit 35. Thus, the user can take a picture while looking through the eyepiece display unit 31 and confirming the through image, or can take a picture while confirming the through image displayed on the rear display unit 35.

本実施の形態においては、ユーザが接眼表示部31を覗きながら撮影を行う場合には、背面表示部35に対するユーザ操作の状況を接眼表示部31に表示する接眼撮影モードを設定することができるようになっている。   In the present embodiment, when the user takes a picture while looking into the eyepiece display unit 31, an eyepiece photographing mode in which the state of the user operation on the rear display unit 35 is displayed on the eyepiece display unit 31 can be set. It has become.

このような接眼撮影モードを可能にするために、信号処理及び制御部11は、表示制御部11a、接眼判定部11b、モード設定部11c、タッチ位置判定部11d及び操作判定部11eを有する。
接眼判定部11bは、アイセンサ17の出力によって、ユーザが接眼しているか否かを判定する。モード設定部11cは、ユーザが接眼している場合には、接眼撮影モードを設定する。接眼撮影モード時には、表示制御部11aは、スルー画を接眼表示部31に表示させると共に、接眼表示部31に各種設定のための操作表示を表示させるようになっている。例えば、表示制御部11aは、操作表示として各操作に対応した複数の操作アイコンを用いたメニュー表示を表示することができる。
In order to enable such an eyepiece photographing mode, the signal processing and control unit 11 includes a display control unit 11a, an eyepiece determination unit 11b, a mode setting unit 11c, a touch position determination unit 11d, and an operation determination unit 11e.
The eyepiece determination unit 11b determines whether or not the user is eyepiece based on the output of the eye sensor 17. The mode setting unit 11c sets the eyepiece shooting mode when the user is eyepiece. In the eyepiece photographing mode, the display control unit 11a displays a through image on the eyepiece display unit 31 and displays operation displays for various settings on the eyepiece display unit 31. For example, the display control unit 11a can display a menu display using a plurality of operation icons corresponding to each operation as the operation display.

本実施の形態においては、接眼表示モード時には、信号処理及び制御部11は、操作接眼表示部31の表示と同様の表示を背面表示部35に表示した場合と同様にタッチパネル36の操作を受け付ける。例えば、信号処理及び制御部11は、背面表示部35に設けたタッチパネル36に対しタッチ操作があった場合には、背面表示部35のタッチ位置に対応する接眼表示部31の位置の操作表示がタッチ操作されたものとして制御を行う。   In the present embodiment, in the eyepiece display mode, the signal processing and control unit 11 receives an operation on the touch panel 36 in the same manner as when the display similar to the display on the operation eyepiece display unit 31 is displayed on the rear display unit 35. For example, when a touch operation is performed on the touch panel 36 provided on the rear display unit 35, the signal processing and control unit 11 displays an operation display of the position of the eyepiece display unit 31 corresponding to the touch position of the rear display unit 35. Control is performed as if a touch operation was performed.

タッチ位置判定部11dは、ユーザが背面表示部35をタッチしている位置を検出する。操作判定部11eは、ユーザの背面表示部35に対する指の接触、離間、スライド操作等に基づいて、ユーザの操作を検出する。例えば、操作判定部11eは、ユーザが背面表示部35の同一位置を所定時間継続して接触する操作によって、ユーザが背面表示部35の特定の位置に対応する接眼表示部31上の操作表示を選択する操作であるものと判定する。この操作の後、ユーザが指を背面表示部35から離間させると、操作判定部11eは、ユーザが選択を確定操作したものと判定する。更に、ユーザが指を背面表示部35上をスライドさせ、同一位置に所定時間継続して停止させることなく指を背面表示部35から離間させた場合には、ユーザがそれまでの操作を解除する操作を行ったものと判定する。   The touch position determination unit 11d detects a position where the user touches the back display unit 35. The operation determination unit 11e detects the user's operation based on the contact, separation, slide operation, and the like of the finger on the user's rear display unit 35. For example, the operation determination unit 11e causes the user to display an operation display on the eyepiece display unit 31 corresponding to a specific position of the back display unit 35 by an operation in which the user continuously touches the same position of the back display unit 35 for a predetermined time. It is determined that the operation is to be selected. After the operation, when the user moves his / her finger away from the rear display unit 35, the operation determination unit 11e determines that the user has confirmed the selection. Further, when the user slides his / her finger on the rear display unit 35 and moves the finger away from the rear display unit 35 without stopping at the same position for a predetermined time, the user cancels the previous operation. It is determined that the operation has been performed.

タッチ位置判定部11dは、操作判定部11eによってユーザが選択操作を行っていることが示された場合には、ユーザのタッチ位置の検出結果を表示制御部11aに出力する。この場合には、表示制御部11aは、タッチ位置の検出結果に応じて、タッチ位置に対応する位置の操作表示の表示を他の表示と区別可能とする。例えば、タッチ位置に対応する位置の操作表示を強調表示する等、色、濃さ、形状、模様等を他の位置の操作表示等に対して変化させる。   When the operation determination unit 11e indicates that the user is performing a selection operation, the touch position determination unit 11d outputs a detection result of the user's touch position to the display control unit 11a. In this case, the display control unit 11a makes it possible to distinguish the display of the operation display at the position corresponding to the touch position from other displays according to the detection result of the touch position. For example, the operation display at the position corresponding to the touch position is highlighted, and the color, darkness, shape, pattern, etc. are changed with respect to the operation display at other positions.

モード設定部11cには、タッチ位置判定部11d及び操作判定部11eの出力が与えられて、ユーザのタッチ操作に応じてモードを変更する。   The mode setting unit 11c receives outputs from the touch position determination unit 11d and the operation determination unit 11e, and changes the mode according to the user's touch operation.

図2乃至図6は本実施の形態における接眼撮影モードを説明するための説明図である。図2は撮影時における撮影機器1の外観を示す説明図であり、図2(a)は前方側を示し、図2(b)は背面側を示している。また、図3は撮影時における撮影機器1の構え方を示す説明図である。   2 to 6 are explanatory diagrams for explaining the eyepiece photographing mode in the present embodiment. 2A and 2B are explanatory views showing the appearance of the photographing apparatus 1 during photographing. FIG. 2A shows the front side, and FIG. 2B shows the rear side. FIG. 3 is an explanatory diagram showing how to hold the photographing device 1 during photographing.

本実施の形態においては、例えば、撮影前の構図や撮影のタイミングの確認時には接眼表示部31を利用すると共に、背面表示部35に設けたタッチパネル36をブラインドタッチで操作することで、モード切換え等を行うようになっている。   In the present embodiment, for example, the eyepiece display unit 31 is used when checking the composition before shooting and the timing of shooting, and the touch panel 36 provided on the rear display unit 35 is operated by blind touch, thereby switching modes, etc. Is supposed to do.

図2(a)及び図3(a)に示すように、通常、撮影者41はその左手41Lで交換レンズ20を支え、本体部10上面のレリーズスイッチ51に人差し指42aを軽く触れながら本体部10を右手41Rで軽く把持して、撮影のために構えている。この構えた態勢において背面からみると、図2(b)に示すように、スルー画(ライブビュー画像)52が本体部10の背面表示部35の表示画面35a上に表示され、撮影者の右手41Rは、その人差し指42aが本体部10上面のレリーズスイッチ51上に位置するとともに、その親指42bは背面表示部35の(撮影者から見て)右側の領域に位置している。そのため、撮影者はその右手の親指42bによって背面表示部35上のタッチパネル36の右側の領域にごく自然にタッチでき、タッチ、スライド等のタッチ操作によりモード切換え等の各種操作が可能となる。   As shown in FIGS. 2A and 3A, the photographer 41 normally supports the interchangeable lens 20 with his left hand 41L, and gently touches the index finger 42a on the release switch 51 on the upper surface of the main body 10 while the main body 10 Is held lightly by the right hand 41R. When viewed from the back in this posture, a through image (live view image) 52 is displayed on the display screen 35a of the rear display unit 35 of the main body unit 10 as shown in FIG. 41R has its index finger 42a positioned on the release switch 51 on the upper surface of the main body 10, and its thumb 42b is positioned in the right region (as viewed by the photographer) of the rear display unit 35. Therefore, the photographer can naturally touch the area on the right side of the touch panel 36 on the rear display unit 35 with the thumb 42b of the right hand, and various operations such as mode switching can be performed by touch operations such as touch and slide.

図3(b)に示すように、背面表示部35に表示されたスルー画を確認しながら撮影操作を行うことも可能である。この場合には、例えば右手41Rの人差し指42aによって、表示画面35aを視認しながら、タッチパネル36の操作が可能である。   As shown in FIG. 3B, it is possible to perform a shooting operation while confirming the through image displayed on the rear display unit 35. In this case, for example, the touch panel 36 can be operated while viewing the display screen 35a with the index finger 42a of the right hand 41R.

一方、図3(a)に示すように、ファインダ画像の構図や撮影のタイミングを確認するために接眼表示部31を覗いている状態では、背面表示部35の表示画面35aを視認することはできない。しかし、上述したように、この場合でも、右手41Rの親指42bは、タッチパネル36をブラインドタッチすることが可能である。   On the other hand, as shown in FIG. 3A, the display screen 35a of the rear display unit 35 cannot be viewed in a state in which the eyepiece display unit 31 is viewed in order to confirm the composition of the viewfinder image and the timing of shooting. . However, as described above, even in this case, the thumb 42b of the right hand 41R can blind-touch the touch panel 36.

そこで、本実施の形態においては、タッチパネル36のブラインドタッチによっても操作を確実に行うために、接眼表示部31の表示画面31a上に、操作表示を表示すると共に、タッチパネル36のタッチ操作の状況も表示するようになっている。   Therefore, in the present embodiment, in order to perform the operation reliably even by the blind touch of the touch panel 36, the operation display is displayed on the display screen 31a of the eyepiece display unit 31, and the touch operation status of the touch panel 36 is also displayed. It is supposed to be displayed.

図4はモード設定時の画面表示を説明するための説明図である。   FIG. 4 is an explanatory diagram for explaining the screen display when the mode is set.

接眼判定部11bの判定結果によってユーザが接眼していないことが示された場合には、例えば、図4(a)に示す操作表示が表示される。ユーザが接眼していない場合には、表示制御部11aは、背面表示部35の表示画面35a上にスルー画52を表示させる。また、表示制御部11aは、表示画面35a上に操作表示61を表示する。図4の例では操作表示61は3つの操作アイコン61a〜61cを有し、各操作アイコン61a〜61cは、夫々プログラムモード(P)、ストロボモード(St)及び露出調整(±)を設定するためのものである。   When the determination result of the eyepiece determination unit 11b indicates that the user does not have an eyepiece, for example, an operation display illustrated in FIG. 4A is displayed. When the user does not have an eye, the display control unit 11a displays the through image 52 on the display screen 35a of the rear display unit 35. Further, the display control unit 11a displays an operation display 61 on the display screen 35a. In the example of FIG. 4, the operation display 61 has three operation icons 61a to 61c, and each operation icon 61a to 61c is for setting a program mode (P), a strobe mode (St), and an exposure adjustment (±), respectively. belongs to.

ユーザが例えば右手41Rの人差し指42aによって、表示画面35a上の操作アイコン61a〜61cのいずれかをタッチすることによって、タッチされたアイコンに対応するモードが設定される。例えば、操作アイコン61aをタッチすることで、プログラムモード、シャッター優先モード、絞り優先モードを選択するためのサブメニューを表示させることができる。   For example, when the user touches one of the operation icons 61a to 61c on the display screen 35a with the index finger 42a of the right hand 41R, a mode corresponding to the touched icon is set. For example, by touching the operation icon 61a, a sub menu for selecting a program mode, a shutter priority mode, and an aperture priority mode can be displayed.

また、例えば、操作アイコン61bをタッチすることで、ストロボ発光のオン,オフ,自動設定を選択するためのサブメニューを表示させることができる。また、例えば、操作アイコン61cをタッチすることで、露出設定モードを設定することができる。   Further, for example, by touching the operation icon 61b, a submenu for selecting on / off of flash emission and automatic setting can be displayed. For example, the exposure setting mode can be set by touching the operation icon 61c.

一方、接眼判定部11bの判定結果によってユーザが接眼していることが示された場合には、図4(b)に示す操作表示が表示される。ユーザが接眼している場合には、表示制御部11aは、接眼表示部31の表示画面31a上にスルー画52を表示させる。また、表示制御部11aは、表示画面31a上に操作表示61を表示する。   On the other hand, when the determination result of the eyepiece determination unit 11b indicates that the user is in contact with the eye, the operation display shown in FIG. 4B is displayed. When the user is in eye contact, the display control unit 11 a displays the through image 52 on the display screen 31 a of the eyepiece display unit 31. In addition, the display control unit 11a displays an operation display 61 on the display screen 31a.

本実施の形態においては、背面表示部35上のタッチパネル36に対して操作を行うことで、接眼表示部31の表示画面31a上に表示された操作表示61の各操作アイコン61a〜61cに対する操作を可能にする。   In the present embodiment, by operating the touch panel 36 on the rear display unit 35, the operation on the operation icons 61a to 61c of the operation display 61 displayed on the display screen 31a of the eyepiece display unit 31 is performed. to enable.

ユーザが右手41Rの親指42bでタッチパネル36をタッチすると、タッチ位置判定部11dは、ユーザが背面表示部35をタッチしている位置を検出する。操作判定部11eが、ユーザのタッチ操作が操作アイコンの選択操作であるものと判定すると、表示制御部11aは、ユーザのタッチ位置に対応する位置の接眼表示部31上に配置された操作アイコンが選択されたものとして、当該操作アイコンを他のアイコンとは異なる表示にする。例えば、図4(b)に示すように、ユーザが表示画面35aの上、下、中央のうち下の領域にタッチした場合には、表示制御部11aは、表示画面31aの下に配置された操作アイコン61cが選択されたものとして、操作アイコン61cを太枠表示する。   When the user touches the touch panel 36 with the thumb 42b of the right hand 41R, the touch position determination unit 11d detects a position where the user touches the rear display unit 35. When the operation determination unit 11e determines that the user's touch operation is an operation icon selection operation, the display control unit 11a displays an operation icon arranged on the eyepiece display unit 31 at a position corresponding to the user's touch position. As the selected item, the operation icon is displayed differently from the other icons. For example, as shown in FIG. 4B, when the user touches the lower area of the upper, lower, and center of the display screen 35a, the display control unit 11a is arranged below the display screen 31a. Assuming that the operation icon 61c is selected, the operation icon 61c is displayed in a thick frame.

更に、例えば、ユーザが指をタッチパネル36から離間させることなくスライドさせることにより、ユーザは他の操作アイコンを選択することができる。例えば、ユーザが親指42bを中央の位置にスライドさせると、表示制御部11aは、表示画面31aの中央に配置された操作アイコン61bが選択されたものとして太枠表示する。   Furthermore, for example, when the user slides his / her finger without separating it from the touch panel 36, the user can select another operation icon. For example, when the user slides the thumb 42b to the center position, the display control unit 11a displays a thick frame assuming that the operation icon 61b arranged at the center of the display screen 31a is selected.

操作判定部11eは、図4(c)に示すように、ユーザが親指42bをタッチパネル36から離間させる操作を行うことによって、選択されている操作の確定操作が行われたものと判定する。例えば、図4(b)の状態で親指42bがタッチパネル36から離間すると、モード設定部11cは、露出設定モードへの移行の確定操作が行われたものと判定して露出設定モードを設定する。   As illustrated in FIG. 4C, the operation determination unit 11 e determines that the selected operation has been confirmed by performing an operation in which the user moves the thumb 42 b away from the touch panel 36. For example, when the thumb 42b is separated from the touch panel 36 in the state of FIG. 4B, the mode setting unit 11c determines that the operation for confirming the transition to the exposure setting mode has been performed, and sets the exposure setting mode.

なお、ユーザが図4(c)に示すように、親指42bをスライドさせてタッチパネル63上から離間させた場合には、操作判定部11eは、選択操作の解除が行われたものと判定する。   As shown in FIG. 4C, when the user slides the thumb 42b away from the touch panel 63, the operation determination unit 11e determines that the selection operation has been released.

このように、本実施の形態においては、ユーザが接眼した場合には、操作アイコンへのタッチ操作によってモードが確定するのに対し、ユーザが接眼していない場合には、タッチ、離間、スライド等の操作を検出することでモードを確定すると共に、操作の状況を接眼表示部31に表示することで、プラインドタッチでも確実な操作を可能にする。   As described above, in the present embodiment, when the user touches the eye, the mode is determined by a touch operation on the operation icon. On the other hand, when the user does not touch the eye, touch, separation, slide, etc. By detecting this operation, the mode is determined, and the operation status is displayed on the eyepiece display unit 31, so that a reliable operation can be performed even with the touch of the mind.

なお、図4では、接眼撮影モード時においても、背面表示部35の表示画面35a上に操作表示を表示する例を示しているが、表示画面35a上には操作表示を表示しなくてもよいことは明らかである。   4 shows an example in which an operation display is displayed on the display screen 35a of the rear display unit 35 even in the eyepiece shooting mode, the operation display may not be displayed on the display screen 35a. It is clear.

更に、本実施の形態においては、背面表示部35へのブラインドタッチによって、モード選択操作だけでなく、パラメータの設定操作も可能である。図5はパラメータの設定操作を説明するための説明図である。   Furthermore, in the present embodiment, not only a mode selection operation but also a parameter setting operation can be performed by a blind touch on the rear display unit 35. FIG. 5 is an explanatory diagram for explaining the parameter setting operation.

いま、ユーザが図4の操作アイコン61cの選択を確定するものとする。これにより、モード設定部11cは、露出設定モードを設定する。露出設定モードにおいては、表示制御部11aは、表示画面31a上にスルー画52を表示すると共に、表示画面31aの右側に操作表示としてサブメニューであるパラメータ設定表示71を表示する。パラメータ設定表示71は、レベルバー表示71a、操作バー表示71b及び操作方向表示71cによって構成される。また、表示制御部11aは、表示画面31aの左上端に露出設定モードであることを示す「露出補正」という表示72を表示する。また、表示制御部11aは、現在の露出値を示す表示73を表示する。   Now, it is assumed that the user confirms the selection of the operation icon 61c in FIG. Thereby, the mode setting part 11c sets exposure setting mode. In the exposure setting mode, the display control unit 11a displays the through image 52 on the display screen 31a, and displays a parameter setting display 71 as a submenu as an operation display on the right side of the display screen 31a. The parameter setting display 71 includes a level bar display 71a, an operation bar display 71b, and an operation direction display 71c. Further, the display control unit 11a displays a display 72 “exposure correction” indicating the exposure setting mode at the upper left end of the display screen 31a. Further, the display control unit 11a displays a display 73 indicating the current exposure value.

なお、スルー画52及びこれらの表示71〜73は、ユーザが接眼していない場合には背面表示部35の表示画面35a上に表示され、ユーザが接眼している場合に接眼表示部31の表示画面31a上に表示される。仮に、ユーザが接眼していない場合には、ユーザは、背面表示部35の表示画面35a上に表示された操作バー表示71b上をタッチし、上下にスライドさせることで、露出値を変更させることができる。例えば、操作バー表示71bを上方向にスライドさせることで露出値をプラス側に変更させることができ、操作バー表示71bを下方向にスライドさせることで露出値をマイナス側に変更させることができる。   The through image 52 and these displays 71 to 73 are displayed on the display screen 35a of the rear display unit 35 when the user is not in contact with the eye, and are displayed on the eyepiece display unit 31 when the user is in contact with the eye. It is displayed on the screen 31a. If the user does not have an eye, the user touches the operation bar display 71b displayed on the display screen 35a of the rear display unit 35 and slides it up and down to change the exposure value. Can do. For example, the exposure value can be changed to the plus side by sliding the operation bar display 71b upward, and the exposure value can be changed to the minus side by sliding the operation bar display 71b downward.

ユーザが接眼している場合には、ユーザは、背面表示部35のパラメータ設定表示71を視認することができない。そこで、本実施の形態においては、タッチ位置判定部11d及び操作判定部11eは、ユーザの親指42bの絶対的な位置ではなくスライド方向及びスライド量によって、露出値の変更方向及び変更量を判定する。   When the user is in the eye, the user cannot visually recognize the parameter setting display 71 on the rear display unit 35. Therefore, in the present embodiment, the touch position determination unit 11d and the operation determination unit 11e determine the change direction and change amount of the exposure value based on the slide direction and the slide amount, not the absolute position of the user's thumb 42b. .

なお、撮影に集中するとユーザは接眼表示部31にできるだけ近づいて覗き込むことがあり、ユーザの鼻が背面表示部35の表示画面35aに接触する虞がある。そこで、図5(a)に示す表示画面35aの中央の領域65を不感帯(タッチの無効領域)としてもよい。   If the user concentrates on photographing, the user may look into the eyepiece display unit 31 as close as possible, and the user's nose may come into contact with the display screen 35 a of the rear display unit 35. Therefore, the central area 65 of the display screen 35a shown in FIG. 5A may be a dead zone (touch invalid area).

接眼時には、ユーザは、右手41Rの親指42bを、表示画面35aの右側で矢印66にて示す上下方向にスライドさせることで、露出値を設定を変更する。いま、ユーザが親指42bを上方向にスライドさせるものとする。この場合には、タッチ位置判定部11d及び操作判定部11eによって、上方向へのスライド及びスライド量を検出することができる。表示制御部11aは、図5(b)に示すように、スライド方向が上方向であることを示す操作方向表示71cを表示すると共に、スライド量に応じて操作バー表示71bを上方向にスライドさせる。更に、表示制御部11aは、表示73をスライド量、即ち、露出値の変更量に応じて変化させる。   At the time of eyepiece, the user changes the exposure value setting by sliding the thumb 42b of the right hand 41R in the vertical direction indicated by the arrow 66 on the right side of the display screen 35a. It is assumed that the user slides the thumb 42b upward. In this case, the touch position determination unit 11d and the operation determination unit 11e can detect the upward slide and the slide amount. As shown in FIG. 5B, the display control unit 11a displays an operation direction display 71c indicating that the slide direction is upward, and slides the operation bar display 71b upward in accordance with the slide amount. . Further, the display control unit 11a changes the display 73 in accordance with the slide amount, that is, the exposure value change amount.

なお、信号処理及び制御部11は、ユーザのスライド操作に応じて、露出値が変化するように、各部を制御する。こうして、ユーザが親指42bを上方向にスライドさせることによって、露出値をプラス側に補正することができ、図5(b)に示すように、露出値が大きくなったスルー画52が得られる。   The signal processing and control unit 11 controls each unit so that the exposure value changes according to the user's slide operation. Thus, when the user slides the thumb 42b upward, the exposure value can be corrected to the plus side, and a through image 52 with an increased exposure value is obtained as shown in FIG. 5B.

逆に、ユーザが親指42bを下方向にスライドさせるものとする。この場合には、タッチ位置判定部11d及び操作判定部11eによって、下方向へのスライド及びスライド量を検出することができる。表示制御部11aは、図5(c)に示すように、スライド方向が下方向であることを示す操作方向表示71cを表示すると共に、スライド量に応じて操作バー表示71bを下方向にスライドさせる。更に、表示制御部11aは、表示73をスライド量、即ち、露出値の変更量に応じて変化させる。   Conversely, it is assumed that the user slides the thumb 42b downward. In this case, the touch position determination unit 11d and the operation determination unit 11e can detect the downward slide and the slide amount. As shown in FIG. 5C, the display control unit 11a displays an operation direction display 71c indicating that the slide direction is downward, and slides the operation bar display 71b downward according to the slide amount. . Further, the display control unit 11a changes the display 73 in accordance with the slide amount, that is, the exposure value change amount.

信号処理及び制御部11は、ユーザのスライド操作に応じて、露出値が変化するように、各部を制御する。こうして、ユーザが親指42bを下方向にスライドさせることによって、露出値をマイナス側に補正することができ、図5(c)に示すように、露出値が小さくなったスルー画52が得られる。   The signal processing and control unit 11 controls each unit so that the exposure value changes according to the user's slide operation. Thus, when the user slides the thumb 42b downward, the exposure value can be corrected to the minus side, and as shown in FIG. 5C, a through image 52 with a reduced exposure value is obtained.

ユーザが指をスライドさせない場合又は指をタッチパネル36から離間させた場合には、露出値の変更量は保持される。再度ユーザがタッチパネル36に触れてスライドを再開すると、そのスライド方向及びスライド量に応じて、前回の露出値から露出値が変更される。即ち、ユーザが指を離間させながら繰り返しスライド操作することで、指を最初にタッチした位置に拘わらず、露出の変更操作を自由に行うことができる。   When the user does not slide the finger or when the finger is separated from the touch panel 36, the exposure value change amount is retained. When the user touches the touch panel 36 again to resume the slide, the exposure value is changed from the previous exposure value according to the slide direction and the slide amount. That is, by repeatedly performing the sliding operation while the user separates the finger, the exposure changing operation can be freely performed regardless of the position where the finger is first touched.

ユーザが指を水平方向にスライドさせると、操作判定部11eは、ユーザのパラメータ設定操作が終了したものと判定し、モード設定部11cは、図5(d)に示すように、元の操作表示61に戻す。   When the user slides his / her finger in the horizontal direction, the operation determination unit 11e determines that the user's parameter setting operation has been completed, and the mode setting unit 11c displays the original operation display as shown in FIG. Return to 61.

次に、このように構成された実施の形態の動作について図6のフローチャートを参照して説明する。図6は撮影制御を説明するためのフローチャートである。   Next, the operation of the embodiment configured as described above will be described with reference to the flowchart of FIG. FIG. 6 is a flowchart for explaining photographing control.

撮影機器1の電源が投入されると、信号処理及び制御部11は、図6のステップS1において、スルー画の表示を開始する。即ち、信号処理及び制御部11は、撮像部12からの撮像画像を取り込んで、撮像画像に対し所定の映像信号処理を施す。信号処理及び制御部11の接眼判定部11bは、アイセンサ17の出力に基づいて、ユーザが目を接眼表示部31に近接させたか否かを判定する(ステップS2)。表示制御部11aは、接眼判定の判定結果に基づいて、スルー画を背面表示部35に表示させるか接眼表示部31に表示させるかを決定する。   When the photographing apparatus 1 is powered on, the signal processing and control unit 11 starts displaying a through image in step S1 of FIG. That is, the signal processing and control unit 11 takes a captured image from the imaging unit 12 and performs predetermined video signal processing on the captured image. Based on the output of the eye sensor 17, the eyepiece determination unit 11b of the signal processing and control unit 11 determines whether or not the user has brought the eye close to the eyepiece display unit 31 (step S2). The display control unit 11a determines whether to display the through image on the rear display unit 35 or the eyepiece display unit 31 based on the determination result of the eyepiece determination.

ユーザが目を接眼表示部31に近接させていない場合には、表示制御部11aは、信号処理した撮像画像を背面表示部35に与えてスルー画を表示する。また、表示制御部11aは、背面表示部35に、例えば図4に示すモード切換等のメニュー表示を表示させる。   When the user does not bring his eyes close to the eyepiece display unit 31, the display control unit 11a gives the captured image subjected to signal processing to the rear display unit 35 to display a through image. Further, the display control unit 11a causes the rear display unit 35 to display a menu display such as mode switching shown in FIG.

背面表示部35に表示されたメニュー表示に対しては、ユーザがタッチパネル36のメニュー部分を直接タッチすることで、メニューの項目を選択してモードを変更することができる(ステップS4,S5)。   For the menu display displayed on the rear display unit 35, the user can directly touch the menu portion of the touch panel 36 to select a menu item and change the mode (steps S4 and S5).

一方、ユーザが目を接眼表示部31に接眼している場合には、表示制御部11aは、信号処理した撮像画像を接眼表示部31に与えてスルー画を表示する。また、表示制御部11aは、接眼表示部31に、例えば図4に示すモード切換等のメニュー表示を表示させる(ステップS10)。   On the other hand, when the user has an eye on the eyepiece display unit 31, the display control unit 11 a gives the captured image subjected to signal processing to the eyepiece display unit 31 to display a through image. Further, the display control unit 11a displays a menu display such as mode switching shown in FIG. 4 on the eyepiece display unit 31 (step S10).

この場合には、例えば図3(a)に示すように、ユーザは撮影のために目を接眼表示部31に近接させており、背面表示部35の表示を確認することは困難である。しかし、右手41Rの親指42bは背面表示部35の表示画面35aの右側の領域を容易にタッチ操作することができるので、接眼表示部31の表示画面31a上に表示させたメニュー表示に対する操作を背面表示部35に設けたタッチパネル36で行う。また、確実な操作を可能とするために、ユーザのタッチ等の操作に応じて、操作の状況を接眼表示部31の表示画面31a上に表示する。   In this case, for example, as shown in FIG. 3A, the user brings his eyes close to the eyepiece display unit 31 for photographing, and it is difficult to confirm the display on the rear display unit 35. However, since the thumb 42b of the right hand 41R can easily touch and operate the area on the right side of the display screen 35a of the rear display unit 35, the operation for the menu display displayed on the display screen 31a of the eyepiece display unit 31 is performed on the rear surface. The touch panel 36 provided on the display unit 35 is used. Further, in order to enable a reliable operation, the operation status is displayed on the display screen 31 a of the eyepiece display unit 31 in accordance with an operation such as a user touch.

操作判定部11eは、ステップS12において、ユーザがタッチ操作を行ったか否かを判定する。タッチ操作が行われた場合には、タッチ位置判定部11dが検出したタッチ位置に応じて、表示制御部11aは対応する位置の操作アイコンが選択されていることを示す例えば強調表示を行う(ステップS12)。   In step S12, the operation determination unit 11e determines whether the user has performed a touch operation. When the touch operation is performed, the display control unit 11a performs, for example, highlighting indicating that the operation icon at the corresponding position is selected according to the touch position detected by the touch position determination unit 11d (Step S1). S12).

操作判定部11eは、ステップS13において、縦スライド操作が行われたか否かを判定し、ステップS15において横スライド操作が行われたか否かを判定する。操作判定部11eが縦スライド操作を検出した場合には、表示制御部11aは、タッチ位置判定部11dが検出したタッチ位置に応じて、選択位置を変更して対応する操作アイコンを強調表示する。また、操作判定部11eが横スライド操作を検出した場合には、信号処理及び制御部11は、選択操作が解除されたものと判定する。   The operation determination unit 11e determines whether or not a vertical slide operation has been performed in Step S13, and determines whether or not a horizontal slide operation has been performed in Step S15. When the operation determination unit 11e detects a vertical slide operation, the display control unit 11a changes the selected position and highlights the corresponding operation icon according to the touch position detected by the touch position determination unit 11d. When the operation determination unit 11e detects a lateral slide operation, the signal processing and control unit 11 determines that the selection operation has been released.

操作判定部11eは、ステップS16において、指をタッチパネル36から離間させる操作を判定する。モード設定部11cは、離間操作を選択操作の確定操作であるものと判定し、タッチ位置判定部11dが検出した離間前のタッチ位置に対応する操作アイコンに割当てられたモードを設定する(ステップS17)。   In step S <b> 16, the operation determination unit 11 e determines an operation for moving the finger away from the touch panel 36. The mode setting unit 11c determines that the separation operation is a confirmation operation of the selection operation, and sets the mode assigned to the operation icon corresponding to the touch position before separation detected by the touch position determination unit 11d (step S17). ).

例えば露出設定モードのように、モード選択後にパラメータ設定が必要な場合には(ステップS18)、モード設定ためのメニュー表示の次にパラメータ設定表示をサブメニューとして表示させる(ステップS19)。例えば図5に示すパラメータ設定表示等のサブメニューが表示されると、操作判定部11eは、ステップS20において縦スライド操作が行われたか否かを判定し、ステップS22において横スライド操作が行われたか否かを判定する。   For example, when the parameter setting is necessary after the mode is selected as in the exposure setting mode (step S18), the parameter setting display is displayed as a submenu next to the menu display for mode setting (step S19). For example, when a submenu such as a parameter setting display shown in FIG. 5 is displayed, the operation determination unit 11e determines whether or not a vertical slide operation has been performed in step S20, and whether or not a horizontal slide operation has been performed in step S22. Determine whether or not.

操作判定部11eが縦スライド操作を検出した場合には、表示制御部11aは、タッチ位置判定部11dが検出したタッチ位置の変化に応じて、パラメータ変更のための表示位置を変化させる。また、信号処理及び制御部11は、タッチ位置判定部11dが検出したタッチ位置の変化に応じてパラメータを変更する(ステップS21)。即ち、ユーザが指を上下にスライドさせることにより、パラメータを増減させると共にパラメータ値の表示を変更して、接眼表示部31の表示画面31a上に表示させることができる。   When the operation determination unit 11e detects a vertical slide operation, the display control unit 11a changes the display position for parameter change according to the change in the touch position detected by the touch position determination unit 11d. Further, the signal processing and control unit 11 changes the parameter according to the change of the touch position detected by the touch position determination unit 11d (step S21). That is, when the user slides his / her finger up and down, the parameter can be increased / decreased and the display of the parameter value can be changed and displayed on the display screen 31 a of the eyepiece display unit 31.

操作判定部11eが横スライド操作を検出した場合には、表示制御部11aは、パラメータ設定操作が終了したものと判定し、接眼表示部31にメニュー表示を表示させる(ステップS23)。   When the operation determination unit 11e detects a horizontal slide operation, the display control unit 11a determines that the parameter setting operation has been completed, and displays a menu display on the eyepiece display unit 31 (step S23).

ステップS24では、信号処理及び制御部11によって、レリーズ操作の有無が判定され、レリーズ操作が行われると、信号処理及び制御部11は、オートフォーカス(AF)及び露出制御(AE)を行い(ステップS25)、スルー画を停止させた後(ステップS26)、撮影を行う(ステップS27)。信号処理及び制御部11は、ステップS28においてスルー画表示を再開する。   In step S24, the signal processing and control unit 11 determines whether or not a release operation is performed. When the release operation is performed, the signal processing and control unit 11 performs autofocus (AF) and exposure control (AE) (step S24). S25) After the through image is stopped (step S26), photographing is performed (step S27). The signal processing and control unit 11 resumes the through image display in step S28.

このように本実施の形態においては、接眼表示部への接眼時には、接眼表示部にメニュー表示等の操作表示を表示させると共に、背面表示部に設けたタッチパネルでの操作を受け付ける。この場合には、タッチパネルの操作に応じて接眼表示部の表示を変化させることで操作の状況を接眼表示部において確認可能とする。また、操作表示の各部の位置に対応する背面表示部の位置に触れることで、操作表示部の各部を選択するようになっており、直感的な選択操作が可能である。また、タッチ操作、スライド操作、離間操作等を組み合わせることで、操作の選択、確定、解除を判定するようになっており、タッチパネル上をブラインドタッチする場合でも、接眼表示部の表示から確実な操作が可能である。   As described above, in this embodiment, when the eyepiece is displayed on the eyepiece display unit, an operation display such as a menu display is displayed on the eyepiece display unit, and an operation on the touch panel provided on the rear display unit is accepted. In this case, the state of the operation can be confirmed on the eyepiece display unit by changing the display of the eyepiece display unit according to the operation of the touch panel. Further, each part of the operation display unit is selected by touching the position of the rear display unit corresponding to the position of each part of the operation display, and an intuitive selection operation is possible. In addition, the combination of touch operation, slide operation, separation operation, etc., determines the selection, confirmation, and release of the operation. Even when performing a blind touch on the touch panel, reliable operation can be performed from the display on the eyepiece display unit. Is possible.

しかも、ユーザが選択のためのタッチを行っても、接眼表示部に表示される操作アイコンは指で隠されることはなく、強調表示等によって確実に選択している操作アイコンを認識することができ、操作性を著しく向上させることができる。   Moreover, even if the user performs a touch for selection, the operation icon displayed on the eyepiece display unit is not hidden by the finger, and the selected operation icon can be reliably recognized by highlighting or the like. The operability can be remarkably improved.

(第2の実施の形態)
図7は本発明の第2の実施の形態を示す説明図である。本実施の形態のハードウェア構成は第1の実施の形態と同様である。
(Second Embodiment)
FIG. 7 is an explanatory view showing a second embodiment of the present invention. The hardware configuration of this embodiment is the same as that of the first embodiment.

本実施の形態は1点タッチ操作だけでなく、2点タッチ操作に対応したものである。図8は本実施の形態におけるタッチ判定を示すフローチャートであり、図6のステップS4,S11におけるタッチパネル36の操作判定に利用可能である。   This embodiment corresponds to not only a one-point touch operation but also a two-point touch operation. FIG. 8 is a flowchart showing touch determination in the present embodiment, which can be used for operation determination of the touch panel 36 in steps S4 and S11 of FIG.

図8のステップS31においては、操作判定部11eは、1点タッチ操作であるか否かを判定する。1本の指のみでタッチパネル36を操作する1点タッチ操作が行われた場合には、操作判定部11eは、第1の実施の形態と同様の操作判定を行う。即ち、1点タッチの場合には、タッチ位置に応じて選択操作、確定操作等が行われる。   In step S31 of FIG. 8, the operation determination unit 11e determines whether or not the operation is a one-point touch operation. When a one-point touch operation in which the touch panel 36 is operated with only one finger is performed, the operation determination unit 11e performs the same operation determination as that in the first embodiment. That is, in the case of a one-point touch, a selection operation, a confirmation operation, and the like are performed according to the touch position.

一方、ユーザが2点タッチ操作を行った場合には、操作判定部11eは、ステップS35においてピンチ操作が行われたか否かを判定する。操作判定部11eは、ユーザが2点タッチして、指をスライドさせることなく離間させた場合には処理を終了する。   On the other hand, when the user performs a two-point touch operation, the operation determination unit 11e determines whether a pinch operation has been performed in step S35. The operation determination unit 11e ends the process when the user touches two points and separates the finger without sliding it.

ユーザが2点タッチの後、指をスライドさせてタッチ位置を変化させるピンチ操作を行った場合には、操作判定部11eは、ステップS36においてピンチ操作が操作表示の位置で行われたか否かを判定する。操作表示の位置以外の位置でピンチ操作が行われた場合には、操作判定部11eは、ピンチ操作が画面の拡大又は縮小のための操作であるものと判定し、ピンチ操作に応じて画面の拡大又は縮小処理を行う(ステップS37)。   When the user performs a pinch operation to change the touch position by sliding a finger after the two-point touch, the operation determination unit 11e determines whether or not the pinch operation has been performed at the operation display position in step S36. judge. When a pinch operation is performed at a position other than the operation display position, the operation determination unit 11e determines that the pinch operation is an operation for enlarging or reducing the screen, and the screen is displayed according to the pinch operation. Enlargement or reduction processing is performed (step S37).

一方、操作表示の位置でピンチ操作が行われた場合には、操作判定部11eは、ピンチ操作が操作表示の項目数の増減操作であるものと判定する。図7はこの操作を示しており、図7(a)はユーザが右手41Rの人差し指42aと親指42bとで、操作表示61の位置で2点タッチしたことを示している。図7(b)は、ユーザが人差し指42aと親指42bとを矢印方向にスライドさせることでタッチ間隔を狭くするピンチ操作を示している。タッチ間隔を狭くするピンチ操作が行われると、図7(b)の操作表示61’で示すように、操作表示61の間隔が狭くなる。   On the other hand, when a pinch operation is performed at the position of the operation display, the operation determination unit 11e determines that the pinch operation is an operation for increasing or decreasing the number of items in the operation display. FIG. 7 shows this operation, and FIG. 7A shows that the user touches two points at the position of the operation display 61 with the index finger 42a and the thumb 42b of the right hand 41R. FIG. 7B shows a pinch operation in which the user narrows the touch interval by sliding the index finger 42a and the thumb 42b in the direction of the arrow. When a pinch operation for narrowing the touch interval is performed, the interval of the operation display 61 is narrowed as indicated by the operation display 61 ′ in FIG. 7B.

信号処理及び制御部11は、操作表示の項目(操作アイコン)数を増加させ、表示制御部11aは、操作アイコンの数を増やして表示する。図7(c)の例では、操作表示61は、3つの操作アイコン61a〜61cに操作アイコン61dが加えられて、4つの操作アイコン61a〜61dからなる操作表示61が表示される。なお、操作アイコン61dは、ISO感度を設定するモードを指定するためのものである。   The signal processing and control unit 11 increases the number of operation display items (operation icons), and the display control unit 11a displays the operation icons with an increased number. In the example of FIG. 7C, the operation display 61 includes the operation icon 61d added to the three operation icons 61a to 61c and the operation display 61 including the four operation icons 61a to 61d. The operation icon 61d is for designating a mode for setting the ISO sensitivity.

なお、図7では背面表示部35の表示画面35a上に操作表示61が表示されている例について説明したが、接眼表示部31の表示画面31a上に操作表示61が表示されている場合でも、2点タッチ操作が可能である。この場合でも、ユーザは背面表示部35に設けられたタッチパネル36を操作することで、第1の実施の形態と同様に、接眼表示部31の表示を変更することができ、図8のステップS36,S38において、接眼表示部31の表示画面31aに対する画面の拡大縮小処理又は操作表示61の項目数の増減処理を行うことができる。   7 illustrates the example in which the operation display 61 is displayed on the display screen 35a of the rear display unit 35. However, even when the operation display 61 is displayed on the display screen 31a of the eyepiece display unit 31, A two-point touch operation is possible. Even in this case, the user can change the display of the eyepiece display unit 31 by operating the touch panel 36 provided on the rear display unit 35 as in the first embodiment, and step S36 in FIG. , S38, screen enlargement / reduction processing for the display screen 31a of the eyepiece display unit 31 or processing for increasing / decreasing the number of items in the operation display 61 can be performed.

このように、本実施の形態においては、第1の実施の形態と同様の効果が得られると共に、2点タッチ操作にも対応することができる。   As described above, in the present embodiment, the same effects as those of the first embodiment can be obtained, and a two-point touch operation can be handled.

なお、上記実施の形態においては、操作アイコンのサイズを変更することで、画面に同時に表示可能な個数(図4では3個)を変更する例について説明したが、項目数(操作アイコン数)が多い場合には、タッチパネル上の指をスライドさせて背面表示部の右側の上端又は下端に指を位置させることで、表示されていない項目が順次巡回的に表示されるように、表示制御部11aによって制御することも可能である。   In the above embodiment, an example has been described in which the number of items that can be displayed on the screen at the same time (three in FIG. 4) is changed by changing the size of the operation icon. In many cases, the display control unit 11a is configured so that the non-displayed items are sequentially displayed cyclically by sliding the finger on the touch panel and positioning the finger at the upper or lower right side of the rear display unit. It is also possible to control by.

図9はこの場合の例を示す説明図である。図9の例では、表示画面35aの下端を人差し指42a(接眼時には親指)でタッチすることによって、操作アイコンを矢印の方向にスライドさせている。下端を押し続けることによって操作アイコンを順次スライドさせ、画面に表示されていない操作アイコンを順次画面内に表示させることができる。なお、この場合には、新たに表示されるようになった操作アイコンが選択されているものとして、強調表示等を行ってもよい。この場合でも、指をタッチパネルから離間させた時点で強調表示されている操作アイコンに対応する操作が選択されるようにすることで、ユーザは自分が選択した操作を確実に把握することができる。項目数が極めて多い場合等においても、比較的大きい操作アイコンを表示し、且つ全ての項目を順番に表示させることができ、操作性に優れている。また、操作アイコンが比較的小さい場合でも、自分が選択している操作アイコンを確実に認識することができ、誤操作を著しく低減させることができる。   FIG. 9 is an explanatory diagram showing an example of this case. In the example of FIG. 9, the operation icon is slid in the direction of the arrow by touching the lower end of the display screen 35 a with the index finger 42 a (thumb when the eye is attached). By continuously pressing the lower end, the operation icons can be sequentially slid, and the operation icons that are not displayed on the screen can be sequentially displayed in the screen. In this case, highlighting or the like may be performed on the assumption that the operation icon newly displayed is selected. Even in this case, by selecting an operation corresponding to the operation icon highlighted when the finger is separated from the touch panel, the user can surely grasp the operation selected by the user. Even when the number of items is extremely large, a relatively large operation icon can be displayed, and all items can be displayed in order, which is excellent in operability. Further, even when the operation icon is relatively small, the operation icon selected by the user can be reliably recognized, and erroneous operations can be significantly reduced.

さらに、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。   Furthermore, in each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. A camera for moving images may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

1…撮影機器、10…本体部、11…信号処理及び制御部、11a…表示制御部、11b…接眼判定部、11c…モード設定部、11d…タッチ位置判定部、11e…操作判定部、12…撮像部、14…時計部、15…操作判定部、16…記録部、17…アイセンサ、20…交換レンズ、31…接眼表示部、35…表示部、36…タッチパネル。     DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Main-body part, 11 ... Signal processing and control part, 11a ... Display control part, 11b ... Eyepiece determination part, 11c ... Mode setting part, 11d ... Touch position determination part, 11e ... Operation determination part, 12 DESCRIPTION OF SYMBOLS ... Image pick-up part, 14 ... Clock part, 15 ... Operation determination part, 16 ... Recording part, 17 ... Eye sensor, 20 ... Interchangeable lens, 31 ... Eyepiece display part, 35 ... Display part, 36 ... Touch panel.

Claims (5)

被写体を撮像する撮像部と、
上記撮像部で撮像して得た撮像画像に基づく表示を行う接眼式の第1の表示部と、
上記第1の表示部に操作表示を表示させる表示制御部と、
操作を受け付けるタッチパネルと、
接眼時において、上記タッチパネルの接触位置に応じた上記操作表示の部分を強調表示し、非接触によって上記部分を確定して上記部分に対応する処理を実行する制御部と
を具備したことを特徴する撮影機器。
An imaging unit for imaging a subject;
An eyepiece-type first display unit that performs display based on a captured image obtained by imaging with the imaging unit;
A display control unit for displaying an operation display on the first display unit;
A touch panel that accepts operations;
A control unit that highlights a portion of the operation display corresponding to the touch position of the touch panel at the time of eye contact, determines the portion by non-contact, and executes processing corresponding to the portion. Shooting equipment.
上記タッチパネルが配置され、上記撮像画像及び上記操作表示を表示可能な第2の表示部
を具備したことを特徴する請求項1に記載の撮影機器。
The photographing apparatus according to claim 1, further comprising: a second display unit on which the touch panel is disposed and capable of displaying the captured image and the operation display.
上記制御部は、
上記タッチパネルに対するスライド操作を検出し、上記操作表示がパラメータ変更のための表示である場合において、検出したスライド操作の方向に応じてパラメータ変更を行うと共に、パラメータ変更のための方向以外の方向へのスライド操作によって処理を終了する
ことを特徴する請求項1又は2に記載の撮影機器。
The control unit
When a slide operation on the touch panel is detected and the operation display is a display for changing a parameter, the parameter is changed according to the detected direction of the slide operation, and a direction other than the direction for changing the parameter is changed. The photographing apparatus according to claim 1, wherein the processing is ended by a slide operation.
上記表示制御部は、
上記タッチパネルに対するピンチ操作によって、上記操作表示に含まれる項目数を増減させる
ことを特徴する請求項1乃至3のいずれか1つに記載の撮影機器。
The display control unit
The imaging apparatus according to claim 1, wherein the number of items included in the operation display is increased or decreased by a pinch operation on the touch panel.
上記表示制御部は、
上記操作表示に含まれる項目を切換て表示する
ことを特徴する請求項1乃至3のいずれか1つに記載の撮影機器。
The display control unit
The imaging device according to any one of claims 1 to 3, wherein the items included in the operation display are switched and displayed.
JP2012180198A 2012-08-15 2012-08-15 Photographing equipment Pending JP2014038195A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012180198A JP2014038195A (en) 2012-08-15 2012-08-15 Photographing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012180198A JP2014038195A (en) 2012-08-15 2012-08-15 Photographing equipment

Publications (1)

Publication Number Publication Date
JP2014038195A true JP2014038195A (en) 2014-02-27

Family

ID=50286387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012180198A Pending JP2014038195A (en) 2012-08-15 2012-08-15 Photographing equipment

Country Status (1)

Country Link
JP (1) JP2014038195A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105141852A (en) * 2015-10-10 2015-12-09 李彦辰 Control method and control device under double-screen mobile phone shooting mode
WO2017085983A1 (en) * 2015-11-17 2017-05-26 ソニー株式会社 Control device, control method, and program
WO2017085982A1 (en) * 2015-11-16 2017-05-26 ソニー株式会社 Control device, control method, and program
JP2017123515A (en) * 2016-01-05 2017-07-13 キヤノン株式会社 Electronic apparatus and control method therefor
CN109656402A (en) * 2017-10-12 2019-04-19 佳能株式会社 Electronic device and its control method and storage medium
JP2019075771A (en) * 2017-10-17 2019-05-16 キヤノン株式会社 Electronic device and control method of the same
US10715719B2 (en) 2017-02-10 2020-07-14 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
WO2021166264A1 (en) * 2020-02-21 2021-08-26 ソニーグループ株式会社 Program, information processing method, and electronic device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105141852A (en) * 2015-10-10 2015-12-09 李彦辰 Control method and control device under double-screen mobile phone shooting mode
WO2017085982A1 (en) * 2015-11-16 2017-05-26 ソニー株式会社 Control device, control method, and program
US20190121220A1 (en) * 2015-11-16 2019-04-25 Sony Corporation Control device, control method, and program
US11137666B2 (en) 2015-11-16 2021-10-05 Sony Corporation Control device and control method
WO2017085983A1 (en) * 2015-11-17 2017-05-26 ソニー株式会社 Control device, control method, and program
US20180324351A1 (en) * 2015-11-17 2018-11-08 Sony Corporation Control device, control method, and program
JP2017123515A (en) * 2016-01-05 2017-07-13 キヤノン株式会社 Electronic apparatus and control method therefor
US10715719B2 (en) 2017-02-10 2020-07-14 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
CN109656402A (en) * 2017-10-12 2019-04-19 佳能株式会社 Electronic device and its control method and storage medium
JP2019074805A (en) * 2017-10-12 2019-05-16 キヤノン株式会社 Electronic apparatus, control method thereof and program
JP2019075771A (en) * 2017-10-17 2019-05-16 キヤノン株式会社 Electronic device and control method of the same
WO2021166264A1 (en) * 2020-02-21 2021-08-26 ソニーグループ株式会社 Program, information processing method, and electronic device

Similar Documents

Publication Publication Date Title
US10623647B2 (en) Image capturing apparatus and control method for changing a setting based on a touch operation on a display
US9363439B2 (en) Photographing apparatus and operation control method for the same
JP4884417B2 (en) Portable electronic device and control method thereof
JP2014038195A (en) Photographing equipment
WO2013054726A9 (en) Imaging device, and method and program for controlling same
JP2010263425A (en) Imaging device and mode changing method in imaging device
JP5830564B2 (en) Imaging apparatus and mode switching method in imaging apparatus
WO2020255675A1 (en) Electronic device and control method therefor
JP2013117650A (en) Digital camera
JP2017011579A (en) Imaging device, control method for the same, program and storage medium
JP5893359B2 (en) Imaging device
JP7423248B2 (en) Electronic devices, control methods for electronic devices, programs and storage media
US20130167089A1 (en) Electronic device
JP5959297B2 (en) Imaging device and imaging support method
JP7446913B2 (en) Electronic devices, control methods for electronic devices, and programs
JP6017656B2 (en) Imaging apparatus and mode switching method in imaging apparatus
CN112040095B (en) Electronic device, control method of electronic device, and storage medium
JP2021170066A (en) Display control apparatus and method, program, and storage medium
US20240089598A1 (en) Image capturing device and method of controlling thereof
WO2022019134A1 (en) Electronic device and control method therefor
JP7071197B2 (en) Imaging device and its control method
JP7034601B2 (en) Imaging control device and its control method
JP6104430B2 (en) Photography equipment
JP2022170347A (en) Electronic apparatus, method for controlling electronic apparatus, program, and recording medium
JP6165282B2 (en) Photography equipment

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423