JP6104430B2 - Photography equipment - Google Patents

Photography equipment Download PDF

Info

Publication number
JP6104430B2
JP6104430B2 JP2016092486A JP2016092486A JP6104430B2 JP 6104430 B2 JP6104430 B2 JP 6104430B2 JP 2016092486 A JP2016092486 A JP 2016092486A JP 2016092486 A JP2016092486 A JP 2016092486A JP 6104430 B2 JP6104430 B2 JP 6104430B2
Authority
JP
Japan
Prior art keywords
display
unit
control unit
touch operation
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016092486A
Other languages
Japanese (ja)
Other versions
JP2016171585A (en
Inventor
勝久 川口
勝久 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016092486A priority Critical patent/JP6104430B2/en
Publication of JP2016171585A publication Critical patent/JP2016171585A/en
Application granted granted Critical
Publication of JP6104430B2 publication Critical patent/JP6104430B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、タッチ操作可能な表示パネルを有する撮影機器に関する。   The present invention relates to a photographing apparatus having a display panel that can be touch-operated.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)が普及している。この種の撮影機器においては、LCD等の表示パネルと電子ビューファインダとを備えたものがある。電子ビューファインダは、撮像画像を表示する小型のLCDパネルと接眼部とを備えており、ユーザは、接眼部からLCDパネルを観察することで、撮像画像の確認が可能である。また、表示パネルは、例えば、撮影機器の背面に設けられており、電子ビューファインダと同様の表示を行うことができる。   In recent years, portable devices with a photographing function (photographing devices) such as digital cameras have become widespread. Some types of photographing apparatuses include a display panel such as an LCD and an electronic viewfinder. The electronic viewfinder includes a small LCD panel for displaying a captured image and an eyepiece, and the user can confirm the captured image by observing the LCD panel from the eyepiece. The display panel is provided on the back surface of the photographing device, for example, and can perform the same display as the electronic viewfinder.

電子ビューファインダ及び表示パネルには、撮像画像だけでなく、撮影機器の設定や撮影操作を制御するための各種メニュー表示等を表示させることもできる。更に、表示パネルには、タッチパネルが配設されることがあり、ユーザは、表示パネル等のメニュー表示等に対応した表示位置を指で触れることで、設定操作や撮影操作等を行うことができるようになっている。   The electronic viewfinder and the display panel can display not only captured images but also various menu displays for controlling settings of the photographing device and photographing operations. In addition, a touch panel may be provided on the display panel, and the user can perform a setting operation, a shooting operation, or the like by touching a display position corresponding to a menu display or the like on the display panel with a finger. It is like that.

なお、タッチパネルとしては、2点以上のタッチを検出して、直感的な操作を可能にした技術も開発されている(例えば、特許文献1)。   As a touch panel, a technique has been developed that enables intuitive operation by detecting two or more touches (for example, Patent Document 1).

特表2008−508601号公報     Special table 2008-508601 gazette

しかしながら、タッチパネルにおいて2点タッチのユーザインタフェースを採用した場合でも、文字や数値の入力やパラメータ設定を必要とする各種設定操作を行う場合等においては、ユーザはタッチパネルが配設されている画面を見ながら操作を行う必要があり、必ずしも操作性に優れているとは限らないという問題があった。   However, even when a two-point touch user interface is used on the touch panel, the user looks at the screen on which the touch panel is arranged when performing various setting operations that require input of characters and numerical values and parameter settings. However, there is a problem that it is necessary to perform the operation, and the operability is not always excellent.

本発明は、タッチパネルを見ることなく、あるいは十分な確認なくとも確実な操作を可能にすることにより、操作性を向上させることができる撮影機器を提供することを目的とする。   An object of the present invention is to provide a photographing apparatus capable of improving operability by enabling reliable operation without looking at a touch panel or without sufficient confirmation.

本発明に係る一態様の撮影機器は、被写体像を撮像して撮像画像を得る撮像部と、上記撮像画像に基づく表示が可能な接眼式の表示部と、タッチ操作に応じた信号を発生するタッチパネルと、上記タッチパネルにおける任意の位置に対するタッチ操作を検出するタッチ操作検出部と、上記表示部に、撮影パラメータ変更のための設定モード選択表示および当該設定モード毎のパラメータ選択表示を表示可能とする表示制御部と、を具備し、上記表示制御部は、上記表示部に上記設定モード選択表示が表示されている場合において、上記タッチ操作検出部が上記タッチパネルにおける任意の位置に対する所定のタッチ操作を検出した際、当該検出結果に基づいて当該タッチ操作した指における当該タッチした点の変位に応じてスライド方向を判定し、当該判定結果および当該指の動作に基づいて上記設定モードを決定し、上記表示部に上記パラメータ選択表示が表示されている場合において、上記タッチ操作検出部が上記タッチパネルにおける任意の位置に対する所定のタッチ操作を検出した際、当該検出結果に基づいて当該タッチ操作した指における当該タッチした点の変位に応じてスライド方向を判定し、当該判定結果および当該指の動作に基づいて上記パラメータを決定する。   An imaging device according to an aspect of the present invention generates an image capturing unit that captures a subject image to obtain a captured image, an eyepiece display unit that can display based on the captured image, and a signal corresponding to a touch operation. The touch panel, a touch operation detection unit that detects a touch operation on an arbitrary position on the touch panel, and a setting mode selection display for changing shooting parameters and a parameter selection display for each setting mode can be displayed on the display unit. A display control unit, wherein the display control unit performs a predetermined touch operation on an arbitrary position on the touch panel when the setting mode selection display is displayed on the display unit. When detected, the slide direction is determined according to the displacement of the touched point on the touched finger based on the detection result. Then, when the setting mode is determined based on the determination result and the movement of the finger, and the parameter selection display is displayed on the display unit, the touch operation detection unit determines a predetermined position for an arbitrary position on the touch panel. When the touch operation is detected, the sliding direction is determined based on the displacement of the touched point on the touch-operated finger based on the detection result, and the parameter is determined based on the determination result and the operation of the finger. To do.

本発明によれば、タッチパネルを見ることなく、あるいは十分な視認、確認なくとも確実な操作を可能にすることにより、操作性を向上させることができるという効果を有する。   According to the present invention, it is possible to improve operability by enabling a reliable operation without looking at the touch panel or without sufficient visual recognition and confirmation.

本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of a photographing apparatus according to a first embodiment of the present invention. メニュー画面表示のための操作を説明するための説明図。Explanatory drawing for demonstrating operation for menu screen display. パラメータ設定のための操作を説明するための説明図。Explanatory drawing for demonstrating operation for parameter setting. カメラ制御を説明するためのフローチャート。The flowchart for demonstrating camera control. 図4のステップS13における操作判定及びパラメータ変更ステップの具体例を示すフローチャート。The flowchart which shows the specific example of the operation determination in FIG.4 S13, and a parameter change step. 本発明の第2の実施の形態において採用される動作フローを示すフローチャート。The flowchart which shows the operation | movement flow employ | adopted in the 2nd Embodiment of this invention. 第2の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 2nd Embodiment. 本発明の第3の実施の形態において採用される動作フローを示すフローチャート。The flowchart which shows the operation | movement flow employ | adopted in the 3rd Embodiment of this invention. 第3の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 3rd Embodiment. 本発明の第4の実施の形態において採用される動作フローを示すフローチャート。The flowchart which shows the operation | movement flow employ | adopted in the 4th Embodiment of this invention. 第4の実施の形態を説明するための説明図。Explanatory drawing for demonstrating 4th Embodiment.

以下、図面を参照して本発明の実施の形態について詳細に説明する。
(第1の実施の形態)
図1は本発明の第1の実施の形態に係る撮影機器の回路構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of the photographing apparatus according to the first embodiment of the present invention.

先ず、図2及び図3を参照して本実施の形態における操作方法について説明する。図2はメニュー画面表示のための操作を説明するための説明図であり、図3はパラメータ設定のための操作を説明するための説明図である。   First, an operation method in the present embodiment will be described with reference to FIGS. FIG. 2 is an explanatory diagram for explaining an operation for displaying a menu screen, and FIG. 3 is an explanatory diagram for explaining an operation for parameter setting.

本実施の形態における撮影機器1は、図2(a),(b)に示すように、撮影機器本体10の上面に電子ビューファインダ等の接眼表示部31が取り付けられ、背面にはLCD等によって構成された表示部17が設けられている。ユーザ41は、例えば、撮影機器本体10の前面に配置された交換レンズ20を操作可能な状態で撮影機器1を左手42Lで支持し、右手42Rで撮影機器本体10を保持しながら撮影を行う。撮影機器本体10の上面には右側にシャッターボタン35が配設されており、ユーザ41は、右手42Rの人差し指43bでシャッターボタン35を押下することで撮影を行う。   As shown in FIGS. 2A and 2B, the photographing apparatus 1 according to the present embodiment has an eyepiece display 31 such as an electronic viewfinder attached to the upper surface of the photographing apparatus main body 10, and an LCD or the like on the rear surface. A configured display unit 17 is provided. For example, the user 41 supports the photographing device 1 with the left hand 42L while operating the interchangeable lens 20 disposed on the front surface of the photographing device main body 10, and takes a picture while holding the photographing device main body 10 with the right hand 42R. A shutter button 35 is disposed on the right side of the upper surface of the photographing apparatus body 10, and the user 41 takes a picture by pressing the shutter button 35 with the index finger 43 b of the right hand 42 </ b> R.

後述する撮像部11によって撮像された撮像画像は、接眼表示部31の表示画面31aと表示部17の表示画面17bとの両方にライブビュー表示を表示させることができる。ライブビュー表示を接眼表示部31に接眼して確認する撮影の仕方は、安定してカメラを構えることができ、フレーミングが容易であり、長い焦点距離の撮影時におけるブレを低減することができる。しかも、接眼表示部31では表示画面が太陽光の影響を受けないので、見やすく色再現性に優れた状態で被写体を観察することができる。   A captured image captured by the imaging unit 11 described later can display a live view display on both the display screen 31 a of the eyepiece display unit 31 and the display screen 17 b of the display unit 17. The method of shooting in which the live view display is checked by checking the eyepiece display unit 31 can stably hold the camera, facilitate framing, and reduce blurring during shooting at a long focal length. In addition, since the display screen of the eyepiece display unit 31 is not affected by sunlight, it is possible to observe the subject in a state that is easy to see and has excellent color reproducibility.

従って、表示部17に表示されたライブビュー表示を見ながら撮影を行う場合よりも、接眼表示部31に接眼してライブビュー表示を見ながら撮影を行った方が撮影に有利であることが多い。また、撮影時に、ライブビュー表示を観察しながら撮影パラメータ等を変更することがあり、接眼した状態で、即ち表示部17の表示画面17bを見ることなく撮影パラメータの変更を行えると、撮影をスムーズに行うことができる。   Therefore, it is often more advantageous for shooting to take a picture while viewing the live view display with the eyepiece displayed on the eyepiece display unit 31 than to take a picture while viewing the live view display displayed on the display unit 17. . In addition, during shooting, the shooting parameters may be changed while observing the live view display. If the shooting parameters can be changed while the eyepiece is in contact, that is, without looking at the display screen 17b of the display unit 17, shooting can be performed smoothly. Can be done.

図2(a)はこのような接眼した状態での撮影の例を示しており、ユーザ41は、撮影機器本体10を水平に把持して、一方の目45を接眼表示部31の接眼する部分に対向させた状態で撮影を行う。撮影機器1の電源を投入すると、撮影モード時には、後述する撮像部11からの撮像画像に基づいて、接眼表示部31の表示画面31aにライブビュー表示が表示される。図2(c)はこのライブビュー表示を示している。   FIG. 2A shows an example of photographing in such a state where the eye is in contact, and the user 41 holds the photographing device main body 10 horizontally, and a part where one eye 45 is in contact with the eyepiece display unit 31. Take a picture while facing the camera. When the power of the photographing apparatus 1 is turned on, a live view display is displayed on the display screen 31a of the eyepiece display unit 31 based on a captured image from the imaging unit 11 described later in the photographing mode. FIG. 2C shows the live view display.

図2(c)の例では、接眼表示部31の表示画面31aに表示されたライブビュー表示は、撮像画像中に、左側に建物52、右側に風景53、中央に人物54の画像が含まれることを示している。この状態で、ユーザ41がシャッターボタン35を押下操作すると、ライブビュー表示されている被写体が撮像されて記録される。なお、接眼表示部31において表示するライブビュー表示を表示部17の表示画面上に同時に表示させてもよい。   In the example of FIG. 2C, the live view display displayed on the display screen 31a of the eyepiece display unit 31 includes the image of the building 52 on the left side, the landscape 53 on the right side, and the person 54 on the center in the captured image. It is shown that. When the user 41 presses the shutter button 35 in this state, the subject displayed in the live view is captured and recorded. The live view display displayed on the eyepiece display unit 31 may be simultaneously displayed on the display screen of the display unit 17.

ここで、ユーザが撮影パラメータ設定モードを指定するための操作を行うものとする。本実施の形態においては、撮影機器1は、表示部17上に配設されたタッチパネル17aをタッチすることで、設定モード選択表示を表示するようになっている。この場合において、本実施の形態においては、ユーザ41がタッチする位置は、表示部17の表示画面17b上のいずれの位置であってもよい。従って、ユーザ41は、表示画面17bを見てタッチする位置を確認する必要はなく、例えば、接眼表示部31内の表示画面31aを覗き込んだ状態で、表示部17の表示画面17b上の適宜の位置を親指43a等でタッチすることで、撮影パラメータ設定モードに移行することができるようになっている(図2(b))。   Here, it is assumed that the user performs an operation for specifying the shooting parameter setting mode. In the present embodiment, the photographing apparatus 1 displays a setting mode selection display by touching a touch panel 17a disposed on the display unit 17. In this case, in the present embodiment, the position touched by the user 41 may be any position on the display screen 17b of the display unit 17. Therefore, the user 41 does not need to confirm the touch position by looking at the display screen 17b. For example, the user 41 looks at the display screen 31a in the eyepiece display unit 31 and appropriately displays the display screen 17b on the display unit 17b. By touching the position with the thumb 43a or the like, it is possible to shift to the shooting parameter setting mode (FIG. 2B).

図2(d)は設定モード選択表示の一例を示している。接眼表示部31の表示画面31a上には、設定モード選択表示55が表示されている。図2(d)の例では、設定モード選択表示55は、現在の選択のためのメニューであることを示す「MENU」表示の他に、アスペクト比の設定モードに移行するための「アスペクト」表示、露出補正の設定モードに移行するための「露出補正」表示、絞りの設定モードに移行するための「絞り」表示、ホワイトバランス設定に移行するための「WB」表示、シャッタ速度の設定モードに移行するための「S/S」表示、測光の設定モードに移行するための「測光」表示、フォーカス制御の設定モードに移行するための「AF」表示及び設定モード選択表示55を終了させるための「戻る」表示を有する。   FIG. 2D shows an example of the setting mode selection display. On the display screen 31 a of the eyepiece display unit 31, a setting mode selection display 55 is displayed. In the example of FIG. 2D, the setting mode selection display 55 is an “aspect” display for shifting to the aspect ratio setting mode in addition to the “MENU” display indicating that it is a menu for the current selection. "Exposure compensation" display for shifting to exposure correction setting mode, "Aperture" display for shifting to aperture setting mode, "WB" display for shifting to white balance setting, and shutter speed setting mode “S / S” display for transition, “photometry” display for transition to photometry setting mode, “AF” display for transition to focus control setting mode, and setting mode selection display 55 for ending Has a “return” indication.

設定モード選択表示55は、接眼表示部31の表示画面31aに表示されるが、設定モード選択表示55を表示部17の表示画面17b上に表示させることもできる。設定モード選択表示55中の各表示は、その位置によって、ユーザがモード選択するためのスライド操作の方向を示している。例えば、「絞り」表示は、「MENU」表示を基準として、右斜め上方向に位置するので、ユーザが表示部17の表示画面17b上で指を右斜め上方向にスライドさせることによって絞りの設定モードが選択されることを示している。   The setting mode selection display 55 is displayed on the display screen 31 a of the eyepiece display unit 31, but the setting mode selection display 55 can also be displayed on the display screen 17 b of the display unit 17. Each display in the setting mode selection display 55 indicates the direction of the slide operation for the user to select a mode depending on the position. For example, since the “aperture” display is positioned in the upper right direction with respect to the “MENU” display, the user can set the aperture by sliding the finger on the display screen 17 b of the display unit 17 in the upper right direction. Indicates that the mode is selected.

本実施の形態においては、ユーザによるスライド操作は、スライド方向のみに意味があり、スライドの起点はどこでもよい。例えば図3(a)は、ユーザの親指が、起点位置の親指43a1から終点位置の親指43a2まで、表示部17の表示画面17b上で矢印に示す真上方向にスライドしたことを示している。   In the present embodiment, the slide operation by the user is meaningful only in the slide direction, and the starting point of the slide may be anywhere. For example, FIG. 3A shows that the user's thumb has slid from the thumb 43a1 at the start position to the thumb 43a2 at the end position in the upward direction indicated by the arrow on the display screen 17b of the display unit 17.

ユーザのスライド操作の起点及び終点の位置からスライド方向が判定され、スライド方向の判定結果に対応した設定モードが選択される。図3(a)の例では、ユーザの親指の起点の位置は略「S/S」表示に対応して、終点の位置は「絞り」表示に対応しているが、ユーザは略真上方向に指をスライドさせているので、撮影機器1は、「MENU」表示の真上に位置する「露出補正」表示に対応した露出補正の設定モードの選択操作が行われたものと判定する。   The slide direction is determined from the start and end positions of the user's slide operation, and a setting mode corresponding to the slide direction determination result is selected. In the example of FIG. 3A, the position of the start point of the user's thumb substantially corresponds to the “S / S” display, and the position of the end point corresponds to the “aperture” display. Since the finger is slid, the photographing apparatus 1 determines that the operation for selecting the exposure correction setting mode corresponding to the “exposure correction” display positioned immediately above the “MENU” display has been performed.

なお、ユーザが指をスライドさせている途中においても、撮影機器1は指のスライド方向を判定しており、判定結果を逐次表示するようになっている。例えば、図3(a)の例では、ユーザが指を離してモード選択操作を終了するまでは、スライド方向の真上に対応する「露出補正」表示を選択しようとしていることを示す表示を表示する(図3(b))。図3(b)では、「露出補正」表示の枠を太線とすることで、ユーザが選択しようとしているモードを示しているが、色や濃淡等の変化によって示してもよい。   Even when the user slides his / her finger, the photographing apparatus 1 determines the sliding direction of the finger and sequentially displays the determination result. For example, in the example of FIG. 3A, a display indicating that the “exposure correction” display corresponding to the position immediately above the slide direction is selected is displayed until the user releases the finger and finishes the mode selection operation. (FIG. 3B). In FIG. 3B, the mode that the user is trying to select is indicated by making the frame of the “exposure correction” display bold, but it may be indicated by a change in color, shading, or the like.

本実施の形態においては、設定モードが選択されると、選択された設定モード毎にパラメータの設定するためのパラメータ選択表示56が表示される。図3(c)はパラメータ選択表示56の一例を示している。接眼表示部31の表示画面31a上には、パラメータ選択表示56が表示されている。図3(c)の例では、露出補正に関するパラメータ選択表示56を示しており、パラメータ選択表示56は、選択したパラメータを決定するための「決定」表示、パラメータを+2.0から−2.0まで0.5刻みで変化させるための各パラメータ表示を有する。   In the present embodiment, when a setting mode is selected, a parameter selection display 56 for setting parameters for each selected setting mode is displayed. FIG. 3C shows an example of the parameter selection display 56. A parameter selection display 56 is displayed on the display screen 31 a of the eyepiece display unit 31. In the example of FIG. 3C, a parameter selection display 56 relating to exposure correction is shown. The parameter selection display 56 is a “decision” display for determining the selected parameter, and the parameter is changed from +2.0 to −2.0. Each parameter display for changing in steps of 0.5.

このパラメータ選択表示56についても、接眼表示部31の表示画面31aに表示されるが、パラメータ選択表示56を表示部17の表示画面17bに表示することもできる。パラメータ選択表示56中の各表示は、その位置によって、ユーザがパラメータ選択するためのスライド操作の方向を示している。例えば、「+1.0」のパラメータ表示は、「決定」表示を基準として、右斜め上方向に位置するので、ユーザが指を表示部17の表示画面17b上で右斜め上方向にスライドさせることによって、パラメータを+1.0だけ増加させるためのパラメータ変化量を選択することができる。   The parameter selection display 56 is also displayed on the display screen 31 a of the eyepiece display unit 31, but the parameter selection display 56 can also be displayed on the display screen 17 b of the display unit 17. Each display in the parameter selection display 56 indicates the direction of the slide operation for the user to select a parameter depending on the position. For example, the parameter display of “+1.0” is located in the upper right direction with the “determined” display as a reference, so that the user slides his / her finger on the display screen 17 b of the display unit 17 in the upper right direction. The parameter change amount for increasing the parameter by +1.0 can be selected.

この場合においても、ユーザによるスライド操作は、スライド方向のみに意味があり、スライドの起点はどこでもよい。例えばユーザが親指を表示部17の画面上で左斜め上方向にスライドさせた場合には、ユーザのスライド操作方向は、スライド操作の起点及び終点の位置に拘わらず、左斜め上方向と判定され、スライド方向の判定結果に対応した+2.0のパラメータ変更量が選択される。なお、この場合においても、撮影機器1は、ユーザが指をスライドさせている途中における指のスライド方向を判定して、逐次表示するようにしてもよい。   Even in this case, the slide operation by the user is meaningful only in the slide direction, and the starting point of the slide may be anywhere. For example, when the user slides the thumb in the diagonally upward left direction on the screen of the display unit 17, the sliding operation direction of the user is determined to be the diagonally upward left direction regardless of the position of the starting point and the ending point of the sliding operation. The parameter change amount of +2.0 corresponding to the slide direction determination result is selected. Even in this case, the photographing apparatus 1 may determine the sliding direction of the finger while the user is sliding the finger, and sequentially display the finger.

図3(d)はこの例を示しており、接眼表示部31の表示画面31a上には、ビュー表示上に、露出補正モードであることを示す表示57及び選択したパラメータ変更量が+2.0であることを示す選択パラメータ表示58が表示されている。この状態でユーザが選択したパラメータを決定する操作、例えば、表示部17の表示画面17b上をタッチする操作を行うことによって、露出補正の補正量が+2.0として決定されるようになっている。   FIG. 3D shows this example. On the display screen 31a of the eyepiece display unit 31, a display 57 indicating the exposure correction mode and a selected parameter change amount are +2.0 on the view display. A selection parameter display 58 indicating that the above is displayed. In this state, by performing an operation of determining the parameter selected by the user, for example, an operation of touching the display screen 17b of the display unit 17, the exposure correction amount is determined as +2.0. .

図1において、撮影機器1を構成する撮影機器本体10は、CCDやCMOSセンサ等の撮像素子によって構成された撮像部11を有している。撮像部11は、撮影機器本体10の前面に設けられた交換レンズ20からの被写体像を光電変換して撮影画像信号を得る。   In FIG. 1, a photographic device main body 10 constituting the photographic device 1 has an imaging unit 11 constituted by an imaging element such as a CCD or a CMOS sensor. The imaging unit 11 photoelectrically converts the subject image from the interchangeable lens 20 provided on the front surface of the imaging device body 10 to obtain a captured image signal.

交換レンズ20は、撮影機器本体10の撮像部11に被写体像を導く撮影光学系21を有している。撮影光学系21は、ズームやフォーカシングのためのレンズ等を備えており、これらのレンズを駆動制御するためのリング操作部22a及びシフト操作部22b(以下、これらを操作部22ともいう)を備えている。ズームリングやピントリング等によって構成されるリング操作部22a及びシフト操作部22bの操作によって、ピントのみならず、ズーム位置や絞りの調整も可能である。   The interchangeable lens 20 has a photographic optical system 21 that guides a subject image to the imaging unit 11 of the photographic device body 10. The imaging optical system 21 includes a lens for zooming and focusing, and the like, and includes a ring operation unit 22a and a shift operation unit 22b (hereinafter also referred to as an operation unit 22) for driving and controlling these lenses. ing. By operating the ring operation unit 22a and the shift operation unit 22b configured by a zoom ring, a focus ring, or the like, not only the focus but also the zoom position and the aperture can be adjusted.

リング操作部22a及びシフト操作部22bは、ユーザ操作に基づく操作信号を制御部23に出力する。制御部23は、マイコン等によって構成されており、リング操作部22a及びシフト操作部22bからの操作信号に基づいて、回転操作及びシフト操作に基づくフォーカス信号及びズーム信号を発生して、駆動部24a,24bを制御する。   The ring operation unit 22 a and the shift operation unit 22 b output operation signals based on user operations to the control unit 23. The control unit 23 is configured by a microcomputer or the like, and generates a focus signal and a zoom signal based on a rotation operation and a shift operation based on operation signals from the ring operation unit 22a and the shift operation unit 22b, and a drive unit 24a. , 24b.

モーター等によって構成された駆動部24a,24bは、撮影光学系21に設けられたピント合わせに関連するレンズ(以下、これらを総称してピントレンズという)及びズーミングに関連するレンズ(以下、これらを総称してズームレンズという)を駆動し、ピント制御及びズーム制御を行う。撮影光学系21にはピント制御部21a及びズーム制御部21bが設けられている。ピント制御部21aはピントレンズの位置に対応した信号をピント位置判定部25aに出力する。また、ズーム制御部21bはズームレンズの位置(ズーム位置)に対応した信号をズーム位置判定部25bに出力する。   The drive units 24a and 24b configured by a motor or the like include a lens (hereinafter, collectively referred to as a focus lens) provided in the photographing optical system 21 and a lens (hereinafter referred to as a focus lens) related to zooming. (Collectively referred to as a zoom lens) to perform focus control and zoom control. The photographing optical system 21 is provided with a focus control unit 21a and a zoom control unit 21b. The focus control unit 21a outputs a signal corresponding to the position of the focus lens to the focus position determination unit 25a. Further, the zoom control unit 21b outputs a signal corresponding to the position (zoom position) of the zoom lens to the zoom position determination unit 25b.

ピント位置判定部25aは、ピント制御部21aの出力に基づいてピント位置を判定して判定結果を制御部23に出力する。ズーム位置判定部25bは、ズーム制御部21bの出力に基づいてズーム位置を判定して判定結果を制御部23に出力する。制御部23は、ピント位置及びズーム位置の判定結果が与えられ、操作部22の操作に対応したピント位置及びズーム位置となるように、駆動部24a,24bを制御する。   The focus position determination unit 25 a determines the focus position based on the output of the focus control unit 21 a and outputs the determination result to the control unit 23. The zoom position determination unit 25 b determines the zoom position based on the output of the zoom control unit 21 b and outputs the determination result to the control unit 23. The control unit 23 receives the determination result of the focus position and the zoom position, and controls the drive units 24 a and 24 b so that the focus position and the zoom position corresponding to the operation of the operation unit 22 are obtained.

交換レンズ20には、通信部28が設けられている。また、撮影機器本体10には通信部13が設けられている。通信部28は、所定の伝送路を介して撮影機器本体10の通信部13との間で情報の送受を行う。制御部23は、撮影機器本体10の通信部13との間の通信が確立すると、記録部26に格納したレンズ情報及びズーム操作に関するズーム情報等を通信部28,13によって撮影機器本体10に送信させることができる。   The interchangeable lens 20 is provided with a communication unit 28. The photographing device main body 10 is provided with a communication unit 13. The communication unit 28 transmits and receives information to and from the communication unit 13 of the photographing apparatus main body 10 via a predetermined transmission path. When communication with the communication unit 13 of the photographing apparatus main body 10 is established, the control unit 23 transmits the lens information stored in the recording unit 26 and zoom information related to the zoom operation to the photographing apparatus main body 10 through the communication units 28 and 13. Can be made.

レンズ情報により、撮影機器本体10は、交換レンズ20がどのようなズーム機能を有しているか、ズームレンズの焦点距離範囲(倍率)、焦点距離、明るさナンバー等を認識することができる。また、撮影機器本体10には、リング操作部22aからの回転操作の情報も与えられるようになっている。制御部23は、通信部13,28介して撮影機器本体10の信号処理及び制御部12から制御信号が供給されて、信号処理及び制御部12によって制御可能に構成されている。   Based on the lens information, the photographing apparatus body 10 can recognize what zoom function the interchangeable lens 20 has, the focal length range (magnification), the focal length, the brightness number, and the like of the zoom lens. Further, the photographing apparatus main body 10 is also provided with information on a rotation operation from the ring operation unit 22a. The control unit 23 is configured to be controlled by the signal processing and control unit 12 by receiving a control signal from the signal processing and control unit 12 of the photographing apparatus body 10 via the communication units 13 and 28.

なお、本実施の形態においては、種々の交換レンズを採用することができ、更に、交換レンズだけでなく、交換不能なレンズを採用してもよい。   In the present embodiment, various interchangeable lenses can be adopted, and not only interchangeable lenses but also non-replaceable lenses may be employed.

撮影機器本体10の撮像部11は、信号処理及び制御部12によって駆動制御されて、交換レンズ20を介して被写体を撮影し、撮影画像を出力する。信号処理及び制御部12は、撮像部11に撮像素子の駆動信号を出力すると共に、撮像部11からの撮影画像を読み出す。信号処理及び制御部12は、読み出した撮影画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。   The imaging unit 11 of the imaging apparatus main body 10 is driven and controlled by the signal processing and control unit 12 to capture a subject through the interchangeable lens 20 and output a captured image. The signal processing and control unit 12 outputs a driving signal for the imaging element to the imaging unit 11 and reads a captured image from the imaging unit 11. The signal processing and control unit 12 performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image.

撮影機器本体10には、時計部14及び操作判定部15も配設されている。時計部14は信号処理及び制御部12が用いる時間情報を発生する。操作判定部15は、撮像機器本体10に設けられたシャッタボタン35や図示しない撮影モード設定等の各種スイッチに対するユーザ操作に基づく操作信号を発生して、信号処理及び制御部12に出力するようになっている。信号処理及び制御部12は、操作信号に基づいて、各部を制御する。 The photographing device main body 10 is also provided with a clock unit 14 and an operation determination unit 15. The clock unit 14 generates time information used by the signal processing and control unit 12. Operation determining unit 15 generates an operation signal based on user operation on various switches shooting mode setting like the shutter over button 35 and not shown provided in the image pickup apparatus main body 10, so as to output to the signal processing and control unit 12 It has become. The signal processing and control unit 12 controls each unit based on the operation signal.

信号処理及び制御部12は、信号処理後の撮影画像を圧縮処理し、圧縮後の画像を記録部16に与えて記録させることができる。記録部16としては、例えばカードインターフェースを採用することができ、記録部17はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。   The signal processing and control unit 12 can compress the captured image after the signal processing and give the compressed image to the recording unit 16 for recording. As the recording unit 16, for example, a card interface can be adopted, and the recording unit 17 can record image information, audio information, and the like on a recording medium such as a memory card.

また、信号処理及び制御部12の表示制御部12cは、信号処理後の撮影画像を表示部17及び接眼表示部31に与えることができる。なお、接眼表示部31には、通信部32が設けられており、信号処理及び制御部12からの画像信号は、通信部18,32を介して、接眼表示部31に転送されるようになっている。表示部17及び接眼表示部31は、夫々LCD等の表示画面17b,31aを有しており、信号処理及び制御部12から与えられた画像を表示する。また、表示制御部12cは、各種メニュー表示や、上述した設定モード選択表示55及びパラメータ選択表示56を表示画面17b,31aに表示させることもできるようになっている。   Further, the display control unit 12 c of the signal processing and control unit 12 can provide the captured image after the signal processing to the display unit 17 and the eyepiece display unit 31. The eyepiece display unit 31 is provided with a communication unit 32, and an image signal from the signal processing and control unit 12 is transferred to the eyepiece display unit 31 via the communication units 18 and 32. ing. The display unit 17 and the eyepiece display unit 31 have display screens 17b and 31a such as LCDs, respectively, and display an image given from the signal processing and control unit 12. In addition, the display control unit 12c can display various menu displays and the setting mode selection display 55 and the parameter selection display 56 described above on the display screens 17b and 31a.

なお、接眼表示部31は、ユーザが目を接眼表示部31の接眼する部分に近接させたことを検出する接眼センサ33が設けられており、接眼センサ33の検出結果によって、信号処理及び制御部12は、ユーザが目を接眼する部分に近接させたか否かを判定することができるようになっている。   Note that the eyepiece display unit 31 is provided with an eyepiece sensor 33 that detects that the user has brought the eye close to the eyepiece part of the eyepiece display unit 31. Depending on the detection result of the eyepiece sensor 33, the signal processing and control unit is provided. No. 12 can determine whether or not the user has brought the eye close to the eyepiece.

更に、撮影機器本体10にはタッチパネル17aが設けられている。例えば、タッチパネル17aを表示部17の表示画面17b上に設けることで、ユーザが指で指し示した表示画面17b上の位置に応じた操作信号を発生することができる。これにより、信号処理及び制御部12のタッチ操作検出部12bは、ユーザが表示部17の表示画面17b上を指でタッチする操作を検出することができると共に、ユーザが表示部17の表示画面17b上を指でスライドさせるスライド操作を行った場合に、そのスライド方向を検出することができる。   Further, the photographing apparatus main body 10 is provided with a touch panel 17a. For example, by providing the touch panel 17a on the display screen 17b of the display unit 17, it is possible to generate an operation signal corresponding to the position on the display screen 17b pointed by the user with a finger. Thereby, the touch operation detection unit 12b of the signal processing and control unit 12 can detect an operation in which the user touches the display screen 17b of the display unit 17 with a finger, and the user can display the display screen 17b of the display unit 17. When a slide operation is performed to slide the finger up with a finger, the slide direction can be detected.

信号処理及び制御部12は、各部を制御することで、ユーザ操作に基づく撮影モードを設定して、各撮影モードに応じた撮影機能を実現する。例えば、撮影機器本体10のパラメータ制御部12aは、タッチ操作検出部12bの検出結果が与えられ、ユーザが表示部17の表示画面17b上で行ったタッチ操作及びスライド操作に応じたパラメータを設定する。例えば、パラメータ制御部12aは、ユーザのタッチ及びスライド操作に応じて、アスペクト比、露出、絞り、ホワイトバランス、シャッタ速度、測光及びフォーカス制御等の各パラメータを設定する。   The signal processing and control unit 12 controls each unit to set a shooting mode based on a user operation, and realize a shooting function according to each shooting mode. For example, the parameter control unit 12a of the photographing apparatus body 10 is given the detection result of the touch operation detection unit 12b, and sets parameters according to the touch operation and the slide operation performed by the user on the display screen 17b of the display unit 17. . For example, the parameter control unit 12a sets parameters such as aspect ratio, exposure, aperture, white balance, shutter speed, photometry, and focus control according to the user's touch and slide operation.

次に、このように構成された実施の形態の動作について図4及び図5を参照して説明する。図4はカメラ制御を説明するためのフローチャートであり、図5は図4のステップS13における操作判定及びパラメータ変更ステップの具体例を示すフローチャートである。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 4 is a flowchart for explaining camera control, and FIG. 5 is a flowchart showing a specific example of the operation determination and parameter change step in step S13 of FIG.

図4のステップS1において、撮影機器1の電源がオンになったことが検出されると、信号処理及び制御部12は、次のステップS2で撮影モードが指示されたか否かを判定する。撮影モードが指示されていない場合には、信号処理及び制御部12は、ステップS3において、再生モードが指示されたか否かを判定する。再生モードが指示されると、信号処理及び制御部12は、ステップS4において選択画像の再生を行う。ユーザが再生画像の変更を指示すると、信号処理及び制御部12は、ステップS5から処理をステップS6に移行して画像の変更を行う。なお、信号処理及び制御部12は、ステップS3において再生モードが指定されていない場合には、ステップS8において撮影画像を送信する画像通信モードに移行する。   In step S1 of FIG. 4, when it is detected that the power of the photographing apparatus 1 is turned on, the signal processing and control unit 12 determines whether or not the photographing mode is instructed in the next step S2. If the shooting mode is not instructed, the signal processing and control unit 12 determines whether or not the reproduction mode is instructed in step S3. When the reproduction mode is instructed, the signal processing and control unit 12 reproduces the selected image in step S4. When the user instructs to change the reproduced image, the signal processing and control unit 12 shifts the processing from step S5 to step S6 and changes the image. Note that if the playback mode is not designated in step S3, the signal processing and control unit 12 shifts to the image communication mode in which the captured image is transmitted in step S8.

一方、撮影モードが指示されると、信号処理及び制御部12は、ステップS11において、接眼判定を行う。接眼表示部31近傍には、ユーザが目を接眼表示部31の接眼する部分に近接させたことを検出するセンサ33が設けられており、このセンサ33の検出結果によって、信号処理及び制御部12は、ユーザが目を接眼する部分に近接させたか否かを判定することができる。   On the other hand, when the photographing mode is instructed, the signal processing and control unit 12 performs eyepiece determination in step S11. In the vicinity of the eyepiece display unit 31, there is provided a sensor 33 that detects that the user has brought the eye close to the eyepiece part of the eyepiece display unit 31. Depending on the detection result of the sensor 33, the signal processing and control unit 12 is provided. Can determine whether or not the user has brought the eye close to the eyepiece.

信号処理及び制御部12は、接眼判定によって、ユーザが目を接眼する部分に近接させていないものと判定した場合には、処理をステップS14に移行して、撮像部11からの画像信号に基づいて、表示部17に撮像画像(スルー画)をライブビュー表示する。更に、信号処理及び制御部12は、ステップS15において、ユーザによる各種操作を判定し、判定結果に基づいて、各種設定操作、例えば撮影パラメータ等の各種パラメータの変更や撮影操作等を行う。ここでは、画面に表示されている被写体を見ながらの操作となるので、図10で後述するような、タッチレリーズなどを含む操作ができるようになっている。ユーザが被写体にタッチしたということは、直感的に選んだ興味がある被写体を見つけた状況であるとし、タッチしたポイントにピントや露出を合わせて撮影まで行う。   If the signal processing and control unit 12 determines that the user does not place the eye close to the eyepiece part by eyepiece determination, the process proceeds to step S14 and is based on the image signal from the imaging unit 11. Then, the captured image (through image) is displayed in live view on the display unit 17. Further, in step S15, the signal processing and control unit 12 determines various operations by the user, and performs various setting operations, for example, changes of various parameters such as imaging parameters, imaging operations, and the like based on the determination results. Here, since the operation is performed while looking at the subject displayed on the screen, an operation including a touch release as described later with reference to FIG. 10 can be performed. The fact that the user has touched the subject is a situation where an intuitively selected subject of interest is found, and focusing and exposure are performed on the touched point until shooting.

ユーザが撮影モード時に、目を接眼する部分に近接させると、信号処理及び制御部12は、処理をステップS11からステップS12に移行して、接眼表示部31の表示画面31a上にスルー画を表示させる。更に、信号処理及び制御部12は、ステップS13において、ユーザの操作を判定し、判定結果に基づいてパラメータの変更を行う。   When the user brings the eye close to the eyepiece part in the photographing mode, the signal processing and control unit 12 shifts the process from step S11 to step S12 and displays a through image on the display screen 31a of the eyepiece display unit 31. Let Further, in step S13, the signal processing and control unit 12 determines the user's operation and changes the parameter based on the determination result.

図5はこの操作判定方法の具体例を示している。特に、接眼時にタッチパネルを見ないでも操作できる状況を想定している。この場合は、被写体そのもののタッチではないので、タッチレリーズを想定する必要はない。ただし、タッチ部の表示を確認できないという制約もある。図5のステップS21において、信号処理及び制御部12のタッチ操作検出部12bは、表示部17に配設したタッチパネル17aをユーザがタッチしたか否かを検出する。   FIG. 5 shows a specific example of this operation determination method. In particular, it is assumed that the user can operate the eyepiece without looking at the touch panel. In this case, it is not necessary to assume a touch release since it is not a touch of the subject itself. However, there is a restriction that the display of the touch part cannot be confirmed. In step S <b> 21 of FIG. 5, the touch processing detection unit 12 b of the signal processing and control unit 12 detects whether or not the user touches the touch panel 17 a provided on the display unit 17.

いま、ユーザが接眼表示部31によるライブビュー表示によって被写体を確認しながら、撮影のためのパラメータ設定を行うものとする。この場合には、ユーザは、接眼表示部31のライブビュー表示を確認しながら、指で表示部17をタッチする。接眼部のタッチではない。   Now, it is assumed that the user sets parameters for shooting while confirming the subject through live view display by the eyepiece display unit 31. In this case, the user touches the display unit 17 with a finger while confirming the live view display of the eyepiece display unit 31. It is not a touch of the eyepiece.

信号処理及び制御部12は、ステップS22において、パラメータ設定を行うモードが既に決定されているか否かを判定する。モードが決定されていない場合には、信号処理及び制御部12は、タッチ操作検出部12のタッチ検出によって、パラメータ設定を行うモードを選択するための操作が行われたものと判定する。表示制御部12cは、タッチ操作検出部12の検出結果によって、タッチが例えば1秒以上継続した場合には、処理をステップS23からステップS24に移行して、表示部17の表示画面17b上に、例えば図2(d)に示す設定モード選択表示を表示させる。ここでは目視確認できないでタッチをしているので、時間管理などで表示を出したが、特定のタッチ動作やタップ動作、スライド操作で出すようにしてもよい。   In step S22, the signal processing and control unit 12 determines whether or not a mode for performing parameter setting has already been determined. If the mode has not been determined, the signal processing and control unit 12 determines that an operation for selecting a mode for performing parameter setting has been performed by the touch detection of the touch operation detection unit 12. The display control unit 12c moves the process from step S23 to step S24 when the touch is continued for, for example, 1 second or more according to the detection result of the touch operation detection unit 12, and displays the display on the display screen 17b of the display unit 17. For example, the setting mode selection display shown in FIG. Here, since the touch is made without visual confirmation, the display is made by time management or the like, but it may be made by a specific touch operation, tap operation, or slide operation.

信号処理及び制御部12は、設定モード選択表示の表示部への表示の有無に拘わらず、ステップS25〜S30の処理によって、モードの決定を行うようにしてもよい。タッチ操作検出部12bは、ステップS25において、タッチしている指の位置がタッチした点から変化しているか否か、即ち、ユーザがスライド操作しているか否かを判定する。ユーザがスライド操作を行った場合には、タッチ操作検出部12bは、タッチ開始点を基準としてスライド方向を判定する(ステップS26)。このように、タッチした位置そのものは操作に関与しないので、目視確認なし操作が可能となる。   The signal processing and control unit 12 may determine the mode by the processes in steps S25 to S30 regardless of whether the setting mode selection display is displayed on the display unit. In step S25, the touch operation detection unit 12b determines whether or not the position of the touching finger has changed from the touched point, that is, whether or not the user is performing a slide operation. When the user performs a slide operation, the touch operation detection unit 12b determines the slide direction with reference to the touch start point (step S26). In this way, the touched position itself is not involved in the operation, and thus an operation without visual confirmation is possible.

信号処理及び制御部12は、タッチ操作検出部12bの検出結果によって、スライド方向に対応した設定モードを選択し(ステップS27)、図3(b)のように、選択しているモードに対応した表示を太枠表示する(ステップS29)。   The signal processing and control unit 12 selects a setting mode corresponding to the sliding direction based on the detection result of the touch operation detection unit 12b (step S27), and corresponds to the selected mode as shown in FIG. 3B. The display is displayed with a thick frame (step S29).

ユーザが指をタッチパネル17aから離間させると、信号処理及び制御部12は、選択中のモードを決定する(ステップS30)。ユーザが指を離間させるまではステップS30のモード決定は行われない。従って、ユーザは指を間違った方向にスライドさせた場合でも、指を離さずに正しい方向にスライドさせることにより、所望のモードを選択することができる。   When the user moves the finger away from the touch panel 17a, the signal processing and control unit 12 determines the mode being selected (step S30). The mode determination in step S30 is not performed until the user separates the finger. Therefore, even when the user slides the finger in the wrong direction, the user can select a desired mode by sliding the finger in the correct direction without releasing the finger.

モードが決定した状態で、ユーザが再度タッチパネル17aにタッチすると、信号処理及び制御部12はステップS22から処理をステップS31に移行して、表示制御部12cは、タッチ操作検出部12の検出結果によって、タッチが例えば1秒以上継続したか否かを判定し(ステップS31)、タッチが1秒以上継続した場合には、表示部17の表示画面17b上に、例えば図3(c)に示すパラメータ選択表示を表示させる(ステップS32)。ここでも、タップなど時間管理による方法以外を採用してもよい。   When the user touches the touch panel 17a again with the mode determined, the signal processing and control unit 12 shifts the processing from step S22 to step S31, and the display control unit 12c determines the detection result of the touch operation detection unit 12. For example, it is determined whether or not the touch has continued for 1 second or longer (step S31). If the touch has continued for 1 second or longer, the parameter shown in FIG. 3C is displayed on the display screen 17b of the display unit 17, for example. A selection display is displayed (step S32). Here, methods other than time management such as tapping may be adopted.

信号処理及び制御部12は、パラメータ選択表示の画面への表示の有無に拘わらず、ステップS33〜S37の処理によって、パラメータ(又は変更量)の決定を行う。タッチ操作検出部12bは、ステップS33において、ユーザが指をタッチパネル17aから離間させたか否かを判定する。指が離間すると、タッチ操作検出部12bは、ステップS34においてスライドの有無を判定する。スライド操作があった場合には、信号処理及び制御部12は、次のステップS35において、タッチの開始点を基準としてスライド方向を判定し、スライド方向に対応したパラメータを選択する。信号処理及び制御部12の表示制御部12cは、選択しているパラメータに対応した表示を太枠表示する(ステップS36)。   The signal processing and control unit 12 determines a parameter (or change amount) by the processing in steps S33 to S37 regardless of whether or not the parameter selection display is displayed on the screen. In step S33, the touch operation detection unit 12b determines whether the user has moved his / her finger away from the touch panel 17a. When the finger is separated, the touch operation detection unit 12b determines whether or not there is a slide in step S34. If there is a slide operation, the signal processing and control unit 12 determines the slide direction with reference to the touch start point in the next step S35, and selects a parameter corresponding to the slide direction. The display control unit 12c of the signal processing and control unit 12 displays the display corresponding to the selected parameter in a thick frame (step S36).

なお、パラメータの選択操作は、指がタッチパネル17aから離間するまで行われるので、ユーザは間違った方向にスライドさせた場合でも、指を離さずに正しい方向にスライドさせることにより、所望のパラメータを選択することができる。   The parameter selection operation is performed until the finger is separated from the touch panel 17a. Therefore, even when the user slides in the wrong direction, the desired parameter can be selected by sliding in the correct direction without releasing the finger. can do.

ユーザは選択したパラメータを決定するために、再度タッチパネル17aをタッチし、スライドさせることなく指をタッチパネル17aから離間させる。これにより、処理はステップS34からステップS37に移行して、パラメータ制御部12aは、選択されているパラメータを決定する。信号処理及び制御部12は、決定したパラメータに応じて各部を制御して、モード設定を終了する。   In order to determine the selected parameter, the user touches the touch panel 17a again and moves the finger away from the touch panel 17a without sliding. Thus, the process proceeds from step S34 to step S37, and the parameter control unit 12a determines the selected parameter. The signal processing and control unit 12 controls each unit according to the determined parameter, and ends the mode setting.

なお、パラメータの決定は、指でタッチパネル17aをタッチしスライドすることなく離すことによって行われる。この場合において、パラメータ選択表示の表示中に、ユーザがスライド操作を複数回繰り返すことが考えられる。この場合には、ユーザが行った最後のスライド操作に基づいてパラメータを決定してもよく、各スライド操作によって指定されたパラメータの変化量を積算し、積算値をパラメータの設定値としてもよい。このような繰り返しによるパラメータ加算も、直感的な操作と言える。それは、操作の回数がパラメータ変化に換算されるからである。   The parameter is determined by touching the touch panel 17a with a finger and releasing it without sliding. In this case, it is conceivable that the user repeats the slide operation a plurality of times during the display of the parameter selection display. In this case, the parameter may be determined based on the last slide operation performed by the user, the change amount of the parameter designated by each slide operation may be integrated, and the integrated value may be used as the parameter set value. Such parameter addition by repetition is also an intuitive operation. This is because the number of operations is converted into a parameter change.

なお、ステップS21においてタッチが検出されなかった場合には、信号処理及び制御部12は、所定の時間経過後に、図2及び図3で示したモード設定のための表示を消去し、スルー画表示のみに戻す。   If no touch is detected in step S21, the signal processing and control unit 12 erases the display for mode setting shown in FIGS. 2 and 3 after a predetermined time has elapsed, and displays a through image display. Only return.

パラメータの設定が行われると、次に、信号処理及び制御部12は、図4のステップS16において、撮影操作が行われたか否かを判定する。ユーザがシャッタボタン35を操作して撮影を行うと、信号処理及び制御部12は、ステップS17において撮影を行う。信号処理及び制御部12は、撮像部11からの撮像画像に対して所定の信号処理を施して撮像画像を生成する。信号処理及び制御部12は、生成された撮像画像を記録部16に与えて画像ファイル化する。 Once the parameters have been set, the signal processing and control unit 12 next determines whether or not a shooting operation has been performed in step S16 of FIG. When the user performs photographing by operating the shutter over button 35, the signal processing and control unit 12 performs the photographing in step S17. The signal processing and control unit 12 performs predetermined signal processing on the captured image from the imaging unit 11 to generate a captured image. The signal processing and control unit 12 gives the generated captured image to the recording unit 16 to form an image file.

このように本実施の形態においては、タッチ及びスライド操作によって、モード設定及び撮影パラメータ設定等の設定操作を行うことができる。この場合において、モードやパラメータの決定にタッチ位置ではなく、スライド方向のみを用いており、ユーザは、表示画面を見てタッチする位置を確認する必要はないので、撮影中であっても簡単に設定操作が可能である。例えば、接眼表示部内の表示画面を覗き込んだ状態で、背面パネル等のスライド操作によって、確実に撮影パラメータ設定等を行うことができ、直感的にして応答性をよくして操作性を向上させることができる。   Thus, in the present embodiment, setting operations such as mode setting and shooting parameter setting can be performed by touch and slide operations. In this case, only the slide direction is used for determining the mode and parameters, not the touch position, and the user does not need to check the touch position by looking at the display screen. Setting operation is possible. For example, while looking into the display screen in the eyepiece display unit, it is possible to reliably set the shooting parameters by sliding the rear panel, etc., and intuitively improve responsiveness and improve operability be able to.

また、同じスライド操作を繰り返したり、スライド距離を変えたりすることで、数値変更をできるようにすれば、直感的でスピーディーで自在な操作ができる。指がどこかに届かないなどの問題もなくなり、短く関節も少なく、自由度に劣る親指での操作で、簡単に必要な操作が可能となる。このため、持ち替えなどの必要もなく、ホールディングに優れ、手ぶれなどを抑制できる。   In addition, if the numerical value can be changed by repeating the same slide operation or changing the slide distance, an intuitive, speedy and flexible operation can be performed. The problem that the finger does not reach somewhere is eliminated, and the necessary operation can be easily performed by the operation with the thumb which is short and has few joints and inferior in flexibility. For this reason, there is no need to carry it over, it is excellent in holding, and hand shake can be suppressed.

接眼表示部の表示画面を覗き込んだままで操作ができるので、目を接眼表示部から離間させる場合よりも、フレーミングが容易であり、長い焦点距離の撮影時におけるブレを低減することができ、安定してカメラを構えることができ、しかも、表示画面が太陽光の影響を受けないので、見やすく色再現性に優れた状態で被写体をしっかり観察することができる。これによって構図やパラメータ設定を確実に確認でき、シャッターチャンスを逃すこともない。
(第2の実施の形態)
図6は本発明の第2の実施の形態において採用される動作フローを示すフローチャートである。図6において図5と同一の手順には同一符号を付して説明を省略する。図7は第2の実施の形態を説明するための説明図である。本実施の形態におけるハードウェア構成は第1の実施の形態と同様である。
Operation can be performed while looking into the display screen of the eyepiece display unit, making framing easier than when separating the eyes from the eyepiece display unit, reducing blurring when shooting at a long focal length, and stable. In addition, the camera can be held and the display screen is not affected by sunlight, so that it is easy to see and the subject can be observed with excellent color reproducibility. As a result, composition and parameter settings can be confirmed reliably, and a photo opportunity is not missed.
(Second Embodiment)
FIG. 6 is a flowchart showing an operation flow employed in the second embodiment of the present invention. In FIG. 6, the same steps as those in FIG. FIG. 7 is an explanatory diagram for explaining the second embodiment. The hardware configuration in this embodiment is the same as that in the first embodiment.

本実施の形態はパラメータの選択及び決定の仕方が第1の実施の形態と異なるのみである。図7(b)は第2の実施の形態におけるパラメータ選択表示の一例を示す説明図である。図7(b)に示すように、接眼表示部31の表示画面31a上には、ライブビュー表示上に、露出補正モードであることを示す表示61、パラメータ変更量を所定量だけ減ずることを示す表示62、パラメータ変更量を所定量だけ増加させることを示す表示63、現在のパラメータ変更量が+2.0であることを示す表示64及び戻る方向であることを示す表示65が表示されている。   This embodiment is different from the first embodiment only in parameter selection and determination. FIG. 7B is an explanatory diagram showing an example of parameter selection display in the second embodiment. As shown in FIG. 7B, on the display screen 31a of the eyepiece display unit 31, on the live view display, a display 61 indicating that it is in the exposure correction mode, and that the parameter change amount is reduced by a predetermined amount. A display 62, a display 63 indicating that the parameter change amount is increased by a predetermined amount, a display 64 indicating that the current parameter change amount is +2.0, and a display 65 indicating the return direction are displayed.

図6のステップS41において、信号処理及び制御部12のタッチ操作検出部12bは、予め設定されている、戻る方向にスライド操作が行われたか否かが判定される。戻る方向は、現在の設定モードを終了させるためのスライド方向であり、図7(b)の例では、表示65に示す真下方向である。   In step S41 of FIG. 6, the touch operation detection unit 12b of the signal processing and control unit 12 determines whether or not a slide operation has been performed in a preset return direction. The return direction is a slide direction for ending the current setting mode, and is the downward direction shown in the display 65 in the example of FIG.

タッチ操作検出部12bは、戻る方向への操作でない場合には、次のステップS42において数値決定方向の操作であるか否かを判定する。信号処理及び制御部12は、数値決定方向の操作であると判定した場合には、1回のスライド操作毎に、1ステップ(所定の変更量)だけ、パラメータの変更量を増加又は減少させる(ステップS43)。   When the operation is not in the returning direction, the touch operation detecting unit 12b determines whether the operation is in the numerical value determination direction in the next step S42. If the signal processing and control unit 12 determines that the operation is in the numerical value determination direction, the parameter change amount is increased or decreased by one step (predetermined change amount) for each slide operation ( Step S43).

例えば、図7(a)のように、ユーザが親指を、起点位置の親指43a1から終点位置の親指43a2まで、表示部17の表示画面17b上を矢印に示す左方向にスライドさせた場合には、信号処理及び制御部12は、パラメータの変更量を所定量だけ減少させる。逆に、ユーザが指を右方向にスライドさせた場合には、信号処理及び制御部12は、パラメータの変更量を所定量だけ増加させる。表示制御部12cは、現在のパラメータ変更量を表示64として表示する。   For example, as shown in FIG. 7A, when the user slides his / her thumb from the thumb 43a1 at the start position to the thumb 43a2 at the end position on the display screen 17b of the display unit 17 in the left direction indicated by the arrow. The signal processing and control unit 12 reduces the parameter change amount by a predetermined amount. Conversely, when the user slides his / her finger to the right, the signal processing and control unit 12 increases the parameter change amount by a predetermined amount. The display control unit 12 c displays the current parameter change amount as a display 64.

こうして、ユーザが指を左右方向にスライドさせる操作に応答して、パラメータの変更量が増減する。信号処理及び制御部12は、スライド方向が戻る方向であるものと判定した場合には、ステップS44に処理を移行して、現状の数値をパラメータの増減量として決定する。   In this way, the amount of parameter change increases or decreases in response to the user sliding the finger in the left-right direction. If the signal processing and control unit 12 determines that the sliding direction is the returning direction, the signal processing and control unit 12 proceeds to step S44 to determine the current numerical value as the parameter increase / decrease amount.

信号処理及び制御部12は、ユーザ操作に基づくパラメータの変更量に従って、アスペクト比、露出、絞り、ホワイトバランス、シャッタ速度、測光及びフォーカス制御等の各種パラメータを設定する。   The signal processing and control unit 12 sets various parameters such as aspect ratio, exposure, aperture, white balance, shutter speed, photometry, and focus control according to the amount of parameter change based on the user operation.

このように本実施の形態においても第1の実施の形態と同様の効果を得ることができる。また、本実施の形態においては、パラメータを増減させるための2方向のみの操作を行えばよく、操作が一層簡単であるという利点がある。第1実施例において説明した特徴、利点は、特に説明を繰り返さなくとも踏襲されることは言うまでもない。
(第3の実施の形態)
図8は本発明の第3の実施の形態において採用される動作フローを示すフローチャートである。図8において図6と同一の手順には同一符号を付して説明を省略する。また、図9は第3の実施の形態を説明するための説明図である。本実施の形態におけるハードウェア構成は第1の実施の形態と同様である。
As described above, also in this embodiment, the same effect as that of the first embodiment can be obtained. Further, in the present embodiment, it is sufficient to perform an operation in only two directions for increasing or decreasing the parameters, and there is an advantage that the operation is simpler. It goes without saying that the features and advantages described in the first embodiment can be followed without repeating the description.
(Third embodiment)
FIG. 8 is a flowchart showing an operation flow employed in the third embodiment of the present invention. In FIG. 8, the same steps as those in FIG. FIG. 9 is an explanatory diagram for explaining the third embodiment. The hardware configuration in this embodiment is the same as that in the first embodiment.

本実施の形態はパラメータの選択及び決定の仕方が第2の実施の形態と異なるのみである。本実施の形態においては、信号処理及び制御部12は、交換レンズ20からリング操作部22aのリング操作に関する情報が与えられ、リング操作に応じて、パラメータの変更量を変化させるようになっている。   This embodiment is different from the second embodiment only in how to select and determine parameters. In the present embodiment, the signal processing and control unit 12 is provided with information related to the ring operation of the ring operation unit 22a from the interchangeable lens 20, and changes the parameter change amount according to the ring operation. .

図9(b)は第3の実施の形態におけるパラメータ選択表示の一例を示す説明図である。図9(b)に示すように、接眼表示部31の表示画面31a上には、ライブビュー表示上に、露出補正モードであることを示す表示61、パラメータ変更量を所定量だけ減ずる(−方向)ための回転方向を示す操作補助表示71、パラメータ変更量を所定量だけ増加させる(+方向)ための回転方向を示す操作補助表示72及び現在のパラメータ変更量が+2.0であることを示す表示64が表示されている。   FIG. 9B is an explanatory diagram showing an example of parameter selection display in the third embodiment. As shown in FIG. 9B, on the display screen 31a of the eyepiece display unit 31, on the live view display, a display 61 indicating the exposure correction mode, and the parameter change amount are reduced by a predetermined amount (-direction). ), The operation auxiliary display 71 indicating the rotation direction, the operation auxiliary display 72 indicating the rotation direction for increasing the parameter change amount by a predetermined amount (+ direction), and the current parameter change amount is +2.0. A display 64 is displayed.

図8のステップS51において、信号処理及び制御部12の表示制御部12cは、操作補助表示71,72を表示させる。次に、信号処理及び制御部12は、ステップS52において、指がタッチパネル17aから離間したか否かを判定する。信号処理及び制御部12は、指を離すと、パラメータの増減操作を終了して、処理をステップS44に移行する。本実施の形態においては、ユーザが指をタッチしている期間において、リング操作部22aによるパラメータ増減操作を受け付ける。   In step S51 of FIG. 8, the display control unit 12c of the signal processing and control unit 12 displays the operation auxiliary displays 71 and 72. Next, the signal processing and control unit 12 determines whether or not the finger is separated from the touch panel 17a in step S52. When the signal processing and control unit 12 removes the finger, the parameter increasing / decreasing operation is ended, and the process proceeds to step S44. In the present embodiment, parameter increase / decrease operations by the ring operation unit 22a are accepted during a period in which the user is touching the finger.

ユーザは、パラメータの増減量を決定するために、リング操作部22aを時計方向又は反時計方向に回転させる。信号処理及び制御部12は、ステップS53においてリング操作の有無を判定して操作に応じてパラメータを変化させる(ステップS54)。信号処理及び制御部12は、ユーザが時計方向にリング操作部22aを回転させるとパラメータを増加させ、反時計方向にリング操作部22aを回転させるとパラメータを減少させる。   The user rotates the ring operation unit 22a clockwise or counterclockwise in order to determine the amount of increase / decrease of the parameter. The signal processing and control unit 12 determines whether or not there is a ring operation in step S53 and changes the parameter according to the operation (step S54). The signal processing and control unit 12 increases the parameter when the user rotates the ring operation unit 22a clockwise, and decreases the parameter when the user rotates the ring operation unit 22a counterclockwise.

この場合には、信号処理及び制御部12は、リング操作部22aの回転量に応じた値をパラメータの増減量とする。表示制御部12cは、現在のパラメータ変更量を表示63として表示する。   In this case, the signal processing and control unit 12 sets a value corresponding to the rotation amount of the ring operation unit 22a as the parameter increase / decrease amount. The display control unit 12 c displays the current parameter change amount as a display 63.

他の構成及び作用は、第2の実施の形態と同様である。   Other configurations and operations are the same as those of the second embodiment.

このように本実施の形態においても第1の実施の形態と同様の効果を得ることができる。また、本実施の形態においては、リング操作部による簡単な操作によってパラメータを増減させることができ、左右の手を同時に使える状況では、操作性が一層向上するという利点がある。   As described above, also in this embodiment, the same effect as that of the first embodiment can be obtained. In the present embodiment, the parameter can be increased or decreased by a simple operation by the ring operation unit, and there is an advantage that the operability is further improved in a situation where the left and right hands can be used simultaneously.

なお、上記各実施の形態においては、タッチパネルにタッチした指を全方向にスライド可能であるものとして説明したが、例えば最初に画面の端部にタッチした場合等のように、必ずしも指を全方向にスライドさせることができないことがある。この場合には、スライド不能な方向に対応したモードやパラメータを選択することができないことを示す表示を表示させてもよい。例えば、このような表示として、設定モード選択表示及びパラメータ選択表示上の当該部分の色や濃淡等を他の部分と変えたりする表示が考えられる。この場合には、ユーザは、全方向へのスライドが可能な位置に再度タッチしなおすことで、全てのモード選択及びパラメータ選択が可能となる。第1実施例において説明した特徴、利点は、特に説明を繰り返さなくとも踏襲されることは言うまでもない。レンズ部に操作部材を有し、両手が使える状況下では、フレーミング時に把持しなければならない、レンズ部の操作も合わせて、手ぶれやフレーミングの中断なく、より自由度の高い操作が可能となる。また、タッチレリーズなど、ユーザが直感的にしたくなる操作を矛盾無く採用でき、ユーザ満足度の高いカメラを提供することが可能となる。
(第4の実施の形態)
図10は本発明の第4の実施の形態において採用される動作フローを示すフローチャートである。図10において図8と同一の手順には同一符号を付して説明を省略する。また、図11は第4の実施の形態を説明するための説明図である。本実施の形態におけるハードウェア構成は第1の実施の形態と同様である。
In each of the above-described embodiments, the finger touching the touch panel has been described as being slidable in all directions, but the finger is not necessarily omnidirectional, for example, when first touching the edge of the screen. You may not be able to slide it. In this case, a display indicating that the mode or parameter corresponding to the non-slidable direction cannot be selected may be displayed. For example, such a display may be a display in which the color, shading, or the like of the part on the setting mode selection display and parameter selection display is changed from the other part. In this case, the user can select all modes and parameters by touching again a position where sliding in all directions is possible. It goes without saying that the features and advantages described in the first embodiment can be followed without repeating the description. In a situation where the lens unit has an operation member and both hands can be used, the operation of the lens unit, which must be gripped during framing, can be operated with higher flexibility without interruption of camera shake or framing. In addition, operations that the user wants to be intuitive, such as touch release, can be adopted without contradiction, and a camera with high user satisfaction can be provided.
(Fourth embodiment)
FIG. 10 is a flowchart showing an operation flow employed in the fourth embodiment of the present invention. In FIG. 10, the same steps as those in FIG. Moreover, FIG. 11 is explanatory drawing for demonstrating 4th Embodiment. The hardware configuration in this embodiment is the same as that in the first embodiment.

撮影機器1において、撮影し記録を行うための操作としては、シャッタボタン35の押下操作だけでなく、表示部17の表示画面17b上のタッチ操作がある。表示部17に表示されている撮像画像(ライブビュー表示)の表示上で、ユーザがピントを合わせたい被写体の表示部分にタッチすると、信号処理及び制御部12は、当該被写体に合焦させると共に、撮像画像を取り込んで記録する機能(以下、タッチ撮影機能という)を有する。   As an operation for photographing and recording in the photographing device 1, there are not only a pressing operation of the shutter button 35 but also a touch operation on the display screen 17 b of the display unit 17. When the user touches the display portion of the subject to be focused on on the captured image (live view display) displayed on the display unit 17, the signal processing and control unit 12 focuses on the subject, It has a function to capture and record a captured image (hereinafter referred to as touch photographing function).

本実施の形態は、タッチ撮影機能を有する撮影機器においても、ライブビュー表示時における撮影パラメータの設定を、タッチパネル17aの操作によって可能にするものである。   In the present embodiment, even in a photographing device having a touch photographing function, photographing parameters can be set by operating the touch panel 17a during live view display.

図10は本実施の形態における設定モード選択及びパラメータ選択の手順の一例を示すフローチャートであり、例えば、図4のステップS15として採用することができるものである。   FIG. 10 is a flowchart showing an example of the procedure for setting mode selection and parameter selection in the present embodiment, which can be adopted as step S15 in FIG. 4, for example.

撮影機器1から接眼表示部31が取り外された場合や撮影モード時にユーザが接眼表示部31から目を離間させた場合等においては、ライブビュー表示が表示部17の表示画面17bに表示されることがある。図11(a)はこのような撮影状態を示しており、ユーザ41は、目45を撮影機器10から離間させ、左手42Lで撮影機器本体10を支持し、右手で表示部17に配設した表示パネル17bを操作して撮影パラメータの設定や撮影操作を行う。   The live view display is displayed on the display screen 17b of the display unit 17 when the eyepiece display unit 31 is removed from the photographing apparatus 1 or when the user separates his eyes from the eyepiece display unit 31 in the shooting mode. There is. FIG. 11A shows such a shooting state. The user 41 moves the eye 45 away from the shooting device 10, supports the shooting device main body 10 with the left hand 42 </ b> L, and arranges it on the display unit 17 with the right hand. The display panel 17b is operated to set shooting parameters and perform shooting operations.

信号処理及び制御部12は、タッチ撮影機能を有しており、タッチパネル17aに対する操作が撮影パラメータの設定操作であるか撮影操作であるかを区別する必要がある。そこで、本実施の形態においては、ステップS61において、ユーザの指が画面端部以外をタッチしたか否かを判定する。   The signal processing and control unit 12 has a touch shooting function, and needs to distinguish whether the operation on the touch panel 17a is a shooting parameter setting operation or a shooting operation. Therefore, in the present embodiment, in step S61, it is determined whether or not the user's finger has touched other than the screen edge.

ユーザは、撮影パラメータ等の設定を行う場合には、指を画面外から画面内に向かってスライドさせる。図11(b)はこのスライド操作を示しており、ユーザは、親指を、起点位置の親指43a1から終点位置の親指43a2まで、表示部17の表示画面17bの端部から矢印81に示す中央側の方向にスライドさせている。この場合には、ユーザの指は先ず画面端部においてタッチパネル17aに接触することになる。信号処理及び制御部12のタッチ操作検出部12bは、ステップS61においてユーザのタッチ操作が画面端部以外であると判定した場合には、ステップS63において、タッチポイントにピントを合わせた後、撮影を行う。通常、注目被写体は、画面の中央側に表示されるので、注目被写体をタッチすることで、ステップS63において撮影を行うことができる。   The user slides his / her finger from the outside of the screen toward the inside of the screen when setting shooting parameters and the like. FIG. 11B shows this slide operation, and the user moves the thumb from the start position thumb 43a1 to the end position thumb 43a2 from the end of the display screen 17b of the display unit 17 to the center side indicated by the arrow 81. Slide in the direction of. In this case, the user's finger first comes into contact with the touch panel 17a at the edge of the screen. When the touch operation detection unit 12b of the signal processing and control unit 12 determines in step S61 that the user's touch operation is other than the edge of the screen, in step S63, the focus is set to the touch point, and then shooting is performed. Do. Usually, the subject of interest is displayed on the center side of the screen, so that the subject can be photographed in step S63 by touching the subject of interest.

タッチ操作検出部12bは、ユーザが画面端部をタッチしたものと判定した場合には、次のステップS62において、画面端部から画面中央部側へ指がスライドしたか、即ち、画面外から指が侵入する操作があったか否かを判定する。信号処理及び制御部12は、図11(b)に示すスライド操作が行われると、処理をステップS22に移行してモード決定済みか否かの判定を行う。   When it is determined that the user has touched the screen edge, the touch operation detection unit 12b determines whether the finger has slid from the screen edge to the screen center in the next step S62, that is, from the outside of the screen. It is determined whether or not there has been an operation to enter. When the slide operation shown in FIG. 11B is performed, the signal processing and control unit 12 shifts the processing to step S22 and determines whether or not the mode has been determined.

モード決定済みでない場合には、信号処理及び制御部12の表示制御部12cは、設定モード選択表示を例えば指がタッチしている位置に表示させる。図11(c)は、表示画面17b上のスルー画表示中に設定モード選択表示82が表示されている状態を示している。図11(c)では、設定モード選択表示82は4分割された4つアイコンによってモードを選択する例を示しており、4つのアイコンのうち3つのアイコンは「露出」、「ストロボ」、「ピント」の各モードを選択ものであることを示している。表示制御部12cは、指に隠れたアイコンについてもユーザに視認されるように、設定モード選択表示82の中心を軸に各アイコンを回転させる(ステップS64)。   If the mode has not been determined, the display control unit 12c of the signal processing and control unit 12 displays the setting mode selection display, for example, at a position touched by the finger. FIG. 11C shows a state in which the setting mode selection display 82 is displayed during the through image display on the display screen 17b. In FIG. 11C, the setting mode selection display 82 shows an example in which a mode is selected by four divided four icons, and three of the four icons are “exposure”, “strobe”, “focus”. "" Indicates that each mode is selected. The display control unit 12c rotates each icon around the center of the setting mode selection display 82 so that the user can visually recognize the icon hidden behind the finger (step S64).

ステップS25〜S27において、タッチ操作検出部12bは、ユーザがいずれのアイコン方向に指をスライドさせたかによって選択したアイコンに対応する設定モードを検出する。表示制御部12cは、設定モード選択表示82上のアイコンを太枠表示83で囲む(ステップS28)。本実施の形態においては、信号処理及び制御部12は、ステップS30において、選択された設定モードにモードを決定する。   In steps S <b> 25 to S <b> 27, the touch operation detection unit 12 b detects a setting mode corresponding to the icon selected by the user in which icon direction the finger is slid. The display control unit 12c surrounds the icon on the setting mode selection display 82 with a thick frame display 83 (step S28). In the present embodiment, the signal processing and control unit 12 determines the mode as the selected setting mode in step S30.

モード決定後の動作は、図8の実施の形態と同様であり、ユーザが指43aをタッチパネル17aにタッチしている期間において、リング操作部22aによるリング操作を受け付ける。信号処理及び制御部12は、ユーザが時計方向にリング操作部22aを回転させるとパラメータを増加させ、反時計方向にリング操作部22aを回転させるとパラメータを減少させる。信号処理及び制御部12は、リング操作部22aの回転量に応じて値をパラメータの値とする。また、表示制御部12cは、現在のパラメータ変更量を表示64として表示する。   The operation after the mode determination is the same as that in the embodiment of FIG. 8, and a ring operation by the ring operation unit 22a is accepted during a period in which the user is touching the finger 43a on the touch panel 17a. The signal processing and control unit 12 increases the parameter when the user rotates the ring operation unit 22a clockwise, and decreases the parameter when the user rotates the ring operation unit 22a counterclockwise. The signal processing and control unit 12 sets a value as a parameter value according to the rotation amount of the ring operation unit 22a. In addition, the display control unit 12 c displays the current parameter change amount as a display 64.

他の構成及び作用は、第3の実施の形態と同様である。   Other configurations and operations are the same as those of the third embodiment.

このように本実施の形態においては、表示画面をタッチすることで撮影操作を行う機能を有する撮影機器についても、タッチ及びスライド操作のみによって撮影パラメータ等の設定を行うことが可能である。また、同じスライド操作を繰り返したり、スライド距離を変えたりすることで、数値変更をできるようにすれば、直感的でスピーディーで自在な操作ができる。指がタッチ部材のどこかに届かないなどの問題もなくなり、親指での操作によって、簡単、単純に必要な操作が迅速に可能となる。このため、持ち替えなどの必要もなく、ホールディングに優れ、手ぶれなどを抑制できる。   As described above, in the present embodiment, it is possible to set shooting parameters and the like only by a touch and slide operation even for a shooting device having a function of performing a shooting operation by touching the display screen. In addition, if the numerical value can be changed by repeating the same slide operation or changing the slide distance, an intuitive, speedy and flexible operation can be performed. The problem that the finger does not reach somewhere on the touch member is eliminated, and the necessary operation can be performed quickly and easily by the operation with the thumb. For this reason, there is no need to carry it over, it is excellent in holding, and hand shake can be suppressed.

繰り返しになるが、タッチレリーズなど、ユーザが直感的にしたくなる操作を矛盾無く採用でき、ユーザ満足度の高いカメラを提供することが可能となる。もちろん、画面を見ながらなので人差し指で操作してもよい。この場合でも、詳細なポイントをめがけてタッチする必要がないので、迅速で直感的で誤動作のない操作を可能としている。   Again, operations that the user wants to make intuitive, such as touch release, can be adopted without contradiction, and a camera with high user satisfaction can be provided. Of course, you can operate with your index finger while watching the screen. Even in this case, since it is not necessary to touch for detailed points, a quick, intuitive operation without malfunction is possible.

さらに、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。   Furthermore, in each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a digital single lens reflex camera or a compact digital camera, such as a video camera or a movie camera. A camera for moving images may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

1…撮影機器、10…撮影機器本体、11…撮像部、12…信号処理及び制御部、12a…パラメータ制御部、12b…タッチ操作検出部、12c…表示制御部、17…表示部、17a…タッチパネル、17b…表示画面、20…交換レンズ、31…接眼表示部、31a…表示画面。     DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Imaging device main body, 11 ... Imaging part, 12 ... Signal processing and control part, 12a ... Parameter control part, 12b ... Touch operation detection part, 12c ... Display control part, 17 ... Display part, 17a ... Touch panel, 17b ... display screen, 20 ... interchangeable lens, 31 ... eyepiece display unit, 31a ... display screen.

Claims (9)

被写体像を撮像して撮像画像を得る撮像部と、
上記撮像画像に基づく表示が可能な接眼式の表示部と、
タッチ操作に応じた信号を発生するタッチパネルと、
上記タッチパネルにおける任意の位置に対するタッチ操作を検出するタッチ操作検出部と、
上記表示部に、撮影パラメータ変更のための設定モード選択表示および当該設定モード毎のパラメータ選択表示を表示可能とする表示制御部と、
を具備し、
上記表示制御部は、
上記表示部に上記設定モード選択表示が表示されている場合において、上記タッチ操作検出部が上記タッチパネルにおける任意の位置に対する所定のタッチ操作を検出した際、当該検出結果に基づいて当該タッチ操作した指における当該タッチした点の変位に応じてスライド方向を判定し、当該判定結果および当該指の動作に基づいて上記設定モードを決定し、
上記表示部に上記パラメータ選択表示が表示されている場合において、上記タッチ操作検出部が上記タッチパネルにおける任意の位置に対する所定のタッチ操作を検出した際、当該検出結果に基づいて当該タッチ操作した指における当該タッチした点の変位に応じてスライド方向を判定し、当該判定結果および当該指の動作に基づいて上記パラメータを決定する
ことを特徴とする撮影機器。
An imaging unit that captures a subject image and obtains a captured image;
An eyepiece type display unit capable of display based on the captured image;
A touch panel that generates a signal in response to a touch operation;
A touch operation detection unit for detecting a touch operation on an arbitrary position on the touch panel;
A display control unit capable of displaying a setting mode selection display for changing shooting parameters and a parameter selection display for each setting mode on the display unit;
Comprising
The display control unit
When the setting mode selection display is displayed on the display unit, when the touch operation detection unit detects a predetermined touch operation on an arbitrary position on the touch panel, the finger operated by the touch operation based on the detection result The sliding direction is determined according to the displacement of the touched point at, and the setting mode is determined based on the determination result and the finger movement
In the case where the parameter selection display is displayed on the display unit, when the touch operation detection unit detects a predetermined touch operation on an arbitrary position on the touch panel, the finger operated by the touch operation is detected based on the detection result. An imaging device, wherein a slide direction is determined according to the displacement of the touched point, and the parameter is determined based on the determination result and the movement of the finger.
上記表示制御部は、上記表示部に、上記設定モード選択表示および上記パラメータ選択表示のいずれの表示もされていない状態において、上記タッチ操作検出部が、上記タッチパネルにおける任意の位置に対する所定のタッチ操作を検出した場合にのみ、上記表示部に上記設定モード選択表示を行う
ことを特徴とする請求項1に記載の撮影機器。
In the state where neither the setting mode selection display nor the parameter selection display is displayed on the display unit, the display control unit performs a predetermined touch operation on an arbitrary position on the touch panel. The photographing apparatus according to claim 1, wherein the setting mode selection display is performed on the display unit only when an image is detected.
上記表示制御部は、上記設定モードが決定された状態において、上記タッチ操作検出部が、上記タッチパネルにおける任意の位置に対する所定のタッチ操作を再度検出した場合のみ、上記表示部に上記パラメータ選択表示を行う
ことを特徴とする請求項1または2に記載の撮影機器。
The display control unit displays the parameter selection display on the display unit only when the touch operation detection unit detects a predetermined touch operation on an arbitrary position on the touch panel again in a state where the setting mode is determined. The photographing apparatus according to claim 1, wherein the photographing device is performed.
上記表示制御部は、上記タッチ操作検出部が上記タッチパネルにおける任意の位置に対する所定のタッチ操作を検出した際、当該タッチ操作した指のスライド操作の起点および終点位置に基づいてスライド方向を判定する
ことを特徴とする請求項1−3のいずれか1項に記載の撮影機器。
When the touch operation detection unit detects a predetermined touch operation on an arbitrary position on the touch panel, the display control unit determines a slide direction based on a start point and an end point position of the slide operation of the finger operated by the touch operation. The imaging device according to claim 1, wherein
目が上記表示部に近接したことを検知する検知部を備え、
上記表示制御部は、上記検知部の検知結果に基づいて目が上記表示部に近接した場合に、当該表示部に、上記設定モード選択表示または上記パラメータ選択表示を表示する
ことを特徴とする請求項1−4のいずれか1項に記載の撮影機器。
A detection unit for detecting that the eye is close to the display unit;
The display control unit displays the setting mode selection display or the parameter selection display on the display unit when an eye approaches the display unit based on a detection result of the detection unit. Item 5. The photographing apparatus according to any one of Items 1-4.
上記表示制御部は、上記表示部に上記パラメータ選択表示が表示されていない場合であっても、上記タッチ操作検出部が、上記タッチパネルにおける任意の位置に対する所定のタッチ操作を検出した際、当該検出結果に基づいて当該タッチ操作した指における当該タッチした点の変位に応じてスライド方向を判定し上記パラメータを決定可能とする
ことを特徴とする請求項1に記載の撮影機器。
Even if the parameter selection display is not displayed on the display unit, the display control unit detects the touch operation when the touch operation detection unit detects a predetermined touch operation on an arbitrary position on the touch panel. The photographing apparatus according to claim 1, wherein the parameter can be determined by determining a slide direction based on a displacement of the touched point on the finger operated by the touch based on a result.
上記表示制御部は、上記表示部に、上記設定モード選択表示および上記パラメータ選択表示のいずれの表示もされていない状態において、上記タッチ操作検出部が、上記タッチパネルにおける画面端部から画面中央側方向への所定のタッチ操作を検出した場合に、上記表示部に上記設定モード選択表示を行う
ことを特徴とする請求項1に記載の撮影機器。
In the state where neither the setting mode selection display nor the parameter selection display is displayed on the display unit, the display control unit is configured so that the touch operation detection unit moves from the screen edge of the touch panel toward the screen center side. The photographing apparatus according to claim 1, wherein the setting mode selection display is performed on the display unit when a predetermined touch operation is detected.
上記表示制御部は、上記設定モードが決定された状態において、上記タッチ操作検出部が、上記タッチパネルにおける画面端部から画面中央側方向への所定のタッチ操作を検出した場合に、上記表示部に上記パラメータ選択表示を行う
ことを特徴とする請求項1に記載の撮影機器。
In the state in which the setting mode has been determined, the display control unit detects the predetermined touch operation in the direction from the screen edge to the screen center side on the touch panel. The imaging apparatus according to claim 1, wherein the parameter selection display is performed.
上記タッチパネルにおける所定部位をタッチ操作することにより撮影動作を行う撮影動作手段を備える
ことを特徴とする請求項1−8のいずれか1項に記載の撮影機器。
The photographing apparatus according to claim 1, further comprising a photographing operation unit that performs a photographing operation by touching a predetermined portion of the touch panel.
JP2016092486A 2016-05-02 2016-05-02 Photography equipment Active JP6104430B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016092486A JP6104430B2 (en) 2016-05-02 2016-05-02 Photography equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016092486A JP6104430B2 (en) 2016-05-02 2016-05-02 Photography equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012024469A Division JP5936183B2 (en) 2012-02-07 2012-02-07 Photography equipment

Publications (2)

Publication Number Publication Date
JP2016171585A JP2016171585A (en) 2016-09-23
JP6104430B2 true JP6104430B2 (en) 2017-03-29

Family

ID=56984297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016092486A Active JP6104430B2 (en) 2016-05-02 2016-05-02 Photography equipment

Country Status (1)

Country Link
JP (1) JP6104430B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325051A (en) * 2006-06-02 2007-12-13 Fujifilm Corp Photographing apparatus, method, and program
JP2008268726A (en) * 2007-04-24 2008-11-06 Canon Inc Photographing device
JP5775659B2 (en) * 2009-05-07 2015-09-09 オリンパス株式会社 Imaging apparatus and mode switching method in imaging apparatus

Also Published As

Publication number Publication date
JP2016171585A (en) 2016-09-23

Similar Documents

Publication Publication Date Title
JP5936183B2 (en) Photography equipment
JP4288612B2 (en) Image processing apparatus and method, and program
US9888182B2 (en) Display apparatus
JP4884417B2 (en) Portable electronic device and control method thereof
JP5457217B2 (en) camera
US8730377B2 (en) Imaging apparatus adjusting autofocus position based on stored adjustment amount
WO2007086571A1 (en) Imaging device, display control method, and program
JP6598028B2 (en) Imaging device
JP2014038195A (en) Photographing equipment
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JP5846921B2 (en) Shooting system
JP2013251724A (en) Photographing instrument
US10362206B2 (en) Image capturing apparatus having a function which assists a panning shot with specific framing
JP5959297B2 (en) Imaging device and imaging support method
JP6635816B2 (en) Imaging device, imaging device control method, and program
JP6104430B2 (en) Photography equipment
JP2014178644A (en) Display device, and control method for the same
JP5715269B2 (en) Camera, camera control method, and program
JP5157428B2 (en) Imaging device
JP2015125273A (en) Imaging apparatus, imaging method, and program
JP2013219440A (en) Imaging apparatus
JP7171876B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND PROGRAM
WO2006011492A1 (en) Portable telephone and autofucusing method
JP2009053641A (en) Imaging apparatus
JP2016127492A (en) Imaging apparatus, operation support method and operation support program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170228

R151 Written notification of patent or utility model registration

Ref document number: 6104430

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250