JP2016208196A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2016208196A
JP2016208196A JP2015086322A JP2015086322A JP2016208196A JP 2016208196 A JP2016208196 A JP 2016208196A JP 2015086322 A JP2015086322 A JP 2015086322A JP 2015086322 A JP2015086322 A JP 2015086322A JP 2016208196 A JP2016208196 A JP 2016208196A
Authority
JP
Japan
Prior art keywords
electronic device
display
display unit
control unit
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015086322A
Other languages
Japanese (ja)
Other versions
JP2016208196A5 (en
Inventor
明日香 中村
Asuka Nakamura
明日香 中村
藤田 力
Tsutomu Fujita
力 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015086322A priority Critical patent/JP2016208196A/en
Publication of JP2016208196A publication Critical patent/JP2016208196A/en
Publication of JP2016208196A5 publication Critical patent/JP2016208196A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Viewfinders (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Accessories Of Cameras (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus easy to operate.SOLUTION: The electronic apparatus includes: a first display section provided on a first surface of a main body; a second display section provided on a second surface different from the first surface of the main body; a detection section for detecting a first operation for the first surface and a second operation for the second surface; and a control section for performing predetermined processing on the basis of the detected position of the detection section.SELECTED DRAWING: Figure 1

Description

本発明は、電子機器に関する。   The present invention relates to an electronic device.

曲がっている面に情報を表示する機器が知られている(特許文献1参照)。従来技術では、曲面にアイコンを表示することが記載され、タッチ操作されたアイコンに割り当てられた処理が実行される。しかしながら、有用な操作について十分検討されていない。   A device that displays information on a curved surface is known (see Patent Document 1). In the prior art, it is described that an icon is displayed on a curved surface, and processing assigned to the touch-operated icon is executed. However, the useful operation has not been sufficiently studied.

米国特許出願公開第US2013/0178248号US Patent Application Publication No. US2013 / 0178248

電子機器は、本体部の第1の面に設けられた第1表示部と、前記本体部の前記第1の面とは異なる第2の面に設けられた第2表示部と、前記第1の面に対する第1操作と、前記第2の面に対する第2操作を検出する検出部と、前記検出部の検出に基づき、所定の処理を行う処理部と、を備える。   The electronic device includes a first display unit provided on a first surface of the main body unit, a second display unit provided on a second surface different from the first surface of the main body unit, and the first display unit. A first operation on the second surface, a detection unit that detects the second operation on the second surface, and a processing unit that performs a predetermined process based on the detection by the detection unit.

第1の実施形態によるカメラを例示する斜視図である。It is a perspective view which illustrates the camera by a 1st embodiment. カメラの要部構成を説明する図である。It is a figure explaining the principal part structure of a camera. 表示部に表示される画面を説明する図である。It is a figure explaining the screen displayed on a display part. 表示部に表示される画面を説明する図である。It is a figure explaining the screen displayed on a display part. 表示部に表示された画面を正面から見た図である。It is the figure which looked at the screen displayed on the display part from the front. 表示部の湾曲部が操作された場合における表示部の肩部分の表示を説明する図である。It is a figure explaining the display of the shoulder part of a display part when the curved part of a display part is operated. 仮想の円筒ダイヤルを拡大した図である。It is the figure which expanded the virtual cylindrical dial. 表示部の肩部分の表示内容が歪む例を示す図である。It is a figure which shows the example which the display content of the shoulder part of a display part distorts. 表示部に表示される画面を説明する図である。It is a figure explaining the screen displayed on a display part. 表示部に表示された画面を正面から見た図である。It is the figure which looked at the screen displayed on the display part from the front. 表示部に表示された目盛を例示する図である。It is a figure which illustrates the scale displayed on the display part. 表示部に表示された目盛を例示する図である。It is a figure which illustrates the scale displayed on the display part. 表示部に表示された細かい目盛を例示する図である。It is a figure which illustrates the fine scale displayed on the display part. 表示部に表示されたダイヤルを例示する図である。It is a figure which illustrates the dial displayed on the display part. 仮想のダイヤルを拡大した図である。It is the figure which expanded the virtual dial. 絞り値が仮想のダイヤルの近傍に表示される例を示す図である。It is a figure which shows the example by which an aperture value is displayed in the vicinity of a virtual dial. 仮想のダイヤルのロック操作を説明する図である。It is a figure explaining lock operation of a virtual dial. ダイヤル操作を説明する図である。It is a figure explaining dial operation. 表示部に表示された二重ダイヤルを例示する図である。It is a figure which illustrates the double dial displayed on the display part. 表示部の肩部分にアイコン等を表示させない場合を例示する図である。It is a figure which illustrates the case where an icon etc. are not displayed on the shoulder part of a display part. ズーム部分を表示させた場合を例示する図である。It is a figure which illustrates the case where a zoom part is displayed. 表示部に表示される画面を説明する図である。It is a figure explaining the screen displayed on a display part. エフェクトの候補の表示が切り替わった状態を説明する図である。It is a figure explaining the state which the display of the effect candidate switched. エフェクトが適用された状態を説明する図である。It is a figure explaining the state to which the effect was applied. エフェクトの強さの変更操作を説明する図である。It is a figure explaining the change operation of the strength of an effect. 表示部に表示される画面を説明する図である。It is a figure explaining the screen displayed on a display part. 図26の表示画面を正面から見た図である。It is the figure which looked at the display screen of FIG. 26 from the front. 露出モードを設定変更する場合にボディ制御部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a body control part performs when changing an exposure mode setting. 露出補正を設定変更する場合にボディ制御部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a body control part performs when changing an exposure correction setting. エフェクトを設定変更する場合にボディ制御部が実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which a body control part performs when changing the setting of an effect. カメラボディの正面図である。It is a front view of a camera body. カメラボディの左側面図である。It is a left view of a camera body. カメラボディの平面図である。It is a top view of a camera body. カメラボディの下面図である。It is a bottom view of a camera body. カメラボディの右側面図である。It is a right view of a camera body. カメラボディの背面図である。It is a rear view of a camera body. カメラボディの斜視図である。It is a perspective view of a camera body. カメラボディの正面図である。It is a front view of a camera body. カメラボディの左側面図である。It is a left view of a camera body. カメラボディの平面図である。It is a top view of a camera body. カメラボディの下面図である。It is a bottom view of a camera body. カメラボディの右側面図である。It is a right view of a camera body. カメラボディの背面図である。It is a rear view of a camera body. カメラボディの斜視図である。It is a perspective view of a camera body. カメラボディの正面図である。It is a front view of a camera body. カメラボディの左側面図である。It is a left view of a camera body. カメラボディの平面図である。It is a top view of a camera body. カメラボディの下面図である。It is a bottom view of a camera body. カメラボディの右側面図である。It is a right view of a camera body. カメラボディの背面図である。It is a rear view of a camera body. カメラボディの斜視図である。It is a perspective view of a camera body. カメラの要部構成を説明する図である。It is a figure explaining the principal part structure of a camera. ボディ制御部が実行するEVF表示変更処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the EVF display change process which a body control part performs. カメラボディの正面図である。It is a front view of a camera body. カメラボディの左側面図である。It is a left view of a camera body. カメラボディの平面図である。It is a top view of a camera body. カメラボディの下面図である。It is a bottom view of a camera body. カメラボディの右側面図である。It is a right view of a camera body. カメラボディの背面図である。It is a rear view of a camera body. カメラボディの斜視図である。It is a perspective view of a camera body. カメラボディの正面図である。It is a front view of a camera body. カメラボディの左側面図である。It is a left view of a camera body. カメラボディの平面図である。It is a top view of a camera body. カメラボディの下面図である。It is a bottom view of a camera body. カメラボディの右側面図である。It is a right view of a camera body. カメラボディの背面図である。It is a rear view of a camera body. カメラボディの斜視図である。It is a perspective view of a camera body. 新しい操作態様を例示する図である。It is a figure which illustrates a new operation mode. 新しい操作を説明する図である。It is a figure explaining new operation.

本実施形態による電子機器の一例として、レンズ交換式のデジタルカメラを例にあげて説明する。
(第1の実施形態)
図1は、第1の実施形態によるカメラ1を例示する斜視図である。カメラ1は、交換レンズ3とカメラボディ2とで構成される。カメラボディ2は、本体部が平板状に構成されており、本体部の正面にボディ側マウント201が備えられている。カメラボディ2の長軸方向を上下方向、カメラボディ2の短軸方向を左右方向もしくは水平方向、カメラボディ2の奥行方向を前後方向として説明する。本体部のボディ側マウント201より上側は、前方(正面側)に傾斜している。傾斜角度は、図示した角度より深くても浅くてもよい。また、本体部のボディ側マウント201の左側には、グリップG1が設けられている。
平板状の本体部は、外観が平板状の筐体ケースと、筐体ケースの内部に実装された回路基板と、薄型リチウムイオン電池のような充放電可能な蓄電素子とを備える。ボディ側マウント201は筐体ケースに設けられ、ボディ側マウント201の内方の回路基板に撮像素子22(図2)が実装される。
As an example of the electronic apparatus according to the present embodiment, a lens interchangeable digital camera will be described as an example.
(First embodiment)
FIG. 1 is a perspective view illustrating a camera 1 according to the first embodiment. The camera 1 includes an interchangeable lens 3 and a camera body 2. The camera body 2 has a main body configured in a flat plate shape, and a body side mount 201 is provided in front of the main body. Description will be made assuming that the major axis direction of the camera body 2 is the vertical direction, the minor axis direction of the camera body 2 is the horizontal direction or the horizontal direction, and the depth direction of the camera body 2 is the front-back direction. The upper side of the body side of the body side mount 201 is inclined forward (front side). The inclination angle may be deeper or shallower than the illustrated angle. A grip G1 is provided on the left side of the body-side mount 201 of the main body.
The flat body portion includes a housing case having a flat appearance, a circuit board mounted inside the housing case, and a chargeable / dischargeable storage element such as a thin lithium ion battery. The body side mount 201 is provided in the housing case, and the imaging element 22 (FIG. 2) is mounted on an inner circuit board of the body side mount 201.

交換レンズ3は、レンズ側マウント301を介してカメラボディ2の本体部のボディ側マウント201に装着される。
なお、本実施形態においてはレンズ交換式のカメラシステムを例示するが、レンズ交換式でなく、交換レンズ3とカメラボディ2とを一体に構成したレンズ一体式のカメラとして構成してもよい。
The interchangeable lens 3 is attached to the body side mount 201 of the main body of the camera body 2 via the lens side mount 301.
In the present embodiment, an interchangeable lens type camera system is illustrated, but instead of the interchangeable lens system, the interchangeable lens 3 and the camera body 2 may be configured as an integrated lens type camera.

図2は、カメラ1の要部構成を説明する図である。図2に例示するように、カメラボディ2に交換レンズ3が装着されると、ボディ側マウント部201に設けられた端子群202と、レンズ側マウント部301に設けられた端子群302とが電気的に接続される。これにより、端子群202、302を介して、カメラボディ2から交換レンズ3への電力供給や、カメラボディ2および交換レンズ3間の通信が可能となる。   FIG. 2 is a diagram illustrating the configuration of the main part of the camera 1. As illustrated in FIG. 2, when the interchangeable lens 3 is attached to the camera body 2, the terminal group 202 provided in the body side mount unit 201 and the terminal group 302 provided in the lens side mount unit 301 are electrically connected. Connected. Thereby, power supply from the camera body 2 to the interchangeable lens 3 and communication between the camera body 2 and the interchangeable lens 3 can be performed via the terminal groups 202 and 302.

<交換レンズ>
交換レンズ3は、レンズ31と、ズーミングレンズ32と、フォーカシングレンズ33と、絞り34と、レンズ制御部35と、レンズメモリ36とを有する。交換レンズ3は、被写体像をカメラボディ2側の撮像素子22に結像させる。
<Interchangeable lens>
The interchangeable lens 3 includes a lens 31, a zooming lens 32, a focusing lens 33, a diaphragm 34, a lens control unit 35, and a lens memory 36. The interchangeable lens 3 forms a subject image on the image sensor 22 on the camera body 2 side.

フォーカスレンズ33は、レンズ制御部35からの指示を受けたフォーカスレンズ駆動モータ331によって駆動される。フォーカスレンズ33が光軸L1方向に進退移動することで、交換レンズ3による焦点位置が調節される。   The focus lens 33 is driven by a focus lens drive motor 331 that has received an instruction from the lens control unit 35. As the focus lens 33 moves back and forth in the direction of the optical axis L1, the focal position of the interchangeable lens 3 is adjusted.

ズームレンズ32は、レンズ制御部35からの指示を受けたズームスレンズ駆動モータ321によって駆動される。ズームレンズ32が光軸L1方向に進退移動することで、交換レンズ3による焦点距離が変化する。   The zoom lens 32 is driven by a zoom lens drive motor 321 that has received an instruction from the lens control unit 35. As the zoom lens 32 moves back and forth in the direction of the optical axis L1, the focal length of the interchangeable lens 3 changes.

絞り34は、光軸L1を中心にした開口径を変化させることにより、交換レンズ3を通過して撮像素子22に至る光束を制限する。絞り34に対する開口径の変更指示は、レンズ制御部35によって行われる。   The diaphragm 34 limits the light flux that passes through the interchangeable lens 3 and reaches the image sensor 22 by changing the aperture diameter centered on the optical axis L1. An instruction to change the aperture diameter to the diaphragm 34 is given by the lens control unit 35.

レンズ制御部35は、不図示のマイクロコンピュータ、メモリ、駆動制御回路などから構成される。レンズ制御部35は、焦点調節時にフォーカシングレンズ33を光軸L1方向に進退移動させるためのレンズ駆動を制御する他、絞り調節時には絞り34の開口径を変更するための絞り駆動を制御する。また、ズーミング時にズームレンズ32を光軸L1方向に進退移動させるためのレンズ駆動を制御する。   The lens control unit 35 includes a microcomputer (not shown), a memory, a drive control circuit, and the like. The lens control unit 35 controls lens driving for moving the focusing lens 33 forward and backward in the direction of the optical axis L1 during focus adjustment, and controls aperture driving for changing the aperture diameter of the aperture 34 during aperture adjustment. Further, the lens drive for moving the zoom lens 32 forward and backward in the optical axis L1 direction during zooming is controlled.

レンズ制御部35はさらに、ボディ制御部21と通信を行う。この通信では、交換レンズ3からカメラボディ2へレンズ情報(フォーカシングレンズ33やズームレンズ32のレンズ位置や絞り34の開口径など)が送信され、カメラボディ2から交換レンズ3へカメラ情報(レンズ駆動指示や絞り駆動指示など)が送信される。   The lens control unit 35 further communicates with the body control unit 21. In this communication, lens information (such as the lens position of the focusing lens 33 and zoom lens 32 and the aperture diameter of the aperture 34) is transmitted from the interchangeable lens 3 to the camera body 2, and camera information (lens driving) is transmitted from the camera body 2 to the interchangeable lens 3. Instructions, aperture drive instructions, etc.) are transmitted.

レンズメモリ38には、交換レンズ3の情報が記録される。交換レンズ3の情報は、レンズ制御部35によってレンズメモリ38から読み出され、ボディ制御部21へ送信される。   Information on the interchangeable lens 3 is recorded in the lens memory 38. Information on the interchangeable lens 3 is read from the lens memory 38 by the lens control unit 35 and transmitted to the body control unit 21.

<カメラボディ>
カメラボディ2は、ボディ制御部21と、撮像素子22と、シャッター23と、表示部25と、操作部26と、メモリ24とを含む。なおメモリ24は、カメラボディ2に着脱可能な構成としてもよいし、カメラボディ2に内蔵された構成としてもよい。
<Camera body>
The camera body 2 includes a body control unit 21, an image sensor 22, a shutter 23, a display unit 25, an operation unit 26, and a memory 24. The memory 24 may be configured to be detachable from the camera body 2 or may be configured to be built in the camera body 2.

ボディ制御部21は、不図示のマイクロコンピュータやメモリ21A等を含み、メモリ21Aに記録されている制御プログラムに基づいて、カメラ1の各部の動作を統括的に制御する。例えば、ボディ制御部21は、撮像素子22から出力されたデータに対して所定の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整、リサイズ処理、エフェクト処理など)を施す。   The body control unit 21 includes a microcomputer (not shown), a memory 21A, and the like, and comprehensively controls the operation of each unit of the camera 1 based on a control program recorded in the memory 21A. For example, the body control unit 21 performs predetermined image processing (color interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment, resizing processing, effect processing, etc.) on the data output from the image sensor 22. .

また、ボディ制御部21は、撮像素子22から出力されたデータを用いて所定の露出演算を行うとともに、この露出演算によって求めた露出量に基づいてカメラ1の露出制御を行う。さらにまた、ボディ制御部21は、交換レンズ3の焦点検出処理を行う。   The body control unit 21 performs a predetermined exposure calculation using the data output from the image sensor 22 and controls the exposure of the camera 1 based on the exposure amount obtained by the exposure calculation. Furthermore, the body control unit 21 performs focus detection processing for the interchangeable lens 3.

焦点検出処理は、コントラストAF方式でも位相差AF方式でもよい。コントラストAF方式では、フォーカスレンズ33を移動させながら、フォーカスレンズ33のそれぞれの位置において撮像素子22で取得されたデータに基づいて公知の焦点評価値演算を行う。そして、焦点評価値が最大となるフォーカスレンズ33の位置を合焦位置とする。   The focus detection process may be a contrast AF method or a phase difference AF method. In the contrast AF method, a known focus evaluation value calculation is performed based on data acquired by the image sensor 22 at each position of the focus lens 33 while moving the focus lens 33. The position of the focus lens 33 that maximizes the focus evaluation value is set as the in-focus position.

位相差AF方式では、交換レンズ3の異なる瞳領域を介して入射された一対のフォーカス検出用光束による像の位相差に基づいてデフォーカス量を検出する。ボディ制御部21は、位相差検出用センサの異なる位置に設けられたフォーカス検出用画素列でそれぞれ撮像される一対の像の相対位置ズレ量(相対間隔)に基づいて、合焦に必要なフォーカスレンズ33の移動方向および移動量を算出する。
なお、位相差検出用センサは、あらかじめ撮像素子22に含められているフォーカス検出用画素列を用いてもよいし、フォーカス検出用画素列を備えた専用センサを撮像素子22とは別に備える構成にしてもよい。
In the phase difference AF method, a defocus amount is detected based on a phase difference of an image by a pair of focus detection light beams incident through different pupil regions of the interchangeable lens 3. The body control unit 21 performs focusing necessary for focusing based on the relative positional shift amount (relative interval) between the pair of images captured by the focus detection pixel arrays provided at different positions of the phase difference detection sensor. The moving direction and moving amount of the lens 33 are calculated.
The phase difference detection sensor may use a focus detection pixel array included in the image sensor 22 in advance, or may have a dedicated sensor provided with the focus detection pixel array separately from the image sensor 22. May be.

撮像素子22は、複数の光電変換素子が二次元状に配置されたものであり、後述する静止画やライブビュー画像(スルー画像とも呼ばれる)を撮像する。ライブビュー画像は、撮像素子22によって所定のフレームレートで逐次取得される観察用の画像である。また、撮像素子22は、後述する動画の撮像も可能に構成される。   The image pickup element 22 is a two-dimensional arrangement of a plurality of photoelectric conversion elements, and picks up a still image and a live view image (also referred to as a through image) described later. The live view image is an image for observation that is sequentially acquired by the image sensor 22 at a predetermined frame rate. Further, the image sensor 22 is configured to be capable of capturing a moving image to be described later.

シャッター23は、ボディ制御部21によって開閉制御される。メモリ24は、ボディ制御部21によって画像データの書き込みおよび読み出しが制御される。   The shutter 23 is controlled to be opened and closed by the body control unit 21. The memory 24 is controlled by the body control unit 21 to write and read image data.

表示部25は、例えばフレキシブル液晶パネルによって構成される。表示部25は、カメラボディ2の本体部の上面から背面にかけての傾斜部の略全域(以降、肩部分と呼ぶ)25Bと、本体部の背面の略全域(以降、背面25Aと呼ぶ)にわたって設けられている。背面25Aと肩部分25Bとの間には、湾曲部25Cが設けられている。背面25Aと肩部分25Bと湾曲部25Cはそれぞれ異なる面(平面)に設けられている。表示部25は、ボディ制御部21の指示に応じて画像を再生表示したり、シャッター速度、絞り値、撮像枚数などのカメラ情報や、カメラボディ2に各種設定操作を行うための操作部情報や、操作メニュー画面を表示したりする。表示部25による表示の詳細については後述する。   The display unit 25 is configured by a flexible liquid crystal panel, for example. The display unit 25 is provided over substantially the entire inclined portion (hereinafter referred to as a shoulder portion) 25B from the top surface to the back surface of the main body portion of the camera body 2 and substantially the entire back surface (hereinafter referred to as the back surface 25A) of the main body portion. It has been. A curved portion 25C is provided between the back surface 25A and the shoulder portion 25B. The back surface 25A, the shoulder portion 25B, and the curved portion 25C are provided on different surfaces (planes). The display unit 25 reproduces and displays an image according to an instruction from the body control unit 21, camera information such as a shutter speed, an aperture value, and the number of captured images, operation unit information for performing various setting operations on the camera body 2, , Display the operation menu screen. Details of display by the display unit 25 will be described later.

また、上記表示部25の表示面にはタッチ操作部材25Sが積層されている。タッチ操作部材25Sは、表示画面上でユーザーが触れている位置を示す信号をボディ制御部21へ送出する。   A touch operation member 25 </ b> S is stacked on the display surface of the display unit 25. The touch operation member 25S sends a signal indicating the position touched by the user on the display screen to the body control unit 21.

操作部材26は、レリーズボタン、操作ダイヤルや電源スイッチなどを含む。操作部材26は、操作に応じた操作信号をボディ制御部21へ送出する。
なお、本実施形態においては、操作部材26を上記タッチ操作部材25Sと別に設ける例を説明するが、操作部材26の機能をタッチ操作部材25Sに全て含めるように構成してもよい。
すなわち、表示部25に操作アイコンをひとつまたは複数表示し、これらの操作アイコンの座標位置とアイコンに割り当てられた処理とを対応づける。ボディ制御部21は、ユーザーによりタッチ操作された表示部25上の座標位置をタッチ操作部材25Sからの信号で検出する。そして、この信号に基づき操作アイコンに割り当てられた処理を実行する。
The operation member 26 includes a release button, an operation dial, a power switch, and the like. The operation member 26 sends an operation signal corresponding to the operation to the body control unit 21.
In the present embodiment, an example in which the operation member 26 is provided separately from the touch operation member 25S will be described. However, the touch operation member 25S may be configured to include all the functions of the operation member 26.
That is, one or a plurality of operation icons are displayed on the display unit 25, and the coordinate positions of these operation icons are associated with the processes assigned to the icons. The body control unit 21 detects a coordinate position on the display unit 25 touch-operated by the user by a signal from the touch operation member 25S. Based on this signal, the process assigned to the operation icon is executed.

カメラ1は、静止画撮像と動画撮像とが可能に構成されている。
<ライブビュー画像>
本実施形態では、通常、撮像待機状態においてライブビューモードにする。ライブビューモードにおける動作の一例を説明すると、ボディ制御部21が、シャッター23を開いたままで、交換レンズ3の絞り34を被写体の明るさに応じた開口径へ制御させるとともに、撮像素子22によりライブビュー画像を所定のフレームレートで取得させる。ボディ制御部21は、取得されたライブビュー画像を表示部25に逐次表示させる。
The camera 1 is configured to be able to capture still images and moving images.
<Live view image>
In the present embodiment, the live view mode is normally set in the imaging standby state. An example of the operation in the live view mode will be described. The body control unit 21 controls the aperture 34 of the interchangeable lens 3 to an aperture diameter corresponding to the brightness of the subject while the shutter 23 is opened, and the image sensor 22 performs live operation. A view image is acquired at a predetermined frame rate. The body control unit 21 causes the display unit 25 to sequentially display the acquired live view image.

<静止画>
ボディ制御部21は、例えば、ユーザーによって操作部材26を構成するレリーズボタンが全押し操作されると、静止画撮像を開始させる。動作の一例を説明すると、シャッター23を一旦閉じ、交換レンズ3の絞り34を、被写体の明るさに応じた開口径へ制御させるとともに、シャッター23を開いて被写体からの光束を撮像素子22へ導く。ボディ制御部21は、所定のシャッター秒時が経過するとシャッター23を閉じ、撮像素子22によって光電変換された画像のデータに対して所定の画像処理を施す。ボディ制御部21は、ライブビューモードへ戻るために再びシャッター23を開くとともに、画像処理後の画像データをメモリ24に記録する。
<Still image>
For example, when the release button configuring the operation member 26 is fully pressed by the user, the body control unit 21 starts still image capturing. An example of the operation will be described. The shutter 23 is temporarily closed, the aperture 34 of the interchangeable lens 3 is controlled to an aperture diameter corresponding to the brightness of the subject, and the shutter 23 is opened to guide the light flux from the subject to the image sensor 22. . When the predetermined shutter time elapses, the body control unit 21 closes the shutter 23 and performs predetermined image processing on the image data photoelectrically converted by the image sensor 22. The body control unit 21 opens the shutter 23 again to return to the live view mode, and records image data after image processing in the memory 24.

<動画>
また、ボディ制御部21は、例えば、表示部25の肩部分25Bに表示されている不図示の録画アイコンや操作部材26の録画ボタンがユーザーによって操作されると、動画撮像を開始させる。動作の一例を説明すると、交換レンズ3の絞り34の開口径を、被写体の明るさに応じた開口径へ制御させ、撮像素子22により動画の撮像を所定のフレームレートで行わせる。このとき、不図示のマイクにより集音された音声の録音も行う。ボディ制御部21は、動画の撮像中に録画アイコンまたは録画ボタンが再び操作されると、動画の撮像および音声の録音を終了させる。動画のデータおよび音声のデータは、ボディ制御部21によってメモリ24に記録される。
<Video>
For example, when the user operates a recording icon (not shown) displayed on the shoulder portion 25B of the display unit 25 or a recording button of the operation member 26, the body control unit 21 starts moving image capturing. An example of the operation will be described. The aperture diameter of the diaphragm 34 of the interchangeable lens 3 is controlled to an aperture diameter corresponding to the brightness of the subject, and moving images are captured by the image sensor 22 at a predetermined frame rate. At this time, the sound collected by a microphone (not shown) is also recorded. When the recording icon or the recording button is operated again during the capturing of the moving image, the body control unit 21 ends the capturing of the moving image and the recording of the sound. The moving image data and audio data are recorded in the memory 24 by the body control unit 21.

<表示部25を用いたユーザー操作>
図3は、ライブビューモードにおいて、表示部25に表示される画面を説明する図である。ボディ制御部21は、表示部25の背面25Aにライブビュー画像を表示させるとともに、表示部25の肩部分25Bにホームアイコンを表示させる。ホームアイコンは、例えば、撮像条件アイコンi1と、エフェクトアイコンi2と、再生アイコンi3と、ISO感度/露出補正アイコンi4と、メニューアイコンi5とを含む。
<User Operation Using Display Unit 25>
FIG. 3 is a diagram illustrating a screen displayed on the display unit 25 in the live view mode. The body control unit 21 displays a live view image on the back surface 25 </ b> A of the display unit 25 and displays a home icon on the shoulder portion 25 </ b> B of the display unit 25. The home icons include, for example, an imaging condition icon i1, an effect icon i2, a reproduction icon i3, an ISO sensitivity / exposure correction icon i4, and a menu icon i5.

ホームアイコンの数は、上記5つ以上でも5つ以下でもよい。表示スペースの都合によって全てのホームアイコンを一度に表示できない場合には、ボディ制御部21は、ユーザー操作に応じてホームアイコンをスクロール表示させる。すなわち、ユーザーが肩部分25Bで指を水平方向にずらすスライド操作をすると、ボディ制御部21が、表示しているアイコンをスライド操作の方向へスクロールさせることにより、隠れている(表示していない)アイコンを表示させる。
なお、表示部25の肩部分25Bに表示させるアイコン等を、表示部25における所定の位置に配した不図示のファンクションアイコンに対するタッチ操作に応じて切り替える構成にしてもよい。
The number of home icons may be five or more or five or less. When all the home icons cannot be displayed at a time due to the convenience of the display space, the body control unit 21 scrolls and displays the home icons according to the user operation. That is, when the user performs a sliding operation in which the finger is moved in the horizontal direction at the shoulder portion 25B, the body control unit 21 is hidden (not displayed) by scrolling the displayed icon in the direction of the sliding operation. Display an icon.
Note that an icon or the like to be displayed on the shoulder portion 25B of the display unit 25 may be switched according to a touch operation on a function icon (not shown) arranged at a predetermined position on the display unit 25.

<撮像条件の設定>
例えば、ユーザーがホームアイコンのうちの撮像条件アイコンi1をタッチ操作すると、ボディ制御部21は、表示部25の肩部分25Bに表示しているホームアイコンに代えて、撮像条件を肩部分25Bに表示させる。図4は、表示部25に表示される画面を説明する図である。図4において、表示部25の肩部分25Bに条件i6と、条件i7と、条件i8と、条件i9とが表示されている。図4の例では、条件i6が露出モードに対応する。露出モードは、例えばP(プログラムオート)モード、S(シャッター速度優先オート)モード、A(絞り優先オート)モード、M(マニュアル)モードが切り替え可能に構成される。
<Setting imaging conditions>
For example, when the user performs a touch operation on the imaging condition icon i1 of the home icons, the body control unit 21 displays the imaging conditions on the shoulder portion 25B instead of the home icon displayed on the shoulder portion 25B of the display unit 25. Let FIG. 4 is a diagram for explaining a screen displayed on the display unit 25. In FIG. 4, the condition i6, the condition i7, the condition i8, and the condition i9 are displayed on the shoulder portion 25B of the display unit 25. In the example of FIG. 4, the condition i6 corresponds to the exposure mode. For example, the exposure mode can be switched between a P (program auto) mode, an S (shutter speed priority auto) mode, an A (aperture priority auto) mode, and an M (manual) mode.

また、条件i7は絞り値に対応する。絞り値は、交換レンズ3で設定可能な値(例えばf1.8〜f11)に変更可能に構成される。条件i8はシャッター速度に対応する。シャッター速度は、例えば1/6000秒から30秒の範囲で変更可能に構成される。条件i9は、露出補正に対応する。露出補正は、例えば、±3段の範囲で変更可能に構成される。   Condition i7 corresponds to the aperture value. The aperture value can be changed to a value that can be set by the interchangeable lens 3 (for example, f1.8 to f11). Condition i8 corresponds to the shutter speed. The shutter speed is configured to be changeable within a range of 1/6000 seconds to 30 seconds, for example. Condition i9 corresponds to exposure correction. The exposure correction is configured to be changeable within a range of ± 3 stages, for example.

<小さい操作(湾曲部25Cを跨がない操作)>
例えば、条件i6(露出モード)を変更する場合、ユーザーは、表示部25の湾曲部25Cのうち、条件i6の表示位置の近傍のエリア41で、指を上下方向に小さくずらす操作を行う。ボディ制御部21は、エリア41で下向きの操作を検出するごとに、露出モードを、P→S→A→M→P…の順に切り替える。
<Small operation (operation not straddling the bending portion 25C)>
For example, when changing the condition i6 (exposure mode), the user performs an operation of shifting the finger up and down slightly in the area 41 near the display position of the condition i6 in the curved portion 25C of the display unit 25. Each time the body control unit 21 detects a downward operation in the area 41, the body control unit 21 switches the exposure mode in the order of P → S → A → M → P.

反対に、ボディ制御部21は、エリア41で上向きの操作を検出するごとに、露出モードを、P→M→A→S→P…の順に切り替える。図5は、露出モードをSモードに切り替えた場合に表示部25に表示された画面を、正面から見た図である。なおエリア41は、湾曲部25Cに設けられていてもよいし、肩部分25Bから湾曲部25Cにまたがって設けられていてもよいし、湾曲部25Cから背面25Aにまたがって設けられていてもよいし、肩部分25Bから湾曲部25C、さらに背面25Aにまたがって設けられていてもよい。   On the other hand, every time an upward operation is detected in the area 41, the body control unit 21 switches the exposure mode in the order of P → M → A → S → P. FIG. 5 is a front view of the screen displayed on the display unit 25 when the exposure mode is switched to the S mode. The area 41 may be provided on the bending portion 25C, may be provided over the bending portion 25C from the shoulder portion 25B, or may be provided over the back surface 25A from the bending portion 25C. In addition, it may be provided across the shoulder portion 25B, the curved portion 25C, and the back surface 25A.

図6は、図4の表示部25の湾曲部25C(上記例ではエリア41)が操作された場合における表示部25の肩部分25Bの表示を説明する図である。ボディ制御部21は、湾曲部25Cに対する操作量に応じて、仮想の円筒ダイヤル61があたかも回転操作されたかのように、表示部25の肩部分25Bの表示を切り替える。   FIG. 6 is a diagram for explaining display of the shoulder portion 25B of the display unit 25 when the bending unit 25C (area 41 in the above example) of the display unit 25 of FIG. 4 is operated. The body control unit 21 switches the display of the shoulder portion 25B of the display unit 25 as if the virtual cylindrical dial 61 was rotated according to the operation amount with respect to the bending unit 25C.

図7は、仮想の円筒ダイヤル61を拡大した図である。図7において、仮想の円筒ダイヤル61の周囲には、条件i6〜条件i8の設定値がそれぞれ記されている。ボディ制御部21は、図7の円筒ダイヤル61を湾曲部25Cに対する操作量に応じて回転させる。仮想の円筒ダイヤル61の回転に伴い、円筒ダイヤル61の周囲に記されている条件i6〜条件i8の設定値を表示する位置が移動する。ボディ制御部21は、上記表示の位置が移動するように表示部25の肩部分25Bに表示させるとともに、仮想の円筒ダイヤル61の天頂部へ移動した設定値へ条件i6(露出モード)を変更する。
なお、上記例ではエリア41(湾曲部25C)が操作されることによって仮想の円筒ダイヤル61の条件i6の設定値が移動する例を説明したが、他の条件i7〜条件i9の設定についても同様である。
なお、Aモードでは、絞り値と露出補正とが変更可能であり、シャッター速度はユーザー操作により変更することはできない。そのため、ボディ制御部21は、表示部25における条件i8の表示を非表示としてもよいし、グレーアウトするよう表示態様を変更するようにしてもよい。また条件i8が表示部25に表示されている場合、ボディ制御部21は、絞り値が変更されたことに応じて、適正露出を保つためにシャッター速度の値およびその表示を変更させる。
なお、Sモードでは、シャッター速度と露出補正とが変更可能であり、絞り値はユーザー操作により変更することができない。そのため、ボディ制御部21は、表示部25における条件i7の表示を非表示としてもよいし、グレーアウトするよう表示態様を変更するようにしてもよい。また条件i7が表示部25に表示されている場合、ボディ制御部21は、シャッター速度が変更されたことに応じて、適正露出を保つために絞り値の値およびその表示を変更させる。
FIG. 7 is an enlarged view of the virtual cylindrical dial 61. In FIG. 7, the set values of the conditions i6 to i8 are written around the virtual cylindrical dial 61, respectively. The body control unit 21 rotates the cylindrical dial 61 of FIG. 7 according to the operation amount with respect to the bending portion 25C. As the virtual cylindrical dial 61 rotates, the position for displaying the set values of the conditions i6 to i8 written around the cylindrical dial 61 moves. The body control unit 21 displays on the shoulder portion 25B of the display unit 25 so that the display position moves, and changes the condition i6 (exposure mode) to the set value moved to the zenith of the virtual cylindrical dial 61. .
In the example described above, the setting value of the condition i6 of the virtual cylindrical dial 61 is moved by operating the area 41 (curving portion 25C). However, the same applies to the setting of the other conditions i7 to i9. It is.
In the A mode, the aperture value and exposure correction can be changed, and the shutter speed cannot be changed by a user operation. Therefore, the body control unit 21 may hide the display of the condition i8 on the display unit 25, or may change the display mode so as to be grayed out. When the condition i8 is displayed on the display unit 25, the body control unit 21 changes the shutter speed value and its display in order to maintain proper exposure according to the change of the aperture value.
In the S mode, the shutter speed and exposure correction can be changed, and the aperture value cannot be changed by a user operation. Therefore, the body control unit 21 may hide the display of the condition i7 on the display unit 25, or may change the display mode so as to be grayed out. Further, when the condition i7 is displayed on the display unit 25, the body control unit 21 changes the aperture value and its display in order to maintain proper exposure according to the change of the shutter speed.

ここで、ユーザーが表示部25の表示面を背面25Aと正対する向きに観察する場合、ユーザーにとって表示部25の肩部分25Bを観察する方向が斜めになる。このため、図8に例示するように、表示部25の肩部分25Bの表示内容が歪んで観察されてしまう。図8は、表示部25の肩部分25Bの表示内容が歪む例である。そこで、ボディ制御部21は、ユーザーが表示部25の表示面を背面25Aと正対する向きに観察した場合に、表示部25の肩部分25Bの表示が正しく観察されるように、あらかじめ表示する文字等の形状を補正して表示させる。図5の例では、表示部25の肩部分25Bの表示をあらかじめ補正したことにより、表示部25の肩部分25Bに表示されている数値を歪まずに表示させることができる。なお、ユーザーと表示部25との相対位置を本体部の背面側(表示部25側)に設けられた不図示の撮像部により検出するようにしてもよい。ボディ制御部21は、撮像部の検出結果に基づいて、表示部25の肩部分25Bの表示の補正量を算出するようにしてもよい。   Here, when the user observes the display surface of the display unit 25 in a direction facing the back surface 25A, the direction of observing the shoulder portion 25B of the display unit 25 is oblique to the user. For this reason, as illustrated in FIG. 8, the display content of the shoulder portion 25B of the display unit 25 is distorted and observed. FIG. 8 is an example in which the display content of the shoulder portion 25B of the display unit 25 is distorted. Therefore, the body control unit 21 displays characters to be displayed in advance so that the display of the shoulder portion 25B of the display unit 25 is correctly observed when the user observes the display surface of the display unit 25 in the direction facing the back surface 25A. Etc. are corrected and displayed. In the example of FIG. 5, by correcting the display of the shoulder portion 25B of the display unit 25 in advance, the numerical value displayed on the shoulder portion 25B of the display unit 25 can be displayed without distortion. In addition, you may make it detect the relative position of a user and the display part 25 by the imaging part not shown provided in the back side (display part 25 side) of the main-body part. The body control unit 21 may calculate the display correction amount of the shoulder portion 25B of the display unit 25 based on the detection result of the imaging unit.

<大きい操作(湾曲部25Cを跨ぐ操作)>
図9は、表示部25に表示される画面を説明する図である。図4の場合と同様に、表示部25の肩部分25Bに条件i6と、条件i7と、条件i8と、条件i9とが表示されている。例えば、条件i6(露出モード)を素早く変更したい場合、ユーザーは、条件i6の表示位置から、エリア41(湾曲部25C)を跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。
<Large operation (operation across the bending portion 25C)>
FIG. 9 is a diagram for explaining a screen displayed on the display unit 25. As in the case of FIG. 4, the condition i6, the condition i7, the condition i8, and the condition i9 are displayed on the shoulder portion 25B of the display unit 25. For example, when the user wants to quickly change the condition i6 (exposure mode), the user performs an operation of largely shifting his / her finger vertically from the display position of the condition i6 to the back surface 25A across the area 41 (curved portion 25C).

ボディ制御部21は、エリア41を跨ぐ下向きの操作を検出すると、露出モードの設定値を示す一覧表示を、表示部25の背面25Aに表示させる。図10は、露出モードについての一覧表示がライブビュー画像に重ねて表示された画面を、正面から見た図である。
なお、一覧表示は、表示部25の背面25Aに表示してもよいし、湾曲部25Cを跨いで肩部分25Bから背面25Aにかけて表示してもよい。
When the body control unit 21 detects a downward operation across the area 41, the body control unit 21 displays a list display indicating the set value of the exposure mode on the back surface 25A of the display unit 25. FIG. 10 is a front view of a screen on which the list display for the exposure mode is displayed superimposed on the live view image.
The list display may be displayed on the back surface 25A of the display unit 25 or may be displayed from the shoulder portion 25B to the back surface 25A across the curved portion 25C.

ボディ制御部21は、一覧表示のうちのP、S、A、Mのいずれかがタッチ操作されると、タッチ操作されたモードに露出モードを切り替えるとともに、一覧表示の表示を終了させる。例えば、露出モードをSモードに切り替えた場合は、図5に例示した画面を表示部25に表示させるとともに、Sモードに切り替える。   When any of P, S, A, and M in the list display is touch-operated, the body control unit 21 switches the exposure mode to the touch-operated mode and ends the display of the list display. For example, when the exposure mode is switched to the S mode, the screen illustrated in FIG. 5 is displayed on the display unit 25 and the mode is switched to the S mode.

以上の説明では、条件i6(露出モード)を変更する場合を例示したが、条件i7(絞り値)および条件i8(シャッター速度)についても同様である。   In the above description, the case where the condition i6 (exposure mode) is changed is illustrated, but the same applies to the condition i7 (aperture value) and the condition i8 (shutter speed).

上述した小さい操作および大きい操作は、ユーザーが、ズームレンズ32の駆動操作や、フォーカスレンズ33の駆動操作を行う場合に適用してもよい。すなわち、レンズを小さく小刻みに移動させたい場合には、湾曲部25Cを跨がない小さな操作を行い、レンズを大きく移動させたい場合には、湾曲部25Cを跨ぐ大きな操作を行う。   The small operation and the large operation described above may be applied when the user performs a driving operation of the zoom lens 32 or a driving operation of the focus lens 33. That is, when it is desired to move the lens in small increments, a small operation that does not straddle the bending portion 25C is performed, and when it is desired to move the lens largely, a large operation that straddles the bending portion 25C is performed.

<目盛を表示する例>
例えば、条件i9(露出補正)を変更する場合、ユーザーは、図4の条件i9の表示位置から、条件i9の表示位置の近傍のエリア71(湾曲部25C)を跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。ボディ制御部21は、エリア71を跨ぐ操作を検出すると、条件i9の表示位置、エリア71および背面25Aに沿って目盛72を表示させる。なお、ユーザーは、背面25Aから、近傍のエリア71(湾曲部25C)を跨いで条件i9の表示位置まで、指を上下方向に大きくずらす操作を行ってもよい。
<Example of displaying scale>
For example, when changing the condition i9 (exposure correction), the user moves his / her finger up and down from the display position of the condition i9 in FIG. 4 to the back surface 25A across the area 71 (curved portion 25C) in the vicinity of the display position of the condition i9. Perform an operation that greatly shifts in the direction. When the body control unit 21 detects an operation across the area 71, the body control unit 21 displays the scale 72 along the display position of the condition i9, the area 71, and the back surface 25A. Note that the user may perform an operation of largely shifting the finger in the vertical direction from the back surface 25A to the display position of the condition i9 across the nearby area 71 (curved portion 25C).

図11は、表示部25に表示された、条件i9(露出補正)についての目盛72を例示する図である。ボディ制御部21は、エリア71を跨ぐ操作を検出するごとに、露出補正値を、例えば1段ステップで切り替える。図12は、図11に比べて補正値を+側に1段変更した場合を例示する図である。   FIG. 11 is a diagram illustrating a scale 72 displayed on the display unit 25 for the condition i9 (exposure correction). The body control unit 21 switches the exposure correction value, for example, in a single step every time an operation across the area 71 is detected. FIG. 12 is a diagram illustrating a case where the correction value is changed by one step to the + side compared to FIG.

ユーザーは、条件i9(露出補正)の表示位置の近傍のエリア71(湾曲部25C)で、指を上下方向に小さくずらす操作を行う。ボディ制御部21は、エリア71を跨がない小さな操作を検出すると、粗い目盛72に比べて細かい目盛72Bを表示させる。図13は、表示部25に表示された、条件i9(露出補正)についての細かい目盛72Bを例示する図である。ボディ制御部21は、エリア71における操作を検出するごとに、露出補正値を、例えば0.1段ステップで切り替える。
なお、ボディ制御部21は、目盛72を表示部25に表示させず、変更された露出補正値のみを表示するようにしてもよい。
The user performs an operation of shifting his / her finger up and down in the area 71 (curved portion 25C) near the display position of the condition i9 (exposure correction). When the body control unit 21 detects a small operation that does not straddle the area 71, the body control unit 21 displays a fine scale 72B compared to the coarse scale 72. FIG. 13 is a diagram illustrating a fine scale 72 </ b> B for the condition i <b> 9 (exposure correction) displayed on the display unit 25. Each time the body control unit 21 detects an operation in the area 71, the body control unit 21 switches the exposure correction value by, for example, 0.1 step.
The body control unit 21 may display only the changed exposure correction value without displaying the scale 72 on the display unit 25.

<アンドゥー操作>
ボディ制御部21は、2本の指の一方が肩部分25Bに触れ、他方の指が背面25Aに触れた状態で湾曲部25Cを挟むピンチ操作が行われる(あたかも湾曲部25Cを摘む操作)と、上述したように設定した内容をキャンセルするリセット操作、あるいは直前の操作を取り消して元の状態に戻すアンドゥー操作として処理する。アンドゥー操作の指示は、ピンチ操作に限らず、背面25Aと肩部分25Bとが同時に操作されたことによって検出されるようにしてもよい。
<Undo operation>
When the body control unit 21 performs a pinch operation that sandwiches the bending portion 25C with one of the two fingers touching the shoulder portion 25B and the other finger touching the back surface 25A (an operation of pinching the bending portion 25C). The processing is performed as a reset operation for canceling the contents set as described above or an undo operation for canceling the immediately preceding operation and returning to the original state. The instruction for the undo operation is not limited to the pinch operation, and may be detected by operating the back surface 25A and the shoulder portion 25B simultaneously.

<ダイヤルを表示する例>
例えば、図4において条件i7(絞り値)または条件i8(シャッター速度)を変更する場合、ユーザーは、図4の条件i7またはi8の表示位置の近傍のエリア81(湾曲部25C)またはエリア91(湾曲部25C)で、指を水平方向に小さくずらす操作を行う。
<Example of dial display>
For example, when the condition i7 (aperture value) or the condition i8 (shutter speed) is changed in FIG. 4, the user can use the area 81 (curved portion 25C) or area 91 (near the display position of the condition i7 or i8 in FIG. With the bending portion 25C), an operation of shifting the finger small in the horizontal direction is performed.

例えば、条件i7の表示位置の近傍のエリア81(湾曲部25C)が水平方向に操作されると、ボディ制御部21は、表示部25の肩部分25Bにおいて条件i7の表示位置に仮想のダイヤルDを表示させる。図14は、表示部25に表示されたダイヤルDを例示する図である。ボディ制御部21は、エリア81における水平方向の操作を検出するごとに、あたかもダイヤルDが回転操作されたかのように、絞り値を変更する。ボディ制御部21は、ダイヤルDに対する操作が検出されなくなって所定時間(例えば3秒)が経過すると、仮想のダイヤルDの表示を終了する。   For example, when the area 81 (curved portion 25C) in the vicinity of the display position of the condition i7 is operated in the horizontal direction, the body control unit 21 moves the virtual dial D to the display position of the condition i7 in the shoulder portion 25B of the display unit 25. Is displayed. FIG. 14 is a diagram illustrating the dial D displayed on the display unit 25. Each time the body control unit 21 detects an operation in the horizontal direction in the area 81, the body control unit 21 changes the aperture value as if the dial D was rotated. The body control unit 21 ends the display of the virtual dial D when a predetermined time (for example, 3 seconds) elapses after no operation on the dial D is detected.

図15は、条件i7(絞り値)についての仮想のダイヤルD1を拡大した図である。図15の例では、現絞り値が仮想のダイヤルD1の上面に表示される。図16は、絞り値が仮想のダイヤルD2の近傍に表示される例を示す図である。図16の場合においても、ボディ制御部21は、エリア81における水平方向の操作を検出するごとに、あたかもダイヤルD2が回転操作されたかのように、絞り値を変更する。   FIG. 15 is an enlarged view of the virtual dial D1 for the condition i7 (aperture value). In the example of FIG. 15, the current aperture value is displayed on the upper surface of the virtual dial D1. FIG. 16 is a diagram illustrating an example in which the aperture value is displayed in the vicinity of the virtual dial D2. Also in the case of FIG. 16, whenever the body control unit 21 detects a horizontal operation in the area 81, the body control unit 21 changes the aperture value as if the dial D2 was rotated.

カメラボディ2は、仮想のダイヤルDの誤操作を防止するためにロック機能を備えている。図17は、仮想のダイヤルDのロック操作を説明する図である。ボディ制御部21は、背面25Aから、湾曲部25Cを跨いで肩部分25BのダイヤルDの表示位置に向けて、指を上下方向にずらす操作が行われると、仮想のダイヤルDをロックさせる。ダイヤルDをロックした場合、ボディ制御部21は、仮想のダイヤルDの表示色を変化させたり、キーマークを表示させたりする。ロック状態の場合、ボディ制御部21は、図18に示すようなダイヤル操作(湾曲部25Cに対する水平方向の操作)を検出しても、絞り値を変更しない。   The camera body 2 has a lock function in order to prevent erroneous operation of the virtual dial D. FIG. 17 is a diagram for explaining a virtual dial D lock operation. The body control unit 21 locks the virtual dial D when an operation of shifting the finger in the vertical direction is performed from the back surface 25A across the bending portion 25C toward the display position of the dial D of the shoulder portion 25B. When the dial D is locked, the body control unit 21 changes the display color of the virtual dial D or displays a key mark. In the locked state, the body control unit 21 does not change the aperture value even when a dial operation (operation in the horizontal direction with respect to the bending portion 25C) as shown in FIG. 18 is detected.

ボディ制御部21は、肩部分25BのダイヤルDの表示位置から、湾曲部25Cを跨いで背面25Aに向けて、指を上下方向にずらす操作が行われると、仮想のダイヤルDのロックを解除する。ダイヤルDのロックを解除した場合、ボディ制御部21は、仮想のダイヤルDの表示色を元に戻す。なお、キーマークを表示していた場合はその表示を終了させる。   The body control unit 21 unlocks the virtual dial D when an operation of shifting the finger in the vertical direction from the display position of the dial D of the shoulder portion 25B to the back surface 25A across the curved portion 25C is performed. . When the lock of the dial D is released, the body control unit 21 restores the display color of the virtual dial D. If the key mark is displayed, the display is terminated.

<二重ダイヤルを表示する例>
例えば、図3においてISO感度/露出補正アイコンi4がタッチ操作された場合、ボディ制御部21は、表示部25の肩部分25Bにおいて仮想の二重ダイヤルD3を表示させる。図19は、表示部25に表示された二重ダイヤルD3を例示する図である。図19の上側の図は、仮想の二重ダイヤルD3のうちの内側ダイヤルD31が操作されている状態を示す。また、図19の下側の図は、仮想の二重ダイヤルD3のうちの外側ダイヤルD32が操作されている状態を示す。
<Example of displaying double dial>
For example, when the ISO sensitivity / exposure correction icon i4 is touched in FIG. 3, the body control unit 21 displays a virtual double dial D3 on the shoulder portion 25B of the display unit 25. FIG. 19 is a diagram illustrating the double dial D <b> 3 displayed on the display unit 25. The upper diagram in FIG. 19 shows a state in which the inner dial D31 of the virtual double dial D3 is being operated. Further, the lower diagram in FIG. 19 shows a state in which the outer dial D32 of the virtual double dial D3 is being operated.

ボディ制御部21は、表示部25の肩部分25Bにおいて内側ダイヤルD31に対する操作を検出するごとに、あたかも内側ダイヤルD31が回転操作されたかのように、例えば露出補正値を変更する。   Each time the body control unit 21 detects an operation on the inner dial D31 in the shoulder portion 25B of the display unit 25, the body control unit 21 changes, for example, the exposure correction value as if the inner dial D31 was rotated.

また、ボディ制御部21は、表示部25の背面25Aにおいて水平方向の操作を検出するごとに、あたかも外側ダイヤルD32が回転操作されたかのように、例えばISO感度値を変更する。   In addition, whenever the body control unit 21 detects a horizontal operation on the back surface 25A of the display unit 25, the body control unit 21 changes, for example, the ISO sensitivity value as if the outer dial D32 has been rotated.

ボディ制御部21は、内側ダイヤルD31に対する操作および外側ダイヤルD32に対する操作のいずれも検出されなくなって所定時間(例えば3秒)が経過すると、仮想の二重ダイヤルD3の表示を終了して図3の状態に戻す。   The body control unit 21 terminates the display of the virtual double dial D3 when the operation for the inner dial D31 and the operation for the outer dial D32 are not detected and a predetermined time (for example, 3 seconds) elapses, and FIG. Return to the state.

<ズーミング時の表示>
図20は、表示部25の肩部分25Bにアイコン等を表示させない場合を例示する図である。ボディ制御部21は、表示部25の表示エリアの全域を使って、ライブビュー画像を擬似的な空間の奥に表示させる。
<Display during zooming>
FIG. 20 is a diagram illustrating a case where an icon or the like is not displayed on the shoulder portion 25 </ b> B of the display unit 25. The body control unit 21 uses the entire display area of the display unit 25 to display the live view image in the back of the pseudo space.

ボディ制御部21は、例えば、ユーザーによって表示部25の画面上でピンチアウト操作されると、操作位置に表示されている被写体を中心にズーム処理を行い、ズーム部分を擬似的な空間の手前に表示させる。図21は、ズーム部分を表示させた場合を例示する図である。
なお、ライブビュー画像に対してズーミング操作を行った場合について説明したが、これに限定されず、再生画像に対してズーミング操作(拡大表示、縮小表示)を行った場合にも同様の表示態様としてもよい。また、ズーム処理の指示をピンチアウト操作として説明したが、操作部材26が操作されたことによって、ボディ制御部21は、表示態様を変更するようにしてもよい。
For example, when the user performs a pinch-out operation on the screen of the display unit 25 by the user, the body control unit 21 performs a zoom process centering on the subject displayed at the operation position, and brings the zoom part in front of the pseudo space. Display. FIG. 21 is a diagram illustrating a case where the zoom portion is displayed.
In addition, although the case where zooming operation was performed with respect to the live view image was demonstrated, it is not limited to this, and also when zooming operation (enlarged display, reduced display) is performed with respect to a reproduction image, as a similar display mode Also good. In addition, although the zoom processing instruction has been described as a pinch-out operation, the body control unit 21 may change the display mode when the operation member 26 is operated.

<エフェクトの設定>
例えば、ユーザーが図3のホームアイコンのうちのエフェクトアイコンi2をタッチ操作すると、ボディ制御部21は、表示部25の肩部分25Bに表示しているホームアイコンに代えて、エフェクト変更操作部を表示させる。図22は、表示部25に表示される画面を説明する図である。図22において、表示部25の肩部分25Bにエフェクト変更操作部が表示されている。
<Effect settings>
For example, when the user performs a touch operation on the effect icon i2 of the home icons in FIG. 3, the body control unit 21 displays an effect change operation unit instead of the home icon displayed on the shoulder portion 25B of the display unit 25. Let FIG. 22 is a diagram for explaining a screen displayed on the display unit 25. In FIG. 22, the effect change operation unit is displayed on the shoulder portion 25 </ b> B of the display unit 25.

例えば、エフェクトを変更する場合、ユーザーは、表示部25の湾曲部25Cのうちのエリア41で、指を上下方向に小さくずらす操作を行う。ボディ制御部21は、エリア41で上下方向の操作を検出するごとに、設定値(本例ではエフェクトの候補)を表示部25の肩部分25Bに順番に表示する。この場合、上述した仮想の円筒ダイヤル61(図6)があたかも回転操作されたかのように、表示部25の肩部分25Bの表示を切り替える。図23は、エフェクトの候補の表示が切り替わった状態を説明する図である。   For example, when changing the effect, the user performs an operation of shifting the finger in the vertical direction in the area 41 of the curved portion 25C of the display unit 25. Each time the body control unit 21 detects an up / down operation in the area 41, the body control unit 21 sequentially displays the set value (effect candidate in this example) on the shoulder portion 25B of the display unit 25. In this case, the display of the shoulder portion 25B of the display unit 25 is switched as if the virtual cylindrical dial 61 (FIG. 6) described above was rotated. FIG. 23 is a diagram for explaining a state in which the display of effect candidates is switched.

例えば、表示部25Aに表示されているライブビュー画像に対してエフェクトを適用する場合、ユーザーは、表示部25の肩部分25Bから、エリア41(湾曲部25C)を跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。   For example, when applying an effect to the live view image displayed on the display unit 25A, the user moves his / her finger up and down from the shoulder portion 25B of the display unit 25 to the back surface 25A across the area 41 (curved portion 25C). Perform an operation that greatly shifts in the direction.

ボディ制御部21は、エリア41を跨ぐ下向きの操作を検出すると、ライブビュー画像に対してエフェクトを適用した画像処理を行い、画像処理後の画像を表示部25の背面25Aに表示させる。図24は、エフェクトが適用された状態を説明する図である。図24では便宜上「SEPIA」と記載しているが、セピア色に処理されたライブビュー画像が表示される。   When the body control unit 21 detects a downward operation across the area 41, the body control unit 21 performs image processing to which an effect is applied to the live view image, and displays the image after image processing on the back surface 25A of the display unit 25. FIG. 24 is a diagram illustrating a state where the effect is applied. In FIG. 24, “SEPIA” is described for convenience, but a live view image processed in sepia is displayed.

図25は、エフェクトの強さの変更操作を説明する図である。ボディ制御部21は、エリア41において水平方向の操作を検出すると、ライブビュー画像に対して適用したエフェクトの強さを変化させる。すなわち、操作に応じて画像処理における強弱を変更し、変更後の強さを適用して画像処理したライブビュー画像を表示部25の背面25Aに表示させる。ユーザーは、エリア41において水平方向に操作をすることで、エフェクトの強さがリアルタイムに変化するライブビュー画像を観察できる。
なお、ライブビュー画像に対してエフェクトを適用する場合について説明したが、これに限定されず、再生画像に対してエフェクトを適用するようにしてもよい。
FIG. 25 is a diagram illustrating an effect strength changing operation. When detecting a horizontal operation in the area 41, the body control unit 21 changes the strength of the effect applied to the live view image. That is, the strength in the image processing is changed according to the operation, and the live view image that has been subjected to the image processing by applying the strength after the change is displayed on the back surface 25 </ b> A of the display unit 25. The user can observe a live view image in which the strength of the effect changes in real time by operating in the area 41 in the horizontal direction.
In addition, although the case where an effect is applied with respect to a live view image was demonstrated, it is not limited to this, You may make it apply an effect with respect to a reproduction image.

<再生設定1>
例えば、ユーザーが図3のホームアイコンのうちの再生アイコンi3をタッチ操作すると、ボディ制御部21は、表示部25の肩部分25Bの表示を終了するとともに、表示部25の表示エリアの全域を使って、再生画像を擬似的な空間に表示させる。
<Playback setting 1>
For example, when the user touches the play icon i3 of the home icons in FIG. 3, the body control unit 21 ends the display of the shoulder portion 25B of the display unit 25 and uses the entire display area of the display unit 25. The reproduced image is displayed in a pseudo space.

図26は、表示部25に表示される画面を説明する図である。図26において、複数コマの画像251、252、253が重ねて表示されている。ボディ制御部21は、メモリ24に記録されている画像のうち、例えば、読み出し指定された画像251、252、253を撮像順に表示させる。   FIG. 26 is a diagram for explaining a screen displayed on the display unit 25. In FIG. 26, a plurality of frames 251, 252, and 253 are displayed in an overlapping manner. The body control unit 21 displays, for example, images 251, 252, and 253 that are specified to be read out of the images recorded in the memory 24 in the order of imaging.

ボディ制御部21は、表示部25の肩部分25Bを使って、複数コマの画像を重なりがわかるように階層表示させる。図27は、図26の表示画面を正面から見た図である。ユーザーは、例えば、擬似的な空間において1番奥に表示されている画像253を鑑賞したい場合には、表示部25の肩部分25Bにおいて画像253の表示をタッチ操作する。ボディ制御部21は、画像253へのタッチ操作を検出すると、画像251に代えて画像253を擬似的な空間において1番手前に表示させる。   The body control unit 21 uses the shoulder portion 25B of the display unit 25 to display a plurality of frames of images hierarchically so that the overlap can be seen. FIG. 27 is a front view of the display screen of FIG. For example, when the user wants to appreciate the image 253 displayed at the back in the pseudo space, the user touches the display of the image 253 on the shoulder portion 25 </ b> B of the display unit 25. When the body control unit 21 detects a touch operation on the image 253, the body control unit 21 displays the image 253 instead of the image 251 in the pseudo space in the first position.

以上の説明では、再生時における複数コマの画像の階層表示を例に説明したが、複数の操作メニュー画面についても、同様に擬似的な空間に階層表示させることもできる。例えば、ユーザーが擬似的な空間において1番奥に表示されている操作メニュー画面を操作したい場合には、表示部25の肩部分25Bにおいて当該操作メニュー画面の表示をタッチ操作する。ボディ制御部21は、タッチ操作を検出すると、1番手前に表示している操作メニュー画面に代えて、タッチ操作された操作メニュー画面を擬似的な空間において1番手前に表示させる。   In the above description, the hierarchical display of images of a plurality of frames at the time of reproduction has been described as an example. However, a plurality of operation menu screens can also be hierarchically displayed in a pseudo space. For example, when the user wants to operate the operation menu screen displayed at the back in the pseudo space, the display of the operation menu screen is touch-operated on the shoulder portion 25B of the display unit 25. When detecting the touch operation, the body control unit 21 displays the touched operation menu screen in the pseudo space instead of the operation menu screen displayed in the first position.

<再生設定2>
ユーザーが図3のホームアイコンのうちの再生アイコンi3をタッチ操作した場合において、表示部25の肩部分25Bの表示を終了せずに、複数のサムネイル画像を表示部25の肩部分25Bに表示させてもよい。
<Playback setting 2>
When the user touches the play icon i3 of the home icons shown in FIG. 3, a plurality of thumbnail images are displayed on the shoulder portion 25B of the display unit 25 without ending the display of the shoulder portion 25B of the display unit 25. May be.

ユーザーは、肩部分25Bに表示されているサムネイル画像に対応する画像を背面25Aに大きく表示させたい場合、任意のサムネイル画像をドラッグ操作するかのように、表示部25の肩部分25Bから、湾曲部25Cを跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。ボディ制御部21は、上記ドラッグ操作の対象となったサムネイル画像に対応する画像を表示部25の背面25Aに表示させる。   When the user wants to display an image corresponding to the thumbnail image displayed on the shoulder portion 25B in a large size on the back surface 25A, the user can curve from the shoulder portion 25B of the display unit 25 as if dragging an arbitrary thumbnail image. An operation is performed in which the finger is largely shifted in the vertical direction up to the back surface 25A across the part 25C. The body control unit 21 displays an image corresponding to the thumbnail image that is the target of the drag operation on the back surface 25 </ b> A of the display unit 25.

<再生設定3>
ユーザーが図3のホームアイコンのうちの再生アイコンi3をタッチ操作した場合において、連写画像を再生する場合には、連写した複数コマのサムネイル画像を表示部25の肩部分25Bに表示させてもよい。
<Playback setting 3>
When the user touches the play icon i3 of the home icons shown in FIG. 3 and reproduces the continuous shot image, the thumbnail images of the continuously shot frames are displayed on the shoulder portion 25B of the display unit 25. Also good.

ユーザーは、肩部分25Bに表示されている複数コマのサムネイル画像に対し、例えば、撮像コマ順にサムネイル画像をドラッグ操作するかのように、表示部25の肩部分25Bから、湾曲部25Cを跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。ボディ制御部21は、上記ドラッグ操作の対象となったコマのサムネイル画像に対応する画像を表示部25の背面25Aに表示させる。   The user straddles the curved portion 25C from the shoulder portion 25B of the display unit 25, for example, as if the thumbnail image is dragged to the thumbnail images of the plurality of frames displayed on the shoulder portion 25B in the order of the captured frames. An operation of largely shifting the finger up and down to the back surface 25A is performed. The body control unit 21 displays an image corresponding to the thumbnail image of the frame subjected to the drag operation on the back surface 25 </ b> A of the display unit 25.

ボディ制御部21は、次のコマのサムネイル画像に対し、表示部25の肩部分25Bから湾曲部25Cを跨いで背面25Aまで指を上下方向に大きくずらす操作が行なわれると、例えば、背面25Aに表示されている前コマの画像との相違する部分をハイライト表示した半透過画像として、前コマの画像より手前に重ねて背面25Aに重畳表示させる。ボディ制御部21は、指のずらし位置が下方へ下がるほど半透過画像の透過率を下げていき、最後に透過率を0にして、前コマの画像に代えて背面25Aに表示させる。   For example, when the thumbnail image of the next frame is operated to largely shift the finger in the vertical direction from the shoulder portion 25B of the display unit 25 to the back surface 25A over the curved portion 25C, the body control unit 21 moves to the back surface 25A. As a translucent image in which a portion different from the displayed image of the previous frame is highlighted, the image is superimposed on the back surface 25 </ b> A so as to overlap the image of the previous frame. The body control unit 21 lowers the transmissivity of the semi-transparent image as the finger shift position is lowered, and finally sets the transmissivity to 0 so that the image is displayed on the back surface 25A instead of the previous frame image.

<フローチャートの説明>
図28は、撮像条件の設定例として上述した露出モードを設定変更する場合にボディ制御部21が実行する処理の流れを説明するフローチャートである。ボディ制御部21は、露出モードの設定変更時において、図28に例示する処理を繰り返し実行する。
<Explanation of flowchart>
FIG. 28 is a flowchart illustrating a flow of processing executed by the body control unit 21 when the above-described exposure mode is changed as an example of setting the imaging condition. The body control unit 21 repeatedly executes the process illustrated in FIG. 28 when changing the exposure mode setting.

図28のステップS10において、ボディ制御部21は、表示部25における湾曲部25Cが操作されたか否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号が湾曲部25Cに対する操作を示すと、ステップS10を肯定判定してステップS20へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号が湾曲部25Cに対する操作を示さない場合は、ステップS10を否定判定して図28による処理を終了する。   In step S10 of FIG. 28, the body control unit 21 determines whether or not the bending unit 25C in the display unit 25 has been operated. When the detection signal from the touch operation member 25S indicates an operation on the bending portion 25C, the body control unit 21 makes an affirmative determination in step S10 and proceeds to step S20. When the detection signal from the touch operation member 25S does not indicate an operation on the bending portion 25C, the body control unit 21 makes a negative determination in step S10 and ends the process of FIG.

ステップS20において、ボディ制御部21は、操作方向が上下方向か否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号が上下方向の操作を示すと、ステップS20を肯定判定してステップS30へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号が上下方向の操作を示さない場合は、ステップS20を否定判定して図28による処理を終了する。   In step S20, the body control unit 21 determines whether or not the operation direction is the vertical direction. When the detection signal from the touch operation member 25S indicates an operation in the vertical direction, the body control unit 21 makes an affirmative determination in step S20 and proceeds to step S30. When the detection signal from the touch operation member 25S does not indicate the vertical operation, the body control unit 21 makes a negative determination in step S20 and ends the process of FIG.

ステップS30において、ボディ制御部21は、操作が湾曲部25Cを跨ぐか否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号が湾曲部25Cを跨いだ操作を示すと、ステップS30を肯定判定してステップS40へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号が湾曲部25Cを跨いだ操作を示さない場合は、ステップS30を否定判定してステップS60へ進む。   In step S30, the body control unit 21 determines whether or not the operation straddles the bending portion 25C. When the detection signal from the touch operation member 25S indicates an operation straddling the bending portion 25C, the body control unit 21 makes a positive determination in step S30 and proceeds to step S40. If the detection signal from the touch operation member 25S does not indicate an operation across the bending portion 25C, the body control unit 21 makes a negative determination in step S30 and proceeds to step S60.

ステップS40において、ボディ制御部21は、露出モードの設定値を示す一覧表示を、表示部25の背面25Aに表示させてステップS50へ進む。ステップS50において、ボディ制御部21は以下の設定処理を行う。すなわち、一覧表示のうちのP、S、A、Mのいずれかがタッチ操作が検出されると、タッチ操作されたモードに露出モードを切り替えるとともに、一覧表示の表示を終了させて、図28による処理を終了する。ここで、一覧表示のうちのP、S、A、Mのいずれかに対するタッチ操作は、湾曲部25Cを跨がない操作に含まれる。   In step S40, the body control unit 21 displays a list display indicating the set value of the exposure mode on the back surface 25A of the display unit 25, and proceeds to step S50. In step S50, the body control unit 21 performs the following setting process. That is, when a touch operation is detected in any of P, S, A, and M in the list display, the exposure mode is switched to the touch-operated mode, and the display of the list display is terminated, according to FIG. The process ends. Here, the touch operation for any one of P, S, A, and M in the list display is included in the operation that does not straddle the bending portion 25C.

上記ステップS30を否定判定した場合に進むステップS60において、ボディ制御部21は、以下の設定処理を行う。すなわち湾曲部25Cに対する操作が検出されるごとに、露出モードを、P→S→A→M→P…または、P→M→A→S→P…の順に切り替えて、図28による処理を終了する。   In step S60, which proceeds when a negative determination is made in step S30, the body control unit 21 performs the following setting process. That is, each time an operation on the bending portion 25C is detected, the exposure mode is switched in the order of P → S → A → M → P... Or P → M → A → S → P. To do.

図29は、撮像条件の設定例として上述した露出補正を設定変更する場合にボディ制御部21が実行する処理の流れを説明するフローチャートである。ボディ制御部21は、露出補正の設定変更時において、図29に例示する処理を繰り返し実行する。図29は、図28と比べるとステップS140〜ステップS170までの処理が異なるので、これら相違点を中心に説明する。   FIG. 29 is a flowchart for explaining the flow of processing executed by the body control unit 21 when the above-described exposure correction setting is changed as an example of setting the imaging conditions. The body control unit 21 repeatedly executes the process illustrated in FIG. 29 when changing the exposure correction setting. FIG. 29 differs from FIG. 28 in the processing from step S140 to step S170, and therefore, these differences will be mainly described.

ステップS30において肯定判定された場合に進む図29のステップS140において、ボディ制御部21は、表示部25の肩部分25B、湾曲部25Cおよび背面25Aに沿って粗い目盛72(図11)を表示させて、ステップS150へ進む。ステップS150において、ボディ制御部21は、湾曲部25Cを跨ぐ操作が検出されるごとに、露出補正値を大きな分解能(例えば1段ステップ)で切り替えて、図29による処理を終了する。   In step S140 of FIG. 29 which proceeds when an affirmative determination is made in step S30, the body control unit 21 displays a coarse scale 72 (FIG. 11) along the shoulder portion 25B, the curved portion 25C, and the back surface 25A of the display unit 25. Then, the process proceeds to step S150. In step S150, every time an operation straddling the bending portion 25C is detected, the body control unit 21 switches the exposure correction value with a large resolution (for example, one step), and ends the process of FIG.

ステップS30において否定判定された場合に進む図29のステップS160において、ボディ制御部21は、表示部25の肩部分25B、湾曲部25Cおよび背面25Aに沿って細かい目盛72B(図13)を表示させて、ステップS170へ進む。ステップS170において、ボディ制御部21は、湾曲部25Cを跨がない操作が検出されるごとに、露出補正値を小さな分解能(例えば0.1段ステップ)で切り替えて、図29による処理を終了する。   In step S160 of FIG. 29 that proceeds when a negative determination is made in step S30, the body control unit 21 displays a fine scale 72B (FIG. 13) along the shoulder portion 25B, the curved portion 25C, and the back surface 25A of the display unit 25. Then, the process proceeds to step S170. In step S170, every time an operation that does not straddle the bending portion 25C is detected, the body control unit 21 switches the exposure correction value with a small resolution (for example, 0.1 step), and ends the process of FIG. .

図30は、上述した画像に対するエフェクトを設定変更する場合にボディ制御部21が実行する処理の流れを説明するフローチャートである。ボディ制御部21は、エフェクトの設定変更時において、図30に例示する処理を繰り返し実行する。図30は、図28と比べるとステップS240〜ステップS260までの処理が異なるので、これら相違点を中心に説明する。   FIG. 30 is a flowchart for explaining the flow of processing executed by the body control unit 21 when the effect setting for the above-described image is changed. The body control unit 21 repeatedly executes the process illustrated in FIG. 30 when the effect setting is changed. FIG. 30 differs from FIG. 28 in the processing from step S240 to step S260, and therefore, these differences will be mainly described.

ステップS30において肯定判定された場合に進む図30のステップS240において、ボディ制御部21は、表示部25Aに表示されているライブビュー画像に対してエフェクトを適用する。すなわち、ライブビュー画像に対してエフェクトを適用した画像処理を行い、画像処理後の画像を表示部25の背面25Aに表示させる。適用するエフェクトは、表示部25の肩部分25Bに表示されているものである。   In step S240 of FIG. 30 that proceeds when an affirmative determination is made in step S30, the body control unit 21 applies the effect to the live view image displayed on the display unit 25A. That is, image processing is applied to the live view image, and the image after image processing is displayed on the back surface 25A of the display unit 25. The effect to be applied is displayed on the shoulder portion 25 </ b> B of the display unit 25.

ステップS30において否定判定された場合に進むステップS250において、ボディ制御部21は、表示部25の肩部分25Bに表示する設定値(本例ではエフェクトの候補)を変更して図30による処理を終了する。   In step S250, which proceeds when a negative determination is made in step S30, the body control unit 21 changes the setting value (effect candidate in this example) displayed on the shoulder portion 25B of the display unit 25 and ends the process of FIG. To do.

ステップS20において否定判定された場合に進むステップS260において、ボディ制御部21は、表示部25Aに表示されているライブビュー画像に対して適用するエフェクトの強さを変更してステップS240へ進む。   In step S260 that proceeds when a negative determination is made in step S20, the body control unit 21 changes the strength of the effect applied to the live view image displayed on the display unit 25A, and proceeds to step S240.

[実施例1]
以下に、具体的な外観を示して第1の実施形態に係る実施例1を説明する。
図31〜図36は、実施例1に係るカメラボディ2の形状を示す6面図である。図31は、カメラボディ2の正面図である。図32は、カメラボディ2の左側面図である。図33は、カメラボディ2の平面図である。図34は、カメラボディ2の下面図である。図35は、カメラボディ2の右側面図である。図36は、カメラボディ2の背面図である。
[Example 1]
Hereinafter, Example 1 according to the first embodiment will be described with a specific appearance.
FIGS. 31 to 36 are six views illustrating the shape of the camera body 2 according to the first embodiment. FIG. 31 is a front view of the camera body 2. FIG. 32 is a left side view of the camera body 2. FIG. 33 is a plan view of the camera body 2. FIG. 34 is a bottom view of the camera body 2. FIG. 35 is a right side view of the camera body 2. FIG. 36 is a rear view of the camera body 2.

図37は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2には、グリップG1が設けられている。グリップG1は、カメラボディ2の正面のボディ側マウント201の左側において、カメラボディ2の本体部の上部と下部とにそれぞれつながっている。グリップG1とカメラボディ2の本体部との間には、左右方向に貫通された空間を有している。   FIG. 37 is a perspective view including the front, top, and right side of the camera body 2. The camera body 2 is provided with a grip G1. The grip G1 is connected to the upper part and the lower part of the main body of the camera body 2 on the left side of the body-side mount 201 in front of the camera body 2. Between the grip G1 and the main body of the camera body 2, there is a space penetrating in the left-right direction.

グリップG1を備えることにより、本体部の正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2のグリップG1をつかみ、右手の指でカメラボディ2の操作部材26を操作する。   By providing the grip G1, the user can stably hold the camera body 2 in which the space between the front surface and the back surface of the main body is thin. For example, when the interchangeable lens 3 having a long focal length is used in combination with the camera body 2, the lens barrel of the interchangeable lens 3 (not shown) is supported with the left hand, the grip G1 of the camera body 2 is grasped with the right hand, and the camera with the finger of the right hand The operation member 26 of the body 2 is operated.

グリップG1とカメラボディ2の本体部との間に空間を設けたことにより、ユーザーがカメラボディ2を持つ場合に空間に指をかけたり、空間に指を通したりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。   By providing a space between the grip G1 and the main body of the camera body 2, when the user holds the camera body 2, the user can place a finger on the space or pass a finger through the space. On the other hand, the variation of the support method of the camera body 2 becomes abundant.

また、グリップG1とカメラボディ2の本体部との間に空間を設けたことにより、この空間を塞ぐ場合に比べて、カメラボディ2の軽量化を図ることができる。   Further, by providing a space between the grip G1 and the main body of the camera body 2, the camera body 2 can be reduced in weight as compared with the case where this space is closed.

グリップG1とカメラボディ2の本体部との間の空間に放熱フィンを形成し、本体部からの放熱の効率を高めてもよい。放熱フィンは、グリップG1の内面にカメラ左右方向に延在し、表面積を増大する形状を有する。たとえば、断面が矩形、半円形状などの凹凸繰り返し形状、溝形状などである。   A heat radiating fin may be formed in a space between the grip G1 and the main body of the camera body 2 to increase the efficiency of heat dissipation from the main body. The radiating fin extends in the left-right direction of the camera on the inner surface of the grip G1, and has a shape that increases the surface area. For example, the cross section is a concave / convex repeating shape such as a rectangular shape or a semicircular shape, or a groove shape.

グリップG1とカメラボディ2の本体部との間の空間に、予備電池等のアクセサリを装着するように構成してもよい。また、リセットスイッチ等の操作部材を上記空間に設けてもよい。
グリップG1をカメラボディ2の本体部と別部品として構成し、着脱式グリップとしてもよい。着脱グリップと本体部とを着脱機構で結合する。着脱グリップの形状、色彩を複数用意し、ユーザーの好みで交換することができる。
カメラボディ2の本体部である筐体ケースに配設される発熱部品は、グリップG1が配設されるカメラ側方端部に設けると放熱効果が向上する。
発熱部品とグリップG1とを伝熱性の良い伝熱部材で熱結合するのが好ましい。
また、発熱部品がグリップG1とは逆方向、たとえば、カメラ右端部側に配置されたときは、発熱部品にヒートシンクを結合させ、このヒートシンクとグリップG1とを伝熱部材で結合すると放熱効果が向上する。
You may comprise so that accessories, such as a reserve battery, may be mounted | worn in the space between the grip G1 and the main-body part of the camera body 2. FIG. An operation member such as a reset switch may be provided in the space.
The grip G1 may be configured as a separate part from the main body of the camera body 2, and may be a detachable grip. The attachment / detachment grip and the main body are coupled by an attachment / detachment mechanism. Multiple detachable grip shapes and colors are available and can be exchanged according to user preference.
When the heat generating component provided in the housing case which is the main body of the camera body 2 is provided at the side end portion of the camera where the grip G1 is provided, the heat dissipation effect is improved.
It is preferable to thermally couple the heat generating component and the grip G1 with a heat transfer member having good heat transfer properties.
Further, when the heat generating component is disposed in the opposite direction to the grip G1, for example, on the right end side of the camera, a heat sink is connected to the heat generating component, and the heat sink is improved by connecting the heat sink and the grip G1 with a heat transfer member. To do.

[実施例2]
以下に、具体的な外観を示して第1の実施形態に係る実施例2を説明する。
図38〜図43は、実施例2に係るカメラボディ2の形状を示す6面図である。図38は、カメラボディ2の正面図である。図39は、カメラボディ2の左側面図である。図40は、カメラボディ2の平面図である。図41は、カメラボディ2の下面図である。図42は、カメラボディ2の右側面図である。図43は、カメラボディ2の背面図である。
[Example 2]
Hereinafter, Example 2 according to the first embodiment will be described with a specific appearance.
38 to 43 are six views illustrating the shape of the camera body 2 according to the second embodiment. FIG. 38 is a front view of the camera body 2. FIG. 39 is a left side view of the camera body 2. FIG. 40 is a plan view of the camera body 2. FIG. 41 is a bottom view of the camera body 2. FIG. 42 is a right side view of the camera body 2. FIG. 43 is a rear view of the camera body 2.

図44は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2には、グリップG2が設けられている。グリップG2は、カメラボディ2の正面のボディ側マウント201の左側において、カメラボディ2の本体部の上部につながっている。グリップG2は、カメラボディ2の本体部の下部とはつながっていない。グリップG2とカメラボディ2の本体部との間には、空間を有している。   FIG. 44 is a perspective view including the front, top, and right side of the camera body 2. The camera body 2 is provided with a grip G2. The grip G <b> 2 is connected to the upper part of the main body of the camera body 2 on the left side of the body-side mount 201 in front of the camera body 2. The grip G2 is not connected to the lower part of the main body of the camera body 2. There is a space between the grip G2 and the main body of the camera body 2.

グリップG2を備えることにより、正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2のグリップG2をつかみ、右手の指でカメラボディ2の操作部材26を操作する。   By providing the grip G <b> 2, the user can stably hold the camera body 2 configured to be thin between the front surface and the back surface during imaging. For example, when the interchangeable lens 3 having a long focal length is used in combination with the camera body 2, the lens barrel of the interchangeable lens 3 (not shown) is supported with the left hand, the grip G2 of the camera body 2 is grasped with the right hand, and the camera with the finger of the right hand The operation member 26 of the body 2 is operated.

グリップG2とカメラボディ2の本体部との間に空間を設けたことにより、ユーザーがカメラボディ2を持つ場合に空間に指をかけたり、空間に指を通したりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。   By providing a space between the grip G2 and the main body of the camera body 2, when the user has the camera body 2, the user can hold the camera body 2 by placing a finger on the space or passing a finger through the space. On the other hand, the variation of the support method of the camera body 2 becomes abundant.

また、グリップG2とカメラボディ2の本体部との間に空間を設けたことにより、この空間を塞ぐ場合に比べて、カメラボディ2の軽量化を図ることができる。   Further, by providing a space between the grip G2 and the main body of the camera body 2, the camera body 2 can be reduced in weight compared to the case where this space is closed.

[実施例3]
以下に、具体的な外観を示して第1の実施形態に係る実施例3を説明する。
図45〜図50は、実施例3に係るカメラボディ2の形状を示す6面図である。図45は、カメラボディ2の正面図である。図46は、カメラボディ2の左側面図である。図47は、カメラボディ2の平面図である。図48は、カメラボディ2の下面図である。図49は、カメラボディ2の右側面図である。図50は、カメラボディ2の背面図である。
[Example 3]
Example 3 according to the first embodiment will be described below with a specific appearance.
45 to 50 are six views showing the shape of the camera body 2 according to the third embodiment. FIG. 45 is a front view of the camera body 2. FIG. 46 is a left side view of the camera body 2. FIG. 47 is a plan view of the camera body 2. FIG. 48 is a bottom view of the camera body 2. FIG. 49 is a right side view of the camera body 2. FIG. 50 is a rear view of the camera body 2.

図51は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2には、グリップG3が設けられている。グリップG3は、カメラボディ2の正面のボディ側マウント201の左側において、カメラボディ2の本体部の下部につながっている。グリップG3は、カメラボディ2の本体部の上部とはつながっていない。グリップG3とカメラボディ2の本体部との間には、空間を有している。   FIG. 51 is a perspective view including the front, top, and right side of the camera body 2. The camera body 2 is provided with a grip G3. The grip G <b> 3 is connected to the lower part of the main body of the camera body 2 on the left side of the body-side mount 201 in front of the camera body 2. The grip G3 is not connected to the upper part of the main body of the camera body 2. There is a space between the grip G3 and the main body of the camera body 2.

グリップG3を備えることにより、正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2のグリップG3をつかみ、右手の指でカメラボディ2の操作部材26を操作する。   By providing the grip G <b> 3, the user can stably hold the camera body 2 that is thin between the front surface and the back surface during imaging. For example, when the interchangeable lens 3 having a long focal length is used in combination with the camera body 2, the lens barrel of the interchangeable lens 3 (not shown) is supported with the left hand, the grip G3 of the camera body 2 is grasped with the right hand, and the camera with the finger of the right hand The operation member 26 of the body 2 is operated.

グリップG3とカメラボディ2の本体部との間に空間を設けたことにより、ユーザーがカメラボディ2を持つ場合に空間に指をかけたり、空間に指を通したりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。   By providing a space between the grip G3 and the main body of the camera body 2, when the user holds the camera body 2, the user can place a finger on the space or pass a finger through the space. On the other hand, the variation of the support method of the camera body 2 becomes abundant.

また、グリップG3とカメラボディ2の本体部との間に空間を設けたことにより、この空間を塞ぐ場合に比べて、カメラボディ2の軽量化を図ることができる。   Further, by providing a space between the grip G3 and the main body of the camera body 2, the camera body 2 can be reduced in weight compared to the case of closing this space.

上述した第1の実施形態によれば、次の作用効果が得られる。
(1)カメラ1は、カメラボディ2の本体部の第1の面に設けられた表示部25の肩部分25Bと、本体部の第2の面に設けられた表示部25の背面25Aと、第1の面でユーザーが指示する位置を検出するとともに、第2の面でユーザーが指示した位置を検出するタッチ操作部材25Sと、タッチ操作部材25Sで検出された指示の位置に基づき、所定の処理を行うボディ制御部21とを備える。これにより、複数の面に跨る操作、単独の面における操作、複数の面の境界に相当する湾曲部25Cにおける操作等、従来にない操作を識別でき、操作しやすいカメラ1が得られる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The camera 1 includes a shoulder portion 25B of the display unit 25 provided on the first surface of the main body of the camera body 2, a back surface 25A of the display unit 25 provided on the second surface of the main body, A position designated by the user on the first surface is detected, a touch operation member 25S for detecting a position designated by the user on the second surface, and a position of the instruction detected on the touch operation member 25S A body control unit 21 that performs processing. Thereby, an unprecedented operation such as an operation over a plurality of surfaces, an operation on a single surface, and an operation on the bending portion 25C corresponding to the boundary between the plurality of surfaces can be identified, and the camera 1 that is easy to operate can be obtained.

(2)処理部として機能するボディ制御部21は、第1の面と第2の面との間を跨ぐ指示操作がタッチ操作部材25Sで検出された場合に第1の処理を行い、第1の面と第2の面との間を跨がない指示操作がタッチ操作部材25Sで検出された場合に第2の処理を行うので、従来にない操作によって異なる処理を行わせることができる。 (2) The body control unit 21 functioning as a processing unit performs a first process when an instruction operation straddling between the first surface and the second surface is detected by the touch operation member 25S. Since the second processing is performed when the touch operation member 25S detects an instruction operation that does not straddle between the second surface and the second surface, it is possible to perform different processing depending on operations that have not been conventionally performed.

(3)ボディ制御部21は、所定処理としてカメラ1が備える露出モード設定を行い、第1の処理は、タッチ操作部材25Sにより上記跨ぐ指示操作が検出されると露出モードの設定値の一覧を表示部25の肩部分25Bまたは背面25Aに表示するとともに、表示された一覧から上記跨がない指示操作によって指示された設定値に設定し、第2の処理は、表示部25の肩部分25Bまたは背面25Aに設定値が表示されているとき、上記跨がない指示操作によって設定値を変更する。従来にない操作によって、操作しやすいカメラ1が得られる。 (3) The body control unit 21 performs exposure mode setting included in the camera 1 as a predetermined process, and the first process displays a list of exposure mode setting values when the instruction operation straddling the touch operation member 25S is detected. While displaying on the shoulder portion 25B or the back surface 25A of the display unit 25 and setting the set value instructed by the instruction operation without straddling from the displayed list, the second process is the shoulder portion 25B of the display unit 25 or When the set value is displayed on the back surface 25A, the set value is changed by an instruction operation without the straddle. An easy-to-operate camera 1 can be obtained by an unprecedented operation.

(4)ボディ制御部21は、所定処理としてカメラ1が備える露出補正設定を行い、第1の処理は、設定する値を示す粗い目盛り72を表示部25の肩部分25Bから背面25Aに跨いで表示するとともに、上記跨ぐ指示操作に基づき設定する値を1段ステップで変更し、第2の処理は、設定する値を示す細かい目盛り72Bを表示部25の肩部分25Bから背面25Aに跨いで表示するとともに、上記跨がない指示操作に基づき設定する値を0.1段ステップで変更する。従来にない操作によって、操作しやすいカメラ1が得られる。 (4) The body control unit 21 performs exposure correction setting included in the camera 1 as a predetermined process. In the first process, the rough scale 72 indicating the set value is straddled from the shoulder portion 25B of the display unit 25 to the back surface 25A. In addition to displaying, the value to be set based on the stride instruction operation is changed in one step, and the second process displays the fine scale 72B indicating the value to be set across the shoulder portion 25B of the display unit 25 from the back surface 25A. At the same time, the value set based on the instruction operation without straddling is changed in 0.1 step. An easy-to-operate camera 1 can be obtained by an unprecedented operation.

(5)ボディ制御部21は、所定処理としてカメラ1が備えるいずれかの機能の設定を行い、第1の処理は、表示部25の肩部分25Bまたは背面25Aに表示されている設定値を用いた所定処理を実行し、第2の処理は、表示部25の肩部分25Bまたは背面25Aに表示されている設定値の表示を上記跨がない指示操作に基づき変更する。従来にない操作によって、操作しやすいカメラ1が得られる。 (5) The body control unit 21 sets one of the functions of the camera 1 as a predetermined process, and the first process uses the set value displayed on the shoulder portion 25B or the back surface 25A of the display unit 25. The second process changes the display of the set value displayed on the shoulder portion 25B or the back surface 25A of the display unit 25 based on the instruction operation that does not straddle. An easy-to-operate camera 1 can be obtained by an unprecedented operation.

(6)ボディ制御部21は、表示部25の肩部分25Bから背面25A、または背面25Aから肩部分25Bへ向かう上下方向へ上記跨がない指示操作がタッチ操作部材25Sで検出された場合に第2の処理を行うとともに、上下方向と交差する水平方向へ上記跨がない指示操作がタッチ操作部材25Sで検出された場合に第3の処理を行う。従来にない操作によって、操作しやすいカメラ1が得られる。 (6) When the touch operation member 25S detects an instruction operation that does not straddle in the vertical direction from the shoulder portion 25B of the display unit 25B to the back surface 25A, or from the back surface 25A to the shoulder portion 25B, The third process is performed when the touch operation member 25S detects an instruction operation that does not straddle the horizontal direction intersecting the vertical direction. An easy-to-operate camera 1 can be obtained by an unprecedented operation.

(7)上記(5)、(6)の機能の設定は画像に対するエフェクト処理の設定であり、第1の処理は、表示部25の肩部分25Bに表示されているエフェクト処理を画像に対して実行し、第2の処理は、表示部25の肩部分25Bに表示されるエフェクト処理を上記跨がない指示操作に基づき選択し、第3の処理は、エフェクト機能の強さを上記跨がない指示操作に基づき変更する。従来にない操作によって、操作しやすいカメラ1が得られる。 (7) The function settings of the above (5) and (6) are effect process settings for the image, and the first process is to apply the effect process displayed on the shoulder portion 25B of the display unit 25 to the image. Executed, the second process selects the effect process displayed on the shoulder portion 25B of the display unit 25 based on the instruction operation that does not straddle, and the third process does not straddle the strength of the effect function. Change based on instruction operation. An easy-to-operate camera 1 can be obtained by an unprecedented operation.

(8)カメラボディ2の本体部の一端に配置した空洞グリップG1(G2、G3)を備えたので、本体部の正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。 (8) Since the cavity grip G1 (G2, G3) disposed at one end of the main body of the camera body 2 is provided, the camera body 2 having a thin gap between the front and back of the main body is captured by the user Can be held stably.

(9)空洞グリップG1の側方は開放されているので、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。 (9) Since the side of the cavity grip G1 is open, there are many variations of how to hold the camera body 2 and how to support the camera body 2.

(10)空洞グリップG1内に放熱部を形成したので、放熱効果を高めることができる。 (10) Since the heat radiation portion is formed in the cavity grip G1, the heat radiation effect can be enhanced.

(11)空洞グリップG1内にアクセサリ増設部、あるいは操作部材を設けたので、開放された空間を有効に使用できる。 (11) Since the accessory extension portion or the operation member is provided in the cavity grip G1, the open space can be used effectively.

(第2の実施形態)
図52は、第2の実施形態によるカメラ1の要部構成を説明する図である。また、図60は、カメラ1を構成するカメラボディ2の外観を示す斜視図である。第1の実施形態によるカメラボディ2に比べて、着脱自在の外付けファインダー8が装着されている点と、操作部材26としてレリーズボタンの他に2つのダイヤルが追加されている点において相違する。なお、ダイヤルについても着脱可能な構成としてもよい。ダイヤル(操作部材26)は、回転操作に応じて、回転方向および操作量を示す操作信号をボディ制御部21へ送出する。
(Second Embodiment)
FIG. 52 is a diagram for explaining a main configuration of the camera 1 according to the second embodiment. FIG. 60 is a perspective view showing the appearance of the camera body 2 constituting the camera 1. Compared to the camera body 2 according to the first embodiment, the camera body 2 is different from the camera body 2 in that a detachable external finder 8 is mounted and two dials are added as an operation member 26 in addition to a release button. Note that the dial may be detachable. The dial (operation member 26) sends an operation signal indicating the rotation direction and the operation amount to the body control unit 21 in accordance with the rotation operation.

ファインダー8は、反射ミラー81と接眼レンズ82とを含む。ファインダー8は、表示部25の肩部分25Bの一部を跨ぐように装着される。ファインダー8は、例えば、不図示の爪がカメラボディ2に設けられている不図示の溝部に係合することによって固定される。また、ファインダー8の装着位置は、カメラボディ2の本体部の正面側から見てボディ側マウント201に対して左寄りであっても、ボディ側マウント201に対して右寄りであってもよく、カメラボディ2に対するファインダー8の装着位置を自由に変えることが可能に構成される。
なお、カメラボディ2に対するファインダー8の固定は、マグネットの磁力を用いて行ってもよいし、バネ力によってカメラボディ2を前後から挟む構成にしてもよい。
The viewfinder 8 includes a reflection mirror 81 and an eyepiece 82. The finder 8 is mounted so as to straddle part of the shoulder portion 25B of the display unit 25. The finder 8 is fixed by, for example, engaging a claw (not shown) with a groove (not shown) provided in the camera body 2. The finder 8 may be mounted on the left side of the body-side mount 201 or the right side of the body-side mount 201 when viewed from the front side of the main body of the camera body 2. 2 is configured so that the mounting position of the finder 8 with respect to 2 can be freely changed.
Note that the finder 8 may be fixed to the camera body 2 using the magnetic force of a magnet, or the camera body 2 may be sandwiched from the front and rear by a spring force.

ファインダー8がカメラボディ2に装着されたこと、およびその装着位置は、タッチ操作部材25Sによって検出され、ボディ制御部21へ伝えられる。ボディ制御部21は、例えば、ライブビューモードにおいて、図3に例示した画面が表示部25の肩部分25Bおよび背面25Aに表示させていた状態でファインダー8の装着が検出されると、表示部25の肩部分25Bのうちファインダー8が装着された位置(すなわち、接眼レンズ82を介して観察可能な表示の範囲)にライブビュー画像の表示を開始させるとともに、表示部25の背面25Aに表示していたライブビュー画像の表示を終了させる。   The attachment of the viewfinder 8 to the camera body 2 and the attachment position thereof are detected by the touch operation member 25S and transmitted to the body control unit 21. For example, in the live view mode, the body control unit 21 detects the wearing of the finder 8 in a state where the screen illustrated in FIG. 3 is displayed on the shoulder portion 25B and the back surface 25A of the display unit 25. The display of the live view image is started at the position where the finder 8 is mounted (that is, the display range that can be observed through the eyepiece 82) in the shoulder portion 25B of the display unit 25, and is displayed on the back surface 25A of the display unit 25. End the live view image display.

表示部25の肩部分25Bに表示されたライブビュー画像は、ファインダー8の反射ミラー81で反射される。ユーザーは、反射されたライブビュー画像を接眼レンズ82を介して観察する。つまり、ファインダー8はEVF(Electronic View Finder)として使用される。表示部25の肩部分25Bに表示するライブビュー画像の大きさ等は、ファインダー8の光学系の倍率等の特性に合わせられている。   The live view image displayed on the shoulder portion 25 </ b> B of the display unit 25 is reflected by the reflection mirror 81 of the finder 8. The user observes the reflected live view image through the eyepiece 82. That is, the finder 8 is used as an EVF (Electronic View Finder). The size of the live view image displayed on the shoulder portion 25 </ b> B of the display unit 25 is matched to the characteristics such as the magnification of the optical system of the finder 8.

ファインダー8を装着することにより、ファインダー8の装着前に表示部25の肩部分25Bに表示していたアイコン等の表示スペースが狭くなる。ボディ制御部21は、例えば、アイコン等を縮小表示することによって、表示できないアイコン等の発生を防止したり、ファインダー8の装着時用にあらかじめ定められたアイコン等のみを表示したりする。また、ファインダー8が装着される前と装着された後とで、表示部25の肩部分25Bに表示するアイコン等の並び順を異ならせてもよい。
なお、表示部25の肩部分25Bに表示するアイコン等の並び順を、ユーザーがメニュー操作によって指定できるようにしてもよい。
By attaching the finder 8, the display space for icons and the like displayed on the shoulder portion 25B of the display unit 25 before the finder 8 is attached is reduced. For example, the body control unit 21 displays icons or the like in a reduced size to prevent generation of icons that cannot be displayed, or to display only icons or the like that are predetermined for when the finder 8 is mounted. Further, the arrangement order of icons and the like displayed on the shoulder portion 25B of the display unit 25 may be different before and after the finder 8 is attached.
It should be noted that the user may be able to specify the arrangement order of icons and the like displayed on the shoulder portion 25B of the display unit 25 by menu operation.

また、ボディ制御部21は、ファインダー8の装着前に表示部25の肩部分25Bに表示していたアイコン等を、表示部25の肩部分25Bに表示するライブビュー画像に重ねて重畳表示させるようにしてもよい。ライブビュー画像に重ねて表示したアイコン等は、ユーザーが接眼レンズ82を介してライブビュー画像とともに視認することができる。   Further, the body control unit 21 superimposes and displays the icon or the like displayed on the shoulder portion 25B of the display unit 25 before the finder 8 is mounted on the live view image displayed on the shoulder portion 25B of the display unit 25. It may be. An icon or the like displayed superimposed on the live view image can be visually recognized by the user through the eyepiece 82 together with the live view image.

さらに、ボディ制御部21は、接眼レンズ82を介して観察可能なアイコン等が第1の実施形態において説明した設定変更の対象になっている場合は、設定変更対象となっていない他のアイコン等との間で表示態様を異ならせることによって、設定変更の対象になってアイコン等をユーザーに対して分かりやすく表示する。   Further, when an icon or the like that can be observed through the eyepiece 82 is a target of the setting change described in the first embodiment, the body control unit 21 is not subject to the setting change. By changing the display mode between the icons and the like, the icons and the like that are the target of setting change are displayed in an easy-to-understand manner for the user.

ユーザーがファインダー8を介してライブビュー画像を確認しているため、各種撮像条件の設定や変更が困難な場合がある。しかし、第1の実施形態で説明したように、ボディ制御部21により複数の面に跨る操作、単独の面における操作、複数の面の境界に相当する湾曲部25Cにおける操作を検出できるようにすることで、ユーザーの操作性が向上する。換言すると、表示部25におけるユーザーの操作領域を、表示部25の形状が異なる領域もしくは形状が異なる領域を跨った領域に設けることで、ユーザーがファインダー8を覗きながらでもその領域の位置を容易に特定することができる。   Since the user confirms the live view image via the finder 8, it may be difficult to set or change various imaging conditions. However, as described in the first embodiment, the body control unit 21 can detect an operation over a plurality of surfaces, an operation on a single surface, and an operation on the bending portion 25C corresponding to a boundary between the plurality of surfaces. This improves user operability. In other words, by providing the user's operation area on the display unit 25 in an area where the shape of the display section 25 is different or an area where the shape is different, the user can easily locate the area while looking through the viewfinder 8. Can be identified.

またボディ制御部21は、ユーザーがファインダー8を介してライブビュー画像を確認していることを検出した場合、ユーザーが湾曲部25Cの領域をタッチ操作した領域に、図4に示す条件i7〜i9のいずれかを1つ若しくは複数を表示するようにしてもよい。ボディ制御部21は、1つの条件のみ表示する場合は、設定されている露出モードに応じて、表示される条件を条件i7〜i9の中から表示させる条件を選択するようにしてもよい。具体的には、Aモードに設定されている場合は条件i7(絞り値)を表示させ、Sモードに設定されている場合は条件i8(シャッター速度)を表示させる。   Further, when the body control unit 21 detects that the user confirms the live view image through the finder 8, the body control unit 21 sets the conditions i7 to i9 illustrated in FIG. 4 in the region where the user touches the region of the bending unit 25C. One or a plurality of these may be displayed. When only one condition is displayed, the body control unit 21 may select a condition for displaying the displayed condition from the conditions i7 to i9 according to the set exposure mode. Specifically, the condition i7 (aperture value) is displayed when the A mode is set, and the condition i8 (shutter speed) is displayed when the S mode is set.

ダイヤルが着脱可能に構成された場合、ボディ制御部21は、ダイヤルがカメラボディ2に装着されたこと、およびその装着位置は、タッチ操作部材25Sによって検出され、ボディ制御部21へ伝えられる。ボディ制御部21は、ダイヤルの装着が検出されると、表示部25の肩部分25Bのうちダイヤルが装着された位置に図14〜図19に示したようなダイヤル操作に関する表示を表示させるようにしてもよい。カメラボディ2に対するダイヤルの固定は、マグネットの磁力を用いて行ってもよいし、バネ力によってカメラボディ2を前後から挟む構成にしてもよい。   When the dial is configured to be detachable, the body control unit 21 detects that the dial is mounted on the camera body 2 and its mounting position by the touch operation member 25 </ b> S and transmits it to the body control unit 21. When it is detected that the dial is attached, the body control unit 21 displays a display relating to the dial operation as shown in FIGS. 14 to 19 at the position where the dial is attached in the shoulder portion 25B of the display unit 25. May be. The dial may be fixed to the camera body 2 using the magnetic force of a magnet, or the camera body 2 may be sandwiched from the front and rear by a spring force.

<フローチャートの説明>
図53は、上述したファインダー8を使用する場合にボディ制御部21が実行するEVF表示変更処理の流れを説明するフローチャートである。ボディ制御部21は、カメラ1が起動されている場合に、図53に例示する処理を所定時間ごとに実行する。
<Explanation of flowchart>
FIG. 53 is a flowchart for explaining a flow of EVF display change processing executed by the body control unit 21 when the finder 8 described above is used. When the camera 1 is activated, the body control unit 21 executes the process illustrated in FIG. 53 every predetermined time.

図53のステップS510において、ボディ制御部21は、ファインダー8が装着されたか否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号がファインダー8の装着を示すと、ステップS510を肯定判定してステップS520へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号がファインダー8の装着を示さない場合には、ステップS510を否定判定して図53による処理を終了する。   In step S510 of FIG. 53, the body control unit 21 determines whether or not the finder 8 is attached. When the detection signal from the touch operation member 25S indicates that the finder 8 is mounted, the body control unit 21 makes a positive determination in step S510 and proceeds to step S520. When the detection signal from the touch operation member 25S does not indicate that the finder 8 is attached, the body control unit 21 makes a negative determination in step S510 and ends the process in FIG.

ステップS520において、ボディ制御部21は、表示部25の肩部分25Bに表示するアイコン等の並び替えを行ってステップS530へ進む。ボディ制御部21は上述したように、アイコン等を縮小表示したり、ファインダー8の装着時用にあらかじめ定められたアイコン等のみを表示したり、表示するアイコン等の並び順を異ならせたりする。   In step S520, the body control unit 21 rearranges icons and the like displayed on the shoulder portion 25B of the display unit 25, and proceeds to step S530. As described above, the body control unit 21 displays icons or the like in a reduced size, displays only icons or the like that are determined in advance when the finder 8 is mounted, or changes the arrangement order of icons to be displayed.

ステップS530において、ボディ制御部21は、表示部25の肩部分25Bに表示するEVF画像を生成してステップS540へ進む。具体的には、表示部25の背面25Aに表示するライブビュー画像に基づき、表示部25の肩部分25Bに表示し得るサイズの縮小画像を生成する。   In step S530, the body control unit 21 generates an EVF image to be displayed on the shoulder portion 25B of the display unit 25, and proceeds to step S540. Specifically, based on the live view image displayed on the back surface 25 </ b> A of the display unit 25, a reduced image having a size that can be displayed on the shoulder portion 25 </ b> B of the display unit 25 is generated.

ステップS540において、ボディ制御部21は、表示部25の肩部分25Bのうち、ファインダー8の装着が検出された位置(接眼レンズ82を介して観察可能な表示の範囲)に、上記EVF画像の表示を開始させてステップS550へ進む。
なお、ボディ制御部21は、EVF画像の表示を開始させると表示部25の背面25Aに表示していたライブビュー画像の表示を終了させる。
In step S540, the body control unit 21 displays the EVF image at a position (display range observable through the eyepiece 82) where the attachment of the finder 8 is detected in the shoulder portion 25B of the display unit 25. To proceed to step S550.
Note that when the display of the EVF image is started, the body control unit 21 ends the display of the live view image displayed on the back surface 25A of the display unit 25.

ステップS550において、ボディ制御部21は、ファインダー8の装着位置が移動されたか否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号がファインダー8の移動を示すと、ステップS550を肯定判定してステップS560へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号がファインダー8の移動を示さない場合には、ステップS550を否定判定して図53による処理を終了する。   In step S550, the body control unit 21 determines whether or not the attachment position of the finder 8 has been moved. When the detection signal from the touch operation member 25S indicates the movement of the finder 8, the body control unit 21 makes a positive determination in step S550 and proceeds to step S560. If the detection signal from the touch operation member 25S does not indicate the movement of the finder 8, the body control unit 21 makes a negative determination in step S550 and ends the process of FIG.

ステップS560において、ボディ制御部21は、表示部25の肩部分25Bに表示するアイコン等の並び替えを行ってステップS570へ進む。ファインダー8の装着位置の移動にともなって、表示するアイコン等の並び順を変更するためである。   In step S560, the body control unit 21 rearranges icons and the like displayed on the shoulder portion 25B of the display unit 25, and proceeds to step S570. This is because the arrangement order of icons to be displayed is changed with the movement of the mounting position of the finder 8.

ステップS570において、ボディ制御部21は、表示部25の肩部分25Bのうち、ファインダー8の移動先の位置(接眼レンズ82を介して観察可能な表示の範囲)へ、上記EVF画像の表示位置を移動させて図53による処理を終了する。   In step S570, the body control unit 21 moves the display position of the EVF image to the position to which the viewfinder 8 is moved (the display range that can be observed through the eyepiece 82) in the shoulder portion 25B of the display unit 25. It moves, and the process by FIG. 53 is complete | finished.

[実施例1]
以下に、具体的な外観を示して第2の実施形態に係る実施例1を説明する。
図54〜図59は、実施例1に係るカメラボディ2の形状を示す6面図である。図54は、カメラボディ2の正面図である。図55は、カメラボディ2の左側面図である。図56は、カメラボディ2の平面図である。図57は、カメラボディ2の下面図である。図58は、カメラボディ2の右側面図である。図59は、カメラボディ2の背面図である。
[Example 1]
Hereinafter, Example 1 according to the second embodiment will be described with a specific appearance.
54 to 59 are six views showing the shape of the camera body 2 according to the first embodiment. FIG. 54 is a front view of the camera body 2. FIG. 55 is a left side view of the camera body 2. FIG. 56 is a plan view of the camera body 2. FIG. 57 is a bottom view of the camera body 2. FIG. 58 is a right side view of the camera body 2. FIG. 59 is a rear view of the camera body 2.

図60は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2には、グリップG1が設けられている。グリップG1は、カメラボディ2の正面のボディ側マウント201の左側において、カメラボディ2の本体部の上部と下部とにそれぞれつながっている。グリップG1とカメラボディ2の本体部との間には、左右方向に貫通された空間を有している。   FIG. 60 is a perspective view including the front, top and right sides of the camera body 2. The camera body 2 is provided with a grip G1. The grip G1 is connected to the upper part and the lower part of the main body of the camera body 2 on the left side of the body-side mount 201 in front of the camera body 2. Between the grip G1 and the main body of the camera body 2, there is a space penetrating in the left-right direction.

グリップG1を備えることにより、本体部の正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2のグリップG1をつかみ、右手の指でカメラボディ2の操作部材26(レリーズボタン、ダイヤル)を操作する。   By providing the grip G1, the user can stably hold the camera body 2 in which the space between the front surface and the back surface of the main body is thin. For example, when the interchangeable lens 3 having a long focal length is used in combination with the camera body 2, the lens barrel of the interchangeable lens 3 (not shown) is supported with the left hand, the grip G1 of the camera body 2 is grasped with the right hand, and the camera with the finger of the right hand The operation member 26 (release button, dial) of the body 2 is operated.

グリップG1とカメラボディ2の本体部との間に空間を設けたことにより、ユーザーがカメラボディ2を持つ場合に空間に指をかけたり、空間に指を通したりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。   By providing a space between the grip G1 and the main body of the camera body 2, when the user holds the camera body 2, the user can place a finger on the space or pass a finger through the space. On the other hand, the variation of the support method of the camera body 2 becomes abundant.

また、グリップG1とカメラボディ2の本体部との間に空間を設けたことにより、この空間を塞ぐ場合に比べて、カメラボディ2の軽量化を図ることができる。   Further, by providing a space between the grip G1 and the main body of the camera body 2, the camera body 2 can be reduced in weight as compared with the case where this space is closed.

本体部の前方(正面側)に傾斜している部分には、ダイヤル(操作部材26)が設けられている。ダイヤル(操作部材26)を本体部の傾斜している部分に設けたことにより、ダイヤル(操作部材26)を本体部の背面に設ける場合に比べて、ユーザーの指が届きやすくなり、操作しやすくなる。   A dial (operation member 26) is provided at a portion inclined forward (front side) of the main body. By providing the dial (operation member 26) on the inclined portion of the main body, it is easier for the user's fingers to reach and operate than when the dial (operation member 26) is provided on the back of the main body. Become.

また、本体部の前方(正面側)に傾斜している部分には、この傾斜部分を跨ぐようにファインダー8が装着される。ファインダー8の装着位置は、カメラボディ2の本体部に設けられているボディ側マウント201に対して左寄りでも、ボディ側マウント201に対して真上でも、ボディ側マウント201に対して右寄りでも、自由に移動させることができる。   Further, a finder 8 is attached to a portion inclined forward (front side) of the main body so as to straddle the inclined portion. The position of the viewfinder 8 can be freely attached to the left side of the body side mount 201 provided in the main body of the camera body 2, right above the body side mount 201, or right side of the body side mount 201. Can be moved to.

ファインダー8の装着位置を変更可能に構成したことにより、ユーザーの効き目、ユーザーの鼻の位置を考慮して最適な位置にファインダー8を装着することができる。   By configuring so that the mounting position of the finder 8 can be changed, the finder 8 can be mounted at an optimal position in consideration of the user's effectiveness and the position of the user's nose.

上述した第2の実施形態によれば、第1の実施形態と同様の作用効果に加えて、以下の作用効果が得られる。
(1)カメラボディ2は、表示部25の肩部分25Bに対する着脱式のファインダー8の装着を検出するタッチ操作部材25Sを備え、ボディ制御部21は、タッチ操作部材25Sでファインダー8の装着が検出された場合に、ファインダー8を介して視認される画像を表示部25の肩部分25Bに表示させる。これにより、専用のEVF表示器を備えなくてもEVF画像を観察することができる。
According to 2nd Embodiment mentioned above, in addition to the effect similar to 1st Embodiment, the following effects are obtained.
(1) The camera body 2 includes a touch operation member 25S that detects the attachment of the detachable finder 8 to the shoulder portion 25B of the display unit 25, and the body control unit 21 detects the attachment of the finder 8 by the touch operation member 25S. When it is done, an image visually recognized through the finder 8 is displayed on the shoulder portion 25B of the display unit 25. Thereby, an EVF image can be observed without a dedicated EVF display.

・ タッチ操作部材25Sは、表示部25の肩部分25Bの表示面に対するファインダー8の装着位置を検出し、ボディ制御部21は、表示部25の肩部分25Bにおいて、タッチ操作部材25Sで検出されたファインダー8の装着位置にファインダー8を介して視認される画像を表示させる。これにより、表示部25の肩部分25Bに対するファインダー8の装着位置の自由度を高めることができる。 The touch operation member 25S detects the mounting position of the finder 8 on the display surface of the shoulder portion 25B of the display unit 25, and the body control unit 21 detects the touch operation member 25S in the shoulder portion 25B of the display unit 25. An image visually recognized through the finder 8 is displayed at the position where the finder 8 is mounted. Thereby, the freedom degree of the mounting position of the finder 8 with respect to the shoulder part 25B of the display part 25 can be raised.

(3)ボディ制御部21は、タッチ操作部材25Sでファインダー8の装着が検出された場合に、表示部25の肩部分25Bにおいて、ファインダー8を介して視認される画像の表示を開始させる。これにより、適切なタイミングでEVF画像の表示を始めることができる (3) When the attachment of the finder 8 is detected by the touch operation member 25S, the body control unit 21 starts displaying an image visually recognized through the finder 8 on the shoulder portion 25B of the display unit 25. Thereby, the display of the EVF image can be started at an appropriate timing.

(4)ボディ制御部21は、タッチ操作部材25Sでファインダー8の装着位置の変更が検出された場合に、表示部25の肩部分25Bにおいて、ファインダー8を介して視認される画像の表示位置を変更する。これにより、ファインダー8の装着位置を変えた場合でも、適切な位置にEVF画像を表示させることができる。 (4) The body control unit 21 determines the display position of the image that is visually recognized through the finder 8 on the shoulder portion 25B of the display unit 25 when a change in the mounting position of the finder 8 is detected by the touch operation member 25S. change. Thereby, even when the mounting position of the finder 8 is changed, the EVF image can be displayed at an appropriate position.

(第3の実施形態)
第3の実施形態に係るカメラ1と、第1の実施形態に係るカメラ1とは、カメラボディ2の外観が異なる点において相違する。
図61〜図66は、第3の実施形態に係るカメラボディ2の形状を示す6面図である。図61は、カメラボディ2の正面図である。図62は、カメラボディ2の左側面図である。図63は、カメラボディ2の平面図である。図64は、カメラボディ2の下面図である。図65は、カメラボディ2の右側面図である。図66は、カメラボディ2の背面図である。
(Third embodiment)
The camera 1 according to the third embodiment is different from the camera 1 according to the first embodiment in that the appearance of the camera body 2 is different.
61 to 66 are six views showing the shape of the camera body 2 according to the third embodiment. FIG. 61 is a front view of the camera body 2. FIG. 62 is a left side view of the camera body 2. FIG. 63 is a plan view of the camera body 2. FIG. 64 is a bottom view of the camera body 2. FIG. 65 is a right side view of the camera body 2. FIG. 66 is a rear view of the camera body 2.

図67は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2は、平板状に構成された本体部と、本体部の正面を覆うカバー状の部材とが備わり、両者が本体部の上端と下端とにおいてそれぞれつながっている。カバー状の部材には、本体部の正面のボディ側マウント201が露出するように開口A1が設けられている。カバー状の部材にはさらに、本体部の正面側から見てボディ側マウント201の左側に、ユーザーの指かけ開口A2が設けられている。   FIG. 67 is a perspective view including the front surface, top surface, and right side surface of the camera body 2. The camera body 2 includes a main body configured in a flat plate shape and a cover-like member that covers the front of the main body, and both are connected to each other at the upper end and the lower end of the main body. The cover-like member is provided with an opening A1 so that the body-side mount 201 in front of the main body is exposed. The cover-like member is further provided with a finger hooking opening A2 on the left side of the body-side mount 201 as viewed from the front side of the main body.

カメラボディ2を構成するカバー状の部材と本体部との間には、左右方向に貫通された空間を有している。この空間を囲む面には、放熱用のフィン70が多数形成されている。   A space penetrating in the left-right direction is provided between the cover-like member constituting the camera body 2 and the main body. Many heat-dissipating fins 70 are formed on the surface surrounding the space.

カメラボディ2を構成するカバー状の部材と本体部の外側面には、例えばフレキシブル液晶パネルが設けられている。フレキシブル液晶パネルは、第1の実施形態の説明において参照した図2の表示部25に相当する。第3の実施形態では、カメラボディ2の背面から上面、上面から正面、正面から下面、下面から背面にかけて、表示部25およびタッチ操作部材25Sが備わる。つまり、上面、下面、正面、背面という異なる面において、表示部25が設けられている。なお、下面については、表示部25およびタッチ操作部材25Sを備えるようにしてもよい。その場合、第3の実施形態では、背面と、肩部分の曲面と、前面とにそれぞれ表示領域が設けられている。これら各面の表示領域は、たとえば、1枚のフレキシブル液晶パネルで構成する。なお、背面用液晶パネルと、肩部分の曲面用液晶パネルと、前面用液晶パネルとの3枚で表示部25を構成してもよい。また、3枚の液晶パネルに代えて2枚の液晶パネルで3つの面の表示領域を構成してもよい。つまり背面用液晶パネルと曲面用液晶パネルとを連続した1枚の液晶パネルにより構成し、前面用液晶パネルを1枚の液晶パネルにより構成するようにしてもよい。また、背面用液晶パネルを1枚の液晶パネルにより構成し、肩部分の曲面用液晶パネルと前面用液晶パネルとを連続した1枚の液晶パネルにより構成するようにしてもよい。   A flexible liquid crystal panel, for example, is provided on the outer surface of the cover-like member and the main body that constitute the camera body 2. The flexible liquid crystal panel corresponds to the display unit 25 of FIG. 2 referred to in the description of the first embodiment. In the third embodiment, a display unit 25 and a touch operation member 25S are provided from the back to the top, the top to the front, the front to the bottom, and the bottom to the back of the camera body 2. That is, the display unit 25 is provided on different surfaces such as an upper surface, a lower surface, a front surface, and a back surface. In addition, about the lower surface, you may make it provide the display part 25 and the touch operation member 25S. In that case, in the third embodiment, display areas are provided on the back surface, the curved surface of the shoulder portion, and the front surface, respectively. The display areas on these surfaces are constituted by, for example, one flexible liquid crystal panel. The display unit 25 may be composed of three liquid crystal panels for the rear surface, the curved liquid crystal panel for the shoulder portion, and the front liquid crystal panel. Further, instead of the three liquid crystal panels, a display area of three surfaces may be constituted by two liquid crystal panels. That is, the rear liquid crystal panel and the curved liquid crystal panel may be configured by a single liquid crystal panel, and the front liquid crystal panel may be configured by a single liquid crystal panel. Alternatively, the rear liquid crystal panel may be constituted by a single liquid crystal panel, and the curved liquid crystal panel for the shoulder portion and the front liquid crystal panel may be constituted by a single continuous liquid crystal panel.

表示部25は、ボディ制御部21の指示に応じて画像を再生表示したり、シャッター速度、絞り値、撮像枚数などのカメラ情報や、カメラボディ2に各種設定操作を行うための操作部情報や、操作メニュー画面を表示したりする。   The display unit 25 reproduces and displays an image according to an instruction from the body control unit 21, camera information such as a shutter speed, an aperture value, and the number of captured images, operation unit information for performing various setting operations on the camera body 2, , Display the operation menu screen.

指かけ開口A2を備えることにより、本体部の正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2の指かけ開口A2および指かけ開口A2の周囲をつかみ、右手の指でカメラボディ2の操作部材26を操作する。   By providing the finger opening A2, the user can stably hold the camera body 2 in which the space between the front surface and the back surface of the main body is thin. For example, when the interchangeable lens 3 having a long focal length is used in combination with the camera body 2, the lens barrel of the interchangeable lens 3 (not shown) is supported by the left hand and the finger-holding opening A2 and the finger-holding opening A2 of the camera body 2 are supported by the right hand. Grasp the periphery and operate the operation member 26 of the camera body 2 with the finger of the right hand.

ユーザーは、指かけ開口A2に指をかけたり、カメラボディ2を構成するカバー状の部材と本体部との間の空間に指を入れたりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。   The user puts his / her finger on the finger-holding opening A2 or puts his / her finger into the space between the cover-like member constituting the camera body 2 and the main body, and the camera body 2 Variety of support methods will be rich.

また、カメラボディ2を構成するカバー状の部材と本体部との間の空間を囲む面に放熱用のフィン70を設けたことにより、カメラボディ2の放熱特性を高めることができる。   Further, by providing the heat dissipation fins 70 on the surface surrounding the space between the cover-like member constituting the camera body 2 and the main body, the heat dissipation characteristics of the camera body 2 can be enhanced.

上述した第3の実施形態によれば、第1の実施形態と同様の作用効果に加えて、以下の作用効果が得られる。
カメラボディ2の背面から上面、上面から正面にかけて、表示部25およびタッチ操作部材25Sを備えたので、従来にない操作を実現できる。図68は、新しい操作態様を例示する図である。ユーザーは、ライブビューモードにおいて、表示部25にふれる指を、背面から上面、上面から正面へと移動させる操作を行う。ボディ制御部21は、背面から上面、上面から正面へと移動する操作を検出すると、例えば、自分撮りモードへ切り替える。自分撮りモードでは、ライブビュー画像やアイコン等を、カメラボディ2の正面や上面(表示部25)に表示させる。なお、ユーザーが、背面を操作し、上面を操作せず、所定時間たとえば1秒以内に表面を操作する連続した操作により、自分撮りモードへ切り替えるようにしてもよい。つまり、ボディ制御部21は、異なる面において、連続した操作を検出すると、所定の処理を行うことができる。
According to the third embodiment described above, in addition to the same functions and effects as those of the first embodiment, the following functions and effects can be obtained.
Since the display unit 25 and the touch operation member 25S are provided from the back to the top and from the top to the front of the camera body 2, an unprecedented operation can be realized. FIG. 68 is a diagram illustrating a new operation mode. In the live view mode, the user performs an operation of moving the finger touching the display unit 25 from the back to the top and from the top to the front. When the body control unit 21 detects an operation of moving from the back to the top and from the top to the front, for example, the body control unit 21 switches to the selfie mode. In the self-portrait mode, a live view image, an icon, and the like are displayed on the front surface and upper surface (display unit 25) of the camera body 2. Note that the user may switch to the self-portrait mode by a continuous operation of operating the surface within a predetermined time, for example, 1 second without operating the upper surface and operating the upper surface. That is, the body control unit 21 can perform a predetermined process when it detects consecutive operations on different surfaces.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
図69は、新しい操作を説明する図である。例えば、第1の実施形態において説明した再生設定1のように、表示部25の背面25Aに再生画像を表示させている場合において、湾曲部25Cを跨ぐ操作によって、再生画像のデータを他の電子機器へ送信するように構成する。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
FIG. 69 is a diagram for explaining a new operation. For example, in the case where the playback image is displayed on the back surface 25A of the display unit 25 as in the playback setting 1 described in the first embodiment, the playback image data is transferred to another electronic device by an operation across the bending portion 25C. Configure to send to device.

図69の例では、あらかじめカメラボディ2が、人物Aが携帯する不図示の電子機器と、人物Bが携帯する不図示の電子機器との間でそれぞれ無線通信を確立させているものとする。ユーザーは、背面25Aに表示されているサムネイル画像に対応する画像を人物Aの電子機器へ無線送信させたい場合、サムネイル画像をドラッグ操作するかのように、表示部25の背面25Aから、湾曲部25Cを跨いで肩部分25Bへ大きくずらし、さらに肩部分25Bにおいて人物A方向に指をずらす操作を行う。ボディ制御部21は、上記ドラッグ操作の対象となったサムネイル画像に対応する画像のデータを人物Aの電子機器へ無線送信する。   In the example of FIG. 69, it is assumed that the camera body 2 has previously established wireless communication between an electronic device (not shown) carried by the person A and an electronic device (not shown) carried by the person B. When the user wants to wirelessly transmit an image corresponding to the thumbnail image displayed on the back surface 25 </ b> A to the electronic device of the person A, the curved portion is displayed from the back surface 25 </ b> A of the display unit 25 as if dragging the thumbnail image. An operation of shifting the finger in the direction of the person A in the shoulder portion 25B is performed by largely shifting the shoulder portion 25B across 25C. The body control unit 21 wirelessly transmits image data corresponding to the thumbnail image that is the target of the drag operation to the electronic device of the person A.

同様に、ユーザーは、背面25Aに表示されているサムネイル画像に対応する画像を人物Bの電子機器へ無線送信させたい場合、サムネイル画像をドラッグ操作するかのように、表示部25の背面25Aから、湾曲部25Cを跨いで肩部分25Bへ大きくずらし、さらに肩部分25Bにおいて人物B方向に指をずらす操作を行う。ボディ制御部21は、上記ドラッグ操作の対象となったサムネイル画像に対応する画像のデータを人物Bの電子機器へ無線送信する。   Similarly, when the user wants to wirelessly transmit an image corresponding to the thumbnail image displayed on the back surface 25A to the electronic device of the person B, the user can drag the thumbnail image from the back surface 25A of the display unit 25. Then, an operation of shifting the finger in the direction of the person B in the shoulder portion 25B is performed by largely shifting the shoulder portion 25B across the curved portion 25C. The body control unit 21 wirelessly transmits image data corresponding to the thumbnail image that is the target of the drag operation to the electronic device of the person B.

(変形例2)
上述した説明では、電子機器としてカメラ1を例に説明したが、スマートフォンのようにカメラ機能を備えた高機能携帯電話機や、タブレット端末などのモバイル機器によって構成してもよい。
(Modification 2)
In the above description, the camera 1 has been described as an example of the electronic device. However, the electronic device may be configured by a mobile device such as a smartphone or a high-function mobile phone having a camera function or a tablet terminal.

(変形例3)
また、電子機器は、カメラ機能を備えていない再生機器であってもよい。
(変形例4)
第1の実施形態と第2実施の形態では、表示部25は、1枚のフレキシブル液晶パネルによって構成されるものとして説明した。表示部25を1枚の液晶パネルで構成せず、複数枚の液晶パネルで構成しても良い。たとえば、背面25A用の背面パネルと、肩部分25B用の上面パネルとの2枚で表示部25を構成しても良い。
(Modification 3)
The electronic device may be a playback device that does not have a camera function.
(Modification 4)
In the first embodiment and the second embodiment, the display unit 25 has been described as being configured by a single flexible liquid crystal panel. The display unit 25 may be composed of a plurality of liquid crystal panels instead of a single liquid crystal panel. For example, the display unit 25 may be configured by two sheets, a back panel for the back surface 25A and an upper surface panel for the shoulder portion 25B.

(変形例5)
第1の実施形態と第2の実施形態では、背面25Aと肩部分25Bの表示領域をそれぞれ平面とし、所定の交差角度で連続するものとし、かつ、背面25Aと肩部分25Bとを所定の曲面で接続した。肩部分25Bの表示領域を、平面の代わりに曲面としても良い。
(Modification 5)
In the first embodiment and the second embodiment, the display areas of the back surface 25A and the shoulder portion 25B are respectively flat and continuous at a predetermined intersection angle, and the back surface 25A and the shoulder portion 25B are connected to a predetermined curved surface. Connected with. The display area of the shoulder portion 25B may be a curved surface instead of a flat surface.

(変形例6)
第1の実施形態と第2の実施形態では、背面25Aと肩部分25Bの表示領域を連続する1枚の液晶パネルとして説明した。背面25Aと肩部分25Bの接続領域に3つ目の表示領域を設定してもよい。つまり湾曲部25Cを第3の表示領域としてもよい。この第3の表示領域と、背面25Aと肩部分25Bとをそれぞれ別々の液晶パネルで構成してもよい。また、第3の表示領域を曲面としても良い。また、背面25Aと湾曲部25Cとを連続する1枚の液晶パネルにより構成するようにし、肩部分25Bを1枚の液晶パネルにより構成するようにしてもよい。また、背面25Aを1枚の液晶パネルで構成し、肩部分25Bと湾曲部25Cとを連続する1枚の液晶パネルにより構成するようにしてもよい。
(Modification 6)
In the first embodiment and the second embodiment, the display area of the back surface 25A and the shoulder portion 25B has been described as a single liquid crystal panel. A third display area may be set in the connection area between the back surface 25A and the shoulder portion 25B. That is, the curved portion 25C may be the third display area. The third display area, the back surface 25A, and the shoulder portion 25B may be configured by separate liquid crystal panels. The third display area may be a curved surface. Alternatively, the back surface 25A and the curved portion 25C may be configured by a single liquid crystal panel, and the shoulder portion 25B may be configured by a single liquid crystal panel. Alternatively, the back surface 25A may be configured by a single liquid crystal panel, and the shoulder portion 25B and the curved portion 25C may be configured by a single liquid crystal panel.

(変形例7)
液晶パネルに代えて、有機化合物を用いた有機エレクトロルミネッセンス(有機ディスプレイ)を表示部25として用いても良い。
(Modification 7)
Instead of the liquid crystal panel, organic electroluminescence (organic display) using an organic compound may be used as the display unit 25.

上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。すなわち、本発明は、本体部の第1の面に設けられた第1表示部と、本体部の第1の面とは異なる第2の面に設けられた第2表示部と、第1の面に対する第1操作と、第2の面に対する第2操作を検出する検出部と、検出部の検出位置に基づき、所定の処理を行う処理部とを備える種々の電子機器に適用することができる。   Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. That is, the present invention provides a first display unit provided on the first surface of the main body unit, a second display unit provided on a second surface different from the first surface of the main body unit, The present invention can be applied to various electronic devices including a first operation on the surface, a detection unit that detects the second operation on the second surface, and a processing unit that performs a predetermined process based on the detection position of the detection unit. .

したがって、各構成要素を各実施形態、実施例で説明した素子、部品以外のもので構成しても良い。処理部で実行される処理も、第1の面と第2の面に対するユーザー指示操作に基づく種々の処理を含み、上記実施形態や実施例で説明した処理に限定されない。
また、カメラボディ2が平板状であることは、必須の構成ではない。すなわち、略立方体形状の筐体ケースに背面25A、肩部分25Bを設けた形状であってもよい。
Therefore, each component may be configured by elements other than the elements and components described in the embodiments and examples. The processing executed by the processing unit also includes various processing based on user instruction operations on the first surface and the second surface, and is not limited to the processing described in the above embodiments and examples.
Moreover, it is not an essential structure that the camera body 2 is flat form. That is, the shape which provided the back surface 25A and the shoulder part 25B in the substantially cubic housing | casing case may be sufficient.

1…カメラ
2…カメラボディ
3…交換レンズ
8…ファインダー
21…ボディ制御部
25…表示部
25A…背面
25B…肩部分
25C…湾曲部
25S…タッチ操作部材
26…操作部材
35…レンズ制御部
A1…開口
A2…指かけ開口
G1、G2、G3…グリップ
DESCRIPTION OF SYMBOLS 1 ... Camera 2 ... Camera body 3 ... Interchangeable lens 8 ... Finder 21 ... Body control part 25 ... Display part 25A ... Back surface 25B ... Shoulder part 25C ... Curve part 25S ... Touch operation member 26 ... Operation member 35 ... Lens control part A1 ... Opening A2 ... Guide opening G1, G2, G3 ... Grip

Claims (19)

本体部の第1の面に設けられた第1表示部と、
前記本体部の前記第1の面とは異なる第2の面に設けられた第2表示部と、
前記第1の面に対する第1操作と、前記第2の面に対する第2操作を検出する検出部と、
前記検出部の検出位置に基づき、所定の処理を行う処理部と、を備えた電子機器。
A first display provided on the first surface of the main body,
A second display portion provided on a second surface different from the first surface of the main body portion;
A detection unit that detects a first operation on the first surface and a second operation on the second surface;
An electronic apparatus comprising: a processing unit that performs predetermined processing based on a detection position of the detection unit.
請求項1に記載の電子機器において、
前記処理部は、前記検出部が前記第1操作の後に前記第2操作を検出すると、前記所定の処理を行う電子機器。
The electronic device according to claim 1,
The processing unit is an electronic device that performs the predetermined process when the detection unit detects the second operation after the first operation.
請求項2に記載の電子機器において、
前記処理部は、前記第1の面と前記第2の面との間を跨ぐ指示操作が前記検出部で検出された場合に第1の処理を行い、前記第1の面と前記第2の面との間を跨がない指示操作が前記検出部で検出された場合に第2の処理を行う電子機器。
The electronic device according to claim 2,
The processing unit performs a first process when an instruction operation straddling between the first surface and the second surface is detected by the detection unit, and performs the first processing and the second surface. An electronic device that performs a second process when an instruction operation that does not straddle a surface is detected by the detection unit.
請求項3に記載の電子機器において、
前記処理部は、前記所定処理として電子機器が備えるいずれかの機能の設定を行い、
前記第1の処理は、前記検出部により前記跨ぐ指示操作が検出されると前記機能の一覧を前記第1表示部または前記第2表示部に表示するとともに、前記表示された前記機能の一覧から前記跨がない指示操作によって前記機能を設定し、
前記第2の処理は、前記第1表示部または前記第2表示部に前記機能が表示されているとき、前記跨がない指示操作によって前記機能を変更する電子機器。
The electronic device according to claim 3,
The processing unit performs setting of any function included in the electronic device as the predetermined processing,
The first process displays the function list on the first display unit or the second display unit when the detection operation is detected by the detection unit, and from the displayed function list. Set the function by the instruction operation that does not straddle,
The second process is an electronic device that changes the function by an instruction operation that does not straddle when the function is displayed on the first display unit or the second display unit.
請求項3に記載の電子機器において、
前記処理部は、前記所定処理として電子機器が備えるいずれかの機能の設定を行い、
前記第1の処理は、前記跨ぐ指示操作に基づき前記設定する値を第1分解能で変更し、
前記第2の処理は、前記跨がない指示操作に基づき前記設定する値を前記第1分解能より小さい第2分解能で変更する電子機器。
The electronic device according to claim 3,
The processing unit performs setting of any function included in the electronic device as the predetermined processing,
The first process changes the set value based on the stride instruction operation with a first resolution,
The second process is an electronic apparatus in which the set value is changed with a second resolution smaller than the first resolution based on the instruction operation without straddling.
請求項5に記載の電子機器において、
前記処理部は、
前記第1の処理の際に、前記設定する値を示す第1スケールを前記第1表示部から前記第2表示部に跨いで表示し、
前記第2の処理の際に、前記設定する値を示す前記第1スケールより細かい第2スケールを前記第1表示部から前記第2表示部に跨いで表示する電子機器。
The electronic device according to claim 5,
The processor is
In the first process, a first scale indicating the set value is displayed across the second display unit from the first display unit,
An electronic apparatus that displays a second scale smaller than the first scale indicating the value to be set across the second display unit from the first display unit during the second process.
請求項3に記載の電子機器において、
前記処理部は、前記所定処理として電子機器が備えるいずれかの機能の設定を行い、
前記第1の処理は、前記第1表示部または前記第2表示部に表示されている前記設定する値を用いた所定処理を実行し、
前記第2の処理は、前記第1表示部または前記第2表示部に表示されている前記設定する値の表示を前記跨がない指示操作に基づき変更する電子機器。
The electronic device according to claim 3,
The processing unit performs setting of any function included in the electronic device as the predetermined processing,
The first process executes a predetermined process using the set value displayed on the first display unit or the second display unit,
The second process is an electronic device that changes the display of the set value displayed on the first display unit or the second display unit based on the instruction operation without straddling.
請求項7に記載の電子機器において、
前記処理部は、前記第1の面から前記第2の面、または前記第2の面から前記第1の面へ向かう第1方向へ前記跨がない指示操作が前記検出部で検出された場合に前記第2の処理を行うとともに、前記第1方向と交差する第2方向へ前記跨がない指示操作が前記検出部で検出された場合に第3の処理を行う電子機器。
The electronic device according to claim 7,
In the case where the detection unit detects an instruction operation that does not straddle in the first direction from the first surface to the second surface or from the second surface to the first surface. An electronic device that performs the second process and performs the third process when an instruction operation that does not cross the second direction intersecting the first direction is detected by the detection unit.
請求項8に記載の電子機器において、
前記機能の設定は、画像に対するエフェクト処理の設定であり、
前記第1の処理は、前記第1表示部または前記第2表示部に表示されているエフェクト処理を画像に対して実行し、
前記第2の処理は、前記第1表示部または前記第2表示部に表示される前記エフェクト処理を前記跨がない指示操作に基づき選択し、
前記第3の処理は、前記エフェクト機能の強さを前記跨がない指示操作に基づき変更する電子機器。
The electronic device according to claim 8,
The setting of the function is a setting of effect processing for an image,
The first process performs an effect process displayed on the first display unit or the second display unit on an image,
The second process selects the effect process displayed on the first display unit or the second display unit based on the instruction operation without straddling,
The third process is an electronic device that changes the strength of the effect function based on the instruction operation without straddling.
請求項1に記載の電子機器において、
前記処理部は、前記検出部が前記第1操作とともに前記第2操作を検出すると、前記所定の処理を行う電子機器。
The electronic device according to claim 1,
The processing unit is an electronic device that performs the predetermined process when the detection unit detects the second operation together with the first operation.
請求項10に記載の電子機器において、
前記検出部は、前記第1の面に対する操作の指と前記第2の面に対する操作の指とが互いに接近する操作を検出すると、前記所定の処理として、それ以前に設定した内容をキャンセルするリセット処理またはアンドゥー処理を行う電子機器。
The electronic device according to claim 10,
When the detection unit detects an operation in which an operation finger on the first surface and an operation finger on the second surface approach each other, the predetermined processing cancels the previously set content as the predetermined process Electronic equipment that performs processing or undo processing.
請求項1に記載の電子機器において、
前記第1表示部の表示面に対する着脱式のファインダーの装着を検出する検出部を備え、
前記処理部は、前記検出部で前記ファインダーの装着が検出された場合に、前記ファインダーを介して視認される画像を前記第1表示部に表示させる電子機器。
The electronic device according to claim 1,
A detection unit for detecting attachment of a detachable finder to the display surface of the first display unit;
The processing unit is an electronic device that causes the first display unit to display an image that is visually recognized through the viewfinder when the detection unit detects attachment of the viewfinder.
請求項12に記載の電子機器において、
前記検出部は、前記第1表示部の表示面に対する前記ファインダーの装着位置を検出し、
前記処理部は、前記第1表示部において、前記検出部で検出された前記ファインダーの装着位置に前記ファインダーを介して視認される画像を表示させる電子機器。
The electronic device according to claim 12,
The detection unit detects a mounting position of the finder with respect to a display surface of the first display unit,
The processing unit is an electronic device that causes the first display unit to display an image visually recognized through the finder at a position where the finder is detected detected by the detection unit.
請求項13に記載の電子機器において、
前記処理部は、前記検出部で前記ファインダーの装着が検出された場合に、前記第1表示部において、前記ファインダーを介して視認される画像の表示を開始させる電子機器。
The electronic device according to claim 13,
The processing unit is an electronic device that causes the first display unit to start displaying an image that is visually recognized through the finder when the detection unit detects attachment of the finder.
請求項14に記載の電子機器において、
前記処理部は、前記検出部で前記ファインダーの装着位置の変更が検出された場合に、前記第1表示部において、前記ファインダーを介して視認される画像の表示位置を変更する電子機器。
The electronic device according to claim 14,
The processing unit is an electronic device that changes a display position of an image visually recognized through the finder in the first display unit when the detection unit detects a change in the finder mounting position.
請求項1に記載の電子機器において、
前記本体部の一端に配置した空洞グリップを備えた電子機器。
The electronic device according to claim 1,
An electronic device including a hollow grip disposed at one end of the main body.
請求項16に記載の電子機器において、
前記空洞グリップの側方は開放されている電子機器。
The electronic device according to claim 16, wherein
An electronic device in which a side of the hollow grip is open.
請求項16に記載の電子機器において、
前記空洞グリップ内に放熱部を形成した電子機器。
The electronic device according to claim 16, wherein
An electronic device in which a heat dissipation portion is formed in the hollow grip.
請求項16〜18のいずれか一項に記載の電子機器において、
前記空洞グリップ内にアクセサリ増設部、あるいは操作部を設けた電子機器。
The electronic device according to any one of claims 16 to 18,
An electronic device in which an accessory expansion part or an operation part is provided in the hollow grip.
JP2015086322A 2015-04-20 2015-04-20 Electronic apparatus Pending JP2016208196A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015086322A JP2016208196A (en) 2015-04-20 2015-04-20 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015086322A JP2016208196A (en) 2015-04-20 2015-04-20 Electronic apparatus

Publications (2)

Publication Number Publication Date
JP2016208196A true JP2016208196A (en) 2016-12-08
JP2016208196A5 JP2016208196A5 (en) 2018-12-27

Family

ID=57487894

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015086322A Pending JP2016208196A (en) 2015-04-20 2015-04-20 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2016208196A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110537363A (en) * 2017-04-28 2019-12-03 卡尔蔡司股份公司 Digital camera

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064205A (en) * 2002-07-25 2004-02-26 Fuji Photo Film Co Ltd Photographing apparatus and operation panel composed of touch panel
JP2008011232A (en) * 2006-06-29 2008-01-17 Fujifilm Corp Digital camera
JP2010035107A (en) * 2008-07-31 2010-02-12 Fujifilm Corp Imaging apparatus
JP2011154507A (en) * 2010-01-27 2011-08-11 Olympus Imaging Corp Input device and input method
JP2014056470A (en) * 2012-09-13 2014-03-27 Canon Inc Imaging device, control method therefor, program, and recording medium
WO2014192344A1 (en) * 2013-05-28 2014-12-04 シャープ株式会社 Touch panel device and touch-panel-equipped display device
US20160062506A1 (en) * 2014-09-03 2016-03-03 Samsung Display Co., Ltd. Display apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004064205A (en) * 2002-07-25 2004-02-26 Fuji Photo Film Co Ltd Photographing apparatus and operation panel composed of touch panel
JP2008011232A (en) * 2006-06-29 2008-01-17 Fujifilm Corp Digital camera
JP2010035107A (en) * 2008-07-31 2010-02-12 Fujifilm Corp Imaging apparatus
JP2011154507A (en) * 2010-01-27 2011-08-11 Olympus Imaging Corp Input device and input method
JP2014056470A (en) * 2012-09-13 2014-03-27 Canon Inc Imaging device, control method therefor, program, and recording medium
WO2014192344A1 (en) * 2013-05-28 2014-12-04 シャープ株式会社 Touch panel device and touch-panel-equipped display device
US20160062506A1 (en) * 2014-09-03 2016-03-03 Samsung Display Co., Ltd. Display apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110537363A (en) * 2017-04-28 2019-12-03 卡尔蔡司股份公司 Digital camera
JP2020519921A (en) * 2017-04-28 2020-07-02 カール・ツアイス・アーゲー Digital camera
US10999514B2 (en) 2017-04-28 2021-05-04 Carl Zeiss Ag Digital camera
CN110537363B (en) * 2017-04-28 2021-09-07 卡尔蔡司股份公司 Digital camera

Similar Documents

Publication Publication Date Title
JP6765956B2 (en) Imaging control device and its control method
JP4510713B2 (en) Digital camera
JP5652652B2 (en) Display control apparatus and method
KR101624218B1 (en) Digital photographing apparatus and controlling method thereof
JP2013070303A (en) Photographing device for enabling photographing by pressing force to screen, photographing method and program
JP6833505B2 (en) Imaging control device and its control method
JP5709816B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
JP2018133674A (en) Imaging apparatus and control method of the same
JP2012095167A (en) Imaging device
JP2018107713A (en) Imaging control device and control method thereof
JP2012190183A (en) Image processing device, method, and program
JP6512961B2 (en) Imaging control apparatus, control method therefor, program, and storage medium
JPWO2018020789A1 (en) Camera, camera setting method, and camera setting program
US11412140B2 (en) Electronic device, control method of electronic device, and non-transitory computer-readable storage medium
JPWO2015170521A1 (en) Imaging device
JP6334256B2 (en) Imaging display device and imaging display method
JP2005143112A (en) Camera and method concerning the same
JP2016103666A (en) Electronic apparatus and imaging device
JP2012015619A (en) Stereoscopic display device and stereoscopic photographing device
US20160212328A1 (en) Haptic interface of image photographing device and control method thereof
JP2016208196A (en) Electronic apparatus
JP2018107712A (en) Imaging control device and control method thereof
JP5969847B2 (en) Imaging device
JP5959297B2 (en) Imaging device and imaging support method
JP6123562B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181116

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200124

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602