JP2016208196A - Electronic apparatus - Google Patents
Electronic apparatus Download PDFInfo
- Publication number
- JP2016208196A JP2016208196A JP2015086322A JP2015086322A JP2016208196A JP 2016208196 A JP2016208196 A JP 2016208196A JP 2015086322 A JP2015086322 A JP 2015086322A JP 2015086322 A JP2015086322 A JP 2015086322A JP 2016208196 A JP2016208196 A JP 2016208196A
- Authority
- JP
- Japan
- Prior art keywords
- electronic device
- display
- display unit
- control unit
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Viewfinders (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Accessories Of Cameras (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、電子機器に関する。 The present invention relates to an electronic device.
曲がっている面に情報を表示する機器が知られている(特許文献1参照)。従来技術では、曲面にアイコンを表示することが記載され、タッチ操作されたアイコンに割り当てられた処理が実行される。しかしながら、有用な操作について十分検討されていない。 A device that displays information on a curved surface is known (see Patent Document 1). In the prior art, it is described that an icon is displayed on a curved surface, and processing assigned to the touch-operated icon is executed. However, the useful operation has not been sufficiently studied.
電子機器は、本体部の第1の面に設けられた第1表示部と、前記本体部の前記第1の面とは異なる第2の面に設けられた第2表示部と、前記第1の面に対する第1操作と、前記第2の面に対する第2操作を検出する検出部と、前記検出部の検出に基づき、所定の処理を行う処理部と、を備える。 The electronic device includes a first display unit provided on a first surface of the main body unit, a second display unit provided on a second surface different from the first surface of the main body unit, and the first display unit. A first operation on the second surface, a detection unit that detects the second operation on the second surface, and a processing unit that performs a predetermined process based on the detection by the detection unit.
本実施形態による電子機器の一例として、レンズ交換式のデジタルカメラを例にあげて説明する。
(第1の実施形態)
図1は、第1の実施形態によるカメラ1を例示する斜視図である。カメラ1は、交換レンズ3とカメラボディ2とで構成される。カメラボディ2は、本体部が平板状に構成されており、本体部の正面にボディ側マウント201が備えられている。カメラボディ2の長軸方向を上下方向、カメラボディ2の短軸方向を左右方向もしくは水平方向、カメラボディ2の奥行方向を前後方向として説明する。本体部のボディ側マウント201より上側は、前方(正面側)に傾斜している。傾斜角度は、図示した角度より深くても浅くてもよい。また、本体部のボディ側マウント201の左側には、グリップG1が設けられている。
平板状の本体部は、外観が平板状の筐体ケースと、筐体ケースの内部に実装された回路基板と、薄型リチウムイオン電池のような充放電可能な蓄電素子とを備える。ボディ側マウント201は筐体ケースに設けられ、ボディ側マウント201の内方の回路基板に撮像素子22(図2)が実装される。
As an example of the electronic apparatus according to the present embodiment, a lens interchangeable digital camera will be described as an example.
(First embodiment)
FIG. 1 is a perspective view illustrating a
The flat body portion includes a housing case having a flat appearance, a circuit board mounted inside the housing case, and a chargeable / dischargeable storage element such as a thin lithium ion battery. The
交換レンズ3は、レンズ側マウント301を介してカメラボディ2の本体部のボディ側マウント201に装着される。
なお、本実施形態においてはレンズ交換式のカメラシステムを例示するが、レンズ交換式でなく、交換レンズ3とカメラボディ2とを一体に構成したレンズ一体式のカメラとして構成してもよい。
The
In the present embodiment, an interchangeable lens type camera system is illustrated, but instead of the interchangeable lens system, the
図2は、カメラ1の要部構成を説明する図である。図2に例示するように、カメラボディ2に交換レンズ3が装着されると、ボディ側マウント部201に設けられた端子群202と、レンズ側マウント部301に設けられた端子群302とが電気的に接続される。これにより、端子群202、302を介して、カメラボディ2から交換レンズ3への電力供給や、カメラボディ2および交換レンズ3間の通信が可能となる。
FIG. 2 is a diagram illustrating the configuration of the main part of the
<交換レンズ>
交換レンズ3は、レンズ31と、ズーミングレンズ32と、フォーカシングレンズ33と、絞り34と、レンズ制御部35と、レンズメモリ36とを有する。交換レンズ3は、被写体像をカメラボディ2側の撮像素子22に結像させる。
<Interchangeable lens>
The
フォーカスレンズ33は、レンズ制御部35からの指示を受けたフォーカスレンズ駆動モータ331によって駆動される。フォーカスレンズ33が光軸L1方向に進退移動することで、交換レンズ3による焦点位置が調節される。
The
ズームレンズ32は、レンズ制御部35からの指示を受けたズームスレンズ駆動モータ321によって駆動される。ズームレンズ32が光軸L1方向に進退移動することで、交換レンズ3による焦点距離が変化する。
The
絞り34は、光軸L1を中心にした開口径を変化させることにより、交換レンズ3を通過して撮像素子22に至る光束を制限する。絞り34に対する開口径の変更指示は、レンズ制御部35によって行われる。
The
レンズ制御部35は、不図示のマイクロコンピュータ、メモリ、駆動制御回路などから構成される。レンズ制御部35は、焦点調節時にフォーカシングレンズ33を光軸L1方向に進退移動させるためのレンズ駆動を制御する他、絞り調節時には絞り34の開口径を変更するための絞り駆動を制御する。また、ズーミング時にズームレンズ32を光軸L1方向に進退移動させるためのレンズ駆動を制御する。
The lens control unit 35 includes a microcomputer (not shown), a memory, a drive control circuit, and the like. The lens control unit 35 controls lens driving for moving the focusing
レンズ制御部35はさらに、ボディ制御部21と通信を行う。この通信では、交換レンズ3からカメラボディ2へレンズ情報(フォーカシングレンズ33やズームレンズ32のレンズ位置や絞り34の開口径など)が送信され、カメラボディ2から交換レンズ3へカメラ情報(レンズ駆動指示や絞り駆動指示など)が送信される。
The lens control unit 35 further communicates with the
レンズメモリ38には、交換レンズ3の情報が記録される。交換レンズ3の情報は、レンズ制御部35によってレンズメモリ38から読み出され、ボディ制御部21へ送信される。
Information on the
<カメラボディ>
カメラボディ2は、ボディ制御部21と、撮像素子22と、シャッター23と、表示部25と、操作部26と、メモリ24とを含む。なおメモリ24は、カメラボディ2に着脱可能な構成としてもよいし、カメラボディ2に内蔵された構成としてもよい。
<Camera body>
The
ボディ制御部21は、不図示のマイクロコンピュータやメモリ21A等を含み、メモリ21Aに記録されている制御プログラムに基づいて、カメラ1の各部の動作を統括的に制御する。例えば、ボディ制御部21は、撮像素子22から出力されたデータに対して所定の画像処理(色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整、リサイズ処理、エフェクト処理など)を施す。
The
また、ボディ制御部21は、撮像素子22から出力されたデータを用いて所定の露出演算を行うとともに、この露出演算によって求めた露出量に基づいてカメラ1の露出制御を行う。さらにまた、ボディ制御部21は、交換レンズ3の焦点検出処理を行う。
The
焦点検出処理は、コントラストAF方式でも位相差AF方式でもよい。コントラストAF方式では、フォーカスレンズ33を移動させながら、フォーカスレンズ33のそれぞれの位置において撮像素子22で取得されたデータに基づいて公知の焦点評価値演算を行う。そして、焦点評価値が最大となるフォーカスレンズ33の位置を合焦位置とする。
The focus detection process may be a contrast AF method or a phase difference AF method. In the contrast AF method, a known focus evaluation value calculation is performed based on data acquired by the
位相差AF方式では、交換レンズ3の異なる瞳領域を介して入射された一対のフォーカス検出用光束による像の位相差に基づいてデフォーカス量を検出する。ボディ制御部21は、位相差検出用センサの異なる位置に設けられたフォーカス検出用画素列でそれぞれ撮像される一対の像の相対位置ズレ量(相対間隔)に基づいて、合焦に必要なフォーカスレンズ33の移動方向および移動量を算出する。
なお、位相差検出用センサは、あらかじめ撮像素子22に含められているフォーカス検出用画素列を用いてもよいし、フォーカス検出用画素列を備えた専用センサを撮像素子22とは別に備える構成にしてもよい。
In the phase difference AF method, a defocus amount is detected based on a phase difference of an image by a pair of focus detection light beams incident through different pupil regions of the
The phase difference detection sensor may use a focus detection pixel array included in the
撮像素子22は、複数の光電変換素子が二次元状に配置されたものであり、後述する静止画やライブビュー画像(スルー画像とも呼ばれる)を撮像する。ライブビュー画像は、撮像素子22によって所定のフレームレートで逐次取得される観察用の画像である。また、撮像素子22は、後述する動画の撮像も可能に構成される。
The
シャッター23は、ボディ制御部21によって開閉制御される。メモリ24は、ボディ制御部21によって画像データの書き込みおよび読み出しが制御される。
The
表示部25は、例えばフレキシブル液晶パネルによって構成される。表示部25は、カメラボディ2の本体部の上面から背面にかけての傾斜部の略全域(以降、肩部分と呼ぶ)25Bと、本体部の背面の略全域(以降、背面25Aと呼ぶ)にわたって設けられている。背面25Aと肩部分25Bとの間には、湾曲部25Cが設けられている。背面25Aと肩部分25Bと湾曲部25Cはそれぞれ異なる面(平面)に設けられている。表示部25は、ボディ制御部21の指示に応じて画像を再生表示したり、シャッター速度、絞り値、撮像枚数などのカメラ情報や、カメラボディ2に各種設定操作を行うための操作部情報や、操作メニュー画面を表示したりする。表示部25による表示の詳細については後述する。
The
また、上記表示部25の表示面にはタッチ操作部材25Sが積層されている。タッチ操作部材25Sは、表示画面上でユーザーが触れている位置を示す信号をボディ制御部21へ送出する。
A
操作部材26は、レリーズボタン、操作ダイヤルや電源スイッチなどを含む。操作部材26は、操作に応じた操作信号をボディ制御部21へ送出する。
なお、本実施形態においては、操作部材26を上記タッチ操作部材25Sと別に設ける例を説明するが、操作部材26の機能をタッチ操作部材25Sに全て含めるように構成してもよい。
すなわち、表示部25に操作アイコンをひとつまたは複数表示し、これらの操作アイコンの座標位置とアイコンに割り当てられた処理とを対応づける。ボディ制御部21は、ユーザーによりタッチ操作された表示部25上の座標位置をタッチ操作部材25Sからの信号で検出する。そして、この信号に基づき操作アイコンに割り当てられた処理を実行する。
The
In the present embodiment, an example in which the
That is, one or a plurality of operation icons are displayed on the
カメラ1は、静止画撮像と動画撮像とが可能に構成されている。
<ライブビュー画像>
本実施形態では、通常、撮像待機状態においてライブビューモードにする。ライブビューモードにおける動作の一例を説明すると、ボディ制御部21が、シャッター23を開いたままで、交換レンズ3の絞り34を被写体の明るさに応じた開口径へ制御させるとともに、撮像素子22によりライブビュー画像を所定のフレームレートで取得させる。ボディ制御部21は、取得されたライブビュー画像を表示部25に逐次表示させる。
The
<Live view image>
In the present embodiment, the live view mode is normally set in the imaging standby state. An example of the operation in the live view mode will be described. The
<静止画>
ボディ制御部21は、例えば、ユーザーによって操作部材26を構成するレリーズボタンが全押し操作されると、静止画撮像を開始させる。動作の一例を説明すると、シャッター23を一旦閉じ、交換レンズ3の絞り34を、被写体の明るさに応じた開口径へ制御させるとともに、シャッター23を開いて被写体からの光束を撮像素子22へ導く。ボディ制御部21は、所定のシャッター秒時が経過するとシャッター23を閉じ、撮像素子22によって光電変換された画像のデータに対して所定の画像処理を施す。ボディ制御部21は、ライブビューモードへ戻るために再びシャッター23を開くとともに、画像処理後の画像データをメモリ24に記録する。
<Still image>
For example, when the release button configuring the
<動画>
また、ボディ制御部21は、例えば、表示部25の肩部分25Bに表示されている不図示の録画アイコンや操作部材26の録画ボタンがユーザーによって操作されると、動画撮像を開始させる。動作の一例を説明すると、交換レンズ3の絞り34の開口径を、被写体の明るさに応じた開口径へ制御させ、撮像素子22により動画の撮像を所定のフレームレートで行わせる。このとき、不図示のマイクにより集音された音声の録音も行う。ボディ制御部21は、動画の撮像中に録画アイコンまたは録画ボタンが再び操作されると、動画の撮像および音声の録音を終了させる。動画のデータおよび音声のデータは、ボディ制御部21によってメモリ24に記録される。
<Video>
For example, when the user operates a recording icon (not shown) displayed on the
<表示部25を用いたユーザー操作>
図3は、ライブビューモードにおいて、表示部25に表示される画面を説明する図である。ボディ制御部21は、表示部25の背面25Aにライブビュー画像を表示させるとともに、表示部25の肩部分25Bにホームアイコンを表示させる。ホームアイコンは、例えば、撮像条件アイコンi1と、エフェクトアイコンi2と、再生アイコンi3と、ISO感度/露出補正アイコンi4と、メニューアイコンi5とを含む。
<User Operation Using
FIG. 3 is a diagram illustrating a screen displayed on the
ホームアイコンの数は、上記5つ以上でも5つ以下でもよい。表示スペースの都合によって全てのホームアイコンを一度に表示できない場合には、ボディ制御部21は、ユーザー操作に応じてホームアイコンをスクロール表示させる。すなわち、ユーザーが肩部分25Bで指を水平方向にずらすスライド操作をすると、ボディ制御部21が、表示しているアイコンをスライド操作の方向へスクロールさせることにより、隠れている(表示していない)アイコンを表示させる。
なお、表示部25の肩部分25Bに表示させるアイコン等を、表示部25における所定の位置に配した不図示のファンクションアイコンに対するタッチ操作に応じて切り替える構成にしてもよい。
The number of home icons may be five or more or five or less. When all the home icons cannot be displayed at a time due to the convenience of the display space, the
Note that an icon or the like to be displayed on the
<撮像条件の設定>
例えば、ユーザーがホームアイコンのうちの撮像条件アイコンi1をタッチ操作すると、ボディ制御部21は、表示部25の肩部分25Bに表示しているホームアイコンに代えて、撮像条件を肩部分25Bに表示させる。図4は、表示部25に表示される画面を説明する図である。図4において、表示部25の肩部分25Bに条件i6と、条件i7と、条件i8と、条件i9とが表示されている。図4の例では、条件i6が露出モードに対応する。露出モードは、例えばP(プログラムオート)モード、S(シャッター速度優先オート)モード、A(絞り優先オート)モード、M(マニュアル)モードが切り替え可能に構成される。
<Setting imaging conditions>
For example, when the user performs a touch operation on the imaging condition icon i1 of the home icons, the
また、条件i7は絞り値に対応する。絞り値は、交換レンズ3で設定可能な値(例えばf1.8〜f11)に変更可能に構成される。条件i8はシャッター速度に対応する。シャッター速度は、例えば1/6000秒から30秒の範囲で変更可能に構成される。条件i9は、露出補正に対応する。露出補正は、例えば、±3段の範囲で変更可能に構成される。 Condition i7 corresponds to the aperture value. The aperture value can be changed to a value that can be set by the interchangeable lens 3 (for example, f1.8 to f11). Condition i8 corresponds to the shutter speed. The shutter speed is configured to be changeable within a range of 1/6000 seconds to 30 seconds, for example. Condition i9 corresponds to exposure correction. The exposure correction is configured to be changeable within a range of ± 3 stages, for example.
<小さい操作(湾曲部25Cを跨がない操作)>
例えば、条件i6(露出モード)を変更する場合、ユーザーは、表示部25の湾曲部25Cのうち、条件i6の表示位置の近傍のエリア41で、指を上下方向に小さくずらす操作を行う。ボディ制御部21は、エリア41で下向きの操作を検出するごとに、露出モードを、P→S→A→M→P…の順に切り替える。
<Small operation (operation not straddling the bending
For example, when changing the condition i6 (exposure mode), the user performs an operation of shifting the finger up and down slightly in the
反対に、ボディ制御部21は、エリア41で上向きの操作を検出するごとに、露出モードを、P→M→A→S→P…の順に切り替える。図5は、露出モードをSモードに切り替えた場合に表示部25に表示された画面を、正面から見た図である。なおエリア41は、湾曲部25Cに設けられていてもよいし、肩部分25Bから湾曲部25Cにまたがって設けられていてもよいし、湾曲部25Cから背面25Aにまたがって設けられていてもよいし、肩部分25Bから湾曲部25C、さらに背面25Aにまたがって設けられていてもよい。
On the other hand, every time an upward operation is detected in the
図6は、図4の表示部25の湾曲部25C(上記例ではエリア41)が操作された場合における表示部25の肩部分25Bの表示を説明する図である。ボディ制御部21は、湾曲部25Cに対する操作量に応じて、仮想の円筒ダイヤル61があたかも回転操作されたかのように、表示部25の肩部分25Bの表示を切り替える。
FIG. 6 is a diagram for explaining display of the
図7は、仮想の円筒ダイヤル61を拡大した図である。図7において、仮想の円筒ダイヤル61の周囲には、条件i6〜条件i8の設定値がそれぞれ記されている。ボディ制御部21は、図7の円筒ダイヤル61を湾曲部25Cに対する操作量に応じて回転させる。仮想の円筒ダイヤル61の回転に伴い、円筒ダイヤル61の周囲に記されている条件i6〜条件i8の設定値を表示する位置が移動する。ボディ制御部21は、上記表示の位置が移動するように表示部25の肩部分25Bに表示させるとともに、仮想の円筒ダイヤル61の天頂部へ移動した設定値へ条件i6(露出モード)を変更する。
なお、上記例ではエリア41(湾曲部25C)が操作されることによって仮想の円筒ダイヤル61の条件i6の設定値が移動する例を説明したが、他の条件i7〜条件i9の設定についても同様である。
なお、Aモードでは、絞り値と露出補正とが変更可能であり、シャッター速度はユーザー操作により変更することはできない。そのため、ボディ制御部21は、表示部25における条件i8の表示を非表示としてもよいし、グレーアウトするよう表示態様を変更するようにしてもよい。また条件i8が表示部25に表示されている場合、ボディ制御部21は、絞り値が変更されたことに応じて、適正露出を保つためにシャッター速度の値およびその表示を変更させる。
なお、Sモードでは、シャッター速度と露出補正とが変更可能であり、絞り値はユーザー操作により変更することができない。そのため、ボディ制御部21は、表示部25における条件i7の表示を非表示としてもよいし、グレーアウトするよう表示態様を変更するようにしてもよい。また条件i7が表示部25に表示されている場合、ボディ制御部21は、シャッター速度が変更されたことに応じて、適正露出を保つために絞り値の値およびその表示を変更させる。
FIG. 7 is an enlarged view of the virtual
In the example described above, the setting value of the condition i6 of the virtual
In the A mode, the aperture value and exposure correction can be changed, and the shutter speed cannot be changed by a user operation. Therefore, the
In the S mode, the shutter speed and exposure correction can be changed, and the aperture value cannot be changed by a user operation. Therefore, the
ここで、ユーザーが表示部25の表示面を背面25Aと正対する向きに観察する場合、ユーザーにとって表示部25の肩部分25Bを観察する方向が斜めになる。このため、図8に例示するように、表示部25の肩部分25Bの表示内容が歪んで観察されてしまう。図8は、表示部25の肩部分25Bの表示内容が歪む例である。そこで、ボディ制御部21は、ユーザーが表示部25の表示面を背面25Aと正対する向きに観察した場合に、表示部25の肩部分25Bの表示が正しく観察されるように、あらかじめ表示する文字等の形状を補正して表示させる。図5の例では、表示部25の肩部分25Bの表示をあらかじめ補正したことにより、表示部25の肩部分25Bに表示されている数値を歪まずに表示させることができる。なお、ユーザーと表示部25との相対位置を本体部の背面側(表示部25側)に設けられた不図示の撮像部により検出するようにしてもよい。ボディ制御部21は、撮像部の検出結果に基づいて、表示部25の肩部分25Bの表示の補正量を算出するようにしてもよい。
Here, when the user observes the display surface of the
<大きい操作(湾曲部25Cを跨ぐ操作)>
図9は、表示部25に表示される画面を説明する図である。図4の場合と同様に、表示部25の肩部分25Bに条件i6と、条件i7と、条件i8と、条件i9とが表示されている。例えば、条件i6(露出モード)を素早く変更したい場合、ユーザーは、条件i6の表示位置から、エリア41(湾曲部25C)を跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。
<Large operation (operation across the bending
FIG. 9 is a diagram for explaining a screen displayed on the
ボディ制御部21は、エリア41を跨ぐ下向きの操作を検出すると、露出モードの設定値を示す一覧表示を、表示部25の背面25Aに表示させる。図10は、露出モードについての一覧表示がライブビュー画像に重ねて表示された画面を、正面から見た図である。
なお、一覧表示は、表示部25の背面25Aに表示してもよいし、湾曲部25Cを跨いで肩部分25Bから背面25Aにかけて表示してもよい。
When the
The list display may be displayed on the
ボディ制御部21は、一覧表示のうちのP、S、A、Mのいずれかがタッチ操作されると、タッチ操作されたモードに露出モードを切り替えるとともに、一覧表示の表示を終了させる。例えば、露出モードをSモードに切り替えた場合は、図5に例示した画面を表示部25に表示させるとともに、Sモードに切り替える。
When any of P, S, A, and M in the list display is touch-operated, the
以上の説明では、条件i6(露出モード)を変更する場合を例示したが、条件i7(絞り値)および条件i8(シャッター速度)についても同様である。 In the above description, the case where the condition i6 (exposure mode) is changed is illustrated, but the same applies to the condition i7 (aperture value) and the condition i8 (shutter speed).
上述した小さい操作および大きい操作は、ユーザーが、ズームレンズ32の駆動操作や、フォーカスレンズ33の駆動操作を行う場合に適用してもよい。すなわち、レンズを小さく小刻みに移動させたい場合には、湾曲部25Cを跨がない小さな操作を行い、レンズを大きく移動させたい場合には、湾曲部25Cを跨ぐ大きな操作を行う。
The small operation and the large operation described above may be applied when the user performs a driving operation of the
<目盛を表示する例>
例えば、条件i9(露出補正)を変更する場合、ユーザーは、図4の条件i9の表示位置から、条件i9の表示位置の近傍のエリア71(湾曲部25C)を跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。ボディ制御部21は、エリア71を跨ぐ操作を検出すると、条件i9の表示位置、エリア71および背面25Aに沿って目盛72を表示させる。なお、ユーザーは、背面25Aから、近傍のエリア71(湾曲部25C)を跨いで条件i9の表示位置まで、指を上下方向に大きくずらす操作を行ってもよい。
<Example of displaying scale>
For example, when changing the condition i9 (exposure correction), the user moves his / her finger up and down from the display position of the condition i9 in FIG. 4 to the
図11は、表示部25に表示された、条件i9(露出補正)についての目盛72を例示する図である。ボディ制御部21は、エリア71を跨ぐ操作を検出するごとに、露出補正値を、例えば1段ステップで切り替える。図12は、図11に比べて補正値を+側に1段変更した場合を例示する図である。
FIG. 11 is a diagram illustrating a
ユーザーは、条件i9(露出補正)の表示位置の近傍のエリア71(湾曲部25C)で、指を上下方向に小さくずらす操作を行う。ボディ制御部21は、エリア71を跨がない小さな操作を検出すると、粗い目盛72に比べて細かい目盛72Bを表示させる。図13は、表示部25に表示された、条件i9(露出補正)についての細かい目盛72Bを例示する図である。ボディ制御部21は、エリア71における操作を検出するごとに、露出補正値を、例えば0.1段ステップで切り替える。
なお、ボディ制御部21は、目盛72を表示部25に表示させず、変更された露出補正値のみを表示するようにしてもよい。
The user performs an operation of shifting his / her finger up and down in the area 71 (
The
<アンドゥー操作>
ボディ制御部21は、2本の指の一方が肩部分25Bに触れ、他方の指が背面25Aに触れた状態で湾曲部25Cを挟むピンチ操作が行われる(あたかも湾曲部25Cを摘む操作)と、上述したように設定した内容をキャンセルするリセット操作、あるいは直前の操作を取り消して元の状態に戻すアンドゥー操作として処理する。アンドゥー操作の指示は、ピンチ操作に限らず、背面25Aと肩部分25Bとが同時に操作されたことによって検出されるようにしてもよい。
<Undo operation>
When the
<ダイヤルを表示する例>
例えば、図4において条件i7(絞り値)または条件i8(シャッター速度)を変更する場合、ユーザーは、図4の条件i7またはi8の表示位置の近傍のエリア81(湾曲部25C)またはエリア91(湾曲部25C)で、指を水平方向に小さくずらす操作を行う。
<Example of dial display>
For example, when the condition i7 (aperture value) or the condition i8 (shutter speed) is changed in FIG. 4, the user can use the area 81 (
例えば、条件i7の表示位置の近傍のエリア81(湾曲部25C)が水平方向に操作されると、ボディ制御部21は、表示部25の肩部分25Bにおいて条件i7の表示位置に仮想のダイヤルDを表示させる。図14は、表示部25に表示されたダイヤルDを例示する図である。ボディ制御部21は、エリア81における水平方向の操作を検出するごとに、あたかもダイヤルDが回転操作されたかのように、絞り値を変更する。ボディ制御部21は、ダイヤルDに対する操作が検出されなくなって所定時間(例えば3秒)が経過すると、仮想のダイヤルDの表示を終了する。
For example, when the area 81 (
図15は、条件i7(絞り値)についての仮想のダイヤルD1を拡大した図である。図15の例では、現絞り値が仮想のダイヤルD1の上面に表示される。図16は、絞り値が仮想のダイヤルD2の近傍に表示される例を示す図である。図16の場合においても、ボディ制御部21は、エリア81における水平方向の操作を検出するごとに、あたかもダイヤルD2が回転操作されたかのように、絞り値を変更する。
FIG. 15 is an enlarged view of the virtual dial D1 for the condition i7 (aperture value). In the example of FIG. 15, the current aperture value is displayed on the upper surface of the virtual dial D1. FIG. 16 is a diagram illustrating an example in which the aperture value is displayed in the vicinity of the virtual dial D2. Also in the case of FIG. 16, whenever the
カメラボディ2は、仮想のダイヤルDの誤操作を防止するためにロック機能を備えている。図17は、仮想のダイヤルDのロック操作を説明する図である。ボディ制御部21は、背面25Aから、湾曲部25Cを跨いで肩部分25BのダイヤルDの表示位置に向けて、指を上下方向にずらす操作が行われると、仮想のダイヤルDをロックさせる。ダイヤルDをロックした場合、ボディ制御部21は、仮想のダイヤルDの表示色を変化させたり、キーマークを表示させたりする。ロック状態の場合、ボディ制御部21は、図18に示すようなダイヤル操作(湾曲部25Cに対する水平方向の操作)を検出しても、絞り値を変更しない。
The
ボディ制御部21は、肩部分25BのダイヤルDの表示位置から、湾曲部25Cを跨いで背面25Aに向けて、指を上下方向にずらす操作が行われると、仮想のダイヤルDのロックを解除する。ダイヤルDのロックを解除した場合、ボディ制御部21は、仮想のダイヤルDの表示色を元に戻す。なお、キーマークを表示していた場合はその表示を終了させる。
The
<二重ダイヤルを表示する例>
例えば、図3においてISO感度/露出補正アイコンi4がタッチ操作された場合、ボディ制御部21は、表示部25の肩部分25Bにおいて仮想の二重ダイヤルD3を表示させる。図19は、表示部25に表示された二重ダイヤルD3を例示する図である。図19の上側の図は、仮想の二重ダイヤルD3のうちの内側ダイヤルD31が操作されている状態を示す。また、図19の下側の図は、仮想の二重ダイヤルD3のうちの外側ダイヤルD32が操作されている状態を示す。
<Example of displaying double dial>
For example, when the ISO sensitivity / exposure correction icon i4 is touched in FIG. 3, the
ボディ制御部21は、表示部25の肩部分25Bにおいて内側ダイヤルD31に対する操作を検出するごとに、あたかも内側ダイヤルD31が回転操作されたかのように、例えば露出補正値を変更する。
Each time the
また、ボディ制御部21は、表示部25の背面25Aにおいて水平方向の操作を検出するごとに、あたかも外側ダイヤルD32が回転操作されたかのように、例えばISO感度値を変更する。
In addition, whenever the
ボディ制御部21は、内側ダイヤルD31に対する操作および外側ダイヤルD32に対する操作のいずれも検出されなくなって所定時間(例えば3秒)が経過すると、仮想の二重ダイヤルD3の表示を終了して図3の状態に戻す。
The
<ズーミング時の表示>
図20は、表示部25の肩部分25Bにアイコン等を表示させない場合を例示する図である。ボディ制御部21は、表示部25の表示エリアの全域を使って、ライブビュー画像を擬似的な空間の奥に表示させる。
<Display during zooming>
FIG. 20 is a diagram illustrating a case where an icon or the like is not displayed on the
ボディ制御部21は、例えば、ユーザーによって表示部25の画面上でピンチアウト操作されると、操作位置に表示されている被写体を中心にズーム処理を行い、ズーム部分を擬似的な空間の手前に表示させる。図21は、ズーム部分を表示させた場合を例示する図である。
なお、ライブビュー画像に対してズーミング操作を行った場合について説明したが、これに限定されず、再生画像に対してズーミング操作(拡大表示、縮小表示)を行った場合にも同様の表示態様としてもよい。また、ズーム処理の指示をピンチアウト操作として説明したが、操作部材26が操作されたことによって、ボディ制御部21は、表示態様を変更するようにしてもよい。
For example, when the user performs a pinch-out operation on the screen of the
In addition, although the case where zooming operation was performed with respect to the live view image was demonstrated, it is not limited to this, and also when zooming operation (enlarged display, reduced display) is performed with respect to a reproduction image, as a similar display mode Also good. In addition, although the zoom processing instruction has been described as a pinch-out operation, the
<エフェクトの設定>
例えば、ユーザーが図3のホームアイコンのうちのエフェクトアイコンi2をタッチ操作すると、ボディ制御部21は、表示部25の肩部分25Bに表示しているホームアイコンに代えて、エフェクト変更操作部を表示させる。図22は、表示部25に表示される画面を説明する図である。図22において、表示部25の肩部分25Bにエフェクト変更操作部が表示されている。
<Effect settings>
For example, when the user performs a touch operation on the effect icon i2 of the home icons in FIG. 3, the
例えば、エフェクトを変更する場合、ユーザーは、表示部25の湾曲部25Cのうちのエリア41で、指を上下方向に小さくずらす操作を行う。ボディ制御部21は、エリア41で上下方向の操作を検出するごとに、設定値(本例ではエフェクトの候補)を表示部25の肩部分25Bに順番に表示する。この場合、上述した仮想の円筒ダイヤル61(図6)があたかも回転操作されたかのように、表示部25の肩部分25Bの表示を切り替える。図23は、エフェクトの候補の表示が切り替わった状態を説明する図である。
For example, when changing the effect, the user performs an operation of shifting the finger in the vertical direction in the
例えば、表示部25Aに表示されているライブビュー画像に対してエフェクトを適用する場合、ユーザーは、表示部25の肩部分25Bから、エリア41(湾曲部25C)を跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。
For example, when applying an effect to the live view image displayed on the
ボディ制御部21は、エリア41を跨ぐ下向きの操作を検出すると、ライブビュー画像に対してエフェクトを適用した画像処理を行い、画像処理後の画像を表示部25の背面25Aに表示させる。図24は、エフェクトが適用された状態を説明する図である。図24では便宜上「SEPIA」と記載しているが、セピア色に処理されたライブビュー画像が表示される。
When the
図25は、エフェクトの強さの変更操作を説明する図である。ボディ制御部21は、エリア41において水平方向の操作を検出すると、ライブビュー画像に対して適用したエフェクトの強さを変化させる。すなわち、操作に応じて画像処理における強弱を変更し、変更後の強さを適用して画像処理したライブビュー画像を表示部25の背面25Aに表示させる。ユーザーは、エリア41において水平方向に操作をすることで、エフェクトの強さがリアルタイムに変化するライブビュー画像を観察できる。
なお、ライブビュー画像に対してエフェクトを適用する場合について説明したが、これに限定されず、再生画像に対してエフェクトを適用するようにしてもよい。
FIG. 25 is a diagram illustrating an effect strength changing operation. When detecting a horizontal operation in the
In addition, although the case where an effect is applied with respect to a live view image was demonstrated, it is not limited to this, You may make it apply an effect with respect to a reproduction image.
<再生設定1>
例えば、ユーザーが図3のホームアイコンのうちの再生アイコンi3をタッチ操作すると、ボディ制御部21は、表示部25の肩部分25Bの表示を終了するとともに、表示部25の表示エリアの全域を使って、再生画像を擬似的な空間に表示させる。
<Playback setting 1>
For example, when the user touches the play icon i3 of the home icons in FIG. 3, the
図26は、表示部25に表示される画面を説明する図である。図26において、複数コマの画像251、252、253が重ねて表示されている。ボディ制御部21は、メモリ24に記録されている画像のうち、例えば、読み出し指定された画像251、252、253を撮像順に表示させる。
FIG. 26 is a diagram for explaining a screen displayed on the
ボディ制御部21は、表示部25の肩部分25Bを使って、複数コマの画像を重なりがわかるように階層表示させる。図27は、図26の表示画面を正面から見た図である。ユーザーは、例えば、擬似的な空間において1番奥に表示されている画像253を鑑賞したい場合には、表示部25の肩部分25Bにおいて画像253の表示をタッチ操作する。ボディ制御部21は、画像253へのタッチ操作を検出すると、画像251に代えて画像253を擬似的な空間において1番手前に表示させる。
The
以上の説明では、再生時における複数コマの画像の階層表示を例に説明したが、複数の操作メニュー画面についても、同様に擬似的な空間に階層表示させることもできる。例えば、ユーザーが擬似的な空間において1番奥に表示されている操作メニュー画面を操作したい場合には、表示部25の肩部分25Bにおいて当該操作メニュー画面の表示をタッチ操作する。ボディ制御部21は、タッチ操作を検出すると、1番手前に表示している操作メニュー画面に代えて、タッチ操作された操作メニュー画面を擬似的な空間において1番手前に表示させる。
In the above description, the hierarchical display of images of a plurality of frames at the time of reproduction has been described as an example. However, a plurality of operation menu screens can also be hierarchically displayed in a pseudo space. For example, when the user wants to operate the operation menu screen displayed at the back in the pseudo space, the display of the operation menu screen is touch-operated on the
<再生設定2>
ユーザーが図3のホームアイコンのうちの再生アイコンi3をタッチ操作した場合において、表示部25の肩部分25Bの表示を終了せずに、複数のサムネイル画像を表示部25の肩部分25Bに表示させてもよい。
<Playback setting 2>
When the user touches the play icon i3 of the home icons shown in FIG. 3, a plurality of thumbnail images are displayed on the
ユーザーは、肩部分25Bに表示されているサムネイル画像に対応する画像を背面25Aに大きく表示させたい場合、任意のサムネイル画像をドラッグ操作するかのように、表示部25の肩部分25Bから、湾曲部25Cを跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。ボディ制御部21は、上記ドラッグ操作の対象となったサムネイル画像に対応する画像を表示部25の背面25Aに表示させる。
When the user wants to display an image corresponding to the thumbnail image displayed on the
<再生設定3>
ユーザーが図3のホームアイコンのうちの再生アイコンi3をタッチ操作した場合において、連写画像を再生する場合には、連写した複数コマのサムネイル画像を表示部25の肩部分25Bに表示させてもよい。
<Playback setting 3>
When the user touches the play icon i3 of the home icons shown in FIG. 3 and reproduces the continuous shot image, the thumbnail images of the continuously shot frames are displayed on the
ユーザーは、肩部分25Bに表示されている複数コマのサムネイル画像に対し、例えば、撮像コマ順にサムネイル画像をドラッグ操作するかのように、表示部25の肩部分25Bから、湾曲部25Cを跨いで背面25Aまで指を上下方向に大きくずらす操作を行う。ボディ制御部21は、上記ドラッグ操作の対象となったコマのサムネイル画像に対応する画像を表示部25の背面25Aに表示させる。
The user straddles the
ボディ制御部21は、次のコマのサムネイル画像に対し、表示部25の肩部分25Bから湾曲部25Cを跨いで背面25Aまで指を上下方向に大きくずらす操作が行なわれると、例えば、背面25Aに表示されている前コマの画像との相違する部分をハイライト表示した半透過画像として、前コマの画像より手前に重ねて背面25Aに重畳表示させる。ボディ制御部21は、指のずらし位置が下方へ下がるほど半透過画像の透過率を下げていき、最後に透過率を0にして、前コマの画像に代えて背面25Aに表示させる。
For example, when the thumbnail image of the next frame is operated to largely shift the finger in the vertical direction from the
<フローチャートの説明>
図28は、撮像条件の設定例として上述した露出モードを設定変更する場合にボディ制御部21が実行する処理の流れを説明するフローチャートである。ボディ制御部21は、露出モードの設定変更時において、図28に例示する処理を繰り返し実行する。
<Explanation of flowchart>
FIG. 28 is a flowchart illustrating a flow of processing executed by the
図28のステップS10において、ボディ制御部21は、表示部25における湾曲部25Cが操作されたか否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号が湾曲部25Cに対する操作を示すと、ステップS10を肯定判定してステップS20へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号が湾曲部25Cに対する操作を示さない場合は、ステップS10を否定判定して図28による処理を終了する。
In step S10 of FIG. 28, the
ステップS20において、ボディ制御部21は、操作方向が上下方向か否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号が上下方向の操作を示すと、ステップS20を肯定判定してステップS30へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号が上下方向の操作を示さない場合は、ステップS20を否定判定して図28による処理を終了する。
In step S20, the
ステップS30において、ボディ制御部21は、操作が湾曲部25Cを跨ぐか否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号が湾曲部25Cを跨いだ操作を示すと、ステップS30を肯定判定してステップS40へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号が湾曲部25Cを跨いだ操作を示さない場合は、ステップS30を否定判定してステップS60へ進む。
In step S30, the
ステップS40において、ボディ制御部21は、露出モードの設定値を示す一覧表示を、表示部25の背面25Aに表示させてステップS50へ進む。ステップS50において、ボディ制御部21は以下の設定処理を行う。すなわち、一覧表示のうちのP、S、A、Mのいずれかがタッチ操作が検出されると、タッチ操作されたモードに露出モードを切り替えるとともに、一覧表示の表示を終了させて、図28による処理を終了する。ここで、一覧表示のうちのP、S、A、Mのいずれかに対するタッチ操作は、湾曲部25Cを跨がない操作に含まれる。
In step S40, the
上記ステップS30を否定判定した場合に進むステップS60において、ボディ制御部21は、以下の設定処理を行う。すなわち湾曲部25Cに対する操作が検出されるごとに、露出モードを、P→S→A→M→P…または、P→M→A→S→P…の順に切り替えて、図28による処理を終了する。
In step S60, which proceeds when a negative determination is made in step S30, the
図29は、撮像条件の設定例として上述した露出補正を設定変更する場合にボディ制御部21が実行する処理の流れを説明するフローチャートである。ボディ制御部21は、露出補正の設定変更時において、図29に例示する処理を繰り返し実行する。図29は、図28と比べるとステップS140〜ステップS170までの処理が異なるので、これら相違点を中心に説明する。
FIG. 29 is a flowchart for explaining the flow of processing executed by the
ステップS30において肯定判定された場合に進む図29のステップS140において、ボディ制御部21は、表示部25の肩部分25B、湾曲部25Cおよび背面25Aに沿って粗い目盛72(図11)を表示させて、ステップS150へ進む。ステップS150において、ボディ制御部21は、湾曲部25Cを跨ぐ操作が検出されるごとに、露出補正値を大きな分解能(例えば1段ステップ)で切り替えて、図29による処理を終了する。
In step S140 of FIG. 29 which proceeds when an affirmative determination is made in step S30, the
ステップS30において否定判定された場合に進む図29のステップS160において、ボディ制御部21は、表示部25の肩部分25B、湾曲部25Cおよび背面25Aに沿って細かい目盛72B(図13)を表示させて、ステップS170へ進む。ステップS170において、ボディ制御部21は、湾曲部25Cを跨がない操作が検出されるごとに、露出補正値を小さな分解能(例えば0.1段ステップ)で切り替えて、図29による処理を終了する。
In step S160 of FIG. 29 that proceeds when a negative determination is made in step S30, the
図30は、上述した画像に対するエフェクトを設定変更する場合にボディ制御部21が実行する処理の流れを説明するフローチャートである。ボディ制御部21は、エフェクトの設定変更時において、図30に例示する処理を繰り返し実行する。図30は、図28と比べるとステップS240〜ステップS260までの処理が異なるので、これら相違点を中心に説明する。
FIG. 30 is a flowchart for explaining the flow of processing executed by the
ステップS30において肯定判定された場合に進む図30のステップS240において、ボディ制御部21は、表示部25Aに表示されているライブビュー画像に対してエフェクトを適用する。すなわち、ライブビュー画像に対してエフェクトを適用した画像処理を行い、画像処理後の画像を表示部25の背面25Aに表示させる。適用するエフェクトは、表示部25の肩部分25Bに表示されているものである。
In step S240 of FIG. 30 that proceeds when an affirmative determination is made in step S30, the
ステップS30において否定判定された場合に進むステップS250において、ボディ制御部21は、表示部25の肩部分25Bに表示する設定値(本例ではエフェクトの候補)を変更して図30による処理を終了する。
In step S250, which proceeds when a negative determination is made in step S30, the
ステップS20において否定判定された場合に進むステップS260において、ボディ制御部21は、表示部25Aに表示されているライブビュー画像に対して適用するエフェクトの強さを変更してステップS240へ進む。
In step S260 that proceeds when a negative determination is made in step S20, the
[実施例1]
以下に、具体的な外観を示して第1の実施形態に係る実施例1を説明する。
図31〜図36は、実施例1に係るカメラボディ2の形状を示す6面図である。図31は、カメラボディ2の正面図である。図32は、カメラボディ2の左側面図である。図33は、カメラボディ2の平面図である。図34は、カメラボディ2の下面図である。図35は、カメラボディ2の右側面図である。図36は、カメラボディ2の背面図である。
[Example 1]
Hereinafter, Example 1 according to the first embodiment will be described with a specific appearance.
FIGS. 31 to 36 are six views illustrating the shape of the
図37は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2には、グリップG1が設けられている。グリップG1は、カメラボディ2の正面のボディ側マウント201の左側において、カメラボディ2の本体部の上部と下部とにそれぞれつながっている。グリップG1とカメラボディ2の本体部との間には、左右方向に貫通された空間を有している。
FIG. 37 is a perspective view including the front, top, and right side of the
グリップG1を備えることにより、本体部の正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2のグリップG1をつかみ、右手の指でカメラボディ2の操作部材26を操作する。
By providing the grip G1, the user can stably hold the
グリップG1とカメラボディ2の本体部との間に空間を設けたことにより、ユーザーがカメラボディ2を持つ場合に空間に指をかけたり、空間に指を通したりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。
By providing a space between the grip G1 and the main body of the
また、グリップG1とカメラボディ2の本体部との間に空間を設けたことにより、この空間を塞ぐ場合に比べて、カメラボディ2の軽量化を図ることができる。
Further, by providing a space between the grip G1 and the main body of the
グリップG1とカメラボディ2の本体部との間の空間に放熱フィンを形成し、本体部からの放熱の効率を高めてもよい。放熱フィンは、グリップG1の内面にカメラ左右方向に延在し、表面積を増大する形状を有する。たとえば、断面が矩形、半円形状などの凹凸繰り返し形状、溝形状などである。
A heat radiating fin may be formed in a space between the grip G1 and the main body of the
グリップG1とカメラボディ2の本体部との間の空間に、予備電池等のアクセサリを装着するように構成してもよい。また、リセットスイッチ等の操作部材を上記空間に設けてもよい。
グリップG1をカメラボディ2の本体部と別部品として構成し、着脱式グリップとしてもよい。着脱グリップと本体部とを着脱機構で結合する。着脱グリップの形状、色彩を複数用意し、ユーザーの好みで交換することができる。
カメラボディ2の本体部である筐体ケースに配設される発熱部品は、グリップG1が配設されるカメラ側方端部に設けると放熱効果が向上する。
発熱部品とグリップG1とを伝熱性の良い伝熱部材で熱結合するのが好ましい。
また、発熱部品がグリップG1とは逆方向、たとえば、カメラ右端部側に配置されたときは、発熱部品にヒートシンクを結合させ、このヒートシンクとグリップG1とを伝熱部材で結合すると放熱効果が向上する。
You may comprise so that accessories, such as a reserve battery, may be mounted | worn in the space between the grip G1 and the main-body part of the
The grip G1 may be configured as a separate part from the main body of the
When the heat generating component provided in the housing case which is the main body of the
It is preferable to thermally couple the heat generating component and the grip G1 with a heat transfer member having good heat transfer properties.
Further, when the heat generating component is disposed in the opposite direction to the grip G1, for example, on the right end side of the camera, a heat sink is connected to the heat generating component, and the heat sink is improved by connecting the heat sink and the grip G1 with a heat transfer member. To do.
[実施例2]
以下に、具体的な外観を示して第1の実施形態に係る実施例2を説明する。
図38〜図43は、実施例2に係るカメラボディ2の形状を示す6面図である。図38は、カメラボディ2の正面図である。図39は、カメラボディ2の左側面図である。図40は、カメラボディ2の平面図である。図41は、カメラボディ2の下面図である。図42は、カメラボディ2の右側面図である。図43は、カメラボディ2の背面図である。
[Example 2]
Hereinafter, Example 2 according to the first embodiment will be described with a specific appearance.
38 to 43 are six views illustrating the shape of the
図44は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2には、グリップG2が設けられている。グリップG2は、カメラボディ2の正面のボディ側マウント201の左側において、カメラボディ2の本体部の上部につながっている。グリップG2は、カメラボディ2の本体部の下部とはつながっていない。グリップG2とカメラボディ2の本体部との間には、空間を有している。
FIG. 44 is a perspective view including the front, top, and right side of the
グリップG2を備えることにより、正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2のグリップG2をつかみ、右手の指でカメラボディ2の操作部材26を操作する。
By providing the grip G <b> 2, the user can stably hold the
グリップG2とカメラボディ2の本体部との間に空間を設けたことにより、ユーザーがカメラボディ2を持つ場合に空間に指をかけたり、空間に指を通したりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。
By providing a space between the grip G2 and the main body of the
また、グリップG2とカメラボディ2の本体部との間に空間を設けたことにより、この空間を塞ぐ場合に比べて、カメラボディ2の軽量化を図ることができる。
Further, by providing a space between the grip G2 and the main body of the
[実施例3]
以下に、具体的な外観を示して第1の実施形態に係る実施例3を説明する。
図45〜図50は、実施例3に係るカメラボディ2の形状を示す6面図である。図45は、カメラボディ2の正面図である。図46は、カメラボディ2の左側面図である。図47は、カメラボディ2の平面図である。図48は、カメラボディ2の下面図である。図49は、カメラボディ2の右側面図である。図50は、カメラボディ2の背面図である。
[Example 3]
Example 3 according to the first embodiment will be described below with a specific appearance.
45 to 50 are six views showing the shape of the
図51は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2には、グリップG3が設けられている。グリップG3は、カメラボディ2の正面のボディ側マウント201の左側において、カメラボディ2の本体部の下部につながっている。グリップG3は、カメラボディ2の本体部の上部とはつながっていない。グリップG3とカメラボディ2の本体部との間には、空間を有している。
FIG. 51 is a perspective view including the front, top, and right side of the
グリップG3を備えることにより、正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2のグリップG3をつかみ、右手の指でカメラボディ2の操作部材26を操作する。
By providing the grip G <b> 3, the user can stably hold the
グリップG3とカメラボディ2の本体部との間に空間を設けたことにより、ユーザーがカメラボディ2を持つ場合に空間に指をかけたり、空間に指を通したりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。
By providing a space between the grip G3 and the main body of the
また、グリップG3とカメラボディ2の本体部との間に空間を設けたことにより、この空間を塞ぐ場合に比べて、カメラボディ2の軽量化を図ることができる。
Further, by providing a space between the grip G3 and the main body of the
上述した第1の実施形態によれば、次の作用効果が得られる。
(1)カメラ1は、カメラボディ2の本体部の第1の面に設けられた表示部25の肩部分25Bと、本体部の第2の面に設けられた表示部25の背面25Aと、第1の面でユーザーが指示する位置を検出するとともに、第2の面でユーザーが指示した位置を検出するタッチ操作部材25Sと、タッチ操作部材25Sで検出された指示の位置に基づき、所定の処理を行うボディ制御部21とを備える。これにより、複数の面に跨る操作、単独の面における操作、複数の面の境界に相当する湾曲部25Cにおける操作等、従来にない操作を識別でき、操作しやすいカメラ1が得られる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The
(2)処理部として機能するボディ制御部21は、第1の面と第2の面との間を跨ぐ指示操作がタッチ操作部材25Sで検出された場合に第1の処理を行い、第1の面と第2の面との間を跨がない指示操作がタッチ操作部材25Sで検出された場合に第2の処理を行うので、従来にない操作によって異なる処理を行わせることができる。
(2) The
(3)ボディ制御部21は、所定処理としてカメラ1が備える露出モード設定を行い、第1の処理は、タッチ操作部材25Sにより上記跨ぐ指示操作が検出されると露出モードの設定値の一覧を表示部25の肩部分25Bまたは背面25Aに表示するとともに、表示された一覧から上記跨がない指示操作によって指示された設定値に設定し、第2の処理は、表示部25の肩部分25Bまたは背面25Aに設定値が表示されているとき、上記跨がない指示操作によって設定値を変更する。従来にない操作によって、操作しやすいカメラ1が得られる。
(3) The
(4)ボディ制御部21は、所定処理としてカメラ1が備える露出補正設定を行い、第1の処理は、設定する値を示す粗い目盛り72を表示部25の肩部分25Bから背面25Aに跨いで表示するとともに、上記跨ぐ指示操作に基づき設定する値を1段ステップで変更し、第2の処理は、設定する値を示す細かい目盛り72Bを表示部25の肩部分25Bから背面25Aに跨いで表示するとともに、上記跨がない指示操作に基づき設定する値を0.1段ステップで変更する。従来にない操作によって、操作しやすいカメラ1が得られる。
(4) The
(5)ボディ制御部21は、所定処理としてカメラ1が備えるいずれかの機能の設定を行い、第1の処理は、表示部25の肩部分25Bまたは背面25Aに表示されている設定値を用いた所定処理を実行し、第2の処理は、表示部25の肩部分25Bまたは背面25Aに表示されている設定値の表示を上記跨がない指示操作に基づき変更する。従来にない操作によって、操作しやすいカメラ1が得られる。
(5) The
(6)ボディ制御部21は、表示部25の肩部分25Bから背面25A、または背面25Aから肩部分25Bへ向かう上下方向へ上記跨がない指示操作がタッチ操作部材25Sで検出された場合に第2の処理を行うとともに、上下方向と交差する水平方向へ上記跨がない指示操作がタッチ操作部材25Sで検出された場合に第3の処理を行う。従来にない操作によって、操作しやすいカメラ1が得られる。
(6) When the
(7)上記(5)、(6)の機能の設定は画像に対するエフェクト処理の設定であり、第1の処理は、表示部25の肩部分25Bに表示されているエフェクト処理を画像に対して実行し、第2の処理は、表示部25の肩部分25Bに表示されるエフェクト処理を上記跨がない指示操作に基づき選択し、第3の処理は、エフェクト機能の強さを上記跨がない指示操作に基づき変更する。従来にない操作によって、操作しやすいカメラ1が得られる。
(7) The function settings of the above (5) and (6) are effect process settings for the image, and the first process is to apply the effect process displayed on the
(8)カメラボディ2の本体部の一端に配置した空洞グリップG1(G2、G3)を備えたので、本体部の正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。
(8) Since the cavity grip G1 (G2, G3) disposed at one end of the main body of the
(9)空洞グリップG1の側方は開放されているので、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。
(9) Since the side of the cavity grip G1 is open, there are many variations of how to hold the
(10)空洞グリップG1内に放熱部を形成したので、放熱効果を高めることができる。 (10) Since the heat radiation portion is formed in the cavity grip G1, the heat radiation effect can be enhanced.
(11)空洞グリップG1内にアクセサリ増設部、あるいは操作部材を設けたので、開放された空間を有効に使用できる。 (11) Since the accessory extension portion or the operation member is provided in the cavity grip G1, the open space can be used effectively.
(第2の実施形態)
図52は、第2の実施形態によるカメラ1の要部構成を説明する図である。また、図60は、カメラ1を構成するカメラボディ2の外観を示す斜視図である。第1の実施形態によるカメラボディ2に比べて、着脱自在の外付けファインダー8が装着されている点と、操作部材26としてレリーズボタンの他に2つのダイヤルが追加されている点において相違する。なお、ダイヤルについても着脱可能な構成としてもよい。ダイヤル(操作部材26)は、回転操作に応じて、回転方向および操作量を示す操作信号をボディ制御部21へ送出する。
(Second Embodiment)
FIG. 52 is a diagram for explaining a main configuration of the
ファインダー8は、反射ミラー81と接眼レンズ82とを含む。ファインダー8は、表示部25の肩部分25Bの一部を跨ぐように装着される。ファインダー8は、例えば、不図示の爪がカメラボディ2に設けられている不図示の溝部に係合することによって固定される。また、ファインダー8の装着位置は、カメラボディ2の本体部の正面側から見てボディ側マウント201に対して左寄りであっても、ボディ側マウント201に対して右寄りであってもよく、カメラボディ2に対するファインダー8の装着位置を自由に変えることが可能に構成される。
なお、カメラボディ2に対するファインダー8の固定は、マグネットの磁力を用いて行ってもよいし、バネ力によってカメラボディ2を前後から挟む構成にしてもよい。
The
Note that the
ファインダー8がカメラボディ2に装着されたこと、およびその装着位置は、タッチ操作部材25Sによって検出され、ボディ制御部21へ伝えられる。ボディ制御部21は、例えば、ライブビューモードにおいて、図3に例示した画面が表示部25の肩部分25Bおよび背面25Aに表示させていた状態でファインダー8の装着が検出されると、表示部25の肩部分25Bのうちファインダー8が装着された位置(すなわち、接眼レンズ82を介して観察可能な表示の範囲)にライブビュー画像の表示を開始させるとともに、表示部25の背面25Aに表示していたライブビュー画像の表示を終了させる。
The attachment of the
表示部25の肩部分25Bに表示されたライブビュー画像は、ファインダー8の反射ミラー81で反射される。ユーザーは、反射されたライブビュー画像を接眼レンズ82を介して観察する。つまり、ファインダー8はEVF(Electronic View Finder)として使用される。表示部25の肩部分25Bに表示するライブビュー画像の大きさ等は、ファインダー8の光学系の倍率等の特性に合わせられている。
The live view image displayed on the
ファインダー8を装着することにより、ファインダー8の装着前に表示部25の肩部分25Bに表示していたアイコン等の表示スペースが狭くなる。ボディ制御部21は、例えば、アイコン等を縮小表示することによって、表示できないアイコン等の発生を防止したり、ファインダー8の装着時用にあらかじめ定められたアイコン等のみを表示したりする。また、ファインダー8が装着される前と装着された後とで、表示部25の肩部分25Bに表示するアイコン等の並び順を異ならせてもよい。
なお、表示部25の肩部分25Bに表示するアイコン等の並び順を、ユーザーがメニュー操作によって指定できるようにしてもよい。
By attaching the
It should be noted that the user may be able to specify the arrangement order of icons and the like displayed on the
また、ボディ制御部21は、ファインダー8の装着前に表示部25の肩部分25Bに表示していたアイコン等を、表示部25の肩部分25Bに表示するライブビュー画像に重ねて重畳表示させるようにしてもよい。ライブビュー画像に重ねて表示したアイコン等は、ユーザーが接眼レンズ82を介してライブビュー画像とともに視認することができる。
Further, the
さらに、ボディ制御部21は、接眼レンズ82を介して観察可能なアイコン等が第1の実施形態において説明した設定変更の対象になっている場合は、設定変更対象となっていない他のアイコン等との間で表示態様を異ならせることによって、設定変更の対象になってアイコン等をユーザーに対して分かりやすく表示する。
Further, when an icon or the like that can be observed through the
ユーザーがファインダー8を介してライブビュー画像を確認しているため、各種撮像条件の設定や変更が困難な場合がある。しかし、第1の実施形態で説明したように、ボディ制御部21により複数の面に跨る操作、単独の面における操作、複数の面の境界に相当する湾曲部25Cにおける操作を検出できるようにすることで、ユーザーの操作性が向上する。換言すると、表示部25におけるユーザーの操作領域を、表示部25の形状が異なる領域もしくは形状が異なる領域を跨った領域に設けることで、ユーザーがファインダー8を覗きながらでもその領域の位置を容易に特定することができる。
Since the user confirms the live view image via the
またボディ制御部21は、ユーザーがファインダー8を介してライブビュー画像を確認していることを検出した場合、ユーザーが湾曲部25Cの領域をタッチ操作した領域に、図4に示す条件i7〜i9のいずれかを1つ若しくは複数を表示するようにしてもよい。ボディ制御部21は、1つの条件のみ表示する場合は、設定されている露出モードに応じて、表示される条件を条件i7〜i9の中から表示させる条件を選択するようにしてもよい。具体的には、Aモードに設定されている場合は条件i7(絞り値)を表示させ、Sモードに設定されている場合は条件i8(シャッター速度)を表示させる。
Further, when the
ダイヤルが着脱可能に構成された場合、ボディ制御部21は、ダイヤルがカメラボディ2に装着されたこと、およびその装着位置は、タッチ操作部材25Sによって検出され、ボディ制御部21へ伝えられる。ボディ制御部21は、ダイヤルの装着が検出されると、表示部25の肩部分25Bのうちダイヤルが装着された位置に図14〜図19に示したようなダイヤル操作に関する表示を表示させるようにしてもよい。カメラボディ2に対するダイヤルの固定は、マグネットの磁力を用いて行ってもよいし、バネ力によってカメラボディ2を前後から挟む構成にしてもよい。
When the dial is configured to be detachable, the
<フローチャートの説明>
図53は、上述したファインダー8を使用する場合にボディ制御部21が実行するEVF表示変更処理の流れを説明するフローチャートである。ボディ制御部21は、カメラ1が起動されている場合に、図53に例示する処理を所定時間ごとに実行する。
<Explanation of flowchart>
FIG. 53 is a flowchart for explaining a flow of EVF display change processing executed by the
図53のステップS510において、ボディ制御部21は、ファインダー8が装着されたか否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号がファインダー8の装着を示すと、ステップS510を肯定判定してステップS520へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号がファインダー8の装着を示さない場合には、ステップS510を否定判定して図53による処理を終了する。
In step S510 of FIG. 53, the
ステップS520において、ボディ制御部21は、表示部25の肩部分25Bに表示するアイコン等の並び替えを行ってステップS530へ進む。ボディ制御部21は上述したように、アイコン等を縮小表示したり、ファインダー8の装着時用にあらかじめ定められたアイコン等のみを表示したり、表示するアイコン等の並び順を異ならせたりする。
In step S520, the
ステップS530において、ボディ制御部21は、表示部25の肩部分25Bに表示するEVF画像を生成してステップS540へ進む。具体的には、表示部25の背面25Aに表示するライブビュー画像に基づき、表示部25の肩部分25Bに表示し得るサイズの縮小画像を生成する。
In step S530, the
ステップS540において、ボディ制御部21は、表示部25の肩部分25Bのうち、ファインダー8の装着が検出された位置(接眼レンズ82を介して観察可能な表示の範囲)に、上記EVF画像の表示を開始させてステップS550へ進む。
なお、ボディ制御部21は、EVF画像の表示を開始させると表示部25の背面25Aに表示していたライブビュー画像の表示を終了させる。
In step S540, the
Note that when the display of the EVF image is started, the
ステップS550において、ボディ制御部21は、ファインダー8の装着位置が移動されたか否かを判定する。ボディ制御部21は、タッチ操作部材25Sからの検出信号がファインダー8の移動を示すと、ステップS550を肯定判定してステップS560へ進む。ボディ制御部21は、タッチ操作部材25Sからの検出信号がファインダー8の移動を示さない場合には、ステップS550を否定判定して図53による処理を終了する。
In step S550, the
ステップS560において、ボディ制御部21は、表示部25の肩部分25Bに表示するアイコン等の並び替えを行ってステップS570へ進む。ファインダー8の装着位置の移動にともなって、表示するアイコン等の並び順を変更するためである。
In step S560, the
ステップS570において、ボディ制御部21は、表示部25の肩部分25Bのうち、ファインダー8の移動先の位置(接眼レンズ82を介して観察可能な表示の範囲)へ、上記EVF画像の表示位置を移動させて図53による処理を終了する。
In step S570, the
[実施例1]
以下に、具体的な外観を示して第2の実施形態に係る実施例1を説明する。
図54〜図59は、実施例1に係るカメラボディ2の形状を示す6面図である。図54は、カメラボディ2の正面図である。図55は、カメラボディ2の左側面図である。図56は、カメラボディ2の平面図である。図57は、カメラボディ2の下面図である。図58は、カメラボディ2の右側面図である。図59は、カメラボディ2の背面図である。
[Example 1]
Hereinafter, Example 1 according to the second embodiment will be described with a specific appearance.
54 to 59 are six views showing the shape of the
図60は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2には、グリップG1が設けられている。グリップG1は、カメラボディ2の正面のボディ側マウント201の左側において、カメラボディ2の本体部の上部と下部とにそれぞれつながっている。グリップG1とカメラボディ2の本体部との間には、左右方向に貫通された空間を有している。
FIG. 60 is a perspective view including the front, top and right sides of the
グリップG1を備えることにより、本体部の正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2のグリップG1をつかみ、右手の指でカメラボディ2の操作部材26(レリーズボタン、ダイヤル)を操作する。
By providing the grip G1, the user can stably hold the
グリップG1とカメラボディ2の本体部との間に空間を設けたことにより、ユーザーがカメラボディ2を持つ場合に空間に指をかけたり、空間に指を通したりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。
By providing a space between the grip G1 and the main body of the
また、グリップG1とカメラボディ2の本体部との間に空間を設けたことにより、この空間を塞ぐ場合に比べて、カメラボディ2の軽量化を図ることができる。
Further, by providing a space between the grip G1 and the main body of the
本体部の前方(正面側)に傾斜している部分には、ダイヤル(操作部材26)が設けられている。ダイヤル(操作部材26)を本体部の傾斜している部分に設けたことにより、ダイヤル(操作部材26)を本体部の背面に設ける場合に比べて、ユーザーの指が届きやすくなり、操作しやすくなる。 A dial (operation member 26) is provided at a portion inclined forward (front side) of the main body. By providing the dial (operation member 26) on the inclined portion of the main body, it is easier for the user's fingers to reach and operate than when the dial (operation member 26) is provided on the back of the main body. Become.
また、本体部の前方(正面側)に傾斜している部分には、この傾斜部分を跨ぐようにファインダー8が装着される。ファインダー8の装着位置は、カメラボディ2の本体部に設けられているボディ側マウント201に対して左寄りでも、ボディ側マウント201に対して真上でも、ボディ側マウント201に対して右寄りでも、自由に移動させることができる。
Further, a
ファインダー8の装着位置を変更可能に構成したことにより、ユーザーの効き目、ユーザーの鼻の位置を考慮して最適な位置にファインダー8を装着することができる。
By configuring so that the mounting position of the
上述した第2の実施形態によれば、第1の実施形態と同様の作用効果に加えて、以下の作用効果が得られる。
(1)カメラボディ2は、表示部25の肩部分25Bに対する着脱式のファインダー8の装着を検出するタッチ操作部材25Sを備え、ボディ制御部21は、タッチ操作部材25Sでファインダー8の装着が検出された場合に、ファインダー8を介して視認される画像を表示部25の肩部分25Bに表示させる。これにより、専用のEVF表示器を備えなくてもEVF画像を観察することができる。
According to 2nd Embodiment mentioned above, in addition to the effect similar to 1st Embodiment, the following effects are obtained.
(1) The
・ タッチ操作部材25Sは、表示部25の肩部分25Bの表示面に対するファインダー8の装着位置を検出し、ボディ制御部21は、表示部25の肩部分25Bにおいて、タッチ操作部材25Sで検出されたファインダー8の装着位置にファインダー8を介して視認される画像を表示させる。これにより、表示部25の肩部分25Bに対するファインダー8の装着位置の自由度を高めることができる。
The
(3)ボディ制御部21は、タッチ操作部材25Sでファインダー8の装着が検出された場合に、表示部25の肩部分25Bにおいて、ファインダー8を介して視認される画像の表示を開始させる。これにより、適切なタイミングでEVF画像の表示を始めることができる
(3) When the attachment of the
(4)ボディ制御部21は、タッチ操作部材25Sでファインダー8の装着位置の変更が検出された場合に、表示部25の肩部分25Bにおいて、ファインダー8を介して視認される画像の表示位置を変更する。これにより、ファインダー8の装着位置を変えた場合でも、適切な位置にEVF画像を表示させることができる。
(4) The
(第3の実施形態)
第3の実施形態に係るカメラ1と、第1の実施形態に係るカメラ1とは、カメラボディ2の外観が異なる点において相違する。
図61〜図66は、第3の実施形態に係るカメラボディ2の形状を示す6面図である。図61は、カメラボディ2の正面図である。図62は、カメラボディ2の左側面図である。図63は、カメラボディ2の平面図である。図64は、カメラボディ2の下面図である。図65は、カメラボディ2の右側面図である。図66は、カメラボディ2の背面図である。
(Third embodiment)
The
61 to 66 are six views showing the shape of the
図67は、カメラボディ2の正面、上面および右側面を含む斜視図である。カメラボディ2は、平板状に構成された本体部と、本体部の正面を覆うカバー状の部材とが備わり、両者が本体部の上端と下端とにおいてそれぞれつながっている。カバー状の部材には、本体部の正面のボディ側マウント201が露出するように開口A1が設けられている。カバー状の部材にはさらに、本体部の正面側から見てボディ側マウント201の左側に、ユーザーの指かけ開口A2が設けられている。
FIG. 67 is a perspective view including the front surface, top surface, and right side surface of the
カメラボディ2を構成するカバー状の部材と本体部との間には、左右方向に貫通された空間を有している。この空間を囲む面には、放熱用のフィン70が多数形成されている。
A space penetrating in the left-right direction is provided between the cover-like member constituting the
カメラボディ2を構成するカバー状の部材と本体部の外側面には、例えばフレキシブル液晶パネルが設けられている。フレキシブル液晶パネルは、第1の実施形態の説明において参照した図2の表示部25に相当する。第3の実施形態では、カメラボディ2の背面から上面、上面から正面、正面から下面、下面から背面にかけて、表示部25およびタッチ操作部材25Sが備わる。つまり、上面、下面、正面、背面という異なる面において、表示部25が設けられている。なお、下面については、表示部25およびタッチ操作部材25Sを備えるようにしてもよい。その場合、第3の実施形態では、背面と、肩部分の曲面と、前面とにそれぞれ表示領域が設けられている。これら各面の表示領域は、たとえば、1枚のフレキシブル液晶パネルで構成する。なお、背面用液晶パネルと、肩部分の曲面用液晶パネルと、前面用液晶パネルとの3枚で表示部25を構成してもよい。また、3枚の液晶パネルに代えて2枚の液晶パネルで3つの面の表示領域を構成してもよい。つまり背面用液晶パネルと曲面用液晶パネルとを連続した1枚の液晶パネルにより構成し、前面用液晶パネルを1枚の液晶パネルにより構成するようにしてもよい。また、背面用液晶パネルを1枚の液晶パネルにより構成し、肩部分の曲面用液晶パネルと前面用液晶パネルとを連続した1枚の液晶パネルにより構成するようにしてもよい。
A flexible liquid crystal panel, for example, is provided on the outer surface of the cover-like member and the main body that constitute the
表示部25は、ボディ制御部21の指示に応じて画像を再生表示したり、シャッター速度、絞り値、撮像枚数などのカメラ情報や、カメラボディ2に各種設定操作を行うための操作部情報や、操作メニュー画面を表示したりする。
The
指かけ開口A2を備えることにより、本体部の正面と背面との間が薄く構成されたカメラボディ2を、ユーザーが撮像時に安定して構えることができる。例えば、焦点距離が長い交換レンズ3をカメラボディ2と組み合わせて使用する場合、不図示の交換レンズ3の鏡筒を左手で支え、右手でカメラボディ2の指かけ開口A2および指かけ開口A2の周囲をつかみ、右手の指でカメラボディ2の操作部材26を操作する。
By providing the finger opening A2, the user can stably hold the
ユーザーは、指かけ開口A2に指をかけたり、カメラボディ2を構成するカバー状の部材と本体部との間の空間に指を入れたりするなど、カメラボディ2の持ち方、カメラボディ2の支持方法のバリーエーションが豊富になる。
The user puts his / her finger on the finger-holding opening A2 or puts his / her finger into the space between the cover-like member constituting the
また、カメラボディ2を構成するカバー状の部材と本体部との間の空間を囲む面に放熱用のフィン70を設けたことにより、カメラボディ2の放熱特性を高めることができる。
Further, by providing the
上述した第3の実施形態によれば、第1の実施形態と同様の作用効果に加えて、以下の作用効果が得られる。
カメラボディ2の背面から上面、上面から正面にかけて、表示部25およびタッチ操作部材25Sを備えたので、従来にない操作を実現できる。図68は、新しい操作態様を例示する図である。ユーザーは、ライブビューモードにおいて、表示部25にふれる指を、背面から上面、上面から正面へと移動させる操作を行う。ボディ制御部21は、背面から上面、上面から正面へと移動する操作を検出すると、例えば、自分撮りモードへ切り替える。自分撮りモードでは、ライブビュー画像やアイコン等を、カメラボディ2の正面や上面(表示部25)に表示させる。なお、ユーザーが、背面を操作し、上面を操作せず、所定時間たとえば1秒以内に表面を操作する連続した操作により、自分撮りモードへ切り替えるようにしてもよい。つまり、ボディ制御部21は、異なる面において、連続した操作を検出すると、所定の処理を行うことができる。
According to the third embodiment described above, in addition to the same functions and effects as those of the first embodiment, the following functions and effects can be obtained.
Since the
次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。
(変形例1)
図69は、新しい操作を説明する図である。例えば、第1の実施形態において説明した再生設定1のように、表示部25の背面25Aに再生画像を表示させている場合において、湾曲部25Cを跨ぐ操作によって、再生画像のデータを他の電子機器へ送信するように構成する。
The following modifications are also within the scope of the present invention, and one or a plurality of modifications can be combined with the above-described embodiment.
(Modification 1)
FIG. 69 is a diagram for explaining a new operation. For example, in the case where the playback image is displayed on the
図69の例では、あらかじめカメラボディ2が、人物Aが携帯する不図示の電子機器と、人物Bが携帯する不図示の電子機器との間でそれぞれ無線通信を確立させているものとする。ユーザーは、背面25Aに表示されているサムネイル画像に対応する画像を人物Aの電子機器へ無線送信させたい場合、サムネイル画像をドラッグ操作するかのように、表示部25の背面25Aから、湾曲部25Cを跨いで肩部分25Bへ大きくずらし、さらに肩部分25Bにおいて人物A方向に指をずらす操作を行う。ボディ制御部21は、上記ドラッグ操作の対象となったサムネイル画像に対応する画像のデータを人物Aの電子機器へ無線送信する。
In the example of FIG. 69, it is assumed that the
同様に、ユーザーは、背面25Aに表示されているサムネイル画像に対応する画像を人物Bの電子機器へ無線送信させたい場合、サムネイル画像をドラッグ操作するかのように、表示部25の背面25Aから、湾曲部25Cを跨いで肩部分25Bへ大きくずらし、さらに肩部分25Bにおいて人物B方向に指をずらす操作を行う。ボディ制御部21は、上記ドラッグ操作の対象となったサムネイル画像に対応する画像のデータを人物Bの電子機器へ無線送信する。
Similarly, when the user wants to wirelessly transmit an image corresponding to the thumbnail image displayed on the
(変形例2)
上述した説明では、電子機器としてカメラ1を例に説明したが、スマートフォンのようにカメラ機能を備えた高機能携帯電話機や、タブレット端末などのモバイル機器によって構成してもよい。
(Modification 2)
In the above description, the
(変形例3)
また、電子機器は、カメラ機能を備えていない再生機器であってもよい。
(変形例4)
第1の実施形態と第2実施の形態では、表示部25は、1枚のフレキシブル液晶パネルによって構成されるものとして説明した。表示部25を1枚の液晶パネルで構成せず、複数枚の液晶パネルで構成しても良い。たとえば、背面25A用の背面パネルと、肩部分25B用の上面パネルとの2枚で表示部25を構成しても良い。
(Modification 3)
The electronic device may be a playback device that does not have a camera function.
(Modification 4)
In the first embodiment and the second embodiment, the
(変形例5)
第1の実施形態と第2の実施形態では、背面25Aと肩部分25Bの表示領域をそれぞれ平面とし、所定の交差角度で連続するものとし、かつ、背面25Aと肩部分25Bとを所定の曲面で接続した。肩部分25Bの表示領域を、平面の代わりに曲面としても良い。
(Modification 5)
In the first embodiment and the second embodiment, the display areas of the
(変形例6)
第1の実施形態と第2の実施形態では、背面25Aと肩部分25Bの表示領域を連続する1枚の液晶パネルとして説明した。背面25Aと肩部分25Bの接続領域に3つ目の表示領域を設定してもよい。つまり湾曲部25Cを第3の表示領域としてもよい。この第3の表示領域と、背面25Aと肩部分25Bとをそれぞれ別々の液晶パネルで構成してもよい。また、第3の表示領域を曲面としても良い。また、背面25Aと湾曲部25Cとを連続する1枚の液晶パネルにより構成するようにし、肩部分25Bを1枚の液晶パネルにより構成するようにしてもよい。また、背面25Aを1枚の液晶パネルで構成し、肩部分25Bと湾曲部25Cとを連続する1枚の液晶パネルにより構成するようにしてもよい。
(Modification 6)
In the first embodiment and the second embodiment, the display area of the
(変形例7)
液晶パネルに代えて、有機化合物を用いた有機エレクトロルミネッセンス(有機ディスプレイ)を表示部25として用いても良い。
(Modification 7)
Instead of the liquid crystal panel, organic electroluminescence (organic display) using an organic compound may be used as the
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。すなわち、本発明は、本体部の第1の面に設けられた第1表示部と、本体部の第1の面とは異なる第2の面に設けられた第2表示部と、第1の面に対する第1操作と、第2の面に対する第2操作を検出する検出部と、検出部の検出位置に基づき、所定の処理を行う処理部とを備える種々の電子機器に適用することができる。 Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention. That is, the present invention provides a first display unit provided on the first surface of the main body unit, a second display unit provided on a second surface different from the first surface of the main body unit, The present invention can be applied to various electronic devices including a first operation on the surface, a detection unit that detects the second operation on the second surface, and a processing unit that performs a predetermined process based on the detection position of the detection unit. .
したがって、各構成要素を各実施形態、実施例で説明した素子、部品以外のもので構成しても良い。処理部で実行される処理も、第1の面と第2の面に対するユーザー指示操作に基づく種々の処理を含み、上記実施形態や実施例で説明した処理に限定されない。
また、カメラボディ2が平板状であることは、必須の構成ではない。すなわち、略立方体形状の筐体ケースに背面25A、肩部分25Bを設けた形状であってもよい。
Therefore, each component may be configured by elements other than the elements and components described in the embodiments and examples. The processing executed by the processing unit also includes various processing based on user instruction operations on the first surface and the second surface, and is not limited to the processing described in the above embodiments and examples.
Moreover, it is not an essential structure that the
1…カメラ
2…カメラボディ
3…交換レンズ
8…ファインダー
21…ボディ制御部
25…表示部
25A…背面
25B…肩部分
25C…湾曲部
25S…タッチ操作部材
26…操作部材
35…レンズ制御部
A1…開口
A2…指かけ開口
G1、G2、G3…グリップ
DESCRIPTION OF
Claims (19)
前記本体部の前記第1の面とは異なる第2の面に設けられた第2表示部と、
前記第1の面に対する第1操作と、前記第2の面に対する第2操作を検出する検出部と、
前記検出部の検出位置に基づき、所定の処理を行う処理部と、を備えた電子機器。 A first display provided on the first surface of the main body,
A second display portion provided on a second surface different from the first surface of the main body portion;
A detection unit that detects a first operation on the first surface and a second operation on the second surface;
An electronic apparatus comprising: a processing unit that performs predetermined processing based on a detection position of the detection unit.
前記処理部は、前記検出部が前記第1操作の後に前記第2操作を検出すると、前記所定の処理を行う電子機器。 The electronic device according to claim 1,
The processing unit is an electronic device that performs the predetermined process when the detection unit detects the second operation after the first operation.
前記処理部は、前記第1の面と前記第2の面との間を跨ぐ指示操作が前記検出部で検出された場合に第1の処理を行い、前記第1の面と前記第2の面との間を跨がない指示操作が前記検出部で検出された場合に第2の処理を行う電子機器。 The electronic device according to claim 2,
The processing unit performs a first process when an instruction operation straddling between the first surface and the second surface is detected by the detection unit, and performs the first processing and the second surface. An electronic device that performs a second process when an instruction operation that does not straddle a surface is detected by the detection unit.
前記処理部は、前記所定処理として電子機器が備えるいずれかの機能の設定を行い、
前記第1の処理は、前記検出部により前記跨ぐ指示操作が検出されると前記機能の一覧を前記第1表示部または前記第2表示部に表示するとともに、前記表示された前記機能の一覧から前記跨がない指示操作によって前記機能を設定し、
前記第2の処理は、前記第1表示部または前記第2表示部に前記機能が表示されているとき、前記跨がない指示操作によって前記機能を変更する電子機器。 The electronic device according to claim 3,
The processing unit performs setting of any function included in the electronic device as the predetermined processing,
The first process displays the function list on the first display unit or the second display unit when the detection operation is detected by the detection unit, and from the displayed function list. Set the function by the instruction operation that does not straddle,
The second process is an electronic device that changes the function by an instruction operation that does not straddle when the function is displayed on the first display unit or the second display unit.
前記処理部は、前記所定処理として電子機器が備えるいずれかの機能の設定を行い、
前記第1の処理は、前記跨ぐ指示操作に基づき前記設定する値を第1分解能で変更し、
前記第2の処理は、前記跨がない指示操作に基づき前記設定する値を前記第1分解能より小さい第2分解能で変更する電子機器。 The electronic device according to claim 3,
The processing unit performs setting of any function included in the electronic device as the predetermined processing,
The first process changes the set value based on the stride instruction operation with a first resolution,
The second process is an electronic apparatus in which the set value is changed with a second resolution smaller than the first resolution based on the instruction operation without straddling.
前記処理部は、
前記第1の処理の際に、前記設定する値を示す第1スケールを前記第1表示部から前記第2表示部に跨いで表示し、
前記第2の処理の際に、前記設定する値を示す前記第1スケールより細かい第2スケールを前記第1表示部から前記第2表示部に跨いで表示する電子機器。 The electronic device according to claim 5,
The processor is
In the first process, a first scale indicating the set value is displayed across the second display unit from the first display unit,
An electronic apparatus that displays a second scale smaller than the first scale indicating the value to be set across the second display unit from the first display unit during the second process.
前記処理部は、前記所定処理として電子機器が備えるいずれかの機能の設定を行い、
前記第1の処理は、前記第1表示部または前記第2表示部に表示されている前記設定する値を用いた所定処理を実行し、
前記第2の処理は、前記第1表示部または前記第2表示部に表示されている前記設定する値の表示を前記跨がない指示操作に基づき変更する電子機器。 The electronic device according to claim 3,
The processing unit performs setting of any function included in the electronic device as the predetermined processing,
The first process executes a predetermined process using the set value displayed on the first display unit or the second display unit,
The second process is an electronic device that changes the display of the set value displayed on the first display unit or the second display unit based on the instruction operation without straddling.
前記処理部は、前記第1の面から前記第2の面、または前記第2の面から前記第1の面へ向かう第1方向へ前記跨がない指示操作が前記検出部で検出された場合に前記第2の処理を行うとともに、前記第1方向と交差する第2方向へ前記跨がない指示操作が前記検出部で検出された場合に第3の処理を行う電子機器。 The electronic device according to claim 7,
In the case where the detection unit detects an instruction operation that does not straddle in the first direction from the first surface to the second surface or from the second surface to the first surface. An electronic device that performs the second process and performs the third process when an instruction operation that does not cross the second direction intersecting the first direction is detected by the detection unit.
前記機能の設定は、画像に対するエフェクト処理の設定であり、
前記第1の処理は、前記第1表示部または前記第2表示部に表示されているエフェクト処理を画像に対して実行し、
前記第2の処理は、前記第1表示部または前記第2表示部に表示される前記エフェクト処理を前記跨がない指示操作に基づき選択し、
前記第3の処理は、前記エフェクト機能の強さを前記跨がない指示操作に基づき変更する電子機器。 The electronic device according to claim 8,
The setting of the function is a setting of effect processing for an image,
The first process performs an effect process displayed on the first display unit or the second display unit on an image,
The second process selects the effect process displayed on the first display unit or the second display unit based on the instruction operation without straddling,
The third process is an electronic device that changes the strength of the effect function based on the instruction operation without straddling.
前記処理部は、前記検出部が前記第1操作とともに前記第2操作を検出すると、前記所定の処理を行う電子機器。 The electronic device according to claim 1,
The processing unit is an electronic device that performs the predetermined process when the detection unit detects the second operation together with the first operation.
前記検出部は、前記第1の面に対する操作の指と前記第2の面に対する操作の指とが互いに接近する操作を検出すると、前記所定の処理として、それ以前に設定した内容をキャンセルするリセット処理またはアンドゥー処理を行う電子機器。 The electronic device according to claim 10,
When the detection unit detects an operation in which an operation finger on the first surface and an operation finger on the second surface approach each other, the predetermined processing cancels the previously set content as the predetermined process Electronic equipment that performs processing or undo processing.
前記第1表示部の表示面に対する着脱式のファインダーの装着を検出する検出部を備え、
前記処理部は、前記検出部で前記ファインダーの装着が検出された場合に、前記ファインダーを介して視認される画像を前記第1表示部に表示させる電子機器。 The electronic device according to claim 1,
A detection unit for detecting attachment of a detachable finder to the display surface of the first display unit;
The processing unit is an electronic device that causes the first display unit to display an image that is visually recognized through the viewfinder when the detection unit detects attachment of the viewfinder.
前記検出部は、前記第1表示部の表示面に対する前記ファインダーの装着位置を検出し、
前記処理部は、前記第1表示部において、前記検出部で検出された前記ファインダーの装着位置に前記ファインダーを介して視認される画像を表示させる電子機器。 The electronic device according to claim 12,
The detection unit detects a mounting position of the finder with respect to a display surface of the first display unit,
The processing unit is an electronic device that causes the first display unit to display an image visually recognized through the finder at a position where the finder is detected detected by the detection unit.
前記処理部は、前記検出部で前記ファインダーの装着が検出された場合に、前記第1表示部において、前記ファインダーを介して視認される画像の表示を開始させる電子機器。 The electronic device according to claim 13,
The processing unit is an electronic device that causes the first display unit to start displaying an image that is visually recognized through the finder when the detection unit detects attachment of the finder.
前記処理部は、前記検出部で前記ファインダーの装着位置の変更が検出された場合に、前記第1表示部において、前記ファインダーを介して視認される画像の表示位置を変更する電子機器。 The electronic device according to claim 14,
The processing unit is an electronic device that changes a display position of an image visually recognized through the finder in the first display unit when the detection unit detects a change in the finder mounting position.
前記本体部の一端に配置した空洞グリップを備えた電子機器。 The electronic device according to claim 1,
An electronic device including a hollow grip disposed at one end of the main body.
前記空洞グリップの側方は開放されている電子機器。 The electronic device according to claim 16, wherein
An electronic device in which a side of the hollow grip is open.
前記空洞グリップ内に放熱部を形成した電子機器。 The electronic device according to claim 16, wherein
An electronic device in which a heat dissipation portion is formed in the hollow grip.
前記空洞グリップ内にアクセサリ増設部、あるいは操作部を設けた電子機器。
The electronic device according to any one of claims 16 to 18,
An electronic device in which an accessory expansion part or an operation part is provided in the hollow grip.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015086322A JP2016208196A (en) | 2015-04-20 | 2015-04-20 | Electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015086322A JP2016208196A (en) | 2015-04-20 | 2015-04-20 | Electronic apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016208196A true JP2016208196A (en) | 2016-12-08 |
JP2016208196A5 JP2016208196A5 (en) | 2018-12-27 |
Family
ID=57487894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015086322A Pending JP2016208196A (en) | 2015-04-20 | 2015-04-20 | Electronic apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016208196A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110537363A (en) * | 2017-04-28 | 2019-12-03 | 卡尔蔡司股份公司 | Digital camera |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004064205A (en) * | 2002-07-25 | 2004-02-26 | Fuji Photo Film Co Ltd | Photographing apparatus and operation panel composed of touch panel |
JP2008011232A (en) * | 2006-06-29 | 2008-01-17 | Fujifilm Corp | Digital camera |
JP2010035107A (en) * | 2008-07-31 | 2010-02-12 | Fujifilm Corp | Imaging apparatus |
JP2011154507A (en) * | 2010-01-27 | 2011-08-11 | Olympus Imaging Corp | Input device and input method |
JP2014056470A (en) * | 2012-09-13 | 2014-03-27 | Canon Inc | Imaging device, control method therefor, program, and recording medium |
WO2014192344A1 (en) * | 2013-05-28 | 2014-12-04 | シャープ株式会社 | Touch panel device and touch-panel-equipped display device |
US20160062506A1 (en) * | 2014-09-03 | 2016-03-03 | Samsung Display Co., Ltd. | Display apparatus |
-
2015
- 2015-04-20 JP JP2015086322A patent/JP2016208196A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004064205A (en) * | 2002-07-25 | 2004-02-26 | Fuji Photo Film Co Ltd | Photographing apparatus and operation panel composed of touch panel |
JP2008011232A (en) * | 2006-06-29 | 2008-01-17 | Fujifilm Corp | Digital camera |
JP2010035107A (en) * | 2008-07-31 | 2010-02-12 | Fujifilm Corp | Imaging apparatus |
JP2011154507A (en) * | 2010-01-27 | 2011-08-11 | Olympus Imaging Corp | Input device and input method |
JP2014056470A (en) * | 2012-09-13 | 2014-03-27 | Canon Inc | Imaging device, control method therefor, program, and recording medium |
WO2014192344A1 (en) * | 2013-05-28 | 2014-12-04 | シャープ株式会社 | Touch panel device and touch-panel-equipped display device |
US20160062506A1 (en) * | 2014-09-03 | 2016-03-03 | Samsung Display Co., Ltd. | Display apparatus |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110537363A (en) * | 2017-04-28 | 2019-12-03 | 卡尔蔡司股份公司 | Digital camera |
JP2020519921A (en) * | 2017-04-28 | 2020-07-02 | カール・ツアイス・アーゲー | Digital camera |
US10999514B2 (en) | 2017-04-28 | 2021-05-04 | Carl Zeiss Ag | Digital camera |
CN110537363B (en) * | 2017-04-28 | 2021-09-07 | 卡尔蔡司股份公司 | Digital camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6765956B2 (en) | Imaging control device and its control method | |
JP4510713B2 (en) | Digital camera | |
JP5652652B2 (en) | Display control apparatus and method | |
KR101624218B1 (en) | Digital photographing apparatus and controlling method thereof | |
JP2013070303A (en) | Photographing device for enabling photographing by pressing force to screen, photographing method and program | |
JP6833505B2 (en) | Imaging control device and its control method | |
JP5709816B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM | |
JP2018133674A (en) | Imaging apparatus and control method of the same | |
JP2012095167A (en) | Imaging device | |
JP2018107713A (en) | Imaging control device and control method thereof | |
JP2012190183A (en) | Image processing device, method, and program | |
JP6512961B2 (en) | Imaging control apparatus, control method therefor, program, and storage medium | |
JPWO2018020789A1 (en) | Camera, camera setting method, and camera setting program | |
US11412140B2 (en) | Electronic device, control method of electronic device, and non-transitory computer-readable storage medium | |
JPWO2015170521A1 (en) | Imaging device | |
JP6334256B2 (en) | Imaging display device and imaging display method | |
JP2005143112A (en) | Camera and method concerning the same | |
JP2016103666A (en) | Electronic apparatus and imaging device | |
JP2012015619A (en) | Stereoscopic display device and stereoscopic photographing device | |
US20160212328A1 (en) | Haptic interface of image photographing device and control method thereof | |
JP2016208196A (en) | Electronic apparatus | |
JP2018107712A (en) | Imaging control device and control method thereof | |
JP5969847B2 (en) | Imaging device | |
JP5959297B2 (en) | Imaging device and imaging support method | |
JP6123562B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181116 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190205 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191126 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200602 |