JP6069922B2 - Electronic apparatus, imaging apparatus, and program - Google Patents

Electronic apparatus, imaging apparatus, and program Download PDF

Info

Publication number
JP6069922B2
JP6069922B2 JP2012158106A JP2012158106A JP6069922B2 JP 6069922 B2 JP6069922 B2 JP 6069922B2 JP 2012158106 A JP2012158106 A JP 2012158106A JP 2012158106 A JP2012158106 A JP 2012158106A JP 6069922 B2 JP6069922 B2 JP 6069922B2
Authority
JP
Japan
Prior art keywords
display
camera
unit
panel
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012158106A
Other languages
Japanese (ja)
Other versions
JP2014022850A (en
Inventor
加藤 丈晴
丈晴 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012158106A priority Critical patent/JP6069922B2/en
Publication of JP2014022850A publication Critical patent/JP2014022850A/en
Application granted granted Critical
Publication of JP6069922B2 publication Critical patent/JP6069922B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、電子機器、撮像装置およびプログラムに関する。   The present invention relates to an electronic device, an imaging device, and a program.

バリアングル型液晶モニターを持つ装置として、液晶モニターが反転して収容された場合に、液晶モニター上に背面の操作スイッチと同じ機能を持つタッチパネルキーを表示する装置が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2008−305140号公報
As a device having a vari-angle type liquid crystal monitor, there is known a device that displays a touch panel key having the same function as the operation switch on the back on the liquid crystal monitor when the liquid crystal monitor is housed in an inverted manner (for example, a patent) Reference 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2008-305140 A

本体部に対して表示面の角度を可変な表示部を設けた場合、表示面に表示させる第1オブジェクトと第2オブジェクトとの位置関係を、本体部に対する表示面の角度に応じて異ならせて表示させることができないという課題があった。例えば、本体部に対する表示面の角度に応じて複数のオブジェクトを適切な位置関係で表示させることができない。   When a display unit having a variable display surface angle with respect to the main body unit is provided, the positional relationship between the first object and the second object displayed on the display surface is varied according to the angle of the display surface with respect to the main body unit. There was a problem that it could not be displayed. For example, a plurality of objects cannot be displayed in an appropriate positional relationship according to the angle of the display surface with respect to the main body.

本発明の第1の態様においては、電子機器は、本体部と、表示面を有する表示部と、表示部および本体部を、本体部に対する表示面の角度を可変に連結する連結部と、表示面に表示させる第1オブジェクトと第2オブジェクトとの位置関係を、本体部に対する表示面の角度に応じて異ならせて表示させる表示制御部とを備える。   In the first aspect of the present invention, the electronic device includes a main body portion, a display portion having a display surface, a display portion and a main body portion, a connection portion that variably connects an angle of the display surface with respect to the main body portion, and a display. A display control unit configured to display the positional relationship between the first object and the second object displayed on the screen in accordance with the angle of the display surface with respect to the main body unit;

本発明の第2の態様においては、撮像装置は、上記電子機器と撮像部とを備える。   In a second aspect of the present invention, an imaging device includes the electronic device and an imaging unit.

本発明の第3の態様においては、本体部、表示面を有する表示部、および、表示部と本体部とを本体部に対する表示面の角度を可変に連結する連結部を備える電子機器用のプログラムであって、表示面に表示させる第1オブジェクトと第2オブジェクトとの位置関係を、本体部に対する表示面の角度に応じて異ならせて表示させる表示制御ステップをコンピュータに実行させる。   According to a third aspect of the present invention, there is provided a program for an electronic device including a main body, a display having a display surface, and a connecting portion that variably connects the display and the main body to the angle of the display surface with respect to the main body. In this case, the computer is caused to execute a display control step for displaying the positional relationship between the first object and the second object displayed on the display surface in accordance with the angle of the display surface with respect to the main body.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

カメラ10の利用場面の一例を示す。An example of the usage scene of the camera 10 is shown. カメラ10の利用場面の他の一例を示す。Another example of the usage scene of the camera 10 is shown. カメラ10のブロック構成の一例を示す。An example of a block configuration of the camera 10 is shown. パネル50が閉位置にある場合の表示例を模式的に示す。The example of a display in case the panel 50 exists in a closed position is shown typically. パネル50が開位置にある場合の表示例を模式的に示す。The example of a display in case the panel 50 exists in an open position is shown typically. パネル50が開位置にある場合の他の表示例を模式的に示す。The other example of a display in case the panel 50 exists in an open position is shown typically. パネル50が閉位置にある場合を模式的に示す。The case where the panel 50 exists in a closed position is shown typically. 水平回転検出部42および垂直回転検出部44の出力と表示制御との関係を模式的に示す。The relationship between the output of the horizontal rotation detection part 42 and the vertical rotation detection part 44 and display control is shown typically. ユーザがオブジェクト71aを操作している場面を模式的に示す。The scene where the user is operating the object 71a is shown typically. オブジェクト71の表示位置を設定する設定画面の一例を示す。An example of the setting screen which sets the display position of the object 71 is shown. オブジェクト71の表示位置が左側に設定された場合の表示態様の一例を示す。An example of the display mode when the display position of the object 71 is set to the left side is shown. カメラ10の起動から終了までの処理フローを示す。A processing flow from the start to the end of the camera 10 is shown. カメラ10が再生処理を行う場合のフローの一例を示す。An example of the flow in the case where the camera 10 performs a reproduction process is shown. 図4Bの状態における他の表示例を模式的に示す。The other display example in the state of FIG. 4B is shown typically. 他の表示態様の表示例を模式的に示す。The example of a display of another display mode is shown typically. 図11Aの状態における更なる他の表示例を模式的に示す。11B schematically shows still another display example in the state of FIG. 11A. 他の表示態様の表示例を模式的に示す。The example of a display of another display mode is shown typically.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須で2あるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Moreover, not all the combinations of features described in the embodiments are essential to the solving means of the invention.

図1は、カメラ10の利用場面の一例を示す。カメラ10は、パネル50、カメラ本体130およびレンズユニット120を備える。カメラ10は、撮像装置の一例としての、レンズ交換式の一眼レフレックスカメラである。レンズユニット120は、カメラ本体130に着脱可能に装着される。   FIG. 1 shows an example of a usage scene of the camera 10. The camera 10 includes a panel 50, a camera body 130, and a lens unit 120. The camera 10 is an interchangeable lens single-lens reflex camera as an example of an imaging apparatus. The lens unit 120 is detachably attached to the camera body 130.

パネル50は、表示面60を有する。パネル50は、連結部40によりカメラ本体130に連結される。連結部40は、パネル50およびカメラ本体130を、カメラ本体130に対する表示面60の角度を可変に連結する。連結部40は、カメラ本体130に対してパネル50を開閉可能に回動させるヒンジ部を有してよい。本図において、パネル50は、端部において連結部40でカメラ本体130と連結される。パネル50は、パネル50を開閉する第1の回転軸Aの周りに回動する。   The panel 50 has a display surface 60. The panel 50 is connected to the camera body 130 by the connecting portion 40. The connecting unit 40 connects the panel 50 and the camera body 130 variably with respect to the angle of the display surface 60 with respect to the camera body 130. The connection part 40 may have a hinge part that rotates the panel 50 so as to be openable and closable with respect to the camera body 130. In this figure, the panel 50 is connected to the camera body 130 at the end by a connecting portion 40. The panel 50 rotates around a first rotation axis A that opens and closes the panel 50.

カメラ本体130の筐体には、パネル50を収容する収容部30が形成されている。本図の状態からパネル50を、短辺に対応するA軸のまわりに回動させると、パネル50は、表示面60を内側にして収容部30に収容される。この状態では、パネル50をカメラ本体130に収容し、表示面60を外部から保護することができる。このように、パネル50は、カメラ本体130に対して開閉可能に設けられる。なお、A軸まわりの回転を水平方向の回転と呼ぶ場合がある。   A housing 30 for housing the panel 50 is formed in the housing of the camera body 130. When the panel 50 is rotated around the A axis corresponding to the short side from the state of this figure, the panel 50 is accommodated in the accommodating portion 30 with the display surface 60 inside. In this state, the panel 50 can be accommodated in the camera body 130 and the display surface 60 can be protected from the outside. Thus, the panel 50 is provided so as to be openable and closable with respect to the camera body 130. Note that rotation around the A axis may be referred to as horizontal rotation.

カメラ本体130は、操作部材の一例としてのマルチセレクタ11、コマンドダイヤル13、撮像モードダイヤル14を有する。カメラ10は、これらの操作部材を通じてユーザ操作を受け付けて、ユーザ指示を取得する。   The camera body 130 includes a multi selector 11, a command dial 13, and an imaging mode dial 14 as examples of operation members. The camera 10 receives a user operation through these operation members and acquires a user instruction.

パネル50は、表示面60に種々のオブジェクトを表示する表示機能を有する。また、パネル50は、表示面60を介してユーザ操作を受け付けるタッチパネル機能を有する。本図においては、タッチ操作用のオブジェクト70、撮像により得られた画像のオブジェクト90および画像情報を示すオブジェクト80が表示面60に表示された状態が例示されている。オブジェクト70は、画像を拡大表示する指示を受け付けるオブジェクト71a、画像を縮小表示する指示を受け付けるオブジェクト71b、オブジェクト90として表示されている画像の画像データをプロテクトする指示およびプロテクト解除する指示を受け付けるオブジェクト71c、および、当該画像データを削除する指示を受け付けるオブジェクト71dを含む。例えば、カメラ10は、表示面60においてオブジェクト71aを表示させた位置がタッチされたと判断した場合、画像を拡大表示する。なお、オブジェクト71は、ユーザ操作を受け付ける位置をユーザに示す第1オブジェクトの一例である。本実施例において、オブジェクト71は、カメラ10で撮像することにより生成された画像データに処理を施すためのユーザ操作を受け付ける位置をユーザに示すオブジェクトである。また、オブジェクト90は、第2オブジェクトの一例であり、当該画像データに基づいて表示される画像である。   The panel 50 has a display function for displaying various objects on the display surface 60. In addition, the panel 50 has a touch panel function that accepts a user operation via the display surface 60. In this figure, a state in which an object 70 for touch operation, an object 90 of an image obtained by imaging, and an object 80 indicating image information are displayed on the display surface 60 are illustrated. The object 70 includes an object 71a that receives an instruction to enlarge and display an image, an object 71b that receives an instruction to reduce and display an image, and an object 71c that receives an instruction to protect and unprotect image data of an image displayed as the object 90. , And an object 71d that receives an instruction to delete the image data. For example, when the camera 10 determines that the position where the object 71a is displayed on the display surface 60 is touched, the camera 10 displays an enlarged image. The object 71 is an example of a first object that indicates to the user a position where a user operation is accepted. In the present embodiment, the object 71 is an object that indicates to the user a position for accepting a user operation for processing image data generated by imaging with the camera 10. The object 90 is an example of a second object, and is an image displayed based on the image data.

パネル50が開かれた状態にある場合、カメラ10は、連結部40が設けられた側とは異なる側にオブジェクト71を表示させる。本図に例示した状態では、連結部40は表示面60の右側に位置するので、表示面60の左側にオブジェクト71を表示させる。このため、ユーザがパネル50のタッチパネル機能を使用する場合に、カメラ本体130が邪魔になってタッチ操作しにくくなることがない。このため、ユーザは、表示面60を見ながら、オブジェクト71の位置を容易にタッチすることができる。   When the panel 50 is in the opened state, the camera 10 displays the object 71 on a side different from the side where the connecting portion 40 is provided. In the state illustrated in this drawing, since the connecting portion 40 is located on the right side of the display surface 60, the object 71 is displayed on the left side of the display surface 60. For this reason, when the user uses the touch panel function of the panel 50, the camera body 130 does not get in the way to make it difficult to perform a touch operation. For this reason, the user can easily touch the position of the object 71 while looking at the display surface 60.

なお、本実施形態の説明では、表示面60における各オブジェクトの位置を表記する場合、各オブジェクトの内容をユーザが規定の方向で視認することができる向きを基準に表記する場合がある。例えば、図1等の例において、オブジェクト80に含まれるシャッタスピードを示す"1/125"の文字アイコンの文字を、ユーザが正しい向きで視認できる位置から見た場合に、オブジェクト71は表示面60の中心位置より右側に位置する。このような場合、オブジェクト71を"右側"と表記する場合がある。"左側"、"左端"、"右端"等の表記についても同様である。   In the description of the present embodiment, when the position of each object on the display surface 60 is described, the content of each object may be described on the basis of the direction in which the user can visually recognize the object in a specified direction. For example, in the example of FIG. 1 or the like, the object 71 is displayed on the display surface 60 when the character of the “1/125” character icon indicating the shutter speed included in the object 80 is viewed from a position where the user can visually recognize it in the correct orientation. It is located on the right side of the center position. In such a case, the object 71 may be described as “right side”. The same applies to notations such as “left side”, “left end”, and “right end”.

図2は、カメラ10の利用場面の他の一例を示す。本図は、図1の状態から、パネル50を第2の回転軸Bの周りに回転させた状態を示す。連結部40は、パネル50を2軸のまわりに独立して回転させる2軸回転ヒンジを有する。したがって、パネル50は、カメラ本体130の位置を固定した状態で、2軸のまわりにそれぞれ独立して回転することができる。本図の状態でも、パネル50が開いた状態にあるので、オブジェクト71は、連結部40とは反対側に表示される。本図の状態では、例えばカメラ10を下方に置いた状態で、表示面60を見ながら、容易にタッチ操作を行うことができる。このように、カメラ10は、いわゆるバリアングルの表示・操作部材であるパネル50を有する。このため、ユーザは、様々な体勢でカメラ10を操作することができる。   FIG. 2 shows another example of the usage scene of the camera 10. This figure shows a state in which the panel 50 is rotated around the second rotation axis B from the state of FIG. The connecting portion 40 has a two-axis rotating hinge that rotates the panel 50 about two axes independently. Therefore, the panel 50 can rotate independently about the two axes with the position of the camera body 130 fixed. Even in the state of this figure, since the panel 50 is in an open state, the object 71 is displayed on the side opposite to the connecting portion 40. In the state of this figure, for example, the touch operation can be easily performed while viewing the display surface 60 in a state where the camera 10 is placed below. As described above, the camera 10 includes the panel 50 that is a so-called vari-angle display / operation member. For this reason, the user can operate the camera 10 with various postures.

本図において、レリーズボタン12は、操作部材の一例である。また、カメラ本体130は、ユーザが把持するグリップ部20を有する。ユーザは、グリップ部20を右手で把持した状態で、マルチセレクタ11、レリーズボタン12、コマンドダイヤル13および撮像モードダイヤル14を、右手で操作することができる。例えば、カメラ10は、マルチセレクタ11が有する右ボタンの押し込みを検出した場合、表示順における次の画像を表示する。また、マルチセレクタ11が有する左ボタンの押し込みを検出した場合、表示順における前の画像を表示する。カメラ10は、これらの操作部材や、パネル50のタッチパネル機能を通じて、ユーザから様々な指示を受け付けることができる。   In this figure, the release button 12 is an example of an operation member. In addition, the camera body 130 includes a grip unit 20 that is held by a user. The user can operate the multi selector 11, the release button 12, the command dial 13, and the imaging mode dial 14 with the right hand while holding the grip unit 20 with the right hand. For example, when detecting the pressing of the right button of the multi-selector 11, the camera 10 displays the next image in the display order. Further, when pressing of the left button of the multi selector 11 is detected, the previous image in the display order is displayed. The camera 10 can accept various instructions from the user through these operation members and the touch panel function of the panel 50.

図3は、カメラ10のブロック構成の一例を示す。本図ではレンズユニット120が装着された状態のカメラ10のブロック構成を示す。   FIG. 3 shows an example of a block configuration of the camera 10. This figure shows a block configuration of the camera 10 with the lens unit 120 mounted.

レンズユニット120は、レンズマウント接点121を有するレンズマウントを備える。カメラ本体130は、カメラマウント接点131を有するカメラマウントを備える。レンズマウントとカメラマウントとが係合してレンズユニット120とカメラ本体130とが一体化されると、レンズマウント接点121とカメラマウント接点131とが接続される。レンズMPU123は、レンズマウント接点121およびカメラマウント接点131を介してカメラMPU140と接続され、相互に通信しつつ協働してレンズユニット120を制御する。   The lens unit 120 includes a lens mount having a lens mount contact 121. The camera body 130 includes a camera mount having a camera mount contact 131. When the lens mount and the camera mount are engaged and the lens unit 120 and the camera body 130 are integrated, the lens mount contact 121 and the camera mount contact 131 are connected. The lens MPU 123 is connected to the camera MPU 140 via the lens mount contact 121 and the camera mount contact 131, and controls the lens unit 120 in cooperation with each other while communicating with each other.

レンズユニット120は、レンズ群122、レンズ駆動部124およびレンズMPU123を有する。被写体光は、レンズユニット120が有する光学系としてのレンズ群122を光軸に沿って透過して、カメラ本体130に入射する。メインミラー145は、レンズ群122の光軸を中心とする被写体光束中に斜設される斜設状態と、被写体光束から退避する退避状態を取り得る。   The lens unit 120 includes a lens group 122, a lens driving unit 124, and a lens MPU 123. The subject light passes through the lens group 122 as an optical system of the lens unit 120 along the optical axis and enters the camera body 130. The main mirror 145 can take an oblique state where the main mirror 145 is obliquely provided in the subject light flux centered on the optical axis of the lens group 122 and a retreat state where the main mirror 145 is retracted from the subject light flux.

メインミラー145が斜設状態にある場合、メインミラー145は、レンズ群122を通過した被写体光束の一部を反射する。具体的には、斜設状態におけるメインミラー145の光軸近傍領域は、ハーフミラーとして形成されている。光軸近傍領域に入射した被写体光束の一部は透過し、他の一部は反射する。メインミラー145により反射された被写体光束はファインダ部147に導かれて、ユーザに観察される。ユーザは、ファインダ部147を通じて構図等を確認することができる。ファインダ部147は、被写体光束に基づく被写体像とともに、撮像動作の設定状態を示す情報等を含む種々の情報をユーザに提示する表示デバイスを含んでよい。   When the main mirror 145 is in an oblique state, the main mirror 145 reflects a part of the subject light flux that has passed through the lens group 122. Specifically, the region near the optical axis of the main mirror 145 in the oblique state is formed as a half mirror. Part of the subject luminous flux incident on the region near the optical axis is transmitted and the other part is reflected. The subject luminous flux reflected by the main mirror 145 is guided to the finder unit 147 and observed by the user. The user can check the composition and the like through the finder unit 147. The finder unit 147 may include a display device that presents various types of information including information indicating the setting state of the imaging operation to the user, along with the subject image based on the subject luminous flux.

メインミラー145の光軸近傍領域を透過した被写体光束の一部は、サブミラー146で反射されて、AFユニット142へ導かれる。AFユニット142は、被写体光束を受光する複数の光電変換素子列を有する。光電変換素子列は、合焦状態にある場合には位相が一致した信号を出力し、前ピン状態または後ピン状態にある場合には、位相ずれした信号を出力する。位相のずれ量は、焦点状態からのずれ量に対応する。AFユニット142は、光電変換素子列の出力を相関演算することで位相差を検出して、位相差を示す位相差信号をカメラMPU140へ出力する。   Part of the subject luminous flux that has passed through the region near the optical axis of the main mirror 145 is reflected by the sub mirror 146 and guided to the AF unit 142. The AF unit 142 includes a plurality of photoelectric conversion element arrays that receive a subject light beam. The photoelectric conversion element array outputs a signal with a phase match when in a focused state, and outputs a signal with a phase shift when in a front pin state or a rear pin state. The amount of phase shift corresponds to the amount of shift from the focus state. The AF unit 142 detects a phase difference by performing a correlation operation on the output of the photoelectric conversion element array, and outputs a phase difference signal indicating the phase difference to the camera MPU 140.

レンズ群122の焦点状態は、カメラMPU140等の制御により、AFユニット142からの位相差信号を用いて調節される。例えば、位相差信号から検出された焦点状態に基づき、カメラMPU140によってレンズ群122が含むフォーカスレンズの目標位置が決定され、決定された目標位置に向けてレンズMPU123の制御によってフォーカスレンズの位置が制御される。具体的には、レンズMPU123は、一例としてフォーカスレンズモータを含むレンズ駆動部124を制御して、レンズ群122を構成するフォーカスレンズを移動させる。このように、メインミラー145がダウンして斜設状態にある場合に、位相差検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。AFユニット142は、被写体像における複数の領域のそれぞれにおいて焦点状態を調節すべく、複数の領域にそれぞれ対応する複数の位置にそれぞれ光電変換素子列が設けられる。   The focus state of the lens group 122 is adjusted using the phase difference signal from the AF unit 142 under the control of the camera MPU 140 and the like. For example, the target position of the focus lens included in the lens group 122 is determined by the camera MPU 140 based on the focus state detected from the phase difference signal, and the position of the focus lens is controlled by the control of the lens MPU 123 toward the determined target position. Is done. Specifically, the lens MPU 123 controls the lens driving unit 124 including a focus lens motor as an example, and moves the focus lens constituting the lens group 122. As described above, when the main mirror 145 is down and in the inclined state, the focus state of the lens group 122 is detected by the phase difference detection method, and the focus adjustment is performed. The AF unit 142 is provided with photoelectric conversion element arrays at a plurality of positions respectively corresponding to the plurality of regions in order to adjust the focus state in each of the plurality of regions in the subject image.

測光素子144は、光学ファインダ部に導かれた光束の一部の光束を受光する。測光素子144が有する光電変換素子で検出された被写体の輝度情報は、カメラMPU140に出力される。カメラMPU140は、測光素子144から取得した輝度情報に基づき、AE評価値を算出して露出制御に用いる。   The photometric element 144 receives a part of the light beam guided to the optical viewfinder. The luminance information of the subject detected by the photoelectric conversion element included in the photometric element 144 is output to the camera MPU 140. The camera MPU 140 calculates an AE evaluation value based on the luminance information acquired from the photometric element 144 and uses it for exposure control.

メインミラー145が被写体光束から退避すると、サブミラー146はメインミラー145に連動して被写体光束から退避する。撮像素子132のレンズ群122側には、メカニカルシャッタの一例としてのフォーカルプレーンシャッタ143が設けられる。メインミラー145が退避状態にあり、フォーカルプレーンシャッタ143が開状態にある場合、レンズ群122を透過した被写体光束は、撮像素子132の受光面に入射する。   When the main mirror 145 retracts from the subject light beam, the sub mirror 146 retracts from the subject light beam in conjunction with the main mirror 145. A focal plane shutter 143 as an example of a mechanical shutter is provided on the lens group 122 side of the image sensor 132. When the main mirror 145 is in the retracted state and the focal plane shutter 143 is in the open state, the subject light flux that has passed through the lens group 122 is incident on the light receiving surface of the image sensor 132.

撮像素子132は、撮像部として機能する。撮像素子132は、レンズ群122を通過した被写体光束により被写体を撮像する。撮像素子132としては、例えばCCDセンサ、CMOSセンサ等の固体撮像素子を含む。撮像素子132は、被写体光束を受光する複数の光電変換素子を有しており、複数の光電変換素子でそれぞれ生じた蓄積電荷量に応じたアナログ信号をアナログ処理部133へ出力する。アナログ処理部133は、撮像素子132から出力されたアナログ信号に対して、感度補正処理、OBクランプ処理等のアナログ処理を施して、A/D変換器134へ出力する。A/D変換器134は、アナログ処理部133から出力されたアナログ信号を、画像データを表すデジタル信号に変換して出力する。撮像素子132、アナログ処理部133およびA/D変換器134は、カメラMPU140からの指示を受けた駆動部148により駆動される。   The imaging element 132 functions as an imaging unit. The image sensor 132 captures an image of the subject using the subject light flux that has passed through the lens group 122. Examples of the image sensor 132 include a solid-state image sensor such as a CCD sensor or a CMOS sensor. The imaging element 132 has a plurality of photoelectric conversion elements that receive the subject light flux, and outputs an analog signal corresponding to the amount of accumulated charge generated by each of the plurality of photoelectric conversion elements to the analog processing unit 133. The analog processing unit 133 performs analog processing such as sensitivity correction processing and OB clamping processing on the analog signal output from the image sensor 132 and outputs the analog signal to the A / D converter 134. The A / D converter 134 converts the analog signal output from the analog processing unit 133 into a digital signal representing image data and outputs the digital signal. The image sensor 132, the analog processing unit 133, and the A / D converter 134 are driven by a driving unit 148 that receives an instruction from the camera MPU 140.

A/D変換器134からデジタル信号で出力した画像データは、ASIC135に入力される。ASIC135は、画像処理機能に関連する回路等を一つにまとめた集積回路である。ASIC135は、揮発性メモリの一例としてのRAM136の少なくとも一部のメモリ領域を、画像データを一時的に記憶するバッファ領域として使用して、RAM136に記憶させた画像データに対して種々の画像処理を施す。ASIC135による画像処理としては、欠陥画素補正、ホワイトバランス補正、色補間処理、色補正、ガンマ補正、輪郭強調処理、画像データの圧縮処理等を例示することができる。撮像素子132が連続して撮像した場合、順次に出力される画像データはバッファ領域に順次に記憶される。撮像素子132が連続して撮像することにより得られた複数の画像データは、連続する静止画の画像データ、または、動画を構成する各画像の画像データとして、バッファ領域に順次に記憶される。RAM136は、ASIC135において動画データを処理する場合にフレームを一時的に記憶するフレームメモリとしても機能する。   Image data output as a digital signal from the A / D converter 134 is input to the ASIC 135. The ASIC 135 is an integrated circuit in which circuits related to the image processing function are integrated into one. The ASIC 135 uses at least a part of the memory area of the RAM 136 as an example of a volatile memory as a buffer area for temporarily storing image data, and performs various image processing on the image data stored in the RAM 136. Apply. Examples of the image processing by the ASIC 135 include defective pixel correction, white balance correction, color interpolation processing, color correction, gamma correction, contour enhancement processing, and image data compression processing. When the image sensor 132 continuously captures images, sequentially output image data is sequentially stored in the buffer area. A plurality of image data obtained by continuously capturing images by the image sensor 132 is sequentially stored in the buffer area as image data of continuous still images or image data of each image constituting the moving image. The RAM 136 also functions as a frame memory that temporarily stores frames when the ASIC 135 processes moving image data.

ASIC135における画像処理としては、記録用の画像データを生成する処理の他、表示用の画像データを生成する処理、自動焦点調節(AF)用の画像データ処理を例示できる。また、ASIC135における画像処理としては、AF処理用のコントラスト量を検出する処理等を含む。具体的には、ASIC135は、画像データからコントラスト量を検出してカメラMPU140に供給する。例えば、ASIC135は、光軸方向の異なる位置にフォーカスレンズを位置させて撮像することにより得られた複数の画像データのそれぞれからコントラスト量を検出する。カメラMPU140は、検出されたコントラスト量とフォーカスレンズの位置とに基づいて、レンズ群122の焦点状態を調節する。例えば、カメラMPU140は、コントラスト量を増大させるようフォーカスレンズの目標位置を決定して、レンズMPU123に、決定された目標位置に向けてフォーカスレンズの位置を制御させる。このように、メインミラー145がアップして退避状態にある場合に、コントラスト検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。このように、カメラMPU140は、ASIC135およびレンズMPU123と協働して、レンズ群122の焦点調節を行う。   Examples of image processing in the ASIC 135 include processing for generating image data for recording, processing for generating image data for display, and image data processing for automatic focus adjustment (AF). Further, the image processing in the ASIC 135 includes processing for detecting the contrast amount for AF processing and the like. Specifically, the ASIC 135 detects the contrast amount from the image data and supplies it to the camera MPU 140. For example, the ASIC 135 detects the contrast amount from each of a plurality of image data obtained by imaging with the focus lens positioned at different positions in the optical axis direction. The camera MPU 140 adjusts the focus state of the lens group 122 based on the detected contrast amount and the position of the focus lens. For example, the camera MPU 140 determines the target position of the focus lens so as to increase the amount of contrast, and causes the lens MPU 123 to control the position of the focus lens toward the determined target position. As described above, when the main mirror 145 is up and in the retracted state, the focus state of the lens group 122 is detected by the contrast detection method, and the focus adjustment is performed. As described above, the camera MPU 140 performs the focus adjustment of the lens group 122 in cooperation with the ASIC 135 and the lens MPU 123.

ASIC135は、A/D変換器134から出力された画像データを記録する場合、規格化された画像フォーマットの画像データに変換する。例えば、ASIC135は、静止画の画像データを、JPEG等の規格に準拠した符号化形式で符号化された静止画データを生成するための圧縮処理を行う。また、ASIC135は、複数のフレームを、QuickTime、H.264、MPEG2、Motion JPEG等の規格に準拠した符号化方式で符号化された動画データを生成するための圧縮処理を行う。   When recording the image data output from the A / D converter 134, the ASIC 135 converts the image data into a standardized image format. For example, the ASIC 135 performs a compression process for generating still image data obtained by encoding still image data in an encoding format compliant with a standard such as JPEG. Further, the ASIC 135 converts a plurality of frames into QuickTime, H.264, and the like. H.264, MPEG2, Motion JPEG, etc. A compression process for generating moving image data encoded by an encoding method compliant with a standard such as JPEG is performed.

ASIC135は、生成した静止画データ、動画データ等の画像データを、不揮発性の記録媒体の一例としての外部メモリ180へ出力して記録させる。例えば、ASIC135は、静止画ファイル、動画ファイルとして外部メモリ180に記録させる。外部メモリ180としては、フラッシュメモリ等の半導体メモリを例示することができる。具体的には、外部メモリ180としては、SDメモリカード、CFストレージカード、XQDメモリカード等の種々のメモリカードを例示することができる。RAM136に記憶されている画像データは、記録媒体IF150を通じて外部メモリ180へ転送される。また、外部メモリ180に記録されている画像データは、記録媒体IF150を通じてRAM136へ転送され、表示等の処理に供される。記録媒体IF150としては、上述したメモリカードに対するアクセスを制御するカードコントローラを例示することができる。   The ASIC 135 outputs and records the generated image data such as still image data and moving image data to an external memory 180 as an example of a nonvolatile recording medium. For example, the ASIC 135 records in the external memory 180 as a still image file and a moving image file. An example of the external memory 180 is a semiconductor memory such as a flash memory. Specifically, as the external memory 180, various memory cards such as an SD memory card, a CF storage card, and an XQD memory card can be exemplified. The image data stored in the RAM 136 is transferred to the external memory 180 through the recording medium IF 150. Further, the image data recorded in the external memory 180 is transferred to the RAM 136 through the recording medium IF 150 and used for processing such as display. Examples of the recording medium IF 150 include a card controller that controls access to the above-described memory card.

ASIC135は、記録用の画像データの生成に並行して、表示用の画像データを生成する。例えば、ASIC135は、いわゆるライブビュー動作時に、液晶表示デバイス等の表示ユニット138に表示させる表示用の画像データを生成する。また、画像の再生時においては、ASIC135は、外部メモリ180から読み出された画像データから表示用の画像データを生成する。生成された表示用の画像データは、表示制御部137の制御に従ってアナログの信号に変換され、表示ユニット138に表示される。また、撮像により得られた画像データに基づく画像表示と共に、当該画像データに基づく画像表示をすることなく、カメラ10の各種設定に関する様々なメニュー項目や、オブジェクト71等のタッチパネル用のオブジェクトも、ASIC135および表示制御部137の制御により重畳される等して表示ユニット138に表示される。   The ASIC 135 generates display image data in parallel with the generation of recording image data. For example, the ASIC 135 generates display image data to be displayed on the display unit 138 such as a liquid crystal display device during a so-called live view operation. Further, at the time of image reproduction, the ASIC 135 generates image data for display from the image data read from the external memory 180. The generated display image data is converted into an analog signal under the control of the display control unit 137 and displayed on the display unit 138. In addition to image display based on image data obtained by imaging, various menu items related to various settings of the camera 10 and touch panel objects such as the object 71 are also displayed in the ASIC 135 without displaying images based on the image data. The image is displayed on the display unit 138 by being superposed under the control of the display control unit 137.

表示ユニット138には、タッチセンサ52が設けられる。タッチセンサ52は、表示面60の略全面に設けられてよい。タッチセンサ52としては、抵抗膜方式、静電容量方式等の種々の方式のタッチセンサを適用できる。タッチセンサ52の出力は、接触位置検出部160に出力され、接触位置検出部160においてタッチ位置が算出され、カメラMPU140へ出力される。例えば、接触位置検出部160は、表示面60におけるタッチ位置のX座標およびY座標を算出して、カメラMPU140へ供給する。カメラMPU140は、接触位置検出部160から出力されたタッチ位置の座標および表示ユニット138に表示させている表示内容に応じてユーザ指示を特定して、ユーザ指示に応じて10の各部を制御する。これにより、表示面60に対するユーザの指先やペン等先による操作に追従して、カメラ10の各部を制御することができる。   The display unit 138 is provided with a touch sensor 52. The touch sensor 52 may be provided on substantially the entire display surface 60. As the touch sensor 52, various types of touch sensors such as a resistive film type and a capacitance type can be applied. The output of the touch sensor 52 is output to the contact position detection unit 160, and the touch position is calculated by the contact position detection unit 160 and output to the camera MPU 140. For example, the contact position detection unit 160 calculates the X coordinate and the Y coordinate of the touch position on the display surface 60 and supplies them to the camera MPU 140. The camera MPU 140 specifies a user instruction according to the coordinates of the touch position output from the contact position detection unit 160 and the display content displayed on the display unit 138, and controls each of the ten units according to the user instruction. Thereby, each part of the camera 10 can be controlled following operation by the user's fingertip, pen, or the like on the display surface 60.

連結部40には、水平回転検出部42および垂直回転検出部44が設けられる。水平回転検出部42は、A軸まわりのパネル50の回転角に応じた出力値をカメラMPU140へ出力する。垂直回転検出部44は、パネル50の長辺に対応するB軸まわりのパネル50の回転角に応じた出力値をカメラMPU140へ出力する。カメラMPU140は、ASIC135、表示制御部137等と協働して、表示ユニット138に表示させる表示内容を、水平回転検出部42および垂直回転検出部44の出力値に応じて制御する。例えば、カメラMPU140は、上述したように、表示面60におけるオブジェクト71の表示位置を制御する。   The connection unit 40 is provided with a horizontal rotation detection unit 42 and a vertical rotation detection unit 44. The horizontal rotation detection unit 42 outputs an output value corresponding to the rotation angle of the panel 50 around the A axis to the camera MPU 140. The vertical rotation detection unit 44 outputs an output value corresponding to the rotation angle of the panel 50 around the B axis corresponding to the long side of the panel 50 to the camera MPU 140. The camera MPU 140 controls display contents to be displayed on the display unit 138 according to output values of the horizontal rotation detection unit 42 and the vertical rotation detection unit 44 in cooperation with the ASIC 135, the display control unit 137, and the like. For example, the camera MPU 140 controls the display position of the object 71 on the display surface 60 as described above.

操作入力部141は、ユーザから操作を受け付ける。操作入力部141は、マルチセレクタ11、レリーズボタン12、コマンドダイヤル13、撮像モードダイヤル14等を含む。その他、操作入力部141は、再生ボタン、ライブビュースイッチ、動画ボタン、電源スイッチ等の各種操作部材等を含む。カメラMPU140は、操作入力部141が操作されたことを検知して、操作に応じた動作を実行する。例えば、カメラMPU140は、レリーズボタン12が押し込まれた場合に、撮像動作を実行するようにカメラ10の各部を制御する。   The operation input unit 141 receives an operation from the user. The operation input unit 141 includes a multi selector 11, a release button 12, a command dial 13, an imaging mode dial 14, and the like. In addition, the operation input unit 141 includes various operation members such as a playback button, a live view switch, a moving image button, and a power switch. The camera MPU 140 detects that the operation input unit 141 has been operated, and executes an operation corresponding to the operation. For example, the camera MPU 140 controls each unit of the camera 10 so as to execute an imaging operation when the release button 12 is pressed.

カメラ10は、上記に説明した制御を含めて、カメラMPU140およびASIC135により直接的または間接的に制御される。カメラ10の動作に必要な定数、変数等のパラメータ、プログラム等は、システムメモリ139に格納される。システムメモリ139は、電気的に消去・記憶可能な不揮発性メモリであり、例えばフラッシュROM、EEPROM等により構成される。システムメモリ139は、パラメータ、プログラム等を、カメラ10の非動作時にも失われないように格納する。システムメモリ139に記憶されたパラメータ、プログラム等は、RAM136に展開され、カメラ10の制御に利用される。カメラ本体130内の、ASIC135、RAM136、システムメモリ139、表示制御部137、カメラMPU140、水平回転検出部42、および、垂直回転検出部44は、バス等の接続インタフェース149により相互に接続され、各種のデータをやりとりする。   The camera 10 is controlled directly or indirectly by the camera MPU 140 and the ASIC 135 including the control described above. Constants, parameters such as variables, programs, and the like necessary for the operation of the camera 10 are stored in the system memory 139. The system memory 139 is an electrically erasable / storable nonvolatile memory, and is configured by, for example, a flash ROM, an EEPROM, or the like. The system memory 139 stores parameters, programs, and the like so that they are not lost even when the camera 10 is not operating. Parameters, programs, and the like stored in the system memory 139 are expanded in the RAM 136 and used for controlling the camera 10. The ASIC 135, the RAM 136, the system memory 139, the display control unit 137, the camera MPU 140, the horizontal rotation detection unit 42, and the vertical rotation detection unit 44 in the camera main body 130 are connected to each other by a connection interface 149 such as a bus, and various types. Exchange data.

カメラ本体130の各部、パネル50の各部、レンズユニット120の各部および外部メモリ180は、カメラMPU140の制御により、電源回路192を介して電源190から電力供給を受ける。電源190は、ニッケル水素電池、リチウムイオン電池等の二次電池、乾電池等の非充電式の一次電池等であってよい。電池としての電源190は、カメラ本体130に対して着脱可能に装着される。電源190は、商用電源であってもよい。   Each part of the camera body 130, each part of the panel 50, each part of the lens unit 120, and the external memory 180 are supplied with power from the power supply 190 via the power supply circuit 192 under the control of the camera MPU 140. The power source 190 may be a secondary battery such as a nickel metal hydride battery or a lithium ion battery, a non-rechargeable primary battery such as a dry battery, or the like. A power source 190 as a battery is detachably attached to the camera body 130. The power source 190 may be a commercial power source.

図4Aは、パネル50が閉位置にある場合の表示例を模式的に示す。本図は、パネル50が閉位置にあり、表示面60が外部に露出した状態を示す。具体的には、表示面60を外側にしてパネル50が収容部30に収容された状態を示す。この状態では、ASIC135は、オブジェクト71を表示面60の右端に表示させ、オブジェクト80およびオブジェクト90を、オブジェクト71の左側に表示させるべく、表示用の画像データを生成して表示制御部137に出力する。   FIG. 4A schematically shows a display example when the panel 50 is in the closed position. This figure shows a state in which the panel 50 is in the closed position and the display surface 60 is exposed to the outside. Specifically, the panel 50 is housed in the housing portion 30 with the display surface 60 facing outside. In this state, the ASIC 135 generates display image data and outputs it to the display control unit 137 so that the object 71 is displayed on the right end of the display surface 60 and the objects 80 and 90 are displayed on the left side of the object 71. To do.

図4Bは、パネル50が開位置にある場合の表示例を模式的に示す。本図は、図4Aの状態からパネル50がA軸のまわりに180°回転された状態を示す。この状態では、ASIC135は、オブジェクト71を表示面60の右端に表示させ、オブジェクト80およびオブジェクト90を、オブジェクト71の左側に表示させるべく、表示用の画像データを生成して表示制御部137に出力する。   FIG. 4B schematically shows a display example when the panel 50 is in the open position. This figure shows a state in which the panel 50 is rotated 180 degrees around the A axis from the state of FIG. 4A. In this state, the ASIC 135 generates display image data and outputs it to the display control unit 137 so that the object 71 is displayed on the right end of the display surface 60 and the objects 80 and 90 are displayed on the left side of the object 71. To do.

図4Cは、パネル50が開位置にある場合の他の表示例を模式的に示す。本図は、図4Bの状態からパネル50がB軸のまわりに180°回転された状態を示す。この状態では、ASIC135は、オブジェクト71を表示面60の左端に表示させ、オブジェクト80およびオブジェクト90を、オブジェクト71の右側に表示させるべく、表示用の画像データを生成して表示制御部137に出力する。   FIG. 4C schematically shows another display example when the panel 50 is in the open position. This figure shows a state in which the panel 50 is rotated 180 ° around the B axis from the state of FIG. 4B. In this state, the ASIC 135 generates display image data and outputs it to the display control unit 137 so that the object 71 is displayed on the left end of the display surface 60 and the objects 80 and 90 are displayed on the right side of the object 71. To do.

図4Bに示す表示態様と図4Cに示す表示態様とでは、オブジェクト90とオブジェクト71との間の位置関係が異なる。このように、ASIC135は、表示面60に表示させるオブジェクト71とオブジェクト90との間の位置関係を、カメラ本体130に対する表示面60の角度に応じて異ならせて表示させる。具体的には、ユーザがタッチ操作をし易い位置にオブジェクト71が表示されるように、オブジェクト90とオブジェクト71との間の位置関係を異ならせる。具体的には、ASIC135は、パネル50の開閉状態に応じて、連結部40からの距離が予め定められた距離より大きい位置にオブジェクト71を表示させる。より具体的には、ASIC135は、パネル50が開位置にある場合に、表示面60の中央位置よりも連結部40から遠い位置に、オブジェクト71が表示させる。例えば、ASIC135は、連結部40の側とは逆側にオブジェクト71を表示させる。   The positional relationship between the object 90 and the object 71 is different between the display mode illustrated in FIG. 4B and the display mode illustrated in FIG. 4C. As described above, the ASIC 135 displays the positional relationship between the object 71 and the object 90 displayed on the display surface 60 in accordance with the angle of the display surface 60 with respect to the camera body 130. Specifically, the positional relationship between the object 90 and the object 71 is changed so that the object 71 is displayed at a position where the user can easily perform a touch operation. Specifically, the ASIC 135 displays the object 71 at a position where the distance from the connecting portion 40 is larger than a predetermined distance according to the open / close state of the panel 50. More specifically, the ASIC 135 causes the object 71 to be displayed at a position farther from the coupling unit 40 than the center position of the display surface 60 when the panel 50 is in the open position. For example, the ASIC 135 displays the object 71 on the side opposite to the connection unit 40 side.

なお、図4Aから図4Cのいずれの表示態様にある場合も、オブジェクト71、オブジェクト80およびオブジェクト90のそれぞれの表示内容および大きさは不変である。また、表示面に表示される画面全体の大きさおよび向きも不変である。表示面60が長辺よび短辺を有する場合、いずれの表示態様でも同一のアスペクト比で画面全体が表示される。また、オブジェクト80およびオブジェクト90は、いずれの表示態様にある場合でも一定の位置関係で表示される。例えば、ASIC135は、図4Bにおいて右端の表示領域に表示させたオブジェクト71と同じ大きさおよび同じ内容のオブジェクトを、図4Cにおいて左端の表示領域に表示させる。つまり、ASIC135は、カメラ本体130に対する表示面60の角度に応じて、オブジェクト71およびオブジェクト90の内容や大きさを変えることなく、オブジェクト71とオブジェクト90との間の表示位置の位置関係を異ならせる。   4A to 4C, the display contents and sizes of the object 71, the object 80, and the object 90 are unchanged. Further, the size and orientation of the entire screen displayed on the display surface are unchanged. When the display surface 60 has a long side and a short side, the entire screen is displayed with the same aspect ratio in any display mode. Further, the object 80 and the object 90 are displayed in a certain positional relationship regardless of the display mode. For example, the ASIC 135 causes an object having the same size and the same content as the object 71 displayed in the rightmost display area in FIG. 4B to be displayed in the leftmost display area in FIG. 4C. In other words, the ASIC 135 changes the positional relationship of the display positions between the object 71 and the object 90 without changing the contents and size of the object 71 and the object 90 according to the angle of the display surface 60 with respect to the camera body 130. .

図4Dは、パネル50が閉位置にある場合の表示例を模式的に示す。本図は、図4Cの状態からパネル50がA軸のまわりに180°回転された状態を示す。本図は、パネル50が閉位置にあり、表示面60が外部に露出していない状態を示す。具体的には、表示面60を内側にしてパネル50が収容部30に収容された状態を示す。この状態では、ASIC135は、表示ユニット138への表示を停止する。   FIG. 4D schematically shows a display example when the panel 50 is in the closed position. This figure shows a state in which the panel 50 has been rotated 180 ° around the A axis from the state of FIG. 4C. This figure shows a state in which the panel 50 is in the closed position and the display surface 60 is not exposed to the outside. Specifically, a state in which the panel 50 is accommodated in the accommodating portion 30 with the display surface 60 facing inward is shown. In this state, the ASIC 135 stops displaying on the display unit 138.

図5は、水平回転検出部42および垂直回転検出部44の出力と表示制御との関係を模式的に示す。本図において、A、B、CおよびDは、それぞれ図4A、図4B、図4Cおよび図4Dの状態に対応する。水平回転検出部42は、A軸まわりの回転量に応じて、ONまたはOFFの2値の出力値を出力する。垂直回転検出部44は、B軸まわりの回転量に応じて、ONまたはOFFの2値の出力値を出力する。   FIG. 5 schematically shows the relationship between the output of the horizontal rotation detection unit 42 and the vertical rotation detection unit 44 and display control. In this figure, A, B, C, and D correspond to the states of FIGS. 4A, 4B, 4C, and 4D, respectively. The horizontal rotation detector 42 outputs a binary output value of ON or OFF according to the rotation amount around the A axis. The vertical rotation detection unit 44 outputs a binary output value of ON or OFF according to the rotation amount around the B axis.

図4Aの状態では、水平回転検出部42はOFFの出力値を出力する。一例として、水平回転検出部42は、図4A、図4Dのようにパネル50が収容部30に収容された状態を基準として、A軸まわりの回転量を検出する。図4Aの状態では、水平回転検出部42は、回転量として0を検出して、回転量に応じた出力値としてOFF値を出力する。   In the state of FIG. 4A, the horizontal rotation detector 42 outputs an OFF output value. As an example, the horizontal rotation detection unit 42 detects the rotation amount around the A axis with reference to the state in which the panel 50 is accommodated in the accommodation unit 30 as shown in FIGS. 4A and 4D. In the state of FIG. 4A, the horizontal rotation detection unit 42 detects 0 as the rotation amount and outputs an OFF value as an output value corresponding to the rotation amount.

また、図4Aの状態では、垂直回転検出部44はONの出力値を出力する。一例として、垂直回転検出部44は、図4Cや図4Dの向きにある状態を基準として、B軸まわりの回転量を検出する。図4Aの状態では、垂直回転検出部44は、回転量として180°に対応する角度を検出して、回転量に応じた出力値としてON値を出力する。   In the state of FIG. 4A, the vertical rotation detection unit 44 outputs an ON output value. As an example, the vertical rotation detection unit 44 detects the rotation amount around the B axis with reference to the state in the direction of FIG. 4C or 4D. In the state of FIG. 4A, the vertical rotation detection unit 44 detects an angle corresponding to 180 ° as the rotation amount, and outputs an ON value as an output value corresponding to the rotation amount.

図4Aの状態から、A軸まわりにパネル50を回転させてパネル50を徐々に開いていくと、水平回転検出部42は、予め定められた閾値を超える回転量を検出した場合に、ONの出力値を出力する。予め定められた閾値としては、パネル50が収容部30に収容された状態からの角度の変化量として45°に対応する回転量より小さい値を適用してよい。例えば、予め定められた閾値として、10°に対応する回転量、5°に対応する回転量等を適用してよい。予め定められた閾値として、5°に対応する回転量より小さい値を適用してもよい。水平回転検出部42の出力は、図4Bの状態になる前にON値となる。   From the state of FIG. 4A, when the panel 50 is rotated about the A axis and the panel 50 is gradually opened, the horizontal rotation detection unit 42 turns ON when detecting a rotation amount exceeding a predetermined threshold. Output the output value. As the predetermined threshold value, a value smaller than the rotation amount corresponding to 45 ° may be applied as the change amount of the angle from the state where the panel 50 is accommodated in the accommodating portion 30. For example, a rotation amount corresponding to 10 °, a rotation amount corresponding to 5 °, or the like may be applied as a predetermined threshold. A value smaller than the rotation amount corresponding to 5 ° may be applied as the predetermined threshold value. The output of the horizontal rotation detection unit 42 becomes an ON value before entering the state of FIG. 4B.

図4Bの状態から、パネル50をB軸まわりに回転させていくと、垂直回転検出部44は、検出された回転量が予め定められた閾値より小さくなった場合に、OFFの出力値を出力する。予め定められた閾値としては、図4Cや図4Dの状態からの角度の変化量として90°に対応する回転量を適用してよい。すなわち、垂直回転検出部44は、図4Bの状態からの角度の変化量が90°を超えた場合に、OFF値を出力する。つまり、垂直回転検出部44の出力は、図4Cの状態になる前にOFF値となる。ASIC135は、垂直回転検出部44の出力がONからOFFに変化した場合に、オブジェクト71の表示位置を変更した画像データを生成して表示制御部137へ出力する。すなわち、垂直回転検出部44からON値が出力されている場合とOFF値が出力されている場合とで、オブジェクト71およびオブジェクト90は異なる位置関係で表示面60に表示される。   When the panel 50 is rotated about the B axis from the state of FIG. 4B, the vertical rotation detection unit 44 outputs an OFF output value when the detected rotation amount becomes smaller than a predetermined threshold value. To do. As the predetermined threshold value, a rotation amount corresponding to 90 ° may be applied as an angle change amount from the state of FIG. 4C or 4D. That is, the vertical rotation detection unit 44 outputs an OFF value when the amount of change in angle from the state of FIG. 4B exceeds 90 °. That is, the output of the vertical rotation detection unit 44 becomes an OFF value before entering the state of FIG. 4C. When the output of the vertical rotation detection unit 44 changes from ON to OFF, the ASIC 135 generates image data in which the display position of the object 71 is changed and outputs the image data to the display control unit 137. That is, the object 71 and the object 90 are displayed on the display surface 60 in different positional relations between when the ON value is output from the vertical rotation detection unit 44 and when the OFF value is output.

図4Cの状態から、A軸まわりにパネル50を閉じる方向に回転させていくと、水平回転検出部42は、上述した予め定められた閾値以下の回転量を検出した場合に、OFFの出力値を出力する。水平回転検出部42の出力は、図4Dの状態になる前にOFF値となる。水平回転検出部42の出力がON値からOFF値に変化すると、ASIC135は表示制御部137への表示を停止させる。水平回転検出部42の出力がOFF値にある場合、ASIC135は表示制御部137への表示を停止させた状態を維持する。   When the panel 50 is rotated around the A axis in the closing direction from the state shown in FIG. 4C, the horizontal rotation detection unit 42 outputs an OFF output value when detecting the rotation amount equal to or less than the above-described predetermined threshold value. Is output. The output of the horizontal rotation detection unit 42 becomes an OFF value before entering the state of FIG. 4D. When the output of the horizontal rotation detection unit 42 changes from the ON value to the OFF value, the ASIC 135 stops the display on the display control unit 137. When the output of the horizontal rotation detection unit 42 is at an OFF value, the ASIC 135 maintains a state where display on the display control unit 137 is stopped.

図4A〜図4D、図5等に関連して説明したように、ASIC135は、カメラ本体130に対する表示面60の角度に応じてユーザ操作を受け付ける位置を決定し、決定した位置にオブジェクト71を表示させる。このため、カメラ本体130の角度に応じた適切な位置にオブジェクト71を表示することができる。   As described with reference to FIGS. 4A to 4D, FIG. 5, etc., the ASIC 135 determines a position for receiving a user operation according to the angle of the display surface 60 with respect to the camera body 130, and displays the object 71 at the determined position. Let For this reason, the object 71 can be displayed at an appropriate position according to the angle of the camera body 130.

図6は、図4Aの状態でユーザがオブジェクト71aを操作している場面を模式的に示す。オブジェクト71aの位置がタッチされた場合、ASIC135は、他のオブジェクト71とは異なる色でオブジェクト71aを表示する。   FIG. 6 schematically shows a scene in which the user operates the object 71a in the state of FIG. 4A. When the position of the object 71 a is touched, the ASIC 135 displays the object 71 a in a color different from that of the other objects 71.

図4Aに示すように、オブジェクト71は表示面60の右側に表示される。したがって、本図に示すように、ユーザは、右手の親指以外の指でグリップ部20を把持してカメラ10を支えた状態で、オブジェクト71aを親指で容易に操作することができる。また、ユーザは、グリップ部20を把持した状態で、マルチセレクタ11、レリーズボタン12、コマンドダイヤル13および撮像モードダイヤル14を操作することができる。   As shown in FIG. 4A, the object 71 is displayed on the right side of the display surface 60. Therefore, as shown in the figure, the user can easily operate the object 71a with the thumb while holding the camera 10 by holding the grip portion 20 with a finger other than the thumb of the right hand. Further, the user can operate the multi selector 11, the release button 12, the command dial 13, and the imaging mode dial 14 while holding the grip unit 20.

このように、ASIC135は、表示面60が露出しパネル50が閉位置にある場合に、表示面60において中央位置よりグリップ部20側に、オブジェクト71を表示させる。具体的には、ASIC135は、表示面60の右端に71を表示させる。このため、マルチセレクタ11、コマンドダイヤル13およびコマンドダイヤル13等のように、ユーザがグリップ部20を把持した状態で操作可能な操作部材の位置の近傍に、オブジェクト71を表示させることができる。したがって、ユーザは、グリップ部20を把持してカメラ10を支えた状態で、これらの操作部材やオブジェクト71の表示位置を親指で操作することができる。   As described above, the ASIC 135 causes the object 71 to be displayed closer to the grip portion 20 than the center position on the display surface 60 when the display surface 60 is exposed and the panel 50 is in the closed position. Specifically, the ASIC 135 displays 71 at the right end of the display surface 60. For this reason, the object 71 can be displayed in the vicinity of the position of the operation member that can be operated while the user grips the grip portion 20, such as the multi selector 11, the command dial 13, and the command dial 13. Therefore, the user can operate the display positions of these operation members and the object 71 with the thumb while holding the grip unit 20 and supporting the camera 10.

図7は、オブジェクト71の表示位置を設定する設定画面の一例を示す。画面700は、図4Aの状態におけるオブジェクト71の表示位置を設定する設定画面の一例である。画面700は、オブジェクト71を右側に表示することを選択するための項目701と、オブジェクト71を左側に表示することを選択するための項目702とを含む。本図では、オブジェクト71を右側に表示させる旨が選択された状態を示す。ユーザは、マルチセレクタ11が有する上ボタンや下ボタンを操作することで、オブジェクト71の表示位置の設定を行う。ASIC135は、本設定画面を通じて設定された表示位置情報に基づいて、図4Aの状態における表示態様を制御する。   FIG. 7 shows an example of a setting screen for setting the display position of the object 71. Screen 700 is an example of a setting screen for setting the display position of object 71 in the state of FIG. 4A. Screen 700 includes an item 701 for selecting to display object 71 on the right side, and an item 702 for selecting to display object 71 on the left side. This figure shows a state where the object 71 is to be displayed on the right side. The user sets the display position of the object 71 by operating the upper button and the lower button of the multi-selector 11. The ASIC 135 controls the display mode in the state of FIG. 4A based on the display position information set through this setting screen.

図8は、オブジェクト71の表示位置が左側に設定された場合の表示態様の一例を示す。パネル50が閉位置にある場合、連結部40やカメラ本体130が、パネル50へのユーザ操作に邪魔にはならない。本表示態様によれば、ユーザは左手でオブジェクト71を操作することもできる。したがって、本表示態様は、左利きのユーザにとって都合がよい場合がある。   FIG. 8 shows an example of a display mode when the display position of the object 71 is set to the left side. When the panel 50 is in the closed position, the connecting unit 40 and the camera body 130 do not interfere with the user operation on the panel 50. According to this display mode, the user can also operate the object 71 with the left hand. Therefore, this display mode may be convenient for left-handed users.

図7、図8に関連して説明したように、カメラMPU140は、表示面60が露出しパネル50が閉位置にある場合にオブジェクト71を表示させるべき位置を指定するユーザ指示を取得する。そして、ASIC135は、表示面60が露出しパネル50が閉位置にある場合に、当該ユーザ指示で指定された位置に、オブジェクト71を表示させる。パネル50が閉位置にある場合の表示位置は、デフォルトで右側に設定され、ユーザ設定により左側に変更することが可能である。すなわち、ASIC135は、表示面60が露出しパネル50が閉位置にある場合に、表示面60の予め定められた位置にオブジェクト71を表示させる。   As described with reference to FIGS. 7 and 8, the camera MPU 140 acquires a user instruction that specifies a position where the object 71 should be displayed when the display surface 60 is exposed and the panel 50 is in the closed position. Then, when the display surface 60 is exposed and the panel 50 is in the closed position, the ASIC 135 displays the object 71 at the position specified by the user instruction. When the panel 50 is in the closed position, the display position is set to the right side by default, and can be changed to the left side according to user settings. That is, the ASIC 135 displays the object 71 at a predetermined position on the display surface 60 when the display surface 60 is exposed and the panel 50 is in the closed position.

図9は、カメラ10の起動から終了までの処理フローを示す。本フローは、例えば操作入力部141の一部としての電源スイッチがON位置に切り替えられた場合に、開始される。本フローは、カメラMPU140が主体となってカメラ10の各部を制御することにより実行される。   FIG. 9 shows a processing flow from activation to termination of the camera 10. This flow is started, for example, when a power switch as a part of the operation input unit 141 is switched to the ON position. This flow is executed by controlling each part of the camera 10 mainly by the camera MPU 140.

ステップS900において、カメラ10の初期設定を開始する。例えば、カメラ10を制御するための各種パラメータ等が、システムメモリ139からRAM136に展開される。また、ASIC135は、展開された各種パラメータに基づき、カメラ10の動作モードを設定する。例えば、シャッタスピードおよび撮像感度等の撮像素子132の設定、解像度、圧縮率およびフレームレート等を設定する。   In step S900, initial setting of the camera 10 is started. For example, various parameters for controlling the camera 10 are expanded from the system memory 139 to the RAM 136. The ASIC 135 sets the operation mode of the camera 10 based on the developed various parameters. For example, settings of the image sensor 132 such as shutter speed and imaging sensitivity, resolution, compression rate, frame rate, and the like are set.

続いて、カメラMPU140は、水平回転検出部42および垂直回転検出部44の出力に基づいて、パネル50の位置を検出する(ステップS901)。ASIC135は、パネル50の位置に応じて、タッチオブジェクトの表示位置を決定する(ステップS902)。例えば、ASIC135は、動作モード等を選択するためのタッチ操作用のオブジェクトの表示位置を決定してよい。続いて、ステップS903において、ASIC135は、初期設定により設定された内容を表示ユニット138に表示させる。例えば、ASIC135は、シャッタスピード、撮像感度、解像度、圧縮率、フレームレート等の情報を、アイコン表示等の種々の形式で表示ユニット138に表示させる。   Subsequently, the camera MPU 140 detects the position of the panel 50 based on the outputs of the horizontal rotation detection unit 42 and the vertical rotation detection unit 44 (step S901). The ASIC 135 determines the display position of the touch object according to the position of the panel 50 (step S902). For example, the ASIC 135 may determine the display position of an object for touch operation for selecting an operation mode or the like. Subsequently, in step S903, the ASIC 135 causes the display unit 138 to display the contents set by the initial setting. For example, the ASIC 135 causes the display unit 138 to display information such as shutter speed, imaging sensitivity, resolution, compression rate, and frame rate in various formats such as icon display.

続いて、ステップS904において、カメラMPU140は、ユーザ指示を特定する。ユーザ指示が諸設定を行う指示である場合、ASIC135が主体となって、指示された設定処理を行う(ステップS905)。本設定処理としては、図7に例示した画面700を通じてオブジェクト71の表示位置を設定する処理を例示することができる。   Subsequently, in step S904, the camera MPU 140 specifies a user instruction. If the user instruction is an instruction to perform various settings, the ASIC 135 performs the instructed setting process (step S905). An example of the setting process is a process for setting the display position of the object 71 through the screen 700 illustrated in FIG.

ステップS904において、ユーザ指示が撮像動作を含む処理を実行する指示であると判断された場合、指示された処理を実行する(ステップS906)。当該指示としては、レリーズボタン、ライブビュースイッチ、動画撮影ボタンに対する操作等を例示することができる。   If it is determined in step S904 that the user instruction is an instruction to execute a process including an imaging operation, the instructed process is executed (step S906). Examples of the instruction include operations on a release button, a live view switch, and a moving image shooting button.

ステップS904において、ユーザ指示が画像の再生に関する指示であると判断された場合、再生処理を実行する(ステップS906)。再生処理としては、外部メモリ180に記録された静止画データ、動画データ等の画像データをサムネイル表示する処理、ユーザにより指示された画像データを用いて画像を表示する処理等を例示することができる。   If it is determined in step S904 that the user instruction is an instruction relating to image reproduction, reproduction processing is executed (step S906). Examples of reproduction processing include processing for displaying image data such as still image data and moving image data recorded in the external memory 180 as thumbnails, processing for displaying an image using image data instructed by the user, and the like. .

ステップS904においてユーザ指示がないと判断された場合は、ステップS908に進む。また、ステップS905、ステップS906、ステップS907の処理が完了すると、ステップS908に進む。ステップS908では、電源をOFFするか否かを判断する。例えば、電源スイッチがOFF位置にされた場合や、カメラ10が動作を開始してから予め定められた期間、ユーザ指示が無い状態が継続した場合等に、電源をOFFすると判断する。電源をOFFすると判断した場合は本フローを終了し、電源をOFFしないと判断した場合はステップS904に処理を移行させる。   If it is determined in step S904 that there is no user instruction, the process proceeds to step S908. Further, when the processing of step S905, step S906, and step S907 is completed, the process proceeds to step S908. In step S908, it is determined whether to turn off the power. For example, it is determined that the power is turned off when the power switch is set to the OFF position, or when there is no user instruction for a predetermined period after the camera 10 starts operating. If it is determined that the power is to be turned off, this flow is terminated. If it is determined that the power is not to be turned off, the process proceeds to step S904.

図10は、カメラ10が再生処理を行う場合のフローの一例を示す。本フローは、ステップS907の一部の処理に適用できる。本フローは、カメラMPU140が主体となってカメラ10の各部を制御することにより実行される。   FIG. 10 shows an example of a flow when the camera 10 performs a reproduction process. This flow can be applied to a part of the processing in step S907. This flow is executed by controlling each part of the camera 10 mainly by the camera MPU 140.

本フローが開始されると、ステップS1000において、カメラMPU140は、水平回転検出部42および垂直回転検出部44の出力に基づいて、パネル50の位置を検出する。そして、ASIC135は、パネル50の位置に応じて、オブジェクト71の表示位置を決定する(ステップS1001)。例えば、ASIC135は、パネル50の位置および図7の画面700等で設定されている表示位置に基づいて、オブジェクト71の表示位置を決定する。   When this flow is started, in step S1000, the camera MPU 140 detects the position of the panel 50 based on the outputs of the horizontal rotation detection unit 42 and the vertical rotation detection unit 44. Then, the ASIC 135 determines the display position of the object 71 according to the position of the panel 50 (step S1001). For example, the ASIC 135 determines the display position of the object 71 based on the position of the panel 50 and the display position set on the screen 700 of FIG.

続いて、ステップS1002において、ASIC135は、表示用の画像データを生成して、表示制御部137を通じて表示ユニット138にオブジェクトを表示させる。これにより、オブジェクト71は、ステップS1001で決定した位置に表示される。オブジェクト80およびオブジェクト90は、オブジェクト71の位置に応じて決定された位置関係で表示される。   Subsequently, in step S1002, the ASIC 135 generates image data for display, and causes the display unit 138 to display the object through the display control unit 137. As a result, the object 71 is displayed at the position determined in step S1001. The objects 80 and 90 are displayed in a positional relationship determined according to the position of the object 71.

続いて、ステップS1003において、カメラMPU140は、ユーザ指示を特定する。ユーザ指示が画像操作を行う指示である場合、ASIC135が主体となって、指示された操作に対応する処理を行い(ステップS1005)、ステップS1003に処理を移行させる。例えば、ステップS1005において、ASIC135は、オブジェクト71を通じて画像の拡大指示を取得した場合、画像を拡大表示させる。   Subsequently, in step S1003, the camera MPU 140 specifies a user instruction. When the user instruction is an instruction to perform an image operation, the ASIC 135 performs the processing corresponding to the instructed operation (step S1005) and shifts the processing to step S1003. For example, when the ASIC 135 acquires an image enlargement instruction through the object 71 in step S1005, the image is enlarged and displayed.

ステップS1003において、ユーザ指示が検出されなかった場合、パネル50の位置変化の有無を検出する(ステップS1005)。カメラMPU140は、水平回転検出部42および垂直回転検出部44の出力値に変化があったか否かを判断する。パネル50の位置変化が検出されていない場合は、ステップS1003に処理を移行する。パネル50の位置変化が検出された場合は、ステップS1000に処理を移行する。この場合、ステップS1000からステップS1002において、変化後のパネル50の位置に応じて各オブジェクトが表示される。ステップS1003において、再生動作を終了する旨が検出された場合、再生動作を終了して本フローを終了する。   If no user instruction is detected in step S1003, the presence / absence of a change in the position of the panel 50 is detected (step S1005). The camera MPU 140 determines whether or not the output values of the horizontal rotation detection unit 42 and the vertical rotation detection unit 44 have changed. When the position change of the panel 50 is not detected, the process proceeds to step S1003. If a change in the position of the panel 50 is detected, the process proceeds to step S1000. In this case, in steps S1000 to S1002, each object is displayed according to the position of the panel 50 after the change. If it is detected in step S1003 that the reproduction operation is to be terminated, the reproduction operation is terminated and this flow is terminated.

カメラ10によれば、カメラ本体130に対する表示面60の角度に応じて、タッチ用のオブジェクト71を適切な位置に表示させることができる。このため、ユーザの操作性を高めることができる。   According to the camera 10, the touch object 71 can be displayed at an appropriate position according to the angle of the display surface 60 with respect to the camera body 130. For this reason, a user's operativity can be improved.

図11Aは、図4Bに例示した状態における他の表示例を模式的に示す。本表示例においては、オブジェクト71およびオブジェクト80が、オブジェクト90に重ねて表示される。ASIC135は、オブジェクト90が表示面60の表示領域全体に表示され、オブジェクト71がオブジェクト90の右側領域に重ねて表示され、オブジェクト80がオブジェクト90の下側領域に重ねて表示されるべく、表示用の画像データを生成して表示制御部137に出力する。   FIG. 11A schematically illustrates another display example in the state illustrated in FIG. 4B. In this display example, the object 71 and the object 80 are displayed so as to overlap the object 90. The ASIC 135 displays the object 90 so that the object 90 is displayed on the entire display area of the display surface 60, the object 71 is displayed so as to be superimposed on the right area of the object 90, and the object 80 is displayed so as to be superimposed on the lower area of the object 90. Are generated and output to the display control unit 137.

図11Bは、図11Aの状態からパネル50がA軸のまわりに180°回転された場合の表示例を模式的に示す。ASIC135は、オブジェクト90が表示面60の表示領域全体に表示され、オブジェクト71がオブジェクト90の左側領域に重ねて表示され、オブジェクト80がオブジェクト90の下側領域に重ねて表示されるべく、表示用の画像データを生成して表示制御部137に出力する。なお、図11Aおよび図11Bでは、オブジェクト71をオブジェクト90に重ねて表示させる表示例として、図4Bおよび図4Cの状態における表示例を示したが、図4A等の他の状態においても、オブジェクト71およびオブジェクト80をオブジェクト90に重ねて表示させてよい。   FIG. 11B schematically shows a display example when the panel 50 is rotated 180 degrees around the A axis from the state of FIG. 11A. The ASIC 135 displays the object 90 so that the object 90 is displayed in the entire display area of the display surface 60, the object 71 is displayed so as to overlap the left area of the object 90, and the object 80 is displayed so as to overlap the lower area of the object 90. Are generated and output to the display control unit 137. 11A and 11B show display examples in the state of FIGS. 4B and 4C as display examples in which the object 71 is displayed on the object 90, but the object 71 is also displayed in other states such as FIG. 4A. Further, the object 80 may be displayed so as to overlap the object 90.

図11Aに示す表示態様と図11Bに示す表示態様とでは、オブジェクト90とオブジェクト71との間の位置関係が異なる。図11Aおよび図11Bに例示したように、オブジェクト90にオブジェクト71を重ねて表示させる場合においても、ASIC135は、表示面60に表示させるオブジェクト71とオブジェクト90との間の位置関係を、カメラ本体130に対する表示面60の角度に応じて異ならせて表示させる。   The positional relationship between the object 90 and the object 71 is different between the display mode illustrated in FIG. 11A and the display mode illustrated in FIG. 11B. As illustrated in FIGS. 11A and 11B, even when the object 71 is superimposed on the object 90 and displayed, the ASIC 135 determines the positional relationship between the object 71 and the object 90 to be displayed on the display surface 60. The display surface 60 is displayed differently depending on the angle of the display surface 60 with respect to the screen.

なお、図11Aおよび図11Bに例示したように、オブジェクト90を表示面60の表示領域全体に表示させる場合、オブジェクト71およびオブジェクト80は、表示領域全体の大きさよりも小さい大きさで表示される。図11Aおよび図11Bでは、オブジェクト90を表示領域の全体に表示させる場合を例示したが、オブジェクト90を表示領域の一部に表示させてもよい。オブジェクト90を表示領域の一部に表示させる場合、オブジェクト71およびオブジェクト80は、少なくともオブジェクト90の大きさよりも小さい大きさで表示させる。また、図11Aおよび図11Bでは、オブジェクト71の全体を、オブジェクト90に重ねて表示させるとした。しかし、オブジェクト71の一部を、オブジェクト90に重ねて表示させてもよい。   11A and 11B, when the object 90 is displayed on the entire display area of the display surface 60, the object 71 and the object 80 are displayed in a size smaller than the size of the entire display area. 11A and 11B illustrate the case where the object 90 is displayed in the entire display area, but the object 90 may be displayed in a part of the display area. When the object 90 is displayed in a part of the display area, the object 71 and the object 80 are displayed in a size that is at least smaller than the size of the object 90. 11A and 11B, the entire object 71 is displayed so as to be superimposed on the object 90. However, a part of the object 71 may be displayed over the object 90.

図12Aは、図11Aに例示した状態における更なる他の表示例を模式的に示す。本表示例は、表示面60にはオブジェクト80が表示されない点で、図11Aに示した表示例とは異なる。図12Bは、図12Aの状態からパネル50がA軸のまわりに180°回転された場合の表示例を模式的に示す。図12Aおよび図12Bでは、図11Aおよび図11Bの状態における表示例を示したが、図4A等の他の状態においても、オブジェクト71をオブジェクト90に重ねて表示させてよい。図12Aおよび図12Bに例示したように、ASIC135は、1つのオブジェクト90との間の位置関係を、カメラ本体130に対する表示面60の角度に応じて異ならせて表示させてよい。   FIG. 12A schematically shows still another display example in the state illustrated in FIG. 11A. This display example is different from the display example shown in FIG. 11A in that the object 80 is not displayed on the display surface 60. FIG. 12B schematically shows a display example when the panel 50 is rotated 180 degrees around the A axis from the state of FIG. 12A. 12A and 12B show display examples in the states of FIGS. 11A and 11B, but the object 71 may be displayed over the object 90 in other states such as FIG. 4A. As illustrated in FIG. 12A and FIG. 12B, the ASIC 135 may display the positional relationship with one object 90 in a different manner depending on the angle of the display surface 60 with respect to the camera body 130.

なお、図12Aおよび図12Bにおいては、オブジェクト71をオブジェクト90に重ねて表示させる場合を取り上げて、1つのオブジェクト90との間の位置関係の制御例を説明した。しかし、図1−図10に関連して説明したようにオブジェクト71をオブジェクト90に重ねて表示させない場合にも、オブジェクト80を表示さない態様を採用できる。   In FIG. 12A and FIG. 12B, the control example of the positional relationship with one object 90 has been described by taking up the case where the object 71 is displayed superimposed on the object 90. However, as described with reference to FIGS. 1 to 10, a mode in which the object 80 is not displayed can be adopted even when the object 71 is not displayed over the object 90.

図1から図12Bに関連して、一実施形態におけるカメラ10の機能および動作の一例を示した。しかし、例示したカメラ10の機能および動作に加えて、または、例示したカメラ10の一部の機能および動作に代えて、種々の機能および動作を適用できる。例えば、カメラ10において表示面60に表示させる第1オブジェクトと第2オブジェクトとの間の位置関係の一例として、主としてタッチ操作用のオブジェクト71と他のオブジェクトとの間の位置関係を、表示面60の角度に応じて異ならせる場合を例示した。しかし、第1オブジェクトとしては、タッチ操作用のオブジェクト以外のオブジェクトを適用できる。例えば、第1オブジェクトとして、撮像により得られた画像データに基づいて表示される画像のオブジェクトを適用できる。例えば、カメラ10は、当該オブジェクトをユーザが見やすい位置に表示させるべく、他のオブジェクトとの間の位置関係を、表示面60の角度に応じて異ならせてもよい。この場合、パネル50がタッチパネル機能を有してなくてもよい。また、第2オブジェクトとしては、オブジェクト90の他に種々の画像を適用できる。例えば、第2オブジェクトとして、撮像素子132で順次に撮像することにより順次に生成された画像データに基づいて順次に表示される画像を適用できる。例えば、第2オブジェクトは、ライブビュー動作時にリアルタイムに表示されるライブビュー画像であってよい。その他、第2オブジェクトとして、カメラ10の動作に関する項目を選択するためのメニューの画像を適用できる。   An example of the function and operation of the camera 10 in one embodiment has been shown in connection with FIGS. However, various functions and operations can be applied in addition to the functions and operations of the illustrated camera 10 or instead of some functions and operations of the illustrated camera 10. For example, as an example of the positional relationship between the first object and the second object displayed on the display surface 60 in the camera 10, the positional relationship between the object 71 for touch operation and other objects is mainly displayed on the display surface 60. The case where it changes according to the angle of was illustrated. However, an object other than the touch operation object can be applied as the first object. For example, an object of an image displayed based on image data obtained by imaging can be applied as the first object. For example, the camera 10 may change the positional relationship with other objects according to the angle of the display surface 60 in order to display the object at a position that is easy for the user to see. In this case, the panel 50 may not have the touch panel function. In addition to the object 90, various images can be applied as the second object. For example, as the second object, an image that is sequentially displayed based on image data that is sequentially generated by sequentially capturing images with the image sensor 132 can be applied. For example, the second object may be a live view image displayed in real time during a live view operation. In addition, a menu image for selecting items related to the operation of the camera 10 can be applied as the second object.

カメラ10において本体部および表示部を連結する形態としては、カメラ本体130とパネル50とを連結部40で連結する形態を例示した。しかし、本体部と表示部とは任意の連結部材で連結されてよい。また、表示部は端部において本体部と連結されている必要はない。表示部は、端部以外の位置において本体部と連結されていてよい。また、「本体部」とは、表示機能を有する部材とは異なる部材であることを意味する用語である。   As a form which connects a main-body part and a display part in the camera 10, the form which connects the camera main body 130 and the panel 50 with the connection part 40 was illustrated. However, the main body portion and the display portion may be connected by an arbitrary connecting member. Further, the display unit does not need to be connected to the main body at the end. The display part may be connected to the main body part at a position other than the end part. Further, the “main body part” is a term that means a member different from a member having a display function.

カメラ10においてパネル50の角度を検出する検出器としては、連結部40内に水平回転検出部42および垂直回転検出部44を例示した。しかし、パネル50の角度を検出する検出器として種々の検出方式の検出部を適用できる。例えば、パネル50の内部に、パネル50の角度に応じて移動可能な金属球を設け、金属球の位置からパネル50の角度を検出する検出方式を採用してもよい。また、パネル50の内部に磁石を設け、カメラ本体130に設けた磁気センサで磁力を検出する方式を採用してもよい。   As the detector for detecting the angle of the panel 50 in the camera 10, the horizontal rotation detection unit 42 and the vertical rotation detection unit 44 are illustrated in the connection unit 40. However, various detectors can be used as detectors for detecting the angle of the panel 50. For example, a detection method may be employed in which a metal sphere that can move according to the angle of the panel 50 is provided inside the panel 50 and the angle of the panel 50 is detected from the position of the metal sphere. Further, a method may be adopted in which a magnet is provided in the panel 50 and the magnetic force is detected by a magnetic sensor provided in the camera body 130.

上記の説明において、カメラMPU140の動作として説明した処理は、カメラMPU140がプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。また、上記の説明においてASIC135により実現される処理は、プロセッサによって実現することができる。例えば、ASIC135の動作として説明した処理は、プロセッサがプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。すなわち、本実施形態のカメラ10に関連して説明した処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。   In the above description, the processing described as the operation of the camera MPU 140 is realized by the camera MPU 140 controlling each hardware of the camera 10 according to a program. In the above description, the processing realized by the ASIC 135 can be realized by a processor. For example, the processing described as the operation of the ASIC 135 is realized by the processor controlling each hardware included in the camera 10 according to the program. That is, the processing described in relation to the camera 10 of the present embodiment is performed by the processor operating in accordance with the program to control each hardware, so that each hardware including the processor, the memory, and the like cooperates with the program. It can be realized by operating. That is, the process can be realized by a so-called computer device. The computer device may load a program for controlling the execution of the above-described process, operate according to the read program, and execute the process. The computer device can load the program from a computer-readable recording medium storing the program.

また、本実施形態において、レンズユニット120が装着された状態のカメラ10を、撮像装置の一例として取り上げた。しかし、撮像装置とは、レンズユニット120が装着されていないカメラ本体130およびパネル50を含む概念である。撮像装置としては、レンズ交換式カメラの一例である一眼レフレックスカメラの他に、レンズ非交換式カメラの一例であるコンパクトデジタルカメラ、ミラーレス式カメラ、ビデオカメラ、撮像機能付きの携帯電話機、撮像機能付きの携帯情報端末、撮像機能付きのゲーム機器等の娯楽装置等、撮像機能を有する種々の電子機器を適用の対象とすることができる。撮像装置は電子機器の一例である。電子機器としては、携帯電話、携帯情報端末、いわゆるタブレットやノートパソコン等のコンピュータ、音楽データ再生装置、カーナビ等のナビゲーション装置等、種々の機器を適用の対象とすることができる。   In the present embodiment, the camera 10 with the lens unit 120 attached is taken as an example of an imaging apparatus. However, the imaging device is a concept including the camera body 130 and the panel 50 to which the lens unit 120 is not attached. As an imaging device, in addition to a single-lens reflex camera that is an example of an interchangeable lens camera, a compact digital camera that is an example of a non-interchangeable camera, a mirrorless camera, a video camera, a mobile phone with an imaging function, imaging Various electronic devices having an imaging function, such as a portable information terminal with a function and an entertainment device such as a game machine with an imaging function, can be applied. An imaging device is an example of an electronic device. As the electronic device, various devices such as a mobile phone, a portable information terminal, a computer such as a so-called tablet or a notebook computer, a music data reproducing device, and a navigation device such as a car navigation can be applied.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 カメラ、11 マルチセレクタ、12 レリーズボタン、14 撮像モードダイヤル、13 コマンドダイヤル、20 グリップ部、30 収容部、40 連結部、42 水平回転検出部、44 垂直回転検出部、52 タッチセンサ、50 パネル、60 表示面、120 レンズユニット、121 レンズマウント接点、122 レンズ群、123 レンズMPU、124 レンズ駆動部、130 カメラ本体、131 カメラマウント接点、132 撮像素子、133 アナログ処理部、134 A/D変換器、135 ASIC、136 RAM、137 表示制御部、138 表示ユニット、139 システムメモリ、140 カメラMPU、141 操作入力部、142 AFユニット、143 フォーカルプレーンシャッタ、144 測光素子、145 メインミラー、146 サブミラー、147 ファインダ部、148 駆動部、149 接続インタフェース、150 記録媒体IF、160 接触位置検出部、180 外部メモリ、190 電源、192 電源回路、700 画面、70、71、80、90 オブジェクト、701、702 項目 10 Camera, 11 Multi-selector, 12 Release button, 14 Imaging mode dial, 13 Command dial, 20 Grip part, 30 Housing part, 40 Connection part, 42 Horizontal rotation detection part, 44 Vertical rotation detection part, 52 Touch sensor, 50 Panel , 60 Display surface, 120 Lens unit, 121 Lens mount contact, 122 Lens group, 123 Lens MPU, 124 Lens drive unit, 130 Camera body, 131 Camera mount contact, 132 Image sensor, 133 Analog processing unit, 134 A / D conversion 135 ASIC, 136 RAM, 137 display control unit, 138 display unit, 139 system memory, 140 camera MPU, 141 operation input unit, 142 AF unit, 143 focal plane shutter, 144 photometric element 145 main mirror, 146 sub mirror, 147 finder unit, 148 drive unit, 149 connection interface, 150 recording medium IF, 160 contact position detection unit, 180 external memory, 190 power supply, 192 power supply circuit, 700 screen, 70, 71, 80, 90 objects, 701, 702 items

Claims (5)

把持部を有する本体部と、
画像を表示する表示面を有し、連結部によって前記本体部に対して開閉可能に連結された表示部と、
前記表示部が前記本体部に対して閉じた状態にある場合に前記表示面の前記把持部寄りに前記画像を表示させ、前記表示部が前記本体部に対して開いた状態にある場合に前記表示面のうちの前記連結部から遠い位置に前記画像を表示させる表示制御部と
を備える電子機器。
A main body having a gripping portion ;
Have a display surface for displaying an image, a display unit openably and closably coupled to the main body portion by a connecting portion,
When the display unit is in a closed state with respect to the main body, the image is displayed near the grip portion of the display surface , and when the display unit is in an open state with respect to the main body, An electronic apparatus comprising: a display control unit configured to display the image at a position far from the coupling unit on a display surface .
前記表示部は、前記表示面を介してユーザ操作を受け付けるタッチパネル機能を有し、
前記画像は、ユーザ操作を受け付ける位置をユーザに示すオブジェクトであ
請求項1に記載の電子機器。
The display unit has a touch panel function of accepting a user operation through the display surface,
Wherein the image is an electronic device according to the object der Ru <br/> claim 1 that indicates the position for receiving a user operation to the user.
前記連結部は、前記本体部に対して前記表示部を開閉可能に支持するヒンジ部を有する
請求項1または2に記載の電子機器。
The connecting portion, the electronic apparatus according to claim 1 or 2 having a hinge portion you openably supporting the display portion with respect to the main body portion.
請求項1からのいずれか一項に記載の電子機器と、
撮像部と
を備える撮像装置。
An electronic device according to any one of claims 1 to 3 ,
An imaging device comprising an imaging unit.
把持部を有する本体部、画像を表示する表示面を有し、連結部によって前記本体部に対して開閉可能に連結された表示部を備える電子機器用のプログラムであって、
前記表示部が前記本体部に対して閉じた状態にある場合に前記表示面の前記把持部寄りに前記画像を表示させ、前記表示部が前記本体部に対して開いた状態にある場合に前記表示部のうちの前記連結部から遠い位置に前記画像を表示させる表示制御ステップ
をコンピュータに実行させるプログラム。
Body having a grip portion, have a display surface for displaying an image, a program for an electronic apparatus including a display unit that openably and closably coupled to the main body portion by a connecting portion,
When the display unit is in a closed state with respect to the main body, the image is displayed near the grip portion of the display surface , and when the display unit is in an open state with respect to the main body, A program for causing a computer to execute a display control step for displaying the image at a position far from the connecting portion in the display portion .
JP2012158106A 2012-07-13 2012-07-13 Electronic apparatus, imaging apparatus, and program Active JP6069922B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012158106A JP6069922B2 (en) 2012-07-13 2012-07-13 Electronic apparatus, imaging apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012158106A JP6069922B2 (en) 2012-07-13 2012-07-13 Electronic apparatus, imaging apparatus, and program

Publications (2)

Publication Number Publication Date
JP2014022850A JP2014022850A (en) 2014-02-03
JP6069922B2 true JP6069922B2 (en) 2017-02-01

Family

ID=50197309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012158106A Active JP6069922B2 (en) 2012-07-13 2012-07-13 Electronic apparatus, imaging apparatus, and program

Country Status (1)

Country Link
JP (1) JP6069922B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7237681B2 (en) 2019-03-25 2023-03-13 キヤノン株式会社 ELECTRONIC DEVICE, CONTROL METHOD AND PROGRAM THEREOF

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331650A (en) * 1998-05-12 1999-11-30 Sony Corp Camera
JP2003008964A (en) * 2001-06-27 2003-01-10 Konica Corp Electronic camera
JP2006332938A (en) * 2005-05-25 2006-12-07 Matsushita Electric Ind Co Ltd Wide aspect image displaying device
JP2007036466A (en) * 2005-07-25 2007-02-08 Canon Inc Imaging apparatus
JP5251463B2 (en) * 2008-12-03 2013-07-31 ソニー株式会社 Imaging device
JP5907617B2 (en) * 2012-03-26 2016-04-26 キヤノン株式会社 Display control apparatus, display control apparatus control method, program, and recording medium

Also Published As

Publication number Publication date
JP2014022850A (en) 2014-02-03

Similar Documents

Publication Publication Date Title
KR101761990B1 (en) Imaging apparatus, display control method, and non-transitory computer readable medium
US9778767B2 (en) Display control apparatus and control method of display control apparatus
US9485437B2 (en) Digital photographing apparatus and method of controlling the same
USRE49212E1 (en) Method and apparatus for displaying first content alone or first and second content simultaneously based on movement
US20140300688A1 (en) Imaging apparatus and method of controlling the same
JP2014075716A (en) Imaging device, control method of imaging device, program, and recording medium
US20240056685A1 (en) Image photographing method, device, storage medium, and program product
JP2014123888A (en) Imaging apparatus and control method of the same
US8189055B2 (en) Digital photographing apparatus and method of controlling the same
JP2010268019A (en) Photographing apparatus
JP6263740B2 (en) Imaging device
CN101359085B (en) Imaging device and control method of imaging device
JP6069922B2 (en) Electronic apparatus, imaging apparatus, and program
JP2015036845A (en) Electronic device and program
JP2010004571A (en) Monitor-attached camera
JP2007228233A (en) Photographic device
JP6221504B2 (en) Electronic equipment and programs
JP6686996B2 (en) Electronic devices and programs
US10805545B2 (en) Imaging device
JP2008172501A (en) Imaging apparatus
JP2016187221A (en) Imaging device, imaging device control method, and program
JP5610738B2 (en) Display control apparatus, control method, program, and storage medium
US20130141613A1 (en) Digital image processing apparatus and digital photographing apparatus including the same
JP2022095375A (en) Display control device, control method for the same, program, and recording medium
JP2010021767A (en) Electronic apparatus, control method and program thereof, and image capturing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R150 Certificate of patent or registration of utility model

Ref document number: 6069922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250