JP2015036845A - Electronic device and program - Google Patents

Electronic device and program Download PDF

Info

Publication number
JP2015036845A
JP2015036845A JP2013167566A JP2013167566A JP2015036845A JP 2015036845 A JP2015036845 A JP 2015036845A JP 2013167566 A JP2013167566 A JP 2013167566A JP 2013167566 A JP2013167566 A JP 2013167566A JP 2015036845 A JP2015036845 A JP 2015036845A
Authority
JP
Japan
Prior art keywords
touch
area
image
image data
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013167566A
Other languages
Japanese (ja)
Inventor
林 正樹
Masaki Hayashi
林  正樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013167566A priority Critical patent/JP2015036845A/en
Publication of JP2015036845A publication Critical patent/JP2015036845A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which, during a touch operation with respect to a touch panel, a user cannot check an image located at a touch position.SOLUTION: An electronic device comprises a control unit that causes a touch position image to be displayed in a first area serving as one part of a display area including a position where the touch operation is performed during detection of a touch operation with respect to a display area of a motion image in a touch panel to be displayed in a second area different from the first area. While the touch operation with respect to the display area of the motion image in the touch panel is being detected, a program makes a computer execute a control step of causing the touch position image displayed in the first area serving as one part of display areas including the position where the touch operation is performed to be displayed in the second area different from the first area.

Description

本発明は、電子機器およびプログラムに関する。   The present invention relates to an electronic device and a program.

タッチパネル操作を維持している間は、被写体像を連続して撮像するよう撮像部を制御し、操作を受け付けているタッチパネルの位置に対応する画像部分に基づいて被写体像の撮像条件を調節する撮像装置が知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1]特開2011−188057号公報
While maintaining the touch panel operation, the imaging unit is controlled so as to continuously capture the subject image, and the imaging condition of the subject image is adjusted based on the image portion corresponding to the position of the touch panel receiving the operation. An apparatus is known (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2011-188057

タッチパネルに対してタッチ操作している間、タッチパネルにおけるタッチ位置の画像をユーザが確認することができないという課題があった。   There is a problem that the user cannot confirm the image of the touch position on the touch panel while performing a touch operation on the touch panel.

第1の態様においては、電子機器は、タッチパネルにおける動画の表示領域に対してタッチ操作が検出されている間、タッチ操作された位置を含む一部の表示領域である第1領域に表示されているタッチ位置画像を、第1領域とは異なる第2領域に表示させる制御部を備える。   In the first aspect, the electronic device is displayed in the first area, which is a partial display area including the position where the touch operation is performed, while the touch operation is detected on the moving image display area on the touch panel. A control unit that displays the touched position image in a second area different from the first area.

第2の態様においては、プログラムは、タッチパネルにおける動画の表示領域に対してタッチ操作が検出されている間、タッチ操作された位置を含む一部の表示領域である第1領域に表示されているタッチ位置画像を、第1領域とは異なる第2領域に表示させる制御ステップをコンピュータに実行させる。   In the second aspect, the program is displayed in the first area which is a part of the display area including the position where the touch operation is performed while the touch operation is detected on the moving image display area on the touch panel. The computer is caused to execute a control step of displaying the touch position image in a second area different from the first area.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

カメラシステム5の利用場面の一例を示す。An example of the usage scene of the camera system 5 is shown. カメラ10のブロック構成の一例を示す。An example of a block configuration of the camera 10 is shown. タッチ位置画像の表示先を選択する設定メニューの一例を示す。An example of the setting menu which selects the display place of a touch position image is shown. サブエリアの表示位置を選択するための選択画面の一例を示す。An example of the selection screen for selecting the display position of a subarea is shown. サブエリアのサイズおよび表示倍率を設定するための設定画面の一例を示す。An example of the setting screen for setting the size and display magnification of a subarea is shown. タッチ撮影モードを設定するための設定画面の一例を示す。An example of the setting screen for setting a touch imaging | photography mode is shown. タッチオフ記録停止モードが設定されている間の表示例を模式的に示す。An example of a display while the touch-off recording stop mode is set is schematically shown. 再タッチ記録停止モードが設定されている場合の表示例を模式的に示す。An example of display when the retouch recording stop mode is set is schematically shown. カメラ10における動作フローの一例を示す。An example of an operation flow in the camera 10 is shown. ライブビュー動作を行う場合の動作フローの一例を示す。An example of an operation flow when performing a live view operation is shown. タッチ領域に対して撮影条件を最適化する詳細な動作フローである。It is a detailed operation | movement flow which optimizes imaging | photography conditions with respect to a touch area | region.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須で2あるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Moreover, not all the combinations of features described in the embodiments are essential to the solving means of the invention.

図1は、カメラシステム5の利用場面の一例を示す。カメラシステム5は、カメラ10および表示装置11を備える。カメラ10は、タッチパネル138を有する。表示装置11は、カメラ10に着脱可能に接続される。表示装置11がカメラ10に接続されている場合、カメラ10は、タッチパネル138に画像を表示させるとともに、表示装置11に画像を表示させることができる。   FIG. 1 shows an example of a usage scene of the camera system 5. The camera system 5 includes a camera 10 and a display device 11. The camera 10 has a touch panel 138. The display device 11 is detachably connected to the camera 10. When the display device 11 is connected to the camera 10, the camera 10 can display an image on the touch panel 138 and can display an image on the display device 11.

タッチパネル138には、カメラ10が撮像することによって生成された動画が表示される。カメラ10が撮像した動画がタッチパネル138に表示されている場合に、タッチパネル138に対するタッチ操作を検出すると、タッチ位置の被写体に対して撮影条件を最適化して、動画データの記録を開始する。このとき、カメラ10は、タッチパネル138における動画の表示領域40内に、タッチ位置とは離れた位置にサブエリア50を設定して、タッチ位置の画像であるタッチ位置画像をサブエリア50に表示させる。サブエリア50は、ユーザの指によって隠れないよう、タッチ位置から予め定められた距離以上離れた位置に設定される。また、タッチ位置画像は、ユーザが予め設定した表示倍率で拡大してサブエリア50内に表示される。   On the touch panel 138, a moving image generated by imaging by the camera 10 is displayed. When a moving image captured by the camera 10 is displayed on the touch panel 138, when a touch operation on the touch panel 138 is detected, shooting conditions for the subject at the touch position are optimized and recording of moving image data is started. At this time, the camera 10 sets the sub area 50 at a position away from the touch position in the moving image display area 40 on the touch panel 138, and displays the touch position image, which is an image of the touch position, in the sub area 50. . The sub-area 50 is set at a position separated from the touch position by a predetermined distance or more so as not to be hidden by the user's finger. The touch position image is enlarged and displayed in the sub-area 50 at a display magnification set in advance by the user.

このように、カメラ10は、タッチパネル138における動画の表示領域に対してタッチ操作が検出されている間、タッチ操作された位置を含む一部の表示領域である第1領域に表示される画像であるタッチ位置画像を、第1領域とは異なる第2領域に表示させる。サブエリア50は、第2領域に対応する。このため、ユーザは、タッチパネル138を指で操作して注目被写体を指定している間、タッチ位置の被写体の様子をサブエリア50で確認することができる。   As described above, the camera 10 is an image displayed in the first area which is a partial display area including the position where the touch operation is performed while the touch operation is detected on the moving image display area on the touch panel 138. A touch position image is displayed in a second area different from the first area. The sub area 50 corresponds to the second area. For this reason, the user can confirm the state of the subject at the touch position in the sub-area 50 while operating the touch panel 138 with a finger to specify the subject of interest.

なお、サブエリア50は、タッチパネル138における動画の表示領域内の一部の表示領域である。しかし、タッチ位置画像は、表示装置11に表示されてよい。例えば、カメラ10は、タッチパネル138にタッチ位置画像を表示することに代えて、表示装置11にタッチ位置画像を表示させてもよい。表示装置11にタッチ位置画像を表示する場合、タッチ位置画像は表示装置11の表示領域に全画面表示されてよい。表示装置11は、タッチ位置画像に他の表示オブジェクトを重畳して表示させてもよい。表示装置11は、タッチ位置画像用の表示領域と、他のオブジェクト用の表示領域とを有してもよい。表示装置11は、タッチ位置画像用表示領域にタッチ位置画像を表示し、他の表示領域に他のオブジェクトを表示させてもよい。   The sub area 50 is a partial display area in the moving image display area on the touch panel 138. However, the touch position image may be displayed on the display device 11. For example, instead of displaying the touch position image on the touch panel 138, the camera 10 may cause the display device 11 to display the touch position image. When a touch position image is displayed on the display device 11, the touch position image may be displayed in full screen on the display area of the display device 11. The display device 11 may display another display object superimposed on the touch position image. The display device 11 may include a display area for touch position images and a display area for other objects. The display device 11 may display the touch position image in the display area for touch position images and display other objects in other display areas.

図2は、カメラ10のブロック構成の一例を示す。本図ではレンズユニット120が装着された状態のカメラ10のブロック構成を示す。   FIG. 2 shows an example of a block configuration of the camera 10. This figure shows a block configuration of the camera 10 with the lens unit 120 mounted.

レンズユニット120は、レンズマウント接点121を有するレンズマウントを備える。カメラ本体130は、カメラマウント接点131を有するカメラマウントを備える。レンズマウントとカメラマウントとが係合してレンズユニット120とカメラ本体130とが一体化されると、レンズマウント接点121とカメラマウント接点131とが接続される。レンズMPU123は、レンズマウント接点121およびカメラマウント接点131を介してカメラMPU140と接続され、相互に通信しつつ協働してレンズユニット120を制御する。   The lens unit 120 includes a lens mount having a lens mount contact 121. The camera body 130 includes a camera mount having a camera mount contact 131. When the lens mount and the camera mount are engaged and the lens unit 120 and the camera body 130 are integrated, the lens mount contact 121 and the camera mount contact 131 are connected. The lens MPU 123 is connected to the camera MPU 140 via the lens mount contact 121 and the camera mount contact 131, and controls the lens unit 120 in cooperation with each other while communicating with each other.

レンズユニット120は、レンズ群122、レンズ駆動部124およびレンズMPU123を有する。被写体光は、レンズユニット120が有する光学系としてのレンズ群122を光軸に沿って透過して、カメラ本体130に入射する。メインミラー145は、レンズ群122の光軸を中心とする被写体光束中に進出した進出状態と、被写体光束から退避した退避状態を取り得る。   The lens unit 120 includes a lens group 122, a lens driving unit 124, and a lens MPU 123. The subject light passes through the lens group 122 as an optical system of the lens unit 120 along the optical axis and enters the camera body 130. The main mirror 145 can take an advancing state where it has advanced into the subject light flux centered on the optical axis of the lens group 122 and a retracted state where it has been retracted from the subject light flux.

メインミラー145が進出状態にある場合、メインミラー145は、レンズ群122を通過した被写体光束の一部を反射する。具体的には、進出位置にある場合のメインミラー145の光軸近傍領域は、ハーフミラーとして形成されている。光軸近傍領域に入射した被写体光束の一部は透過し、他の一部は反射する。メインミラー145により反射された被写体光束はファインダ部147に導かれて、ユーザに観察される。ユーザは、ファインダ部147を通じて構図等を確認することができる。ファインダ部147は、被写体光束に基づく被写体像とともに、撮像動作の設定状態を示す情報等を含む種々の情報をユーザに提示する表示デバイスを含んでよい。   When the main mirror 145 is in the advanced state, the main mirror 145 reflects a part of the subject light flux that has passed through the lens group 122. Specifically, the region near the optical axis of the main mirror 145 in the advanced position is formed as a half mirror. Part of the subject luminous flux incident on the region near the optical axis is transmitted and the other part is reflected. The subject luminous flux reflected by the main mirror 145 is guided to the finder unit 147 and observed by the user. The user can check the composition and the like through the finder unit 147. The finder unit 147 may include a display device that presents various types of information including information indicating the setting state of the imaging operation to the user, along with the subject image based on the subject luminous flux.

メインミラー145の光軸近傍領域を透過した被写体光束の一部は、サブミラー146で反射されて、AFユニット142へ導かれる。AFユニット142は、被写体光束を受光する複数の光電変換素子列を有する。光電変換素子列は、合焦状態にある場合には位相が一致した信号を出力し、前ピン状態または後ピン状態にある場合には、位相ずれした信号を出力する。位相のずれ量は、焦点状態からのずれ量に対応する。AFユニット142は、光電変換素子列の出力を相関演算することで位相差を検出して、位相差を示す位相差信号をカメラMPU140へ出力する。   Part of the subject luminous flux that has passed through the region near the optical axis of the main mirror 145 is reflected by the sub mirror 146 and guided to the AF unit 142. The AF unit 142 includes a plurality of photoelectric conversion element arrays that receive a subject light beam. The photoelectric conversion element array outputs a signal with a phase match when in a focused state, and outputs a signal with a phase shift when in a front pin state or a rear pin state. The amount of phase shift corresponds to the amount of shift from the focus state. The AF unit 142 detects a phase difference by performing a correlation operation on the output of the photoelectric conversion element array, and outputs a phase difference signal indicating the phase difference to the camera MPU 140.

レンズ群122の焦点状態は、カメラMPU140等の制御により、AFユニット142からの位相差信号を用いて調節される。例えば、位相差信号から検出された焦点状態に基づき、カメラMPU140によってレンズ群122が含むフォーカスレンズの目標位置が決定され、決定された目標位置に向けてレンズMPU123の制御によってフォーカスレンズの位置が制御される。具体的には、レンズMPU123は、一例としてフォーカスレンズモータを含むレンズ駆動部124を制御して、レンズ群122を構成するフォーカスレンズを移動させる。このように、メインミラー145がダウンして進出状態にある場合に、位相差検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。AFユニット142は、被写体像における複数の領域のそれぞれにおいて焦点状態を調節すべく、複数の領域にそれぞれ対応する複数の位置にそれぞれ光電変換素子列が設けられる。   The focus state of the lens group 122 is adjusted using the phase difference signal from the AF unit 142 under the control of the camera MPU 140 and the like. For example, the target position of the focus lens included in the lens group 122 is determined by the camera MPU 140 based on the focus state detected from the phase difference signal, and the position of the focus lens is controlled by the control of the lens MPU 123 toward the determined target position. Is done. Specifically, the lens MPU 123 controls the lens driving unit 124 including a focus lens motor as an example, and moves the focus lens constituting the lens group 122. As described above, when the main mirror 145 is in the advanced state after being lowered, the focus state of the lens group 122 is detected by the phase difference detection method, and the focus adjustment is performed. The AF unit 142 is provided with photoelectric conversion element arrays at a plurality of positions respectively corresponding to the plurality of regions in order to adjust the focus state in each of the plurality of regions in the subject image.

測光素子144は、光学ファインダ部に導かれた光束の一部の光束を受光する。測光素子144が有する光電変換素子で検出された被写体の輝度情報は、カメラMPU140に出力される。カメラMPU140は、測光素子144から取得した輝度情報に基づき、AE評価値を算出して露出制御に用いる。   The photometric element 144 receives a part of the light beam guided to the optical viewfinder. The luminance information of the subject detected by the photoelectric conversion element included in the photometric element 144 is output to the camera MPU 140. The camera MPU 140 calculates an AE evaluation value based on the luminance information acquired from the photometric element 144 and uses it for exposure control.

メインミラー145が被写体光束から退避すると、サブミラー146はメインミラー145に連動して被写体光束から退避する。撮像素子132のレンズ群122側には、メカニカルシャッタの一例としてのフォーカルプレーンシャッタ143が設けられる。メインミラー145が退避状態にあり、フォーカルプレーンシャッタ143が開状態にある場合、レンズ群122を透過した被写体光束は、撮像素子132の受光面に入射する。   When the main mirror 145 retracts from the subject light beam, the sub mirror 146 retracts from the subject light beam in conjunction with the main mirror 145. A focal plane shutter 143 as an example of a mechanical shutter is provided on the lens group 122 side of the image sensor 132. When the main mirror 145 is in the retracted state and the focal plane shutter 143 is in the open state, the subject light flux that has passed through the lens group 122 is incident on the light receiving surface of the image sensor 132.

撮像素子132は、撮像部として機能する。撮像素子132は、レンズ群122を通過した被写体光束により被写体を撮像する。撮像素子132としては、例えばCCDセンサ、CMOSセンサ等の固体撮像素子を含む。撮像素子132は、被写体光束を受光する複数の光電変換素子を有しており、複数の光電変換素子でそれぞれ生じた蓄積電荷量に応じたアナログ信号をアナログ処理部133へ出力する。アナログ処理部133は、撮像素子132から出力されたアナログ信号に対して、感度補正処理、OBクランプ処理等のアナログ処理を施して、A/D変換器134へ出力する。A/D変換器134は、アナログ処理部133から出力されたアナログ信号を、画像データを表すデジタル信号に変換して出力する。撮像素子132、アナログ処理部133およびA/D変換器134は、カメラMPU140からの指示を受けた駆動部148により駆動される。   The imaging element 132 functions as an imaging unit. The image sensor 132 captures an image of the subject using the subject light flux that has passed through the lens group 122. Examples of the image sensor 132 include a solid-state image sensor such as a CCD sensor or a CMOS sensor. The imaging element 132 has a plurality of photoelectric conversion elements that receive the subject light flux, and outputs an analog signal corresponding to the amount of accumulated charge generated by each of the plurality of photoelectric conversion elements to the analog processing unit 133. The analog processing unit 133 performs analog processing such as sensitivity correction processing and OB clamping processing on the analog signal output from the image sensor 132 and outputs the analog signal to the A / D converter 134. The A / D converter 134 converts the analog signal output from the analog processing unit 133 into a digital signal representing image data and outputs the digital signal. The image sensor 132, the analog processing unit 133, and the A / D converter 134 are driven by a driving unit 148 that receives an instruction from the camera MPU 140.

A/D変換器134からデジタル信号で出力した画像データは、ASIC135に入力される。ASIC135は、画像処理機能に関連する回路等を一つにまとめた集積回路である。ASIC135は、揮発性メモリの一例としてのRAM136の少なくとも一部のメモリ領域を、画像データを一時的に記憶するバッファ領域として使用して、RAM136に記憶させた画像データに対して種々の画像処理を施す。ASIC135による画像処理としては、欠陥画素補正、ホワイトバランス補正、色補間処理、色補正、ガンマ補正、輪郭強調処理、画像データの圧縮処理等を例示することができる。撮像素子132が連続して撮像した場合、順次に出力される画像データはバッファ領域に順次に記憶される。撮像素子132が連続して撮像することにより得られた複数の画像データは、連続する静止画の画像データ、または、動画を構成する各画像の画像データとして、バッファ領域に順次に記憶される。RAM136は、ASIC135において動画データを処理する場合にフレームを一時的に記憶するフレームメモリとしても機能する。   Image data output as a digital signal from the A / D converter 134 is input to the ASIC 135. The ASIC 135 is an integrated circuit in which circuits related to the image processing function are integrated into one. The ASIC 135 uses at least a part of the memory area of the RAM 136 as an example of a volatile memory as a buffer area for temporarily storing image data, and performs various image processing on the image data stored in the RAM 136. Apply. Examples of the image processing by the ASIC 135 include defective pixel correction, white balance correction, color interpolation processing, color correction, gamma correction, contour enhancement processing, and image data compression processing. When the image sensor 132 continuously captures images, sequentially output image data is sequentially stored in the buffer area. A plurality of image data obtained by continuously capturing images by the image sensor 132 is sequentially stored in the buffer area as image data of continuous still images or image data of each image constituting the moving image. The RAM 136 also functions as a frame memory that temporarily stores frames when the ASIC 135 processes moving image data.

ASIC135における画像処理としては、記録用の画像データを生成する処理の他、表示用の画像データを生成する処理、自動焦点調節(AF)用の画像データ処理を例示できる。また、ASIC135における画像処理としては、AF処理用のコントラスト量を検出する処理等を含む。具体的には、ASIC135は、画像データからコントラスト量を検出してカメラMPU140に供給する。例えば、ASIC135は、光軸方向の異なる位置にフォーカスレンズを位置させて撮像することにより得られた複数の画像データのそれぞれからコントラスト量を検出する。カメラMPU140は、検出されたコントラスト量とフォーカスレンズの位置とに基づいて、レンズ群122の焦点状態を調節する。例えば、カメラMPU140は、コントラスト量を増大させるようフォーカスレンズの目標位置を決定して、レンズMPU123に、決定された目標位置に向けてフォーカスレンズの位置を制御させる。このように、メインミラー145がアップして退避状態にある場合に、コントラスト検出方式でレンズ群122の焦点状態が検出されて焦点調節が行われる。このように、カメラMPU140は、ASIC135およびレンズMPU123と協働して、レンズ群122の焦点調節を行う。   Examples of image processing in the ASIC 135 include processing for generating image data for recording, processing for generating image data for display, and image data processing for automatic focus adjustment (AF). Further, the image processing in the ASIC 135 includes processing for detecting the contrast amount for AF processing and the like. Specifically, the ASIC 135 detects the contrast amount from the image data and supplies it to the camera MPU 140. For example, the ASIC 135 detects the contrast amount from each of a plurality of image data obtained by imaging with the focus lens positioned at different positions in the optical axis direction. The camera MPU 140 adjusts the focus state of the lens group 122 based on the detected contrast amount and the position of the focus lens. For example, the camera MPU 140 determines the target position of the focus lens so as to increase the amount of contrast, and causes the lens MPU 123 to control the position of the focus lens toward the determined target position. As described above, when the main mirror 145 is up and in the retracted state, the focus state of the lens group 122 is detected by the contrast detection method, and the focus adjustment is performed. As described above, the camera MPU 140 performs the focus adjustment of the lens group 122 in cooperation with the ASIC 135 and the lens MPU 123.

ASIC135は、A/D変換器134から出力された画像データを記録する場合、規格化された画像フォーマットの画像データに変換する。例えば、ASIC135は、静止画の画像データを、JPEG等の規格に準拠した符号化形式で符号化された静止画データを生成するための圧縮処理を行う。また、ASIC135は、複数のフレームを、QuickTime、H.264、MPEG2、Motion JPEG等の規格に準拠した符号化方式で符号化された動画データを生成するための圧縮処理を行う。   When recording the image data output from the A / D converter 134, the ASIC 135 converts the image data into a standardized image format. For example, the ASIC 135 performs a compression process for generating still image data obtained by encoding still image data in an encoding format compliant with a standard such as JPEG. Further, the ASIC 135 converts a plurality of frames into QuickTime, H.264, and the like. H.264, MPEG2, Motion JPEG, etc. A compression process for generating moving image data encoded by an encoding method compliant with a standard such as JPEG is performed.

ASIC135は、生成した静止画データ、動画データ等の画像データを、不揮発性の記録媒体の一例としての外部メモリ180へ出力して記録させる。例えば、ASIC135は、静止画ファイル、動画ファイルとして外部メモリ180に記録させる。外部メモリ180としては、フラッシュメモリ等の半導体メモリを例示することができる。具体的には、外部メモリ180としては、SDメモリカード、CFストレージカード、XQDメモリカード等の種々のメモリカードを例示することができる。RAM136に記憶されている画像データは、記録媒体IF150を通じて外部メモリ180へ転送される。また、外部メモリ180に記録されている画像データは、記録媒体IF150を通じてRAM136へ転送され、表示等の処理に供される。記録媒体IF150としては、上述したメモリカードに対するアクセスを制御するカードコントローラを例示することができる。また、RAM136に記憶されている画像データは、外部機器IF152を通じてパーソナルコンピュータ、表示装置およびプリンタ等の外部機器へ転送される。また、パーソナルコンピュータ等の外部機器に記録されている画像データは、外部機器IF152を通じてRAM136へ転送され、表示等の処理に供される。外部機器IF152としては、USBコントローラ、HDMI(登録商標)コントローラを例示することができる。   The ASIC 135 outputs and records the generated image data such as still image data and moving image data to an external memory 180 as an example of a nonvolatile recording medium. For example, the ASIC 135 records in the external memory 180 as a still image file and a moving image file. An example of the external memory 180 is a semiconductor memory such as a flash memory. Specifically, as the external memory 180, various memory cards such as an SD memory card, a CF storage card, and an XQD memory card can be exemplified. The image data stored in the RAM 136 is transferred to the external memory 180 through the recording medium IF 150. Further, the image data recorded in the external memory 180 is transferred to the RAM 136 through the recording medium IF 150 and used for processing such as display. Examples of the recording medium IF 150 include a card controller that controls access to the above-described memory card. The image data stored in the RAM 136 is transferred to an external device such as a personal computer, a display device, and a printer through the external device IF 152. Further, image data recorded in an external device such as a personal computer is transferred to the RAM 136 through the external device IF 152 and used for processing such as display. Examples of the external device IF 152 include a USB controller and an HDMI (registered trademark) controller.

ASIC135は、記録用の画像データの生成に並行して、表示用の画像データを生成する。例えば、ASIC135は、いわゆるライブビュー動作時に、液晶表示デバイス等の表示ユニット168に表示させる表示用の画像データを生成する。また、画像の再生時においては、ASIC135は、外部メモリ180から読み出された画像データから表示用の画像データを生成する。生成された表示用の画像データは、表示制御部137の制御に従ってアナログの信号に変換され、表示ユニット168に表示される。また、撮像により得られた画像データに基づく画像表示と共に、当該画像データに基づく画像表示をすることなく、カメラ10の各種設定に関する様々なメニュー項目等のタッチパネル用のオブジェクトも、ASIC135および表示制御部137の制御により重畳される等して表示ユニット168に表示される。   The ASIC 135 generates display image data in parallel with the generation of recording image data. For example, the ASIC 135 generates display image data to be displayed on the display unit 168 such as a liquid crystal display device during a so-called live view operation. Further, at the time of image reproduction, the ASIC 135 generates image data for display from the image data read from the external memory 180. The generated display image data is converted into an analog signal under the control of the display control unit 137 and displayed on the display unit 168. In addition to the image display based on the image data obtained by imaging, the ASIC 135 and the display control unit also include objects for touch panels such as various menu items related to various settings of the camera 10 without displaying an image based on the image data. The image is displayed on the display unit 168 by being superposed under the control of 137.

表示ユニット168には、タッチパネル138の一部としてのタッチセンサ162が設けられる。表示ユニット168およびタッチセンサ162はタッチパネル138として機能する。タッチセンサ162は、表示ユニット168の略全面に設けられてよい。タッチセンサ162としては、抵抗膜方式、静電容量方式等の種々の検出方式のタッチセンサを適用できる。タッチセンサ162の出力は、タッチ検出部160に出力され、タッチ検出部160においてタッチ位置が算出され、カメラMPU140へ出力される。例えば、タッチ検出部160は、表示ユニット168におけるタッチ位置のX座標およびY座標を算出して、カメラMPU140へ供給する。カメラMPU140は、タッチ検出部160から出力されたタッチ位置の座標および表示ユニット168に表示させている表示内容に応じてユーザ指示を特定して、表示ユニット168に対するユーザ操作を受け付ける旨を判断した場合に、ユーザ指示に応じて10の各部を制御する。これにより、タッチパネル138に対するユーザの指先やペン等先による操作に追従して、カメラ10の各部を制御することができる。   The display unit 168 is provided with a touch sensor 162 as a part of the touch panel 138. The display unit 168 and the touch sensor 162 function as the touch panel 138. The touch sensor 162 may be provided on substantially the entire surface of the display unit 168. As the touch sensor 162, touch sensors of various detection methods such as a resistive film method and a capacitance method can be applied. The output of the touch sensor 162 is output to the touch detection unit 160, the touch position is calculated in the touch detection unit 160, and is output to the camera MPU 140. For example, the touch detection unit 160 calculates the X coordinate and the Y coordinate of the touch position on the display unit 168 and supplies the calculated X coordinate and Y coordinate to the camera MPU 140. When the camera MPU 140 specifies a user instruction according to the coordinates of the touch position output from the touch detection unit 160 and the display content displayed on the display unit 168 and determines to accept a user operation on the display unit 168 In addition, 10 units are controlled in accordance with a user instruction. Accordingly, each part of the camera 10 can be controlled in accordance with an operation by the user's fingertip, pen, or the like on the touch panel 138.

操作入力部141は、ユーザから操作を受け付ける。操作入力部141は、レリーズボタン、マルチセレクタやコマンドダイヤル等の回転式の操作部材、再生ボタンや動画ボタン等のボタン式の操作部材、ライブビュースイッチ、電源スイッチ等のスイッチ式の操作部材等、各種操作部材等を含む。カメラMPU140は、操作入力部141が操作されたことを検知して、操作に応じた動作を実行する。例えば、カメラMPU140は、レリーズボタンが押し込まれた場合に、焦点位置の調節動作または撮影動作を実行するようにカメラ10の各部を制御する。   The operation input unit 141 receives an operation from the user. The operation input unit 141 includes a release button, a rotary operation member such as a multi-selector and a command dial, a button-type operation member such as a playback button and a movie button, a switch-type operation member such as a live view switch and a power switch, etc. Includes various operating members. The camera MPU 140 detects that the operation input unit 141 has been operated, and executes an operation corresponding to the operation. For example, the camera MPU 140 controls each part of the camera 10 so as to execute a focus position adjustment operation or a photographing operation when a release button is pressed.

カメラ10は、上記に説明した制御を含めて、カメラMPU140およびASIC135により直接的または間接的に制御される。カメラ10の動作に必要な定数、変数等のパラメータ、プログラム等は、システムメモリ139に格納される。システムメモリ139は、電気的に消去・記憶可能な不揮発性メモリであり、例えばフラッシュROM、EEPROM等により構成される。システムメモリ139は、パラメータ、プログラム等を、カメラ10の非動作時にも失われないように格納する。システムメモリ139に記憶されたパラメータ、プログラム等は、RAM136に展開され、カメラ10の制御に利用される。カメラ本体130内の、ASIC135、RAM136、システムメモリ139、表示制御部137、タッチ検出部160、カメラMPU140は、バス等の接続インタフェース149により相互に接続され、各種のデータをやりとりする。   The camera 10 is controlled directly or indirectly by the camera MPU 140 and the ASIC 135 including the control described above. Constants, parameters such as variables, programs, and the like necessary for the operation of the camera 10 are stored in the system memory 139. The system memory 139 is an electrically erasable / storable nonvolatile memory, and is configured by, for example, a flash ROM, an EEPROM, or the like. The system memory 139 stores parameters, programs, and the like so that they are not lost even when the camera 10 is not operating. Parameters, programs, and the like stored in the system memory 139 are expanded in the RAM 136 and used for controlling the camera 10. The ASIC 135, the RAM 136, the system memory 139, the display control unit 137, the touch detection unit 160, and the camera MPU 140 in the camera main body 130 are connected to each other via a connection interface 149 such as a bus and exchange various data.

カメラ本体130の各部、レンズユニット120の各部および外部メモリ180は、カメラMPU140の制御により、電源回路192を介して電源190から電力供給を受ける。電源190は、ニッケル水素電池、リチウムイオン電池等の二次電池、乾電池等の非充電式の一次電池等であってよい。電池としての電源190は、カメラ本体130に対して着脱可能に装着される。電源190は、商用電源であってもよい。   Each part of the camera main body 130, each part of the lens unit 120, and the external memory 180 are supplied with power from the power supply 190 through the power supply circuit 192 under the control of the camera MPU 140. The power source 190 may be a secondary battery such as a nickel metal hydride battery or a lithium ion battery, a non-rechargeable primary battery such as a dry battery, or the like. A power source 190 as a battery is detachably attached to the camera body 130. The power source 190 may be a commercial power source.

図3は、タッチ位置画像の表示先を選択する設定メニュー300の一例を示す。設定メニュー300は、タッチパネル138を表示先として選択するためのメニュー項目310と、表示装置11を表示先として選択するためのメニュー項目320とを含む。   FIG. 3 shows an example of a setting menu 300 for selecting the display destination of the touch position image. The setting menu 300 includes a menu item 310 for selecting the touch panel 138 as a display destination, and a menu item 320 for selecting the display device 11 as a display destination.

設定メニュー300は、上位の設定メニューにおいて、タッチ位置画像を設定するためのメニュー項目が選択された場合に、タッチパネル138に表示される。設定メニュー300は、カメラ10に表示装置11が接続されている場合に、タッチパネル138に表示される。カメラ10に表示装置11が接続されていない場合には、上位の設定メニューにおいてタッチ位置画像を設定するためのメニュー項目が選択されたときは、後述するサブエリアの表示位置を選択するための選択画面が表示される。   The setting menu 300 is displayed on the touch panel 138 when a menu item for setting a touch position image is selected in the upper setting menu. The setting menu 300 is displayed on the touch panel 138 when the display device 11 is connected to the camera 10. When the display device 11 is not connected to the camera 10, when a menu item for setting a touch position image is selected in the upper setting menu, a selection for selecting a display position of a sub-area described later is selected. A screen is displayed.

なお、カメラ10に表示装置11が接続されていない場合でも、タッチ位置画像を設定するためのメニュー項目が選択されたときに設定メニュー300が表示されてよい。この場合、メニュー項目320はグレーアウト表示されて、メニュー項目320に対するユーザの選択操作が無効にされてよい。   Even when the display device 11 is not connected to the camera 10, the setting menu 300 may be displayed when a menu item for setting a touch position image is selected. In this case, the menu item 320 may be grayed out, and the user's selection operation on the menu item 320 may be invalidated.

図4は、サブエリアの表示位置を選択するための選択画面400の一例を示す。選択画面400は、図3の設定メニュー300において、メニュー項目310が選択された場合に、タッチパネル138に表示される。また、カメラ10に表示装置11が接続されていない場合に、上述した上位の設定メニューにおいてタッチ位置画像を設定するためのメニュー項目が選択されたときに、タッチパネル138に表示される。   FIG. 4 shows an example of a selection screen 400 for selecting the display position of the sub area. The selection screen 400 is displayed on the touch panel 138 when the menu item 310 is selected in the setting menu 300 of FIG. In addition, when the display device 11 is not connected to the camera 10, the menu item for setting the touch position image is selected in the above-described upper setting menu, and displayed on the touch panel 138.

選択画面400は、サブエリアの表示位置の候補を示すサブエリア410a、サブエリア410b、サブエリア410cおよびサブエリア410dと、メインエリア420とを含む。ユーザは、タッチ操作または操作入力部141に対する操作を通じて、これらのサブエリア410の中から一つのサブエリアを選択する。選択されたサブエリアの表示位置を示す情報は、システムメモリ139内にパラメータとして記憶される。   Selection screen 400 includes a sub-area 410a, a sub-area 410b, a sub-area 410c, a sub-area 410d that indicate candidates for display positions of the sub-area, and a main area 420. The user selects one subarea from these subareas 410 through a touch operation or an operation on the operation input unit 141. Information indicating the display position of the selected sub-area is stored in the system memory 139 as a parameter.

なお、選択画面400においては、複数のサブエリア410の中から複数のサブエリア410をユーザに選択させてよい。複数のサブエリア410が選択された場合、カメラMPU140は選択された複数のサブエリア410の表示位置の中から、一つサブエリア410の表示位置を動的に選択して、タッチ位置画像を表示させてよい。   In the selection screen 400, the user may select a plurality of subareas 410 from the plurality of subareas 410. When a plurality of subareas 410 are selected, the camera MPU 140 dynamically selects the display position of one subarea 410 from the display positions of the selected subareas 410 and displays the touch position image. You may let me.

複数のサブエリア410を選択させる場合、表示の優先順位とともにサブエリア410を選択させてもよい。カメラMPU140は、サブエリア410を順番に選択させ、選択された順にサブエリア410に対して高い優先順位を定めてよい。カメラMPU140は、選択された複数のサブエリア410の表示位置の中から、タッチ位置画像を表示させる表示位置を動的に選択する場合、優先順位の順に選択してよい。   When selecting a plurality of subareas 410, the subareas 410 may be selected together with the display priority. The camera MPU 140 may select the sub-areas 410 in order, and set a higher priority for the sub-areas 410 in the selected order. When the display position for displaying the touch position image is dynamically selected from the display positions of the plurality of selected sub-areas 410, the camera MPU 140 may select the display positions in order of priority.

図5は、サブエリアのサイズおよび表示倍率を設定するための設定画面500の一例を示す。設定画面500は、図4の選択画面400において、サブエリア410の選択が確定された場合に、タッチパネル138に表示される。   FIG. 5 shows an example of a setting screen 500 for setting the size and display magnification of the sub area. The setting screen 500 is displayed on the touch panel 138 when the selection of the sub-area 410 is confirmed on the selection screen 400 of FIG.

設定画面500は、サブエリアの表示位置の候補を示すサブエリアオブジェクト510、メインエリアオブジェクト520、模擬オブジェクト530、模擬オブジェクト532、操作オブジェクト540および操作オブジェクト550を含む。メインエリアオブジェクト520は、タッチパネル138における動画の表示領域を表す。サブエリアオブジェクト510はタッチ位置画像の表示範囲を表す。したがって、メインエリアオブジェクト520に対するサブエリアオブジェクト510の相対サイズが、動画の表示領域に対するタッチ位置画像の表示範囲の相対サイズを示す。サブエリアオブジェクト510は、メインエリアオブジェクト520内において、図4の選択画面400で選択された表示位置に表示される。   The setting screen 500 includes a sub area object 510 indicating a display position candidate of the sub area, a main area object 520, a simulated object 530, a simulated object 532, an operation object 540, and an operation object 550. The main area object 520 represents a moving image display area on the touch panel 138. The sub-area object 510 represents the display range of the touch position image. Therefore, the relative size of the sub area object 510 with respect to the main area object 520 indicates the relative size of the display range of the touch position image with respect to the moving image display area. The sub area object 510 is displayed in the main area object 520 at the display position selected on the selection screen 400 in FIG.

操作オブジェクト540は、サブエリアのサイズを変更するユーザ指示を受け付ける。操作オブジェクト540は、サブエリアのサイズを更に大きくする指示を受け付けるオブジェクト541と、サイズを更に小さくする指示を受け付けるオブジェクト542とを含む。オブジェクト541が操作されると、サブエリアオブジェクト510のサイズを拡大する。オブジェクト542が操作されると、サブエリアオブジェクト510を縮小する。これにより、操作オブジェクト540が操作されると、メインエリアオブジェクト520に対するサブエリアオブジェクト510の表示倍率が変更される。ユーザは、操作オブジェクト540を通じて望ましいサブエリアのサイズを選択することができる。   The operation object 540 receives a user instruction to change the size of the sub area. The operation object 540 includes an object 541 that receives an instruction to further increase the size of the sub-area, and an object 542 that receives an instruction to further reduce the size. When the object 541 is operated, the size of the sub-area object 510 is enlarged. When the object 542 is operated, the subarea object 510 is reduced. Thus, when the operation object 540 is operated, the display magnification of the sub area object 510 with respect to the main area object 520 is changed. The user can select a desired sub-area size through the operation object 540.

操作オブジェクト550は、表示倍率を変更するユーザ指示を受け付ける。操作オブジェクト550は、表示倍率を更に大きくする指示を受け付けるオブジェクト551と、表示倍率を更に小さくする指示を受け付けるオブジェクト552とを含む。オブジェクト551が操作されると、模擬オブジェクト532の大きさが拡大される。オブジェクト552が操作されると、模擬オブジェクト532の大きさが縮小される。これにより、操作オブジェクト550が操作されると、模擬オブジェクト530に対する模擬オブジェクト532の表示倍率が変更される。ユーザは、操作オブジェクト550を通じて望ましい表示倍率を選択することができる。   The operation object 550 receives a user instruction to change the display magnification. The operation object 550 includes an object 551 that receives an instruction to further increase the display magnification and an object 552 that receives an instruction to further decrease the display magnification. When the object 551 is operated, the size of the simulated object 532 is enlarged. When the object 552 is operated, the size of the simulated object 532 is reduced. Thereby, when the operation object 550 is operated, the display magnification of the simulated object 532 with respect to the simulated object 530 is changed. The user can select a desired display magnification through the operation object 550.

ユーザは、タッチ操作または操作入力部141に対する操作を通じて、操作オブジェクト540および操作オブジェクト550を操作する。ユーザ操作により確定されたサブエリアのサイズおよび表示倍率を示す情報は、システムメモリ139内にパラメータとして記憶される。このように、カメラMPU140は、本設定画面を通じて、タッチパネル138における動画の表示領域内におけるサブエリアの位置を示す情報、サブエリアのサイズを示す情報およびサブエリアへの表示倍率を示す情報の少なくとも一つを示す情報をユーザから取得する。そして、カメラMPU140は、取得した情報に基づいて、サブエリアへのタッチ位置画像の表示を制御する。   The user operates the operation object 540 and the operation object 550 through a touch operation or an operation on the operation input unit 141. Information indicating the size and display magnification of the sub-area determined by the user operation is stored as a parameter in the system memory 139. As described above, the camera MPU 140 transmits at least one of the information indicating the position of the sub area in the moving image display area on the touch panel 138, the information indicating the size of the sub area, and the information indicating the display magnification to the sub area through the setting screen. Get information from the user. And camera MPU140 controls the display of the touch position image to a subarea based on the acquired information.

図6は、タッチ撮影モードを設定するための設定画面600の一例を示す。タッチ撮影モードは、画像データの記録開始および画像データの記録終了を指示する操作内容を定める。設定画面600は、図5の設定画面500において、サブエリア410のサイズおよび表示倍率が確定された場合に、タッチパネル138に表示される。   FIG. 6 shows an example of a setting screen 600 for setting the touch shooting mode. The touch shooting mode defines the operation content instructing the start of image data recording and the end of image data recording. The setting screen 600 is displayed on the touch panel 138 when the size and display magnification of the sub area 410 are determined on the setting screen 500 of FIG.

設定画面600は、画像データの記録モードを選択するメニュー項目610およびメニュー項目620と、メニュー項目610に対応する記録モードにおける設定を行うためのメニュー611およびメニュー612とを含む。メニュー項目610は、タッチパネル138に対して一度のタッチ操作に応じて画像データの外部メモリ180への記録を開始して、再度のタッチ操作に応じて画像データの外部メモリ180への記録を終了させる記録モードを選択するメニュー項目である。この記録モードを再タッチ記録停止モードと呼ぶ。メニュー項目620は、タッチパネル138に対してタッチ操作されている間、画像データの外部メモリ180への記録を継続する第2記録モードを選択するためのメニュー項目である。この記録モードをタッチオフ記録停止モードと呼ぶ。   The setting screen 600 includes a menu item 610 and a menu item 620 for selecting a recording mode of image data, and a menu 611 and a menu 612 for performing settings in the recording mode corresponding to the menu item 610. The menu item 610 starts recording image data in the external memory 180 in response to a single touch operation on the touch panel 138 and ends recording image data in the external memory 180 in response to another touch operation. This is a menu item for selecting a recording mode. This recording mode is called a retouch recording stop mode. The menu item 620 is a menu item for selecting a second recording mode in which image data is continuously recorded in the external memory 180 while a touch operation is performed on the touch panel 138. This recording mode is called a touch-off recording stop mode.

メニュー611は、画像データの記録開始および記録終了を指示する操作内容を選択するプルダウンメニューである。選択肢としては、ダブルクリックやタップ操作等を例示することができる。例えば操作内容としてダブルクリックが選択された場合、動画の表示領域のいずれかの箇所がダブルクリックされると画像データの記録が開始され、後述するメニュー612で選択されたエリアがダブルクリックされると画像データの記録が終了する。   A menu 611 is a pull-down menu for selecting an operation content for instructing start and end of recording of image data. Examples of options include double clicks and tap operations. For example, when double-click is selected as the operation content, recording of image data is started when any part of the moving image display area is double-clicked, and when an area selected by a menu 612 to be described later is double-clicked. Recording of the image data ends.

メニュー612は、画像データの記録停止をどの表示エリアで受け付けるかを選択するためのプルダウンメニューである。選択肢としては、メインエリア、サブエリアおよび全エリアを含む。カメラMPU140は、選択されたエリアに対する、プルダウンメニュー611で選択された種類のタッチ操作を、記録停止指示として受け付ける。   A menu 612 is a pull-down menu for selecting in which display area the recording stop of image data is accepted. Options include main area, sub-area, and all areas. The camera MPU 140 accepts the type of touch operation selected from the pull-down menu 611 for the selected area as a recording stop instruction.

なお、記録停止を受け付けるエリアとして選択されなかった非選択エリアは、記録停止とは異なる内容の操作を受け付ける。非選択エリアで受け付ける操作としては、ピンチイン操作やピンチアウト操作などを例示することができる。   Note that the non-selected area that has not been selected as the area for receiving the recording stop receives an operation having a different content from the recording stop. Examples of operations received in the non-selected area include pinch-in operations and pinch-out operations.

ユーザは、タッチ操作または操作入力部141に対する操作を通じて、設定画面600の各種メニューを操作する。ユーザ操作により確定された情報は、システムメモリ139内にパラメータとして記憶される。   The user operates various menus on the setting screen 600 through a touch operation or an operation on the operation input unit 141. Information determined by the user operation is stored as a parameter in the system memory 139.

図7は、タッチオフ記録停止モードが設定されている間の表示例を模式的に示す。撮像動作が開始すると、画面700において表示エリア701に動画が表示される。   FIG. 7 schematically shows a display example while the touch-off recording stop mode is set. When the imaging operation starts, a moving image is displayed in the display area 701 on the screen 700.

動画の表示エリア701内のいずれかの位置がタッチされると、レンズユニット120の焦点状態の調節、露出条件の調節、ホワイトバランス等を含む各種の撮影条件が決定され、動画の表示とともに、画像データの記録が開始される(画面710)。このように、カメラMPU140は、タッチパネル138においてタッチ操作された位置に対応する位置の被写体に対して撮像素子132による撮像条件を調節する。ここで、画像データとは動画データであってよい。画像データとは静止画データであってよい。   When any position in the moving image display area 701 is touched, various shooting conditions including adjustment of the focus state of the lens unit 120, adjustment of exposure conditions, white balance, and the like are determined. Data recording is started (screen 710). As described above, the camera MPU 140 adjusts the imaging condition of the imaging element 132 for the subject at the position corresponding to the position where the touch operation is performed on the touch panel 138. Here, the image data may be moving image data. The image data may be still image data.

また、画面710において、表示エリア701内のサブエリア711に、図5に関連して説明したサイズおよび表示倍率に基づいて決定された抽出対象エリアの部分画像が表示される。サブエリア711は、図5に関連して説明したサイズを持ち、図4に関連して説明した表示位置に設定される。このときサブエリア711は、ユーザ操作のタッチ位置を含まないように決定される。   In addition, on the screen 710, a partial image of the extraction target area determined based on the size and the display magnification described with reference to FIG. 5 is displayed in the sub-area 711 in the display area 701. The sub-area 711 has the size described with reference to FIG. 5 and is set to the display position described with reference to FIG. At this time, the sub-area 711 is determined so as not to include the touch position of the user operation.

カメラMPU140は、現在のタッチ位置を逐次に取得する。カメラMPU140は、現在のタッチ位置のタッチ位置画像で、サブエリア711内に表示する画像を逐次に更新する。また、画像データの記録は継続される。   The camera MPU 140 sequentially acquires the current touch position. The camera MPU 140 sequentially updates the images displayed in the sub area 711 with the touch position image of the current touch position. Further, the recording of the image data is continued.

タッチ位置が移動して、タッチ位置がサブエリア711に近付くと、タッチ位置画像を表示する位置をサブエリア721に変更する(画面720)。例えば、タッチ位置とサブエリア711との間の距離が予め定められた値以下になった場合に、タッチ位置の移動する向きとは逆向きにシフトさせた位置にサブエリア721を設定する。   When the touch position moves and the touch position approaches the sub area 711, the position where the touch position image is displayed is changed to the sub area 721 (screen 720). For example, when the distance between the touch position and the sub-area 711 is equal to or less than a predetermined value, the sub-area 721 is set at a position shifted in the direction opposite to the moving direction of the touch position.

このように、カメラMPU140は、タッチ操作された位置から離れた位置にタッチ位置画像が表示されるように、タッチパネル138における動画の表示領域内におけるサブエリアの位置を決定する。特に、カメラMPU140は、タッチ操作される位置の移動先を特定して、特定した移動先の位置から離れた位置にタッチ位置画像が表示されるように、サブエリアの位置を決定する。これによりユーザは、注目している動体に追随して、注目している動体の位置を指定し続けることができる。また、ユーザは、注目している動体の移動先を視認しながら指定し続けることができる。   As described above, the camera MPU 140 determines the position of the sub area in the moving image display area on the touch panel 138 so that the touch position image is displayed at a position away from the touch-operated position. In particular, the camera MPU 140 identifies the destination of the touch-operated position and determines the position of the sub-area so that the touch position image is displayed at a position away from the identified destination position. As a result, the user can follow the moving object of interest and continue to specify the position of the moving object of interest. Further, the user can continue to specify the moving object of interest while visually recognizing the moving destination.

カメラMPU140は、タッチが検出されなくなると、動画の記録を終了する(画面730)。動画の記録が終了しても撮像素子132による撮像動作は継続され、生成される画像データに基づく動画がタッチパネル138に表示され続ける。   When the touch is no longer detected, the camera MPU 140 ends the recording of the moving image (screen 730). Even when the recording of the moving image is completed, the imaging operation by the image sensor 132 is continued, and the moving image based on the generated image data is continuously displayed on the touch panel 138.

このように、カメラMPU140は、撮像素子132が被写体を撮像することにより得られた画像データに基づく動画がタッチパネル138に表示されている場合に、タッチパネル138に対するタッチ操作の検出に応じて画像データの記録を開始する。そして、カメラMPU140は、タッチパネル138に対するタッチ操作が検出された場合に、サブエリアへのタッチ位置画像の表示を開始するとともに画像データの記録を開始し、タッチパネル138に対するタッチ操作が検出されなくなった場合に画像データの記録を終了する。タッチパネル138に対するタッチ操作が検出されなくなった場合には、サブエリアの表示も終了する。   As described above, when the moving image based on the image data obtained by the imaging device 132 capturing the subject is displayed on the touch panel 138, the camera MPU 140 detects the image data according to the detection of the touch operation on the touch panel 138. Start recording. When the touch operation on the touch panel 138 is detected, the camera MPU 140 starts displaying the touch position image in the sub area and starts recording the image data, and the touch operation on the touch panel 138 is no longer detected. Finishes recording the image data. When the touch operation on the touch panel 138 is no longer detected, the display of the sub area is also ended.

図8は、再タッチ記録停止モードが設定されている場合の表示例を模式的に示す。撮像動作が開始すると、図7の画面700と同様に、表示エリア701に動画が表示される。ここでは主として、タッチオフ記録停止モードの場合の動作との相違点を説明する。   FIG. 8 schematically shows a display example when the retouch recording stop mode is set. When the imaging operation starts, a moving image is displayed in the display area 701 as in the screen 700 of FIG. Here, the difference from the operation in the touch-off recording stop mode will be mainly described.

撮像が開始すると画面700と同様の画面810が表示される。画面810において表示エリア811内のいずれかの位置がダブルクリックされると、動画の表示とともに、画像データの記録が開始される。タッチが検出されなくなっても、画像データの記録は継続される(画面820)。   When imaging starts, a screen 810 similar to the screen 700 is displayed. When any position in the display area 811 is double-clicked on the screen 810, the recording of the image data is started together with the display of the moving image. Even if the touch is not detected, the recording of the image data is continued (screen 820).

画面820において、表示エリア821内のいずれかの位置がタッチされると、AF、AE、ホワイトバランス等を含む各種の撮影条件が決定され、撮影条件に基づいて撮像動作および画像処理の動作が行われる。そして、表示エリア821内のサブエリア831に、図5に関連して説明した表示サイズおよび表示倍率に基づいて設定された抽出対象エリアの部分画像が表示される(画面830、画面840)。サブエリア711およびサブエリア721と同様、サブエリア831およびサブエリア841の表示位置はタッチ位置から離れた位置に設定される。タッチが検出されている間、タッチ位置における動作条件の最適化が行われる。タッチが検出されている期間の動作については、図7の画面710および画面720に関連して説明したと同様である。   When any position in the display area 821 is touched on the screen 820, various shooting conditions including AF, AE, white balance and the like are determined, and an imaging operation and an image processing operation are performed based on the shooting conditions. Is called. Then, partial images of the extraction target area set based on the display size and the display magnification described with reference to FIG. 5 are displayed in the sub-area 831 in the display area 821 (screen 830, screen 840). Similar to the sub area 711 and the sub area 721, the display positions of the sub area 831 and the sub area 841 are set at positions away from the touch position. While the touch is detected, the operation condition at the touch position is optimized. The operation during the period in which the touch is detected is the same as that described in relation to the screen 710 and the screen 720 in FIG.

次に、タッチが検出されなくなった場合、直前のタッチ位置に対応する被写体の移動に追従して、動作条件の最適化対象領域が設定される(画面850)。タッチが検出されなくなると、サブエリアの表示は停止される。   Next, when the touch is no longer detected, the optimization target area of the operation condition is set following the movement of the subject corresponding to the previous touch position (screen 850). When no touch is detected, the display of the sub-area is stopped.

そして、表示エリア851内のいずれかの位置がダブルクリックされると、画像データの記録を終了する(画面860)。動画の記録が終了しても撮像素子132による撮像動作は継続され、生成される画像データに基づく動画がタッチパネル138に表示され続ける。   Then, when any position in the display area 851 is double-clicked, the recording of the image data is finished (screen 860). Even when the recording of the moving image is completed, the imaging operation by the image sensor 132 is continued, and the moving image based on the generated image data is continuously displayed on the touch panel 138.

なお、タッチが検出されなくなった後、被写体を指定するタッチ操作を再び検出すると、画面830および画面840等に関連して説明したようにサブエリアにタッチ位置画像を表示して、タッチ位置の領域に対して撮影条件を最適化する。記録が終了するまで、被写体を指定するタッチ操作が検出される度に、この動作が繰り返される。   When the touch operation for designating the subject is detected again after the touch is no longer detected, the touch position image is displayed in the sub-area as described in connection with the screen 830, the screen 840, etc. Optimize the shooting conditions. This operation is repeated each time a touch operation for designating a subject is detected until recording is completed.

このように、カメラMPU140は、動画がタッチパネル138に表示されている場合に、タッチパネル138に対するタッチ操作の検出に応じて画像データの記録を開始する。そして、カメラMPU140は、画像データを記録していない場合に、タッチパネル138に対する第1の種類のタッチ操作の検出に応じて画像データの記録を開始し、画像データを記録している場合に、タッチパネル138に対する第1の種類のタッチ操作の検出に応じて画像データの記録を停止する。そして、カメラMPU140は、タッチパネル138に対して第2のタッチ操作を検出した場合に、タッチパネル138に対して第2の種類のタッチ操作が検出されている間、第2の種類のタッチ操作のタッチ位置によるタッチ位置画像を、サブエリアに表示させる。   Thus, when the moving image is displayed on the touch panel 138, the camera MPU 140 starts recording image data in response to detection of a touch operation on the touch panel 138. The camera MPU 140 starts recording the image data in response to the detection of the first type touch operation on the touch panel 138 when the image data is not recorded, and when the image data is recorded, the touch panel 138 Recording of image data is stopped in response to detection of the first type touch operation on 138. When the camera MPU 140 detects the second touch operation on the touch panel 138, the touch of the second type touch operation is detected while the second type touch operation is detected on the touch panel 138. The touch position image according to the position is displayed in the sub area.

なお、画像データの記録中においては、被写体を指定するタッチ操作とは異なる種類の操作で、他の指示を受け付けてよい。例えば、ピンチイン操作、ピンチアウト操作を受け付けてよい。ピンチイン操作に応じて被写体にズームインしてよい。すなわち、被写体を拡大撮影してよい。ピンチアウト操作に応じて被写体にズームアウトしてよい。すなわち被写体を縮小撮影してよい。この場合、レンズユニット120の光学系の焦点距離を変更してよい。また、いわゆるデジタルズーム方式により、画像処理でズームインまたはズームアウトの処理が行われてよい。   Note that during recording of image data, other instructions may be received by a different type of operation than the touch operation for designating the subject. For example, a pinch-in operation and a pinch-out operation may be accepted. The subject may be zoomed in according to the pinch-in operation. That is, the subject may be magnified. The subject may be zoomed out according to the pinch out operation. That is, the subject may be reduced in size. In this case, the focal length of the optical system of the lens unit 120 may be changed. Further, zoom-in or zoom-out processing may be performed by image processing by a so-called digital zoom method.

なお、例えば画面810において、記録開始を指示するダブルクリックを検出すると、ダブルクリックが検出されたタッチ位置のタッチ位置画像をサブエリアに表示してもよい。そして、ダブルクリックされた時のタッチ位置の被写体を追従して、タッチ位置画像をサブエリアに表示する画像を逐次更新してもよい。被写体を指定するタッチ操作が検出された後の場合においても同様である。例えば画面850において、直前のタッチ位置の被写体を追従して、タッチ位置画像をサブエリアに表示する画像を逐次更新してもよい。   For example, when a double click for instructing the start of recording is detected on the screen 810, a touch position image of the touch position where the double click is detected may be displayed in the sub area. Then, the image at which the touch position image is displayed in the sub area may be sequentially updated by following the subject at the touch position when the double click is performed. The same applies to the case after the touch operation for designating the subject is detected. For example, on the screen 850, the image at which the touch position image is displayed in the sub area may be sequentially updated following the subject at the previous touch position.

タッチ操作が検出されていない間もサブエリアに注目被写体の画像を表示する場合、サブエリアおよびメインエリアはそれぞれ種類が異なる指示を取得してよい。図6で説明した設定において、画像データの記録停止指示をサブエリアで受け付ける旨が設定されている場合、サブエリアに対するタッチ操作に応じて画像データの記録が停止されてよい。例えば、サブエリアに対して再度ダブルクリックが検出されると、画像データの記録を停止する。一方、メインエリアに対してピンチイン操作やピンチアウト操作が検出されると、上述したように操作に応じてズームインまたはズームアウトの動作を行ってよい。このように、カメラMPU140は、画像データを記録している場合に、画像データの記録を停止する記録停止指示を示すタッチ操作を、サブエリアで受け付け、動画の表示領域内の第2領域以外の領域で、記録停止指示とは異なる指示のタッチ操作を受け付ける。なお、カメラMPU140は、画像データを記録している場合に、画像データの記録に加えて、第1領域の範囲の部分画像データの記録を開始するタッチ操作を、サブエリアで受け付けてもよい。   When the image of the subject of interest is displayed in the sub area even when the touch operation is not detected, the sub area and the main area may acquire different instructions. In the setting described with reference to FIG. 6, when it is set that an instruction to stop recording image data is received in the sub area, the recording of image data may be stopped in response to a touch operation on the sub area. For example, when a double click is detected again for the sub area, the recording of the image data is stopped. On the other hand, when a pinch-in operation or a pinch-out operation is detected for the main area, a zoom-in or zoom-out operation may be performed according to the operation as described above. As described above, when the image data is being recorded, the camera MPU 140 accepts a touch operation indicating a recording stop instruction for stopping the recording of the image data in the sub area, and other than the second area in the moving image display area. In the area, a touch operation with an instruction different from the recording stop instruction is received. Note that when the image data is recorded, the camera MPU 140 may accept, in the sub area, a touch operation for starting the recording of the partial image data in the first area in addition to the recording of the image data.

図9は、カメラ10における動作フローの一例を示す。図9は、カメラ10の起動から終了までの処理フローを示す。本フローは、例えば操作入力部141の一部としての電源スイッチがON位置に切り替えられた場合に、開始される。本フローは、カメラMPU140が主体となってカメラ10の各部を制御することにより実行される。   FIG. 9 shows an example of an operation flow in the camera 10. FIG. 9 shows a processing flow from activation to termination of the camera 10. This flow is started, for example, when a power switch as a part of the operation input unit 141 is switched to the ON position. This flow is executed by controlling each part of the camera 10 mainly by the camera MPU 140.

ステップS900において、カメラMPU140は、カメラ10の初期設定を行う。例えば、カメラMPU140は、カメラ10を制御するための各種パラメータ等を、システムメモリ139からRAM136に展開する。展開された各種パラメータとしては、図3から図8にかけて説明した情報等を例示することができる。また、カメラMPU140は、例えば操作入力部141の一部としてのモードダイヤル等の状態、および、展開された各種パラメータ等に基づき、カメラ10の各部の動作条件を設定する。動作条件としては、連写撮影や単写撮影等の撮影モード、シャッタスピードや露出条件等の撮像条件、ホワイトバランス等の画像処理条件等を例示できる。   In step S <b> 900, the camera MPU 140 performs initial setting of the camera 10. For example, the camera MPU 140 expands various parameters for controlling the camera 10 from the system memory 139 to the RAM 136. As the developed various parameters, the information described with reference to FIGS. 3 to 8 can be exemplified. In addition, the camera MPU 140 sets operating conditions of each unit of the camera 10 based on, for example, a state of a mode dial or the like as a part of the operation input unit 141 and various developed parameters. Examples of operation conditions include shooting modes such as continuous shooting and single shooting, imaging conditions such as shutter speed and exposure conditions, image processing conditions such as white balance, and the like.

続いて、ステップS902において、カメラMPU140は、初期設定で設定された内容をタッチパネル138等に表示させる。例えば、カメラMPU140は、上述した動作条件等の情報を、アイコン表示等の種々の形式でタッチパネル138に表示させる。   Subsequently, in step S902, the camera MPU 140 displays the content set in the initial setting on the touch panel 138 or the like. For example, the camera MPU 140 displays information such as the above-described operating conditions on the touch panel 138 in various formats such as icon display.

続いて、ステップS904において、カメラMPU140は、生じたイベントを特定する。ここでは、操作入力部141またはタッチセンサ162に対する操作に基づくイベントとして、カメラ10の動作設定を行う操作に基づく動作設定イベント、ライブビュースイッチの操作に基づくライブビューイベント、レリーズボタンに対する操作に基づく撮影イベント、カメラ10の電源をオフする旨の電源オフイベントを特に取り上げて説明する。   Subsequently, in step S904, the camera MPU 140 identifies the event that has occurred. Here, as an event based on an operation on the operation input unit 141 or the touch sensor 162, an operation setting event based on an operation for setting the operation of the camera 10, a live view event based on an operation of a live view switch, and a shooting based on an operation on a release button. An event and a power-off event for turning off the power of the camera 10 will be described in particular.

ステップS904において、動作設定を行う旨の操作で生じたイベントと判断された場合、指示された設定処理を行う(ステップS910)。例えば、カメラMPU140は、図3から図8にかけて説明したタッチ動作設定を含む、各種の設定処理を行う。本ステップで動作設定が変更された場合、変更された動作設定に応じてパラメータ変数が変更される。   If it is determined in step S904 that the event has occurred due to an operation for setting operation, the instructed setting process is performed (step S910). For example, the camera MPU 140 performs various setting processes including the touch operation settings described with reference to FIGS. When the operation setting is changed in this step, the parameter variable is changed according to the changed operation setting.

ステップS904において、レリーズボタンに対する操作に基づくイベントと判断された場合、レリーズボタンの押し込みに応じて焦点調節または撮影を行う(ステップS912)。   If it is determined in step S904 that the event is based on an operation on the release button, focus adjustment or shooting is performed according to the depression of the release button (step S912).

ステップS904において、ライブビュー動作を開始する旨の操作で生じたイベントと判断された場合、ライブビューの動作モードに移行する(ステップS914)。ライブビューの動作モードについては後述する。   If it is determined in step S904 that the event has occurred due to an operation for starting the live view operation, the process shifts to a live view operation mode (step S914). The live view operation mode will be described later.

ステップS904において、動作設定イベント、ライブビューイベント、撮影イベントおよび電源オフイベント以外のイベントが生じた場合、イベントに応じた動作を行う(ステップS916)。例えば、再生ボタンの操作に応じて画像データの再生モードで動作させる処理や、ユーザ操作が無い状態が継続した場合に省電力モードに移行する処理等を例示することができる。ステップS910、ステップS912、ステップS914、ステップS916の動作が終了すると、ステップS904の判断に移行する。   In step S904, when an event other than the operation setting event, the live view event, the shooting event, and the power-off event occurs, an operation corresponding to the event is performed (step S916). For example, a process of operating in a playback mode of image data in response to an operation of a playback button, a process of shifting to a power saving mode when no user operation continues, and the like can be exemplified. When the operations in step S910, step S912, step S914, and step S916 are completed, the process proceeds to the determination in step S904.

ステップS904において、電源オフイベントが生じた場合、終了処理を行う(ステップS918)。電源オフイベントは、電源スイッチがOFF位置に切り換えられた場合に生じる。また、予め定められた期間、ユーザ指示が無い状態が継続した場合等に、電源オフイベントが生じる。ステップS918において実行される処理は、変更された各種パラメータ等の情報をシステムメモリ139に記録する処理を含む。終了処理が完了すると、本フローを終了する。   In step S904, if a power off event occurs, end processing is performed (step S918). The power off event occurs when the power switch is switched to the OFF position. In addition, a power-off event occurs when there is no user instruction for a predetermined period. The processing executed in step S918 includes processing for recording information such as various changed parameters in the system memory 139. When the end process is completed, this flow ends.

図10は、ライブビュー動作を行う場合の動作フローの一例を示す。本フローは、図9のフローにおけるステップS914の処理に適用できる。   FIG. 10 shows an example of an operation flow when performing a live view operation. This flow can be applied to the process of step S914 in the flow of FIG.

本フローが開始すると、カメラMPU140は、ライブビューの撮像動作を開始する(ステップS1002)。ライブビューの撮像動作中には、カメラMPU140は撮像素子132に繰り返し撮像動作を行わせ、撮像素子132で繰り返し撮像動作を行うことで逐次に生成された画像データに基づいて、タッチパネル138に被写体像を逐次に表示させる。   When this flow starts, the camera MPU 140 starts a live view imaging operation (step S1002). During the live view imaging operation, the camera MPU 140 causes the imaging device 132 to repeatedly perform the imaging operation, and the subject image is displayed on the touch panel 138 based on image data sequentially generated by the imaging device 132 performing the repeated imaging operation. Are displayed sequentially.

続いて、ステップS1004において、操作イベントを判断する。ここでは、操作イベントとして、画像データの記録を開始するイベントおよびライブビュー動作を終了するイベントを取り上げて説明する。画像データの記録を開始するイベントは、タッチ撮影モードがタッチオフ記録停止モードに設定されている場合には、タッチ操作の検出に応じて生じる。再タッチ記録停止モードに設定されている場合、画像データの記録を開始するイベントは、図6の設定画面において操作タイプとして選択されたタッチ操作の検出に応じて生じる。   Subsequently, in step S1004, an operation event is determined. Here, as an operation event, an event for starting recording of image data and an event for ending the live view operation will be described. The event for starting the recording of the image data occurs in response to the detection of the touch operation when the touch shooting mode is set to the touch-off recording stop mode. When the retouch recording stop mode is set, the event for starting the recording of the image data occurs in response to the detection of the touch operation selected as the operation type on the setting screen of FIG.

画像データの記録を開始するイベントが生じた場合、画像データの記録を開始する。(ステップS1006)。このとき、タッチ位置の画像データの記録も開始してよい。タッチ位置の画像データとしては、サブエリアに表示される範囲の画像データであってよい。全範囲の画像データとタッチ位置の画像データとは、互いに対応づけて外部メモリ180に記録されてよい。続いて、タッチ撮影モードを判断する(ステップS1008)。   When an event for starting the recording of the image data occurs, the recording of the image data is started. (Step S1006). At this time, recording of image data at the touch position may also be started. The image data at the touch position may be image data in a range displayed in the sub area. The image data of the entire range and the image data of the touch position may be recorded in the external memory 180 in association with each other. Subsequently, the touch shooting mode is determined (step S1008).

タッチ撮影モードがタッチオフ記録停止モードである場合、画面がタッチされていることを検出している間、タッチ領域に対する撮影条件の最適化処理を行う(ステップS1010)。具体的には、図7の画面710および画面720に関連して説明した処理を行う。本処理については、図11に関連して説明する。画面に対するタッチが検出されなくなってステップS1010の処理が完了すると、画像データの記録を停止し(ステップS1012)、ステップS1004に処理を移行する。   If the touch shooting mode is the touch-off recording stop mode, the shooting condition optimization process for the touch area is performed while detecting that the screen is touched (step S1010). Specifically, the processing described in relation to the screen 710 and the screen 720 in FIG. 7 is performed. This process will be described with reference to FIG. When the touch on the screen is not detected and the process of step S1010 is completed, the recording of the image data is stopped (step S1012), and the process proceeds to step S1004.

ステップS1008の判断において、タッチ撮影モードが再タッチ記録停止モードである場合、予め定められた領域に対して撮影条件の最適化を行う(ステップS1020)。ここでは、記録開始のタッチ操作が検出された位置に対して撮影条件の最適化を行ってよい。続いて、タッチパネル138に対する予め定められたタッチ操作を検出する(ステップS1022)。予め定められたタッチ操作には、注目領域を指定するタッチ操作と、画像データの記録を終了するタッチ操作と、後述する予め定められた他の操作とが含まれる。   If it is determined in step S1008 that the touch shooting mode is the retouch recording stop mode, the shooting conditions are optimized for a predetermined region (step S1020). Here, the imaging conditions may be optimized for the position where the recording start touch operation is detected. Subsequently, a predetermined touch operation on the touch panel 138 is detected (step S1022). The predetermined touch operation includes a touch operation for designating a region of interest, a touch operation for ending recording of image data, and other predetermined operations described later.

ステップS1022の判断において、注目領域を指定するタッチ操作が検出された場合、注目領域に対する制御を行う(ステップS1024)。カメラMPU140は、タッチパネル138を予め定められた時間以上押し込み続ける操作を、注目領域指定するタッチ操作として検出してよい。ステップS1024では、具体的には図8の画面830および画面840に関連して説明した処理を行う。ステップS1024の処理内容は、ステップS1010における処理内容と同様である。本処理については、図11に関連して説明する。   If it is determined in step S1022 that a touch operation for designating the attention area is detected, the attention area is controlled (step S1024). The camera MPU 140 may detect an operation that keeps pressing the touch panel 138 for a predetermined time or more as a touch operation that designates a region of interest. In step S1024, specifically, the processing described in relation to the screen 830 and the screen 840 in FIG. 8 is performed. The processing content in step S1024 is the same as the processing content in step S1010. This process will be described with reference to FIG.

ステップS1022の判断において、予め定められた他のタッチ操作が検出された場合、操作に応じた予め定められた制御を行う(ステップS1026)。予め定められた他のタッチ操作としては、ピンチイン操作やピンチアウト操作を例示することができる。ステップS1026では、ピンチイン操作に応じて拡大処理を行い、ピンチアウト操作に応じて縮小処理を行う。   When it is determined in step S1022 that another predetermined touch operation is detected, predetermined control corresponding to the operation is performed (step S1026). Examples of other predetermined touch operations include a pinch-in operation and a pinch-out operation. In step S1026, enlargement processing is performed according to the pinch-in operation, and reduction processing is performed according to the pinch-out operation.

ステップS1022の判断において、注目領域指定の操作、画像データの記録を終了するタッチ操作および予め定められた他のタッチ操作が検出されなかった場合、ステップS1020に処理を移行する。ステップS1024の後にステップS1020に処理を移行した場合は、最後のタッチ位置の被写体を追従して撮影条件を最適化する処理が行われる。具体的には、図8の画面850に関連して説明した動作が行われる。   If it is determined in step S1022 that the region of interest designation operation, the touch operation for ending the image data recording, and other predetermined touch operations are not detected, the process proceeds to step S1020. When the process proceeds to step S1020 after step S1024, a process for optimizing the shooting conditions is performed following the subject at the last touch position. Specifically, the operation described in relation to the screen 850 in FIG. 8 is performed.

ステップS1022の判断において、画像データの記録を終了するタッチ操作が検出された場合、ステップS1012に処理を移行する。画像データの記録を終了するタッチ操作は、図6の設定画面において操作タイプとして選択されたタッチ操作である。   If it is determined in step S1022 that a touch operation for ending image data recording is detected, the process proceeds to step S1012. The touch operation for ending the image data recording is the touch operation selected as the operation type on the setting screen of FIG.

ステップS1004の判断において、ライブビュー動作を終了する操作イベントが生じた場合、ライブビューの撮像動作を終了し(ステップS1030)、本フローを終了する。ライブビュー動作を終了する操作イベントは、ライブビュースイッチが停止位置に戻された場合や、ライブビューの撮像動作を開始してから予め定められた時間にわたって画像データの記録開始指示がなかった場合等に生じる。   If it is determined in step S1004 that an operation event for ending the live view operation has occurred, the live view imaging operation is ended (step S1030), and this flow is ended. The operation event that ends the live view operation is when the live view switch is returned to the stop position, or when there is no instruction to start recording image data for a predetermined time after starting the live view imaging operation, etc. To occur.

図11は、タッチ領域に対して撮影条件を最適化する詳細な動作フローである。本フローは、図10のフローにおけるステップS1010およびステップS1024の処理に適用できる。   FIG. 11 is a detailed operation flow for optimizing the shooting conditions for the touch area. This flow can be applied to the processing of step S1010 and step S1024 in the flow of FIG.

本フローが開始すると、タッチ位置を含む領域を撮影条件の最適化対象領域に定めて(ステップS1100)、その領域に撮像される被写体に対して撮影条件を最適化する(ステップS1102)。例えば、当該被写体に対して、レンズユニット120の焦点状態や露出条件等の撮像条件を最適化する。また、ホワイトバランス調節等の画像処理条件も最適化する。   When this flow starts, an area including the touch position is set as an optimization target area of the shooting condition (step S1100), and the shooting condition is optimized for the subject imaged in the area (step S1102). For example, the imaging conditions such as the focus state and exposure conditions of the lens unit 120 are optimized for the subject. Also, image processing conditions such as white balance adjustment are optimized.

続いて、タッチ位置に基づいてサブエリアの表示位置を決定する(ステップS1104)。サブエリアの表示位置は、タッチ位置を含まない位置に設定される。例えば図4の設定画面で一つの表示位置が選択されていた場合、当該表示位置にサブエリアを表示した場合にタッチ位置がサブエリアに含まれない場合は、当該表示位置がサブエリアの表示位置として選択される。選択されていた表示位置がタッチ位置を含む場合は、タッチ位置から離れた他の表示位置が自動的に決定される。サブエリアにタッチ位置が含まれるか否かは、図5に関連して選択された表示サイズを考慮して判断される。   Subsequently, the display position of the sub-area is determined based on the touch position (step S1104). The display position of the sub area is set to a position that does not include the touch position. For example, when one display position is selected on the setting screen of FIG. 4 and the sub-area is displayed at the display position, if the touch position is not included in the sub-area, the display position is the display position of the sub-area. Selected as. When the selected display position includes the touch position, another display position away from the touch position is automatically determined. Whether or not a touch position is included in the sub-area is determined in consideration of the display size selected in relation to FIG.

続いて、ステップS1104で決定したサブエリアに、タッチ位置画像を表示させる(ステップS1106)。タッチ位置画像として抽出される画像領域は、図5の設定画面で選択された表示サイズおよび表示倍率とタッチ位置とに基づいて決定される。   Subsequently, the touch position image is displayed in the sub-area determined in step S1104 (step S1106). The image area extracted as the touch position image is determined based on the display size, display magnification, and touch position selected on the setting screen of FIG.

続いて、タッチ状態の変化を検出する(ステップS1108)。タッチ位置が変化していないがタッチ状態が維持されている場合、同じ位置に対して撮影条件を最適化し(ステップS1110)、ステップS1106に処理を移行する。タッチ位置が変化していない場合とは、タッチ位置の変化量が予め定められた値以下である場合を含む。   Subsequently, a change in the touch state is detected (step S1108). If the touch position has not changed but the touch state is maintained, the shooting conditions are optimized for the same position (step S1110), and the process proceeds to step S1106. The case where the touch position has not changed includes the case where the amount of change in the touch position is equal to or less than a predetermined value.

タッチ状態が維持されたままタッチ位置の変化が検出された場合、ステップS1100に処理を移行する。例えば、ステップS1100では移動後のタッチ位置を含む領域を最適化対象領域として定める。また、ステップS1104では、タッチ位置の移動する向きを考慮してサブエリアの位置が決定される。例えば、図7の画面710および画面720等に関連して説明したように、タッチ位置が移動する向きとは反対側に、サブエリアの位置を定めてよい。   If a change in the touch position is detected while the touch state is maintained, the process proceeds to step S1100. For example, in step S1100, an area including the touch position after movement is determined as an optimization target area. In step S1104, the position of the sub area is determined in consideration of the moving direction of the touch position. For example, as described in relation to the screen 710 and the screen 720 in FIG. 7, the position of the sub area may be determined on the side opposite to the direction in which the touch position moves.

ステップS1108の判断において、タッチ状態が解除された場合は、本フローを終了する。   If it is determined in step S1108 that the touch state is released, this flow ends.

以上の説明において、特に図4から図11にかけて、主としてタッチパネル138内のサブエリアにタッチ位置画像を表示する場合について説明した。しかし、タッチ位置画像を表示装置11に表示する場合にも、図5で説明した表示倍率や表示サイズ等をユーザがタッチパネル138を通じて設定できてよい。図6に関連して説明したタッチ撮影モードの設定についても同様に、表示装置11に対する設定を、タッチパネル138を通じて設定できてよい。また、表示装置11は、省電力機能を有しておりスリープモードに移行してよい。表示装置11をスリープモードに移行する条件設定や表示装置11がスリープモードにある場合のタッチ位置画像の表示設定を、タッチパネル138を通じて設定できてよい。また、上述したように、サブエリアに表示される画像と同様に、表示装置11に表示される画像の画像データも、タッチパネル138に表示される動画の画像データとともに外部メモリ180に記録されてよい。   In the above description, the case where the touch position image is mainly displayed in the sub area in the touch panel 138 has been described with reference to FIGS. However, even when the touch position image is displayed on the display device 11, the user may be able to set the display magnification, the display size, and the like described with reference to FIG. 5 through the touch panel 138. Similarly, for the setting of the touch shooting mode described with reference to FIG. 6, the setting for the display device 11 may be set through the touch panel 138. Further, the display device 11 has a power saving function and may shift to the sleep mode. The condition setting for shifting the display device 11 to the sleep mode and the display setting for the touch position image when the display device 11 is in the sleep mode may be set through the touch panel 138. Further, as described above, the image data of the image displayed on the display device 11 may be recorded in the external memory 180 together with the image data of the moving image displayed on the touch panel 138, similarly to the image displayed in the subarea. .

上記の説明において、カメラMPU140の動作として説明した処理は、カメラMPU140がプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。また、上記の説明においてASIC135により実現される処理は、プロセッサによって実現することができる。例えば、ASIC135の動作として説明した処理は、プロセッサがプログラムに従ってカメラ10が有する各ハードウェアを制御することにより実現される。すなわち、本実施形態のカメラ10に関連して説明した処理は、プロセッサがプログラムに従って動作して各ハードウェアを制御することにより、プロセッサ、メモリ等を含む各ハードウェアとプログラムとが協働して動作することにより実現することができる。表示装置11の動作についても同様である。すなわち、当該処理を、いわゆるコンピュータ装置によって実現することができる。コンピュータ装置は、上述した処理の実行を制御するプログラムをロードして、読み込んだプログラムに従って動作して、当該処理を実行してよい。コンピュータ装置は、当該プログラムを記憶しているコンピュータ読取可能な記録媒体から当該プログラムをロードすることができる。   In the above description, the processing described as the operation of the camera MPU 140 is realized by the camera MPU 140 controlling each hardware of the camera 10 according to a program. In the above description, the processing realized by the ASIC 135 can be realized by a processor. For example, the processing described as the operation of the ASIC 135 is realized by the processor controlling each hardware included in the camera 10 according to the program. That is, the processing described in relation to the camera 10 of the present embodiment is performed by the processor operating in accordance with the program to control each hardware, so that each hardware including the processor, the memory, and the like cooperates with the program. It can be realized by operating. The same applies to the operation of the display device 11. That is, the process can be realized by a so-called computer device. The computer device may load a program for controlling the execution of the above-described process, operate according to the read program, and execute the process. The computer device can load the program from a computer-readable recording medium storing the program.

また、本実施形態において、レンズユニット120が装着された状態のカメラ10を、撮像装置の一例として取り上げた。しかし、撮像装置とは、レンズユニット120が装着されていないカメラ本体130を含む概念である。撮像装置としては、一眼レフレックスカメラやミラーレス式カメラ等のレンズ交換式カメラの他に、コンパクトデジタルカメラ等のレンズ非交換式カメラや、ビデオカメラ、撮像機能付きの携帯電話機、撮像機能付きの携帯情報端末、撮像機能を有する種々の電子機器を適用の対象とすることができる。また、上述した処理をライブビュー動作時に適用するだけでなく、例えば動画の再生時に適用することもできる。よって撮像装置以外の種々の電子機器に上述した処理を適用できる。電子機器としては、携帯電話、携帯情報端末、いわゆるタブレットやノートパソコン等のコンピュータ、カーナビ等のナビゲーション装置等、種々の機器を適用の対象とすることができる。   In the present embodiment, the camera 10 with the lens unit 120 attached is taken as an example of an imaging apparatus. However, the imaging device is a concept including the camera body 130 to which the lens unit 120 is not attached. As imaging devices, in addition to interchangeable lens cameras such as single-lens reflex cameras and mirrorless cameras, non-interchangeable cameras such as compact digital cameras, video cameras, mobile phones with imaging functions, and imaging functions A portable information terminal and various electronic devices having an imaging function can be applied. In addition, the above-described processing can be applied not only at the time of live view operation but also at the time of reproduction of a moving image, for example. Therefore, the above-described processing can be applied to various electronic devices other than the imaging device. As the electronic device, various devices such as a mobile phone, a portable information terminal, a computer such as a so-called tablet or laptop computer, and a navigation device such as a car navigation system can be applied.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

5 カメラシステム、10 カメラ、11 表示装置、40 表示領域、50 サブエリア、120 レンズユニット、121 レンズマウント接点、122 レンズ群、123 レンズMPU、124 レンズ駆動部、130 カメラ本体、131 カメラマウント接点、132 撮像素子、133 アナログ処理部、134 A/D変換器、135 ASIC、136 RAM、137 表示制御部、138 タッチパネル、139 システムメモリ、140 カメラMPU、141 操作入力部、142 AFユニット、143 フォーカルプレーンシャッタ、144 測光素子、145 メインミラー、146 サブミラー、147 ファインダ部、148 駆動部、149 接続インタフェース、150 記録媒体IF、160 タッチ検出部、162 タッチセンサ、168 表示ユニット、180 外部メモリ、190 電源、192 電源回路 5 camera system, 10 camera, 11 display device, 40 display area, 50 subarea, 120 lens unit, 121 lens mount contact, 122 lens group, 123 lens MPU, 124 lens drive unit, 130 camera body, 131 camera mount contact, 132 imaging device, 133 analog processing unit, 134 A / D converter, 135 ASIC, 136 RAM, 137 display control unit, 138 touch panel, 139 system memory, 140 camera MPU, 141 operation input unit, 142 AF unit, 143 focal plane Shutter, 144 Photometric element, 145 Main mirror, 146 Sub mirror, 147 Finder unit, 148 Drive unit, 149 Connection interface, 150 Recording medium IF, 160 Touch detection unit, 162 Tchisensa, 168 display unit, 180 an external memory, 190 power supply, 192 power supply circuit

Claims (13)

タッチパネルにおける動画の表示領域に対してタッチ操作が検出されている間、前記タッチ操作された位置を含む一部の表示領域である第1領域に表示されているタッチ位置画像を、前記第1領域とは異なる第2領域に表示させる制御部
を備える電子機器。
While the touch operation is detected for the moving image display area on the touch panel, the touch area image displayed in the first area, which is a partial display area including the touch-operated position, is displayed in the first area. An electronic device provided with the control part displayed on the 2nd field different from.
前記第2領域は、前記タッチパネルにおける前記動画の表示領域内の一部の表示領域である
請求項1に記載の電子機器。
The electronic device according to claim 1, wherein the second area is a partial display area in the moving image display area on the touch panel.
被写体を撮像する撮像部
をさらに備え、
前記タッチパネルは、前記撮像部が被写体を撮像することにより得られた画像データに基づく前記動画を表示し、
前記制御部は、前記動画が前記タッチパネルに表示されている場合に、前記タッチパネルに対するタッチ操作の検出に応じて前記画像データの記録を開始する
請求項1または2に記載の電子機器。
It further includes an imaging unit that images the subject,
The touch panel displays the moving image based on image data obtained by the imaging unit imaging a subject,
The electronic device according to claim 1, wherein the control unit starts recording the image data in response to detection of a touch operation on the touch panel when the moving image is displayed on the touch panel.
前記制御部は、前記画像データを記録していない場合に、前記タッチパネルに対する第1の種類のタッチ操作の検出に応じて前記画像データの記録を開始し、前記画像データを記録している場合に、前記タッチパネルに対する前記第1の種類のタッチ操作の検出に応じて前記画像データの記録を停止する
請求項3に記載の電子機器。
The control unit starts recording the image data in response to detection of the first type touch operation on the touch panel when the image data is not recorded, and records the image data. The electronic device according to claim 3, wherein recording of the image data is stopped in response to detection of the first type touch operation on the touch panel.
前記制御部は、前記タッチパネルに対して第2の種類のタッチ操作が検出されている間、前記第2の種類のタッチ操作のタッチ位置に対応する前記タッチ位置画像を、前記第2領域に表示させる
請求項4に記載の電子機器。
The control unit displays the touch position image corresponding to the touch position of the second type touch operation in the second area while the second type touch operation is detected on the touch panel. The electronic device according to claim 4.
前記制御部は、前記画像データを記録している場合に、前記画像データの記録を停止する記録停止指示を示すタッチ操作を、前記タッチパネルにおける前記動画の表示領域内の一部の表示領域である前記第2領域で受け付け、前記動画の表示領域内の前記第2領域以外の領域で、前記記録停止指示とは異なる指示のタッチ操作を受け付ける
請求項3から5のいずれか一項に記載の電子機器。
The control unit performs a touch operation indicating a recording stop instruction to stop recording of the image data when the image data is recorded on a part of the display area of the moving image on the touch panel. The electronic according to any one of claims 3 to 5, wherein a touch operation of an instruction different from the recording stop instruction is received in an area other than the second area in the moving image display area. machine.
前記制御部は、前記画像データを記録している場合に、前記画像データの記録に加えて、前記第1領域の範囲の部分画像データの記録を開始するタッチ操作を、前記第2領域で受け付ける
請求項3から5のいずれか一項に記載の電子機器。
When the image data is being recorded, the control unit accepts, in addition to the recording of the image data, a touch operation for starting recording of partial image data in the range of the first area in the second area. The electronic device as described in any one of Claim 3 to 5.
前記制御部は、前記タッチパネルに対するタッチ操作が検出された場合に、前記第2領域への前記タッチ位置画像の表示を開始するとともに前記画像データの記録を開始し、前記タッチパネルに対する前記タッチ操作が検出されなくなった場合に前記画像データの記録を終了する
請求項3に記載の電子機器。
When the touch operation on the touch panel is detected, the control unit starts displaying the touch position image on the second area and starts recording the image data, and the touch operation on the touch panel is detected. The electronic device according to claim 3, wherein the recording of the image data is terminated when it is not performed.
前記タッチパネルにおいて前記タッチ操作された位置に対応する位置の被写体に対して前記撮像部による撮像条件を調節する撮像条件調節部
をさらに備える請求項3から8のいずれか一項に記載の電子機器。
The electronic device according to claim 3, further comprising an imaging condition adjustment unit that adjusts an imaging condition by the imaging unit with respect to a subject at a position corresponding to the touch-operated position on the touch panel.
前記タッチパネルにおける前記動画の表示領域内における前記第2領域の位置を示す情報、前記第2領域のサイズを示す情報および前記第2領域への表示倍率を示す情報の少なくとも一つを示す情報をユーザから取得する情報取得部
をさらに備え、
前記制御部は、前記情報取得部が取得した前記情報に基づいて、前記第2領域への前記タッチ位置画像の表示を制御する
請求項1から9のいずれか一項に記載の電子機器。
Information indicating at least one of information indicating the position of the second area within the display area of the moving image on the touch panel, information indicating the size of the second area, and information indicating the display magnification in the second area Further comprising an information acquisition unit for acquiring from
The electronic device according to claim 1, wherein the control unit controls display of the touch position image in the second region based on the information acquired by the information acquisition unit.
前記制御部は、前記タッチ操作された位置から離れた位置に前記タッチ位置画像が表示されるように、前記タッチパネルにおける前記動画の表示領域内における前記第2領域の位置を決定する
請求項1から10のいずれか一項に記載の電子機器。
The control unit determines a position of the second area in the moving image display area on the touch panel so that the touch position image is displayed at a position away from the touch-operated position. The electronic device according to any one of 10.
前記タッチ操作される位置の移動先を特定する移動先特定部
をさらに備え、
前記制御部は、前記移動先特定部が特定した移動先の位置から離れた位置に前記タッチ位置画像が表示されるように、前記第2領域の位置を決定する
請求項11に記載の電子機器。
A moving destination specifying unit for specifying a moving destination of the position to be touched;
The electronic device according to claim 11, wherein the control unit determines the position of the second region so that the touch position image is displayed at a position away from the position of the destination specified by the destination specifying unit. .
タッチパネルにおける動画の表示領域に対してタッチ操作が検出されている間、前記タッチ操作された位置を含む一部の表示領域である第1領域に表示されているタッチ位置画像を、前記第1領域とは異なる第2領域に表示させる制御ステップ
をコンピュータに実行させるためのプログラム。
While the touch operation is detected for the moving image display area on the touch panel, the touch area image displayed in the first area, which is a partial display area including the touch-operated position, is displayed in the first area. The program for making a computer perform the control step displayed on the 2nd field different from.
JP2013167566A 2013-08-12 2013-08-12 Electronic device and program Withdrawn JP2015036845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013167566A JP2015036845A (en) 2013-08-12 2013-08-12 Electronic device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013167566A JP2015036845A (en) 2013-08-12 2013-08-12 Electronic device and program

Publications (1)

Publication Number Publication Date
JP2015036845A true JP2015036845A (en) 2015-02-23

Family

ID=52687327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013167566A Withdrawn JP2015036845A (en) 2013-08-12 2013-08-12 Electronic device and program

Country Status (1)

Country Link
JP (1) JP2015036845A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6075664B1 (en) * 2015-09-03 2017-02-08 フリュー株式会社 Photo sticker creation apparatus and mode setting method
JP2017139582A (en) * 2016-02-02 2017-08-10 キヤノン株式会社 Movement control system
JP2018022147A (en) * 2016-07-22 2018-02-08 株式会社半導体エネルギー研究所 Semiconductor device, display device and electronic apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6075664B1 (en) * 2015-09-03 2017-02-08 フリュー株式会社 Photo sticker creation apparatus and mode setting method
JP2017139582A (en) * 2016-02-02 2017-08-10 キヤノン株式会社 Movement control system
JP2018022147A (en) * 2016-07-22 2018-02-08 株式会社半導体エネルギー研究所 Semiconductor device, display device and electronic apparatus

Similar Documents

Publication Publication Date Title
US10459190B2 (en) Imaging apparatus, imaging method, and computer-readable recording medium
US8823864B2 (en) Image capturing apparatus and associated methodology for auto-focus and facial detection
JP5782813B2 (en) Imaging apparatus and image display method
CN106851088B (en) Image pickup apparatus and image pickup method
JP5665013B2 (en) Image processing apparatus, image processing method, and program
JP6727453B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGING DEVICE CONTROL PROGRAM
JP5506589B2 (en) Imaging apparatus, control method therefor, program, and recording medium
JP2007081732A (en) Imaging apparatus
JP2011040896A (en) Image capturing apparatus and method of controlling the same
JP5409483B2 (en) Imaging device
JP2015036845A (en) Electronic device and program
JP4788172B2 (en) Imaging apparatus and program
JP2008263478A (en) Imaging apparatus
JP2015126242A (en) Image pickup device, image pickup device control method, program and storage medium
JP7134025B2 (en) IMAGING CONTROL DEVICE, CONTROL METHOD THEREOF, PROGRAM AND RECORDING MEDIUM
JP5289354B2 (en) Imaging device
JP2007228233A (en) Photographic device
JP6257310B2 (en) Imaging apparatus, imaging control method, and program
JP2013097728A (en) Electronic device and program
JP2014090322A (en) Imaging apparatus and control method of the same
JP2013247478A (en) Image pickup device, control method and program thereof, and recording medium
JP5863418B2 (en) Imaging apparatus and control method thereof
JP5648563B2 (en) Image processing apparatus, image processing method, and program
JP6201336B2 (en) Imaging apparatus and program
JP6312430B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160715

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20160726