JP5695536B2 - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP5695536B2
JP5695536B2 JP2011218186A JP2011218186A JP5695536B2 JP 5695536 B2 JP5695536 B2 JP 5695536B2 JP 2011218186 A JP2011218186 A JP 2011218186A JP 2011218186 A JP2011218186 A JP 2011218186A JP 5695536 B2 JP5695536 B2 JP 5695536B2
Authority
JP
Japan
Prior art keywords
unit
image
display
touch
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011218186A
Other languages
Japanese (ja)
Other versions
JP2013078075A5 (en
JP2013078075A (en
Inventor
良紀 松澤
良紀 松澤
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011218186A priority Critical patent/JP5695536B2/en
Priority to US13/613,823 priority patent/US9001255B2/en
Publication of JP2013078075A publication Critical patent/JP2013078075A/en
Publication of JP2013078075A5 publication Critical patent/JP2013078075A5/ja
Application granted granted Critical
Publication of JP5695536B2 publication Critical patent/JP5695536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

本発明は、被写体を撮像して光電変換を行うことによって電子的な画像データを生成する撮像装置、撮像方法およびプログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program that generate electronic image data by imaging a subject and performing photoelectric conversion.

近年、デジタルカメラ等の撮像装置において、表示モニタが表示する画像を見ながらマニュアルフォーカスリングを操作することにより、レンズのピントを手動で調整しながら撮影を行うことができる技術が知られている(特許文献1参照)。この技術では、マニュアルフォーカスリングの回転操作に応じて、ピント位置を含む領域を2倍に拡大した拡大画像をライブビュー画像上に表示することにより、手動でピント合わせを素早く、かつ精度良く行うことができる。   In recent years, in an imaging apparatus such as a digital camera, a technique has been known in which shooting can be performed while manually adjusting the focus of a lens by operating a manual focus ring while viewing an image displayed on a display monitor ( Patent Document 1). With this technology, manual focusing can be performed quickly and accurately by displaying on the live view image an enlarged image in which the area including the focus position is doubled in response to the rotation operation of the manual focus ring. Can do.

特開2011−103681号公報JP 2011-103681 A

しかしながら、上述した技術では、ピント位置を含む領域を拡大した拡大画像を表示できるものの、拡大画像の表示領域が十分でないうえ、拡大画像の表示位置や拡大画像に含まれる被写体の大きさ等のパラメータを変更することができなかった。   However, although the above-described technique can display an enlarged image obtained by enlarging an area including the focus position, the display area of the enlarged image is not sufficient, and parameters such as the display position of the enlarged image and the size of the subject included in the enlarged image are displayed. Could not be changed.

本発明は、上記に鑑みてなされたものであって、ユーザが気にしている画像部分をよく確認したり、関連するパラメータの効果を容易に確認しながら変更することができる撮像装置、撮像方法およびプログラムを提供することを目的とする。   The present invention has been made in view of the above, and an imaging apparatus and an imaging method that can be changed while confirming the image portion that the user is interested in, or easily confirming the effect of related parameters. And to provide a program.

上述した課題を解決し、目的を達成するために、本発明にかかる撮像装置は、レンズ部を介して得られた被写体像の画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する第1の表示部と、前記第1の表示部が表示する前記画像の一部の領域を指定する入力を受け付ける入力部と、前記入力部が入力を受け付けた前記領域に対応する指定画像を前記第1の表示部とは異なる表示部に表示させる表示制御部と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging unit that generates image data of a subject image obtained through a lens unit, and the image generated by the imaging unit. A first display unit that displays an image corresponding to the data; an input unit that receives an input that specifies a partial region of the image displayed by the first display unit; and the input unit that receives the input. A display control unit that displays a designated image corresponding to the region on a display unit different from the first display unit.

また、本発明にかかる撮像装置は、上記発明において、前記画像データに対応する画像を表示可能な接眼部をさらに備え、前記表示制御部は、前記指定画像を前記接眼部に表示させることを特徴とする。   The imaging apparatus according to the present invention further includes an eyepiece unit capable of displaying an image corresponding to the image data in the above invention, and the display control unit displays the designated image on the eyepiece unit. It is characterized by.

また、本発明にかかる撮像装置は、上記発明において、前記指定画像の表示態様に関するパラメータを変更するパラメータ変更部をさらに備え、前記表示制御部は、前記パラメータ変更部が変更した前記指定画像を前記接眼部に表示させることを特徴とする。   The imaging apparatus according to the present invention further includes a parameter changing unit that changes a parameter related to a display mode of the designated image in the invention, and the display control unit displays the designated image changed by the parameter changing unit. It is characterized by being displayed on the eyepiece.

また、本発明にかかる撮像装置は、上記発明において、前記入力部が入力を受け付けた前記領域を前記画像から切出してトリミング画像を生成するトリミング部をさらに備え、前記表示制御部は、前記トリミング部が生成した前記トリミング画像を前記指定画像として前記接眼部に表示させることを特徴とする。   The imaging apparatus according to the present invention may further include a trimming unit that generates a trimmed image by cutting out the region from which the input unit has received an input, and the display control unit includes the trimming unit. The trimmed image generated by is displayed on the eyepiece as the designated image.

また、本発明にかかる撮像装置は、上記発明において、前記入力部は、前記第1の表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルを有し、前記パラメータ変更部は、前記タッチパネルから出力される前記位置信号に応じて、前記トリミング画像の表示態様に関するパラメータを変更することを特徴とする。   In the imaging device according to the present invention, in the above invention, the input unit is provided on a display screen of the first display unit, detects a touch of an object from the outside, and corresponds to the detected touch position. It has a touch panel which outputs a position signal, The parameter change part changes a parameter about a display mode of the trimming picture according to the position signal outputted from the touch panel.

また、本発明にかかる撮像装置は、上記発明において、前記パラメータは、少なくとも前記トリミング画像に含まれる前記被写体像のピント状態、前記トリミング画像に含まれる前記被写体像の表示倍率、前記トリミング画像の表示領域サイズ、前記トリミング部が前記画像から切出すトリミング領域および前記トリミング画像の輝度情報のいずれか一つ以上であることを特徴とする。   In the imaging device according to the present invention, in the above invention, the parameters include at least a focus state of the subject image included in the trimmed image, a display magnification of the subject image included in the trimmed image, and a display of the trimmed image. It is one or more of a region size, a trimming region cut out from the image by the trimming unit, and luminance information of the trimmed image.

また、本発明にかかる撮像装置は、上記発明において、前記レンズ部は、前記被写体像に対するピントを調整するフォーカスレンズを有し、前記入力部は、前記フォーカスレンズを駆動する駆動信号の入力を受け付ける操作部を有することを特徴とする。   In the imaging device according to the present invention, in the above invention, the lens unit includes a focus lens that adjusts a focus with respect to the subject image, and the input unit receives an input of a drive signal that drives the focus lens. It has an operation part.

また、本発明にかかる撮像装置は、上記発明において、前記レンズ部は、前記被写体像を拡大するズームレンズを有し、前記指定部は、前記ズームレンズを駆動する駆動信号の入力を受け付ける操作部を有することを特徴とする。   In the image pickup apparatus according to the present invention, in the above invention, the lens unit includes a zoom lens for enlarging the subject image, and the designation unit receives an input of a drive signal for driving the zoom lens. It is characterized by having.

また、本発明にかかる撮像装置は、上記発明において、前記操作部は、前記レンズ部に設置されていることを特徴とする。   Moreover, the imaging device according to the present invention is characterized in that, in the above invention, the operation unit is installed in the lens unit.

また、本発明にかかる撮像装置は、上記発明において、前記撮像部が連続的に生成する前記画像データを生成順に記憶するとともに、前記トリミング部が前記画像から前記領域を順次切出して生成した前記前記トリミング画像に対応するトリミング画像データを生成順に記憶する記憶部をさらに備えたことを特徴とする。   In the imaging device according to the present invention, in the above invention, the image data continuously generated by the imaging unit is stored in the generation order, and the trimming unit sequentially generates the region from the image and generates the image data. The image processing apparatus further includes a storage unit that stores trimmed image data corresponding to the trimmed image in the order of generation.

また、本発明にかかる撮像装置は、上記発明において、前記接眼部は、当該撮像装置に対して着脱自在な電子ビューファインダであることを特徴とする。   The imaging apparatus according to the present invention is characterized in that, in the above invention, the eyepiece is an electronic viewfinder that is detachable from the imaging apparatus.

また、本発明にかかる撮像方法は、レンズ部を介して得られた被写体像の画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する第1の表示部と、を備えた撮像装置が実行する撮像方法であって、前記第1の表示部が表示する前記画像の一部の領域を指定する入力を受け付ける入力ステップと、前記入力ステップで入力を受け付けた前記領域に対応する指定画像を異なる表示部に表示させる表示制御ステップと、を含むことを特徴とする。   The imaging method according to the present invention includes an imaging unit that generates image data of a subject image obtained via the lens unit, and a first display that displays an image corresponding to the image data generated by the imaging unit. An input method for receiving an input for designating a partial region of the image displayed by the first display unit, and receiving the input in the input step And a display control step of displaying the designated image corresponding to the region on a different display unit.

また、本発明にかかるプログラムは、レンズ部を介して得られた被写体像の画像データを生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する第1の表示部と、を備えた撮像装置に実行させるプログラムであって、前記第1の表示部が表示する前記画像の一部の領域を指定する入力を受け付ける入力ステップと、前記入力ステップで入力を受け付けた前記領域に対応する指定画像を異なる表示部に表示させる表示制御ステップと、を実行させることを特徴とする。   The program according to the present invention includes an imaging unit that generates image data of a subject image obtained via the lens unit, and a first display unit that displays an image corresponding to the image data generated by the imaging unit. And an input step for receiving an input for designating a partial area of the image displayed by the first display unit, and the input step for receiving the input. And a display control step of displaying a designated image corresponding to the region on a different display unit.

本発明によれば、表示制御部が入力部によって入力が受け付けられた画像の領域に対応する指定画像を第2の表示部に表示させるので、ピント位置が含まれる拡大画像の表示位置およびパラメータを容易に変更することができるという効果を奏する。   According to the present invention, the display control unit causes the second display unit to display the designated image corresponding to the region of the image whose input has been received by the input unit. Therefore, the display position and parameters of the enlarged image including the focus position are There is an effect that it can be easily changed.

図1は、本発明の実施の形態1にかかる撮像装置の被写体に面する側の構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a side facing a subject of the imaging apparatus according to the first embodiment of the present invention. 図2は、本発明の実施の形態1にかかる撮像装置の撮影者に面する側の構成を示す図である。FIG. 2 is a diagram illustrating a configuration on the side facing the photographer of the imaging apparatus according to the first embodiment of the present invention. 図3は、本発明の実施の形態1にかかる撮像装置の構成を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration of the imaging apparatus according to the first embodiment of the present invention. 図4は、本発明の実施の形態1にかかる撮像装置の処理を示すフローチャートである。FIG. 4 is a flowchart illustrating processing of the imaging apparatus according to the first embodiment of the present invention. 図5は、ユーザが接眼部で被写体に対するピント状態を確認しながら撮影を行う際の状況を示す図である。FIG. 5 is a diagram illustrating a situation when the user performs shooting while confirming the focus state with respect to the subject at the eyepiece. 図6は、図5に示す状況下でユーザが表示部によって表示されるライブビュー画像内において所望の被写体に対してタッチする際の状況を模式的に示す図である。FIG. 6 is a diagram schematically illustrating a situation when the user touches a desired subject in the live view image displayed by the display unit under the situation illustrated in FIG. 5. 図7は、図5に示す状況下で接眼部が連続的に表示する画像の一例を示す図である。FIG. 7 is a diagram illustrating an example of an image continuously displayed by the eyepiece unit under the situation illustrated in FIG. 図8は、本発明の実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理1の概要を示すフローチャートである。FIG. 8 is a flowchart showing an overview of touch panel operation determination / parameter change processing 1 according to the first exemplary embodiment of the present invention. 図9は、タッチ位置検出部がタッチパネルの有効領域におけるタッチ位置を撮像素子上の位置に換算する際の換算方法を模式的に説明する図である。FIG. 9 is a diagram schematically illustrating a conversion method when the touch position detection unit converts the touch position in the effective area of the touch panel into a position on the image sensor. 図10は、タッチ位置検出部がタッチパネルのタッチ位置を撮像素子上の位置に換算する際の換算方法を模式的に説明する図である。FIG. 10 is a diagram schematically illustrating a conversion method when the touch position detection unit converts the touch position on the touch panel into a position on the image sensor. 図11は、ユーザが表示部で被写体に対するピント状態を確認しながら撮影を行う際の状況を示す図である。FIG. 11 is a diagram illustrating a situation when the user performs shooting while confirming the focus state of the subject on the display unit. 図12は、図11に示す状況下で表示部によって表示されるライブビュー画像内において所望の被写体に対してタッチする際の状況を模式的に説明する図である。FIG. 12 is a diagram schematically illustrating a situation when a desired subject is touched in the live view image displayed by the display unit under the situation illustrated in FIG. 11. 図13は、本発明の実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。FIG. 13 is a flowchart showing an overview of touch panel operation determination / parameter change processing 2 according to the first exemplary embodiment of the present invention. 図14は、本発明の実施の形態1の変形例1にかかる撮像装置が実行するタッチパネル操作判定・パラメータ変更処理2を模式的に説明する図である。FIG. 14 is a diagram schematically illustrating touch panel operation determination / parameter change processing 2 executed by the imaging apparatus according to the first modification of the first embodiment of the present invention. 図15は、本発明の実施の形態1の変形例1にかかる撮像装置が実行するタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。FIG. 15 is a flowchart illustrating an overview of touch panel operation determination / parameter change processing 2 executed by the imaging apparatus according to the first modification of the first embodiment of the present invention. 図16は、タッチ位置検出部がタッチパネルのタッチ位置を撮像素子の撮影領域上に換算する際の換算方法を模式的に説明する図である。FIG. 16 is a diagram schematically illustrating a conversion method when the touch position detection unit converts the touch position of the touch panel onto the imaging region of the image sensor. 図17は、スライド距離とスライド限界距離との比率と拡大画像の表示倍率との関係を示す図である。FIG. 17 is a diagram illustrating the relationship between the ratio between the slide distance and the slide limit distance and the display magnification of the enlarged image. 図18は、スライド距離とスライド限界距離との比率と拡大画像の表示領域サイズとの関係を示す図である。FIG. 18 is a diagram illustrating the relationship between the ratio between the slide distance and the slide limit distance and the display area size of the enlarged image. 図19は、本発明の実施の形態1の変形例1にかかる撮像装置が実行するタッチパネル操作判定・パラメータ変更処理2の別の概要を模式的に説明する図である。FIG. 19 is a diagram schematically illustrating another outline of the touch panel operation determination / parameter change process 2 executed by the imaging apparatus according to the first modification of the first embodiment of the present invention. 図20は、本発明の実施の形態1の変形例2にかかる撮像装置が実行するタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。FIG. 20 is a flowchart illustrating an overview of touch panel operation determination / parameter change processing 2 executed by the imaging apparatus according to the second modification of the first embodiment of the present invention. 図21は、スライド距離とスライド限界距離との比率と拡大画像の表示倍率との関係を示す図である。FIG. 21 is a diagram illustrating a relationship between the ratio of the slide distance and the slide limit distance and the display magnification of the enlarged image. 図22は、本発明の実施の形態1の変形例3にかかる撮像装置が実行するタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。FIG. 22 is a flowchart illustrating an overview of touch panel operation determination / parameter change processing 2 executed by the imaging apparatus according to the third modification of the first embodiment of the present invention. 図23は、表示部が表示する画像の一例を示す図である。FIG. 23 is a diagram illustrating an example of an image displayed on the display unit. 図24は、本発明の実施の形態2にかかる撮像装置の構成を示すブロック図である。FIG. 24 is a block diagram illustrating a configuration of the imaging apparatus according to the second embodiment of the present invention. 図25は、本発明の実施の形態2にかかる撮像装置が実行するタッチパネル操作判定・パラメータ変更処理1の概要を示すフローチャートである。FIG. 25 is a flowchart illustrating an overview of touch panel operation determination / parameter change processing 1 executed by the imaging apparatus according to the second embodiment of the present invention. 図26は、表示部が表示する画像に対してユーザがタッチする際の状況を模式的に示す図である。FIG. 26 is a diagram schematically illustrating a situation when the user touches an image displayed on the display unit. 図27は、接眼部が表示する画像の一例を示す図である。FIG. 27 is a diagram illustrating an example of an image displayed by the eyepiece unit. 図28は、表示部が表示する画像に対してユーザがタッチする際の状況を模式的に示す図である。FIG. 28 is a diagram schematically illustrating a situation when the user touches an image displayed on the display unit. 図29は、接眼部が表示する画像の一例を示す図である。FIG. 29 is a diagram illustrating an example of an image displayed by the eyepiece unit. 図30は、表示部が表示する画像に対してユーザがタッチする際の状況を模式的に示す図である。FIG. 30 is a diagram schematically illustrating a situation when the user touches an image displayed on the display unit. 図31は、接眼部が表示する画像の一例を示す図である。FIG. 31 is a diagram illustrating an example of an image displayed by the eyepiece unit. 図32は、MR処理部が記憶部に記録される2つの画像データの一例を示す図である。FIG. 32 is a diagram illustrating an example of two image data recorded in the storage unit by the MR processing unit. 図33は、接眼部が表示する画像の一例を示す図である。FIG. 33 is a diagram illustrating an example of an image displayed by the eyepiece unit. 図34は、接眼部が表示する画像の一例を示す図である。FIG. 34 is a diagram illustrating an example of an image displayed by the eyepiece unit. 図35は、本発明の実施の形態2にかかる撮像装置が実行するタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。FIG. 35 is a flowchart illustrating an overview of touch panel operation determination / parameter change processing 2 executed by the imaging apparatus according to the second embodiment of the present invention. 図36は、表示部が表示する画像の一例を示す図である。FIG. 36 is a diagram illustrating an example of an image displayed on the display unit. 図37は、表示部が表示する画像に対してユーザがタッチする際の状況を模式的に示す図である。FIG. 37 is a diagram schematically illustrating a situation when the user touches an image displayed on the display unit. 図38は、表示部が表示する画像に対してユーザがタッチする際の状況を模式的に示す図である。FIG. 38 is a diagram schematically illustrating a situation when the user touches an image displayed on the display unit.

以下に、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。なお、以下の説明において、本発明にかかる撮像装置の一例としてデジタル一眼レフカメラを例示するが、この実施の形態によって本発明が限定されるものではない。また、図面の記載において、同一の部分には同一の符号を付して説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings. In the following description, a digital single-lens reflex camera is illustrated as an example of an imaging apparatus according to the present invention, but the present invention is not limited to this embodiment. In the description of the drawings, the same portions are denoted by the same reference numerals for description.

図1は、本発明の実施の形態1にかかる撮像装置の被写体に面する側(前面側)の構成を示す図である。図2は、本発明の実施の形態1にかかる撮像装置の撮影者に面する側(背面側)の構成を示す図である。図3は、本発明の実施の形態1にかかる撮像装置の構成を示すブロック図である。   FIG. 1 is a diagram illustrating a configuration of a side facing the subject (front side) of the imaging apparatus according to the first embodiment of the present invention. FIG. 2 is a diagram illustrating a configuration of a side facing the photographer (back side) of the imaging apparatus according to the first embodiment of the present invention. FIG. 3 is a block diagram illustrating a configuration of the imaging apparatus according to the first embodiment of the present invention.

図1〜図3に示すように、撮像装置1は、本体部2と、本体部2に着脱自在なレンズ部3と、本体部2に着脱自在な接眼部(電子ビューファインダー)4と、を備える。   As shown in FIGS. 1 to 3, the imaging apparatus 1 includes a main body 2, a lens unit 3 that is detachable from the main body 2, an eyepiece (electronic viewfinder) 4 that is detachable from the main body 2, and Is provided.

本体部2は、シャッタ201と、シャッタ駆動部202と、撮像素子203と、撮像素子駆動部204と、信号処理部205と、発光部206と、時計207と、本体通信部208と、アクセサリ通信部209と、操作入力部210と、表示部211と、タッチパネル212と、記憶部213と、制御部214と、を備える。   The main unit 2 includes a shutter 201, a shutter driving unit 202, an image sensor 203, an image sensor driving unit 204, a signal processing unit 205, a light emitting unit 206, a clock 207, a main body communication unit 208, and accessory communication. A unit 209, an operation input unit 210, a display unit 211, a touch panel 212, a storage unit 213, and a control unit 214.

シャッタ201は、開閉動作を行うことにより、撮像素子203の状態を露光状態または遮光状態に設定する露光動作を行う。シャッタ201は、フォーカルプレンシャッタ等のメカニカルシャッタを用いて構成される。シャッタ駆動部202は、ステッピングモータ等を用いて構成され、制御部214から入力される指示信号に応じてシャッタ201を駆動する。撮像素子203が露光蓄積時間を制御する電子的なシャッタ(たとえばローリングシャッタ方式やグローバルシャッタ方式)を代用して、これを具備しなくてもよい。   The shutter 201 performs an exposure operation for setting the state of the image sensor 203 to an exposure state or a light shielding state by performing an opening / closing operation. The shutter 201 is configured using a mechanical shutter such as a focal plane shutter. The shutter driving unit 202 is configured using a stepping motor or the like, and drives the shutter 201 in accordance with an instruction signal input from the control unit 214. The image pickup device 203 may be replaced with an electronic shutter (for example, a rolling shutter method or a global shutter method) that controls the exposure accumulation time and may not be provided.

撮像素子203は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等を用いて構成され、レンズ部3が集光した光を受光して光電変換を行うことによって画像データを連続的に生成する。撮像素子駆動部204は、所定のタイミングで撮像素子203から画像データ(アナログ信号)を信号処理部205に出力させる。   The image sensor 203 is configured using a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and receives light collected by the lens unit 3 and performs photoelectric conversion to continuously convert image data. Generate. The image sensor driving unit 204 causes the signal processing unit 205 to output image data (analog signal) from the image sensor 203 at a predetermined timing.

信号処理部205は、撮像素子203から出力される画像データに増幅等の信号処理を施した後、A/D変換を行うことによってデジタルの画像データを生成して制御部214に出力する。   The signal processing unit 205 performs signal processing such as amplification on the image data output from the image sensor 203, then performs A / D conversion to generate digital image data and outputs the digital image data to the control unit 214.

発光部206は、キセノンランプまたはLED(Light Emitting Diode)等を用いて構成される。発光部206は、撮像装置1が撮像する視野領域へ向けて補助光であるストロボ光を照射する。   The light emitting unit 206 is configured using a xenon lamp, an LED (Light Emitting Diode), or the like. The light emitting unit 206 irradiates strobe light that is auxiliary light toward a field of view imaged by the imaging apparatus 1.

時計207は、計時機能および撮影日時の判定機能を有する。時計207は、撮像素子203によって撮像された画像データに日時データを付加するため、制御部214に日時データを出力する。   The clock 207 has a timing function and a shooting date / time determination function. The clock 207 outputs the date / time data to the control unit 214 in order to add the date / time data to the image data captured by the image sensor 203.

本体通信部208は、本体部2に装着されたレンズ部3との通信を行うための通信インターフェースである。アクセサリ通信部209は、本体部2に装着される接眼部4との通信を行うための通信インターフェースである。なお、アクセサリ通信部209は、接眼部4と異なるアクセサリ、たとえばエレクトロニックフラッシュ、GPS受信装置およびマイク等と通信を行うこともできる。   The main body communication unit 208 is a communication interface for performing communication with the lens unit 3 attached to the main body unit 2. The accessory communication unit 209 is a communication interface for performing communication with the eyepiece unit 4 attached to the main body unit 2. The accessory communication unit 209 can also communicate with accessories different from the eyepiece unit 4, such as an electronic flash, a GPS receiver, a microphone, and the like.

操作入力部210は、図1および図2に示すように、撮像装置1の電源状態をオン状態またはオフ状態に切り換える電源スイッチ210aと、静止画撮影または動画撮影の指示を与えるレリーズ信号を入力するレリーズスイッチ210bと、撮像装置1に設定された各種撮影モード切換の指示を与える切換信号を入力する撮影モード切換スイッチ210cと、を有する。レリーズスイッチ210bは、外部からの押圧により進退可能である。レリーズスイッチ210bが半押しされた場合、撮影準備動作を指示する1stレリーズ信号が入力される。これに対し、レリーズスイッチ210bが全押しされた場合、静止画撮影を指示する2ndレリーズ信号が入力される。   As shown in FIGS. 1 and 2, the operation input unit 210 inputs a power switch 210 a that switches the power state of the imaging apparatus 1 to an on state or an off state, and a release signal that gives an instruction for still image shooting or movie shooting. A release switch 210b; and a shooting mode switching switch 210c for inputting a switching signal for giving instructions for switching various shooting modes set in the imaging apparatus 1. The release switch 210b can be advanced and retracted by pressing from the outside. When the release switch 210b is half-pressed, a 1st release signal that instructs a shooting preparation operation is input. On the other hand, when the release switch 210b is fully pressed, a 2nd release signal instructing still image shooting is input.

表示部211は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて実現される。表示部211は、画像データに対応する画像を表示する。表示部211は、撮像装置1の操作に関する操作情報や撮影に関する撮影情報を表示する。   The display unit 211 is realized using a display panel made of liquid crystal, organic EL (Electro Luminescence), or the like. The display unit 211 displays an image corresponding to the image data. The display unit 211 displays operation information related to the operation of the imaging apparatus 1 and shooting information related to shooting.

タッチパネル212は、表示部211の表示画面上に設けられる。タッチパネル212は、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力する。また、タッチパネル212は、ユーザが表示部211で表示される情報に基づいて接触した位置を検出し、この検出した接触位置に応じて撮像装置1が行う動作を指示する指示信号の入力を受け付けてもよい。一般に、タッチパネル212としては、抵抗膜方式、静電容量方式、光学方式等がある。本実施の形態1では、いずれの方式のタッチパネルであっても適用可能である。なお、本実施の形態1では、タッチパネル212が入力部として機能する。   The touch panel 212 is provided on the display screen of the display unit 211. The touch panel 212 detects a touch of an object from the outside, and outputs a position signal corresponding to the detected touch position. Further, the touch panel 212 detects a position touched by the user based on information displayed on the display unit 211, and receives an input of an instruction signal instructing an operation performed by the imaging apparatus 1 according to the detected touch position. Also good. In general, the touch panel 212 includes a resistance film method, a capacitance method, an optical method, and the like. In the first embodiment, any type of touch panel is applicable. In the first embodiment, the touch panel 212 functions as an input unit.

記憶部213は、撮像装置1の内部に固定的に設けられるフラッシュメモリやDRAM(Dynamic Random Access Memory)等の半導体メモリを用いて実現される。記憶部213は、撮像装置1を動作させるための各種プログラム、本実施の形態1にかかるプログラムおよびプログラムの実行中に使用される各種データやパラメータ等を記憶する。記憶部213は、画像データを記憶するとともに、本体部2に装着可能なレンズ部3の情報やレンズ部3の種類に応じた画像データの補正情報等の情報を記憶する。なお、記憶部213が、外部から装着されるメモリカード等のコンピュータで読取可能な記憶媒体を含むものであってもよい。   The storage unit 213 is realized using a semiconductor memory such as a flash memory or a DRAM (Dynamic Random Access Memory) that is fixedly provided inside the imaging apparatus 1. The storage unit 213 stores various programs for operating the imaging apparatus 1, the program according to the first embodiment, various data and parameters used during the execution of the program, and the like. The storage unit 213 stores image data and information such as information on the lens unit 3 that can be attached to the main body unit 2 and information on correction of image data according to the type of the lens unit 3. Note that the storage unit 213 may include a computer-readable storage medium such as a memory card mounted from the outside.

制御部214は、CPU(Central Processing Unit)等を用いて構成される。制御部214は、操作入力部210やタッチパネル212からの指示信号や切換信号等に応じて撮像装置1を構成する各部に対応する指示やデータの転送等を行って撮像装置1の動作を統括的に制御する。   The control unit 214 is configured using a CPU (Central Processing Unit) or the like. The control unit 214 controls the operation of the imaging apparatus 1 by performing instructions and data transfer corresponding to each part of the imaging apparatus 1 according to an instruction signal, a switching signal, and the like from the operation input unit 210 and the touch panel 212. To control.

制御部214の詳細な構成について説明する。制御部214は、画像処理部214aと、顔検出部214bと、タッチ位置検出部214cと、トリミング部214dと、パラメータ変更部214eと、撮影制御部214fと、表示制御部214gと、を有する。   A detailed configuration of the control unit 214 will be described. The control unit 214 includes an image processing unit 214a, a face detection unit 214b, a touch position detection unit 214c, a trimming unit 214d, a parameter change unit 214e, an imaging control unit 214f, and a display control unit 214g.

画像処理部214aは、画像エンジン(画像コントローラ)を用いて構成され、信号処理部205から入力される画像データに対して各種の画像処理を施して記憶部213に出力する。具体的には、画像処理部214aは、画像データに対して、少なくとも画像の明るさを調整するゲイン処理、階調を補正する階調補正処理、エッジ処理、ホワイトバランス処理、色補正処理およびγ補正処理を含む画像処理を行う。画像処理部214aは、JPEG(Joint Photographic Experts Group)方式に従って画像データを圧縮し、圧縮した画像データを記憶部213に記憶させてもよい。   The image processing unit 214 a is configured using an image engine (image controller), performs various image processing on the image data input from the signal processing unit 205, and outputs the processed image data to the storage unit 213. Specifically, the image processing unit 214a performs at least gain processing for adjusting image brightness, gradation correction processing for correcting gradation, edge processing, white balance processing, color correction processing, and γ for image data. Image processing including correction processing is performed. The image processing unit 214a may compress the image data according to a JPEG (Joint Photographic Experts Group) method, and store the compressed image data in the storage unit 213.

顔検出部214bは、画像データに対応する画像に含まれる人物の顔をパターンマッチングによって検出する。なお、顔検出部214bは、人物の顔だけでなく、犬や猫等の顔を検出してもよい。さらに、顔検出部214bは、パターンマッチング以外の周知技術を用いて人物の顔を検出してもよい。   The face detection unit 214b detects a human face included in an image corresponding to the image data by pattern matching. Note that the face detection unit 214b may detect not only a person's face but also a face such as a dog or a cat. Furthermore, the face detection unit 214b may detect a human face using a known technique other than pattern matching.

タッチ位置検出部214cは、タッチパネル212から入力される位置信号に基づいて、タッチ位置を撮像素子203上の位置に換算する。具体的には、タッチ位置検出部214cは、タッチパネル212から位置信号が入力された場合、この位置信号に対応する撮像素子203上の位置(座標)を検出する。また、タッチ位置検出部214cは、タッチパネル212から入力される時間的に変化する位置信号に基づいて、ユーザによるスライド操作による移動距離を算出する。   The touch position detection unit 214 c converts the touch position into a position on the image sensor 203 based on a position signal input from the touch panel 212. Specifically, when a position signal is input from the touch panel 212, the touch position detection unit 214c detects a position (coordinates) on the image sensor 203 corresponding to the position signal. Further, the touch position detection unit 214c calculates a moving distance by a user's slide operation based on a position signal that changes with time input from the touch panel 212.

トリミング部214dは、タッチパネル212から入力される位置信号に基づいて、ユーザがタッチしたタッチ位置を含む領域を所定の大きさで切出して拡大することによりトリミング(以下、「拡大画像」という)を生成する。具体的には、トリミング部214dは、タッチパネル212から入力される位置信号に基づいて、ユーザがタッチしたタッチ位置を含む領域を対象領域として、表示部211の表示領域より小さい限定された領域の拡大画像を生成する。たとえば、トリミング部214dは、表示部211の表示領域の1/3の表示領域サイズの拡大画像を生成する。   Based on the position signal input from the touch panel 212, the trimming unit 214d generates a trimming (hereinafter referred to as “enlarged image”) by cutting out and enlarging a region including the touch position touched by the user with a predetermined size. To do. Specifically, the trimming unit 214d enlarges a limited area smaller than the display area of the display unit 211, with an area including the touch position touched by the user as a target area based on a position signal input from the touch panel 212. Generate an image. For example, the trimming unit 214d generates an enlarged image having a display area size that is 1/3 of the display area of the display unit 211.

パラメータ変更部214eは、操作入力部210、タッチパネル212または後述するレンズ部3のレンズ操作部309から入力される指示信号や操作信号に基づいて、拡大画像の表示態様のパラメータを変更する。ここで、パラメータとは、拡大画像に含まれる被写体のピント状態、拡大画像に含まれる被写体の表示倍率(倍率)、拡大画像の表示サイズおよび拡大画像の輝度情報などいわゆる撮影パラメータを想定している。また、パラメータ変更部214eは、操作入力部210、タッチパネル212または後述するレンズ部3のレンズ操作部309から入力される指示信号や操作信号に基づいて、拡大画像の露出状態およびISO感度を変更する。さらに、パラメータ変更部214eは、撮像装置1の撮像パラメータを変更する。具体的には、パラメータ変更部214eは、タッチパネル212または後述するレンズ部3のレンズ操作部309から入力される指示信号や操作信号に基づいて、レンズ部3のズーム倍率、絞り、ピント位置、または撮像装置1の露出時間、シャッタ速度およびISO感度、表示部211が表示する画像の明るさや画像サイズ等の撮影パラメータを想定しており、および、条件におうじては、表示時の視認性向上など表示パラメータを変更するようにしてもよい。   The parameter change unit 214e changes the parameter of the enlarged image display mode based on an instruction signal or an operation signal input from the operation input unit 210, the touch panel 212, or a lens operation unit 309 of the lens unit 3 described later. Here, the parameters are assumed to be so-called shooting parameters such as the focus state of the subject included in the enlarged image, the display magnification (magnification) of the subject included in the enlarged image, the display size of the enlarged image, and the luminance information of the enlarged image. . The parameter changing unit 214e changes the exposure state and ISO sensitivity of the enlarged image based on an instruction signal or an operation signal input from the operation input unit 210, the touch panel 212, or a lens operation unit 309 of the lens unit 3 described later. . Further, the parameter changing unit 214e changes the imaging parameter of the imaging device 1. Specifically, the parameter changing unit 214e is configured such that the zoom magnification, the aperture, the focus position, or the lens unit 3 is based on an instruction signal or an operation signal input from the touch panel 212 or a lens operation unit 309 of the lens unit 3 described later. Imaging parameters such as exposure time, shutter speed and ISO sensitivity of the imaging apparatus 1, brightness of the image displayed on the display unit 211, and image size are assumed, and depending on conditions, visibility at the time of display is improved. The display parameter may be changed.

撮影制御部214fは、レリーズスイッチ210bを介してレリーズ信号が入力された場合、撮像装置1における撮影動作を開始する制御を行う。ここで、撮像装置1における撮影動作とは、シャッタ駆動部202および撮像素子駆動部204の駆動によって撮像素子203が出力した画像データに対し、信号処理部205および画像処理部214aが所定の処理を施す動作をいう。このように処理が施された画像データは、撮影制御部214fによって記憶部213に記憶される。   The imaging control unit 214f performs control for starting an imaging operation in the imaging apparatus 1 when a release signal is input via the release switch 210b. Here, the photographing operation in the image pickup apparatus 1 means that the signal processing unit 205 and the image processing unit 214a perform predetermined processing on the image data output from the image pickup device 203 by driving the shutter drive unit 202 and the image pickup device drive unit 204. This is the action to be performed. The image data processed in this way is stored in the storage unit 213 by the imaging control unit 214f.

表示制御部214gは、画像データに対応する画像を表示部211および/または接眼表示部42に表示させる。具体的には、表示制御部214gは、接眼表示部42が表示可能な状態、たとえば電源がオン状態に設定された場合、画像データに対応するライブビュー画像を接眼表示部42に表示させる一方、接眼表示部42がオフ状態に設定された場合、画像データに対応するライブビュー画像を表示部211に表示させる。また、表示制御部214gは、トリミング部214dが生成した拡大画像を接眼表示部42に表示させる。さらに、表示制御部214gは、トリミング部214dが生成した拡大画像をライブビュー画像に重畳して表示部211に表示させるとともに、タッチパネル212が出力する位置信号の変化に応じて、拡大画像の表示態様を制御する。   The display control unit 214g causes the display unit 211 and / or the eyepiece display unit 42 to display an image corresponding to the image data. Specifically, the display control unit 214g displays a live view image corresponding to the image data on the eyepiece display unit 42 when the eyepiece display unit 42 is in a displayable state, for example, when the power is set to an on state. When the eyepiece display unit 42 is set to the off state, a live view image corresponding to the image data is displayed on the display unit 211. The display control unit 214g causes the eyepiece display unit 42 to display the enlarged image generated by the trimming unit 214d. Further, the display control unit 214g superimposes the enlarged image generated by the trimming unit 214d on the live view image and causes the display unit 211 to display the enlarged image, and displays the enlarged image according to the change in the position signal output from the touch panel 212. To control.

以上の構成を有する本体部2に対して、インターネットを介してパーソナルコンピュータ(図示せず)と双方向に通信可能な通信機能を具備させてもよい。   The main body 2 having the above configuration may be provided with a communication function capable of bidirectionally communicating with a personal computer (not shown) via the Internet.

レンズ部3は、光学系301と、ズームレンズ駆動部302と、ズームレンズ位置検出部303と、フォーカスレンズ駆動部304と、フォーカスレンズ位置検出部305と、絞り306と、絞り駆動部307と、絞り値検出部308と、レンズ操作部309と、レンズ記憶部310と、レンズ通信部311と、レンズ制御部312と、を備える。   The lens unit 3 includes an optical system 301, a zoom lens driving unit 302, a zoom lens position detecting unit 303, a focus lens driving unit 304, a focus lens position detecting unit 305, a diaphragm 306, and a diaphragm driving unit 307. An aperture value detection unit 308, a lens operation unit 309, a lens storage unit 310, a lens communication unit 311, and a lens control unit 312 are provided.

光学系301は、所定の視野領域から光を集光し、この集光した光を撮像素子203の撮像面に結像する。光学系301は、ズームレンズ301aと、フォーカスレンズ301bを有する。ズームレンズ301aは、一または複数のレンズを用いて構成され、光軸L上に沿って移動することにより、光学系301のズーム倍率を変更する。フォーカスレンズ301bは、一または複数のレンズを用いて構成され、光軸L上に沿って移動することにより、光学系301のピント位置および焦点距離を変更する。   The optical system 301 collects light from a predetermined visual field region and forms an image of the collected light on the imaging surface of the image sensor 203. The optical system 301 includes a zoom lens 301a and a focus lens 301b. The zoom lens 301 a is configured by using one or a plurality of lenses, and changes the zoom magnification of the optical system 301 by moving along the optical axis L. The focus lens 301b is configured by using one or a plurality of lenses, and moves along the optical axis L, thereby changing the focus position and the focal length of the optical system 301.

ズームレンズ駆動部302は、ステッピングモータやDCモータ等を用いて構成される。ズームレンズ駆動部302は、レンズ制御部312の制御のもと、ズームレンズ301aを光軸L上に沿って移動させる。   The zoom lens driving unit 302 is configured using a stepping motor, a DC motor, or the like. The zoom lens driving unit 302 moves the zoom lens 301 a along the optical axis L under the control of the lens control unit 312.

ズームレンズ位置検出部303は、フォトインタラプタ等を用いて構成され、ズームレンズ駆動部302によって駆動されたズームレンズの位置を検出する。具体的には、ズームレンズ位置検出部303は、ズームレンズ駆動部302に含まれる駆動用モータの回転量をパルス数に変換し、変換したパルス数に基づいて、無限遠を基準とする基準位置からのズームレンズ301aの光軸L上における位置を検出する。   The zoom lens position detection unit 303 is configured using a photo interrupter or the like, and detects the position of the zoom lens driven by the zoom lens driving unit 302. Specifically, the zoom lens position detection unit 303 converts the rotation amount of the driving motor included in the zoom lens driving unit 302 into the number of pulses, and based on the converted number of pulses, a reference position based on infinity The position on the optical axis L of the zoom lens 301a is detected.

フォーカスレンズ駆動部304は、ステッピングモータやDCモータ等を用いて構成される。フォーカスレンズ駆動部304は、レンズ制御部312の制御のもと、フォーカスレンズ301bを光軸L上に沿って移動させる。   The focus lens driving unit 304 is configured using a stepping motor, a DC motor, or the like. The focus lens driving unit 304 moves the focus lens 301b along the optical axis L under the control of the lens control unit 312.

フォーカスレンズ位置検出部305は、フォトインタラプタ等を用いて構成され、フォーカスレンズ駆動部によって駆動されたフォーカスレンズの位置を検出する。フォーカスレンズ位置検出部305は、ズームレンズ位置検出部303と同様の方法により、フォーカスレンズ301bの光軸L上における位置を検出する。   The focus lens position detection unit 305 is configured using a photo interrupter or the like, and detects the position of the focus lens driven by the focus lens driving unit. The focus lens position detection unit 305 detects the position of the focus lens 301b on the optical axis L by the same method as the zoom lens position detection unit 303.

絞り306は、光学系301が集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部307は、ステッピングモータ等を用いて構成され、レンズ制御部312の制御のもと、絞り306を駆動することにより、撮像素子203に入射する光の光量を調整する。   The diaphragm 306 adjusts exposure by limiting the amount of incident light collected by the optical system 301. The aperture driving unit 307 is configured using a stepping motor or the like, and adjusts the amount of light incident on the image sensor 203 by driving the aperture 306 under the control of the lens control unit 312.

絞り値検出部308は、絞り駆動部307によって駆動された絞り306の状態を検出することにより、絞り306の絞り値を検出する。絞り値検出部308は、リニアエンコーダや可変抵抗素子等のポテンションメータおよびA/D変換回路等を用いて構成される。   The aperture value detection unit 308 detects the aperture value of the aperture 306 by detecting the state of the aperture 306 driven by the aperture drive unit 307. The aperture value detection unit 308 is configured using a potentiometer such as a linear encoder or a variable resistance element, an A / D conversion circuit, or the like.

レンズ操作部309は、図1に示すように、レンズ部3のレンズ鏡筒の周囲に設けられるリング309a等であり、光学系301内のズームレンズ301aやフォーカスレンズ301bの動作または撮像装置1の動作を指示する指示信号が入力される。なお、レンズ操作部309は、プッシュ式のスイッチ等であってもよい。   As shown in FIG. 1, the lens operation unit 309 is a ring 309 a or the like provided around the lens barrel of the lens unit 3, and operates the zoom lens 301 a and the focus lens 301 b in the optical system 301 or the imaging device 1. An instruction signal for instructing the operation is input. The lens operation unit 309 may be a push switch or the like.

レンズ記憶部310は、光学系301および絞り306の位置や動きを決定するための制御用プログラムを記憶する。レンズ記憶部310は、光学系301の倍率、焦点距離、画角、収差およびF値(明るさ)等を記憶する。   The lens storage unit 310 stores a control program for determining the positions and movements of the optical system 301 and the diaphragm 306. The lens storage unit 310 stores the magnification, focal length, angle of view, aberration, F value (brightness), and the like of the optical system 301.

レンズ通信部311は、レンズ部3が本体部2に装着されたときに、本体部2の本体通信部208と通信を行うための通信インターフェースである。   The lens communication unit 311 is a communication interface for communicating with the main body communication unit 208 of the main body unit 2 when the lens unit 3 is attached to the main body unit 2.

レンズ制御部312は、CPU等を用いて構成され、本体通信部208およびレンズ通信部311を介して入力される制御部214からの指示信号や駆動信号に応じてレンズ部3の動作を制御する。レンズ制御部312は、本体通信部208およびレンズ通信部311を介して撮像素子203が画像データを生成するタイミングに同期してズームレンズ位置検出部303が検出したズームレンズ301aの位置、フォーカスレンズ位置検出部305が検出したフォーカスレンズ301bの位置および絞り値検出部308が検出した絞り306の絞り値を制御部214に出力する。   The lens control unit 312 is configured using a CPU or the like, and controls the operation of the lens unit 3 in accordance with an instruction signal or a drive signal from the control unit 214 input via the main body communication unit 208 and the lens communication unit 311. . The lens control unit 312 detects the position of the zoom lens 301 a detected by the zoom lens position detection unit 303 in synchronization with the timing at which the image sensor 203 generates image data via the main body communication unit 208 and the lens communication unit 311, and the focus lens position. The position of the focus lens 301 b detected by the detection unit 305 and the aperture value of the aperture 306 detected by the aperture value detection unit 308 are output to the control unit 214.

接眼部4は、ユーザが目を近接させることによって認識可能な表示画面を表示する。接眼部4は、撮像素子203が生成した画像データに対応するライブビュー画像を表示し、このライブビュー画像の表示領域が表示部211の表示領域より小さい。接眼部4は、接眼通信部41と、接眼表示部42と、を備える。   The eyepiece unit 4 displays a display screen that can be recognized when the user brings his eyes close to each other. The eyepiece unit 4 displays a live view image corresponding to the image data generated by the image sensor 203, and the display area of the live view image is smaller than the display area of the display unit 211. The eyepiece unit 4 includes an eyepiece communication unit 41 and an eyepiece display unit 42.

接眼通信部41は、接眼部4が本体部2に装着されたときに、本体部2のアクセサリ通信部209と通信を行うためのインターフェースである。   The eyepiece communication unit 41 is an interface for communicating with the accessory communication unit 209 of the main body 2 when the eyepiece 4 is attached to the main body 2.

接眼表示部42は、液晶または有機EL(Electro Luminescence)等からなる表示パネルを用いて実現される。接眼表示部42は、画像データに対応するライブビュー画像を表示する。接眼表示部42は、ライブビュー画像の表示領域が表示部211の表示領域より小さい。接眼表示部42は、撮像装置1の操作情報または撮影状況に関する撮影情報をライブビュー画像に重畳して表示する。接眼表示部42は、ユーザが目を近接させることにより、ライブビュー画像が確認される。接眼表示部42は、表示制御部214gの制御のもと、トリミング部214dが連続して生成した拡大画像データに対応する拡大画像を表示する。   The eyepiece display unit 42 is realized using a display panel made of liquid crystal or organic EL (Electro Luminescence). The eyepiece display unit 42 displays a live view image corresponding to the image data. The eyepiece display unit 42 has a live view image display area smaller than the display area of the display unit 211. The eyepiece display unit 42 superimposes and displays the operation information of the imaging device 1 or the shooting information related to the shooting situation on the live view image. The eyepiece display unit 42 confirms the live view image when the user brings his eyes close to each other. The eyepiece display unit 42 displays an enlarged image corresponding to the enlarged image data continuously generated by the trimming unit 214d under the control of the display control unit 214g.

以上の構成を有する撮像装置1が行う動作について説明する。図4は、撮像装置1の処理を示すフローチャートである。   An operation performed by the imaging apparatus 1 having the above configuration will be described. FIG. 4 is a flowchart showing processing of the imaging apparatus 1.

図4に示すように、撮像装置1が撮影モードに設定されている場合(ステップS101:Yes)について説明する。この場合、制御部214は、接眼部4が有効であるか否かを判断する(ステップS102)。具体的には、制御部214は、接眼部4の電源スイッチ(図示せず)がオン状態であるか、またはユーザが接触センサ(図示せず)に接触することにより接触センサから検出信号が出力されているか否かを判断することにより、接眼部4が有効であるか否かを判断する。接眼部4が有効であると制御部214が判断した場合(ステップS102:Yes)、撮像装置1は、後述するステップS103へ移行する。一方、接眼部4が有効でないと制御部214が判断した場合(ステップS102:No)、撮像装置1は、後述するステップS109へ移行する。   As shown in FIG. 4, the case where the imaging apparatus 1 is set to the shooting mode (step S101: Yes) will be described. In this case, the control unit 214 determines whether or not the eyepiece unit 4 is valid (step S102). Specifically, the control unit 214 detects that a detection signal is output from the contact sensor when a power switch (not shown) of the eyepiece unit 4 is in an ON state or when a user contacts the contact sensor (not shown). It is determined whether the eyepiece unit 4 is valid by determining whether it is output. When the control unit 214 determines that the eyepiece unit 4 is valid (step S102: Yes), the imaging device 1 proceeds to step S103 described later. On the other hand, when the control unit 214 determines that the eyepiece unit 4 is not valid (step S102: No), the imaging device 1 proceeds to step S109 described later.

ステップS103において、表示制御部214gは、撮像素子203が連続的に生成する画像データに対応するライブビュー画像を接眼表示部42および表示部211にそれぞれ順次表示させる。   In step S103, the display control unit 214g sequentially displays the live view images corresponding to the image data continuously generated by the image sensor 203 on the eyepiece display unit 42 and the display unit 211, respectively.

続いて、撮像装置1は、タッチパネル212に対して行われるタッチ操作の判定を行い、この判定結果に基づいて、撮像装置1の撮影条件および接眼部4が表示する表示画像のパラメータを変更するタッチパネル操作判定・パラメータ変更処理1を実行する(ステップS104)。なお、タッチパネル操作判定・パラメータ変更処理1の詳細については後述する。   Subsequently, the imaging apparatus 1 determines the touch operation performed on the touch panel 212, and changes the imaging conditions of the imaging apparatus 1 and the parameters of the display image displayed by the eyepiece unit 4 based on the determination result. Touch panel operation determination / parameter change processing 1 is executed (step S104). The details of the touch panel operation determination / parameter change processing 1 will be described later.

その後、レリーズスイッチ210bから2ndレリーズ信号が入力された場合(ステップS105:Yes)、撮影制御部214fは、静止画撮影を行い(ステップS106)、撮像した画像データを記憶部213に記憶する(ステップS107)。   Thereafter, when a 2nd release signal is input from the release switch 210b (step S105: Yes), the imaging control unit 214f performs still image shooting (step S106) and stores the captured image data in the storage unit 213 (step S106). S107).

続いて、制御部214は、終了操作が行われたか否かを判断する(ステップS108)。具体的には、制御部214は、電源スイッチ210aが操作されることにより、撮像装置1の電源がオフ状態になったか否かを判断することにより、終了操作が行われたか否かを判断する。終了操作が行われたと制御部214が判断した場合(ステップS108:Yes)、本処理を終了する。一方、終了操作が行われていないと制御部214が判断した場合(ステップS108:No)、撮像装置1は、ステップS101へ戻る。   Subsequently, the control unit 214 determines whether or not an end operation has been performed (step S108). Specifically, the control unit 214 determines whether or not the end operation has been performed by determining whether or not the power of the imaging apparatus 1 has been turned off by operating the power switch 210a. . When the control unit 214 determines that an ending operation has been performed (step S108: Yes), this process ends. On the other hand, when the control unit 214 determines that the ending operation has not been performed (step S108: No), the imaging device 1 returns to step S101.

ステップS105において、レリーズスイッチ210bを介して2ndレリーズ信号が入力されていないと制御部214が判断した場合(ステップS105:No)、撮像装置1は、ステップS108へ移行する。   In step S105, when the control unit 214 determines that the 2nd release signal is not input via the release switch 210b (step S105: No), the imaging device 1 proceeds to step S108.

ステップS109において、表示制御部214gは、撮像素子203が連続的に生成する画像データに対応するライブビュー画像を表示部211に順次表示させる。   In step S109, the display control unit 214g causes the display unit 211 to sequentially display live view images corresponding to the image data continuously generated by the image sensor 203.

続いて、撮像装置1は、タッチパネル212に対して行われるタッチ操作の判定を行い、この判定結果に基づいて撮像装置1の撮影条件および表示部211の表示画像のパラメータを変更するタッチパネル操作判定・パラメータ変更処理2を実行する(ステップS110)。なお、タッチパネル操作判定・パラメータ変更処理2の詳細については後述する。その後、撮像装置1は、ステップS105へ移行する。   Subsequently, the imaging device 1 determines a touch operation performed on the touch panel 212, and determines a touch panel operation determination / change of a shooting condition of the imaging device 1 and a parameter of a display image of the display unit 211 based on the determination result. Parameter change processing 2 is executed (step S110). The details of the touch panel operation determination / parameter change processing 2 will be described later. Thereafter, the imaging apparatus 1 proceeds to step S105.

つぎに、撮像装置1が撮影モードに設定されていない場合(ステップS101:No)について説明する。この場合、制御部214は、撮像装置1が記憶部213に記憶された画像データを再生する再生モードに設定されているか否かを判断する。撮像装置1が再生モードに設定されていると制御部214が判断した場合(ステップS111:Yes)、撮像装置1は、ステップS112へ移行する。一方、撮像装置1が再生モードに設定されていないと制御部214が判断した場合(ステップS111:No)、撮像装置1は、ステップS108へ戻る。   Next, a case where the imaging device 1 is not set to the shooting mode (step S101: No) will be described. In this case, the control unit 214 determines whether or not the imaging device 1 is set to a reproduction mode for reproducing the image data stored in the storage unit 213. When the control unit 214 determines that the imaging device 1 is set to the reproduction mode (step S111: Yes), the imaging device 1 proceeds to step S112. On the other hand, when the control unit 214 determines that the imaging device 1 is not set to the reproduction mode (step S111: No), the imaging device 1 returns to step S108.

続いて、表示制御部214gは、記憶部213が記憶する画像データに対応する画像を表示部211へ表示させる(ステップS112)。   Subsequently, the display control unit 214g causes the display unit 211 to display an image corresponding to the image data stored in the storage unit 213 (step S112).

その後、切替スイッチ(図示せず)から画像の変更を指示する切替信号が入力された場合(ステップS113:Yes)、表示制御部214gは、表示部211が表示する画像を変更する(ステップS114)。ステップS114の後、撮像装置1は、ステップS112へ戻る。一方、切替信号が入力されていない場合(ステップS113:No)、撮像装置1は、ステップS108へ戻る。   Thereafter, when a switching signal for instructing image change is input from a changeover switch (not shown) (step S113: Yes), the display control unit 214g changes the image displayed on the display unit 211 (step S114). . After step S114, the imaging apparatus 1 returns to step S112. On the other hand, when the switching signal is not input (step S113: No), the imaging device 1 returns to step S108.

つぎに、図4のステップS104で説明したタッチパネル操作判定・パラメータ変更処理1について説明する。なお、以下においては、まず、本実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理1の概要について説明する。その後、タッチパネル操作判定・パラメータ変更処理1について詳細に説明する。   Next, the touch panel operation determination / parameter change process 1 described in step S104 of FIG. 4 will be described. In the following, an outline of touch panel operation determination / parameter change processing 1 according to the first embodiment will be described first. Then, the touch panel operation determination / parameter change processing 1 will be described in detail.

図5は、ユーザが接眼部4で被写体O1(花)に対するピント状態を確認しながら撮影を行う際の状況を示す図である。図6は、図5に示す状況下でユーザが表示部211によって表示されるライブビュー画像内において所望の被写体O1に対してタッチする際の状況を模式的に示す図である。図7は、図5に示す状況下で接眼部4が連続的に表示する画像の一例を示す図である。   FIG. 5 is a diagram illustrating a situation when the user performs shooting while confirming the focus state with respect to the subject O1 (flower) with the eyepiece unit 4. FIG. FIG. 6 is a diagram schematically showing a situation when the user touches the desired subject O1 in the live view image displayed by the display unit 211 under the situation shown in FIG. FIG. 7 is a diagram illustrating an example of images continuously displayed by the eyepiece unit 4 under the situation illustrated in FIG.

図5および図6に示すように、ユーザは、撮像装置1の本体部2とレンズ部3とに対してホールディングした状態から、手ブレを防止するため、極力、指や手を動かさないで必要な撮影操作、たとえば被写体O1のピント状態の確認およびレンズ部3のピント変更操作等を敏速かつ容易に行いたい。また、図6に示すように、ユーザは、親指でタッチパネル212上をタッチできる領域が狭いうえ、表示部211を見ることなく、接眼部4を覗きこんでいる場合が多い。このため、本実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理1では、ユーザが撮像装置1をホールディングした状態から右手の親指で操作可能な領域をタッチパネル212の有効領域として設定するようにしてもよい。もちろん、ダイレクトにタッチする制御にしてもよい。   As shown in FIGS. 5 and 6, the user needs to move the fingers and hands as much as possible in order to prevent camera shake from being held with respect to the main body 2 and the lens unit 3 of the imaging device 1. It is desired to quickly and easily perform a photographing operation such as confirmation of the focus state of the subject O1 and a focus change operation of the lens unit 3. In addition, as shown in FIG. 6, the user has a small area in which the user can touch the touch panel 212 with the thumb and often looks into the eyepiece unit 4 without looking at the display unit 211. For this reason, in the touch panel operation determination / parameter change processing 1 according to the first exemplary embodiment, an area that can be operated by the thumb of the right hand from the state in which the user holds the imaging apparatus 1 is set as an effective area of the touch panel 212. Also good. Of course, direct touch control may be used.

また、ユーザは、右手の人差し指をレリーズスイッチ210bにおいたまま、左手でレンズ部3を保持しつつ、被写体O1のピント状態の確認を行いたい。そこで、本実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理1では、ユーザが被写体O1のピント状態を接眼部4の接眼表示部42で確認することができるように、ユーザが右手の親指でタッチパネル212を介して表示部211によって表示されているライブビュー画像W1の被写体O1にタッチした場合、そのタッチ位置を含む対象領域R1をトリミング部214dが切出して拡大画像W2を生成し、この拡大画像W2を表示制御部214gが接眼表示部42に表示させる(図7)。その後、パラメータ変更部214eは、リング309aの操作に応じて、レンズ制御部312を介してフォーカスレンズ駆動部304を駆動させることにより、拡大画像W2およびライブビュー画像W1に含まれる被写体O1に対するレンズ部3のピント(フォーカス)を変更する。また、図5〜図7においては、被写体O1に対するピント状態の調整であったが、ユーザがリング309aを操作することにより、被写体O1の拡大または縮小の調整を行ってもよい。この場合、パラメータ変更部214eは、リング309aの操作に応じて、レンズ制御部312を介してズームレンズ駆動部302を駆動させることにより、拡大画像W2およびライブビュー画像W1に含まれる被写体O1に対する倍率を変更する。さらに、図7において、表示制御部214gは、撮像装置1の撮影パラメータに関する情報として拡大または縮小中であることを示すアイコンを表示部211に表示させてもよい。   Further, the user wants to check the focus state of the subject O1 while holding the lens unit 3 with the left hand while keeping the index finger of the right hand on the release switch 210b. Therefore, in the touch panel operation determination / parameter change process 1 according to the first exemplary embodiment, the user can check the focus state of the subject O1 with the eyepiece display unit 42 of the eyepiece unit 4 so that the user can use the thumb of the right hand. When the subject O1 of the live view image W1 displayed on the display unit 211 is touched via the touch panel 212, the trimming unit 214d cuts out the target area R1 including the touch position, and generates an enlarged image W2. The display control unit 214g displays the image W2 on the eyepiece display unit 42 (FIG. 7). Thereafter, the parameter changing unit 214e drives the focus lens driving unit 304 via the lens control unit 312 according to the operation of the ring 309a, so that the lens unit for the subject O1 included in the enlarged image W2 and the live view image W1. 3's focus (focus) is changed. 5 to 7, the focus state is adjusted with respect to the subject O1, but the user may adjust the enlargement or reduction of the subject O1 by operating the ring 309a. In this case, the parameter changing unit 214e drives the zoom lens driving unit 302 via the lens control unit 312 according to the operation of the ring 309a, so that the magnification with respect to the subject O1 included in the enlarged image W2 and the live view image W1. To change. Further, in FIG. 7, the display control unit 214 g may display an icon indicating that the image is being enlarged or reduced on the display unit 211 as information regarding the imaging parameters of the imaging device 1.

このように、本実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理1では、ユーザが撮像装置1に対してホールディングした状態を維持したまま、目視で困難な被写体O1のピントに対する確認を行いながら、リング309aを操作することで被写体O1に対するレンズ部3のピント位置(フォーカス位置)の変更を簡単に行うことができる。なお、本実施の形態1では、有効領域を適宜設定することができる。さらに、図7の拡大画像W2において、表示制御部214gは、撮像装置1の撮影モードに関する情報としてアイコンA1を接眼表示部42に表示させてもよい。アイコンA1は、撮像装置1がマニュアルフォーカスモードに設定されていることを示すアイコンである。   As described above, in the touch panel operation determination / parameter change processing 1 according to the first exemplary embodiment, while the state in which the user holds the imaging apparatus 1 is maintained, the focus of the subject O1 that is difficult to visually confirm is being checked. By operating the ring 309a, the focus position (focus position) of the lens unit 3 with respect to the subject O1 can be easily changed. In the first embodiment, the effective area can be set as appropriate. Further, in the enlarged image W2 of FIG. 7, the display control unit 214g may cause the eyepiece display unit 42 to display the icon A1 as information regarding the shooting mode of the imaging device 1. The icon A1 is an icon indicating that the imaging device 1 is set to the manual focus mode.

図8は、タッチパネル操作判定・パラメータ変更処理1の概要を示すフローチャートである。   FIG. 8 is a flowchart showing an overview of touch panel operation determination / parameter change processing 1.

図8に示すように、制御部214は、ユーザがタッチパネル212に対してタッチを継続しているか否かを判断する(ステップS201)。具体的には、制御部214は、タッチパネル212から位置信号が出力されているか否かを判断することにより、ユーザがタッチパネル212に対してタッチを継続しているか否かを判断する。ユーザがタッチパネル212に対してタッチを継続していると制御部214が判断した場合(ステップS201:Yes)、撮像装置1は、後述するステップS211へ移行する。一方、ユーザがタッチパネル212に対してタッチを継続していないと制御部214が判断した場合(ステップS201:No)、撮像装置1は、後述するステップS202へ移行する。   As illustrated in FIG. 8, the control unit 214 determines whether or not the user continues to touch the touch panel 212 (step S201). Specifically, the control unit 214 determines whether or not the user continues to touch the touch panel 212 by determining whether or not a position signal is output from the touch panel 212. When the control unit 214 determines that the user continues to touch the touch panel 212 (step S201: Yes), the imaging device 1 proceeds to step S211 described later. On the other hand, when the control unit 214 determines that the user does not continue touching the touch panel 212 (step S201: No), the imaging device 1 proceeds to step S202 described later.

ステップS202において、制御部214は、タッチパネル212がタッチを検出したか否かを判断する。具体的には、制御部214は、タッチパネル212から位置信号が出力されたか否かを判断する。タッチパネル212がタッチを検出したと制御部214が判断した場合(ステップS202:Yes)、撮像装置1は、後述するステップS203へ移行する。一方、タッチパネル212がタッチを検出していないと制御部214が判断した場合(ステップS202:No)、撮像装置1は、後述するステップS216へ移行する。   In step S202, the control unit 214 determines whether or not the touch panel 212 has detected a touch. Specifically, the control unit 214 determines whether or not a position signal is output from the touch panel 212. When the control unit 214 determines that the touch panel 212 has detected a touch (step S202: Yes), the imaging device 1 proceeds to step S203 described later. On the other hand, when the control unit 214 determines that the touch is not detected by the touch panel 212 (step S202: No), the imaging device 1 proceeds to step S216 described later.

ステップS203において、制御部214は、ユーザがタッチパネル212にタッチしたタッチ位置が有効領域(図6を参照)であるか否かを判断する。ユーザがタッチパネル212にタッチしたタッチ位置が有効領域であると制御部214が判断した場合(ステップS203:Yes)、撮像装置1は、ステップS204へ移行する。一方、ユーザがタッチパネル212にタッチしたタッチ位置が有効領域でないと制御部214が判断した場合(ステップS203:No)、撮像装置1は、ステップS205へ移行する。   In step S <b> 203, the control unit 214 determines whether or not the touch position where the user touches the touch panel 212 is an effective area (see FIG. 6). When the control unit 214 determines that the touch position where the user touches the touch panel 212 is an effective area (step S203: Yes), the imaging device 1 proceeds to step S204. On the other hand, when the control unit 214 determines that the touch position where the user touches the touch panel 212 is not an effective area (step S203: No), the imaging device 1 proceeds to step S205.

ステップS204において、タッチ位置検出部214cは、ユーザがタッチパネル212の有効領域にタッチしたタッチ位置を撮像素子203の位置(座標)に換算する。   In step S <b> 204, the touch position detection unit 214 c converts the touch position where the user touches the effective area of the touch panel 212 into the position (coordinates) of the image sensor 203.

図9は、タッチ位置検出部214cがタッチパネル212の有効領域におけるタッチ位置を撮像素子203上の位置に換算する際の換算方法を模式的に説明する図である。図9において、タッチパネル212の左下を原点P1とし、タッチパネル212の横方向をX軸とし、タッチパネル212の縦方向をY軸とする座標系として考える。また、撮像素子203の撮像領域において左下を原点とし、撮像素子203の横方向をX軸とし、撮像素子203の縦方向をY軸とする座標系として考える。   FIG. 9 is a diagram schematically illustrating a conversion method when the touch position detection unit 214 c converts the touch position in the effective area of the touch panel 212 into a position on the image sensor 203. In FIG. 9, a coordinate system is considered in which the lower left of the touch panel 212 is the origin P1, the horizontal direction of the touch panel 212 is the X axis, and the vertical direction of the touch panel 212 is the Y axis. Further, a coordinate system in which the lower left in the imaging region of the image sensor 203 is the origin, the horizontal direction of the image sensor 203 is the X axis, and the vertical direction of the image sensor 203 is the Y axis is considered.

図9に示すように、タッチ位置検出部214cは、タッチパネル212の右下の点P2の座標を(X1,0)、有効領域R11の左上の点P3の座標を(X0,Y0)、タッチ位置P4の座標を(Xf,Yf)、撮像素子203の撮像領域の右上の点を(Xi1,Yi1)としたとき、以下の式によってタッチ位置を撮像素子203上の位置(Xif,Yif)に換算する。
f:Xif=(X1−X0):Xi1 ・・・(1)
したがって、
if=Xi1×Xf/(X1−X0) ・・・(2)
になる。同様に、
f:Yif=Y0:Yi1 ・・・(3)
したがって、
if=Yi1×(Yf/Y0) ・・・(4)
になる。このように、タッチ位置検出部214cは、式(2)および式(4)を用いて、ユーザがタッチパネル212の有効領域R11においてタッチしたタッチ位置を撮像素子203上の位置(座標)に換算する。
As shown in FIG. 9, the touch position detection unit 214c sets the coordinates of the lower right point P2 of the touch panel 212 to (X 1 , 0) and the coordinates of the upper left point P3 of the effective area R11 (X 0 , Y 0 ). When the coordinates of the touch position P4 are (X f , Y f ) and the upper right point of the image pickup area of the image sensor 203 is (X i1 , Y i1 ), the touch position is determined as the position on the image sensor 203 by the following equation. Convert to (X if , Y if ).
X f: X if = (X 1 -X 0): X i1 ··· (1)
Therefore,
X if = X i1 × X f / (X 1 −X 0 ) (2)
become. Similarly,
Y f : Y if = Y 0 : Y i1 (3)
Therefore,
Y if = Y i1 × (Y f / Y 0 ) (4)
become. As described above, the touch position detection unit 214c converts the touch position touched by the user in the effective region R11 of the touch panel 212 into the position (coordinates) on the image sensor 203 using the formulas (2) and (4). .

図8に戻り、ステップS205において、タッチ位置検出部214cは、ユーザがタッチパネル212にタッチしたタッチ位置を撮像素子203上の位置に換算する。   Returning to FIG. 8, in step S <b> 205, the touch position detection unit 214 c converts the touch position where the user touches the touch panel 212 into a position on the image sensor 203.

図10は、タッチ位置検出部214cがタッチパネル212のタッチ位置を撮像素子203上の位置に換算する際の換算方法を模式的に説明する図である。図10において、タッチパネル212の左下を原点P1とし、タッチパネル212の横方向をX軸とし、タッチパネルの縦方向をY軸とする座標系として考える。また、撮像素子203の左下を原点とし、撮像素子203の横方向をX軸とし、撮像素子203の縦方向をY軸とする座標系として考える。   FIG. 10 is a diagram schematically illustrating a conversion method when the touch position detection unit 214 c converts the touch position on the touch panel 212 into a position on the image sensor 203. In FIG. 10, a coordinate system is considered in which the lower left of the touch panel 212 is the origin P1, the horizontal direction of the touch panel 212 is the X axis, and the vertical direction of the touch panel is the Y axis. Further, a coordinate system is considered in which the lower left of the image sensor 203 is the origin, the horizontal direction of the image sensor 203 is the X axis, and the vertical direction of the image sensor 203 is the Y axis.

図10に示すように、タッチ位置検出部214cは、タッチパネル212の右下の点P2の座標を(X1,0)、タッチパネル212の右上の点P5の座標を(X1,Y1)、タッチ位置P4の座標を(Xf,Yf)、撮像素子203の右上の点を(Xi1,Yi1)としたとき、以下の式によってタッチ位置を撮像素子203上の位置(Xif,Yif)に換算する。
f:Xif=X1:Xi1 ・・・(5)
したがって、
if=Xi1×(Xf/X1) ・・・(6)
になる。同様に、
f:Yif=Y1:Yi1 ・・・(7)
したがって、
if=Yi1×(Yf/Y1) ・・・(8)
になる。このように、タッチ位置検出部214cは、式(6)および式(8)を用いて、ユーザがタッチパネル212をタッチしたタッチ位置を撮像素子203上の位置(座標)に換算する。
As illustrated in FIG. 10, the touch position detection unit 214c sets the coordinates of the lower right point P2 of the touch panel 212 as (X 1 , 0), the coordinates of the upper right point P5 of the touch panel 212 as (X 1 , Y 1 ), Assuming that the coordinates of the touch position P4 are (X f , Y f ) and the upper right point of the image sensor 203 is (X i1 , Y i1 ), the touch position is determined as a position (X if , Y if ).
X f : X if = X 1 : X i1 (5)
Therefore,
X if = X i1 × (X f / X 1 ) (6)
become. Similarly,
Y f : Y if = Y 1 : Y i1 (7)
Therefore,
Y if = Y i1 × (Y f / Y 1 ) (8)
become. As described above, the touch position detection unit 214c converts the touch position at which the user touches the touch panel 212 into the position (coordinates) on the image sensor 203 using Expression (6) and Expression (8).

図8に戻り、ステップS206において、表示制御部214gは、タッチ位置検出部214cが換算した位置に基づいて、対象領域の枠を表示部211に表示させる。具体的には、図6に示すように、表示制御部214gは、タッチ位置検出部214cが換算した換算位置を含む対象領域に対応する枠R1を表示部211に表示させる。これにより、ユーザは、タッチしたタッチ領域を直感的に把握することができる。   Returning to FIG. 8, in step S206, the display control unit 214g causes the display unit 211 to display a frame of the target region based on the position converted by the touch position detection unit 214c. Specifically, as illustrated in FIG. 6, the display control unit 214g causes the display unit 211 to display a frame R1 corresponding to the target region including the converted position converted by the touch position detection unit 214c. Thereby, the user can intuitively grasp the touch area touched.

続いて、トリミング部214dは、ライブビュー画像から対象領域R1を切り出して拡大画像を生成する(ステップS207)。   Subsequently, the trimming unit 214d cuts out the target region R1 from the live view image and generates an enlarged image (step S207).

その後、表示制御部214gは、トリミング部214dが生成した拡大画像を接眼表示部42に表示させる(ステップS208)。   Thereafter, the display control unit 214g displays the enlarged image generated by the trimming unit 214d on the eyepiece display unit 42 (step S208).

続いて、制御部214は、ユーザがリング309aを操作したか否かを判断する(ステップS209)。具体的には、制御部214は、ユーザがリング309aを左右どちらか一方に回転させる操作を行うことにより、リング309aからレンズ部3のフォーカス位置および/またはフォーカス距離の変更を指示する指示信号が入力されたか否かを判断する。ユーザがリング309aを操作したと制御部214が判断した場合(ステップS209:Yes)、撮像装置1は、ステップS210へ移行する。一方、ユーザがリング309aを操作していないと制御部214が判断した場合(ステップS209:No)、撮像装置1は、図4のメインルーチンへ戻る。   Subsequently, the control unit 214 determines whether or not the user has operated the ring 309a (step S209). Specifically, the control unit 214 receives an instruction signal instructing to change the focus position and / or the focus distance of the lens unit 3 from the ring 309a when the user performs an operation of rotating the ring 309a to the left or right. It is determined whether or not it has been input. When the control unit 214 determines that the user has operated the ring 309a (step S209: Yes), the imaging device 1 proceeds to step S210. On the other hand, when the control unit 214 determines that the user is not operating the ring 309a (step S209: No), the imaging device 1 returns to the main routine of FIG.

ステップS210において、パラメータ変更部214eは、リング309aから入力される指示信号に基づいて、レンズ部3のフォーカス位置を変更する。具体的には、パラメータ変更部214eは、リング309aから入力される指示信号に基づいて、本体通信部208およびレンズ通信部311を介してレンズ制御部312に、フォーカスレンズ駆動部304を駆動させてフォーカスレンズ301bを光軸L上に沿って移動させることにより、レンズ部3のフォーカス位置を変更させる駆動信号を出力する。これにより、拡大画像に含まれる被写体のピント状態が変化することにより、ユーザが所望するピント状態になる。なお、フォーカス位置には、レンズ部3のフォーカス位置(ピント位置)およびピント距離(合焦距離)が含まれる。その後、撮像装置1は、図4のメインルーチンへ戻る。   In step S210, the parameter changing unit 214e changes the focus position of the lens unit 3 based on the instruction signal input from the ring 309a. Specifically, the parameter changing unit 214e causes the lens control unit 312 to drive the focus lens driving unit 304 via the main body communication unit 208 and the lens communication unit 311 based on the instruction signal input from the ring 309a. By moving the focus lens 301b along the optical axis L, a drive signal for changing the focus position of the lens unit 3 is output. As a result, the focus state of the subject included in the enlarged image changes, and the focus state desired by the user is obtained. The focus position includes the focus position (focus position) and the focus distance (focus distance) of the lens unit 3. Thereafter, the imaging apparatus 1 returns to the main routine of FIG.

ステップS211において、制御部214は、ユーザがタッチパネル212にタッチしたタッチ位置が有効領域であるか否かを判断する。ユーザがタッチパネル212にタッチしたタッチ位置が有効領域であると制御部214が判断した場合(ステップS211:Yes)、撮像装置1は、ステップS212へ移行する。一方、ユーザがタッチパネル212にタッチしたタッチ位置が有効領域でないと制御部214が判断した場合(ステップS211:No)、撮像装置1は、ステップS213へ移行する。   In step S211, the control unit 214 determines whether or not the touch position where the user touches the touch panel 212 is an effective area. When the control unit 214 determines that the touch position where the user touches the touch panel 212 is an effective area (step S211: Yes), the imaging apparatus 1 proceeds to step S212. On the other hand, when the control unit 214 determines that the touch position where the user touches the touch panel 212 is not an effective area (step S211: No), the imaging device 1 proceeds to step S213.

ステップS212およびステップS213は、上述したステップS204およびステップS205それぞれに対応する。   Step S212 and step S213 correspond to step S204 and step S205 described above, respectively.

続いて、トリミング部214dは、タッチ位置検出部214cが換算した換算位置に基づいて、タッチ位置を含む対象領域をライブビュー画像から切出して拡大した拡大画像を生成する(ステップS214)。   Subsequently, the trimming unit 214d generates an enlarged image obtained by cutting out and enlarging the target region including the touch position from the live view image based on the converted position converted by the touch position detecting unit 214c (step S214).

その後、表示制御部214gは、トリミング部214dが生成した拡大画像を接眼表示部42に表示させる(ステップS215)。これにより、図5〜図7に示すように、ユーザは、右手の人差し指をレリーズスイッチ210bにおいたまま、左手でレンズ部3のリング309aを操作して、接眼部4の接眼表示部42で拡大画像W2を確認しながら所望の被写体O1に対してレンズ部3のピント調整を容易かつ敏速に行うことができる。ステップS215の後、撮像装置1は、ステップS209へ移行する。   Thereafter, the display control unit 214g displays the enlarged image generated by the trimming unit 214d on the eyepiece display unit 42 (step S215). As a result, as shown in FIGS. 5 to 7, the user operates the ring 309 a of the lens unit 3 with the left hand while keeping the index finger of the right hand on the release switch 210 b, and uses the eyepiece display unit 42 of the eyepiece unit 4. The focus adjustment of the lens unit 3 can be easily and promptly performed on the desired subject O1 while confirming the enlarged image W2. After step S215, the imaging apparatus 1 proceeds to step S209.

ステップS216において、制御部214は、接眼表示部42がトリミング部214dによって連続的に生成された拡大画像を表示しているか否かを判断する。接眼表示部42がトリミング部214dによって連続的に生成された拡大画像を表示していると制御部214が判断した場合(ステップS216:Yes)、撮像装置1は、ステップS217へ移行する。一方、接眼表示部42がトリミング部214dによって連続的に生成された拡大画像を接眼表示部42に表示していないと制御部214が判断した場合(ステップS216:No)、撮像装置1は、ステップS209へ移行する。   In step S216, the control unit 214 determines whether or not the eyepiece display unit 42 displays enlarged images continuously generated by the trimming unit 214d. When the control unit 214 determines that the eyepiece display unit 42 displays the enlarged images continuously generated by the trimming unit 214d (step S216: Yes), the imaging device 1 proceeds to step S217. On the other hand, when the control unit 214 determines that the eyepiece display unit 42 does not display the enlarged images continuously generated by the trimming unit 214d on the eyepiece display unit 42 (step S216: No), the imaging device 1 performs the step The process proceeds to S209.

ステップS217において、表示制御部214gは、接眼表示部42が表示する拡大画像の表示を終了する。その後、撮像装置1は、ステップS209へ移行する。   In step S217, the display control unit 214g ends the display of the enlarged image displayed by the eyepiece display unit 42. Thereafter, the imaging apparatus 1 proceeds to step S209.

つぎに、図4のステップS110のタッチパネル操作判定・パラメータ変更処理2について説明する。なお、以下においては、まず、本実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理2の概要について説明する。その後、タッチパネル操作判定・パラメータ変更処理2について詳細に説明する。   Next, touch panel operation determination / parameter change processing 2 in step S110 of FIG. 4 will be described. In the following, first, an outline of touch panel operation determination / parameter change processing 2 according to the first embodiment will be described. Thereafter, the touch panel operation determination / parameter change process 2 will be described in detail.

図11は、ユーザが表示部211で被写体O1に対するピント状態を確認しながら撮影を行う際の状況を示す図である。図12は、図11に示す状況下で表示部211によって表示されるライブビュー画像内において所望の被写体O1に対してタッチする際の状況を模式的に示す図である。   FIG. 11 is a diagram illustrating a situation when the user performs shooting while confirming the focus state with respect to the subject O1 on the display unit 211. FIG. 12 is a diagram schematically showing a situation when a desired subject O1 is touched in the live view image displayed by the display unit 211 under the situation shown in FIG.

図11および図12に示すように、ユーザは、右手の人差し指をレリーズスイッチ210bにおいたまま、左手でレンズ部3を保持しつつ、被写体O1に対するピント状態の確認を行いたい。そこで、本実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理2では、ユーザが被写体O1のピント状態を表示部211で確認することができるように、ユーザが右手の親指でタッチパネル212を介して表示部211によって表示されているライブビュー画像W1の被写体O1にタッチした場合(図12(a)を参照)、そのタッチ位置を含む対象領域R1をトリミング部214dが切出して拡大画像W2を生成し、この拡大画像W2を表示制御部214gが表示部211の左上画面に表示させる(図12(b))。その後、パラメータ変更部214eは、リング309aの操作に応じて、ライブビュー画像W1内に写る被写体O1に対するレンズ部3のピント(フォーカス)を変更する(図12(c))。これにより、拡大画像W2に含まれる被写体O1のピント状態を変更することができる。なお、パラメータ変更部214eは、リング309aの操作に応じて、ライブビュー画像W1または拡大画像W2内に写る被写体O1の倍率を変更してもよい。   As shown in FIGS. 11 and 12, the user wants to confirm the focus state with respect to the subject O1 while holding the lens unit 3 with the left hand while keeping the index finger of the right hand on the release switch 210b. Therefore, in the touch panel operation determination / parameter change processing 2 according to the first exemplary embodiment, the user can confirm the focus state of the subject O1 on the display unit 211 with the thumb of the right hand via the touch panel 212. When the subject O1 of the live view image W1 displayed by the display unit 211 is touched (see FIG. 12A), the trimming unit 214d cuts out the target region R1 including the touch position to generate an enlarged image W2. The display control unit 214g displays this enlarged image W2 on the upper left screen of the display unit 211 (FIG. 12B). Thereafter, the parameter changing unit 214e changes the focus (focus) of the lens unit 3 with respect to the subject O1 captured in the live view image W1 in accordance with the operation of the ring 309a (FIG. 12C). Thereby, the focus state of the subject O1 included in the enlarged image W2 can be changed. The parameter changing unit 214e may change the magnification of the subject O1 captured in the live view image W1 or the enlarged image W2 in accordance with the operation of the ring 309a.

このように、本実施の形態1にかかるタッチパネル操作判定・パラメータ変更処理2では、ユーザが撮像装置1に対してホールディングした状態を維持したまま、目視で困難な被写体O1に対するピント状態の確認を行いながら、リング309aを操作することで被写体O1に対するレンズ部3のピント位置の変更を容易に行うことができる。さらに、ユーザが拡大画像W2の表示位置を右手で隠れない位置に表示するので、タッチした部分が見えなくなることを防止することができる。なお、拡大画像の表示位置は、適宜設定することができる。さらに、表示制御部214gは、撮像装置1の撮影モードに関する情報としてアイコンA1を表示部211に表示させてもよい。アイコンA1は、撮像装置1がマニュアルフォーカスモードに設定されていることを示すアイコンである。   As described above, in the touch panel operation determination / parameter change processing 2 according to the first exemplary embodiment, the focus state with respect to the subject O1 that is difficult to visually check is performed while the state in which the user holds the imaging apparatus 1 is maintained. However, it is possible to easily change the focus position of the lens unit 3 with respect to the subject O1 by operating the ring 309a. Furthermore, since the user displays the display position of the enlarged image W2 at a position that is not hidden with the right hand, it is possible to prevent the touched portion from being invisible. Note that the display position of the enlarged image can be set as appropriate. Furthermore, the display control unit 214g may cause the display unit 211 to display the icon A1 as information regarding the shooting mode of the imaging device 1. The icon A1 is an icon indicating that the imaging device 1 is set to the manual focus mode.

図13は、タッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。   FIG. 13 is a flowchart showing an outline of touch panel operation determination / parameter change processing 2.

図13に示すように、制御部214は、ユーザがタッチパネル212に対してタッチを継続しているか否かを判断する(ステップS301)。ユーザがタッチパネル212に対してタッチを継続していると制御部214が判断した場合(ステップS301:Yes)、撮像装置1は、後述するステップS307へ移行する。一方、ユーザがタッチパネル212に対してタッチを継続していないと制御部214が判断した場合(ステップS301:No)、撮像装置1は、後述するステップS302へ移行する。   As illustrated in FIG. 13, the control unit 214 determines whether or not the user continues to touch the touch panel 212 (step S301). When the control unit 214 determines that the user continues to touch the touch panel 212 (step S301: Yes), the imaging device 1 proceeds to step S307 described later. On the other hand, when the control unit 214 determines that the user does not continue touching the touch panel 212 (step S301: No), the imaging device 1 proceeds to step S302 described later.

ステップS302において、制御部214は、タッチパネル212がタッチを検出したか否かを判断する。タッチパネル212がタッチを検出したと制御部214が判断した場合(ステップS302:Yes)、撮像装置1は、後述するステップS303へ移行する。一方、タッチパネル212がタッチを検出していないと制御部214が判断した場合(ステップS302:No)、撮像装置1は、後述するステップS311へ移行する。   In step S302, the control unit 214 determines whether or not the touch panel 212 has detected a touch. When the control unit 214 determines that the touch panel 212 has detected a touch (step S302: Yes), the imaging device 1 proceeds to step S303 to be described later. On the other hand, when the control unit 214 determines that the touch is not detected by the touch panel 212 (step S302: No), the imaging device 1 proceeds to step S311 described later.

ステップS303において、タッチ位置検出部214cは、ユーザがタッチパネル212にタッチしたタッチ位置を撮像素子203の座標に換算する。具体的には、タッチ位置検出部214cは、式(6)および式(8)を用いて、ユーザがタッチパネル212にタッチしたタッチ位置を撮像素子203上の位置(座標)に換算する。   In step S <b> 303, the touch position detection unit 214 c converts the touch position where the user touches the touch panel 212 into the coordinates of the image sensor 203. Specifically, the touch position detection unit 214c converts the touch position where the user touches the touch panel 212 into a position (coordinates) on the image sensor 203 using Expression (6) and Expression (8).

続いて、表示制御部214gは、タッチ位置検出部214cが換算した換算位置に基づいて、タッチ位置を含む対象領域の枠R1を表示部211に表示させる(ステップS304)。これにより、ユーザは、タッチしたタッチ領域を直感的に把握することができる。   Subsequently, the display control unit 214g causes the display unit 211 to display the frame R1 of the target area including the touch position based on the converted position converted by the touch position detection unit 214c (step S304). Thereby, the user can intuitively grasp the touch area touched.

ステップS305およびステップS306は、図8のステップS209およびステップS210にそれぞれ対応する。その後、撮像装置1は、図4のメインルーチンへ戻る。   Step S305 and step S306 correspond to step S209 and step S210 in FIG. 8, respectively. Thereafter, the imaging apparatus 1 returns to the main routine of FIG.

ステップS307において、制御部214は、ユーザがタッチ位置を表示部211の右下に向けてスライドしているか否かを判断する。具体的には、制御部214は、タッチパネル212から出力される位置信号に基づいて、タッチ位置検出部214cが換算した撮像素子203上の座標のXの値が増加し、Yの値が減少しているか否かを判断することにより、ユーザがタッチ位置を表示部211の右下に向けてスライドしているか否かを判断する。ユーザがタッチ位置を表示部211の右下に向けてスライドしていると制御部214が判断した場合(ステップS307:Yes)、撮像装置1は、ステップS308へ移行する。一方、ユーザがタッチ位置を表示部211の右下に向けてスライドしていないと制御部214が判断した場合(ステップS307:No)、撮像装置1は、ステップS305へ移行する。   In step S <b> 307, the control unit 214 determines whether the user is sliding the touch position toward the lower right of the display unit 211. Specifically, based on the position signal output from the touch panel 212, the control unit 214 increases the X value of the coordinates on the image sensor 203 converted by the touch position detection unit 214c, and decreases the Y value. By determining whether or not the user is touching, it is determined whether or not the user is sliding the touch position toward the lower right of the display unit 211. When the control unit 214 determines that the user is sliding the touch position toward the lower right of the display unit 211 (step S307: Yes), the imaging device 1 proceeds to step S308. On the other hand, when the control unit 214 determines that the user does not slide the touch position toward the lower right of the display unit 211 (step S307: No), the imaging device 1 proceeds to step S305.

ステップS308において、制御部214は、現在のタッチ継続位置が表示部211の右下画面の縦横1/3以内であるか否かを判断する。現在のタッチ継続位置が表示部211の右下画面の縦横1/3以内であると制御部214が判断した場合(ステップS308:Yes)、撮像装置1は、ステップS309へ移行する。一方、現在のタッチ継続位置が右下画面の縦横1/3以内でないと制御部214が判断した場合(ステップS308:No)、撮像装置1は、ステップS305へ移行する。   In step S <b> 308, the control unit 214 determines whether or not the current touch continuation position is within 1/3 vertical and horizontal of the lower right screen of the display unit 211. When the control unit 214 determines that the current touch continuation position is within 1/3 in the vertical and horizontal directions of the lower right screen of the display unit 211 (step S308: Yes), the imaging device 1 proceeds to step S309. On the other hand, when the control unit 214 determines that the current touch continuation position is not within 1/3 in the vertical and horizontal directions of the lower right screen (step S308: No), the imaging device 1 proceeds to step S305.

ステップS309において、トリミング部214dは、ライブビュー画像からタッチ位置を含む対象領域R1を切出して拡大画像を生成する。   In step S309, the trimming unit 214d cuts out the target region R1 including the touch position from the live view image to generate an enlarged image.

続いて、表示制御部214gは、トリミング部214dが生成した拡大画像を、表示部211の左上画面の縦横2/3分の表示領域上に表示させる(ステップS310)。これにより、ユーザは、表示部211が表示する所望の被写体O1が拡大された拡大画像を見ながら、リング309aを操作することによって、レンズ部3のピントを手動で変更することにより、被写体O1に対するピント状態を調整することができる。   Subsequently, the display control unit 214g causes the enlarged image generated by the trimming unit 214d to be displayed on the display area of 2/3 vertical and horizontal of the upper left screen of the display unit 211 (step S310). Accordingly, the user manually changes the focus of the lens unit 3 by operating the ring 309a while viewing the enlarged image in which the desired subject O1 displayed on the display unit 211 is enlarged. The focus state can be adjusted.

ステップS311およびステップS312は、図8のステップS216およびステップS217にそれぞれ対応する。   Step S311 and step S312 correspond to step S216 and step S217 in FIG. 8, respectively.

以上説明した本発明の実施の形態1によれば、トリミング部214dがタッチパネル212から出力される位置信号に基づいて、撮像素子203によって生成された画像データに対応する画像からタッチ位置を含む領域を切出して拡大画像を生成し、表示制御部214gが拡大画像を接眼表示部42に表示させる。この結果、ユーザは、接眼表示部42で被写体のピント状態を確認しながら、被写体に対するピント操作を容易に変更することができる。   According to the first embodiment of the present invention described above, the region including the touch position from the image corresponding to the image data generated by the image sensor 203 based on the position signal output from the touch panel 212 by the trimming unit 214d. The enlarged image is generated by cutting out, and the display control unit 214g causes the eyepiece display unit 42 to display the enlarged image. As a result, the user can easily change the focus operation on the subject while confirming the focus state of the subject on the eyepiece display unit 42.

また、本発明の実施の形態1によれば、トリミング部214dがタッチパネル212から出力される位置信号に基づいて、撮像素子203によって生成された画像データからタッチ位置を含む領域を切出して拡大画像データを生成し、表示制御部214gがトリミング部214dによって生成されたトリミング画像データに対応するトリミング画像をライブビュー画像に重畳して表示部211に表示させるとともに、タッチパネル212から出力される位置信号の変化に応じて、トリミング画像の表示態様を制御する。この結果、ユーザは、拡大画像を確認することで、被写体に対するピント操作を容易に変更することができる。   Further, according to Embodiment 1 of the present invention, the trimming unit 214d cuts out an area including the touch position from the image data generated by the image sensor 203 based on the position signal output from the touch panel 212, and expands the image data. The display control unit 214g superimposes the trimming image corresponding to the trimming image data generated by the trimming unit 214d on the live view image and displays it on the display unit 211, and changes the position signal output from the touch panel 212. The display mode of the trimmed image is controlled accordingly. As a result, the user can easily change the focus operation on the subject by checking the enlarged image.

また、本発明の実施の形態1によれば、パラメータ変更部214eがレンズ操作部309のリング309aの操作に応じて、ズームレンズ301aまたはフォーカスレンズ301bを駆動する駆動信号をレンズ制御部312に出力することにより、拡大画像の表示領域サイズまたは拡大画像に含まれる被写体の表示倍率を変更する。この結果、ユーザは、ピント操作またはズーム操作を行いながら、所望の被写体のピント状態または拡大率を容易に調整することができる。   Further, according to Embodiment 1 of the present invention, the parameter changing unit 214e outputs a drive signal for driving the zoom lens 301a or the focus lens 301b to the lens control unit 312 in accordance with the operation of the ring 309a of the lens operation unit 309. Thus, the display area size of the enlarged image or the display magnification of the subject included in the enlarged image is changed. As a result, the user can easily adjust the focus state or enlargement ratio of a desired subject while performing a focus operation or a zoom operation.

なお、本発明の実施の形態1では、パラメータ変更部214eがリング309aの操作に応じて、レンズ部3のピント状態または倍率を変更することにより、拡大画像の表示態様を変更していたが、たとえばシャッタ速度、撮影感度(ISO感度)、露出時間を変更することにより、拡大画像の表示態様を変更してもよい。   In the first embodiment of the present invention, the parameter changing unit 214e changes the display state of the enlarged image by changing the focus state or magnification of the lens unit 3 according to the operation of the ring 309a. For example, the display mode of the enlarged image may be changed by changing the shutter speed, photographing sensitivity (ISO sensitivity), and exposure time.

また、本発明の実施の形態1によれば、表示制御部214gがトリミング部214dによって生成された拡大画像を表示部211の左上画面の縦横2/3分の表示領域上に表示させていたが、たとえば拡大画像を表示部211の左下画面の縦横2/3分の表示領域上に表示させてもよい。さらに、表示制御部214gは、タッチパネル212から出力される位置信号に応じて、拡大画像を表示する表示位置を適宜変更してもよい。   Further, according to Embodiment 1 of the present invention, the display control unit 214g displays the enlarged image generated by the trimming unit 214d on the display area of 2/3 vertical and horizontal of the upper left screen of the display unit 211. For example, an enlarged image may be displayed on the display area of 2/3 vertical and horizontal of the lower left screen of the display unit 211. Furthermore, the display control unit 214g may appropriately change the display position for displaying the enlarged image in accordance with the position signal output from the touch panel 212.

(実施の形態1の変形例1)
上述した実施の形態1において、撮像装置1が実行するタッチパネル操作判定・パラメータ変更処理2の内容を変更することも可能である。このため、以下においては、まず、本実施の形態1の変形例1にかかる撮像装置1が実行するタッチパネル操作判定・パラメータ変更処理2の概要について説明する。その後、本実施の形態1の変形例1にかかるタッチパネル操作判定・パラメータ変更処理2について詳細に説明する。
(Modification 1 of Embodiment 1)
In the first embodiment described above, the content of the touch panel operation determination / parameter change process 2 executed by the imaging apparatus 1 can be changed. Therefore, in the following, first, an overview of the touch panel operation determination / parameter change process 2 executed by the imaging apparatus 1 according to the first modification of the first embodiment will be described. Thereafter, the touch panel operation determination / parameter change process 2 according to the first modification of the first embodiment will be described in detail.

図14は、本実施の形態1の変形例1にかかる撮像装置1が実行するタッチパネル操作判定・パラメータ変更処理2を模式的に説明する図である。なお、図14においては、ユーザの左手は、レンズ部3を保持しているものとして説明するが、説明を簡略化するため、図示せずに説明する。   FIG. 14 is a diagram schematically illustrating touch panel operation determination / parameter change processing 2 executed by the imaging apparatus 1 according to the first modification of the first embodiment. In FIG. 14, the left hand of the user is described as holding the lens unit 3, but in order to simplify the description, it will be described without being illustrated.

図14に示すように、ユーザが右手の親指でタッチパネル212を介して表示部211によって表示されているライブビュー画像W1の被写体O1にタッチした場合(図14(a))、そのタッチ位置を含む対象領域R1をトリミング部214dが切出して拡大画像W2を生成し、この拡大画像W2を表示制御部214gが表示部211の左上画面に表示させる(図14(b))。続いて、パラメータ変更部214eは、ユーザのスライド操作(軌跡)に応じて、拡大画像W2に含まれる被写体(O1)の表示倍率および拡大画像W2の表示領域サイズを変更する。その後、表示制御部214gは、パラメータ変更部214eが変更した拡大画像W2の表示倍率および拡大画像W2の表示領域サイズに基づいて、トリミング部214dが生成した拡大画像W2を表示部211に表示させる(図14(c))。この場合、図14に示すように、パラメータ変更部214eは、ユーザのスライド操作に応じて、トリミング部214dによる対象領域R1(トリミング領域)を徐々に小さくすることにより、拡大画像W2に含まれる被写体O1を仮想的に拡大することができる。さらに、図14において、パラメータ変更部214eは、ユーザのスライド操作に応じて、トリミング部214dによる対象領域R1を徐々に大きくすることにより、拡大画像W2に含まれる被写体O1を仮想的に縮小するようにしてもよい。   As shown in FIG. 14, when the user touches the subject O1 of the live view image W1 displayed on the display unit 211 via the touch panel 212 with the thumb of the right hand (FIG. 14A), the touch position is included. The trimming unit 214d cuts out the target region R1 to generate an enlarged image W2, and the display control unit 214g displays the enlarged image W2 on the upper left screen of the display unit 211 (FIG. 14B). Subsequently, the parameter changing unit 214e changes the display magnification of the subject (O1) included in the enlarged image W2 and the display area size of the enlarged image W2 according to the user's slide operation (trajectory). Thereafter, the display control unit 214g causes the display unit 211 to display the enlarged image W2 generated by the trimming unit 214d based on the display magnification of the enlarged image W2 changed by the parameter changing unit 214e and the display area size of the enlarged image W2 ( FIG. 14 (c)). In this case, as shown in FIG. 14, the parameter changing unit 214e gradually reduces the target region R1 (trimming region) by the trimming unit 214d in accordance with the user's slide operation, so that the subject included in the enlarged image W2 O1 can be virtually enlarged. Further, in FIG. 14, the parameter changing unit 214e virtually reduces the subject O1 included in the enlarged image W2 by gradually increasing the target region R1 by the trimming unit 214d in accordance with the user's slide operation. It may be.

このように、本実施の形態1の変形例1にかかる撮像装置1が実行するタッチパネル操作判定・パラメータ変更処理2では、ユーザが撮像装置1に対してホールディングした状態を維持したまま、目視で困難な被写体O1に対するピント状態の確認を行いながら、リング309aを操作することで被写体O1に対するレンズ部3によるピント位置の変更を簡単に行うことができる。さらに、ユーザのスライド操作に応じて、拡大画像W2に含まれる被写体O1の表示倍率および拡大画像W2の表示領域サイズを変更することができるので、被写体O1に対するレンズ部3のピント調整をより精度よく簡易な操作で行うことができる。もちろん、本実施の形態1の変形例1では、トリミング部214dによるトリミング領域そのものは同じのまま、切出して生成した画像(トリミング画像)を拡大または縮小するようにしてもよい。   As described above, in the touch panel operation determination / parameter change process 2 executed by the imaging apparatus 1 according to the first modification of the first embodiment, it is difficult to visually observe the user while maintaining the holding state with respect to the imaging apparatus 1. By operating the ring 309a while confirming the focus state with respect to the subject O1, it is possible to easily change the focus position by the lens unit 3 with respect to the subject O1. Furthermore, since the display magnification of the subject O1 and the display area size of the enlarged image W2 included in the enlarged image W2 can be changed according to the user's slide operation, the focus adjustment of the lens unit 3 with respect to the subject O1 can be performed with higher accuracy. This can be done with a simple operation. Of course, in the first modification of the first embodiment, an image (trimming image) generated by cutting may be enlarged or reduced while the trimming area itself by the trimming unit 214d remains the same.

図15は、本実施の形態1の変形例1にかかる撮像装置1が実行する図4のステップS110のタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。   FIG. 15 is a flowchart illustrating an overview of the touch panel operation determination / parameter change process 2 in step S110 of FIG. 4 executed by the imaging apparatus 1 according to the first modification of the first embodiment.

図15に示すように、ステップS401〜ステップS406は、図13のステップS301〜ステップS306にそれぞれ対応する。   As shown in FIG. 15, steps S401 to S406 correspond to steps S301 to S306 in FIG. 13, respectively.

ステップS407において、制御部214は、ユーザがタッチ位置を表示部211の右下に向けてスライドしているか否かを判断する。ユーザがタッチ位置を表示部211の右下に向けてスライドしていると制御部214が判断した場合(ステップS407:Yes)、撮像装置1は、ステップS408へ移行する。一方、ユーザがタッチ位置を表示部211の右下に向けてスライドしていないと制御部214が判断した場合(ステップS407:No)、撮像装置1は、ステップS405へ移行する。   In step S407, the control unit 214 determines whether the user is sliding the touch position toward the lower right of the display unit 211. When the control unit 214 determines that the user is sliding the touch position toward the lower right of the display unit 211 (step S407: Yes), the imaging device 1 proceeds to step S408. On the other hand, when the control unit 214 determines that the user does not slide the touch position toward the lower right of the display unit 211 (step S407: No), the imaging device 1 proceeds to step S405.

ステップS408において、制御部214は、ユーザが最初にタッチしたタッチ位置(A点)から現在のタッチ継続位置までのスライド移動距離D1が最初にタッチしたタッチ位置から表示部211の右下部までのスライド限界距離D0の半分以上であるか否かを判断する。スライド移動距離D1がスライド限界距離D0の半分以上であると制御部214が判断した場合(ステップS408:Yes)、撮像装置1は、ステップS409へ移行する。一方、スライド移動距離D1がスライド限界距離D0の半分以上でないと制御部214が判断した場合(ステップS408:No)、撮像装置1は、ステップS405へ移行する。 In step S <b> 408, the control unit 214 determines that the slide movement distance D 1 from the first touch position (point A) touched by the user to the current touch continuation position is from the first touch position to the lower right part of the display unit 211. It is determined whether or not the slide limit distance D 0 is half or more. When the control unit 214 determines that the slide movement distance D 1 is equal to or greater than half of the slide limit distance D 0 (step S408: Yes), the imaging device 1 proceeds to step S409. On the other hand, when the slide moving distance D 1 is the control unit 214 that no more than half of the slide limit distance D 0 is determined (step S408: No), the imaging apparatus 1 proceeds to step S405.

図16は、タッチ位置検出部214cがタッチパネル212のタッチ位置を撮像素子203の撮像領域上に換算する際の換算方法を模式的に説明する図である。図16において、タッチパネル212の左下を原点P1とし、タッチパネル212の横方向をX軸とし、タッチパネル212の縦方向をY軸とする座標系として考える。   FIG. 16 is a diagram schematically illustrating a conversion method when the touch position detection unit 214 c converts the touch position of the touch panel 212 onto the imaging region of the image sensor 203. In FIG. 16, a coordinate system is considered in which the lower left of the touch panel 212 is the origin P1, the horizontal direction of the touch panel 212 is the X axis, and the vertical direction of the touch panel 212 is the Y axis.

図16に示すように、タッチ位置検出部214cは、タッチパネル212の右下の点P2の座標を(X1,0)、タッチパネル212の右上の点P5の座標を(X1,Y1)、最初にタッチしたタッチ位置P4の座標を(Xf1,Yf1)、スライド移動後のタッチ位置P6の座標を(Xf2,Yf2)としたとき、以下の式によってタッチ位置P4から点P2までのスライド限界距離D0およびタッチ位置P1からタッチ継続位置P6までのスライド距離移動D1が算出される。
0={(X1−Xf12+(Yf12)}1/2 ・・・(9)
となる。同様に、タッチ位置P1からタッチ継続位置P6のスライド距離D1は、
1={(Xf2−Xf12+(Yf1−Yf221/2 ・・・(10)
となる。このように、タッチ位置検出部214cは、式(9)および式(10)を用いて、スライド限界距離D0およびスライド移動距離D1を算出する。
As illustrated in FIG. 16, the touch position detection unit 214c sets the coordinates of the lower right point P2 of the touch panel 212 to (X 1 , 0), the coordinates of the upper right point P5 of the touch panel 212 (X 1 , Y 1 ), When the coordinate of the touch position P4 touched first is (X f1 , Y f1 ) and the coordinate of the touch position P6 after the slide movement is (X f2 , Y f2 ), from the touch position P4 to the point P2 by the following formula: The slide limit distance D 0 and the slide distance movement D 1 from the touch position P 1 to the touch continuation position P 6 are calculated.
D 0 = {(X 1 −X f1 ) 2 + (Y f1 ) 2 )} 1/2 (9)
It becomes. Similarly, the slide distance D 1 from the touch position P1 to the touch continuation position P6 is
D 1 = {(X f2 −X f1 ) 2 + (Y f1 −Y f2 ) 2 } 1/2 (10)
It becomes. Thus, the touch position detection unit 214c, using Equation (9) and (10), calculates the sliding limit distance D 0 and the slide movement distance D 1.

続いて、パラメータ変更部214eは、タッチ位置検出部214cが算出したスライド距離D1とスライド限界距離D0との比率に基づいて、拡大画像の表示倍率を変更する(ステップS409)。 Subsequently, the parameter changing section 214e based on the ratio between the sliding distance D 1 and the slide limit distance D 0 that touch position detection unit 214c is calculated to change the magnification of the enlarged image (step S409).

図17は、スライド距離D1とスライド限界距離D0との比率と拡大画像の表示倍率との関係を示す図である。図17において、横軸がスライド距離D1とスライド限界距離D0との比率を示し、縦軸が拡大画像の表示倍率を示す。なお、記憶部213は、スライド距離D1とスライド限界距離D0との比率と拡大画像の表示倍率との関係を記憶する。 FIG. 17 is a diagram illustrating the relationship between the ratio of the slide distance D 1 and the slide limit distance D 0 and the display magnification of the enlarged image. 17, the horizontal axis represents the ratio of the slide distance D 1 and the slide limit distance D 0, the vertical axis represents the display magnification of the enlarged image. The storage unit 213 stores the relationship between the ratio between the slide distance D 1 and the slide limit distance D 0 and the display magnification of the enlarged image.

図17の直線L1に示すように、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率に基づいて、拡大画像の表示倍率を変更する。このように、パラメータ変更部214eは、ユーザによるスライド距離D1に基づいて、拡大画像の表示倍率をリニアに変更する。これにより、本実施の形態1の変形例1では、ユーザに対してアナログ的な操作感を提供することができる。なお、図17の曲線C1に示すように、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率が1に近づくにつれ拡大画像の表示倍率を大きく変化させてもよい。これにより、拡大画像の拡大に伴って画質が粗くなることを未然に防止することができる。 As it indicated by the straight line L1 in FIG. 17, the parameter changing section 214e based on the ratio between the sliding distance D 1 and the slide limit distance D 0, to change the magnification of the enlarged image. Thus, the parameter changing section 214e on the basis of the slide distance D 1 by a user, to change the magnification of the enlarged image linearly. Thereby, in the modification 1 of this Embodiment 1, an analog operation feeling can be provided with respect to a user. Incidentally, as shown by the curve C1 in FIG. 17, the parameter changing unit 214e, the ratio of the slide distance D 1 and the slide limit distance D 0 may greatly change the display magnification of the enlarged image as it approaches the 1. Thereby, it is possible to prevent the image quality from becoming coarse as the enlarged image is enlarged.

ステップS409の後、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率に基づいて、拡大画像の表示領域サイズを変更する(ステップS410)。 After step S409, the parameter changing section 214e based on the ratio between the sliding distance D 1 and the slide limit distance D 0, changes the display area size of the enlarged image (step S410).

図18は、スライド距離D1とスライド限界距離D0との比率と拡大画像の表示領域サイズとの関係を示す図である。図18において、横軸がスライド距離D1とスライド限界距離D0との比率を示し、縦軸が拡大画像の表示領域サイズを示す。なお、記憶部213は、スライド距離D1とスライド限界距離D0との比率と拡大画像の表示領域サイズとの関係を記憶する。 FIG. 18 is a diagram showing the relationship between the ratio of the slide distance D 1 and the slide limit distance D 0 and the display area size of the enlarged image. In FIG. 18, the horizontal axis indicates the ratio between the slide distance D 1 and the slide limit distance D 0, and the vertical axis indicates the display area size of the enlarged image. The storage unit 213 stores the relationship between the ratio of the slide distance D 1 and the slide limit distance D 0 and the display area size of the enlarged image.

図18の直線L11に示すように、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率に基づいて、表示部211で表示する拡大画像の表示領域サイズを決定する。具体的には、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率が1になった場合、表示部211で表示する拡大画像の表示領域サイズを表示部211の画面全域になるように拡大画像の表示領域サイズを変更する。これにより、パラメータ変更部214eは、ユーザによるスライド距離D1に基づいて、拡大画像の表示領域サイズを徐々に変更するので、ユーザに対してアナログ的な操作感を提供することができる。 As indicated by the straight line L11 in FIG. 18, the parameter changing section 214e based on the ratio between the sliding distance D 1 and the slide limit distance D 0, determines the display area size of the enlarged image displayed on the display unit 211. Specifically, when the ratio of the slide distance D 1 and the slide limit distance D 0 becomes 1, the parameter change unit 214e sets the display area size of the enlarged image displayed on the display unit 211 to the entire screen of the display unit 211. The display area size of the enlarged image is changed so that Thus, the parameter changing section 214e on the basis of the slide distance D 1 by the user, since the gradually changing the display area size of the enlarged image, it is possible to provide an analog-like operational feeling for the user.

続いて、トリミング部214dは、パラメータ変更部214eが設定した表示倍率および表示領域サイズに基づいて、タッチ位置を含む対象領域を切出して拡大画像を生成する(ステップS411)。   Subsequently, the trimming unit 214d cuts out the target area including the touch position based on the display magnification and the display area size set by the parameter changing unit 214e (step S411).

その後、表示制御部214gは、表示部211の画面左上にトリミング部214dが生成した拡大画像を表示させる(ステップS412)。これにより、ユーザは、アナログ的な操作感で所望の被写体のピント状態を確認することができるとともに、拡大画像の表示倍率および表示領域サイズを簡易な操作で調整することができる。ステップS412の後、撮像装置1は、ステップS405へ移行する。   Thereafter, the display control unit 214g displays the enlarged image generated by the trimming unit 214d on the upper left of the screen of the display unit 211 (step S412). As a result, the user can confirm the focus state of the desired subject with an analog operation feeling, and can adjust the display magnification and the display area size of the enlarged image with a simple operation. After step S412, the imaging apparatus 1 proceeds to step S405.

ステップS413およびステップS414は、図13のステップS311およびステップS312にそれぞれ対応する。   Step S413 and step S414 correspond to step S311 and step S312 of FIG. 13, respectively.

以上説明した本発明の実施の形態1の変形例1によれば、ユーザが所望する被写体のピント確認用の拡大画像の表示領域を移動させることができるとともに、表示領域のサイズを変更することができる。この結果、ユーザは、撮像装置1をホールディングした状態から直感的に所望の被写体のピンチを把握することができるとともに、リング309aを操作することで被写体にピントを容易かつ敏速に合わせることができる。   According to the first modification of the first embodiment of the present invention described above, the display area of the enlarged image for confirming the focus of the subject desired by the user can be moved and the size of the display area can be changed. it can. As a result, the user can intuitively grasp the pinch of a desired subject from the state in which the imaging device 1 is held, and can easily and quickly focus on the subject by operating the ring 309a.

なお、本実施の形態1の変形例1にかかるタッチパネル操作判定・パラメータ変更処理2では、ユーザがスライド操作を表示部211の左上から右下に向けて移動させていたが、たとえば図19に示すように、ユーザがスライド操作を表示部211の左下から右上に向けて移動した場合であっても適用することができる。   In the touch panel operation determination / parameter change process 2 according to the first modification of the first embodiment, the user moves the slide operation from the upper left to the lower right of the display unit 211. For example, FIG. Thus, even when the user moves the slide operation from the lower left to the upper right of the display unit 211, the present invention can be applied.

また、本実施の形態1の変形例1では、パラメータ214eがユーザによるスライド操作に応じて、拡大画像に含まれる被写体の表示倍率および拡大画像の表示領域サイズを変更していたが、たとえばユーザによるスライド操作に応じて、トリミング部214dによるトリミング領域を拡大または縮小してもよい。これにより、拡大画像に含まれる被写体を擬似的に拡大または縮小することができる。   In the first modification of the first embodiment, the parameter 214e changes the display magnification of the subject included in the enlarged image and the display area size of the enlarged image according to the slide operation by the user. Depending on the slide operation, the trimming region by the trimming unit 214d may be enlarged or reduced. As a result, the subject included in the enlarged image can be artificially enlarged or reduced.

(実施の形態1の変形例2)
上述した実施の形態1において、撮像装置1が実行するタッチパネル操作判定・パラメータ変更処理2の内容をさらに変更することも可能である。
(Modification 2 of Embodiment 1)
In the first embodiment described above, it is possible to further change the content of the touch panel operation determination / parameter change processing 2 executed by the imaging apparatus 1.

図20は、本実施の形態1の変形例2にかかる撮像装置1が実行する図4のステップS110のタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。   FIG. 20 is a flowchart showing an overview of the touch panel operation determination / parameter change process 2 in step S110 of FIG. 4 executed by the imaging apparatus 1 according to the second modification of the first embodiment.

図20に示すように、ステップS501〜ステップS507は、図13のステップS301〜ステップS307にそれぞれ対応する。   As shown in FIG. 20, steps S501 to S507 correspond to steps S301 to S307 in FIG. 13, respectively.

ステップS508において、制御部214は、ユーザが最初にタッチしたタッチ位置から現在のタッチ継続位置が表示部211の表示画面における右下画面縦横1/3以内であるか否かを判断する。ユーザが最初にタッチしたタッチ位置から現在のタッチ継続位置が表示部211の表示画面における右下画面縦横1/3以内であると制御部214が判断した場合(ステップS508:Yes)、撮像装置1は、ステップS509へ移行する。一方、ユーザが最初にタッチしたタッチ位置から現在のタッチ継続位置が表示部211の表示画面における右下画面縦横1/3以内でないと制御部214が判断した場合(ステップS508:No)、撮像装置1は、ステップS505へ移行する。ここで、画面縦横1/3にした理由は、タッチ選択した部分を画面縦横1/3の部分までシフト操作した時、残りの画面縦横2/3の部分が画像の表示部分になるが、ここに拡大した場合に、十分な拡大エリアが得られるからである。たとえば、タッチした部分を中心に画面の縦横1/3の画像をユーザが選択した場合、まず、2倍の拡大が可能になるからである。また、さらに拡大したい場合、この右下画面縦横1/3のエリアを利用して、指を動かすことによって、さらに大きく拡大する仕様において、十分な操作分解能での操作が可能となる。この領域が狭いと、指の震えに敏感になって、少しの動きで拡大率が変化してちらついてしまうような不具合となる。   In step S508, the control unit 214 determines whether or not the current touch continuation position is within 1/3 of the lower right screen vertical and horizontal directions on the display screen of the display unit 211 from the touch position first touched by the user. When the control unit 214 determines that the current touch continuation position from the touch position first touched by the user is within 1/3 of the lower right screen vertical and horizontal on the display screen of the display unit 211 (step S508: Yes), the imaging apparatus 1 Shifts to step S509. On the other hand, when the control unit 214 determines that the current touch continuation position from the touch position first touched by the user is not within 1/3 of the lower right screen length and width on the display screen of the display unit 211 (step S508: No), the imaging device 1 moves to step S505. Here, the reason why the screen is 1/3 vertical and horizontal is that when the touch-selected part is shifted to the 1/3 horizontal and vertical part, the remaining 2/3 vertical and horizontal parts become the image display part. This is because a sufficiently large area can be obtained when the image is enlarged. For example, when the user selects an image that is 1/3 of the screen centering on the touched portion, first, double enlargement is possible. Further, when further enlargement is desired, an operation with a sufficient operation resolution can be performed in the specification of further enlarging by moving the finger using the area of the vertical and horizontal 1/3 of the lower right screen. If this area is narrow, it becomes sensitive to the trembling of the finger, causing a problem that the enlargement ratio changes with a slight movement and flickers.

ステップS509において、パラメータ変更部214eは、スライド移動距離D1とスライド限界距離D0との比率に基づいて、拡大画像の拡大率と表示部211の画面明るさとを変更する。 In step S509, the parameter changing section 214e based on the ratio between the sliding distance D 1 and the slide limit distance D 0, changing the magnification of the enlarged image and the screen brightness of the display unit 211.

図21は、スライド距離D1とスライド限界距離D0との比率と拡大画像の表示倍率とのの関係を示す図である。図21において、横軸がスライド距離D1とスライド限界距離D0との比率を示し、縦軸が拡大画像の表示倍率を示す。なお、記憶部213は、スライド距離D1とスライド距離D0との比率と拡大画像の表示倍率との関係を記憶する。 FIG. 21 is a diagram illustrating the relationship between the ratio of the slide distance D 1 and the slide limit distance D 0 and the display magnification of the enlarged image. In Figure 21, the horizontal axis represents the ratio of the slide distance D 1 and the slide limit distance D 0, the vertical axis represents the display magnification of the enlarged image. Note that the storage unit 213 stores the relationship between the ratio of the slide distance D 1 and the slide distance D 0 and the display magnification of the enlarged image.

図21の直線L12に示すように、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率に基づいて、拡大画像に含まれる被写体の表示倍率を変更する。さらに、図21に示すように、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率が0.9に到達した時点で拡大画像の表示倍率を最高倍率(8倍)に変更する。この場合、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率が0.9を超えた時点から表示部211が表示するライブビュー画像および拡大画像の明るさのパラメータを変更する。具体的には、パラメータ変更部214eは、ライブビュー画像および拡大画像の明るさ情報、たとえば輝度情報、コントラストおよび色情報を変更する。これにより、ライブビュー画像および拡大画像の視認性が向上する。この結果、ユーザが外光の影響で表示部211が表示するライブビュー画像や拡大画像が見えなくなることを確実に防止することができる。さらに、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率が0.9を超えた時点で表示部211が表示するライブビュー画像および拡大画像の明るさ(を最大値に変更してもよい。また、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率が0.9を超えた場合、電池(図示せず)の残量に応じて、表示部211の明るさを適宜変更するようにしてもよい。 As indicated by the straight line L12 in FIG. 21, the parameter changing section 214e based on the ratio between the sliding distance D 1 and the slide limit distance D 0, to change the magnification of an object included in the enlarged image. Furthermore, as shown in FIG. 21, the parameter changing unit 214e is to slide a distance D 1 and the slide limit distance D 0 between the highest magnification the magnification of the enlarged image when the ratio reaches 0.9 (8-fold) change. In this case, the parameter changing unit 214e may change the brightness parameters of the live view image and enlarged image ratio of the slide distance D 1 and the slide limit distance D 0 is displayed the display unit 211 from the time that exceeds 0.9 To do. Specifically, the parameter changing unit 214e changes the brightness information of the live view image and the enlarged image, for example, luminance information, contrast, and color information. This improves the visibility of the live view image and the enlarged image. As a result, it is possible to reliably prevent the user from seeing the live view image and the enlarged image displayed on the display unit 211 due to the influence of external light. Further, the parameter changing section 214e is sliding distance D 1 and the live view image and brightness of the enlarged image ratio of the slide limit distance D 0 is displayed the display unit 211 at the point exceeding 0.9 (the maximum value may be changed. in addition, the parameter changing unit 214e, when the ratio of the slide distance D 1 and the slide limit distance D 0 is greater than 0.9, depending on the remaining amount of the battery (not shown), a display You may make it change the brightness of the part 211 suitably.

ステップS509の後、トリミング部214dは、パラメータ変更部214eが設定した表示倍率に基づいて、タッチ位置を含む対象領域を切出して拡大画像を生成する(ステップS510)。   After step S509, the trimming unit 214d generates a magnified image by cutting out the target area including the touch position based on the display magnification set by the parameter changing unit 214e (step S510).

続いて、表示制御部214gは、表示部211の表示画面の画面左上の縦横2/3分の表示領域に、トリミング部214dが生成した拡大画像を表示部211に表示させ(ステップS511)、パラメータ変更部214eによって変更された明るさのパラメータに、表示部211の表示画面の明るさを変更する(ステップS512)。その後、撮像装置1は、ステップS505へ移行する。   Subsequently, the display control unit 214g causes the display unit 211 to display the enlarged image generated by the trimming unit 214d in the display area of 2/3 in the vertical and horizontal directions on the upper left of the display screen of the display unit 211 (Step S511). The brightness of the display screen of the display unit 211 is changed to the brightness parameter changed by the changing unit 214e (step S512). Thereafter, the imaging apparatus 1 proceeds to step S505.

ステップS513およびステップS514は、図13のステップS311およびステップS312にそれぞれ対応する。   Step S513 and step S514 correspond to step S311 and step S312 of FIG. 13, respectively.

以上説明した本実施の形態1の変形例2によれば、パラメータ変更部214eがタッチパネル212から出力される位置信号の変化に基づいて、拡大画像に含まれる被写体の倍率を変更するとともに、表示部211が表示するライブビュー画像および拡大画像の明るさのパラメータを変更する。この結果、外光の影響で表示部211が表示するライブビュー画像や拡大画像が見えなくなることを防止することができる。   According to the second modification of the first embodiment described above, the parameter changing unit 214e changes the magnification of the subject included in the enlarged image based on the change in the position signal output from the touch panel 212, and the display unit. The brightness parameter of the live view image and the enlarged image displayed by 211 is changed. As a result, it is possible to prevent the live view image and the enlarged image displayed on the display unit 211 from being invisible due to the influence of external light.

(実施の形態1の変形例3)
上述した実施の形態1において、撮像装置1が実行するタッチパネル操作判定・パラメータ変更処理2の内容をさらに変更することも可能である。
(Modification 3 of Embodiment 1)
In the first embodiment described above, it is possible to further change the content of the touch panel operation determination / parameter change processing 2 executed by the imaging apparatus 1.

図22は、本実施の形態1の変形例3にかかる撮像装置1が実行する図4のステップS110のタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。   FIG. 22 is a flowchart illustrating an overview of the touch panel operation determination / parameter change process 2 in step S110 of FIG. 4 executed by the imaging apparatus 1 according to the third modification of the first embodiment.

図22に示すように、ステップS601〜ステップS603は、図13のステップS301〜ステップS303にそれぞれ対応する。   As shown in FIG. 22, steps S601 to S603 correspond to steps S301 to S303 in FIG. 13, respectively.

ステップS604において、トリミング部214dは、タッチパネル212から入力される位置信号に基づいて、ユーザがタッチしたタッチ領域を含む対象領域をライブビュー画像から切出して拡大画像を生成する。   In step S604, the trimming unit 214d generates an enlarged image by cutting out the target area including the touch area touched by the user from the live view image based on the position signal input from the touch panel 212.

続いて、表示制御部214gは、トリミング部214dが生成した拡大画像を表示部211の表示領域における左上に表示させる(ステップS605)。具体的には、図23に示すように、表示制御部214gは、拡大画像を表示部211の表示領域における左上に表示させる(図23(a)を参照)。これにより、ユーザは、拡大画像を確認することにより、所望の被写体O1に対するレンズ部3のピント状態を確認することができる。   Subsequently, the display control unit 214g displays the enlarged image generated by the trimming unit 214d on the upper left in the display area of the display unit 211 (step S605). Specifically, as shown in FIG. 23, the display control unit 214g displays an enlarged image on the upper left in the display area of the display unit 211 (see FIG. 23A). Thereby, the user can confirm the focus state of the lens unit 3 with respect to the desired subject O1 by confirming the enlarged image.

その後、トリミング部214dは、タッチパネル212から入力される位置信号に基づいて、ユーザがタッチしたタッチ領域を含む対象領域をライブビュー画像から切出して生成した拡大画像と同じサイズの複製画像を生成する(ステップS606)。   Thereafter, based on the position signal input from the touch panel 212, the trimming unit 214d generates a duplicate image having the same size as the enlarged image generated by cutting out the target area including the touch area touched by the user from the live view image ( Step S606).

続いて、表示制御部214gは、トリミング部214dが生成した複製画像を拡大画像の表示領域に重畳して表示部211に表示させる(ステップS607)。   Subsequently, the display control unit 214g causes the display unit 211 to display the duplicate image generated by the trimming unit 214d on the display area of the enlarged image (step S607).

ステップS608〜ステップS610、ステップS614およびステップS615は、図13のステップS305〜ステップS307、ステップ311およびステップS312にそれぞれ対応する。   Step S608 to step S610, step S614 and step S615 respectively correspond to step S305 to step S307, step 311 and step S312 of FIG.

ステップS611において、パラメータ変更部214eは、スライド距離に基づいて、複製画像の拡大率を変更する。   In step S611, the parameter changing unit 214e changes the enlargement ratio of the duplicate image based on the slide distance.

続いて、パラメータ変更部214eは、スライド距離に基づいて、表示部211の表示領域における複製画像の表示サイズおよび拡大率を変更する(ステップS612)。   Subsequently, the parameter changing unit 214e changes the display size and enlargement ratio of the duplicate image in the display area of the display unit 211 based on the slide distance (step S612).

その後、表示制御部214gは、パラメータ変更部214eが設定した複製画像の表示サイズおよび拡大率に基づいて変更した複製画像を表示部211に表示させる(ステップS613)。具体的には、図23に示したように、表示制御部214gは、拡大画像に比して表示サイズおよび拡大率が大きい複製画像W3を表示部211に表示させる(図23(b)を参照)。これにより、ユーザは、所望の被写体O1に対して初期状態でのピント状態と、より詳細な被写体のピント状態とを対比させながら撮影を行うことができる。   After that, the display control unit 214g causes the display unit 211 to display the duplicate image that has been changed based on the display size and enlargement ratio of the duplicate image set by the parameter changing unit 214e (step S613). Specifically, as illustrated in FIG. 23, the display control unit 214g causes the display unit 211 to display a duplicate image W3 having a display size and a magnification rate larger than those of the enlarged image (see FIG. 23B). ). As a result, the user can perform shooting while comparing the focus state in the initial state with the more detailed subject focus state with respect to the desired subject O1.

以上説明した本発明の実施の形態1の変形例3によれば、ユーザが所望する被写体のピント確認用の拡大画像の表示を固定したまま、拡大画像を複製した複製画像の表示領域を移動させることができるとともに、表示領域のサイズを変更することができる。この結果、ユーザは、撮像装置1をホールディングした状態から直感的に所望の被写体のピンチを把握することができるとともに、リング309aを操作することで被写体にピントを容易かつ敏速に合わせることができる。   According to the third modification of the first embodiment of the present invention described above, the display area of the duplicate image obtained by duplicating the enlarged image is moved while fixing the display of the enlarged image for confirming the focus of the subject desired by the user. And the size of the display area can be changed. As a result, the user can intuitively grasp the pinch of a desired subject from the state in which the imaging device 1 is held, and can easily and quickly focus on the subject by operating the ring 309a.

(実施の形態2)
つぎに、本発明の実施の形態2について説明する。本発明の実施の形態2にかかる撮像装置は、制御部の構成が異なり、表示部が表示する通常のサイズの画像データとトリミング画像生成部が生成した拡大画像データを記憶部に記憶する動画処理部(以下、「MR処理部」という)をさらに有する。さらに、上述したタッチパネル判定処理・パラメータ変更処理1およびタッチパネル判定処理・パラメータ変更処理2がそれぞれ異なる。このため、本発明の実施の形態2では、制御部の構成を説明後、本発明の実施の形態2にかかる撮像装置が行うタッチパネル判定処理・パラメータ変更処理1およびタッチパネル判定処理・パラメータ変更処理2を説明する。なお、以下においては、同一の構成には同一の符号を付して説明する。
(Embodiment 2)
Next, a second embodiment of the present invention will be described. The imaging apparatus according to the second embodiment of the present invention is different in the configuration of the control unit, and the moving image processing stores the normal size image data displayed on the display unit and the enlarged image data generated by the trimming image generation unit in the storage unit (Hereinafter referred to as “MR processing unit”). Furthermore, the touch panel determination process / parameter change process 1 and the touch panel determination process / parameter change process 2 described above are different. For this reason, in Embodiment 2 of the present invention, after describing the configuration of the control unit, touch panel determination processing / parameter change processing 1 and touch panel determination processing / parameter change processing 2 performed by the imaging apparatus according to Embodiment 2 of the present invention. Will be explained. In the following description, the same components are denoted by the same reference numerals.

図24は、本発明の実施の形態2にかかる撮像装置100の構成を示すブロック図である。図24に示すように、制御部514は、画像処理部214aと、顔検出部214bと、タッチ位置検出部214cと、トリミング部214dと、パラメータ変更部214eと、撮影制御部214fと、表示制御部214gと、MR処理部514hと、を有する。   FIG. 24 is a block diagram illustrating a configuration of the imaging apparatus 100 according to the second embodiment of the present invention. As shown in FIG. 24, the control unit 514 includes an image processing unit 214a, a face detection unit 214b, a touch position detection unit 214c, a trimming unit 214d, a parameter change unit 214e, a shooting control unit 214f, and display control. Part 214g and MR processing part 514h.

MR処理部514hは、撮像素子203によって連続的に生成された画像データに対して、信号処理部205および画像処理部214aが所定の画像処理を順次施した画像データと、トリミング部214dが画像データに対応する画像内の対象領域から順次切出した拡大画像データとを生成順に記憶部213に記憶する。なお、MR処理部514hは、たとえば2つの画像処理エンジンを用いて構成し、撮像素子203から出力される1つの画像データ(1フレーム)に対して、異なる2つの画像処理、たとえば通常の画像処理と、トリミング処理を含む画像処理とをそれぞれ行って、異なる画像処理が施された2つの画像データを記憶部213に記憶させてもよい。   The MR processing unit 514h includes image data obtained by sequentially performing predetermined image processing by the signal processing unit 205 and the image processing unit 214a on the image data continuously generated by the image sensor 203, and the trimming unit 214d by the image data. And the enlarged image data sequentially extracted from the target area in the image corresponding to the are stored in the storage unit 213 in the order of generation. The MR processing unit 514h is configured by using, for example, two image processing engines, and two different image processes such as normal image processing are performed on one image data (one frame) output from the image sensor 203. And image processing including trimming processing may be performed, and two pieces of image data subjected to different image processing may be stored in the storage unit 213.

つぎに、本実施の形態2にかかる撮像装置100が実行する図4のステップS104のタッチパネル操作判定・パラメータ変更処理1について説明する。図25は、本実施の形態2にかかる撮像装置100が実行するタッチパネル操作判定・パラメータ変更処理1の概要を示すフローチャートである。   Next, touch panel operation determination / parameter change processing 1 in step S104 of FIG. 4 executed by the imaging apparatus 100 according to the second embodiment will be described. FIG. 25 is a flowchart illustrating an outline of touch panel operation determination / parameter change processing 1 executed by the imaging apparatus 100 according to the second embodiment.

図25に示すように、制御部514は、接眼表示部42が表示するライブビュー画像内に撮影操作に関するアイコンが表示されているか否かを判断する(ステップS701)。接眼表示部42が表示するライブビュー画像内に撮影操作に関するアイコンが表示されていると制御部514が判断した場合(ステップS701:Yes)、撮像装置100は、後述するステップS725へ移行する。一方、接眼表示部42が表示するライブビュー画像内に撮影操作に関するアイコンが表示されていないと制御部514が判断した場合(ステップS701:No)、撮像装置100は、後述するステップS702へ移行する。   As shown in FIG. 25, the control unit 514 determines whether or not an icon related to the shooting operation is displayed in the live view image displayed by the eyepiece display unit 42 (step S701). When the control unit 514 determines that an icon relating to the shooting operation is displayed in the live view image displayed by the eyepiece display unit 42 (step S701: Yes), the imaging apparatus 100 proceeds to step S725 described later. On the other hand, when the control unit 514 determines that the icon relating to the shooting operation is not displayed in the live view image displayed by the eyepiece display unit 42 (step S701: No), the imaging apparatus 100 proceeds to step S702 described later. .

ステップS702において、制御部514は、リング309aが操作されたか否かを判断する。具体的には、図26に示すように、制御部514は、ユーザが表示部211によって表示されるライブビュー画像W11または接眼表示部42によって表示されるライブビュー画像を見ながら撮影操作を行っている際に、リング309aから入力される指示信号が出力されたか否かを判断することにより、リング309aが操作されたか否かを判断する。リング309aが操作されたと制御部514が判断した場合(ステップS702:Yes)、撮像装置100は、後述するステップS703へ移行する。一方、リング309aが操作されていないと制御部514が判断した場合(ステップS702:No)、撮像装置100は、後述するステップS725へ移行する。   In step S702, the control unit 514 determines whether or not the ring 309a has been operated. Specifically, as illustrated in FIG. 26, the control unit 514 performs a shooting operation while viewing the live view image W11 displayed by the display unit 211 or the live view image displayed by the eyepiece display unit 42 by the user. It is determined whether or not the ring 309a is operated by determining whether or not an instruction signal input from the ring 309a is output. When the control unit 514 determines that the ring 309a has been operated (step S702: Yes), the imaging device 100 proceeds to step S703 described below. On the other hand, when the control unit 514 determines that the ring 309a is not operated (step S702: No), the imaging apparatus 100 proceeds to step S725 described later.

ステップS703において、表示制御部214gは、接眼表示部42が表示するライブビュー画像内にMFアイコンA1および拡大/縮小アイコンA2を重畳して表示させる。具体的には、図27に示すように、表示制御部214gは、接眼表示部42が表示するライブビュー画像W12(図27(a))に、MFアイコンA1および拡大/縮小アイコンA2をライブビュー画像W13に重畳して表示させる(図27(b))。   In step S703, the display control unit 214g superimposes and displays the MF icon A1 and the enlargement / reduction icon A2 in the live view image displayed by the eyepiece display unit 42. Specifically, as shown in FIG. 27, the display control unit 214g displays the MF icon A1 and the enlargement / reduction icon A2 in the live view image W12 (FIG. 27A) displayed by the eyepiece display unit 42. The image is superimposed and displayed on the image W13 (FIG. 27B).

続いて、制御部514は、リング309aが操作されたか否かを判断する(ステップS704)。リング309aが操作されたと制御部514が判断した場合(ステップS704:Yes)、撮像装置100は、後述するステップS705へ移行する。一方、リング309aが操作されていないと制御部514が判断した場合(ステップS704:No)、撮像装置100は、後述するステップS723へ移行する。   Subsequently, the control unit 514 determines whether or not the ring 309a has been operated (step S704). When the control unit 514 determines that the ring 309a has been operated (step S704: Yes), the imaging device 100 proceeds to step S705 described below. On the other hand, when the control unit 514 determines that the ring 309a is not operated (step S704: No), the imaging apparatus 100 proceeds to step S723 described later.

ステップS705において、制御部514は、拡大/縮小アイコンA2が選択されたか否かを判断する。拡大/縮小アイコンA2が選択されたと制御部514が判断した場合(ステップS705:Yes)、撮像装置100は、後述するステップS706へ移行する。一方、拡大/縮小アイコンA2が選択されていないと制御部514が判断した場合(ステップS705:No)、撮像装置100は、後述するステップS717へ移行する。   In step S705, the control unit 514 determines whether or not the enlargement / reduction icon A2 has been selected. When the control unit 514 determines that the enlargement / reduction icon A2 is selected (step S705: Yes), the imaging apparatus 100 proceeds to step S706 described later. On the other hand, when the control unit 514 determines that the enlargement / reduction icon A2 is not selected (step S705: No), the imaging apparatus 100 proceeds to step S717 described later.

ステップS706において、ユーザがタッチパネル212に対してタッチを継続しておらず(ステップS706:No)、タッチパネル212がタッチを検出した場合(ステップS707:Yes)、表示制御部214gは、トリミング部214dがタッチ位置を含む対象領域をライブビュー画像から切出して生成した拡大画像を接眼表示部42に表示させる(ステップS708)。具体的には、図28および図29に示すように、表示制御部214gは、トリミング部214dがタッチ位置を含む対象領域をライブビュー画像W11から切出して生成した拡大画像W21を接眼表示部42に表示させる。さらに、表示制御部214gは、拡大画像W21に縮小アイコンA21と拡大アイコンA22とを拡大画像W21上に重畳して表示させる。   In step S706, when the user does not continue touching the touch panel 212 (step S706: No) and the touch panel 212 detects a touch (step S707: Yes), the display control unit 214g is controlled by the trimming unit 214d. An enlarged image generated by cutting out the target area including the touch position from the live view image is displayed on the eyepiece display unit 42 (step S708). Specifically, as shown in FIGS. 28 and 29, the display control unit 214g displays an enlarged image W21 generated by the trimming unit 214d cutting out the target area including the touch position from the live view image W11 on the eyepiece display unit 42. Display. Further, the display control unit 214g causes the reduced icon A21 and the enlarged icon A22 to be superimposed on the enlarged image W21 and displayed on the enlarged image W21.

続いて、リング309aが操作された場合(ステップS709:Yes)、パラメータ変更部214eは、リング操作に応じて、拡大画像W21の表示倍率を拡大/縮小する(ステップS710)。具体的には、図29に示すように、パラメータ変更部214eは、リング309aが左側に操作された場合、リング309aの操作量に基づいて、ズームレンズ駆動部302を駆動させてズームレンズ301aを光軸L上に沿って本体部2側(広角方向)に移動させることにより、レンズ部3のズーム倍率を縮小させる駆動信号を出力する。一方、パラメータ変更部214eは、リング309aが右側に操作された場合、リング309aの操作量に基づいて、ズームレンズ駆動部302を駆動させてズームレンズ301aを光軸L上に沿って被写体側(望遠方向)に移動させることにより、レンズ部3のズーム倍率を拡大させる駆動信号を出力する。これにより、ユーザが所望する被写体が拡大画像W21内に写る領域を所望の大きさに変更することができる。なお、パラメータ変更部214eは、トリミング部214dがライブビュー画像W11から切り出す対象領域の大きさを変更することにより、拡大画像W21の拡大または縮小を行ってもよい。   Subsequently, when the ring 309a is operated (step S709: Yes), the parameter changing unit 214e enlarges / reduces the display magnification of the enlarged image W21 according to the ring operation (step S710). Specifically, as shown in FIG. 29, when the ring 309a is operated to the left side, the parameter changing unit 214e drives the zoom lens driving unit 302 based on the operation amount of the ring 309a to move the zoom lens 301a. A drive signal for reducing the zoom magnification of the lens unit 3 is output by moving the lens unit 3 along the optical axis L toward the main body 2 (in the wide-angle direction). On the other hand, when the ring 309a is operated to the right side, the parameter changing unit 214e drives the zoom lens driving unit 302 based on the operation amount of the ring 309a to move the zoom lens 301a along the optical axis L on the subject side ( By moving in the telephoto direction), a drive signal for enlarging the zoom magnification of the lens unit 3 is output. Thereby, the area where the subject desired by the user is shown in the enlarged image W21 can be changed to a desired size. Note that the parameter changing unit 214e may enlarge or reduce the enlarged image W21 by changing the size of the target region that the trimming unit 214d cuts out from the live view image W11.

ステップS706において、ユーザがタッチパネル212に対してタッチを継続している場合(ステップS706:Yes)、トリミング部214dは、タッチ位置に応じて、ライブビュー画像から切り出す対象領域を変更する(ステップS711)。具体的には、図30および図31に示すように、トリミング部214dは、タッチ位置に応じて、ライブビュー画像W11から切り出す対象領域を変更して拡大画像W31を生成する。その後、撮像装置100は、ステップS708へ移行する。   In step S706, when the user continues to touch the touch panel 212 (step S706: Yes), the trimming unit 214d changes the target region to be cut out from the live view image according to the touch position (step S711). . Specifically, as illustrated in FIGS. 30 and 31, the trimming unit 214 d generates an enlarged image W <b> 31 by changing a target region to be cut out from the live view image W <b> 11 according to the touch position. Thereafter, the imaging apparatus 100 proceeds to step S708.

ステップS712において、撮影制御部214fは、MR処理部514hによるMR許可を設定する。具体的には、撮影制御部214fは、MR処理部514hによるMRが可能であることを示すフラグをオフ状態からオン状態に切替える。   In step S712, the imaging control unit 214f sets MR permission by the MR processing unit 514h. Specifically, the imaging control unit 214f switches the flag indicating that MR by the MR processing unit 514h is possible from the off state to the on state.

続いて、レリーズスイッチ210bが半押しされることにより、動画撮影を指示する動画レリーズ信号(1stレリーズ信号)が入力された場合(ステップS713:Yes)において、撮像装置100が動画の記録中でないとき(ステップS714:No)、撮像装置100は、動画撮影を開始する(ステップS715)。具体的には、図32に示すように、MR処理部514hは、画像処理部214aが画像処理を施した画像データに対応する画像W11と、トリミング部214dが画像W11から対象領域を切出して生成した拡大画像データに対応する拡大画像W31を生成順に記憶部213に記憶する。これにより、2つの動画撮影を行うことができる。その後、撮像装置100は、上述した図4のメインルーチンへ戻る。   Subsequently, when the moving image release signal (1st release signal) instructing moving image shooting is input by half-pressing the release switch 210b (step S713: Yes), the image capturing apparatus 100 is not recording the moving image. (Step S714: No), the imaging apparatus 100 starts moving image shooting (Step S715). Specifically, as illustrated in FIG. 32, the MR processing unit 514h generates the image W11 corresponding to the image data that has been subjected to the image processing by the image processing unit 214a, and the trimming unit 214d generates the target region from the image W11. The enlarged image W31 corresponding to the enlarged image data thus stored is stored in the storage unit 213 in the order of generation. Thereby, two moving image photography can be performed. Thereafter, the imaging apparatus 100 returns to the main routine of FIG. 4 described above.

ステップS714において、撮像装置100が動画の記録中である場合(ステップS714:Yes)、撮像装置100は、動画撮影を終了し(ステップS716)、上述した図4のメインルーチンへ戻る。   In step S714, when the imaging device 100 is recording a moving image (step S714: Yes), the imaging device 100 ends the moving image shooting (step S716), and returns to the main routine of FIG. 4 described above.

ステップS713において、レリーズスイッチ210bを介して動画レリーズ信号が入力されていない場合(ステップS713:No)、撮像装置100は、上述した図4のメインルーチンへ戻る。   In step S713, when the moving image release signal is not input via the release switch 210b (step S713: No), the imaging apparatus 100 returns to the main routine of FIG. 4 described above.

ステップS707において、タッチパネル212がタッチを検出していない場合(ステップS707:No)、およびステップS709においてリング操作がない場合(ステップS709:No)、撮像装置100は、ステップS712へ移行する。   In step S707, when the touch panel 212 has not detected a touch (step S707: No), and when there is no ring operation in step S709 (step S709: No), the imaging apparatus 100 proceeds to step S712.

ステップS705において、拡大/縮小アイコンA2が選択されていないと制御部514が判断した場合(ステップS705:No)について説明する。具体的には、図33に示すように、ユーザがリング309aを左側に操作することにより、MFアイコンA1が選択された場合について説明する。この場合、ユーザがタッチパネル212に対してタッチを継続しておらず(ステップS717:No)、タッチパネル212がタッチを検出したとき(ステップS718:Yes)、表示制御部214gは、トリミング部214dがタッチ位置を含む対象領域をライブビュー画像から切出して生成した拡大画像を接眼表示部42に表示させる(ステップS719)。具体的には、図34に示すように、表示制御部214gは、トリミング部214dが生成した拡大画像W32を接眼表示部42に表示させる。さらに、表示制御部214gは、現在の撮像装置100のモード内容を示すアイコン、MFアイコンA1を拡大画像W32に重畳して接眼表示部42に表示させる。   A case where the control unit 514 determines that the enlargement / reduction icon A2 is not selected in step S705 (step S705: No) will be described. Specifically, as shown in FIG. 33, a case where the MF icon A1 is selected by the user operating the ring 309a to the left will be described. In this case, when the user does not continue touching the touch panel 212 (step S717: No) and the touch panel 212 detects a touch (step S718: Yes), the display control unit 214g is touched by the trimming unit 214d. An enlarged image generated by cutting out the target region including the position from the live view image is displayed on the eyepiece display unit 42 (step S719). Specifically, as shown in FIG. 34, the display control unit 214g causes the eyepiece display unit 42 to display the enlarged image W32 generated by the trimming unit 214d. Further, the display control unit 214g causes the eyepiece display unit 42 to display an icon indicating the mode content of the current imaging apparatus 100, the MF icon A1, superimposed on the enlarged image W32.

続いて、リング309aが操作された場合(ステップS720:Yes)、パラメータ変更部214eは、リング操作に応じて、拡大画像W32に写る被写体のピント状態を調整する(ステップS721)。具体的には、パラメータ変更部214eは、リング309aの操作に応じて、フォーカスレンズ駆動部304を駆動させてフォーカスレンズ301bを光軸L上に沿って、無限端側または至近端側に移動させることにより、被写体に対するレンズ部3のピント状態を変更する駆動信号を出力する。これにより、ユーザは、接眼部4で覗きながら簡易な操作で所望の被写体に対するレンズ部3のピント状態を調整することができる。その後、撮像装置100は、ステップS712へ移行する。   Subsequently, when the ring 309a is operated (step S720: Yes), the parameter changing unit 214e adjusts the focus state of the subject shown in the enlarged image W32 according to the ring operation (step S721). Specifically, the parameter changing unit 214e drives the focus lens driving unit 304 and moves the focus lens 301b along the optical axis L to the infinite end side or the closest end side according to the operation of the ring 309a. As a result, a drive signal for changing the focus state of the lens unit 3 with respect to the subject is output. Thereby, the user can adjust the focus state of the lens unit 3 with respect to a desired subject with a simple operation while looking through the eyepiece unit 4. Thereafter, the imaging apparatus 100 proceeds to step S712.

ステップS717において、ユーザがタッチパネル212に対してタッチを継続している場合(ステップS717:Yes)、トリミング部214dは、タッチ位置に応じてライブビュー画像から切り出す対象領域を変更する(ステップS722)。その後、撮像装置100は、ステップS719へ移行する。   In step S717, when the user continues to touch the touch panel 212 (step S717: Yes), the trimming unit 214d changes the target region to be cut out from the live view image according to the touch position (step S722). Thereafter, the imaging apparatus 100 proceeds to step S719.

ステップS718においてタッチパネル212がタッチを検出していない場合(ステップS718:No)、ステップS720においてリング309aが操作されていない場合(ステップS720:No)、撮像装置100は、ステップS712へ移行する。   If the touch panel 212 does not detect a touch in step S718 (step S718: No), or if the ring 309a is not operated in step S720 (step S720: No), the imaging apparatus 100 proceeds to step S712.

ステップS723において、制御部514は、接眼表示部42がMFアイコンA1または拡大/縮小アイコンA2を表示してから所定時間(たとえば5秒)経過したか否かを判断する。接眼表示部42がMFアイコンA1または拡大/縮小アイコンA2を表示してから所定時間経過していると制御部514が判断した場合(ステップS723:Yes)、撮像装置100は、ステップS724へ移行する。一方、接眼表示部42がMFアイコンA1または拡大/縮小アイコンA2を表示してから所定時間経過していないと制御部514が判断した場合(ステップS723:No)、撮像装置100は、ステップS712へ移行する。   In step S723, the control unit 514 determines whether or not a predetermined time (for example, 5 seconds) has elapsed since the eyepiece display unit 42 displayed the MF icon A1 or the enlargement / reduction icon A2. When the control unit 514 determines that a predetermined time has elapsed since the eyepiece display unit 42 displayed the MF icon A1 or the enlargement / reduction icon A2 (step S723: Yes), the imaging device 100 proceeds to step S724. . On the other hand, when the control unit 514 determines that the predetermined time has not elapsed since the eyepiece display unit 42 displayed the MF icon A1 or the enlargement / reduction icon A2 (step S723: No), the imaging apparatus 100 proceeds to step S712. Transition.

ステップS724において、表示制御部214gは、接眼表示部42が表示するMFアイコンA1または拡大/縮小アイコンA2を停止する(ステップS724)。その後、撮像装置100は、ステップS712へ移行する。   In step S724, the display control unit 214g stops the MF icon A1 or the enlargement / reduction icon A2 displayed by the eyepiece display unit 42 (step S724). Thereafter, the imaging apparatus 100 proceeds to step S712.

ステップS725において、タッチパネル212がタッチを検出した場合(ステップS725:Yes)、撮影制御部214fは、静止画撮影を実行する(ステップS726)。その後、撮像装置100は、上述した図4のメインルーチンへ戻る。一方、タッチパネル212に対してタッチがない場合(ステップS725:No)、撮像装置100は、上述した図4のメインルーチンへ戻る。   In step S725, when the touch panel 212 detects a touch (step S725: Yes), the shooting control unit 214f executes still image shooting (step S726). Thereafter, the imaging apparatus 100 returns to the main routine of FIG. 4 described above. On the other hand, when there is no touch on the touch panel 212 (step S725: No), the imaging apparatus 100 returns to the main routine of FIG. 4 described above.

つぎに、本実施の形態2にかかる撮像装置100が実行する図4のステップS110のタッチパネル操作判定・パラメータ変更処理2について説明する。図35は、本実施の形態2にかかる撮像装置100が実行するタッチパネル操作判定・パラメータ変更処理2の概要を示すフローチャートである。   Next, touch panel operation determination / parameter change processing 2 in step S110 of FIG. 4 executed by the imaging apparatus 100 according to the second embodiment will be described. FIG. 35 is a flowchart illustrating an overview of touch panel operation determination / parameter change processing 2 executed by the imaging apparatus 100 according to the second embodiment.

図35に示すように、制御部514は、ユーザがタッチパネル212に対してタッチを継続しているか否かを判断する(ステップS801)、ユーザがタッチパネル212に対してタッチを継続していると制御部514が判断した場合(ステップS801:Yes)、撮像装置100は、後述するステップS809へ移行する。一方、ユーザがタッチパネル212に対してタッチを継続していないと制御部514が判断した場合(ステップS801:No)、撮像装置100は、後述するステップS802へ移行する。   As illustrated in FIG. 35, the control unit 514 determines whether or not the user continues to touch the touch panel 212 (step S801), and controls that the user continues to touch the touch panel 212. When the unit 514 determines (step S801: Yes), the imaging apparatus 100 proceeds to step S809 described later. On the other hand, when the control unit 514 determines that the user does not continue touching the touch panel 212 (step S801: No), the imaging apparatus 100 proceeds to step S802 described later.

ステップS802において、制御部514は、タッチパネル212がタッチを検出したか否かを判断する。タッチパネル212がタッチを検出したと制御部514が判断した場合(ステップS802:Yes)、撮像装置100は、後述するステップS803へ移行する。一方、タッチパネル212がタッチを検出していないと制御部514が判断した場合(ステップS802:No)、撮像装置100は、後述するステップS818へ移行する。   In step S802, the control unit 514 determines whether or not the touch panel 212 has detected a touch. When the control unit 514 determines that the touch panel 212 has detected a touch (step S802: Yes), the imaging apparatus 100 proceeds to step S803 described below. On the other hand, when the control unit 514 determines that the touch is not detected by the touch panel 212 (step S802: No), the imaging apparatus 100 proceeds to step S818 described later.

ステップS803において、制御部514は、表示部211が表示するライブビュー画像上に表示された記録中アイコンがタッチされたか否かを判断する。表示部211が表示するライブビュー画像上に表示された記録中アイコンがタッチされたと制御部514が判断した場合(ステップS803:Yes)、撮像装置100は、後述するステップS808へ移行する。一方、表示部211が表示するライブビュー画像上に表示された記録中アイコンがタッチされていないと制御部514が判断した場合(ステップS803:No)、撮像装置100は、後述するステップS804へ移行する。なお、表示部211が表示する記録中アイコンについて後述する。   In step S803, the control unit 514 determines whether or not the recording icon displayed on the live view image displayed on the display unit 211 is touched. When the control unit 514 determines that the recording icon displayed on the live view image displayed on the display unit 211 is touched (step S803: Yes), the imaging apparatus 100 proceeds to step S808 described later. On the other hand, when the control unit 514 determines that the recording icon displayed on the live view image displayed on the display unit 211 is not touched (step S803: No), the imaging apparatus 100 proceeds to step S804 described later. To do. The recording icon displayed by the display unit 211 will be described later.

ステップS804〜ステップS807は、図13のステップS303〜ステップS306にそれぞれ対応する。   Steps S804 to S807 correspond to steps S303 to S306 in FIG.

ステップS808において、撮像装置100は、動画撮影を終了する(ステップS808)。その後、撮像装置100は、ステップS806へ移行する。   In step S808, the imaging apparatus 100 ends moving image shooting (step S808). Thereafter, the imaging apparatus 100 proceeds to step S806.

ステップS809において、制御部514は、ユーザがタッチ位置を表示部211の右下または右上に向けてスライドしているか否かを判断する。具体的には、図36に示すように、ユーザがタッチ位置を表示部211の右下に表示される拡大/縮小アイコンA32または表示部211の右上に表示されるMR記中アイコンA31に向けてスライドしているか否かを判断する。ユーザがタッチ位置を表示部211の右下または右上に向けてスライドしている場合(ステップS809:Yes)、撮像装置100は、ステップS810へ移行する。一方、ユーザがタッチ位置を表示部211の右下または右上に向けてスライドしていない場合(ステップS809:No)、撮像装置100は、ステップS806へ移行する。   In step S809, the control unit 514 determines whether the user is sliding the touch position toward the lower right or upper right of the display unit 211. Specifically, as shown in FIG. 36, the user touches the enlargement / reduction icon A32 displayed at the lower right of the display unit 211 or the MR recording icon A31 displayed at the upper right of the display unit 211. Judge whether it is sliding. When the user slides the touch position toward the lower right or upper right of the display unit 211 (step S809: Yes), the imaging apparatus 100 proceeds to step S810. On the other hand, when the user does not slide the touch position toward the lower right or upper right of the display unit 211 (step S809: No), the imaging apparatus 100 proceeds to step S806.

ステップS810において、制御部514は、タッチ継続位置が表示部211の表示画面縦横1/3以内であるか否かを判断する。タッチ継続位置が表示部211の表示画面1/3以内であると制御部514が判断した場合(ステップS810:Yes)、撮像装置100は、後述するステップS811へ移行する。一方、タッチ継続位置が表示部211の表示画面縦横1/3以内であると制御部514が判断した場合(ステップS810:No)、撮像装置100は、ステップS806へ移行する。   In step S <b> 810, the control unit 514 determines whether or not the touch continuation position is within 1/3 of the display screen vertical / horizontal direction of the display unit 211. When the control unit 514 determines that the touch continuation position is within 1/3 of the display screen of the display unit 211 (step S810: Yes), the imaging apparatus 100 proceeds to step S811 described later. On the other hand, when the control unit 514 determines that the touch continuation position is within 1/3 of the display screen vertical / horizontal direction of the display unit 211 (step S810: No), the imaging apparatus 100 proceeds to step S806.

ステップS811において、パラメータ変更部214eは、スライド距離D1とスライド限界距離D0との比率に基づいて、拡大画像の拡大率を変更する。 In step S811, the parameter changing section 214e based on the ratio between the sliding distance D 1 and the slide limit distance D 0, changing the magnification of the enlarged image.

続いて、トリミング部214dは、パラメータ変更部214eが変更した拡大画像の拡大率に基づいて、ライブビュー画像から対象領域を切出して拡大画像を生成する(ステップS812)。   Subsequently, the trimming unit 214d generates a magnified image by cutting out the target region from the live view image based on the magnification ratio of the magnified image changed by the parameter changing unit 214e (step S812).

その後、表示制御部214gは、トリミング部214dが生成した拡大画像を表示部211の画面左上の縦横2/3の表示領域に表示する(ステップS813)。具体的には、図37に示すように、表示制御部214gは、拡大画像W2を表示部211の画面左上の縦横2/3の表示領域に表示する(図37(a)→図37(b))。   Thereafter, the display control unit 214g displays the enlarged image generated by the trimming unit 214d in the display area 2/3 in the vertical and horizontal directions at the upper left of the screen of the display unit 211 (step S813). Specifically, as shown in FIG. 37, the display control unit 214g displays the enlarged image W2 in the display area 2/3 in the vertical and horizontal directions at the upper left of the screen of the display unit 211 (FIG. 37 (a) → FIG. 37 (b). )).

続いて、トリミング部214dは、タッチに応じて対象領域を変更して拡大画像を生成する(ステップS814)。   Subsequently, the trimming unit 214d generates an enlarged image by changing the target area in response to the touch (step S814).

その後、制御部514は、タッチ位置が右上にスライドしてタッチ終了したか否かを判断する(ステップS815)。具体的には、図37に示すように、制御部514は、タッチパネル212から出力される位置信号に基づいて、表示部211によって表示されているライブビュー画像W1内のMR記録アイコンA31上で、ユーザが指を離反したか否かを判断する。タッチ位置が右上にスライドしてタッチ終了したと制御部514が判断した場合(ステップS815:Yes)、撮像装置100は、ステップS816へ移行する。一方、タッチ位置が右上にスライドしてタッチ終了していないと制御部514が判断した場合(ステップS815:No)、撮像装置100は、ステップS806へ移行する。   Thereafter, the control unit 514 determines whether or not the touch position has been slid to the upper right and the touch has ended (step S815). Specifically, as illustrated in FIG. 37, the control unit 514 performs, on the MR recording icon A31 in the live view image W1 displayed by the display unit 211, based on the position signal output from the touch panel 212. It is determined whether or not the user has lifted his / her finger. When the control unit 514 determines that the touch position has been slid to the upper right and the touch has ended (step S815: Yes), the imaging device 100 proceeds to step S816. On the other hand, when the control unit 514 determines that the touch position has been slid to the upper right and the touch has not ended (step S815: No), the imaging apparatus 100 proceeds to step S806.

ステップS816において、MR処理部514hは、画像処理部214aが画像処理を施した画像データに対応する画像と、トリミング部214dが画像から対象領域を切出して生成した拡大画像データに対応する拡大画像とを生成順に記憶部213に記憶する。これにより、2つの画像が得られた動画撮影を行うことができる。   In step S816, the MR processing unit 514h displays an image corresponding to the image data subjected to the image processing by the image processing unit 214a, and an enlarged image corresponding to the enlarged image data generated by the trimming unit 214d cutting out the target area from the image. Are stored in the storage unit 213 in the order of generation. Thereby, it is possible to perform moving image shooting in which two images are obtained.

続いて、表示制御部214gは、記録中アイコンを表示部211に表示させる(ステップS817)。具体的には、図38に示すように、表示制御部214gは、表示部211が表示するライブビュー画像W1上にMR記録中アイコンA41を重畳して表示させる。これにより、ユーザは、撮像装置100がMR動画撮影を行っていることを直感的に把握することができる。その後、撮像装置100は、ステップS806へ移行する。   Subsequently, the display control unit 214g displays the recording icon on the display unit 211 (step S817). Specifically, as illustrated in FIG. 38, the display control unit 214g causes the MR recording icon A41 to be displayed superimposed on the live view image W1 displayed by the display unit 211. Thereby, the user can intuitively grasp that the imaging apparatus 100 is performing MR movie shooting. Thereafter, the imaging apparatus 100 proceeds to step S806.

ステップS818において、制御部514は、撮像装置100がMR記録中であるか否かを判断する。撮像装置100がMR記録中であると制御部514が判断した場合(ステップS818:Yes)、撮像装置100は、後述するステップS819へ移行する。一方、撮像装置100がMR記録中でないと制御部514が判断した場合(ステップS818:No)、撮像装置100は、後述するステップS821へ移行する。   In step S818, the control unit 514 determines whether or not the imaging apparatus 100 is performing MR recording. When the control unit 514 determines that the imaging apparatus 100 is performing MR recording (step S818: Yes), the imaging apparatus 100 proceeds to step S819 described below. On the other hand, when the control unit 514 determines that the imaging apparatus 100 is not performing MR recording (step S818: No), the imaging apparatus 100 proceeds to step S821 described later.

ステップS819において、制御部514は、タッチパネル212がタッチを検出したか否かを判断する。タッチパネル212がタッチを検出したと制御部514が判断した場合(ステップS819:Yes)、パラメータ変更部214eは、タッチパネル212から出力される位置信号に基づいて、トリミング部214dが切り出す対象領域を変更する(ステップS820)。その後、撮像装置100は、ステップS806へ移行する。一方、タッチパネル212がタッチを検出していないと制御部514が判断した場合(ステップS819:No)、撮像装置100は、ステップS806へ移行する。   In step S819, control unit 514 determines whether touch panel 212 has detected a touch. When the control unit 514 determines that the touch panel 212 has detected a touch (step S819: Yes), the parameter changing unit 214e changes the target region to be cut out by the trimming unit 214d based on the position signal output from the touch panel 212. (Step S820). Thereafter, the imaging apparatus 100 proceeds to step S806. On the other hand, when the control unit 514 determines that the touch is not detected by the touch panel 212 (step S819: No), the imaging apparatus 100 proceeds to step S806.

ステップS821およびステップS822は、図13のステップS311およびステップS312にそれぞれ対応する。   Step S821 and step S822 correspond to step S311 and step S312 of FIG. 13, respectively.

以上説明した本発明の実施の形態2によれば、ユーザが所望する被写体のピント確認用の拡大画像の表示領域を移動させることができるとともに、拡大画像に含まれる被写体の表示倍率および拡大画像の表示領域を容易に変更することができる。この結果、ユーザは、撮像装置100をホールディングした状態から直感的に所望の被写体のピント状態または拡大状態若しくは縮小状態を把握することができるとともに、リング309aを操作することで被写体にピントを容易かつ敏速に合わせることができる。   According to the second embodiment of the present invention described above, the display area of the enlarged image for confirming the focus of the subject desired by the user can be moved, the display magnification of the subject included in the enlarged image, and the enlarged image The display area can be easily changed. As a result, the user can intuitively grasp the focus state, the enlargement state, or the reduction state of the desired subject from the state in which the imaging apparatus 100 is held, and can easily focus on the subject by operating the ring 309a. Can be adjusted quickly.

さらに、本発明の実施の形態2によれば、リング309aの操作に応じて、拡大画像に含まれる被写体の表示倍率またはピント状態を容易に変更することができる。   Furthermore, according to Embodiment 2 of the present invention, the display magnification or focus state of the subject included in the enlarged image can be easily changed according to the operation of the ring 309a.

また、本発明の実施の形態2によれば、タッチパネル212が位置信号を出力して、この位置信号が停止したときに、MR処理部514hが画像処理部214aによって画像処理が施された画像データと、トリミング部214dによって生成された拡大画像データとを生成順に記憶部213に記憶する。これにより、2つの画像が得られる動画撮影を瞬時に行うことができる。   Further, according to the second embodiment of the present invention, when the touch panel 212 outputs a position signal and the position signal stops, the MR processing unit 514h performs image processing on which image processing has been performed by the image processing unit 214a. And the enlarged image data generated by the trimming unit 214d are stored in the storage unit 213 in the order of generation. As a result, it is possible to instantaneously perform moving image shooting that can obtain two images.

(その他の実施の形態)
また、上述した実施の形態では、撮像部が連続して生成する動画撮影を例に説明したが、たとえば、静止画を連続して生成する連写撮影であっても本発明を適用することができる。
(Other embodiments)
In the above-described embodiment, the moving image shooting continuously generated by the imaging unit has been described as an example. However, for example, the present invention can be applied to continuous shooting that continuously generates still images. it can.

また、上述した実施の形態では、本体部に対して接眼部が着脱自在であったが、接眼部と本体部とが一体的に形成されていてもよい。さらに、本体部とレンズ部とが一体的に形成されていてもよい。   In the above-described embodiment, the eyepiece is detachable from the main body, but the eyepiece and the main body may be formed integrally. Furthermore, the main body portion and the lens portion may be integrally formed.

また、上述した実施の形態では、画像処理部およびMR処理部が制御部に組み込まれていたが、たとえば画像処理部およびMR処理部を別途設けてもよい。さらに、画像処理部(画像エンジン)を複数設けてもよい。   In the above-described embodiment, the image processing unit and the MR processing unit are incorporated in the control unit. However, for example, the image processing unit and the MR processing unit may be provided separately. Further, a plurality of image processing units (image engines) may be provided.

また、上述した実施の形態では、接眼表示部と表示部とにそれぞれ画像を表示させていたが、たとえば、2つの表示領域を有する表示モニタであっても本発明を適用することができる。具体的には、2つの表示部を有する携帯電話や多機能端末等にも適用することができる。   In the above-described embodiment, images are displayed on the eyepiece display unit and the display unit, respectively. However, the present invention can be applied to a display monitor having two display areas, for example. Specifically, the present invention can be applied to a mobile phone or a multi-function terminal having two display portions.

また、本発明に係る撮像装置は、デジタル一眼レフカメラ以外にも、例えばアクセサリ等を装着可能なデジタルカメラ、デジタルビデオカメラおよび撮影機能を有する携帯電話やタブレット型携帯機器等の電子機器にも適用することができる。   In addition to a digital single-lens reflex camera, the imaging apparatus according to the present invention is also applicable to, for example, digital cameras that can be equipped with accessories and the like, digital video cameras, and electronic devices such as mobile phones and tablet mobile devices having a shooting function. can do.

なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。すなわち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。   In the description of the flowchart in the present specification, the context of the processing between steps is clearly indicated using expressions such as “first”, “after”, “follow”, etc., in order to implement the present invention. The order of processing required is not uniquely determined by their representation. That is, the order of processing in the flowcharts described in this specification can be changed within a consistent range.

このように、本発明は、ここでは記載していない様々な実施の形態を含みうるものであり、特許請求の範囲によって特定される技術的思想の範囲内で種々の設計変更等を行うことが可能である。   As described above, the present invention can include various embodiments not described herein, and various design changes and the like can be made within the scope of the technical idea specified by the claims. Is possible.

1,100 撮像装置
2 本体部
3 レンズ部
4 接眼部
41 接眼通信部
42 接眼表示部
201 シャッタ
202 シャッタ駆動部
203 撮像素子
204 撮像素子駆動部
205 信号処理部
206 発光部
207 時計
208 本体通信部
209 アクセサリ通信部
210 操作入力部
210a 電源スイッチ
210b レリーズスイッチ
210c 撮影モード切換スイッチ
211 表示部
212 タッチパネル
213 記憶部
214,514 制御部
214a 画像処理部
214b 顔検出部
214c タッチ位置検出部
214d トリミング部
214e パラメータ変更部
214f 撮影制御部
214g 表示制御部
301 光学系
301a ズームレンズ
301b フォーカスレンズ
302 ズームレンズ駆動部
303 ズームレンズ位置検出部
304 フォーカスレンズ駆動部
305 フォーカスレンズ位置検出部
306 絞り
307 絞り駆動部
308 絞り値検出部
309 レンズ操作部
309a リング
310 レンズ記憶部
311 レンズ通信部
312 レンズ制御部
514h MR処理部
DESCRIPTION OF SYMBOLS 1,100 Image pick-up device 2 Body part 3 Lens part 4 Eyepiece part 41 Eyepiece communication part 42 Eyepiece display part 201 Shutter 202 Shutter drive part 203 Image sensor 204 Image sensor drive part 205 Signal processing part 206 Light emission part 207 Clock 208 Main body communication part 209 Accessory communication unit 210 Operation input unit 210a Power switch 210b Release switch 210c Shooting mode switching switch 211 Display unit 212 Touch panel 213 Storage unit 214, 514 Control unit 214a Image processing unit 214b Face detection unit 214c Touch position detection unit 214d Trimming unit 214e Parameters Change unit 214f Imaging control unit 214g Display control unit 301 Optical system 301a Zoom lens 301b Focus lens 302 Zoom lens drive unit 303 Zoom lens position detection unit 304 Focus lens drive unit 305 Focus lens position detection unit 306 Diaphragm 307 Diaphragm drive unit 308 Aperture value detection unit 309 Lens operation unit 309a Ring 310 Lens storage unit 311 Lens communication unit 312 Lens control unit 514h MR processing unit

Claims (9)

レンズ部を介して得られた被写体像の画像データを連続的に生成する撮像部と、
前記撮像部が生成した前記画像データに対応する画像を表示する第1の表示部と、
前記第1の表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルと、
前記タッチパネルが出力する前記位置信号が変化し続けている場合、前記タッチパネルから出力される前記位置信号に基づいて、前記タッチ位置を含む領域を前記画像から順次切出してトリミング画像を生成するトリミング部と、
前記トリミング部が生成した前記トリミング画像を前記第1の表示部とは異なる表示部に順次表示させる表示制御部と、
を備えることを特徴とする撮像装置。
An imaging unit that continuously generates image data of a subject image obtained through the lens unit;
A first display unit that displays an image corresponding to the image data generated by the imaging unit;
A touch panel that is provided on the display screen of the first display unit, detects a touch of an object from the outside, and outputs a position signal corresponding to the detected touch position;
A trimming unit that sequentially cuts out an area including the touch position from the image and generates a trimmed image based on the position signal output from the touch panel when the position signal output from the touch panel continues to change; ,
A display control unit for sequentially displaying the trimmed image generated by the trimming unit on a display unit different from the first display unit;
An imaging apparatus comprising:
前記画像データに対応する画像を表示可能な接眼部をさらに備え、
前記表示制御部は、前記トリミング画像を前記接眼部に表示させることを特徴とする請求項1に記載の撮像装置。
An eyepiece that can display an image corresponding to the image data;
The imaging apparatus according to claim 1, wherein the display control unit displays the trimmed image on the eyepiece unit.
前記トリミング画像の表示態様に関するパラメータを変更するパラメータ変更部をさらに備え、
前記表示制御部は、前記パラメータ変更部が変更した前記トリミング画像を前記接眼部に表示させることを特徴とする請求項2に記載の撮像装置。
A parameter changing unit for changing a parameter related to a display mode of the trimmed image;
The imaging apparatus according to claim 2, wherein the display control unit displays the trimmed image changed by the parameter changing unit on the eyepiece unit.
当該撮像装置の動作を指示する指示信号の入力を受け付ける入力部をさらに備え、
前記パラメータ変更部は、前記入力部から入力される前記指示信号に応じて、前記トリミング画像の表示態様に関するパラメータを変更することを特徴とする請求項3に記載の撮像装置。
An input unit that receives an input of an instruction signal that instructs the operation of the imaging apparatus;
The imaging apparatus according to claim 3 , wherein the parameter changing unit changes a parameter related to a display mode of the trimmed image in accordance with the instruction signal input from the input unit.
前記パラメータは、少なくとも前記トリミング画像に含まれる前記被写体像のピント状態あることを特徴とする請求項4に記載の撮像装置。 The imaging apparatus according to claim 4 , wherein the parameter is at least a focus state of the subject image included in the trimmed image. 前記レンズ部は、前記被写体像に対するピントを調整するフォーカスレンズを有し、
前記入力部は、前記フォーカスレンズを駆動する駆動信号の入力を受け付ける操作部を有することを特徴とする請求項5に記載の撮像装置。
The lens unit includes a focus lens that adjusts a focus on the subject image,
The imaging apparatus according to claim 5 , wherein the input unit includes an operation unit that receives an input of a drive signal that drives the focus lens.
前記操作部は、前記レンズ部に設置されていることを特徴とする請求項6に記載の撮像装置。 The imaging apparatus according to claim 6, wherein the operation unit is installed in the lens unit. レンズ部を介して得られた被写体像の画像データを連続的に生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する第1の表示部と、前記第1の表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を順次出力するタッチパネルと、を備えた撮像装置が実行する撮像方法であって、
前記タッチパネルが出力する前記位置信号が変化し続けている場合、前記タッチパネルから出力される前記位置信号に基づいて、前記タッチ位置を含む領域を前記画像から順次切出してトリミング画像を生成するトリミングステップと、
前記トリミングステップが生成した前記トリミング画像を前記第1の表示部とは異なる表示部に順次表示させる表示制御ステップと、
を含むことを特徴とする撮像方法。
An imaging unit that continuously generates image data of a subject image obtained through the lens unit, a first display unit that displays an image corresponding to the image data generated by the imaging unit, and the first An imaging method executed by an imaging device provided on a display screen of a display unit, and detecting a touch of an object from outside and sequentially outputting a position signal corresponding to the detected touch position ,
A trimming step of generating a trimming image by sequentially cutting out an area including the touch position from the image based on the position signal output from the touch panel when the position signal output by the touch panel continues to change; ,
A display control step of sequentially displaying the trimmed image generated by the trimming step on a display unit different from the first display unit ;
An imaging method comprising:
レンズ部を介して得られた被写体像の画像データを連続的に生成する撮像部と、前記撮像部が生成した前記画像データに対応する画像を表示する第1の表示部と、前記第1の表示部の表示画面上に設けられ、外部からの物体のタッチを検出し、検出したタッチ位置に応じた位置信号を出力するタッチパネルと、を備えた撮像装置に実行させるプログラムであって、
前記タッチパネルが出力する前記位置信号が変化し続けている場合、前記タッチパネルから出力される前記位置信号に基づいて、前記タッチ位置を含む領域を前記画像から順次切出してトリミング画像を生成するトリミングステップと、
前記トリミングステップが生成した前記トリミング画像を前記第1の表示部とは異なる表示部に順次表示させる表示制御ステップと、
を実行させることを特徴とするプログラム。
An imaging unit that continuously generates image data of a subject image obtained through the lens unit, a first display unit that displays an image corresponding to the image data generated by the imaging unit, and the first A program that is provided on a display screen of a display unit, detects a touch of an object from the outside, and outputs a position signal corresponding to the detected touch position, and causes the imaging apparatus to execute the program.
A trimming step of generating a trimming image by sequentially cutting out an area including the touch position from the image based on the position signal output from the touch panel when the position signal output by the touch panel continues to change; ,
A display control step of sequentially displaying the trimmed image generated by the trimming step on a display unit different from the first display unit ;
A program characterized by having executed.
JP2011218186A 2011-09-30 2011-09-30 Imaging apparatus, imaging method, and program Active JP5695536B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011218186A JP5695536B2 (en) 2011-09-30 2011-09-30 Imaging apparatus, imaging method, and program
US13/613,823 US9001255B2 (en) 2011-09-30 2012-09-13 Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011218186A JP5695536B2 (en) 2011-09-30 2011-09-30 Imaging apparatus, imaging method, and program

Publications (3)

Publication Number Publication Date
JP2013078075A JP2013078075A (en) 2013-04-25
JP2013078075A5 JP2013078075A5 (en) 2014-09-04
JP5695536B2 true JP5695536B2 (en) 2015-04-08

Family

ID=48481216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011218186A Active JP5695536B2 (en) 2011-09-30 2011-09-30 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP5695536B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6157263B2 (en) * 2013-08-01 2017-07-05 オリンパス株式会社 Operating device and control method thereof
CN105379244B (en) 2013-05-28 2019-04-12 奥林巴斯株式会社 Photographic device and image capture method
JP6777091B2 (en) 2015-11-16 2020-10-28 ソニー株式会社 Controls, control methods, and programs

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH104531A (en) * 1996-06-14 1998-01-06 Nikon Corp Information processor
JP2006067044A (en) * 2004-08-25 2006-03-09 Sony Corp Image processor and processing method
JP2006245793A (en) * 2005-03-01 2006-09-14 Konica Minolta Holdings Inc Imaging system
JP2010258904A (en) * 2009-04-27 2010-11-11 Olympus Imaging Corp Imaging apparatus, and image display method of the imaging apparatus

Also Published As

Publication number Publication date
JP2013078075A (en) 2013-04-25

Similar Documents

Publication Publication Date Title
US9001255B2 (en) Imaging apparatus, imaging method, and computer-readable storage medium for trimming and enlarging a portion of a subject image based on touch panel inputs
JP5907738B2 (en) Imaging apparatus, display method, and program
CN110493528B (en) Image pickup apparatus and control method thereof
JP5620142B2 (en) Imaging apparatus and imaging method
KR101710633B1 (en) Auto focus adjusting method, auto focus adjusting apparatus, and digital photographing apparatus including the same
US9641751B2 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
JP2013219556A (en) Imaging apparatus
JP6027308B2 (en) Imaging apparatus and control method thereof
JP2019029998A (en) Imaging apparatus, control method of imaging apparatus and control program
JP2018148446A (en) Imaging apparatus and imaging method
JP5701729B2 (en) Imaging apparatus, imaging method, and program
JP5695536B2 (en) Imaging apparatus, imaging method, and program
JP2018152787A (en) Imaging device, external device, imaging system, imaging method, operation method, and program
JP5744581B2 (en) Imaging apparatus and control method thereof
JP5789725B2 (en) Imaging apparatus, focusing method thereof and focusing control program
JP6001111B2 (en) Imaging apparatus, imaging method, and program
JP6584259B2 (en) Image blur correction apparatus, imaging apparatus, and control method
JP2009224882A (en) Image pickup device, display method of image pickup device, program, and computer readable recording medium
JP2016024315A5 (en)
JP6821325B2 (en) Image processing device, imaging device and control method
JP2015011249A (en) Imaging apparatus, imaging system, method for controlling imaging apparatus, program, and storage medium
JP6080825B2 (en) Imaging apparatus and control method thereof
JP2011234310A (en) Imaging apparatus
JP2014158162A (en) Image processing apparatus, image processing method, and program
JPWO2013047010A1 (en) Imaging device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140716

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140918

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150206

R151 Written notification of patent or utility model registration

Ref document number: 5695536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250