JP2013247585A - Imaging device, and control program of imaging device - Google Patents

Imaging device, and control program of imaging device Download PDF

Info

Publication number
JP2013247585A
JP2013247585A JP2012121296A JP2012121296A JP2013247585A JP 2013247585 A JP2013247585 A JP 2013247585A JP 2012121296 A JP2012121296 A JP 2012121296A JP 2012121296 A JP2012121296 A JP 2012121296A JP 2013247585 A JP2013247585 A JP 2013247585A
Authority
JP
Japan
Prior art keywords
image
live view
processing unit
inverted
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012121296A
Other languages
Japanese (ja)
Inventor
Hirokazu Miura
宏和 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012121296A priority Critical patent/JP2013247585A/en
Publication of JP2013247585A publication Critical patent/JP2013247585A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which: a user may determine a composition of a line-symmetric subject by superimposing an auxiliary line on a live view image in some cases; however, the user, when determining a composition in which a bilaterally symmetric subject is arranged bilaterally symmetrically from the center, for example, needs to confirm both a positional relation between an auxiliary line on left side of a screen and the subject and a positional relation between an auxiliary line on right side of the screen and the subject.SOLUTION: An imaging device includes: an imaging unit that photographs a subject image; an image processing unit that generates first image data consisting of live view images sequentially generated from output of the imaging unit, and second image data consisting of reverse images generated by reversing at least a part of the live view images line-symmetrically with respect to a predetermined reference line; and a superimposition processing unit that superimposes the reversed images on the live view images.

Description

本発明は、撮像装置および撮像装置の制御プログラムに関する。   The present invention relates to an imaging apparatus and a control program for the imaging apparatus.

被写体の構図を決定するための平行な複数の直線からなる補助線を、ライブビュー画像に重畳して表示部に表示させる撮像装置が知られている。
[先行技術文献]
[特許文献]
[特許文献1]特開2004−343169号公報
There has been known an imaging apparatus that displays auxiliary lines made up of a plurality of parallel straight lines for determining the composition of a subject on a live view image and displayed on a display unit.
[Prior art documents]
[Patent Literature]
[Patent Document 1] Japanese Patent Application Laid-Open No. 2004-343169

ユーザは、補助線をライブビュー画像に重畳して線対称の被写体の構図を決定する場合がある。しかしながら、ユーザは、例えば左右対称の被写体を中心から左右対称に配置した構図を決定する場合に、画面左側の補助線と被写体との位置関係および画面右側の補助線と被写体との位置関係の双方を確認する必要があった。   The user may determine the composition of the line-symmetric subject by superimposing the auxiliary line on the live view image. However, for example, when the user determines a composition in which a symmetrical object is arranged symmetrically from the center, both the positional relationship between the auxiliary line on the left side of the screen and the subject and the positional relationship between the auxiliary line on the right side of the screen and the subject. It was necessary to confirm.

本発明の第1の態様における撮像装置は、被写体像を撮像する撮像部と、撮像部の出力から逐次生成されるライブビュー画像で構成される第1画像データと、ライブビュー画像の少なくとも一部の画像を予め定められた基準線に対して線対称に反転して生成される反転画像で構成される第2画像データとを生成する画像処理部と、反転画像をライブビュー画像に重畳する重畳処理部とを備える。   An imaging apparatus according to a first aspect of the present invention includes an imaging unit that captures a subject image, first image data that is composed of live view images that are sequentially generated from the output of the imaging unit, and at least a part of the live view image. An image processing unit that generates second image data composed of an inverted image generated by inverting the image of the image in a line-symmetric manner with respect to a predetermined reference line, and superimposing the inverted image on the live view image A processing unit.

本発明の第2の態様における撮像装置の制御プログラムは、被写体像を撮像する撮像部を備える撮像装置の制御プログラムであって、撮像部の出力から逐次生成されるライブビュー画像で構成される第1画像データと、ライブビュー画像の少なくとも一部の画像を予め定められた基準線に対して線対称に反転して生成される反転画像で構成される第2画像データとを生成する画像処理ステップと、反転画像をライブビュー画像に重畳する重畳処理ステップとをコンピュータに実行させる。   An imaging device control program according to a second aspect of the present invention is an imaging device control program including an imaging unit that captures a subject image, and includes a live view image that is sequentially generated from the output of the imaging unit. Image processing step for generating one image data and second image data composed of an inverted image generated by inverting at least part of an image of the live view image in a line-symmetric manner with respect to a predetermined reference line And a superimposition processing step of superimposing the reverse image on the live view image.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係るカメラのシステム構成図である。1 is a system configuration diagram of a camera according to an embodiment. 本実施形態に係るカメラの背面図である。It is a rear view of the camera concerning this embodiment. ライブビュー画像の被写体像と反転画像の被写体像との位置関係を説明する説明図である。It is explanatory drawing explaining the positional relationship of the photographic subject image of a live view image, and the photographic subject image of a reverse image. 対称撮影モードにおける画像データの生成処理および反転画像の重畳処理を説明する説明図である。It is explanatory drawing explaining the production | generation process of the image data in a symmetrical imaging | photography mode, and the superimposition process of a reverse image. 被写体輪郭を含む反転画像の画像データ生成方法を説明するための説明図である。It is explanatory drawing for demonstrating the image data generation method of the reverse image containing a to-be-photographed object outline. 上下対称の被写体に対する対称撮影モード、および左右対称かつ上下対称の被写体に対する対称撮影モードを説明する説明図である。It is explanatory drawing explaining the symmetrical imaging | photography mode with respect to a vertically symmetrical subject, and the symmetrical imaging | photography mode with respect to a left-right symmetrical and vertically symmetrical subject. 本実施形態における撮影処理のフロー図である。It is a flowchart of the imaging | photography process in this embodiment. 変形例における一致度表示処理を説明する説明図である。It is explanatory drawing explaining the coincidence degree display process in a modification. 変形例における撮影処理のフロー図である。It is a flowchart of the imaging | photography process in a modification.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る撮像装置としてのカメラ10のシステム構成図である。カメラ10は、システム制御部11を備え、カメラ10を構成する各要素を直接的または間接的に制御する。システム制御部11は、システムメモリ12を備える。システムメモリ12は、電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM(登録商標)等により構成される。システムメモリ12は、カメラ10の動作時に必要な定数、変数、設定値、プログラム等を、カメラ10の非動作時にも失われないように記憶している。   FIG. 1 is a system configuration diagram of a camera 10 as an imaging apparatus according to the present embodiment. The camera 10 includes a system control unit 11 and directly or indirectly controls each element constituting the camera 10. The system control unit 11 includes a system memory 12. The system memory 12 is an electrically erasable / recordable non-volatile memory, and is composed of, for example, an EEPROM (registered trademark). The system memory 12 stores constants, variables, setting values, programs, and the like necessary for the operation of the camera 10 so that they are not lost even when the camera 10 is not operating.

カメラ10は、光学系20を備える。光学系20は、レンズ群21、レンズシャッタ22等により構成される。被写体光束は光軸に沿って光学系20に入射し、撮像素子31の受光面で被写体像として結像する。撮像部の少なくとも一部である撮像素子31は、光学系20を透過して入射する被写体光束を光電変換する素子である。撮像素子31として、CCD、CMOSセンサ等が用いられる。撮像素子31は、受光面で結像した被写体像をアナログ信号に変換する。A/D変換器32は、撮像素子31が出力するアナログ信号をデジタル信号に変換する。   The camera 10 includes an optical system 20. The optical system 20 includes a lens group 21, a lens shutter 22, and the like. The subject luminous flux enters the optical system 20 along the optical axis, and forms a subject image on the light receiving surface of the image sensor 31. The image sensor 31 that is at least a part of the image capturing unit is an element that photoelectrically converts a subject light beam that is transmitted through the optical system 20 and incident. As the image sensor 31, a CCD, a CMOS sensor, or the like is used. The image sensor 31 converts the subject image formed on the light receiving surface into an analog signal. The A / D converter 32 converts the analog signal output from the image sensor 31 into a digital signal.

デジタル信号に変換された被写体像は、画像データとして順次処理される。A/D変換器32によりデジタル信号に変換された画像データは、メモリ制御部33の制御に従い、一旦内部メモリ34に記憶される。内部メモリ34は、高速で読み書きのできるランダムアクセスメモリであり、例えばDRAM、SRAMなどが用いられる。内部メモリ34は、画像処理部35が行う画像処理、圧縮処理において、ワークメモリとしての役割も担うと共に、加工処理された画像データを一時的に保管する役割を担う。メモリ制御部33は、いかなる作業にどれくらいのメモリ容量を割り当てるかを制御する。   The subject image converted into the digital signal is sequentially processed as image data. The image data converted into a digital signal by the A / D converter 32 is temporarily stored in the internal memory 34 under the control of the memory control unit 33. The internal memory 34 is a random access memory that can be read and written at high speed, and for example, a DRAM, an SRAM, or the like is used. The internal memory 34 serves as a work memory in the image processing and compression processing performed by the image processing unit 35 and also serves to temporarily store the processed image data. The memory control unit 33 controls how much memory capacity is allocated to what work.

画像処理部35は、設定されている撮影モード、ユーザからの指示に則して、画像データをJPEG等の規定の画像フォーマットに従った画像ファイルに変換する。画像処理部35によって処理された画像ファイルは、メモリ制御部33の制御により、内部メモリ34から記録媒体IF38を介して、記録部としての役割を担う記録媒体50に記録される。記録媒体50は、フラッシュメモリ等により構成される、カメラ10に対して着脱可能な不揮発性メモリである。   The image processing unit 35 converts the image data into an image file according to a specified image format such as JPEG in accordance with the set shooting mode and the instruction from the user. The image file processed by the image processing unit 35 is recorded on the recording medium 50 serving as a recording unit from the internal memory 34 via the recording medium IF 38 under the control of the memory control unit 33. The recording medium 50 is a non-volatile memory that is configured with a flash memory or the like and is detachable from the camera 10.

画像処理部35は、記録用に処理される画像データに並行して、表示用画像データを生成する。通常の表示用画像データは、記録用に処理される画像データをコピーして間引き処理された、画素数の少ない画像データである。表示制御部36は、システム制御部11の制御に従い、記録媒体50に記録されている画像データの画像、カメラ10の各種設定に関する様々なメニュー項目等を液晶モニタ等の表示部37に表示させる。   The image processing unit 35 generates display image data in parallel with the image data processed for recording. Normal display image data is image data with a small number of pixels, which is obtained by copying and thinning image data to be processed for recording. The display control unit 36 causes the display unit 37 such as a liquid crystal monitor to display images of image data recorded on the recording medium 50 and various menu items related to various settings of the camera 10 in accordance with the control of the system control unit 11.

記録の有無に関わらず、画像処理部35が撮像素子31の出力に従って逐次表示用画像データを生成して表示部37へ出力すれば、表示部37を電子ビューファインダーとするライブビュー機能を実現することができる。表示制御部36は、逐次表示用画像データを用いて、ライブビュー画像を表示部37に表示させる。   Regardless of the presence or absence of recording, if the image processing unit 35 sequentially generates image data for display according to the output of the image sensor 31 and outputs it to the display unit 37, a live view function is realized with the display unit 37 as an electronic viewfinder. be able to. The display control unit 36 causes the display unit 37 to display the live view image using the sequential display image data.

本実施形態において、画像処理部35は、ライブビュー画像で構成される第1画像データと、ライブビュー画像の少なくとも一部の画像を予め定められた基準線に対して線対称に反転して生成される反転画像で構成される第2画像データとを生成する。そして、表示制御部36は、反転画像をライブビュー画像に重畳し、反転画像が重畳されたライブビュー画像を表示部37に表示させる。画像データの生成処理および重畳処理の詳細については後述する。   In the present embodiment, the image processing unit 35 generates the first image data composed of the live view image and at least a part of the live view image by inverting them symmetrically with respect to a predetermined reference line. And second image data composed of the inverted image to be generated. Then, the display control unit 36 superimposes the inverted image on the live view image, and causes the display unit 37 to display the live view image on which the inverted image is superimposed. Details of image data generation processing and superimposition processing will be described later.

カメラ10は、ユーザの入力を受け付ける受付部としての操作部材39を複数備えている。システム制御部11は、操作部材39で受け付けたユーザの入力を検知して各種処理を実行する。   The camera 10 includes a plurality of operation members 39 as reception units that receive user input. The system control unit 11 detects a user input received by the operation member 39 and executes various processes.

システム制御部11は、ユーザの指示に応じてレンズ群21のレンズを駆動して、被写体像の画角を変更する。また、システム制御部11は、レンズ群21のレンズを駆動して、被写体像を撮像素子31の受光面上で合焦させるオートフォーカス(AF)を実行する。また、システム制御部11は、レンズシャッタ22を駆動して、露出値に示される絞り値およびシャッタ速度を実現する。   The system control unit 11 drives the lenses of the lens group 21 according to a user instruction to change the angle of view of the subject image. Further, the system control unit 11 drives the lenses of the lens group 21 to execute autofocus (AF) for focusing the subject image on the light receiving surface of the image sensor 31. In addition, the system control unit 11 drives the lens shutter 22 to realize the aperture value and the shutter speed indicated by the exposure value.

図2は、本実施形態に係るカメラ10の背面図である。カメラ10は、操作部材39として、撮影に関する指示を受け付ける受付部の役割を担うレリーズボタン61を備える。レリーズボタン61は、押下げ方向に2段階に検知できる押しボタンで構成されている。また、カメラ10は、操作部材39として、方向入力を受け付ける十字キー62、選択項目の確定指示を受け付ける確定ボタン63、メニュー画面の表示指示を受け付けるメニューボタン64を備える。   FIG. 2 is a rear view of the camera 10 according to the present embodiment. The camera 10 includes a release button 61 serving as an operation member 39 that serves as a reception unit that receives an instruction regarding shooting. The release button 61 includes a push button that can be detected in two steps in the pressing direction. Further, the camera 10 includes, as the operation member 39, a cross key 62 that receives a direction input, a confirmation button 63 that receives a selection item confirmation instruction, and a menu button 64 that receives a menu screen display instruction.

表示制御部36は、ライブビュー画像100を表示部37に表示させる。ユーザは、表示部37に表示されたライブビュー画像100を確認して構図を決定し、レリーズボタン61を押す。システム制御部11は、レリーズボタン61の1段階目の押下げであるスイッチSW1のオンを検知すると、コントラストAFを実行する。また、システム制御部11は、レリーズボタン61のスイッチSW1のオンを検知すると自動露出(AE)を実行する。   The display control unit 36 displays the live view image 100 on the display unit 37. The user confirms the live view image 100 displayed on the display unit 37, determines the composition, and presses the release button 61. When the system control unit 11 detects that the switch SW1 is turned on, which is the first depression of the release button 61, the system control unit 11 executes contrast AF. In addition, when the system control unit 11 detects that the switch SW1 of the release button 61 is turned on, the system control unit 11 performs automatic exposure (AE).

システム制御部11は、レリーズボタン61の2段階目の押下げであるスイッチSW2のオンを検知すると撮像動作を実行する。具体的には、システム制御部11は、レンズシャッタ22を駆動し、撮像素子31による被写体像の取得処理を実行する。そして、システム制御部11は、画像処理部35と協働して画像データを生成する画像処理を実行する。   When the system control unit 11 detects that the switch SW <b> 2 is turned on, which is the second-stage depression of the release button 61, the system control unit 11 performs an imaging operation. Specifically, the system control unit 11 drives the lens shutter 22 and executes subject image acquisition processing by the image sensor 31. Then, the system control unit 11 executes image processing for generating image data in cooperation with the image processing unit 35.

本実施形態に係るカメラ10の撮影モードには、線対称の被写体を撮影するときに用いられる対称撮影モードが含まれる。対称撮影モードの詳細について説明する。まず、システム制御部11は、対称撮影モードの設定を、操作部材39を介してユーザから受け付ける。対称撮影モードの設定項目には、対称撮影モードのオン/オフ設定、左右対称、上下対称等の線対称の方向設定が含まれる。なお、本実施形態において、左右対称は、表示部37の長手方向すなわち図2の紙面左右方向における線対称であり、上下対称は、表示部37の短手方向すなわち図2の紙面上下方向における線対称である。   The shooting mode of the camera 10 according to the present embodiment includes a symmetric shooting mode used when shooting a line-symmetric subject. Details of the symmetrical shooting mode will be described. First, the system control unit 11 receives the setting of the symmetrical shooting mode from the user via the operation member 39. The setting items of the symmetric shooting mode include on / off setting of the symmetric shooting mode, left-right symmetry, and vertical symmetry direction setting such as vertical symmetry. In this embodiment, the left-right symmetry is line symmetry in the longitudinal direction of the display unit 37, that is, the left-right direction in FIG. 2, and the vertical symmetry is line direction in the short side direction of the display unit 37, that is, the vertical direction in FIG. Symmetric.

画像処理部35は、対称撮影モードのオンおよび線対称の方向が設定されると、撮像素子31の出力から逐次生成されるライブビュー画像で構成される第1画像データと、ライブビュー画像の少なくとも一部を基準線に対して線対称に反転して生成される反転画像で構成される第2画像データとを生成する。本実施形態において、基準線として、表示部37の画面中心を通り線対称の方向と直交する線が用いられる。左右対称の場合には、表示部37の画面中心を通り表示部37の短手方向の線が基準線となる。上下対称の場合には、表示部37の画面中心を通り表示部37の長手方向の線が基準線となる。表示制御部36は、第2画像データの反転画像を第1画像データのライブビュー画像に重畳し、反転画像が重畳されたライブビュー画像を表示部37に表示させる。   When the symmetric shooting mode is turned on and the line symmetric direction is set, the image processing unit 35 includes at least a first image data including live view images that are sequentially generated from the output of the image sensor 31 and a live view image. Second image data composed of an inverted image generated by inverting a part of the image symmetrically with respect to a reference line is generated. In the present embodiment, a line that passes through the screen center of the display unit 37 and is orthogonal to the direction of line symmetry is used as the reference line. In the case of left-right symmetry, the line in the short direction of the display unit 37 that passes through the center of the display unit 37 serves as a reference line. In the case of vertical symmetry, a line in the longitudinal direction of the display unit 37 that passes through the screen center of the display unit 37 serves as a reference line. The display control unit 36 superimposes the inverted image of the second image data on the live view image of the first image data, and causes the display unit 37 to display the live view image on which the inverted image is superimposed.

例えば、図2に示すように、左右対称の壺を主要被写体として撮影する場面において左右対称が線対称の方向として設定されると、画像処理部35は、ライブビュー画像100の画像データを生成する。また、ライブビュー画像100の左側半分を基準線120に対して線対称に反転し、かつ半透過状態にした反転画像110の画像データを生成する。反転画像110の画像データ生成処理の詳細については後述する。   For example, as illustrated in FIG. 2, when the left-right symmetry is set as the line-symmetric direction in a scene where a left-right-symmetrical eyelid is captured as the main subject, the image processing unit 35 generates image data of the live view image 100. . Further, image data of the inverted image 110 in which the left half of the live view image 100 is inverted symmetrically with respect to the reference line 120 and is in a semi-transmissive state is generated. Details of the image data generation processing of the reverse image 110 will be described later.

表示制御部36は、反転画像110をライブビュー画像100の右側半分に重畳し、反転画像110が重畳されたライブビュー画像100を表示部37に表示させる。反転画像110は半透過状態であるので、ユーザは、反転画像110とともにライブビュー画像100の右側半分を視認できる。反転画像110のライブビュー画像100への重畳処理の詳細については後述する。   The display control unit 36 superimposes the inverted image 110 on the right half of the live view image 100 and causes the display unit 37 to display the live view image 100 on which the inverted image 110 is superimposed. Since the reverse image 110 is in a semi-transmissive state, the user can visually recognize the right half of the live view image 100 together with the reverse image 110. Details of the process of superimposing the reverse image 110 on the live view image 100 will be described later.

ライブビュー画像100には、主要被写体である壺の像である基準像101が含まれる。反転画像110には、主要被写体である壺の像を基準線120に対して線対称に反転した反転像111が含まれる。基準像101と反転像111との位置関係は、基準線120と基準像101の対称軸102との位置関係に対応する。   The live view image 100 includes a reference image 101 that is an image of a wrinkle that is a main subject. The inverted image 110 includes an inverted image 111 obtained by inverting the image of the eyelid that is the main subject in line symmetry with respect to the reference line 120. The positional relationship between the reference image 101 and the reverse image 111 corresponds to the positional relationship between the reference line 120 and the symmetry axis 102 of the reference image 101.

図3は、ライブビュー画像100の基準像101と反転画像110の反転像111との位置関係を説明する説明図である。図3(a)に示すように基準像101の対称軸102が基準線120から離れている場合、反転像111は、基準像101から離れて表示される。したがって、ユーザは、表示部37の画面右側の基準像101と反転像111との位置ずれを確認すれば、主要被写体である壷が中央から離れて配置された構図であるか否かを容易に把握できる。   FIG. 3 is an explanatory diagram for explaining the positional relationship between the reference image 101 of the live view image 100 and the reverse image 111 of the reverse image 110. As shown in FIG. 3A, when the symmetry axis 102 of the reference image 101 is away from the reference line 120, the reverse image 111 is displayed away from the reference image 101. Therefore, if the user confirms the positional deviation between the reference image 101 and the reverse image 111 on the right side of the screen of the display unit 37, it can be easily determined whether or not the composition is such that the main subject, the eyelid, is arranged away from the center. I can grasp.

図3(a)に示すように、基準線120から対称軸102への方向Aは、反転像111から基準像101への方向Bと同一の方向である。すなわち、ユーザがカメラ10を方向Bへ動かせば、基準線120が基準像101の対称軸102に近づく。したがって、ユーザは、表示部37の画面右側の反転像111から基準像101への方向を確認すれば、主要被写体である壷が中央に配置された構図を得るためのカメラ10の移動方向を容易に把握できる。   As shown in FIG. 3A, the direction A from the reference line 120 to the symmetry axis 102 is the same as the direction B from the reverse image 111 to the reference image 101. That is, when the user moves the camera 10 in the direction B, the reference line 120 approaches the symmetry axis 102 of the reference image 101. Accordingly, if the user confirms the direction from the reverse image 111 on the right side of the screen of the display unit 37 to the reference image 101, the user can easily move the camera 10 in order to obtain a composition in which the main subject, the eyelid, is arranged in the center. Can grasp.

図3(b)に示すように基準像101の対称軸102が基準線120に対して傾いている場合、反転像111は、基準像101に対して傾いて表示される。したがって、ユーザは、表示部37の画面右側の基準像101と反転像111との傾きを確認すれば、主要被写体である壷がカメラ10の光軸に対して傾いて配置された構図であるか否かを容易に把握できる。   As shown in FIG. 3B, when the symmetry axis 102 of the reference image 101 is tilted with respect to the reference line 120, the inverted image 111 is displayed tilted with respect to the reference image 101. Therefore, if the user confirms the inclination of the reference image 101 and the reverse image 111 on the right side of the screen of the display unit 37, is the composition in which the eyelid, which is the main subject, is inclined with respect to the optical axis of the camera 10? Can easily grasp whether or not.

図3(b)に示すように、基準線120から対称軸102への回転方向Cは、反転像111から基準像101への回転方向Dと同一の方向である。すなわち、ユーザがカメラ10を光軸周りに回転方向Dへ回転させれば、基準線120が基準像101の対称軸102に近づく。したがって、ユーザは、表示部37の画面右側の反転像111から基準像101への回転方向を確認すれば、主要被写体である壷が中央に配置された構図を得るためのカメラ10の光軸周りの回転方向を容易に把握できる。   As shown in FIG. 3B, the rotation direction C from the reference line 120 to the symmetry axis 102 is the same as the rotation direction D from the reverse image 111 to the reference image 101. That is, when the user rotates the camera 10 around the optical axis in the rotation direction D, the reference line 120 approaches the symmetry axis 102 of the reference image 101. Therefore, if the user confirms the rotational direction from the reverse image 111 on the right side of the screen of the display unit 37 to the reference image 101, the user can obtain a composition in which the eyelid as the main subject is arranged in the center around the optical axis of the camera 10. The direction of rotation can be easily grasped.

図3(c)に示すように基準像101の対称軸102が基準線120と一致している場合、反転像111は、基準像101と一致して表示される。この場合、主要被写体である壷が中央に配置された構図となる。ユーザは、反転像111が基準像101と一致するように表示部37の画面右側を確認しながらカメラ10の位置および姿勢を調整して、主要被写体である左右対称の壷が中央に配置された構図を決定することができる。このように本実施形態に係るカメラ10によれば、ユーザは、画面の両側を確認することなく画面の片側の反転画像を確認すれば、線対称の被写体の構図を容易に決定することができる。   As shown in FIG. 3C, when the symmetry axis 102 of the reference image 101 coincides with the reference line 120, the reverse image 111 is displayed coincident with the reference image 101. In this case, the main subject 壷 is in the center. The user adjusts the position and orientation of the camera 10 while confirming the right side of the screen of the display unit 37 so that the inverted image 111 matches the reference image 101, and the left and right symmetrical folds as the main subject are arranged in the center. The composition can be determined. As described above, according to the camera 10 according to the present embodiment, the user can easily determine the composition of the line-symmetric subject by confirming the reverse image on one side of the screen without confirming both sides of the screen. .

図4は、対称撮影モードにおける画像データの生成処理および反転画像の重畳処理を説明する説明図である。画像処理部35は、上述したように、撮像素子31の出力からライブビュー画像100の画像データを生成し、ライブビュー画像100の画像データを表示制御部36へ送信する。また、画像処理部35は、ライブビュー画像100の画像データを用いて反転画像110の画像データを生成する。   FIG. 4 is an explanatory diagram for explaining image data generation processing and inverted image superimposition processing in the symmetric imaging mode. As described above, the image processing unit 35 generates image data of the live view image 100 from the output of the image sensor 31 and transmits the image data of the live view image 100 to the display control unit 36. Further, the image processing unit 35 generates image data of the inverted image 110 using the image data of the live view image 100.

具体的には、まず、画像処理部35は、ライブビュー画像100の左側半分を残すようにトリミングするトリミング処理を実行し、第1中間画像131の画像データを生成する。次に、画像処理部35は、第1中間画像131を基準線120に対して左右対称に反転する反転処理を実行し、第2中間画像132の画像データを生成する。そして、画像処理部35は、第2中間画像132の透過率を変更する透過率変更処理を実行し、半透過状態の反転画像110の画像データを生成する。   Specifically, first, the image processing unit 35 performs a trimming process for trimming the left half of the live view image 100 so as to generate image data of the first intermediate image 131. Next, the image processing unit 35 performs an inversion process for inverting the first intermediate image 131 symmetrically with respect to the reference line 120 to generate image data of the second intermediate image 132. Then, the image processing unit 35 executes a transmittance changing process for changing the transmittance of the second intermediate image 132, and generates image data of the reverse image 110 in a semi-transmissive state.

本実施形態において、画像処理部35は、予め定められた条件に応じて反転画像の透過率を異ならせて反転画像110の画像データを生成する。例えば、画像処理部35は、カメラ10の製造時に予め規定された透過率に変更する。また、システム制御部11は、メニュー画面で透過率の設定を、操作部材39を介してユーザから受け付け、画像処理部35は、ユーザが設定した透過率に変更してもよい。また、画像処理部35は、ライブビュー画像100の輝度に応じた透過率に変更してもよい。例えば、画像処理部35は、ライブビュー画像100の輝度が閾値以上の場合には、閾値未満の場合よりも低い透過率に変更する。   In the present embodiment, the image processing unit 35 generates image data of the reversed image 110 by changing the transmittance of the reversed image according to a predetermined condition. For example, the image processing unit 35 changes the transmittance to that specified in advance when the camera 10 is manufactured. Further, the system control unit 11 may accept the setting of the transmittance on the menu screen from the user via the operation member 39, and the image processing unit 35 may change the transmittance to the transmittance set by the user. In addition, the image processing unit 35 may change the transmittance according to the luminance of the live view image 100. For example, when the luminance of the live view image 100 is equal to or higher than the threshold, the image processing unit 35 changes the transmittance to be lower than that when the luminance is less than the threshold.

画像処理部35は、透過率変更処理を実行した後に、反転画像110の画像データを表示制御部36へ送信する。表示制御部36は、反転画像110をライブビュー画像100に重畳する重畳処理を実行する重畳処理部としての役割を担う。具体的には、まず、表示制御部36は、画像処理部35から送信されたライブビュー画像100の画像データおよび反転画像110の画像データを、内蔵するグラフィックメモリに格納する。   The image processing unit 35 transmits the image data of the reversed image 110 to the display control unit 36 after executing the transmittance changing process. The display control unit 36 serves as a superimposition processing unit that performs a superimposition process for superimposing the inverted image 110 on the live view image 100. Specifically, first, the display control unit 36 stores the image data of the live view image 100 and the image data of the reverse image 110 transmitted from the image processing unit 35 in a built-in graphic memory.

グラフィックメモリには、基準画像レイヤの記憶領域および重畳画像レイヤの記憶領域が設けられている。基準画像レイヤおよび重畳画像レイヤには、表示部37の画面領域に対応した共通の座標系が規定されている。重畳画像レイヤ上のオブジェクトは、同一の座標値を有する基準画像レイヤ上の画像に重畳される。表示制御部36は、ライブビュー画像100の画像データを基準画像レイヤに展開するとともに、当該ライブビュー画像100に対応する反転画像110の画像データを重畳画像レイヤに展開する。この画像データの展開処理により、反転画像110はライブビュー画像100に対応付けられる。   The graphic memory is provided with a reference image layer storage area and a superimposed image layer storage area. A common coordinate system corresponding to the screen area of the display unit 37 is defined for the reference image layer and the superimposed image layer. The object on the superimposed image layer is superimposed on the image on the reference image layer having the same coordinate value. The display control unit 36 develops the image data of the live view image 100 on the reference image layer, and develops the image data of the inverted image 110 corresponding to the live view image 100 on the superimposed image layer. By this image data development processing, the inverted image 110 is associated with the live view image 100.

表示制御部36は、基準画像レイヤのデータをD/A変換してライブビュー画像100の画像信号を生成するとともに、重畳画像レイヤのデータをD/A変換して反転画像110の画像信号を生成する。次に、表示制御部36は、反転画像110の画像信号をライブビュー画像100の画像信号に重畳し、反転画像110が重畳されたライブビュー画像を表す重畳画像信号を生成する。そして、表示制御部36は、重畳画像信号を表示部37へ出力し、反転画像110が重畳されたライブビュー画像100を表示部37に表示させる。   The display control unit 36 performs D / A conversion on the data of the reference image layer to generate an image signal of the live view image 100, and generates an image signal of the inverted image 110 by performing D / A conversion on the data of the superimposed image layer. To do. Next, the display control unit 36 superimposes the image signal of the inverted image 110 on the image signal of the live view image 100, and generates a superimposed image signal representing the live view image on which the inverted image 110 is superimposed. Then, the display control unit 36 outputs the superimposed image signal to the display unit 37 and causes the display unit 37 to display the live view image 100 on which the inverted image 110 is superimposed.

図4を用いて説明した例では、D/A変換後に重畳処理が実行されたが、D/A変換前において、画像処理部35は、反転画像が重畳されたライブビュー画像の画像データを生成してもよい。この場合、画像処理部35は、反転画像をライブビュー画像に重畳する重畳処理を実行する重畳処理部の役割も担う。   In the example described with reference to FIG. 4, the superimposition process is executed after the D / A conversion. However, before the D / A conversion, the image processing unit 35 generates image data of the live view image on which the inverted image is superimposed. May be. In this case, the image processing unit 35 also serves as a superimposition processing unit that performs a superimposition process for superimposing the inverted image on the live view image.

上述の実施形態では、画像処理部35は、トリミング処理、反転処理、透過率変更処理の順で反転画像110の画像データを生成したが、処理の順序はこれに限らない。画像処理部35は、反転処理、透過率変更処理、トリミング処理の順で反転画像110の画像データを生成してもよい。この場合、画像処理部35は、トリミング処理において、透過率変更処理で形成された中間画像の右側半分をトリミングして反転画像110の画像データを生成する。   In the above-described embodiment, the image processing unit 35 generates the image data of the inverted image 110 in the order of the trimming process, the inversion process, and the transmittance change process, but the order of the process is not limited to this. The image processing unit 35 may generate the image data of the inverted image 110 in the order of inversion processing, transmittance change processing, and trimming processing. In this case, the image processing unit 35 trims the right half of the intermediate image formed by the transmittance changing process in the trimming process to generate image data of the inverted image 110.

上述の実施形態において、画像処理部35は、さらに、反転画像110のコントラストを変更してもよい。例えば、画像処理部35は、反転画像110のコントラストを高める。コントラストを変更することによって、ユーザは、ライブビュー画像の被写体像と反転画像の被写体像との位置関係を把握し易くなる。   In the above-described embodiment, the image processing unit 35 may further change the contrast of the inverted image 110. For example, the image processing unit 35 increases the contrast of the inverted image 110. By changing the contrast, the user can easily grasp the positional relationship between the subject image of the live view image and the subject image of the reverse image.

上述の実施形態では、透過率を変更して半透過状態の反転画像を形成したが、反転画像の形成手法はこれに限らない。画像処理部35は、反転画像が、強調された被写体輪郭を少なくとも含むように、反転画像で構成される第2画像データを生成してもよい。   In the above-mentioned embodiment, the transmissivity is changed to form a reverse image in a semi-transparent state. However, the method for forming the reverse image is not limited to this. The image processing unit 35 may generate the second image data including the inverted image so that the inverted image includes at least the emphasized subject outline.

図5は、被写体輪郭を含む反転画像の画像データ生成方法を説明するための説明図である。図5(a)は、被写体輪郭で構成される反転画像の表示例である。画像処理部35は、周知の被写体輪郭の抽出アルゴリズムを実行して、ライブビュー画像100における主要被写体である壺の基準像101の輪郭を抽出する。そして、画像処理部35は、ライブビュー画像100の左側半分の領域内の基準像101の輪郭を基準線120に対して線対称に反転させ、反転させた基準像101の輪郭で構成される反転画像200の画像データを生成する。   FIG. 5 is an explanatory diagram for explaining a method of generating image data of a reverse image including a subject outline. FIG. 5A is a display example of an inverted image composed of the subject outline. The image processing unit 35 executes a known subject contour extraction algorithm to extract the contour of the eyelid reference image 101 that is the main subject in the live view image 100. Then, the image processing unit 35 inverts the outline of the reference image 101 in the left half region of the live view image 100 in line symmetry with respect to the reference line 120, and the inversion configured by the inverted outline of the reference image 101. Image data of the image 200 is generated.

表示制御部36は、反転画像200をライブビュー画像100に重畳し、図5(a)に示すように反転画像200が重畳されたライブビュー画像100を表示部37に表示させる。したがって、ユーザは、基準像101と反転画像200との位置関係を容易に把握できる。なお、画像処理部35は、反転画像200の太さ、色等の表示態様を変更してもよい。また、画像処理部35は、反転画像200の透過率、コントラストを変更してもよい。   The display control unit 36 superimposes the inverted image 200 on the live view image 100 and causes the display unit 37 to display the live view image 100 on which the inverted image 200 is superimposed as illustrated in FIG. Therefore, the user can easily grasp the positional relationship between the reference image 101 and the reverse image 200. Note that the image processing unit 35 may change the display mode such as the thickness and color of the inverted image 200. The image processing unit 35 may change the transmittance and contrast of the inverted image 200.

画像処理部35は、被写体輪郭の特徴部分で構成される反転画像の画像データを生成してもよい。図5(b)は、被写体輪郭の特徴部分で構成される反転画像の表示例である。画像処理部35は、上述の手法を用いて、反転させた基準像101の輪郭で構成される中間画像の画像データを生成する。そして、画像処理部35は、当該中間画像の特徴部分を抽出する。特徴部分は例えば角部である。図5(b)において、角部211、212、213が特徴部分として抽出されている。そして、画像処理部35は、特徴部分の画像で構成される反転画像210の画像データを生成する。   The image processing unit 35 may generate image data of a reverse image composed of feature parts of the subject outline. FIG. 5B is a display example of an inverted image composed of characteristic portions of the subject outline. The image processing unit 35 generates image data of an intermediate image composed of the outline of the inverted reference image 101 using the above-described method. Then, the image processing unit 35 extracts a feature portion of the intermediate image. The characteristic part is, for example, a corner part. In FIG. 5B, corner portions 211, 212, and 213 are extracted as feature portions. Then, the image processing unit 35 generates image data of the reverse image 210 including the image of the characteristic part.

表示制御部36は、反転画像210をライブビュー画像100に重畳し、図5(b)に示すように反転画像210が重畳されたライブビュー画像100を表示部37に表示させる。したがって、ユーザは、基準像101と角部211、212、213との位置関係を容易に把握できる。なお、画像処理部35は、反転画像210の各要素の太さ、色等の表示態様を変更してもよい。また、画像処理部35は、反転画像210の各要素の透過率、コントラストを変更してもよい。   The display control unit 36 superimposes the inverted image 210 on the live view image 100 and causes the display unit 37 to display the live view image 100 on which the inverted image 210 is superimposed as illustrated in FIG. Therefore, the user can easily grasp the positional relationship between the reference image 101 and the corners 211, 212, and 213. Note that the image processing unit 35 may change the display mode such as the thickness and color of each element of the inverted image 210. Further, the image processing unit 35 may change the transmittance and contrast of each element of the inverted image 210.

また、画像処理部35は、ライブビュー画像への重畳位置に応じて異なる画像処理を施して、被写体輪郭を含む反転画像の画像データを生成してもよい。例えば、画像処理部35は、基準線からの距離に応じて異なる画像処理を施して、反転画像の画像データを生成する。また、例えば、画像処理部35は、被写体の位置を検出し、被写体の位置に応じて異なる画像処理を施して、反転画像の画像データを生成する。   In addition, the image processing unit 35 may perform different image processing according to the superimposed position on the live view image, and generate image data of a reverse image including the subject outline. For example, the image processing unit 35 performs different image processing according to the distance from the reference line, and generates image data of the inverted image. Further, for example, the image processing unit 35 detects the position of the subject, performs different image processing according to the position of the subject, and generates image data of the inverted image.

図5(c)は、基準線からの距離に応じて異なる画像処理が施された反転画像の表示例である。画像処理部35は、上述の手法を用いて、反転させた基準像101の輪郭で構成される中間画像の画像データを生成する。そして、画像処理部35は、当該中間画像を、ライブビュー画像100への重畳領域に応じて区分する。図5(c)において、当該中間画像は、第1領域105に重畳する第1部分221、第2領域106に重畳する第2部分222、および第3領域107に重畳する第3部分223に区分される。   FIG. 5C is a display example of an inverted image subjected to different image processing according to the distance from the reference line. The image processing unit 35 generates image data of an intermediate image composed of the outline of the inverted reference image 101 using the above-described method. Then, the image processing unit 35 classifies the intermediate image according to the overlapping area on the live view image 100. In FIG. 5C, the intermediate image is divided into a first portion 221 that overlaps the first region 105, a second portion 222 that overlaps the second region 106, and a third portion 223 that overlaps the third region 107. Is done.

画像処理部35は、第1部分221、第2部分222、第3部分223に異なる画像処理を施す。例えば、ユーザが被写体の中央より外側を確認して線対称の構図を調整することに鑑み、画像処理部35は、外側の輪郭線をより太くする、すなわち、第3部分223を一番太くし、第1部分221を一番細くする。そして、画像処理部35は、画像処理が施された第1部分221、第2部分222、第3部分223の画像で構成される反転画像220の画像データを生成する。   The image processing unit 35 performs different image processing on the first part 221, the second part 222, and the third part 223. For example, in consideration of the user confirming the outside of the center of the subject and adjusting the line-symmetric composition, the image processing unit 35 makes the outer contour line thicker, that is, makes the third portion 223 the thickest. The first portion 221 is made the thinnest. Then, the image processing unit 35 generates image data of the inverted image 220 including the images of the first portion 221, the second portion 222, and the third portion 223 that have been subjected to image processing.

表示制御部36は、反転画像220をライブビュー画像100に重畳し、図5(c)に示すように反転画像220が重畳されたライブビュー画像100を表示部37に表示させる。したがって、ユーザは、基準像101と反転画像220との位置関係を容易に把握できる。なお、画像処理部35は、ライブビュー画像への重畳位置に応じて異なる画像処理として、輪郭線の太さの変更処理に代えて若しくはともに、輪郭線の色の変更処理、透過率の変更処理、コントラストの変更処理を実行してもよい。   The display control unit 36 superimposes the inverted image 220 on the live view image 100 and causes the display unit 37 to display the live view image 100 on which the inverted image 220 is superimposed as illustrated in FIG. Therefore, the user can easily grasp the positional relationship between the reference image 101 and the reverse image 220. Note that the image processing unit 35 performs contour color change processing and transmittance change processing instead of or together with the contour line thickness changing processing as different image processing depending on the superimposed position on the live view image. The contrast changing process may be executed.

図5を用いて説明した例では、画像処理部35は、被写体輪郭で構成される反転画像の画像データを生成したが、被写体輪郭とともに被写体輪郭以外の画像を含む反転画像の画像データを生成してもよい。例えば、画像処理部35は、図2〜4を用いて説明した反転画像110に、図5の反転画像200、210、220のいずれかを重畳した画像の画像データを生成する。   In the example described with reference to FIG. 5, the image processing unit 35 has generated the image data of the reverse image composed of the subject outline, but generates the image data of the reverse image including the subject outline and the image other than the subject outline. May be. For example, the image processing unit 35 generates image data of an image obtained by superimposing any one of the reverse images 200, 210, and 220 in FIG. 5 on the reverse image 110 described with reference to FIGS.

上述の実施形態では左右対称の被写体に対して対称撮影モードを適用したが、これに限らない。上下対称の被写体、および左右対称かつ上下対称の被写体に対しても対称撮影モードを適用することができる。   In the above-described embodiment, the symmetric shooting mode is applied to a symmetric subject, but the present invention is not limited to this. The symmetrical shooting mode can also be applied to a vertically symmetrical subject and a horizontally symmetrical and vertically symmetrical subject.

図6は、上下対称の被写体に対する対称撮影モード、および左右対称かつ上下対称の被写体に対する対称撮影モードを説明する説明図である。図6(a)は、上下対称のペナントに対して対称撮影モードを適用した表示例である。ユーザが上下対称を線対称の方向として設定して上下対称のペナントを主要被写体として撮影する場面を想定する。画像処理部35は、ライブビュー画像300の画像データを生成する。また、画像処理部35は、ライブビュー画像300の下側半分を基準線320に対して線対称に反転し、かつ半透過状態にした反転画像310の画像データを生成する。   FIG. 6 is an explanatory diagram for explaining a symmetric shooting mode for a vertically symmetric subject and a symmetric shooting mode for a horizontally symmetric subject. FIG. 6A is a display example in which the symmetric shooting mode is applied to a vertically symmetric pennant. Assume that the user sets up / down symmetry as a line-symmetric direction and shoots a vertically-symmetric pennant as a main subject. The image processing unit 35 generates image data of the live view image 300. In addition, the image processing unit 35 generates image data of the inverted image 310 in which the lower half of the live view image 300 is inverted with respect to the reference line 320 and is in a semi-transmissive state.

表示制御部36は、反転画像310をライブビュー画像300の上側半分に重畳し、反転画像310が重畳されたライブビュー画像300を表示部37に表示させる。ライブビュー画像300には、主要被写体であるペナントの像である基準像301が含まれる。反転画像310には、主要被写体であるペナントの像を基準線320に対して線対称に反転した反転像411が含まれる。ユーザは、反転像311が基準像301と一致するように表示部37の画面上側を確認しながらカメラ10の位置および姿勢を調整して、主要被写体である上下対称のペナントが中央に配置された構図を決定することができる。   The display control unit 36 superimposes the inverted image 310 on the upper half of the live view image 300 and causes the display unit 37 to display the live view image 300 on which the inverted image 310 is superimposed. The live view image 300 includes a reference image 301 that is an image of a pennant that is a main subject. The inverted image 310 includes an inverted image 411 obtained by inverting the image of a pennant that is a main subject in line symmetry with respect to the reference line 320. The user adjusts the position and orientation of the camera 10 while confirming the upper side of the screen of the display unit 37 so that the reverse image 311 matches the reference image 301, and the vertically symmetric pennant that is the main subject is arranged at the center. The composition can be determined.

図6(b)は、左右対称かつ上下対称である矩形の紙に対して対称撮影モードを適用した表示例である。ユーザが左右対称および上下対称の双方を線対称の方向として設定して左右対称かつ上下対称である矩形の紙を主要被写体として撮影する場面を想定する。画像処理部35は、ライブビュー画像400の画像データを生成する。また、画像処理部35は、ライブビュー画像400の下側半分を第1基準線421に対して線対称に反転して、中間画像の画像データを生成する。さらに、画像処理部35は、当該中間画像を第2基準線422に対して線対称に反転し、かつ半透過状態にした反転画像410の画像データを生成する。   FIG. 6B is a display example in which the symmetrical shooting mode is applied to a rectangular paper that is symmetrical in the left-right direction and the vertical direction. It is assumed that the user sets both left-right symmetry and up-down symmetry as line-symmetric directions and shoots a rectangular paper that is left-right symmetrical and up-down symmetrical as a main subject. The image processing unit 35 generates image data of the live view image 400. Further, the image processing unit 35 inverts the lower half of the live view image 400 with respect to the first reference line 421 to generate image data of the intermediate image. Further, the image processing unit 35 generates the image data of the inverted image 410 that is inverted symmetrically with respect to the second reference line 422 and in a semi-transmissive state.

表示制御部36は、反転画像410をライブビュー画像400の上側半分に重畳し、反転画像410が重畳されたライブビュー画像400を表示部37に表示させる。ライブビュー画像400には、主要被写体である矩形の紙の像である基準像401が含まれる。反転画像410には、主要被写体である矩形の紙の像を第1基準線421に対して線対称に反転し、かつ第2基準線422に対して反転した反転像411が含まれる。ユーザは、反転像411が基準像401と一致するように表示部37の画面上側を確認しながらカメラ10の位置および姿勢を調整して、主要被写体である左右対称かつ上下対称の矩形の紙が中央に配置された構図を決定することができる。   The display control unit 36 superimposes the inverted image 410 on the upper half of the live view image 400 and causes the display unit 37 to display the live view image 400 on which the inverted image 410 is superimposed. The live view image 400 includes a reference image 401 that is a rectangular paper image that is a main subject. The inverted image 410 includes an inverted image 411 obtained by inverting a rectangular paper image, which is a main subject, with respect to the first reference line 421 and inverting with respect to the second reference line 422. The user adjusts the position and orientation of the camera 10 while confirming the upper side of the display unit 37 so that the reverse image 411 matches the reference image 401, so that the left and right symmetrical and vertically symmetric rectangular paper as the main subject is obtained. The composition arranged in the center can be determined.

図7は、本実施形態の対称撮影モードにおける撮影処理のフロー図である。本フローは、システム制御部11がカメラ10の電源オンを検知した時点から開始される。なお、対称撮影モードがオンに予め設定されている。また、線対称の方向設定等の対称撮影モードの各設定項目が予め設定されている。   FIG. 7 is a flowchart of the photographing process in the symmetric photographing mode of this embodiment. This flow starts when the system control unit 11 detects that the camera 10 is turned on. Note that the symmetric shooting mode is preset to ON. Also, each setting item of the symmetric photographing mode such as line symmetric direction setting is set in advance.

ステップS101では、画像処理部35は、上述したように、ライブビュー画像で構成される第1画像データを生成し、当該第1画像データを表示制御部36へ送信する。ステップS102では、画像処理部35は、上述したように、反転画像で構成される第2画像データを生成し、当該第2画像データを表示制御部36へ送信する。   In step S <b> 101, as described above, the image processing unit 35 generates first image data composed of live view images, and transmits the first image data to the display control unit 36. In step S <b> 102, as described above, the image processing unit 35 generates second image data composed of a reverse image, and transmits the second image data to the display control unit 36.

ステップS103では、表示制御部36は、上述したように、反転画像をライブビュー画像に重畳し、反転画像が重畳されたライブビュー画像を表示部37に表示させる。ステップS104では、システム制御部11は、レリーズボタン61のスイッチSW1がオン操作されたか否かを判断する。システム制御部11は、レリーズボタン61のスイッチSW1がオン操作されたと判断した場合にはステップS105へ移行し、レリーズボタン61のスイッチSW1がオン操作されていないと判断した場合にはステップS110へ移行する。   In step S103, as described above, the display control unit 36 superimposes the inverted image on the live view image, and causes the display unit 37 to display the live view image on which the inverted image is superimposed. In step S104, the system control unit 11 determines whether or not the switch SW1 of the release button 61 is turned on. If the system control unit 11 determines that the switch SW1 of the release button 61 is turned on, the system control unit 11 proceeds to step S105. If the system control unit 11 determines that the switch SW1 of the release button 61 is not operated, the process proceeds to step S110. To do.

ステップS105では、表示制御部36は、レリーズボタン61のスイッチSW1のオン操作に同期して、反転画像のライブビュー画像への重畳を解除し、反転画像が重畳されていないライブビュー画像を表示部37へ表示させる。ステップS106では、システム制御部11は、撮影準備動作を実行する。具体的には、システム制御部11は、上述したように、コントラストAFおよびAEを実行する。   In step S105, the display control unit 36 releases the superimposition of the reverse image on the live view image in synchronization with the ON operation of the switch SW1 of the release button 61, and displays the live view image on which the reverse image is not superimposed on the display unit. 37 is displayed. In step S106, the system control unit 11 executes a shooting preparation operation. Specifically, the system control unit 11 executes contrast AF and AE as described above.

ステップS107では、レリーズボタン61のスイッチSW2がオン操作されたか否かを判断する。システム制御部11は、レリーズボタン61のスイッチSW1のオン操作後予め定められた時間内、例えば5秒以内にレリーズボタン61のスイッチSW2がオン操作されていないと判断した場合にはステップS110へ移行する。一方、システム制御部11は、レリーズボタン61のスイッチSW2がオン操作されたと判断した場合にはステップS108へ移行する。   In step S107, it is determined whether or not the switch SW2 of the release button 61 has been turned on. If the system controller 11 determines that the switch SW2 of the release button 61 has not been turned on within a predetermined time, for example, within 5 seconds after the switch SW1 of the release button 61 is turned on, the system control unit 11 proceeds to step S110. To do. On the other hand, if the system control unit 11 determines that the switch SW2 of the release button 61 is turned on, the system control unit 11 proceeds to step S108.

ステップS108では、システム制御部11は、撮像動作を実行する。具体的には、システム制御部11は、上述した被写体像の取得処理および画像処理を実行する。ステップS109では、システム制御部11は、ステップS108で生成された画像データを記録媒体50に記録する。ステップS110では、システム制御部11は、カメラ10の電源のオフ操作を検知する。システム制御部11は、カメラ10の電源のオフ操作を検知しない場合にはステップS101へ戻り、カメラ10の電源のオフ操作を検知した場合には本フローを終了する。   In step S108, the system control unit 11 executes an imaging operation. Specifically, the system control unit 11 executes the above-described subject image acquisition processing and image processing. In step S109, the system control unit 11 records the image data generated in step S108 on the recording medium 50. In step S <b> 110, the system control unit 11 detects a power-off operation of the camera 10. The system control unit 11 returns to step S <b> 101 when the power-off operation of the camera 10 is not detected, and ends this flow when the power-off operation of the camera 10 is detected.

次に、本実施形態の変形例について説明する。変形例において、カメラ10は、ライブビュー画像と反転画像との一致度に応じて各種処理を実行する。まず、本例におけるライブビュー画像と反転画像との一致度の算出処理の詳細について説明する。   Next, a modification of this embodiment will be described. In the modification, the camera 10 executes various processes according to the degree of coincidence between the live view image and the reverse image. First, the details of the process of calculating the degree of coincidence between the live view image and the reverse image in this example will be described.

画像処理部35は、上述の手法で形成された反転画像と、基準線で区分され、かつ当該反転画像に対応する領域のライブビュー画像とのマッチング処理を実行する。具体的には、画像処理部35は、周知の被写体輪郭の抽出アルゴリズムを実行して、ライブビュー画像における主要被写体像と、反転画像における主要被写体像とを検出する。次に、画像処理部35は、基準線で区分され、かつ反転画像に対応するライブビュー画像の領域における主要被写体像を抽出する。そして、画像処理部35は、抽出した主要被写体像と反転画像における主要被写体像とのパターンマッチング処理を実行する。   The image processing unit 35 performs a matching process between the inverted image formed by the above-described method and the live view image of the region that is divided by the reference line and corresponds to the inverted image. Specifically, the image processing unit 35 executes a well-known subject outline extraction algorithm to detect the main subject image in the live view image and the main subject image in the inverted image. Next, the image processing unit 35 extracts the main subject image in the region of the live view image that is divided by the reference line and corresponds to the reverse image. Then, the image processing unit 35 executes pattern matching processing between the extracted main subject image and the main subject image in the reverse image.

画像処理部35は、マッチング処理の結果に応じて、ライブビュー画像と反転画像との一致度を算出する。具体的には、画像処理部35は、パターンマッチング処理が示す相関度と、ライブビュー画像と反転画像との一致度との対応関係が予め規定されたテーブルを参照して、パターンマッチング処理が示す相関度に対応する一致度を決定する。一致度の単位は任意に設定される。例えば、一致度は、ライブビュー画像と反転画像とが完全一致した場合を100%とし、ライブビュー画像と反転画像とが完全に一致しない場合を0%としたパーセンテージで表される。   The image processing unit 35 calculates the degree of coincidence between the live view image and the reverse image according to the result of the matching process. Specifically, the image processing unit 35 refers to a table in which a correspondence relationship between the degree of correlation indicated by the pattern matching process and the degree of coincidence between the live view image and the reverse image is defined in advance by the pattern matching process. The degree of coincidence corresponding to the degree of correlation is determined. The unit of coincidence is arbitrarily set. For example, the degree of coincidence is expressed as a percentage with 100% when the live view image and the reverse image completely match, and 0% when the live view image and the reverse image do not completely match.

ここで、ライブビュー画像と反転画像との一致度に基づく各種処理について説明する。本例において、一致度を示す一致度情報を表示する一致度表示処理、一致度に応じて反転画像を自動的に重畳する自動重畳処理、一致度に応じて自動的に撮影を行う自動撮影処理が実行される。   Here, various processes based on the degree of coincidence between the live view image and the reverse image will be described. In this example, the coincidence display process for displaying the coincidence information indicating the coincidence, the automatic superimposition process for automatically superimposing the reverse image according to the coincidence, and the automatic photographing process for automatically photographing according to the coincidence Is executed.

図8は、変形例における一致度表示処理を説明する説明図である。表示制御部36は、上述の手法で形成された反転画像とともに、上述のマッチング処理により得られたライブビュー画像と反転画像との一致度を示す一致度情報をライブビュー画像に重畳する。   FIG. 8 is an explanatory diagram for explaining the matching degree display processing in the modification. The display control unit 36 superimposes on the live view image coincidence information indicating the degree of coincidence between the live view image and the reverse image obtained by the matching process, together with the reverse image formed by the above-described method.

例えば、表示制御部36は、図2を用いて説明したように、ライブビュー画像100を表示部37に表示させるとともに、反転画像110をライブビュー画像100に重畳表示させる。さらに、表示制御部36は、図8に示すように、ライブビュー画像100と反転画像110との一致度を示す一致度情報500をライブビュー画像100に重畳表示させる。   For example, as described with reference to FIG. 2, the display control unit 36 displays the live view image 100 on the display unit 37 and displays the reverse image 110 superimposed on the live view image 100. Further, as shown in FIG. 8, the display control unit 36 displays the matching degree information 500 indicating the matching degree between the live view image 100 and the inverted image 110 on the live view image 100 in a superimposed manner.

したがって、ユーザは、ライブビュー画像100の主要被写体である壺の基準像101と反転画像110の主要被写体である壺の反転像111との一致具合を容易に把握できる。なお、一致度表示処理のオン/オフ設定は、対称撮影モードの設定項目に含まれてもよい。また、対称撮影モードがオンに設定されている場合には、常に一致度表示処理がオンに設定されてもよい。   Therefore, the user can easily grasp the coincidence between the reference image 101 of the eyelid that is the main subject of the live view image 100 and the inverted image 111 of the eyelid that is the main subject of the inverted image 110. Note that the ON / OFF setting of the matching degree display process may be included in the setting items of the symmetrical shooting mode. Further, when the symmetric shooting mode is set to on, the matching degree display process may always be set to on.

次に、変形例における自動重畳処理について説明する。上述のとおり、線対称の被写体を撮影する場合には、ユーザは、ライブビュー画像と反転画像とを比較して構図を決定する。一方、線対称でない被写体を撮影する場合には、ユーザは、ライブビュー画像と反転画像とを比較する必要はない。そこで、本例において、表示制御部36は、マッチング処理の結果に応じて反転画像をライブビュー画像に重畳する。   Next, the automatic superimposition process in the modification will be described. As described above, when shooting a line-symmetric object, the user determines the composition by comparing the live view image and the reverse image. On the other hand, when shooting a subject that is not line symmetric, the user does not need to compare the live view image and the reverse image. Therefore, in this example, the display control unit 36 superimposes the inverted image on the live view image according to the result of the matching process.

例えば、表示制御部36は、マッチング処理により得られたライブビュー画像と反転画像との一致度が予め定められた閾値より大きい場合には、反転画像をライブビュー画像に重畳し、反転画像が重畳されたライブビュー画像を表示部37に表示させる。一方、表示制御部36は、一致度が予め定められた閾値以下の場合には、反転画像をライブビュー画像に重畳せず、ライブビュー画像を表示部37に表示させる。閾値は、線対称の被写体を撮影している可能性がある値を実験的またはシミュレーション的に算出することにより予め規定される。例えば、一致度が上述のようにパーセンテージで表される場合、閾値は50%と規定される。なお、システム制御部11は、メニュー画面で閾値の設定を、操作部材39を介してユーザから受け付けてもよい。   For example, when the matching degree between the live view image obtained by the matching process and the reverse image is greater than a predetermined threshold, the display control unit 36 superimposes the reverse image on the live view image, and the reverse image is superimposed. The live view image thus displayed is displayed on the display unit 37. On the other hand, when the degree of coincidence is equal to or less than a predetermined threshold, the display control unit 36 causes the display unit 37 to display the live view image without superimposing the inverted image on the live view image. The threshold value is defined in advance by calculating a value that is likely to photograph a line-symmetric subject experimentally or by simulation. For example, when the degree of coincidence is expressed as a percentage as described above, the threshold is defined as 50%. Note that the system control unit 11 may receive a threshold setting from the user via the operation member 39 on the menu screen.

このように表示制御部36は、線対称の被写体を撮影する可能性が高い場合には反転画像を表示部37に表示させ、線対称でない被写体を撮影する可能性が高い場合には反転画像を表示部37に表示させない。したがって、ユーザは、対称撮影モードのオン/オフ設定を撮影ごとに切り替える必要がなくなる。なお、自動重畳処理のオン/オフ設定は、対称撮影モードの設定項目に含まれてもよい。また、対称撮影モードがオンに設定されている場合には、常に自動重畳処理がオンに設定されてもよい。   As described above, the display control unit 36 displays a reverse image on the display unit 37 when the possibility of photographing a line-symmetric subject is high, and displays the reverse image when the possibility of photographing a subject that is not line-symmetric is high. It is not displayed on the display unit 37. Therefore, the user does not need to switch the on / off setting of the symmetric shooting mode for each shooting. Note that the on / off setting of the automatic superimposition process may be included in the setting items of the symmetrical shooting mode. Further, when the symmetric shooting mode is set to ON, the automatic superimposition process may always be set to ON.

次に、変形例における自動撮影処理について説明する。図3を用いて説明したように、ライブビュー画像における被写体像と反転画像における被写体像とが略一致した時点が、対称撮影のタイミングとなる。そこで、本例において、システム制御部11は、マッチング処理の結果に応じて、撮像素子31等を制御して撮像動作を実行する撮像制御部としての役割を担う。   Next, automatic photographing processing in the modification will be described. As described with reference to FIG. 3, the point in time when the subject image in the live view image and the subject image in the reverse image substantially coincide with each other is the timing of the symmetrical shooting. Therefore, in this example, the system control unit 11 plays a role as an imaging control unit that controls the imaging element 31 and the like to execute an imaging operation according to the result of the matching process.

例えば、システム制御部11は、マッチング処理により得られたライブビュー画像と反転画像との一致度が予め定められた閾値より大きい場合には、撮像素子31等を制御して撮像動作を実行する。一方、システム制御部11は、一致度が予め定められた閾値以下の場合には、撮像動作を実行しない。閾値は、ライブビュー画像における被写体像と反転画像における被写体像とが略一致した値を実験的またはシミュレーション的に算出することにより予め規定される。例えば、一致度が上述のようにパーセンテージで表される場合、閾値は90%と規定される。なお、自動撮影処理の閾値は、上述した重畳表示処理の閾値よりも大きく設定されてもよい。また、システム制御部11は、メニュー画面で閾値の設定を、操作部材39を介してユーザから受け付けてもよい。   For example, when the degree of coincidence between the live view image obtained by the matching process and the reverse image is larger than a predetermined threshold value, the system control unit 11 controls the image sensor 31 and executes the imaging operation. On the other hand, the system control unit 11 does not execute the imaging operation when the degree of coincidence is equal to or less than a predetermined threshold. The threshold value is defined in advance by experimentally or simulating a value in which the subject image in the live view image and the subject image in the reverse image substantially coincide with each other. For example, when the degree of coincidence is expressed as a percentage as described above, the threshold is defined as 90%. Note that the threshold value for the automatic photographing process may be set larger than the threshold value for the superimposed display process described above. Further, the system control unit 11 may receive a threshold setting from the user via the operation member 39 on the menu screen.

このようにシステム制御部11は、ライブビュー画像における被写体像と反転画像における被写体像とが略一致した場合に自動的に撮影動作を実行する。したがって、ユーザは、線対称の被写体を撮影する場合にレリーズボタン61を操作する必要がなくなる。なお、自動撮影処理のオン/オフ設定は、対称撮影モードの設定項目に含まれてもよい。また、対称撮影モードがオンに設定されている場合には、常に自動撮影処理がオンに設定されてもよい。   As described above, the system control unit 11 automatically performs the shooting operation when the subject image in the live view image and the subject image in the reverse image substantially coincide. Therefore, the user does not need to operate the release button 61 when photographing a line-symmetric subject. Note that the on / off setting of the automatic shooting process may be included in the setting items of the symmetrical shooting mode. Further, when the symmetric shooting mode is set to ON, the automatic shooting process may always be set to ON.

図9は、変形例における対称撮影モードの撮影処理のフロー図である。本フローは、システム制御部11がカメラ10の電源オンを検知した時点から開始される。なお、対称撮影モードがオンに予め設定されている。また、線対称の方向設定等の対称撮影モードの各設定項目が予め設定されている。さらに、上述の一致度表示処理、自動重畳処理および自動撮影処理がオンに予め設定されている。ステップS201、S202は、それぞれ、図7に示す撮影処理のフロー図におけるステップS101、S102と同様の処理であるので説明を省略する。   FIG. 9 is a flowchart of the imaging process in the symmetrical imaging mode in the modified example. This flow starts when the system control unit 11 detects that the camera 10 is turned on. Note that the symmetric shooting mode is preset to ON. Also, each setting item of the symmetric photographing mode such as line symmetric direction setting is set in advance. Furthermore, the above-described coincidence degree display process, automatic superimposition process, and automatic photographing process are set to ON in advance. Steps S201 and S202 are the same processes as steps S101 and S102 in the flowchart of the photographing process shown in FIG.

ステップS203では、画像処理部35は、上述したように、ライブビュー画像と反転画像との一致度を算出するためのマッチング画像データを生成する。ステップS204では、画像処理部35は、上述したようにマッチング処理を実行し、システム制御部11は、ライブビュー画像と反転画像との一致度Vを算出する。   In step S203, the image processing unit 35 generates matching image data for calculating the degree of coincidence between the live view image and the reverse image as described above. In step S204, the image processing unit 35 executes the matching process as described above, and the system control unit 11 calculates the matching degree V between the live view image and the reverse image.

ステップS205では、システム制御部11は、ステップS204で算出した一致度Vが予め定められた閾値Vより大きいか否かを判断する。例えば、閾値Vは50%に規定されている。システム制御部11は、一致度Vが閾値V以下である場合には、ステップS206へ移行する。ステップS206では、表示制御部36は、反転画像を重畳せずにライブビュー画像を表示部37に表示させ、ステップS212へ移行する。 In step S205, the system control unit 11, the calculated degree of matching V to determine whether greater than the threshold V 1 to a predetermined in step S204. For example, the threshold value V 1 is defined to 50%. The system control unit 11, when the degree of matching V is the threshold value V 1 or less, the process proceeds to step S206. In step S206, the display control unit 36 displays the live view image on the display unit 37 without superimposing the inverted image, and the process proceeds to step S212.

一方、システム制御部11は、一致度Vが閾値Vより大きい場合には、ステップS207へ移行する。ステップS207では、表示制御部36は、上述したように、反転画像と、一致度Vを示す一致度情報とをライブビュー画像に重畳し、反転画像と一致度情報とが重畳されたライブビュー画像を表示部37に表示させる。ステップS208では、システム制御部11は、ステップS204で算出した一致度Vが予め定められた閾値Vより大きいか否かを判断する。閾値Vは、閾値Vより大きい値に規定されている。例えば、閾値Vは90%に規定されている。システム制御部11は、一致度Vが閾値V以下である場合には、ステップS212へ移行する。 On the other hand, the system controller 11, when the degree of matching V is larger than the threshold value V 1 was, the process proceeds to step S207. In step S207, as described above, the display control unit 36 superimposes the inverted image and the matching degree information indicating the matching degree V on the live view image, and the live view image in which the inverted image and the matching degree information are superimposed. Is displayed on the display unit 37. In step S208, the system control unit 11, the calculated degree of matching V to determine whether the threshold V 2 is greater than a predetermined in step S204. Threshold V 2 is defined the threshold V 1 is greater than value. For example, the threshold value V 2 is defined to 90%. The system control unit 11, when the degree of matching V is the threshold value V 2 or less, the process proceeds to step S212.

一方、システム制御部11は、一致度Vが閾値Vより大きい場合には、ステップS209へ移行する。ステップS209〜S212は、それぞれ、図7に示す撮影処理のフロー図におけるステップS106、S108〜S110と同様の処理であるので説明を省略する。 On the other hand, the system controller 11, when the degree of matching V is larger than the threshold value V 2, the process proceeds to step S209. Steps S209 to S212 are the same as steps S106 and S108 to S110 in the flowchart of the photographing process shown in FIG.

上述の実施形態において、画像処理部35は、ライブビュー画像から抽出され、かつ強調された被写体輪郭を含む基準輪郭画像で構成される第3画像データを生成し、表示制御部36は、反転画像とともに、基準輪郭画像をライブビュー画像に重畳してもよい。例えば、画像処理部35は、周知の被写体輪郭の抽出アルゴリズムを実行して、ライブビュー画像における主要被写体像の輪郭を抽出する。そして、画像処理部35は、主要被写体像の輪郭で構成される基準輪郭画像の画像データを生成する。   In the above-described embodiment, the image processing unit 35 generates the third image data including the reference contour image including the subject contour extracted from the live view image and emphasized, and the display control unit 36 is the inverted image. At the same time, the reference contour image may be superimposed on the live view image. For example, the image processing unit 35 executes a known subject contour extraction algorithm to extract the contour of the main subject image in the live view image. Then, the image processing unit 35 generates image data of a reference contour image composed of the contours of the main subject image.

基準輪郭画像をライブビュー画像に重畳表示させることにより、ユーザは、撮影対象であるライブビュー画像の主要被写体の位置を容易に把握できる。なお、画像処理部35は、画面全体における基準輪郭画像の画像データを生成してもよい。また、画像処理部35は、反転画像が重畳される領域における基準輪郭画像の画像データを生成してもよい。   By superimposing and displaying the reference contour image on the live view image, the user can easily grasp the position of the main subject of the live view image that is the shooting target. Note that the image processing unit 35 may generate image data of a reference contour image in the entire screen. In addition, the image processing unit 35 may generate image data of a reference contour image in a region where the inverted image is superimposed.

上述の実施形態において、表示制御部36は、ライブビュー画像の更新レートより遅いレートで反転画像を更新してもよい。例えば、表示制御部36は、ライブビュー画像の表示を1/30秒の間隔で更新し、反転画像の表示を1/10秒の間隔で更新する。この構成によれば、反転画像の画像処理の負荷によりライブビュー画像の更新間隔内で反転画像の画像処理が完了しない場合であっても反転画像の重畳表示を維持することができる。   In the above-described embodiment, the display control unit 36 may update the reverse image at a rate slower than the update rate of the live view image. For example, the display control unit 36 updates the display of the live view image at intervals of 1/30 seconds, and updates the display of the reverse image at intervals of 1/10 seconds. According to this configuration, even when the image processing of the inverted image is not completed within the update interval of the live view image due to the image processing load of the inverted image, the superimposed display of the inverted image can be maintained.

上述の実施形態では、ユーザが線対称の方向すなわち左右対称、上下対称を設定したが、画像処理部35は、ライブビュー画像と反転画像とのマッチング処理に応じて線対称の方向を判断してもよい。具体的には、まず、画像処理部35は、ライブビュー画像と、ライブビュー画像を予め定められた第1基準線に対して線対称に反転した第1基準反転画像との第1マッチング処理を実行する。第1基準線は、例えば、上述した左右対称の基準線である。また、画像処理部35は、ライブビュー画像と、ライブビュー画像を予め定められた第2基準線に対して線対称に反転した第2基準反転画像との第2マッチング処理を実行する。第2基準線は、例えば、上述した上下対称の基準線である。   In the above-described embodiment, the user sets a line-symmetric direction, that is, left-right symmetry and vertical symmetry, but the image processing unit 35 determines the line-symmetric direction according to the matching process between the live view image and the reverse image. Also good. Specifically, first, the image processing unit 35 performs a first matching process between the live view image and a first reference inverted image obtained by inverting the live view image in line symmetry with respect to a predetermined first reference line. Run. The first reference line is, for example, the above-described symmetrical reference line. Further, the image processing unit 35 executes a second matching process between the live view image and a second reference inverted image obtained by inverting the live view image with respect to a predetermined second reference line in line symmetry. The second reference line is, for example, the above-described vertically symmetrical reference line.

そして、画像処理部35は、第1マッチング処理の結果および第2マッチング処理の結果に応じて、反転画像で構成される第2画像データを生成する。例えば、第1基準線および第2基準線がそれぞれ左右対称の基準線および上下対称の基準線である場合、画像処理部35は、第1マッチング処理によって得られた一致度が第2マッチング処理によって得られた一致度より大きければ左右対称の反転画像の画像データを生成する。一方、画像処理部35は、第1マッチング処理によって得られた一致度が第2マッチング処理によって得られた一致度より小さければ上下対称の反転画像の画像データを生成する。したがって、ユーザは線対称の方向を設定する必要がなくなる。   Then, the image processing unit 35 generates second image data including a reverse image according to the result of the first matching process and the result of the second matching process. For example, when the first reference line and the second reference line are respectively a symmetrical reference line and a vertically symmetrical reference line, the image processing unit 35 determines that the degree of coincidence obtained by the first matching process is the second matching process. If the degree of coincidence is larger than the obtained degree of coincidence, image data of a symmetrical inverted image is generated. On the other hand, if the degree of matching obtained by the first matching process is smaller than the degree of matching obtained by the second matching process, the image processing unit 35 generates image data of a vertically symmetrical inverted image. Therefore, the user need not set a line-symmetric direction.

上述の実施形態では、左右対称の場合には反転画像が画面右側に配置され、上下対称の場合には反転画像が画面上側に配置されたが、ユーザが反転画像の配置位置を設定可能にしてもよい。具体的には、システム制御部11は、撮影対称モードの設定項目として、反転画像の配置位置を、操作部材39を介してユーザから受け付ける。例えば、システム制御部11は、左右対称の場合の反転画像の配置位置として、画面右側および画面左側のいずれかを受け付ける。この構成によれば、ユーザは、自身の希望する箇所を着目して線対称の被写体の構図を決定することができる。   In the above-described embodiment, the inverted image is arranged on the right side of the screen in the case of left-right symmetry, and the inverted image is arranged on the upper side of the screen in the case of vertical symmetry, but the user can set the arrangement position of the inverted image. Also good. Specifically, the system control unit 11 receives the arrangement position of the reversed image from the user via the operation member 39 as the setting item of the shooting symmetry mode. For example, the system control unit 11 accepts either the right side of the screen or the left side of the screen as the inverted image arrangement position in the case of left-right symmetry. According to this configuration, the user can determine the composition of the line-symmetric subject by paying attention to the desired location.

上述の実施形態では、線対称の基準線は、表示部37の画面中心を通るように予め規定されたが、ユーザが表示部37の画面の任意の点を線対称の基準線の通過点として設定可能にしてもよい。具体的には、システム制御部11は、対称撮影モードの設定項目として、通過点の位置を、操作部材39を介してユーザから受け付ける。そして、システム制御部11は、指定された通過点を通り表示部37の短手方向の線を左右対称の基準線に設定する。また、システム制御部11は、指定された通過点を通り表示部37の長手方向の線を上下対称の基準線に設定する。この構成によれば、ユーザは、希望の位置に線対称の被写体を配置した構図を適切に決定することができる。   In the above-described embodiment, the line-symmetric reference line is defined in advance so as to pass through the center of the screen of the display unit 37. However, the user sets an arbitrary point on the screen of the display unit 37 as a passing point of the line-symmetric reference line. It may be settable. Specifically, the system control unit 11 receives the position of the passing point from the user via the operation member 39 as a setting item for the symmetric shooting mode. Then, the system control unit 11 sets the line in the short direction of the display unit 37 through the designated passing point as a symmetrical reference line. In addition, the system control unit 11 sets a line in the longitudinal direction of the display unit 37 through the designated passing point as a vertically symmetrical reference line. According to this configuration, the user can appropriately determine a composition in which a line-symmetric subject is arranged at a desired position.

上述の実施形態では、撮像装置としてレンズ光学系が一体的に構成されたカメラを例に説明したが、レンズ交換式カメラにも本実施形態に係る概念を適用することができる。また、レンズ交換式カメラのカメラ本体を撮像装置として捉えてもよい。さらに、ミラー機構がないミラーレスデジタルカメラ、ビデオカメラ、カメラ機能付き携帯電話などの撮像装置であっても同様に本実施形態に係る概念を適用することができる。   In the above-described embodiment, a camera in which a lens optical system is integrally configured as an imaging apparatus has been described as an example. However, the concept according to the present embodiment can be applied to a lens interchangeable camera. Further, the camera body of the interchangeable lens camera may be regarded as an imaging device. Furthermore, the concept according to the present embodiment can be similarly applied to an imaging apparatus such as a mirrorless digital camera, a video camera, or a mobile phone with a camera function without a mirror mechanism.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記の実施形態に記載の範囲には限定されない。上記の実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in said embodiment. It will be apparent to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 カメラ、11 システム制御部、12 システムメモリ、20 光学系、21 レンズ群、22 レンズシャッタ、31 撮像素子、32 A/D変換器、33 メモリ制御部、34 内部メモリ、35 画像処理部、36 表示制御部、37 表示部、38 記録媒体IF、39 操作部材、50 記録媒体、61 レリーズボタン、62 十字キー、63 確定ボタン、64 メニューボタン、100 ライブビュー画像、101 基準像、102 対称軸、105 第1領域、106 第2領域、107 第3領域、110 反転画像、111 反転像、120 基準線、131 第1中間画像、132 第2中間画像、200 反転画像、210 反転画像、211、212、213 角部、220 反転画像、221 第1部分、222 第2部分、223 第3部分、300 ライブビュー画像、301 基準像、310 反転画像、311 反転像、320 基準線、400 ライブビュー画像、401 基準像、410 反転画像、411 反転像、421 第1基準線、422 第2基準線、500 一致度情報 DESCRIPTION OF SYMBOLS 10 Camera, 11 System control part, 12 System memory, 20 Optical system, 21 Lens group, 22 Lens shutter, 31 Image pick-up element, 32 A / D converter, 33 Memory control part, 34 Internal memory, 35 Image processing part, 36 Display control unit, 37 Display unit, 38 Recording medium IF, 39 Operation member, 50 Recording medium, 61 Release button, 62 Four-way controller, 63 Confirm button, 64 Menu button, 100 Live view image, 101 Reference image, 102 Symmetry axis, 105 1st area, 106 2nd area, 107 3rd area, 110 Inverted image, 111 Inverted image, 120 Base line, 131 1st intermediate image, 132 2nd intermediate image, 200 Inverted image, 210 Inverted image, 211, 212 213 corner, 220 inverted image, 221 first part, 222 second part, 23 Third part, 300 Live view image, 301 Reference image, 310 Inverted image, 311 Inverted image, 320 Reference line, 400 Live view image, 401 Reference image, 410 Inverted image, 411 Inverted image, 421 First reference line, 422 Second reference line, 500 match information

Claims (15)

被写体像を撮像する撮像部と、
前記撮像部の出力から逐次生成されるライブビュー画像で構成される第1画像データと、前記ライブビュー画像の少なくとも一部の画像を予め定められた基準線に対して線対称に反転して生成される反転画像で構成される第2画像データとを生成する画像処理部と、
前記反転画像を前記ライブビュー画像に重畳する重畳処理部と
を備える撮像装置。
An imaging unit that captures a subject image;
First image data composed of live view images sequentially generated from the output of the imaging unit and at least a part of the live view image are generated by inverting them symmetrically with respect to a predetermined reference line. An image processing unit for generating second image data composed of the inverted image
An imaging apparatus comprising: a superimposition processing unit that superimposes the inverted image on the live view image.
前記画像処理部は、予め定められた条件に基づいて前記反転画像の透過率を異ならせて前記第2画像データを生成する請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image processing unit generates the second image data by changing the transmittance of the inverted image based on a predetermined condition. 前記画像処理部は、前記反転画像が、強調された被写体輪郭を少なくとも含むように、前記第2画像データを生成する請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image processing unit generates the second image data so that the inverted image includes at least an emphasized subject outline. 前記画像処理部は、前記反転画像と、前記基準線で区分され、かつ前記反転画像に対応する領域の前記ライブビュー画像とのマッチング処理を実行する請求項1から3のいずれか1項に記載の撮像装置。   4. The image processing unit according to claim 1, wherein the image processing unit executes a matching process between the inverted image and the live view image in a region that is divided by the reference line and corresponds to the inverted image. 5. Imaging device. 前記重畳処理部は、前記反転画像とともに、前記マッチング処理により得られた前記ライブビュー画像と前記反転画像との一致度を示す一致度情報を前記ライブビュー画像に重畳する請求項4に記載の撮像装置。   The imaging according to claim 4, wherein the superimposition processing unit superimposes the degree-of-match information indicating the degree of coincidence between the live-view image obtained by the matching process and the inverted image together with the inverted image on the live-view image. apparatus. 前記重畳処理部は、前記マッチング処理の結果に基づいて、前記反転画像を前記ライブビュー画像に重畳する請求項4または5に記載の撮像装置。   The imaging apparatus according to claim 4 or 5, wherein the superimposition processing unit superimposes the inverted image on the live view image based on a result of the matching process. 前記マッチング処理の結果に基づいて、前記撮像部を制御して撮像動作を実行する撮像制御部を備える請求項4から6のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 4, further comprising an imaging control unit that controls the imaging unit to execute an imaging operation based on a result of the matching process. 前記重畳処理部は、時間的に前後する前記ライブビュー画像から取得される単位時間あたりの移動量が予め定められた値以上である場合に、前記反転画像の前記ライブビュー画像への重畳を実行しない請求項1から7のいずれか1項に記載の撮像装置。   The superimposition processing unit performs superimposition of the inverted image on the live view image when a movement amount per unit time acquired from the live view image that fluctuates in time is equal to or greater than a predetermined value. The imaging device according to any one of claims 1 to 7. 撮像に関する指示をユーザから受け付ける受付部を備え、
前記重畳処理部は、前記撮像に関する指示に同期して、前記反転画像の前記ライブビュー画像への重畳を解除する請求項1から8のいずれか1項に記載の撮像装置。
A reception unit that receives an instruction regarding imaging from a user;
The imaging apparatus according to claim 1, wherein the superimposition processing unit cancels the superimposition of the inverted image on the live view image in synchronization with the instruction regarding the imaging.
前記画像処理部は、前記ライブビュー画像への重畳位置に応じて異なる画像処理を施して前記第2画像データを生成する請求項1から9のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the image processing unit generates the second image data by performing different image processing according to a superimposed position on the live view image. 前記画像処理部は、前記基準線からの距離に応じて異なる画像処理を施して前記第2画像データを生成する請求項10に記載の撮像装置。   The imaging apparatus according to claim 10, wherein the image processing unit generates the second image data by performing different image processing according to a distance from the reference line. 前記画像処理部は、前記ライブビュー画像から抽出され、かつ強調された被写体輪郭を含む基準輪郭画像で構成される第3画像データを生成し、
前記重畳処理部は、前記反転画像とともに、前記基準輪郭画像を前記ライブビュー画像に重畳する請求項1から11のいずれか1項に記載の撮像装置。
The image processing unit generates third image data including a reference contour image including a subject contour extracted and enhanced from the live view image;
The imaging device according to claim 1, wherein the superimposition processing unit superimposes the reference contour image on the live view image together with the inverted image.
前記重畳処理部は、前記ライブビュー画像の更新レートより遅いレートで前記反転画像を更新する請求項1から12のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the superimposition processing unit updates the inverted image at a rate slower than an update rate of the live view image. 前記画像処理部は、
前記ライブビュー画像と、前記ライブビュー画像を予め定められた第1基準線に対して線対称に反転した第1基準反転画像との第1マッチング処理を実行し、
前記ライブビュー画像と、前記ライブビュー画像を予め定められた第2基準線に対して線対称に反転した第2基準反転画像との第2マッチング処理を実行し、
前記第1マッチング処理の結果および前記第2マッチング処理の結果に基づいて前記第2画像データを生成する請求項1から13のいずれか1項に記載の撮像装置。
The image processing unit
Performing a first matching process between the live view image and a first reference inverted image obtained by inverting the live view image symmetrically with respect to a predetermined first reference line;
Performing a second matching process between the live view image and a second reference inverted image obtained by inverting the live view image symmetrically with respect to a predetermined second reference line;
The imaging device according to claim 1, wherein the second image data is generated based on a result of the first matching process and a result of the second matching process.
被写体像を撮像する撮像部を備える撮像装置の制御プログラムであって、
前記撮像部の出力から逐次生成されるライブビュー画像で構成される第1画像データと、前記ライブビュー画像の少なくとも一部の画像を予め定められた基準線に対して線対称に反転して生成される反転画像で構成される第2画像データとを生成する画像処理ステップと、
前記反転画像を前記ライブビュー画像に重畳する重畳処理ステップと
をコンピュータに実行させる、撮像装置の制御プログラム。
A control program for an imaging apparatus including an imaging unit that captures a subject image,
First image data composed of live view images sequentially generated from the output of the imaging unit and at least a part of the live view image are generated by inverting them symmetrically with respect to a predetermined reference line. An image processing step of generating second image data composed of the inverted image
A control program for an imaging apparatus, which causes a computer to execute a superimposition processing step of superimposing the inverted image on the live view image.
JP2012121296A 2012-05-28 2012-05-28 Imaging device, and control program of imaging device Pending JP2013247585A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012121296A JP2013247585A (en) 2012-05-28 2012-05-28 Imaging device, and control program of imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012121296A JP2013247585A (en) 2012-05-28 2012-05-28 Imaging device, and control program of imaging device

Publications (1)

Publication Number Publication Date
JP2013247585A true JP2013247585A (en) 2013-12-09

Family

ID=49847031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012121296A Pending JP2013247585A (en) 2012-05-28 2012-05-28 Imaging device, and control program of imaging device

Country Status (1)

Country Link
JP (1) JP2013247585A (en)

Similar Documents

Publication Publication Date Title
US9204051B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
JP2010177741A (en) Image capturing apparatus
JP6218378B2 (en) Image processing apparatus and image processing method
JP2010226157A (en) Camera, and image correction method
JP2009200560A (en) Imaging apparatus, imaging method, and program
JP2012222495A (en) Image processor, image processing method, and program
JP5955417B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
JP2013183306A (en) Imaging apparatus, imaging method, and program
JP5233727B2 (en) Electronic camera
JP2021021857A (en) Imaging apparatus and control method thereof
JP2020107956A (en) Imaging apparatus, imaging method, and program
JP2010081357A (en) Image processing apparatus, image processing method, image processing program, and imaging device
JP5761272B2 (en) Imaging apparatus, imaging method, and program
JP2009081530A (en) Imaging apparatus and imaging method
JP2013090241A (en) Display control device, imaging device, and display control program
JP6768449B2 (en) Imaging control device, control method and program of imaging device
JP2019087923A (en) Imaging apparatus, imaging method, and program
JP2019087924A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2015041865A (en) Image processing apparatus and image processing method
JP6376753B2 (en) Imaging apparatus, display control apparatus control method, and recording apparatus control method
JP2013247585A (en) Imaging device, and control program of imaging device
JP2011193496A (en) Imaging apparatus, imaging method, and imaging program
JP2012073512A (en) Photographing device and program
JP5423285B2 (en) camera
JP2014241621A (en) Imaging apparatus and program