JP2010050599A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2010050599A
JP2010050599A JP2008211503A JP2008211503A JP2010050599A JP 2010050599 A JP2010050599 A JP 2010050599A JP 2008211503 A JP2008211503 A JP 2008211503A JP 2008211503 A JP2008211503 A JP 2008211503A JP 2010050599 A JP2010050599 A JP 2010050599A
Authority
JP
Japan
Prior art keywords
image
electronic camera
display
image data
camera according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008211503A
Other languages
Japanese (ja)
Inventor
Norimitsu Asami
典充 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008211503A priority Critical patent/JP2010050599A/en
Publication of JP2010050599A publication Critical patent/JP2010050599A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera allowing a composition and an angle of view to be easily compared with those of a picked-up image. <P>SOLUTION: This electronic camera 1 includes: a display means 17 to display a reproduced image by image data; an imaging element 12 imaging an object image to output image data; a data reading means 18 to read image data included in a directed image file out of image files stored in a storage medium 51; an image generation means 13 to generate frame images by superposing the image data read by the data reading means 18 and image data repeatedly imaged and sequentially output by the imaging element 12 on each other in nearly the whole region of a screen; and a display control means 15 to sequentially display the frame images generated by the image generation means 13 on the display means 17. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、電子カメラに関する。   The present invention relates to an electronic camera.

自分が意図した構図による撮影を、他人に依頼するためのアシスト機能を備えたカメラが知られている(特許文献1参照)。カメラは、予め取得したプレ画像から輪郭線を抽出し、該輪郭線と撮影前のモニタ画像(スルー画像)とを重ねてモニタに表示することにより、被依頼者がプレ画像と同じ構図で構えることをアシストする。   2. Description of the Related Art A camera having an assist function for requesting another person to take a picture with a composition intended by him / her is known (see Patent Document 1). The camera extracts a contour line from a pre-image acquired in advance, and superimposes the contour line and the monitor image (through image) before photographing on the monitor so that the requestee holds the same composition as the pre-image. Assist that.

特開2006−222690号公報JP 2006-222690 A

従来技術では、プレ画像から輪郭線情報を抽出しなければならず、処理の負担が大きいという問題があった。   In the prior art, contour information must be extracted from the pre-image, and there is a problem that the processing load is large.

(1)本発明による電子カメラは、画像データによる再生画像を表示する表示手段と、被写体像を撮像し、画像データを出力する撮像素子と、記憶媒体に記憶されている画像ファイルのうち、指示された画像ファイルに含まれる画像データを読み出すデータ読み出し手段と、データ読み出し手段が読み出した画像データと、撮像素子が繰り返し撮像して逐次出力する画像データとを画面の略全域で重ね合わせてフレーム画像を生成する画像生成手段と、画像生成手段により生成されたフレーム画像を表示手段に逐次表示させる表示制御手段とを備えることを特徴とする。
(2)請求項1に記載の電子カメラにおいて、画像生成手段による重ね合わせ処理は、表示手段の表示画素に対応する画像データ同士の加算処理と、該加算処理の前または後に画像データに対して1未満のゲインをかける乗算処理とを含めてもよい。
(3)請求項1に記載の電子カメラにおいて、画像データはカラー情報を有してよく、画像生成手段は、データ読み出し手段が読み出したカラー画像データをモノクロ画像データ化した上で重ね合わせ処理を行うこともできる。
(4)請求項1に記載の電子カメラにおいて、画像生成手段は、操作部材が発する所定の操作信号に応じて重ね合わせ処理を終了し、撮像素子が繰り返し撮像して逐次出力する画像データのみに基づいてフレーム画像を生成することもできる。
(5)請求項4に記載の電子カメラにおいて、操作信号は、焦点調節処理の開始指示として発せられる信号でもよい。
(6)請求項4に記載の電子カメラにおいて、操作信号は、撮影処理の開始指示に先だって発せられる信号でもよい。
(7)請求項1に記載の電子カメラにおいて、撮像素子による撮像、画像生成手段による画像生成、および表示制御手段による表示制御は、それぞれ記録用の撮影処理開始が指示される前に行われてもよい。
(8)請求項1に記載の電子カメラにおいて、表示制御手段は、一覧表示指示に応じて記憶媒体に記憶されている画像ファイルの一覧を示す情報を表示手段に表示させ、データ読み出し手段は、表示手段に表示されている一覧表示の中から指示された画像ファイルに含まれる画像データを読み出すこともできる。
(9)請求項1に記載の電子カメラはさらに、位置情報を取得する位置情報取得手段を備えてもよい。この場合の表示制御手段は、一覧表示指示に応じて、記憶媒体に記憶されている画像ファイルであって、位置情報取得手段で取得された情報が示す位置から所定距離内で撮影された画像ファイルの一覧を示す情報を表示手段に表示させ、データ読み出し手段は、表示手段に表示されている一覧表示の中から指示された画像ファイルに含まれる画像データを読み出すこともできる。
(1) An electronic camera according to the present invention includes a display unit that displays a reproduced image based on image data, an image sensor that captures a subject image and outputs the image data, and an instruction among image files stored in a storage medium. A frame image is formed by superimposing data reading means for reading image data included in the image file, image data read by the data reading means, and image data repeatedly picked up by the image pickup device and sequentially output over almost the entire area of the screen. The image generating means for generating the image and the display control means for sequentially displaying the frame images generated by the image generating means on the display means.
(2) In the electronic camera according to claim 1, the superimposition processing by the image generation unit includes addition processing between image data corresponding to display pixels of the display unit, and image data before or after the addition processing. And a multiplication process for applying a gain of less than 1.
(3) In the electronic camera according to the first aspect, the image data may have color information, and the image generation unit converts the color image data read by the data reading unit into monochrome image data and performs an overlay process. It can also be done.
(4) In the electronic camera according to claim 1, the image generation unit finishes the superimposition process in response to a predetermined operation signal generated by the operation member, and only the image data that the image sensor repeatedly captures and sequentially outputs. A frame image can also be generated based on this.
(5) In the electronic camera according to the fourth aspect, the operation signal may be a signal issued as an instruction to start the focus adjustment process.
(6) In the electronic camera according to the fourth aspect, the operation signal may be a signal issued prior to an instruction to start photographing processing.
(7) In the electronic camera according to (1), the image pickup by the image pickup device, the image generation by the image generation means, and the display control by the display control means are each performed before the start of the recording process for recording is instructed. Also good.
(8) In the electronic camera according to claim 1, the display control unit causes the display unit to display information indicating a list of image files stored in the storage medium in response to the list display instruction, and the data reading unit includes: It is also possible to read out the image data included in the designated image file from the list display displayed on the display means.
(9) The electronic camera according to claim 1 may further include position information acquisition means for acquiring position information. In this case, the display control means is an image file stored in the storage medium in response to the list display instruction, and is an image file photographed within a predetermined distance from the position indicated by the information acquired by the position information acquisition means The information indicating the list is displayed on the display means, and the data reading means can read the image data included in the designated image file from the list display displayed on the display means.

本発明による電子カメラでは、構図や画角について撮影済み画像との比較が容易になる。   In the electronic camera according to the present invention, the composition and the angle of view can be easily compared with the captured image.

以下、図面を参照して本発明を実施するための最良の形態について説明する。図1は、本発明の一実施の形態による電子カメラ1の構成例を説明するブロック図である。図1において、電子カメラ1は、撮影光学系11と、撮像素子12と、画像処理回路13と、GPSユニット14と、CPU15と、バッファメモリ16と、表示装置17と、メモリカードインターフェース(I/F)18と、操作部材19とを備える。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 1 according to an embodiment of the present invention. In FIG. 1, an electronic camera 1 includes a photographing optical system 11, an image sensor 12, an image processing circuit 13, a GPS unit 14, a CPU 15, a buffer memory 16, a display device 17, a memory card interface (I / F) 18 and an operation member 19 are provided.

CPU15、バッファメモリ16、表示装置17、メモリカードインターフェース18、画像処理回路13、およびGPSユニット14は、それぞれがバス20を介して接続されている。   The CPU 15, the buffer memory 16, the display device 17, the memory card interface 18, the image processing circuit 13, and the GPS unit 14 are connected via a bus 20.

撮影光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図1を簡単にするため、撮影光学系11を単レンズとして図示している。   The photographing optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the image sensor 12. In order to simplify FIG. 1, the photographing optical system 11 is shown as a single lens.

撮像素子12は、受光面にフォトダイオードが二次元配列されたCCDイメージセンサやCMOSイメージセンサなどによって構成される。受光面上には、フォトダイオードの位置に対応してR(赤)、G(緑)およびB(青)のカラーフィルタ(不図示)が設けられている。撮像素子12がカラーフィルタを通して被写体像を撮像するため、撮像素子12から出力されるアナログ画像信号はRGB表色系の色情報を有する。アナログ画像信号は、不図示のA/D変換回路によってデジタル信号に変換された後、画像処理回路13に入力される。画像処理回路13は、デジタル画像信号に対して各種の画像処理(色補間処理、階調変換処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を施す。   The image sensor 12 is configured by a CCD image sensor, a CMOS image sensor, or the like in which photodiodes are two-dimensionally arranged on the light receiving surface. On the light receiving surface, R (red), G (green) and B (blue) color filters (not shown) are provided corresponding to the positions of the photodiodes. Since the image sensor 12 captures a subject image through the color filter, the analog image signal output from the image sensor 12 has RGB color system color information. The analog image signal is converted into a digital signal by an A / D conversion circuit (not shown) and then input to the image processing circuit 13. The image processing circuit 13 performs various types of image processing (color interpolation processing, gradation conversion processing, white balance adjustment processing, image compression processing, image expansion processing, etc.) on the digital image signal.

GPSユニット14は、CPU15からの指示に応じてGPS衛星30A、30Bからの電波を受信し、受信信号にのせられている情報を用いて電子カメラ1の測位情報(緯度、経度、高度)を算出する。具体的には、GPSユニットCPU141が受信回路142を制御する。受信回路142はアンテナ143を介して衛星電波を受信し、復調信号をGPSユニットCPU141へ送る。GPSユニットCPU141は、復調信号に基づいて所定の演算を行うことによって測位情報を求める。なお、図1においては2つのGPS衛星のみを図示している。   The GPS unit 14 receives radio waves from the GPS satellites 30A and 30B according to instructions from the CPU 15, and calculates positioning information (latitude, longitude, altitude) of the electronic camera 1 using information carried on the received signals. To do. Specifically, the GPS unit CPU 141 controls the receiving circuit 142. The receiving circuit 142 receives satellite radio waves via the antenna 143 and sends a demodulated signal to the GPS unit CPU 141. The GPS unit CPU 141 obtains positioning information by performing a predetermined calculation based on the demodulated signal. In FIG. 1, only two GPS satellites are shown.

CPU15は、内蔵する不揮発性メモリに記憶するプログラムを実行することにより、電子カメラ1が行う動作を制御する。CPU15は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、たとえば、スルー画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式を用いる。スルー画像は、撮影指示前に撮像素子12によって所定のフレームレート(たとえば30コマ/毎秒)で繰り返し取得されるモニタ用画像のことであり、ライブビュー画像とも呼ばれる。   The CPU 15 controls an operation performed by the electronic camera 1 by executing a program stored in a built-in nonvolatile memory. The CPU 15 also performs AF (autofocus) operation control and automatic exposure (AE) calculation. The AF operation uses, for example, a contrast detection method for obtaining a focus position of a focusing lens (not shown) based on contrast information of a through image. The through image is a monitor image that is repeatedly acquired by the image sensor 12 at a predetermined frame rate (for example, 30 frames / second) before a shooting instruction, and is also called a live view image.

表示装置17は液晶パネルによって構成され、CPU15からの指示に応じて画像や操作メニュー画面などを表示する。バッファメモリ16はCPU15のワークメモリとして使用される。また、バッファメモリ16は、画像処理回路13による画像処理の前工程や後工程でのデジタル画像データを一時的に記憶する。   The display device 17 is composed of a liquid crystal panel, and displays an image, an operation menu screen, and the like according to an instruction from the CPU 15. The buffer memory 16 is used as a work memory for the CPU 15. The buffer memory 16 temporarily stores digital image data in the pre-process and post-process of image processing by the image processing circuit 13.

メモリカードインターフェース18はコネクタ(不図示)を有し、該コネクタにメモリカードなどの記憶媒体51が接続される。メモリカードインターフェース18は、接続された記憶媒体51に対するデータの書き込みや、記憶媒体51からのデータの読み込みを行う。記憶媒体51は、半導体メモリを内蔵したメモリカード、またはハードディスクドライブなどで構成される。   The memory card interface 18 has a connector (not shown), and a storage medium 51 such as a memory card is connected to the connector. The memory card interface 18 writes data to the connected storage medium 51 and reads data from the storage medium 51. The storage medium 51 is configured by a memory card incorporating a semiconductor memory, a hard disk drive, or the like.

操作部材19は、不図示のレリーズボタン、ズームスイッチ、十字スイッチ、メニュースイッチなどを含む。操作部材19は、モード切替え操作やメニュー選択操作など、各操作に応じた操作信号をCPU15へ送出する。   The operation member 19 includes a release button (not shown), a zoom switch, a cross switch, a menu switch, and the like. The operation member 19 sends an operation signal corresponding to each operation such as a mode switching operation and a menu selection operation to the CPU 15.

本実施形態は、ライブビュー表示を行う場合の動作に特徴を有するので、以下、ライブビュー表示時にCPU15が実行する処理を中心に、図2に例示するフローチャートを参照して説明する。CPU15は、たとえば、電子カメラ1が撮影モードに切り替えられた場合に、図2による処理を行うプログラムを繰り返し行う。   Since the present embodiment is characterized in the operation when performing live view display, the following description will be made with reference to the flowchart illustrated in FIG. 2 focusing on the processing executed by the CPU 15 during live view display. For example, when the electronic camera 1 is switched to the shooting mode, the CPU 15 repeatedly performs a program for performing the processing illustrated in FIG.

図2のステップS11において、CPU15は、撮像素子12にライブビュー用の撮像を開始させ、取得された画像データに基づくライブビュー画像を表示装置17に表示させてステップS12へ進む。図3は、ライブビュー画像を表示する表示装置17の表示画面を例示する図である。   In step S11 of FIG. 2, the CPU 15 causes the image sensor 12 to start imaging for live view, causes the display device 17 to display a live view image based on the acquired image data, and proceeds to step S12. FIG. 3 is a diagram illustrating a display screen of the display device 17 that displays a live view image.

ステップS12において、CPU15は、画像選択操作が行われたか否かを判定する。CPU15は、操作部材19を構成するサムネイル表示スイッチ(不図示)から操作信号が入力された場合に、ステップS12を肯定判定してステップS13へ進む。CPU15は、操作部材19を構成するサムネイル表示スイッチ(不図示)から操作信号が入力された場合には、ステップS12を否定判定してステップS16へ進む。ステップS12を否定判定する場合は、後述する合成表示を行わない。   In step S12, the CPU 15 determines whether an image selection operation has been performed. When an operation signal is input from a thumbnail display switch (not shown) constituting the operation member 19, the CPU 15 makes a positive determination in step S12 and proceeds to step S13. When an operation signal is input from a thumbnail display switch (not shown) constituting the operation member 19, the CPU 15 makes a negative determination in step S12 and proceeds to step S16. When a negative determination is made in step S12, composite display described later is not performed.

ステップS13において、CPU15は、ライブビュー画像に代えて図4に例示する画像選択画面を表示装置17に表示させる。画像選択画面は、記憶媒体51の所定フォルダ内に格納されている全ての画像ファイルに記録されている画像データに基づいて再生したサムネイル画像を一覧表示したものである。   In step S13, the CPU 15 causes the display device 17 to display an image selection screen illustrated in FIG. 4 instead of the live view image. The image selection screen is a list of thumbnail images reproduced based on image data recorded in all image files stored in a predetermined folder of the storage medium 51.

CPU15はさらに、サムネイル画像の1つを囲むカーソル42を表示させる。操作部材19を構成する十字スイッチ(不図示)が上下方向に押下操作された場合、CPU15はカーソル42の表示位置を上下に移動させる。また、十字スイッチ(不図示)が左右方向に押下操作された場合、CPU15はカーソル42の表示位置を左右に移動させる。   The CPU 15 further displays a cursor 42 surrounding one of the thumbnail images. When a cross switch (not shown) constituting the operation member 19 is pressed in the vertical direction, the CPU 15 moves the display position of the cursor 42 up and down. When a cross switch (not shown) is pressed in the left-right direction, the CPU 15 moves the display position of the cursor 42 to the left and right.

ステップS14において、CPU15は、選択終了操作されたか否かを判定する。CPU15は、たとえば、操作部材19を構成するOKスイッチ(不図示)が押下操作されると、その時点でカーソル42が囲むサムネイル画像を「選択画像」とした上で、ステップS14を肯定判定してステップS15へ進む。CPU15は、OKスイッチ(不図示)が押下操作されない場合には、ステップS14を否定判定してステップS13へ戻る。ステップS13へ戻る場合は、以上の処理を繰り返す。   In step S14, the CPU 15 determines whether or not a selection end operation has been performed. For example, when an OK switch (not shown) constituting the operation member 19 is pressed down, the CPU 15 determines that the thumbnail image surrounded by the cursor 42 at that time is “selected image”, and makes a positive determination in step S14. Proceed to step S15. If the OK switch (not shown) is not depressed, the CPU 15 makes a negative determination in step S14 and returns to step S13. When returning to step S13, the above processing is repeated.

ステップS15において、CPU15は、画像選択画面に代えてライブビュー画像および「選択画像」の画像データに基づく再生画像を合成して表示装置17に表示させる。図5は、この場合の表示装置17の表示画面を例示する図である。CPU15は、図3の場合と同様のライブビュー画像をカラーで、「選択画像」の画像データに基づく再生画像をモノクロ画像化して合成する。   In step S <b> 15, the CPU 15 synthesizes a playback image based on the live view image and the image data of the “selected image” instead of the image selection screen and displays the synthesized image on the display device 17. FIG. 5 is a diagram illustrating a display screen of the display device 17 in this case. The CPU 15 synthesizes a reproduction image based on the image data of the “selected image” as a monochrome image, in color, similar to the case of FIG.

合成処理は画像処理回路13に行わせる。画像処理回路13は、バッファメモリ16内のライブビュー画像データと、バッファメモリ16内のモノクロ画像データとを画素位置(表示装置17の表示画素の位置)ごとに表示画面の全域(画像を表示する範囲)で足し合わせ、加算後の画像データに対するゲインを1/2倍にして合成表示用のデータを生成する。なお、バッファメモリ16内のライブビュー画像データと、バッファメモリ16内のモノクロ画像データとにそれぞれ1/2倍のゲインを掛けた上で、両画像データを足し合わせることによって合成表示用のデータを生成してもよい。   The composition processing is performed by the image processing circuit 13. The image processing circuit 13 displays the live view image data in the buffer memory 16 and the monochrome image data in the buffer memory 16 over the entire display screen (images) for each pixel position (display pixel position of the display device 17). Range), and the gain for the added image data is halved to generate composite display data. Note that the live view image data in the buffer memory 16 and the monochrome image data in the buffer memory 16 are multiplied by a gain of 1/2, respectively, and the two image data are added to obtain the composite display data. It may be generated.

表示装置17に図5に例示する合成画像が表示されている状態で、電子カメラ1を構えるユーザーは、「選択画像」の撮影時と同様の構図、画角が得られるように、自身の立ち位置や電子カメラ1の向き、撮影光学系11のズーム位置(倍率)を変える。被写体人物の立ち位置を移動させてもよい。「選択画像」の撮影時とライブビュー画像の構図、画角が合致する場合は、合成画像の輝度が高まって明るく表示される。   A user holding the electronic camera 1 in a state where the composite image illustrated in FIG. 5 is displayed on the display device 17, stands so that the same composition and angle of view as when the “selected image” is captured can be obtained. The position, the direction of the electronic camera 1, and the zoom position (magnification) of the photographing optical system 11 are changed. The standing position of the subject person may be moved. When the composition and angle of view of the live view image coincide with those when the “selected image” is captured, the brightness of the composite image is increased and displayed brightly.

ステップS16において、CPU15は、レリーズ半押し操作されたか否かを判定する。CPU15は、操作部材19を構成するレリーズボタン(不図示)が半押し操作された場合にステップS16を肯定判定してステップS17へ進む。CPU15は、レリーズボタンが半押し操作されない場合にはステップS16を否定判定し、ステップS12へ戻る。ステップS12へ戻る場合は、以上の処理を繰り返す。   In step S16, the CPU 15 determines whether or not the release half-press operation has been performed. If the release button (not shown) constituting the operation member 19 is half-pressed, the CPU 15 makes a positive determination in step S16 and proceeds to step S17. If the release button is not pressed halfway, the CPU 15 makes a negative determination in step S16 and returns to step S12. When returning to step S12, the above process is repeated.

ステップS17において、CPU15は、「選択画像」表示を終了させてステップS18へ進む。これにより画像処理回路13は、上記合成処理、および1/2倍にするゲイン調整を終了し、ライブビュー画像のみを表示装置17に表示するための表示データを生成する(図6)。   In step S17, the CPU 15 ends the “selected image” display and proceeds to step S18. As a result, the image processing circuit 13 ends the synthesis process and the gain adjustment to be halved, and generates display data for displaying only the live view image on the display device 17 (FIG. 6).

ステップS18において、CPU15は、レリーズ全押し操作されたか否かを判定する。CPU15は、操作部材19を構成するレリーズボタン(不図示)が全押し操作された場合にステップS18を肯定判定してステップS19へ進む。CPU15は、レリーズボタンが全押し操作されない場合にはステップS18を否定判定し、ステップS22へ進む。   In step S18, the CPU 15 determines whether or not the release full-press operation has been performed. If the release button (not shown) constituting the operation member 19 is fully pressed, the CPU 15 makes a positive determination in step S18 and proceeds to step S19. If the release button is not fully pressed, the CPU 15 makes a negative determination in step S18 and proceeds to step S22.

ステップS22において、CPU15は、半押し操作が解除されたか否かを判定する。CPU15は、操作部材19を構成するレリーズボタン(不図示)の半押し操作が解除されている場合にステップS22を肯定判定してステップS12へ戻る。CPU15は、レリーズボタンが継続して半押し操作されている場合にはステップS22を否定判定し、ステップS18へ戻る。   In step S22, the CPU 15 determines whether or not the half-press operation has been released. When the half-press operation of a release button (not shown) constituting the operation member 19 is released, the CPU 15 makes a positive determination in step S22 and returns to step S12. If the release button is continuously pressed halfway, the CPU 15 makes a negative determination in step S22 and returns to step S18.

ステップS19において、CPU15は撮影処理を開始する。具体的には、撮像素子12を初期化(電荷排出など)させた上で撮像素子12に撮影用の電荷蓄積、蓄積電荷の掃き出しをさせてステップS20へ進む。   In step S19, the CPU 15 starts shooting processing. Specifically, after the image sensor 12 is initialized (charge discharge etc.), the image sensor 12 is caused to store charge for photographing and sweep out the stored charge, and the process proceeds to step S20.

ステップS20において、CPU15は画像処理回路13へ指示を送り、撮像画像に対して所定の画像処理を行わせてステップS21へ進む。ステップS21において、CPU15はメモリカードインターフェース18へ指示を送り、画像データを格納した画像ファイルを記憶媒体51に記録させて図2による処理を終了する。   In step S20, the CPU 15 sends an instruction to the image processing circuit 13, performs predetermined image processing on the captured image, and proceeds to step S21. In step S21, the CPU 15 sends an instruction to the memory card interface 18, records the image file storing the image data in the storage medium 51, and ends the process shown in FIG.

以上説明した処理は、電子カメラ1の操作部材19から操作信号が入力されない状態が所定時間以上継続した場合にも終了する。   The process described above is also terminated when a state in which no operation signal is input from the operation member 19 of the electronic camera 1 continues for a predetermined time or longer.

以上説明した実施形態によれば、次の作用効果が得られる。
(1)過去に撮影した画像である「選択画像」と、現在撮像されているライブビュー画像とを表示装置17に合成表示したので、過去に撮影した画像のプリントと表示装置17に表示されるライブビュー画像とを見比べる場合に比べて、両画像間の構図や画角の比較がしやすくなる。また、輪郭線などの抽出処理が不要なので、合成表示のために行う処理の負担も軽い。
According to the embodiment described above, the following operational effects can be obtained.
(1) Since a “selected image” that is an image captured in the past and a live view image that is currently captured are combined and displayed on the display device 17, a print of an image captured in the past is displayed on the display device 17. Compared to the case of comparing with a live view image, it becomes easier to compare the composition and angle of view between both images. In addition, since an extraction process such as a contour line is not necessary, the processing load for the composite display is light.

(2)一方の画像(本例ではライブビュー画像)をカラーで、他方の画像(本例では「選択画像」)をモノクロで、それぞれ表示装置17に表示するようにしたので、両画像をともにカラー表示、あるいはモノクロ表示する場合に比べて、両画像を識別しやすくなる。 (2) Since one image (live view image in this example) is displayed in color and the other image (“selected image” in this example) is displayed in monochrome on the display device 17, both images are displayed together. Both images can be easily identified as compared to color display or monochrome display.

(3)ライブビュー画像データと、「選択画像」の画像データとを足し合わせ、加算後の画像データに対するゲインを1/2倍にして合成表示用のデータを生成したので、表示装置17に表示されるそれぞれの画像の明るさが低下する。両画像間で構図および画角が合致した場合には加算後のデータ値が大きくなることから、表示装置17に表示される合成後の画像が明るく目立つようになり、構図、画角が合致した状態をわかりやすく知らせることができる。また、両画像に対するゲインを1/2倍にしておくことにより、合成後の画像の明るい領域の表示が明るすぎて、いわゆる白飛びが生じることを防止できる。 (3) Since the live view image data and the image data of the “selected image” are added and the gain for the added image data is increased by a factor of 2, the combined display data is generated. The brightness of each image is reduced. When the composition and the angle of view match between both images, the data value after the addition becomes large. Therefore, the synthesized image displayed on the display device 17 becomes bright and conspicuous, and the composition and the angle of view match. It is possible to inform the state in an easy-to-understand manner. Further, by setting the gain for both images to ½ times, it is possible to prevent the so-called whiteout from occurring because the display of the bright area of the combined image is too bright.

(4)レリーズボタンが半押し操作された場合に合成表示を終了してライブビュー画像の単独表示へ切り替えるようにしたので、合成表示している場合に比べて、ライブビュー画像におけるフォーカス調節状態などを確認しやすくなる。 (4) When the release button is pressed halfway down, the composite display is ended and the display is switched to the single display of the live view image. Therefore, the focus adjustment state in the live view image is compared to the case of the composite display. It becomes easy to confirm.

(変形例1)
上述した例では、合成表示(ステップS15)の際にライブビュー画像をカラーで、「選択画像」をモノクロで、それぞれ表示装置17に表示するようにした。この代わりに、「選択画像」をセピア調(茶褐色によるモノトーン)画像で表示させてもよい。また、黒に限らず、他の色を基調にするモノトーン画像で表示しても構わない。
(Modification 1)
In the above-described example, the live view image is displayed in color and the “selected image” is displayed in monochrome on the display device 17 during the composite display (step S15). Instead, the “selected image” may be displayed as a sepia tone (monotone with brownish brown) image. Further, not only black but also a monotone image based on other colors may be displayed.

(変形例2)
ライブビュー画像データと「選択画像」の画像データとを1:1の割合で足し合わせ、加算後の画像データに対するゲインを1/2倍にして合成表示用のデータを生成したが、ライブビュー画像データと「選択画像」の画像データとの比率をを異ならせてもよい。たとえば、ライブビュー画像データと「選択画像」の画像データとを3:7の割合で足し合わせ、加算後の画像データに対するゲインを1/2倍にして合成表示用のデータを生成する。「選択画像」の画像データをライブビュー画像に比べて強調することで、構図、画角合わせの目標がわかりやすくなる。なお、ゲインの値は合成後の画像の明るい領域の飽和(白飛び)を抑えられれば1/2倍に限られず、1未満であればよい。
(Modification 2)
The live view image data and the image data of the “selected image” are added at a ratio of 1: 1, and the gain for the added image data is halved to generate composite display data. The ratio between the data and the image data of the “selected image” may be different. For example, the live view image data and the image data of the “selected image” are added at a ratio of 3: 7, and the gain for the added image data is increased by a factor of 2 to generate composite display data. By emphasizing the image data of the “selected image” as compared with the live view image, the composition and angle of view targets can be easily understood. Note that the value of the gain is not limited to ½ times as long as saturation (out-of-white) of a bright area of the combined image can be suppressed, and may be less than 1.

(変形例3)
合成表示を終了してライブビュー画像の単独表示へ切り替えるタイミングとして、レリーズボタンが半押し操作されたタイミングを例に説明した。この代わりに、AF動作を開始させるための操作部材が操作されたタイミング、または専用の合成表示終了スイッチが操作されたタイミングで行うように構成してもよい。
(Modification 3)
The timing at which the release button is pressed halfway has been described as an example of the timing at which the composite display is ended and the live view image is switched to the single display. Instead, it may be configured to be performed at the timing when the operation member for starting the AF operation is operated, or when the dedicated composite display end switch is operated.

(変形例4)
上記実施形態では、画像選択画面の表示(ステップS13)として、記憶媒体51の所定フォルダ内に格納されている全ての画像ファイルに基づくサムネイル画像を、「選択画像」の候補として一覧表示する例を説明した。この代わりに、たとえばExif情報として画像ファイルに含まれている撮影位置を示す情報を参照し、電子カメラ1の現在の位置(GPSユニット14によって取得される位置情報)から所定距離内で取得された画像ファイルのみに基づくサムネイル画像を一覧表示させてもよい。
(Modification 4)
In the above embodiment, as the display of the image selection screen (step S13), an example in which thumbnail images based on all the image files stored in the predetermined folder of the storage medium 51 are displayed as a list of “selected image” candidates. explained. Instead, for example, referring to information indicating the shooting position included in the image file as Exif information, the information is acquired within a predetermined distance from the current position of the electronic camera 1 (position information acquired by the GPS unit 14). A list of thumbnail images based only on the image file may be displayed.

変形例4によれば、「選択画像」の候補数が絞られて一覧表示されるサムネイル画像の数が減少して画像選択操作が行いやすくなる。さらに、季節の変化や時代の移り変わりによって撮影場面が変化している場合でも、一覧表示するサムネイル画像の中に「選択画像」を自動的に含めることができる。   According to the fourth modification, the number of thumbnail images displayed in a list by reducing the number of candidates for “selected images” is reduced, and the image selection operation is facilitated. Furthermore, even when the shooting scene changes due to changes in seasons or changes in times, “selected images” can be automatically included in the thumbnail images displayed in a list.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

本発明の一実施の形態による電子カメラの構成例を説明するブロック図である。It is a block diagram explaining the structural example of the electronic camera by one embodiment of this invention. 撮影モードに切り替えられた場合にCPUが行う処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the process which CPU performs when it switches to imaging | photography mode. ライブビュー画像を表示する画面を例示する図である。It is a figure which illustrates the screen which displays a live view image. 画像選択画面を例示する図である。It is a figure which illustrates an image selection screen. 合成画像を表示する画面を例示する図である。It is a figure which illustrates the screen which displays a synthesized image. ライブビュー画像を表示する画面を例示する図である。It is a figure which illustrates the screen which displays a live view image.

符号の説明Explanation of symbols

1…電子カメラ
12…撮像素子
13…画像処理回路
14…GPSユニット
15…CPU
16…バッファメモリ
17…表示装置
18…メモリカードインターフェース
19…操作部材
51…メモリカード
DESCRIPTION OF SYMBOLS 1 ... Electronic camera 12 ... Image pick-up element 13 ... Image processing circuit 14 ... GPS unit 15 ... CPU
16 ... Buffer memory 17 ... Display device 18 ... Memory card interface 19 ... Operation member 51 ... Memory card

Claims (9)

画像データによる再生画像を表示する表示手段と、
被写体像を撮像し、画像データを出力する撮像素子と、
記憶媒体に記憶されている画像ファイルのうち、指示された画像ファイルに含まれる画像データを読み出すデータ読み出し手段と、
前記データ読み出し手段が読み出した画像データと、前記撮像素子が繰り返し撮像して逐次出力する画像データとを画面の略全域で重ね合わせてフレーム画像を生成する画像生成手段と、
前記画像生成手段により生成されたフレーム画像を前記表示手段に逐次表示させる表示制御手段とを備えることを特徴とする電子カメラ。
Display means for displaying a reproduced image by image data;
An image sensor that captures a subject image and outputs image data;
Data reading means for reading out image data included in the designated image file among the image files stored in the storage medium;
Image generation means for generating a frame image by superimposing image data read by the data reading means and image data repeatedly picked up and sequentially output by the image sensor over substantially the entire area of the screen;
An electronic camera comprising: display control means for sequentially displaying the frame image generated by the image generation means on the display means.
請求項1に記載の電子カメラにおいて、
前記画像生成手段による重ね合わせ処理は、前記表示手段の表示画素に対応する画像データ同士の加算処理と、該加算処理の前または後に前記画像データに対して1未満のゲインをかける乗算処理とを含むことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The superimposition processing by the image generation means includes an addition process between image data corresponding to display pixels of the display means, and a multiplication process that applies a gain of less than 1 to the image data before or after the addition process. An electronic camera characterized by including.
請求項1に記載の電子カメラにおいて、
前記画像データはカラー情報を有し、
前記画像生成手段は、前記データ読み出し手段が読み出したカラー画像データをモノクロ画像データ化した上で重ね合わせ処理を行うことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The image data has color information,
The electronic camera according to claim 1, wherein the image generation unit performs a superimposition process after converting the color image data read by the data reading unit into monochrome image data.
請求項1に記載の電子カメラにおいて、
前記画像生成手段は、操作部材が発する所定の操作信号に応じて前記重ね合わせ処理を終了し、前記撮像素子が繰り返し撮像して逐次出力する画像データのみに基づいてフレーム画像を生成することを特徴とする電子カメラ。
The electronic camera according to claim 1,
The image generation means terminates the superimposition process in response to a predetermined operation signal generated by an operation member, and generates a frame image based only on image data repeatedly captured and sequentially output by the image sensor. And an electronic camera.
請求項3に記載の電子カメラにおいて、
前記操作信号は、焦点調節処理の開始指示として発せられる信号であることを特徴とする電子カメラ。
The electronic camera according to claim 3.
The electronic camera according to claim 1, wherein the operation signal is a signal issued as an instruction to start focus adjustment processing.
請求項3に記載の電子カメラにおいて、
前記操作信号は、撮影処理の開始指示に先だって発せられる信号であることを特徴とする電子カメラ。
The electronic camera according to claim 3.
The electronic camera according to claim 1, wherein the operation signal is a signal issued prior to an instruction to start photographing processing.
請求項1に記載の電子カメラにおいて、
前記撮像素子による撮像、前記画像生成手段による画像生成、および前記表示制御手段による表示制御は、それぞれ記録用の撮影処理開始が指示される前に行われることを特徴とする電子カメラ。
The electronic camera according to claim 1,
The electronic camera, wherein imaging by the imaging device, image generation by the image generation unit, and display control by the display control unit are performed before an instruction to start a recording process for recording is given.
請求項1に記載の電子カメラにおいて、
前記表示制御手段は、一覧表示指示に応じて前記記憶媒体に記憶されている画像ファイルの一覧を示す情報を前記表示手段に表示させ、
前記データ読み出し手段は、前記表示手段に表示されている一覧表示の中から指示された画像ファイルに含まれる画像データを読み出すことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The display control means causes the display means to display information indicating a list of image files stored in the storage medium in response to a list display instruction,
The electronic camera according to claim 1, wherein the data reading means reads image data contained in an instructed image file from the list display displayed on the display means.
請求項1に記載の電子カメラにおいて、
位置情報を取得する位置情報取得手段をさらに備え、
前記表示制御手段は、一覧表示指示に応じて、前記記憶媒体に記憶されている画像ファイルであって、前記位置情報取得手段で取得された情報が示す位置から所定距離内で撮影された画像ファイルの一覧を示す情報を前記表示手段に表示させ、
前記データ読み出し手段は、前記表示手段に表示されている一覧表示の中から指示された画像ファイルに含まれる画像データを読み出すことを特徴とする電子カメラ。
The electronic camera according to claim 1,
It further comprises position information acquisition means for acquiring position information,
The display control means is an image file stored in the storage medium in response to a list display instruction, and is an image file taken within a predetermined distance from the position indicated by the information acquired by the position information acquisition means To display information indicating a list of
The electronic camera according to claim 1, wherein the data reading means reads image data contained in an instructed image file from the list display displayed on the display means.
JP2008211503A 2008-08-20 2008-08-20 Electronic camera Pending JP2010050599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008211503A JP2010050599A (en) 2008-08-20 2008-08-20 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008211503A JP2010050599A (en) 2008-08-20 2008-08-20 Electronic camera

Publications (1)

Publication Number Publication Date
JP2010050599A true JP2010050599A (en) 2010-03-04

Family

ID=42067353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008211503A Pending JP2010050599A (en) 2008-08-20 2008-08-20 Electronic camera

Country Status (1)

Country Link
JP (1) JP2010050599A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253448A (en) * 2011-05-31 2012-12-20 Olympus Imaging Corp Imaging apparatus, imaging method and imaging program
JP2012253449A (en) * 2011-05-31 2012-12-20 Olympus Imaging Corp Imaging apparatus, imaging method and imaging program
US9019400B2 (en) 2011-05-31 2015-04-28 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253448A (en) * 2011-05-31 2012-12-20 Olympus Imaging Corp Imaging apparatus, imaging method and imaging program
JP2012253449A (en) * 2011-05-31 2012-12-20 Olympus Imaging Corp Imaging apparatus, imaging method and imaging program
US9019400B2 (en) 2011-05-31 2015-04-28 Olympus Imaging Corp. Imaging apparatus, imaging method and computer-readable storage medium

Similar Documents

Publication Publication Date Title
US9473698B2 (en) Imaging device and imaging method
JP5235798B2 (en) Imaging apparatus and control method thereof
JP4757113B2 (en) Imaging apparatus and control method thereof, information processing apparatus, printing apparatus, and print data generation method
JP4860568B2 (en) Imaging device
JP2009147730A (en) Moving image generating apparatus, moving image shooting apparatus, moving image generating method, and program
JP2012075018A (en) Reproduction device and method, and program
JP2004128584A (en) Photographing apparatus
JP2009219020A (en) Imaging apparatus, control method of imaging device, and control program of imaging device
JP6325841B2 (en) Imaging apparatus, imaging method, and program
JP2015231058A (en) Imaging device, control method for imaging device and program
KR20100084140A (en) Imaging apparatus, image processing method, and image processing program
JP2008028960A (en) Photographing apparatus and exposure control method
JP2007135133A (en) Imaging apparatus
JP6304293B2 (en) Image processing apparatus, image processing method, and program
JP2002112095A (en) Digital still camera
JP5105139B2 (en) Imaging apparatus, display method, and program
JP4189820B2 (en) Imaging apparatus and image recording method
JP4792929B2 (en) Digital camera
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP2010141609A (en) Imaging apparatus
JP2010050599A (en) Electronic camera
JP2010021710A (en) Imaging device, image processor, and program
JP4013026B2 (en) Electronic camera and image display method during automatic focus adjustment
JP4522232B2 (en) Imaging device
JP4710351B2 (en) Digital camera and program