JP2004173300A - Image pickup device and picked-up image working method - Google Patents

Image pickup device and picked-up image working method Download PDF

Info

Publication number
JP2004173300A
JP2004173300A JP2004000863A JP2004000863A JP2004173300A JP 2004173300 A JP2004173300 A JP 2004173300A JP 2004000863 A JP2004000863 A JP 2004000863A JP 2004000863 A JP2004000863 A JP 2004000863A JP 2004173300 A JP2004173300 A JP 2004173300A
Authority
JP
Japan
Prior art keywords
image
pattern
captured
unit
cutout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004000863A
Other languages
Japanese (ja)
Inventor
Jun Iijima
純 飯島
Kazuto Yamamoto
一人 山本
Takahiro Fuse
孝弘 布施
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004000863A priority Critical patent/JP2004173300A/en
Publication of JP2004173300A publication Critical patent/JP2004173300A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup device and an image working method appropriate for cutting a desired portion in a picked-up image or pasting the cut-out image on the other image. <P>SOLUTION: The image pickup device is provided with an image pickup means for picking up an image of an object, a frame image storage means for storing a frame image to be composed of a picked-up image (A) which is picked up by the image pickup means, a frame image reproducing means for reproducing desired one of frame images (B) stored in the frame image storage means as a reproducing frame image, and a composition means for producing a synthetic image (C) composing the picked-up image and the reproducing frame image. <P>COPYRIGHT: (C)2004,JPO

Description

この発明は、被写体を撮像する撮像装置および撮像画像加工方法に関し、特にデジタルスチルカメラに適用して好適であるが、これのみに限定されない。   The present invention relates to an image pickup apparatus and an image pickup image processing method for picking up an image of a subject, and is particularly suitable for application to a digital still camera, but is not limited thereto.

近年、CCD等の撮像素子で電気信号化した被写体像をデジタルデータ(以下、画像データ)に変換し記録媒体に記録しておき、使用者の所望により画像を再生できるデジタルカメラが開発され、大衆向け画像記録/再生装置およびパーソナルコンピュータ等の画像入力装置として市場に普及しつつある。また、このようなデジタルカメラの多くは撮影時に被写体像を表示すると共に再生時に再生画像を表示する表示装置を備えている。   2. Description of the Related Art In recent years, a digital camera has been developed which converts a subject image converted into an electrical signal by an image pickup device such as a CCD into digital data (hereinafter referred to as image data) and records it on a recording medium, and can reproduce the image as desired by a user. Recording / reproducing devices for personal computers and image input devices such as personal computers. Many of such digital cameras include a display device that displays a subject image at the time of shooting and also displays a reproduced image at the time of reproduction.

デジタルカメラに記憶されている撮像画像データを加工するためには、撮像画像データをパーソナルコンピュータ等の情報処理装置に記憶させ、記憶させた撮像画像データを画像処理用のアプリケーションプログラムを用いて加工処理を行なっている。   In order to process the captured image data stored in the digital camera, the captured image data is stored in an information processing device such as a personal computer, and the stored captured image data is processed using an application program for image processing. Are doing.

しかしながら、既存の画像処理用のアプリケーションプログラムを用いて撮像画像データを加工する場合、加工操作が極めて煩雑であり、例えば、撮像画像中の所望部分を切抜いて他の画像に合成する、といったことが簡単にできなかった。   However, when processing captured image data using an existing application program for image processing, the processing operation is extremely complicated. For example, a desired portion in a captured image is cut out and combined with another image. I couldn't do it easily.

本発明は、撮像画像中の所望部分を切抜いたり、切抜いた画像を他の画像に貼り付けるのに好適な撮像装置および画像加工方法の提供を目的とする。   An object of the present invention is to provide an imaging apparatus and an image processing method suitable for cutting out a desired portion in a captured image and pasting the cut-out image to another image.

上記の目的を達成するために第1の発明の撮像装置は、被写体を撮像する撮像手段と、撮像手段により撮像された撮像画像と合成するフレーム画像を記憶するフレーム画像記憶手段と、フレーム画像記憶手段に記憶されているフレーム画像の中から所望のものを再生フレーム画像として再生させるフレーム画像再生手段と、撮像画像と再生フレーム画像とを合成した合成画像を生成する合成手段と、を備えることを特徴とする。   In order to achieve the above object, an image pickup apparatus according to a first aspect of the present invention includes an image pickup means for picking up an image of a subject, a frame image storage means for storing a frame image combined with a picked up image picked up by the image pickup means, and a frame image storage Frame image reproducing means for reproducing a desired one of the frame images stored in the means as a reproduced frame image, and synthesizing means for generating a synthesized image obtained by synthesizing the captured image and the reproduced frame image. Features.

また、上記第1の発明の撮像装置は、撮像手段により撮像された撮像画像を記憶する撮像画像記憶手段と、撮像画像記憶手段に記憶されている撮像画像のなかから所望のものを再生画像として再生させる撮像再生手段とを備え、合成手段は前記撮像画像再生手段により再生された再生撮像画像と再生フレーム画像とを合成した合成画像を生成するように構成してもよい。   Further, the imaging apparatus according to the first aspect of the invention includes a captured image storage unit that stores a captured image captured by the imaging unit, and a desired image among the captured images stored in the captured image storage unit as a reproduced image. An image reproducing means for reproducing the image may be provided, and the synthesizing means may be configured to generate a synthetic image obtained by synthesizing the reproduced captured image reproduced by the captured image reproducing means and the reproduced frame image.

また、上記第1の発明の各撮像装置は、合成画像を表示する表示手段をさらに備えるようにしてもよい。   Further, each of the imaging devices according to the first invention may further include a display unit that displays the composite image.

また、上記第1の発明の各撮像装置は、合成画像における撮像画像の相対的な位置を調整する調整手段をさらに備えるように構成してもよい。   Further, each of the imaging devices according to the first aspect of the invention may be configured to further include an adjusting unit that adjusts a relative position of the captured image in the composite image.

また、上記第1の発明の各撮像装置は、撮像画像をマスクするマスク画像を記憶するマスク画像記憶手段と、撮像画像と前記マスク画像とを合成して、フレーム画像を生成する生成手段とをさらに備えるようにしてもよい。   Each of the imaging devices according to the first invention includes a mask image storage unit that stores a mask image that masks the captured image, and a generation unit that combines the captured image with the mask image to generate a frame image. You may make it provide further.

また、上記第1の発明の各撮像装置は、合成画像を記憶する合成画像記憶手段をさらに備えるようにしてもよい。   Each of the imaging devices according to the first aspect of the present invention may further include a composite image storage unit that stores a composite image.

また、第2の発明の撮像装置は、被写体を撮像し撮像画像を出力する撮像手段と、撮像手段から出力された撮像画像を記憶する撮像画像記憶手段と、複数のパターンを記憶するパターン記憶手段と、パターン記憶手段に記憶されている複数のパターンの中から所望のものを選択するパターン選択手段と、パターン選択手段により選択されたパターンを用いて前記撮像画像記憶手段に記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段とを有することを特徴とする。   Further, an imaging device according to a second aspect of the present invention is an imaging device for imaging a subject and outputting a captured image, a captured image storage device for storing a captured image output from the imaging device, and a pattern storage device for storing a plurality of patterns. Pattern selecting means for selecting a desired pattern from a plurality of patterns stored in the pattern storing means, and a captured image stored in the captured image storing means using the pattern selected by the pattern selecting means And a cut-out image generating means for generating a cut-out image by cutting out a corresponding part of the above, and an image synthesizing means for synthesizing the cut-out image generated by the cut-out image generating means with a desired image.

また、第3の発明の撮像装置は、被写体を撮像し撮像画像を出力する撮像手段と、撮像手段から出力された撮像画像を記憶する撮像画像記憶手段と、撮像画像記憶手段に記憶されている記憶画像からパターンを生成するパターン生成手段と、パターン生成手段により生成されたパターンを記憶するパターン記憶手段と、パターン記憶手段に記憶されているパターンを用いて撮像画像記憶手段に記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段とを有することを特徴とする。   Further, an imaging device according to a third aspect of the invention is an imaging device that captures an image of a subject and outputs a captured image, a captured image storage device that stores a captured image output from the imaging device, and a captured image storage device. Pattern generating means for generating a pattern from a stored image, pattern storing means for storing a pattern generated by the pattern generating means, and imaging stored in a captured image storing means using the pattern stored in the pattern storing means The image processing apparatus includes a cutout image generating unit that cuts out a corresponding portion of the image to generate a cutout image, and an image combining unit that combines the cutout image generated by the cutout image generating unit with a desired image.

また、上記第3の発明の撮像装置で、パターン生成手段は、前記撮像画像中の輪郭を抽出することによりパターンを生成する。   In the imaging apparatus according to the third aspect, the pattern generation unit generates a pattern by extracting a contour in the captured image.

また、上記第3の発明の撮像装置で、撮影距離を指定する指定手段を備え、パターン生成手段は、撮像画像中の指定手段により指定された撮影距離に応じた画像部分を抽出することによりパターンを生成するようにしてもよい。   Further, in the imaging apparatus according to the third aspect of the present invention, the image capturing apparatus further includes a designating unit that designates a photographing distance, and the pattern generating unit extracts a pattern in the captured image by extracting an image portion corresponding to the photographing distance designated by the designating unit. May be generated.

また、上記第3の発明の撮像装置で、パターン生成手段は、撮像画像を2値化することによりパターンを生成するようにしてもよい。   In the imaging device according to the third aspect, the pattern generation unit may generate the pattern by binarizing the captured image.

また、上記第3の発明の撮像装置で、パターン生成手段は、撮像画像の輝度成分を演算することによりパターンを生成するようにしけもよい。   In the imaging apparatus according to the third aspect, the pattern generation means may generate the pattern by calculating a luminance component of the captured image.

第4の発明の撮像装置は、被写体を撮像する撮像手段と、撮像手段から出力された撮像画像を記憶する撮像画像記憶手段と、描画データを入力する描画データ入力手段と、描画データ入力手段により入力された描画データからパターンを生成するパターン生成手段と、パターン生成手段により生成されたパターンを記憶するパターン記憶手段と、パターン生成手段に記憶されているパターンを用いて前記撮像画像記憶手段に記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段とを有することを特徴とする。   According to a fourth aspect of the present invention, there is provided an image capturing apparatus, comprising: an image capturing unit configured to capture an image of a subject; a captured image storing unit configured to store a captured image output from the image capturing unit; a drawing data input unit configured to input drawing data; Pattern generation means for generating a pattern from input drawing data, pattern storage means for storing a pattern generated by the pattern generation means, and storage in the captured image storage means using the pattern stored in the pattern generation means Clipping image generating means for generating a clipped image by clipping a corresponding portion of the captured image, and image synthesizing means for synthesizing the clipped image generated by the clipped image generating means with a desired image. .

また、上記第4の発明の撮像装置で、描画手段は、カーソルまたはポインティングデバイスを用いて描画することを特徴とする。   Further, in the imaging device according to the fourth aspect, the drawing means performs drawing using a cursor or a pointing device.

第5の発明の撮像装置は、被写体を撮像し撮像画像を出力する撮像手段と、撮像手段から出力される撮像動画像を表示する表示手段と、画像切抜きパターンを記憶する画像切抜きパターン記憶手段と、画像切抜きパターン記憶手段に記憶されている画像切抜きパターンを表示装置に表示されている撮像動画像上に合成して表示させる表示制御手段と、キー入力手段と、撮像手段から出力される撮像静止画像を記憶する撮像静止画像記憶手段と、表示制御手段により表示手段に撮像動画像および切抜き画像パターンが表示されている間にキー入力手段が操作された場合、撮像静止画像記憶手段に撮像静止画像を記憶させる記憶制御手段と、を有することを特徴とする。   According to a fifth aspect of the present invention, there is provided an imaging apparatus for imaging a subject and outputting a captured image, a display unit for displaying a captured moving image output from the imaging unit, and an image clipping pattern storage unit for storing an image clipping pattern. Display control means for combining and displaying the image clipping pattern stored in the image clipping pattern storage means on the captured moving image displayed on the display device; key input means; A captured still image storage means for storing an image and a captured still image stored in the captured still image storage means when the key input means is operated while the captured moving image and the cutout image pattern are displayed on the display means by the display control means. And storage control means for storing

また、上記第5の発明の撮像装置で、記憶制御手段は、表示手段に表示されている画像切抜きパターンを用いて撮像静止画像の対応部分を切抜いて切抜き静止画像を生成し、この切抜き静止画像を撮像静止画像記憶手段に記憶させることを特徴とする。   In the imaging device according to the fifth aspect, the storage control unit generates a cutout still image by cutting out a corresponding portion of the shot still image using the image cutout pattern displayed on the display unit. Is stored in the captured still image storage means.

また、上記第5の発明の撮像装置は、更に、撮像静止画像記憶手段に記憶されている撮像静止画像を再生する再生手段と、画像切抜きパターン記憶手段に記憶されている画像切抜きパターンを用いて再生手段により再生された撮像静止画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段と、を有するようにしてもよい。   Further, the imaging apparatus according to the fifth aspect of the present invention further includes a reproducing unit that reproduces the captured still image stored in the captured still image storage unit, and an image cutout pattern stored in the image cutout pattern storage unit. The image processing apparatus includes: a cutout image generation unit that cuts out a corresponding portion of the captured still image reproduced by the reproduction unit to generate a cutout image; and an image synthesis unit that synthesizes the cutout image generated by the cutout image generation unit with a desired image. You may do so.

第6の発明は、被写体を撮像し撮像画像を出力する撮像手段と、撮像手段から出力される撮像静止画像を記憶する撮像静止画像記憶手段と、撮像手段から出力される撮像動画像を表示する表示手段と、パターンを記憶するパターン記憶手段と、パターン記憶手段に記憶されているパターンを用いて撮像画像記憶手段に記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、切抜き画像生成手段により生成された切抜き画像を前記表示装置に表示されている撮像動画像上に合成して表示させる表示制御手段と、キー入力手段と、表示制御手段により表示手段に撮像動画像および切抜き画像が表示されている間にキー入力手段が操作された場合、撮像静止画像記憶手段に撮像静止画像を記憶させる記憶制御手段と、を有することを特徴とする。   According to a sixth aspect of the invention, there is provided an imaging unit for imaging a subject and outputting a captured image, a captured still image storage unit for storing a captured still image output from the imaging unit, and displaying a captured moving image output from the imaging unit. Display means, pattern storage means for storing a pattern, and cutout image generation for generating a cutout image by cutting out a corresponding portion of the captured image stored in the captured image storage means using the pattern stored in the pattern storage means Means, display control means for synthesizing the clipped image generated by the clipped image generation means on the picked-up moving image displayed on the display device, and key input means; and imaging on the display means by the display control means. When the key input unit is operated while the moving image and the cutout image are displayed, a storage control unit that stores the captured still image in the captured still image storage unit. And having a, the.

また、上記第6の発明の撮像装置で、憶制御手段は、表示手段に表示されている撮像静止画像および切抜き画像を前記撮像静止画像記憶手段に記憶させることを特徴とする。   Further, in the imaging device according to the sixth aspect, the memory control unit stores the captured still image and the cutout image displayed on the display unit in the captured still image storage unit.

また、上記第6の発明の撮像装置は、さらに、表示制御手段により撮像動画像上に表示されている前記切抜き画像を、表示画面内の所望の位置に移動指示する移動指示手段を備えようにしてもよい。   Further, the imaging apparatus according to the sixth aspect of the present invention may further include a movement instruction unit for instructing a movement of the cutout image displayed on the captured moving image to a desired position in a display screen by a display control unit. You may.

第7の発明の撮像装置は、被写体を撮像し撮像画像を出力する撮像手段と、撮像手段から出力された撮像画像を記憶する撮像画像記憶手段と、撮像画像記憶手段に記憶されている撮像画像を表示する表示手段と、パターンを記憶するパターン記憶手段と、パターン記憶手段に記憶されているパターンを表示手段に表示されている撮像画像上に表示させる表示制御手段と、表示制御手段により前記撮像画像上に表示されているパターンを、表示画面内の所望の位置に移動させる移動手段と、移動手段により移動されたパターンを用いて撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段と、を有することを特徴とする。   An imaging apparatus according to a seventh aspect of the present invention includes an imaging unit that captures an image of a subject and outputs a captured image, a captured image storage unit that stores a captured image output from the imaging unit, and a captured image stored in the captured image storage unit Display means for displaying a pattern, pattern storage means for storing a pattern, display control means for displaying a pattern stored in the pattern storage means on a captured image displayed on the display means, and display control means for displaying the image by the display control means. Moving means for moving a pattern displayed on an image to a desired position in a display screen, and cutout image generation for cutting out a corresponding portion of a captured image using the pattern moved by the moving means to generate a cutout image Means, and an image synthesizing means for synthesizing the clipped image generated by the clipped image generating means with a desired image.

第9の発明の撮像画像加工方法は、被写体を撮像して撮像画像を得る工程と、前記撮像画像を記憶する工程と、記憶されている撮像画像からパターンを生成する工程と、パターンを記憶する工程と、記憶されているパターンを用いて記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する工程と、生成された切抜き画像を所望の画像に合成する工程とを有することを特徴とする。   According to a ninth aspect of the present invention, there is provided a captured image processing method for capturing a subject to obtain a captured image, storing the captured image, generating a pattern from the stored captured image, and storing the pattern. And a step of generating a cutout image by cutting out a corresponding portion of the stored captured image using the stored pattern, and combining the generated cutout image with a desired image. And

第1の発明の撮像装置によれば、予め、枠の付いたフレーム画像をフラッシュメモリ等の記憶手段に登録しておき、撮像された被写体像と登録したフレーム画像の内の所望のものと合成して枠付の合成画像を簡単に得ることができる。また、撮影時に案内枠としてフレーム画像を表示できるので画像の大きさをほぼ一定に揃えたり、サイズが定められている証明用の写真等を簡単に撮影できる(請求項1)。   According to the imaging apparatus of the first aspect, a frame image having a frame is registered in advance in a storage unit such as a flash memory, and the captured image is combined with a desired one of the registered frame images. Thus, a composite image with a frame can be easily obtained. Further, since a frame image can be displayed as a guide frame at the time of photographing, the size of the image can be made substantially constant, and a photograph for certification or the like having a predetermined size can be easily photographed (claim 1).

また、上記第1の発明の撮像装置に、撮像画像を記憶するフラッシュメモリ等の記憶手段と記憶された撮像画像を再生する再生手段を設けるようにできるので、記録した撮像画像とフレーム画像についても合成加工が簡単にできる(請求項2)。   Further, the imaging device of the first aspect of the invention can be provided with a storage unit such as a flash memory for storing the captured image and a reproducing unit for reproducing the stored captured image. Composite processing can be easily performed (claim 2).

また、第1の発明の撮像装置に、合成画像を表示する表示手段を設けることができるので、使用者は上記合成結果をリアルタイムで見ることができ、やり直しをするか、記録するか、外部出力するか等の決定が簡単、且つ迅速に行なえる(請求項3)。   Further, the imaging device of the first invention can be provided with a display means for displaying a composite image, so that the user can view the composite result in real time, and can perform a redo, a recording, or an external output. The determination as to whether or not to do so can be made easily and quickly (claim 3).

また、上記第1の発明の撮像装置に、合成画像における撮像画像の相対的な位置を調整する調整手段を設けることができるので、表示画面を見ながら撮像画像とフレーム画像の位置調整を簡単に行なえる(請求項4)。   In addition, the imaging device of the first aspect of the present invention can be provided with an adjusting means for adjusting the relative position of the captured image in the composite image, so that the position of the captured image and the frame image can be easily adjusted while looking at the display screen. (Claim 4).

また、上記第1の発明の撮像装置に、マスク画像を記憶するマスク画像記憶手段と、撮像画像とマスク画像とを合成してフレーム画像を生成する生成手段を備えることができるので、使用者は予め登録されたフレーム画像以外に、使用者自身で所望のフレーム画像を合成して登録することができる(請求項5)。また、上記第1の発明の撮像装置に、合成画像を記憶する合成画像記憶手段を設けることができるので、気に入った合成画像を簡単に記録保存することができる(請求項6)。   Further, the imaging apparatus according to the first aspect of the invention can include a mask image storage unit that stores a mask image, and a generation unit that generates a frame image by combining the captured image and the mask image. In addition to the previously registered frame images, the user can synthesize and register a desired frame image by himself / herself (Claim 5). Further, since the image pickup apparatus according to the first aspect of the present invention can be provided with a composite image storage unit for storing a composite image, a favorite composite image can be easily recorded and stored (claim 6).

第2の発明の撮像装置によれば、予め、パターンをフラッシュメモリ等の記憶手段に登録しておき、所望の撮像画像と登録されているパターン内の所望のものと合成して合成部分を切抜いた切抜き画像を生成して、所望の画像にその切抜き画像を合成した画像を簡単に得ることができる。これにより、あるパターンの形をした画像を他の画像に簡単に貼り込むといった画像加工が従来のようなパーソナルコンピュータ等の画像処理装置で行なう場合に比べ極めて簡単な操作で行なうことができる(請求項7)。   According to the imaging apparatus of the second aspect, the pattern is registered in advance in a storage means such as a flash memory, and a desired captured image is combined with a desired one in the registered pattern to cut out a combined portion. By generating the cutout image, a desired image can be easily obtained by combining the cutout image with the desired image. Thus, image processing such as simply pasting an image in the form of a certain pattern to another image can be performed by an extremely simple operation as compared with a conventional image processing apparatus such as a personal computer. Item 7).

第3の発明の撮像装置および第8の発明の撮像画像加工方法によれば、撮像によりフラッシュメモリ等の記憶手段に記憶されている記憶画像からパターンを生成し、所望の撮像画像と生成したパターンを合成して合成部分を切抜いた切抜き画像を生成して、所望の画像にその切抜き画像を合成した画像を簡単に得ることができる。これにより、使用者自身で撮像画像からパターンを取り出して所望の画像と合成して切抜き、他の画像に貼り込むといった画像加工を従来のような画像処理装置で行なう場合に比べ極めて簡単な操作で行なうことができる(請求項8,22)。   According to the imaging device of the third invention and the captured image processing method of the eighth invention, a pattern is generated from a storage image stored in a storage unit such as a flash memory by imaging, and a desired captured image and the generated pattern are generated. Can be synthesized to generate a cutout image in which a synthesized portion is cut out, and an image obtained by synthesizing the cutout image with a desired image can be easily obtained. This allows the user to take out a pattern from the captured image, synthesize it with a desired image, cut it out, and paste it into another image with extremely simple operations compared to a conventional image processing device. (Claims 8 and 22).

また、第3の発明の撮像装置に、撮像画像中の輪郭を抽出してパターンを生成する手段を設けることができるので、この場合、簡単にパターンを抽出することができる(請求項9)。   Further, the image pickup apparatus of the third invention can be provided with a means for extracting a contour in a picked-up image and generating a pattern. In this case, the pattern can be easily extracted (claim 9).

また、第3の発明の撮像装置では、撮影距離を指定する指定手段を設けることができるので、撮影距離に応じた画像部分を抽出してパターンを生成することもできる(請求項10)。   Further, in the imaging apparatus according to the third aspect of the present invention, since a designating means for designating a photographing distance can be provided, a pattern can be generated by extracting an image portion corresponding to the photographing distance (claim 10).

また、第3の発明の撮像装置では、撮像画像を2値化したパターンを生成することができるので、他の画像を切抜く際のマスク処理が簡単になる(請求項11)。   Further, in the imaging device according to the third aspect of the present invention, since a binarized pattern of the captured image can be generated, mask processing when cutting out another image is simplified (claim 11).

第3の発明の撮像装置では、撮像画像の輝度成分を演算することによりパターンを生成することができる。これにより、境界のぼやけた切抜き画像を簡単に得ることができる(請求項12)。   In the imaging device according to the third aspect, the pattern can be generated by calculating the luminance component of the captured image. This makes it possible to easily obtain a clipped image with a blurred boundary.

第4の発明の撮像装置は、描画入力によりパターンを生成し、所望の撮像画像と生成したパターンを合成して合成部分を切抜いた切抜き画像を生成して、所望の画像にその切抜き画像を合成した画像を簡単に得ることができる。これにより、使用者自身が描いたパターンと所望の画像と合成して切抜き、他の画像に簡単に貼り込むといった画像加工が従来のような画像処理装置で行なう場合に比べ極めて簡単な操作で行なうことができる(請求項13)。   An imaging apparatus according to a fourth aspect of the present invention generates a pattern by drawing input, combines a desired captured image with the generated pattern, generates a cutout image in which a combined portion is cut out, and combines the cutout image with a desired image. The obtained image can be easily obtained. With this, image processing such as combining a pattern drawn by the user himself with a desired image, cutting out the image, and pasting the image easily into another image can be performed with an extremely simple operation as compared with a conventional image processing apparatus. (Claim 13).

また、第4の発明の撮像装置では、カーソルまたはポインティングデバイスを用いて描画できるので、使用者にとって入力操作が簡単になり、思いついたパターンをメモの要領で入力できるし、パターン生成に使用に抵抗感を生じない(請求項14)。   In the imaging apparatus according to the fourth aspect of the present invention, since the drawing can be performed using the cursor or the pointing device, the input operation can be easily performed for the user. No feeling is produced (claim 14).

第5の発明の撮像装置は、撮像モードで表示されるスルー画像と画像切抜きパターンを合成して表示し、所望のタイミングでキー操作を行なうことにより動画表示されているスルー画像を静止画像としてフラッシュメモリー等の記憶手段に記憶させることができる。すなわち、本発明によれば、スルー画像上に画像切抜きパターンが表示されるので、アングルを調整することにより使用者が所望する被写体を切抜きパターンにうまく収めて撮影を行なうことができる(請求項15)。   An imaging apparatus according to a fifth aspect of the present invention combines and displays a through image displayed in an imaging mode and an image clipping pattern, and flashes a through image displayed as a moving image as a still image by performing a key operation at a desired timing. It can be stored in storage means such as a memory. That is, according to the present invention, since the image clipping pattern is displayed on the through image, it is possible to perform shooting by properly adjusting the angle to fit the subject desired by the user in the clipping pattern (claim 15). ).

また、第5の発明の撮像装置では、撮影時に表示されている画像切抜きパターンを用いて撮像静止画像の対応部分を切抜いて切抜き静止画像を生成/記録できるので、使用者が所望する被写体が切抜きパターンにうまく収まった状態の切抜き画像を記憶することができるという、前述した従来の画像処理装置にない新たな効果を得ることができる(請求項16)。   Further, in the imaging apparatus according to the fifth aspect of the present invention, a corresponding portion of the captured still image can be cut out using the image cutout pattern displayed at the time of shooting to generate / record a cutout still image. It is possible to obtain a new effect that the clipped image in a state where it fits well in the pattern can be stored, which is not provided in the above-described conventional image processing apparatus.

また、第5の発明の撮像装置に記憶されている画像を再生する手段を設けることができるので、再生画像を記憶しているパターンで切抜いて切抜き画像を生成し、所望の画像にその切抜き画像を合成した画像を簡単に得ることができる。これにより、使用者が所望する被写体が切抜きパターンにうまく収まった状態で撮影記録した後にその記録画像を再生して切抜きパターンを用いて切抜くことができるので、再生時に切抜き位置を微調整することができる(請求項17))。   Further, since means for reproducing an image stored in the image pickup apparatus of the fifth invention can be provided, a cut-out image is generated by cutting out a pattern storing the reproduced image, and the cut-out image is generated in a desired image. Can be easily obtained. This makes it possible to play back the recorded image after shooting and recording in a state in which the subject desired by the user fits well in the cutout pattern and to cut out using the cutout pattern. (Claim 17).

第6の発明の撮像装置では、記憶されているパターンを用いて記憶されている画像を切抜いて切抜き画像を生成し、その切抜き画像を表示されているスルー画像に合成することができるので、使用者はアングルを調整することにより表示されている切抜き画像とスルー画像との位置関係が所望するものとなった時に撮影を行なうことができという、前述した従来の画像処理装置にない新たな効果を得ることができる(請求項18)。   In the imaging device according to the sixth aspect of the invention, the stored image can be cut out using the stored pattern to generate a cut-out image, and the cut-out image can be synthesized with the displayed through image. By adjusting the angle, the user can take a picture when the positional relationship between the displayed cut-out image and the through-the-lens image becomes a desired one. (Claim 18).

また、第6の発明の撮像装置では、撮影時に合成表示されている切抜き画像とスルー画像の静止画像を記憶することができるので、切抜き画像とスルー画像との位置関係が所望するものとなった状態の合成画像を記録することができる(請求項19)。   Further, in the imaging apparatus according to the sixth aspect of the present invention, since the still image of the cut-out image and the through image which are synthesized and displayed at the time of shooting can be stored, the positional relationship between the cut-out image and the through image becomes desired. A composite image of the state can be recorded (claim 19).

また、第6の発明の撮像装置では、移動指示手段によりスルー画像上に表示されている切抜き画像を移動させることができるので、合成時の位置合せが簡単にできる(請求項20)。   Further, in the imaging apparatus according to the sixth aspect, since the cut-out image displayed on the through image can be moved by the movement instructing means, the alignment at the time of synthesis can be easily performed (claim 20).

第7の発明の撮像装置は、記憶されたパターンを画面に表示された撮像画像上で移動させることができるので、所望する画像部分をそのパターンで切抜いて切抜き画像を生成し、所望の画像の所望の部分に切抜き画像を合成した画像を簡単に得ることができる(請求項21)。   The imaging apparatus of the seventh invention can move the stored pattern on the captured image displayed on the screen, so that a desired image portion is cut out by the pattern to generate a cutout image, and the desired image It is possible to easily obtain an image in which a clipped image is combined with a desired portion (claim 21).

<回路構成例>
図1は、本発明の撮像装置の一実施例としてのデジタルカメラの構成例を示すブロック図であり、デジタルカメラ100はレンズブロック41が接続部43を介してカメラ本体42に接続されてなっている。
<Circuit configuration example>
FIG. 1 is a block diagram illustrating a configuration example of a digital camera as an embodiment of an imaging apparatus according to the present invention. A digital camera 100 includes a lens block 41 connected to a camera body 42 via a connection unit 43. I have.

レンズブロック41は、撮像レンズ1,CCD(Charge Coupled Device)2,アンプ(デジタルデータ)がタイミングジェネレータに供給されるように構成されている。   The lens block 41 is configured to supply an imaging lens 1, a charge coupled device (CCD) 2, and an amplifier (digital data) to a timing generator.

タイミングジェネレータ12は、端子部32を介して駆動回路5を制御し、CCD2を駆動する。タイミングジェネレータ12は、また、A/D変換回路4から供給された画像データをDRAM13に書込む。DRAM13に書込まれる画像データは黄色(Ye)、シアン(Cy)、および緑(Gr)の色成分を有している。   The timing generator 12 controls the drive circuit 5 via the terminal unit 32 to drive the CCD 2. The timing generator 12 also writes the image data supplied from the A / D conversion circuit 4 to the DRAM 13. Image data written to the DRAM 13 has yellow (Ye), cyan (Cy), and green (Gr) color components.

DRAM13には画像データを一時記憶する領域の他、本発明の画像加工処理を実行する際の画像加工用ワークエリア(作業用領域)が確保されている。DRAM13に書込まれた画像データは1フレーム分の画像データがそろうと、一定の周期で読み出されてシグナルジェネレータ16に供給される。また、DRAM13に書込まれた画像データは、圧縮/伸張回路15で圧縮され、フラッシュメモリ14(撮影画像記憶手段)に書込まれ、記憶(記録)される。   In addition to an area for temporarily storing image data, the DRAM 13 has a work area (work area) for image processing when executing the image processing of the present invention. The image data written in the DRAM 13 is read out at a constant cycle and supplied to the signal generator 16 when one frame of image data is ready. The image data written in the DRAM 13 is compressed by the compression / expansion circuit 15 and written into the flash memory 14 (captured image storage means) and stored (recorded).

フラッシュメモリ14には撮影した画像の画像データを記録する領域の他、切抜き画像を記録する切抜き画像メモリ14A(切抜き画像記憶手段)用の領域と、マスクパターンを記録するマスクパターンメモリ14B(マスクパターン記憶手段)用の領域が設けられている。また、切抜き画像メモリ14A用の領域およびマスクパターンメモリ14B用の領域を他の記録媒体、例えば、ROMやメモリカードに設けるようにしてもよい。   In the flash memory 14, in addition to an area for recording image data of a photographed image, an area for a cutout image memory 14A (cutout image storage means) for recording a cutout image, and a mask pattern memory 14B (mask pattern memory) for recording a mask pattern Storage area). Further, the area for the cutout image memory 14A and the area for the mask pattern memory 14B may be provided in another recording medium, for example, a ROM or a memory card.

シグナルジェネレータ16は、一定の周期でDRAM13から1フレーム分の画像データを取り出して、順次、ホワイトバランス調整や色演算処理を施してYUVデータ(輝度信号Y、色差信号R−Y、B−Y)を生成し、VRAM17に記憶させる。
シグナルジェネレータ16は、また、VRAM17に記憶したYUVデータを読み出してD/A変換回路18に出力し、D/A変換させた後、アンプ19を介して液晶ディスプレイ20に出力し画像表示させる。なお、アンプ19から出力されたビデオ信号は図示しない外部装置にも出力可能である。
The signal generator 16 takes out one frame of image data from the DRAM 13 at a constant cycle, sequentially performs white balance adjustment and color calculation processing, and performs YUV data (luminance signal Y, color difference signals RY, BY). Is generated and stored in the VRAM 17.
The signal generator 16 also reads out the YUV data stored in the VRAM 17 and outputs it to the D / A conversion circuit 18, performs D / A conversion, and then outputs it to the liquid crystal display 20 via the amplifier 19 to display an image. The video signal output from the amplifier 19 can be output to an external device (not shown).

上記構成により、液晶ディスプレイ(LCD)20は撮影時にCCD2を介した被写体画像を表示(スルー画像表示)でき、画像再生時には再生された記録画像を表示できる。撮影時に表示される被写体画像は撮像レンズ1を通した動画として表示される(すなわち、被写体またはデジタルカメラ100の動きに応じたモニター画像(以下、スルー画像と記す)が表示されるので、液晶ディスプレイ20をファインダとしても用いることができる。   With the above configuration, the liquid crystal display (LCD) 20 can display a subject image via the CCD 2 at the time of photographing (through image display) and can display a reproduced recorded image at the time of image reproduction. The subject image displayed at the time of shooting is displayed as a moving image through the imaging lens 1 (that is, a monitor image (hereinafter, referred to as a through image) according to the movement of the subject or the digital camera 100 is displayed. 20 can also be used as a finder.

また、図1で、液晶表示部20の画面上に透明な位置検出センサー(図示せず)を配設するようにしてもよい。位置検出センサーとしては、例えば、特定の光を検出する光検出素子やタッチ電極を用いることができる。位置検出センサーとして光検出素子を用いた場合には、使用者が入力手段として特定の光(例えば、赤外線)を発する入力ペンを用いて画面上をポイントすることにより、ポイントされた位置の光検出素子が能動状態となる。CPU21は能動状態となった光検出素子の座標を検出してポイントされた画像の位置や範囲(形)を知ることができる。また、タッチ電極を用いた場合には、使用者がタッチペンまたは指先で画面上をタッチするとタッチされた部分の電極がオンとなる。CPU21はオンとなったタッチ電極の座標を検出してポイントされた画像の位置や範囲(形)を知ることができる。   In FIG. 1, a transparent position detection sensor (not shown) may be provided on the screen of the liquid crystal display unit 20. As the position detection sensor, for example, a light detection element for detecting specific light or a touch electrode can be used. When a light detection element is used as the position detection sensor, the user can point on the screen using an input pen that emits specific light (for example, infrared light) as an input means, thereby detecting light at the pointed position. The device becomes active. The CPU 21 detects the coordinates of the light detecting element in the active state, and can know the position and range (shape) of the pointed image. When a touch electrode is used, when the user touches the screen with a touch pen or a fingertip, the electrode of the touched portion is turned on. The CPU 21 can detect the coordinates of the touched electrode that is turned on, and thereby know the position and range (shape) of the pointed image.

CPU21は、ROM22或いはフラッシュメモリ14に記憶されているプログラムに従って各種の処理を実行する。
RAM23は、CPU21が各種の処理を実行する上で必要なプログラムおよびデータ等を適宜記憶する。
キー入力部24は、図2に示すような各種の入力キーやボタンを備えており、使用者によって操作されると、対応するキーやボタンの状態信号をCPU21に送出する。また、キー入力部24の他に、入力ペンやタッチペン等のポインティングデバイスを付加してもよい。
The CPU 21 executes various processes according to a program stored in the ROM 22 or the flash memory 14.
The RAM 23 appropriately stores programs and data necessary for the CPU 21 to execute various processes.
The key input unit 24 includes various input keys and buttons as shown in FIG. 2. When operated by the user, the key input unit 24 sends a corresponding key or button status signal to the CPU 21. In addition to the key input unit 24, a pointing device such as an input pen or a touch pen may be added.

I/Oポート25は、CPU21と外部装置との間におけるデータ入出力のインターフェイス処理を実行する。   The I / O port 25 executes data input / output interface processing between the CPU 21 and an external device.

また、レンズブロック41またはカメラ本体42に被写体までの距離を計測可能な測距手段(図示せず)を設けてもよい。測距手段としては機械的手段の他に、例えば、デジタルカメラがオートフォーカス機構を有する場合にはオートフォーカス動作により得られる撮像レンズ1の焦点距離fと、撮像レンズ1とCCD2との距離aと撮像レンズ1の移動距離から被写体までの距離bを得る手段として構成できる。また、赤外線受発光装置を用いて測距手段を構成することもできる。   Further, a distance measuring unit (not shown) that can measure a distance to a subject may be provided in the lens block 41 or the camera body 42. As the distance measuring means, besides mechanical means, for example, when the digital camera has an autofocus mechanism, the focal length f of the imaging lens 1 obtained by the autofocus operation, the distance a between the imaging lens 1 and the CCD 2, and It can be configured as a means for obtaining the distance b to the subject from the moving distance of the imaging lens 1. Further, the distance measuring means can be constituted by using an infrared light receiving / emitting device.

<キー入力部の構成例>
図2は、本発明を適用したデジタルカメラに設けられているキー入力部24の代表的なキーまたボタンの配置例を示す図である。図2で、フレームボタン61は切抜き画像メモリ14Aから切抜き画像を読み出すときに使用者によって操作され、移動キー62は液晶ディスプレイ20に表示されるカーソルを上下左右方向に移動させるときに操作され、レリーズボタン63は撮影された画像をフラッシュメモリ14に記録するときに操作され、再生ボタン64はフラッシュメモリ14に記録された記憶画像(撮影画像、予め登録されている画像、単色画像およびICカードに登録されている画像等を含む)を再生させる再生モードを設定するときに操作される。
<Configuration example of key input unit>
FIG. 2 is a diagram showing a typical key or button arrangement example of the key input unit 24 provided in the digital camera to which the present invention is applied. In FIG. 2, the frame button 61 is operated by the user when reading out the cut-out image from the cut-out image memory 14A, and the move key 62 is operated when moving the cursor displayed on the liquid crystal display 20 in the up, down, left and right directions. The button 63 is operated when recording a captured image in the flash memory 14, and the play button 64 is used to store a stored image (a captured image, a pre-registered image, a monochrome image, and an IC card) recorded in the flash memory 14. This operation is performed to set a reproduction mode for reproducing an image or the like that is being reproduced.

また、記録ボタン65は撮影した画像をフラッシュメモリ14に記録する記録モードを設定するときに操作され、マスクボタン66はマスクパターン(画像)を再生するときに操作され、アップダウンキー67は液晶ディスプレイ20に表示されているカーソルを上下させるときや、プログラムで規定された機能の実行開始の指示等を行なう場合に操作され、ダイレクトキー68はカーソルまたはポインティングデバイス(例えば、タッチペン)による描画入力の開始等の通知をCPU21に対して行なう場合等に操作される。   A record button 65 is operated when setting a recording mode for recording a captured image in the flash memory 14, a mask button 66 is operated when reproducing a mask pattern (image), and an up / down key 67 is operated on a liquid crystal display. The direct key 68 is operated when the cursor displayed on the cursor 20 is moved up or down, or when an instruction to start execution of a function specified by a program is given, and the direct key 68 is used to start drawing input using a cursor or a pointing device (eg, a touch pen). This operation is performed when the CPU 21 notifies the CPU 21 or the like.

<処理モード>
図3は、図1のデジタルカメラの処理モードの構成例を示す説明図であり、デジタルカメラの処理モードは、記録モードおよび再生モードからなる通常撮影モードと近接撮影等の特殊撮影モードに大別され、通常モードと特殊撮影モードとの切換えは図示しない処理モード切換えスイッチの切換えによりなされる。
<Processing mode>
FIG. 3 is an explanatory diagram showing a configuration example of the processing mode of the digital camera in FIG. 1. The processing mode of the digital camera is roughly classified into a normal shooting mode including a recording mode and a playback mode and a special shooting mode such as close-up shooting. Switching between the normal mode and the special photographing mode is performed by switching a processing mode switch (not shown).

処理モードが通常モードに切換えられると先ず記録モードに遷移する。記録モードは被写体の撮影およびスルー画像表示を行なう撮像モードと、スルー画像合成モードと、所望のスルー画像或いは合成された画像等を記録媒体(実施例ではフラッシュメモリ14)に記録する記録保存モードを含んでいる。   When the processing mode is switched to the normal mode, first, the mode transits to the recording mode. The recording mode includes an imaging mode for photographing a subject and displaying a through image, a through image combining mode, and a recording and saving mode for recording a desired through image or a combined image on a recording medium (the flash memory 14 in the embodiment). Contains.

通常モード下で再生ボタン64を押すと先ず再生モードに遷移する。再生モードはフラッシュメモリ14に記録されている記録画像を再生して表示する再生/表示モードと、記録画像合成モードと、I/Oポート25を介して外部装置に画像データ(合成された画像データも含む)を出力可能な出力モードを含んでいる。なお、操作者による処理モード切換えスイッチおよびキー入力部24のキー操作やボタン操作でどのモードへ遷移したかはモード判定手段(実施例ではプログラムで構成)によって行なわれる。モード判定手段は、キー入力部24からCPU21に送られるキーおよびボタンの状態信号を調べて対応のモード処理用回路或いはプログラムに遷移する。   When the play button 64 is pressed in the normal mode, the mode is first shifted to the play mode. The reproduction mode includes a reproduction / display mode for reproducing and displaying a recorded image recorded in the flash memory 14, a recorded image composition mode, and image data (composited image data) transmitted to an external device via the I / O port 25. Is included in the output mode. It should be noted that the mode determination means (configured by a program in the embodiment) determines which mode has been changed by a key operation or button operation of the processing mode changeover switch and the key input unit 24 by the operator. The mode determining means checks the key and button state signals sent from the key input unit 24 to the CPU 21 and transits to the corresponding mode processing circuit or program.

<各モード下のデジタルカメラの動作>
次に、図1のデジタルカメラの各モード下での動作について説明する。
<Operation of digital camera under each mode>
Next, the operation of the digital camera in FIG. 1 in each mode will be described.

[記録モード下の動作]
処理モードが記録モードになると先ず撮像モードに遷移する。撮像モードでは、CCD2から周期的に取込まれる1フレーム分の画像データが液晶ディスプレイ20上にスルー画像表示される。撮像モード下で、マスクボタン66或いはフレームボタン61を押すとスルー画像合成モードとなり、所望の画像をマスクパターンにしたり、画像と所望のマスクパターン或いは切抜き画像を合成表示したり、画像合成等を行なうことができる。また、アップダウンキー67を押すと撮影用案内枠を表示することができる。また、レリーズボタン63を押すと記録保存モードになり、所望のスルー画像或いは合成された画像等をフラッシュメモリ14に記録できる。
[Operation under recording mode]
When the processing mode is set to the recording mode, first, the mode is changed to the imaging mode. In the image capturing mode, one frame of image data periodically taken in from the CCD 2 is displayed on the liquid crystal display 20 as a through image. When the mask button 66 or the frame button 61 is pressed in the imaging mode, a through image synthesis mode is set, and a desired image is used as a mask pattern, an image is synthesized and displayed with a desired mask pattern or a cutout image, and image synthesis is performed. be able to. When the up / down key 67 is pressed, a shooting guide frame can be displayed. In addition, when the release button 63 is pressed, the recording mode is set, and a desired through image or a combined image can be recorded in the flash memory 14.

(1) 撮影およびスルー画像の表示
記録モード下で、使用者が記録ボタン65を押すと、CPU21は撮影指示信号を送ってタイミングジェネレータ12を制御し、被写体像の取込みを行なわせる。タイミングジェネレータ12は、CPU21から撮影指示信号を受け取ると端子32を介して駆動回路5を駆動し、CCD2によって変換された画像信号を取込ませる。CCD2には使用者が撮像レンズ1を向けた被写体の光学像が撮像レンズ1を介して結像しているので、CCD2を駆動回路5で駆動することによりCCD2で光電変換された画像信号がアンプ3を介してA/D変換回路4に入力される。A/D変換回路4は入力された画像信号をA/D変換して画像データとし、端子31を介してタイミングジェネレータ12に供給する。タイミングジェネレータ12は、入力された画像データ(Ye,Cy,Gr)をDRAM13に記憶する。CPU21はDRAM13に一旦記憶された画像データを読み出し、シグナルジェネレータ16に供給する。
シグナルジェネレータ16はこの画像データのホワイトバランスを調整すると共に、エンコード処理してビデオデータ(YUVデータ)を生成し、VRAM17に一旦記憶させる。シグナルジェネレータ16は、また、VRAM17に描画したビデオデータを読み出してD/A変換回路18に供給する。
D/A変換回路18はこのビデオデータをD/A変換し、アンプ19を介して液晶ディスプレイ20に出力し、表示させる。このようにして、液晶ディスプレイ20には使用者が撮像レンズ1を介してモニターしている画像(スルー画像)が表示される。使用者はこの液晶ディスプレイ20に表示された画像を見て被写体を確認することができる。
なお、以上のようにして液晶ディスプレイ20に表示するスルー画像用のビデオデータは簡単に生成できる。例えば、DRAM13に記憶された画像データのうち、Ye成分のみを用いて輝度データと色差データが生成されるので、これらのデータを用いて、撮像レンズ1を介した時々刻々と変化する画像(すなわち、スルー画像)を迅速に更新し、液晶ディスプレイ20に表示することができる。
(1) Display of Captured and Through Images When the user presses the record button 65 in the recording mode, the CPU 21 sends a photographing instruction signal to control the timing generator 12 to capture the subject image. When the timing generator 12 receives the photographing instruction signal from the CPU 21, it drives the drive circuit 5 via the terminal 32 to take in the image signal converted by the CCD 2. Since an optical image of a subject to which the user points the imaging lens 1 is formed on the CCD 2 via the imaging lens 1, the driving circuit 5 drives the CCD 2 to convert the image signal photoelectrically converted by the CCD 2 into an amplifier. The signal is input to the A / D conversion circuit 4 through the A / D conversion circuit 3. The A / D conversion circuit 4 A / D converts the input image signal into image data, and supplies the image data to the timing generator 12 via the terminal 31. The timing generator 12 stores the input image data (Ye, Cy, Gr) in the DRAM 13. The CPU 21 reads out the image data once stored in the DRAM 13 and supplies it to the signal generator 16.
The signal generator 16 adjusts the white balance of the image data, generates video data (YUV data) by encoding, and temporarily stores the video data (YUV data) in the VRAM 17. The signal generator 16 also reads out the video data drawn in the VRAM 17 and supplies the video data to the D / A conversion circuit 18.
The D / A conversion circuit 18 D / A converts the video data and outputs the video data to the liquid crystal display 20 via the amplifier 19 for display. In this way, an image (through image) monitored by the user via the imaging lens 1 is displayed on the liquid crystal display 20. The user can confirm the subject by looking at the image displayed on the liquid crystal display 20.
Note that video data for a through image displayed on the liquid crystal display 20 can be easily generated as described above. For example, since luminance data and chrominance data are generated using only the Ye component of the image data stored in the DRAM 13, an image that changes every moment through the imaging lens 1 (ie, , Through image) can be quickly updated and displayed on the liquid crystal display 20.

(2) スルー画像の合成撮影
モード時に、使用者がマスクボタン66或いはフレームボタン61を押すとスルー画像合成モードとなる。
マスクボタン66が押された場合には、スルー画像のなかからマスクパターンとして望ましい部分を切抜いてマスクパターンメモリ14Bに登録したり、スルー画像の所望の部分と所望のマスクパターンとを合成して所望の切抜き画像を作成することができる。また、フレームボタン61を押すとスルー画像に切抜き画像メモリ14Aに記録されている所望の切抜き画像を貼込み、合成できる。なお、スルー画像合成モード下のデジタルカメラ100の動作については後述する(図4,実施例1〜3,7,8〜10)。
(2) Through image synthesis mode When the user presses the mask button 66 or the frame button 61 in the shooting mode, the camera enters the through image synthesis mode.
When the mask button 66 is pressed, a desired portion as a mask pattern is cut out from the through image and registered in the mask pattern memory 14B, or a desired portion of the through image is combined with a desired mask pattern to synthesize the desired pattern. Can be created. When the frame button 61 is pressed, a desired cut-out image recorded in the cut-out image memory 14A can be pasted on the through image and synthesized. The operation of the digital camera 100 in the through image synthesis mode will be described later (FIG. 4, Examples 1 to 3, 7, 8 to 10).

(3) 案内枠の表示
撮像モード下でアップダウンキー67を押すと運転免許証やパスポート写真撮影用等の撮影用案内枠を表示することができる。なお、案内枠の表示動作については後述する(実施例7)
(3) Display of guide frame When the up / down key 67 is pressed in the image capturing mode, a guide frame for photographing such as a driver's license or a passport photograph can be displayed. The display operation of the guide frame will be described later (seventh embodiment).

(4) 画像の記録保存
一方、記録モード下で、レリーズボタン63を操作して記録指示を行なうと、CPU21はDRAM13に記憶されている画像データ(画像合成モード下で合成された合成画像データの場合を含む)をシグナルジェネレータ16に供給し、Ye成分,Cy成分,Gr成分の全てを用いて、より正確にビデオデータを生成(エンコード)させ、静止画像として液晶ディスプレイ20に表示する。さらに、CPU21はこのビデオデータを圧縮/伸張回路15に供給し、例えば、JPEG(Joint Photographic Experts Group)方式で圧縮処理を実行させる。圧縮されたビデオデータはフラッシュメモリ14に記録される(書込まれれる)。
なお、記録保存の際にマスクパターンと合成画像とその背景画像(この場合は記録画像)をフラッシュメモリ14上で関連付ける情報(例えば、合成画像および背景画像の画像番号や、マスクパターンの種類や画像番号、切抜き画像の画像番号等)を対応づけてフラッシュメモリ14上に設けられたリンクテーブル50に書込むようにしてもよい。なお、画像番号の代りに各画像やマスクパターンの格納位置を書込むようにしてもよい。
(4) Recording and Saving of Image On the other hand, when the recording button is operated by operating the release button 63 in the recording mode, the CPU 21 causes the image data stored in the DRAM 13 (the combined image data of the combined image data combined in the image combining mode). Is supplied to the signal generator 16 to generate (encode) video data more accurately by using all of the Ye component, the Cy component, and the Gr component, and display the video data on the liquid crystal display 20 as a still image. Further, the CPU 21 supplies the video data to the compression / decompression circuit 15 to execute a compression process by, for example, a JPEG (Joint Photographic Experts Group) method. The compressed video data is recorded (written) in the flash memory 14.
At the time of recording and saving, information relating the mask pattern to the composite image and its background image (in this case, the recorded image) on the flash memory 14 (for example, the image number of the composite image and the background image, the type and image of the mask pattern) The numbers may be written in the link table 50 provided on the flash memory 14 in association with each other. The storage position of each image or mask pattern may be written instead of the image number.

[再生モード下の動作]
通常モード下で、再生ボタン64を押すと再生/表示モードとなり、フラッシュメモリ14に記録されている記録画像を読み出し、再生して液晶ディスプレイ20に表示する。また、再生ボタンを押す毎に次の記録画像が読み出されて再生され、液晶ディスプレイ20に表示されるので、利用者は所望の再生画像を得ることができる。
なお、再生ボタンを押し続けると表示画像が早送りされ、再生ボタンから指を離すとその時点の画像が表示される早送りモードを付加するように構成してもよい。
再生/表示モードでマスクボタン66またはレリーズボタン63を押すと記録画像合成モードとなり、記録画像の中の所望の再生画像からマスクパターンを生成したり、記録画像に所望のマスクパターン或いは切抜き画像を重畳表示したり、所望の切抜き画像を記録画像に貼込み合成することができる。
[Operation in playback mode]
When the play button 64 is pressed in the normal mode, the mode is set to the play / display mode, in which the recorded image recorded in the flash memory 14 is read, reproduced, and displayed on the liquid crystal display 20. Further, each time the play button is pressed, the next recorded image is read and reproduced and displayed on the liquid crystal display 20, so that the user can obtain a desired reproduced image.
The display image may be fast-forwarded when the play button is kept pressed, and a fast-forward mode in which the image at that time is displayed when the finger is released from the play button may be added.
When the mask button 66 or the release button 63 is pressed in the reproduction / display mode, a recording image synthesizing mode is set, and a mask pattern is generated from a desired reproduction image in the recording image, or a desired mask pattern or a cutout image is superimposed on the recording image. It can be displayed or a desired cut-out image can be pasted and combined with the recorded image.

(1) 記録画像の再生および表示
利用者がキー入力部24の再生ボタン64を操作して再生/表示モードに設定すると、CPU21はフラッシュメモリ14に書込まれている1画像分のビデオデータを読み出して圧縮/伸張回路15に供給する。
圧縮/伸張回路15はこのビデオデータに伸張処理を施してシグナルジェネレータ16に供給する。
シグナルジェネレータ16は受け取ったビデオデータに同期信号などを付加し、VRAM17に一旦描画してから、VRAM17に描画したビデオデータを読み出してD/A変換回路18に供給する。
D/A変換回路18はこのビデオデータをD/A変換し、アンプ19を介して液晶ディスプレイ20に出力し表示させる。このようにして、液晶ディスプレイ20にフラッシュメモリ14に記録した画像を表示させることができる。上述したようにこの表示画像はスルー画像と異なり、より正確な処理を行なって取込んだ画像であるため、スルー画像と比べて明瞭な画像として表示される。
(1) Playback and Display of Recorded Image When the user operates the playback button 64 of the key input unit 24 to set the playback / display mode, the CPU 21 writes the video data of one image written in the flash memory 14. The data is read out and supplied to the compression / decompression circuit 15.
The compression / decompression circuit 15 decompresses the video data and supplies it to the signal generator 16.
The signal generator 16 adds a synchronization signal or the like to the received video data, draws the video data once in the VRAM 17, reads out the video data drawn in the VRAM 17, and supplies it to the D / A conversion circuit 18.
The D / A conversion circuit 18 performs D / A conversion on the video data, and outputs the video data to a liquid crystal display 20 via an amplifier 19 for display. Thus, the image recorded in the flash memory 14 can be displayed on the liquid crystal display 20. As described above, since this display image is an image captured by performing more accurate processing, unlike a through image, it is displayed as a clearer image than the through image.

(2) 記録画像の合成
再生/表示モードで、マスクボタン66或いはレリーズボタン63を押すと記録画像合成モードとなり、マスクボタン66を押した場合にはマスクパターンとして、記録画像から望ましいマスクパターンを生成したり、記録画像と所望のパターンを重畳表示したり、所望の記録画像と所望のパターンとの貼込み合成を行なうことができる。また、レリーズボタン63を押すと記録画像から生成されたマスクパターンをマスクパターンメモリ14Bに登録したり、生成された切抜き画像を切抜き画像メモリ14Aに登録したり、合成画像のフラッシュメモリ14への登録を行なうことができる。リンクテーブル50を設け、マスクパターンや切抜き画像と合成画像とその背景画像を関連付ける情報を記録している場合には、記録保存の際にそれら情報を更新する。なお、記録画像合成モード下の動作については後述する(図4,実施例4〜6,実施例9,10)。
(2) Synthesis of Recorded Image In the playback / display mode, when the mask button 66 or the release button 63 is pressed, the recording image is synthesized. When the mask button 66 is pressed, a desired mask pattern is generated from the recorded image as a mask pattern. It is possible to superimpose and display a desired pattern on a recorded image or paste and combine a desired recorded image and a desired pattern. When the release button 63 is pressed, the mask pattern generated from the recorded image is registered in the mask pattern memory 14B, the generated cutout image is registered in the cutout image memory 14A, and the composite image is registered in the flash memory 14. Can be performed. If the link table 50 is provided and information for associating the mask pattern or the cut-out image with the composite image and its background image is recorded, the information is updated at the time of recording and saving. The operation in the recording image synthesis mode will be described later (FIG. 4, Embodiments 4 to 6, Embodiments 9 and 10).

<画像加工手段>
画像加工手段100は、通常モード下での画像加工処理を実行する。画像加工手段100はハードウエア回路で構成することもできるが本実施例では画像加工手段100をプログラムで構成している。なお、画像加工手段100の各モジュールのうちあるモジュールをハードウエア回路で、その他のモジュールをプログラムで構成するようにしてもよい。また、プログラムで構成された画像加工手段100の各モジュールはROM22またはフラッシュメモリ14に記録され、制御プログラムのコントロール下でCPU21により実行制御され、本実施例の各種画像加工処理を実現する。図4は画像加工手段100の構成例を示すブロック図であり、画像加工手段100は、スルー画像合成処理手段110と記録画像合成処理手段120および案内枠表示処理手段130を含んでいる。
<Image processing means>
The image processing means 100 executes image processing in the normal mode. Although the image processing means 100 can be constituted by a hardware circuit, in this embodiment, the image processing means 100 is constituted by a program. Some of the modules of the image processing means 100 may be configured by a hardware circuit, and the other modules may be configured by a program. Further, each module of the image processing means 100 constituted by a program is recorded in the ROM 22 or the flash memory 14 and is executed and controlled by the CPU 21 under the control of the control program, thereby realizing various image processing of this embodiment. FIG. 4 is a block diagram illustrating a configuration example of the image processing unit 100. The image processing unit 100 includes a through-image synthesis processing unit 110, a recorded image synthesis processing unit 120, and a guide frame display processing unit 130.

[スルー画像合成処理手段]
スルー画像合成処理手段110は、記録モード下で撮像モードからスルー画像合成モードに切換えられた場合に画像加工方法を判定する加工方法判定手段111と、スルー画像から所望のマスクパターンを抽出してマスクパターンメモリ14Bに登録するパターン生成/登録手段112と、スルー画像と所望のマスクパターンを重畳表示し、重畳表示されたスルー画像と所望のパターンから所望の切抜き画像を生成してて切抜き画像メモリ14Aに登録する切抜き画像生成/登録手段113と、スルー画像に所望の切抜き画像を重畳表示し、スルー画像と所望の切抜き画像との貼込み合成処理を行なうスルー画像合成手段114を含んでいる。
[Through image synthesis processing means]
The through-image synthesis processing unit 110 includes a processing method determination unit 111 that determines an image processing method when the shooting mode is switched from the imaging mode to the through-image synthesis mode in the recording mode, and a mask that extracts a desired mask pattern from the through image and performs masking. A pattern generation / registration unit 112 to be registered in the pattern memory 14B, a through image and a desired mask pattern are superimposed and displayed, and a desired cutout image is generated from the superimposed and displayed through image and the desired pattern to generate a cutout image memory 14A. And a through-image synthesizing unit 114 that superimposes and displays a desired cut-out image on a through-image and performs a pasting-and-synthesizing process between the through-image and the desired cut-out image.

加工方法判定手段111は、モード判別手段からスルー画像合成処理手段110に遷移すると起動され、CPU21がキー入力部24から受け取った使用者の操作結果(状態信号)を判定して、使用者の操作結果がマスクボタン66の押し下げの場合にはパターン生成/登録手段112を起動し、フレームボタン61の押し下げなら切抜き画像生成/登録手段113を起動し、レリーズボタンの押し下げならスル−画像合成手段114を起動する。   The processing method determining unit 111 is activated when the mode determining unit transits to the live view image combining processing unit 110, and the CPU 21 determines the operation result (state signal) of the user received from the key input unit 24, and performs the operation of the user. If the result is that the mask button 66 is depressed, the pattern generation / registration means 112 is activated. If the frame button 61 is depressed, the cutout image generation / registration means 113 is activated. If the release button is depressed, the through-image synthesis means 114 is activated. to start.

なお、オプションとして、リンクテーブル50をフラッシュメモリ14に設ける場合にリンクテーブル50に登録する情報、例えば、背景画像と合成画像の関係を示す画像番号や、背景画像と切抜き画像或いはマスクパターンとの関係を示すポインタ情報等を生成する加工情報付与手段115をスル−画像合成手段の後段に組込むように構成してもよい。   As an option, information registered in the link table 50 when the link table 50 is provided in the flash memory 14, such as an image number indicating the relationship between the background image and the composite image, and the relationship between the background image and the cutout image or the mask pattern. May be incorporated in the subsequent stage of the through-image synthesizing means.

パターン生成/登録手段112は、2値化パターン生成手段1121と輝度成分加工パターン生成手段1122とを有している。パターン生成/登録手段112は、撮像モードで使用者がマスクパターンとして所望する被写体像を見付けたり、マスクパターンとして登録したいパターンを紙や板に描いたとき(例えば、図8(A))そのスルー画像を見て所望のアングルでマスクボタン66を押した場合に加工方法判定手段111によって起動され、そのスル−画像(パターン候補画像)をDRAM13に取込み、2値化パターン生成手段1121を起動して、取込まれたパターン候補画像を2値化して2値化されたパターン(図8(B))を液晶ディスプレイ20に表示する。この場合、アップダウンキー67が押されると輝度成分加工パターン生成手段1122を起動して、パターン候補画像の輝度成分を所定ビット(実施例では8ビット)で取込み輝度成分を変更して、抽出されたパターン(図8(B'))を液晶ディスプレイ20に表示する。ここで、レリーズボタン63が押されると抽出されたパターンはマスクパターンメモリ14Bに登録(記録)される(実施例1)。   The pattern generation / registration unit 112 includes a binarized pattern generation unit 1121 and a luminance component processing pattern generation unit 1122. The pattern generation / registration unit 112 allows the user to find a desired subject image as a mask pattern in the imaging mode or to draw a pattern to be registered as a mask pattern on paper or a board (for example, FIG. 8A). When the user presses the mask button 66 at a desired angle while viewing the image, the processing method determination unit 111 starts the operation, the through image (pattern candidate image) is taken into the DRAM 13, and the binarization pattern generation unit 1121 is started. Then, the captured pattern candidate image is binarized and the binarized pattern (FIG. 8B) is displayed on the liquid crystal display 20. In this case, when the up / down key 67 is pressed, the luminance component processing pattern generating means 1122 is activated, the luminance component of the pattern candidate image is fetched with a predetermined bit (8 bits in the embodiment), and the luminance component is changed. The displayed pattern (FIG. 8 (B ′)) is displayed on the liquid crystal display 20. Here, when the release button 63 is pressed, the extracted pattern is registered (recorded) in the mask pattern memory 14B (Example 1).

また、被写体の輪郭を検出して抽出する輪郭抽出処理を行なってマスクパターンとして所望する被写体像のパターンを抽出するパターン生成手段1125を含むようにパターン生成/登録手段112を構成してもよい。   Further, the pattern generation / registration unit 112 may be configured to include a pattern generation unit 1125 that performs a contour extraction process of detecting and extracting a contour of a subject and extracting a pattern of a desired subject image as a mask pattern.

また、使用者が移動キー62を用いて液晶表示部20の画面上でカーソルを移動させ、マスクパターンとして所望する被写体像の輪郭をなぞって、パターンを抽出するパターン生成手段1125を含むようにパターン生成/登録手段112を構成してもよい。また、図1で、図2に示したキー入力部24のキーおよびボタンのほかに入力手段として、液晶表示部20の画面上に透明な位置検出センサー(図示せず)を配設してタッチペン等のポインティングデバイス(図示せず)或いは指で指定可能に構成されている場合に、スルー画像中の被写体像の輪郭をなぞってマスクパターンとして抽出できるようにパターン生成手段1125を構成してもよい(実施例8)。   Further, the user moves the cursor on the screen of the liquid crystal display unit 20 using the movement key 62, traces the contour of the desired subject image as a mask pattern, and includes a pattern generation unit 1125 for extracting the pattern. The generation / registration unit 112 may be configured. In FIG. 1, a transparent position detection sensor (not shown) is provided on the screen of the liquid crystal display unit 20 as input means in addition to the keys and buttons of the key input unit 24 shown in FIG. When a pointing device (not shown) or a finger can be used to specify the pattern, the pattern generating unit 1125 may be configured so that the contour of the subject image in the through image can be traced and extracted as a mask pattern. (Example 8).

なお、登録するマスクパターンは、図形、模様、枠(例えば、自動車運転免許証用写真の大きさの撮影枠やパスポート写真用の大きさの撮影枠等、画像の大きさを示す撮影枠等)でもよい。
また、物、動物、植物、建物、看板等の付属設備、風景、自然現象等様々の一般的な被写体でもよく、撮影可能であって、マスクパターンとして抽出できるものであればよい。なお、このような一般的な画像に含まれている複数の被写体について、再生時に距離に応じた部分を抽出してマスクパターンを生成することもできる。この場合、撮影時に、測距手段から撮影画像中の複数のポイントの被写体までの距離を得て画像データと共に記憶する距離データ記憶手段1126を含むようにパターン生成/登録手段112を構成する(実施例9)。測定された距離データは後述のリンクテーブル50に書込むようにすることが望ましい。
The mask pattern to be registered is a figure, a pattern, or a frame (for example, a photographing frame indicating the size of an image, such as a photographing frame having a size of a photograph for a car driving license or a photographing frame having a size for a passport photograph). May be.
Various general subjects such as objects, animals, plants, buildings, signboards, and other attached facilities, landscapes, and natural phenomena may be used, as long as they can be photographed and can be extracted as mask patterns. Note that, for a plurality of subjects included in such a general image, a portion corresponding to the distance can be extracted at the time of reproduction to generate a mask pattern. In this case, at the time of shooting, the pattern generation / registration unit 112 is configured to include a distance data storage unit 1126 that obtains the distance from the distance measurement unit to the subject at a plurality of points in the shot image and stores the distance together with the image data (implementation). Example 9). It is desirable that the measured distance data be written in a link table 50 described later.

また、使用者が移動キー62を用いて液晶表示部20の画面上でカーソルを移動させて軌跡を描き、描かれた図形をマスクパターンとして切り取るようにパターン生成手段1125を構成してもよい。また、液晶表示部20の画面上に透明な位置検出センサー(図示せず)を配設してタッチペン等のポインティングデバイス(図示せず)或いは指で指定可能に構成されている場合は、使用者が、液晶表示部20の画面上にポイントしながら図形を描き、描かれた図形をマスクパターンとして切り取るようにパターン生成手段1125を構成してもよい。なお、位置検出センサーをタッチ電極等の接触型検出センサーで構成した場合は、使用者が指で画面にタッチして描いた図形を切抜くこともできる(実施例10)。   Further, the pattern generation unit 1125 may be configured so that the user moves the cursor on the screen of the liquid crystal display unit 20 using the movement key 62 to draw a locus, and cuts out the drawn figure as a mask pattern. When a transparent position detection sensor (not shown) is provided on the screen of the liquid crystal display unit 20 and can be designated by a pointing device (not shown) such as a touch pen or a finger, the user However, the pattern generation unit 1125 may be configured to draw a graphic while pointing on the screen of the liquid crystal display unit 20 and cut out the drawn graphic as a mask pattern. When the position detection sensor is constituted by a contact type detection sensor such as a touch electrode, it is also possible to cut out a figure drawn by a user touching the screen with a finger (Example 10).

切抜き画像生成/登録手段113は、マスクパターンメモリ14Bに登録された所望のマスクパターンでスルー画像のうち所望する部分を切抜いて切抜き画像メモリ14Aに登録(記憶)する(実施例2)。   The cutout image generation / registration unit 113 cuts out a desired portion of the through image with the desired mask pattern registered in the mask pattern memory 14B and registers (stores) the cutout image in the cutout image memory 14A (second embodiment).

この場合、画面上に表示したマスクパターンの中から使用者が所望のものを選択する。また、選択されたマスクパターンでスルー画像の所望の部分を切抜く場合にマスクパターンとスルー画像を画面に合成して液晶ディスプレイ20に表示してスルー画像(或いは、マスクパターン)の位置付けを行なう。しかしこのような画面表示(以下、プレビュー画面表示という)には時間がかかるので、プレビュー表示を迅速化するためにプレビュー表示を高速に行なう表示座標決定手段を含むように切抜き画像生成/登録手段113を構成することができる(実施例11)。   In this case, the user selects a desired one from the mask patterns displayed on the screen. When a desired portion of the through image is cut out using the selected mask pattern, the mask pattern and the through image are combined on a screen and displayed on the liquid crystal display 20 to position the through image (or the mask pattern). However, since such a screen display (hereinafter, referred to as a preview screen display) takes time, the cut-out image generation / registration unit 113 includes a display coordinate determination unit that performs preview display at high speed in order to speed up the preview display. (Example 11).

スルー画像合成手段114は、切抜き画像メモリ14Aに登録された切抜き画像と撮像モード下のスルー画像のうち所望の画像とを合成し、フラッシュメモリ14に登録(記録)する(実施例3)。この場合、使用者はカメラを移動させてスルー画像を動かし所望のアングルで切抜き画像が重なるようにすることができる。また、カメラを移動させないで、表示された切抜き画像を移動させてスルー画像上の所望の部分に重なるようにすることもできる。   The through-image synthesizing unit 114 combines the cut-out image registered in the cut-out image memory 14A with a desired image among the through-images in the imaging mode, and registers (records) it in the flash memory 14 (third embodiment). In this case, the user can move the camera to move the through image so that the cutout images overlap at a desired angle. Alternatively, the displayed cut-out image can be moved without moving the camera so as to overlap a desired portion on the through image.

この場合、画面上に表示した切抜き画像の中から使用者が所望のものを選択する。また、選択された切抜き画像をスルー画像の所望の部分に張込んで合成する場合に切抜き画像とスルー画像を画面に表示して位置付けを行なう。このようなプレビュー画面表示を迅速化するため、切抜き画像生成/登録手段113と同様にプレビュー表示を高速に行なう表示座標決定手段を含むようにスルー画像合成114を構成することができる(実施例11)。   In this case, the user selects a desired one from the cutout images displayed on the screen. In addition, when the selected cutout image is embedded in a desired portion of the through image and combined, the cutout image and the through image are displayed on the screen and positioned. In order to speed up such preview screen display, the through-image synthesis 114 can be configured to include a display coordinate determination unit that performs preview display at high speed, similarly to the cut-out image generation / registration unit 113 (Example 11). ).

また、合成された画像を圧縮してフラッシュメモリ14に登録する場合の解像度を切抜き画像の解像度やスルー画像の解像度等から自動的に決定する解像度決定手段を含むようにスルー画像合成手段114を構成することができる(実施例12)。   Further, the through-image synthesizing unit 114 is configured to include a resolution determining unit that automatically determines the resolution when the synthesized image is compressed and registered in the flash memory 14 from the resolution of the cut-out image, the resolution of the through-image, and the like. (Example 12).

[記録画像合成処理手段]
記録画像合成処理手段120は、再生モード下で再生/表示モードから記録画像合成モードに切換えられた場合に画像加工方法を判定する加工方法判定手段121と、記録画像からマスクパターンを抽出/生成してマスクパターンメモリ14Bに登録するマスクパターン生成/登録手段122と、記録画像に所望のパターンを重畳表示して、重畳表示された記録画像を所望のマスクパターンで切抜いて切抜き画像の生成処理を行なう切抜き画像生成/登録手段123と、記録画像と所望の切抜き画像を重畳表示し、所望の記録画像に所望の切抜き画像を張込む記録画像合成手段124を含んでいる。
なお、オプションとして、リンクテーブル50をフラッシュメモリ14に設ける場合にリンクテーブル50に登録する情報、例えば、背景画像と合成画像の関係を示す画像番号や、背景画像と切抜き画像或いはマスクパターンとの関係を示すポインタ情報等を生成する加工情報付与手段125を記録画像合成手段124の後段に組込むように構成してもよい。
[Recorded image synthesis processing means]
The recording image synthesizing processing unit 120 extracts a mask pattern from a recording image, and a processing method determining unit 121 that determines an image processing method when the mode is switched from the reproduction / display mode to the recording image synthesis mode in the reproduction mode. And a mask pattern generating / registering means 122 for registering the desired pattern in the mask pattern memory 14B, and performing a process of generating a cutout image by superimposing and displaying a desired pattern on the recorded image and clipping the superimposed displayed image with a desired mask pattern. It includes a cut-out image generation / registration unit 123 and a recorded image synthesizing unit 124 that superimposes and displays a recorded image and a desired cut-out image and superimposes the desired cut-out image on the desired recorded image.
Optionally, information to be registered in the link table 50 when the link table 50 is provided in the flash memory 14, such as an image number indicating the relationship between the background image and the composite image, or the relationship between the background image and the cutout image or the mask pattern. May be incorporated in the subsequent stage of the recorded image synthesizing means 124.

加工方法判定手段121は、モード判別手段から記録画像合成処理手段120に遷移すると起動され、CPU21がキー入力部24から受け取った使用者の操作結果(状態信号)を判定して、使用者の操作結果がマスクボタン66の押し下げの場合にはパターン生成/登録手段122を起動し、フレームボタン61を押し下げなら切抜き画像生成/登録手段123を起動し、レリーズボタンを押し下げなら記録画像合成手段124を起動する。   The processing method determining means 121 is activated when the mode determining means transits to the recorded image synthesizing processing means 120, and the CPU 21 determines the operation result (state signal) of the user received from the key input unit 24, and performs the operation of the user. If the result is that the mask button 66 is depressed, the pattern generation / registration means 122 is activated. If the frame button 61 is depressed, the cutout image generation / registration means 123 is activated. If the release button is depressed, the recorded image synthesis means 124 is activated. I do.

パターン生成/登録手段122は、2値化パターン生成手段1221と輝度成分加工パターン生成手段1222とを有している。ここで、2値化パターン生成手段1221と輝度成分加工パターン生成手段1222は前述の2値化パターン生成手段1121と輝度成分加工パターン生成手段1122と同じ構成および機能を有しているので共通モジュールとして構成し、パターン生成/登録手段112或いはパターン生成/登録手段122が起動された時にそのモジュールに分岐し、処理が終り次第、パターン生成/登録手段112或いはパターン生成/登録手段122に復帰させるように構成することが望ましい。   The pattern generation / registration unit 122 includes a binarized pattern generation unit 1221 and a luminance component processing pattern generation unit 1222. Here, since the binarized pattern generation unit 1221 and the luminance component processing pattern generation unit 1222 have the same configuration and function as the above-described binarization pattern generation unit 1121 and luminance component processing pattern generation unit 1122, they are used as common modules. When the pattern generation / registration unit 112 or the pattern generation / registration unit 122 is activated, the process branches to the module, and returns to the pattern generation / registration unit 112 or the pattern generation / registration unit 122 as soon as the processing is completed. It is desirable to configure.

パターン生成/登録手段122は、再生/表示モードで再生され表示された記録画像のうちから、使用者がマスクパターンとして所望する画像を見付けてマスクボタン66を押した場合に加工方法判定手段121によって起動され、その画像をDRAM13に設けられているワークエリアに書込み、2値化パターン生成手段1221に分岐し、処理が終ると復帰して抽出された2値化パターン(図16(C))を液晶ディスプレイ20に表示する。この場合、アップダウンキー67が押されると輝度成分加工パターン生成手段1222に分岐して、処理が終ると復帰して抽出されたパターン(図16(C'))を液晶ディスプレイ20に表示する。ここで、レリーズボタン63が押されると抽出されたパターンはマスクパターンメモリ14Bに登録(記録)される(実施例4)。   The pattern generation / registration unit 122 performs processing by the processing method determination unit 121 when the user finds an image desired as a mask pattern from the recorded images reproduced and displayed in the reproduction / display mode and presses the mask button 66. When started, the image is written into the work area provided in the DRAM 13 and branched to the binarized pattern generating means 1221. When the processing is completed, the binarized pattern is returned and the extracted binarized pattern (FIG. 16C) is returned. The information is displayed on the liquid crystal display 20. In this case, when the up / down key 67 is pressed, the process branches to the luminance component processing pattern generating means 1222, and upon completion of the processing, returns to display the extracted pattern (FIG. 16C ') on the liquid crystal display 20. Here, when the release button 63 is pressed, the extracted pattern is registered (recorded) in the mask pattern memory 14B (Example 4).

また、前述したパターン生成/登録手段112と同様に、被写体の輪郭を検出して抽出する輪郭抽出処理を行なってマスクパターンとして所望する被写体像のパターンを抽出するパターン生成手段1225を含むようにパターン生成/登録手段122を構成してもよい。また、パターン生成手段1225を、再生時に、使用者が距離を指定すると記憶されている距離データに基づいて一致する画像部分を抽出してマスクパターンを生成するように構成してもよい(実施例9)。
また、前述したパターン生成/登録手段112と同様に、使用者が移動キー62を用いて液晶表示部20の画面上でカーソルを移動させて軌跡を描き、描かれた図形をマスクパターンとして抽出するパターン生成手段1225を含むように構成してもよい。また、同様に、入力手段として、液晶表示部20の画面上に透明な位置検出センサーを配設してポインティングデバイスで指定可能に構成されている場合は、使用者が、液晶表示部20の画面上をポイントしながら図形を描き、描かれた図形をマスクパターンとして切り取るようにパターン生成手段1225を構成してもよい。位置検出センサーを接触型検出素子で構成した場合、使用者が指で画面にタッチして描いた図形を切抜くことができる点も同様である(実施例10)。
Similarly to the above-described pattern generation / registration unit 112, the pattern generation unit 1225 includes a pattern generation unit 1225 that performs a contour extraction process of detecting and extracting a contour of a subject to extract a desired pattern of a subject image as a mask pattern. The generation / registration unit 122 may be configured. In addition, the pattern generation unit 1225 may be configured to generate a mask pattern by extracting a matching image portion based on stored distance data when a user specifies a distance during reproduction (embodiment). 9).
Similarly to the pattern generation / registration unit 112 described above, the user moves the cursor on the screen of the liquid crystal display unit 20 using the movement key 62 to draw a locus, and extracts the drawn figure as a mask pattern. You may comprise so that the pattern generation means 1225 may be included. Similarly, when a transparent position detection sensor is provided on the screen of the liquid crystal display unit 20 as an input means and is configured to be able to be designated by a pointing device, the user can use the screen of the liquid crystal display unit 20. The pattern generation unit 1225 may be configured to draw a figure while pointing up, and cut out the drawn figure as a mask pattern. In the case where the position detection sensor is configured by a contact-type detection element, the user can touch the screen with his / her finger to cut out a drawn figure (Embodiment 10).

なお、登録するマスクパターンは前述したパターン生成/登録手段112の場合と同様、図形、模様、枠(例えば、自動車運転免許証用写真の大きさの撮影枠やパスポート写真用の大きさの撮影枠等、画像の大きさを示す撮影枠等)、物、動物、自然現象等様々なものでよく、マスクパターンとして抽出できるものであればよい。   The mask pattern to be registered is a figure, a pattern, or a frame (for example, a photographing frame of a size for a car driver's license or a photographing frame of a size for a passport photograph), as in the case of the pattern generation / registration unit 112 described above. For example, a photographing frame indicating the size of an image, an object, an animal, a natural phenomenon, etc. may be used as long as it can be extracted as a mask pattern.

切抜き画像生成/登録手段123は、マスクパターンメモリ14Bに登録されたマスクパターンで再生された記録画像のうちの所望の画像の所望の部分を切抜き切抜き画像メモリ14Aに登録する(実施例5)。
この場合、画面上に表示されたマスクパターンの中から使用者が所望のものを指定して選択する。また、選択されたマスクパターンで記録画像の所望の部分を切取る場合にマスクパターンと記録画像を画面に合成して表示し、位置付けを行なう。このようなプレビュー画面表示を迅速化するために切抜き画像生成/登録手段113と同様に、プレビュー表示を高速に行なう表示座標決定手段を含むように切抜き画像生成/登録手段123を構成することができる(実施例11)。
The cutout image generation / registration unit 123 registers a desired portion of a desired image in the recorded image reproduced with the mask pattern registered in the mask pattern memory 14B in the cutout image memory 14A (Embodiment 5).
In this case, the user specifies and selects a desired pattern from the mask patterns displayed on the screen. When a desired portion of the print image is cut out with the selected mask pattern, the mask pattern and the print image are combined and displayed on a screen, and positioning is performed. The cutout image generation / registration unit 123 can be configured to include a display coordinate determination unit that performs preview display at high speed, like the cutout image generation / registration unit 113 in order to speed up the preview screen display. (Example 11).

記録画像合成手段124は、切抜き画像メモリ14Aに登録された所望の切抜き画像と再生された記録画像のうちの所望の画像の所望の部分とを合成し、フラッシュメモリ14に記録する(実施例6)。   The recording image synthesizing unit 124 synthesizes a desired clipped image registered in the clipped image memory 14A with a desired portion of a desired image of the reproduced recorded images, and records the resultant in the flash memory 14 (Embodiment 6). ).

また、使用者は、表示された切抜き画像を移動させて背景となる再生画像上の所望の部分に重なるようにすることができる。また、逆に、背景となる再生画像を移動させて所望のアングルで切抜き画像が重なるようにすることもできる。この場合、画面上に表示した切抜き画像の中から使用者が所望のものを選択する。また、選択された切抜き画像を記録画像の所望の部分に張込んで合成する場合に切抜き画像と記録画像を画面に表示して位置付けを行なう。このようなプレビュー画面表示を迅速化するため、スルー画像合成手段114と同様にプレビュー表示を高速に行なう表示座標決定手段を含むように記録画像合成手段124を構成することができる(実施例11)。   Further, the user can move the displayed cutout image so as to overlap a desired portion on the reproduced image serving as the background. Conversely, the reproduced image serving as the background can be moved so that the cut-out images overlap at a desired angle. In this case, the user selects a desired one from the cutout images displayed on the screen. Further, when the selected cutout image is pasted on a desired portion of the recorded image and combined, the cutout image and the recorded image are displayed on the screen to perform positioning. In order to speed up such preview screen display, the recorded image synthesizing unit 124 can be configured to include a display coordinate determining unit that performs preview display at high speed, similarly to the through image synthesizing unit 114 (Embodiment 11). .

また、合成された画像を圧縮してフラッシュメモリ14に登録する場合の解像度を切抜き画像の解像度や記録画像の解像度等から自動的に決定する解像度決定手段を含むように記録画像合成手段124を構成することができる(実施例12)。   Further, the recording image synthesizing unit 124 is configured to include a resolution determining unit that automatically determines the resolution when the synthesized image is compressed and registered in the flash memory 14 from the resolution of the cut-out image, the resolution of the recording image, and the like. (Example 12).

[案内枠表示処理手段]
案内枠表示処理手段130は、撮像モード下でマスクパターンメモリに登録された証明写真用案内枠等の案内枠パターンを液晶ディスプレイ20に表示し、証明写真を撮る際に、被撮影者の像を表示された案内枠内に収るように撮影者がカメラアングルを調整して撮影/記録することにより、所望のサイズの画像を得ることができる。なお、印刷時に所望のサイズで印刷できるように記録時にリンクテーブル50にサイズ情報を画像と対応させて記録することが望ましい。
[Guidance frame display processing means]
The guide frame display processing means 130 displays a guide frame pattern such as a guide frame for an ID photograph registered in the mask pattern memory on the liquid crystal display 20 in the imaging mode, and displays an image of a subject when taking an ID photo. The photographer adjusts the camera angle so that it fits within the displayed guide frame, and performs photographing / recording, so that an image of a desired size can be obtained. It is desirable that the size information is recorded in the link table 50 in association with the image at the time of recording so that the desired size can be printed at the time of printing.

<リンクテーブル>
図5はリンクテーブルの構成例を示す説明図であり、リンクテーブル50は合成画像とその背景画像(この場合は記録画像)をフラッシュメモリ14上で関連付ける情報、すなわち、合成画像および背景画像の画像番号や、パターンの種類や画像番号や、切抜き画像の画像番号等を記録することができる。
図5で、(A)は貼り付け合成後、合成画像をフラッシュメモリ14に記録した場合の合成画像と背景画像および切抜き画像を対応づけたリンクテーブルの例を示し、画像番号欄511には合成画像の画像番号が、画像番号欄512には背景画像の画像番号が、切抜き画像番号欄513には切抜き画像メモリ14Aに格納されている切抜き画像の番号が記録される。
<Link table>
FIG. 5 is an explanatory diagram showing a configuration example of the link table. The link table 50 is information for associating the composite image and its background image (in this case, the recorded image) on the flash memory 14, that is, the image of the composite image and the background image. A number, a pattern type, an image number, an image number of a cutout image, and the like can be recorded.
In FIG. 5, (A) shows an example of a link table in which the combined image, the background image, and the cutout image are associated with each other when the combined image is recorded in the flash memory 14 after pasting and combining. The image number of the image, the image number of the background image in the image number column 512, and the number of the clipped image stored in the clipped image memory 14A are recorded in the clipped image number column 513.

また、(B)は貼り付け合成後、合成画像を記録することなく、合成画像と背景画像および切抜き画像を対応づける情報を登録するリンクテーブルの例を示し、切抜き画像番号欄513−1〜513−n(n≧1)には画像番号欄512に記録されている画像番号の背景画像と合成した切抜き画像の番号が記録される。   (B) shows an example of a link table for registering information for associating a synthesized image with a background image and a cutout image without recording a synthesized image after pasting and synthesizing, and a cutout image number column 513-1 to 513. In −n (n ≧ 1), the number of the cut-out image synthesized with the background image of the image number recorded in the image number column 512 is recorded.

また、(C)は切抜き画像生成の際に用いられた切抜き画像と背景画像(背景画像として合成画像を用いてもよい)およびマスクパターン画像を対応づける情報を登録したリンクテーブルの例を示し、マスクパターン番号欄514にはマスクパターンメモリ14Bに記録されているマスクパターンのうち切抜き画像番号欄513に記録された切抜き画像番号の切抜き画像を生成する際に用いられたマスクパターンの番号が記録されている。また、合成位置欄515には切抜き画像生成の際に背景画像上でマスクパターンが位置付けられた背景画像の位置情報(座標値)が記録される。   (C) shows an example of a link table in which information for associating a clipped image, a background image (a combined image may be used as a background image), and a mask pattern image used for generating a clipped image is registered. In the mask pattern number column 514, the number of the mask pattern used when generating the cutout image of the cutout image number recorded in the cutout image number column 513 among the mask patterns recorded in the mask pattern memory 14B is recorded. ing. Also, in the composite position column 515, position information (coordinate values) of the background image in which the mask pattern is positioned on the background image when the cutout image is generated is recorded.

なお、画像距離データ記憶手段1226を含むようにパターン生成/登録手段122を構成した場合には、1つの画像に対して複数の距離欄を設けておき指定された被写体までの距離データを記録できるように構成する。また、画像印刷時の印刷画像の大きさを指定する印刷サイズ欄を設け、印刷サイズの値或いは印刷サイズに対応するコードを記録することもできる。   When the pattern generation / registration unit 122 is configured to include the image distance data storage unit 1226, a plurality of distance columns are provided for one image, and distance data to a designated subject can be recorded. The configuration is as follows. Further, a print size field for designating the size of a print image at the time of image printing may be provided, and a value of the print size or a code corresponding to the print size may be recorded.

<実施例>
図6は、スルー画像合成モード若しくは記録画像合成モード下での画像と切抜き画像との合成例(貼り付け合成処理)の説明図である。図6(A)の画像を撮像モード下で液晶ディスプレイ20に表示されたスルー画像、若しくは再生モード下で再生された記録画像とする。また、図6(B)に示すような切抜き画像がDRAM13に記憶されているか、若しくは予め切抜き画像メモリ14(A)に登録されているとする。この場合、貼り付け合成処理では、図6(A)の画像と図6(B)に示す切抜き画像とを合成して、図6(C)に示す合成画像を生成する。以下、スルー画像合成モードと記録画像合成モードの実施例について説明する。
<Example>
FIG. 6 is an explanatory diagram of an example of combining an image and a cutout image (paste combining process) in the through image combining mode or the recorded image combining mode. The image in FIG. 6A is a through image displayed on the liquid crystal display 20 in the imaging mode or a recorded image reproduced in the reproduction mode. It is also assumed that a clipped image as shown in FIG. 6B is stored in the DRAM 13 or registered in the clipped image memory 14A in advance. In this case, in the pasting / synthesizing process, the image of FIG. 6A and the clipped image of FIG. 6B are synthesized to generate a synthesized image of FIG. Hereinafter, embodiments of the through image synthesis mode and the recorded image synthesis mode will be described.

[実施例1]:パターン生成/登録処理(スルー画像からのマスクパターン生成/登録)
本実施例は、パターン生成/登録手段112の一実施例であり、スルー画像合成モード下でスルー画像から背景処理により所望のマスクパターンを抽出してマスクパターンメモリ14Bに登録する例である。図7はパターン生成/登録処理動作の一実施例を示すフローチャートであり、図8は図7のフローチャートに基づくパターン生成/登録過程の説明図である。図7で、撮像モードで使用者がマスクパターンとして所望する図8(A)に示すような画像(この例では紙や板に描いたハートマーク)を撮影し、被写体像(ハートマーク)をDRAM13に一旦取込んでスルー画像表示する(T1)。
[Example 1]: Pattern generation / registration processing (mask pattern generation / registration from through image)
This embodiment is an embodiment of the pattern generation / registration unit 112 in which a desired mask pattern is extracted from the through image by background processing in the through image synthesis mode and registered in the mask pattern memory 14B. FIG. 7 is a flowchart showing one embodiment of the pattern generation / registration processing operation, and FIG. 8 is an explanatory diagram of the pattern generation / registration process based on the flowchart of FIG. In FIG. 7, an image (a heart mark drawn on paper or a board in this example) desired by the user as a mask pattern in the imaging mode as shown in FIG. And a through image is displayed (T1).

次に、そのスルー画像を見ながらカメラを移動させ所望のアングルでマスクボタン66を操作するとCPU21はDRAM13に一旦記憶された画像データをDRAM13のワークエリアに書込む(T2)。   Next, when the camera is moved and the mask button 66 is operated at a desired angle while viewing the through image, the CPU 21 writes the image data once stored in the DRAM 13 into the work area of the DRAM 13 (T2).

ここで、CPU21は使用者がアップダウンキー67を操作したかを調べ、アップダウンキー67が操作された場合にはT7に移行し(T3)、操作されていない場合にはワークエリアに書込まれた被写体像(画像データ)を背景処理して切り取ったのち、2値化処理する(T4)。   Here, the CPU 21 checks whether or not the user has operated the up / down key 67. If the up / down key 67 has been operated, the process proceeds to T7 (T3), and if not, the CPU 21 writes the data in the work area. The subject image (image data) thus cut is subjected to background processing and cut out, and then binarized (T4).

2値化処理後、シグナルジェネレータ16はこの2値化画像データをビデオデータ化してVRAM17に描画した後、VRAM17に描画したビデオデータを読み出して液晶ディスプレイ20に出力し表示させる。これにより、液晶ディスプレイ20には使用者が撮像レンズ1を介してモニターしているパターン化候補画像を2値化パターンに加工した結果がスルー画像表示される。使用者はこの液晶ディスプレイ20に表示された画像を見てパターン(図8(B))を確認することができる(T5)。   After the binarization process, the signal generator 16 converts the binarized image data into video data and draws the video data on the VRAM 17, reads out the video data drawn on the VRAM 17, outputs the video data to the liquid crystal display 20, and displays the video data. As a result, a through image is displayed on the liquid crystal display 20 as a result of processing the patterning candidate image monitored by the user via the imaging lens 1 into a binary pattern. The user can check the pattern (FIG. 8B) by viewing the image displayed on the liquid crystal display 20 (T5).

ここで、CPU21は使用者がレリーズボタン63を操作したかを調べ、レリーズボタン63が押された場合にはT12に移行し、押されていない場合にはT3に戻る(T6)。上記T3でアップダウンキー67が操作された場合には輝度成分変更操作がされたかを調べる。輝度成分変更操作の有無はプラスとマイナスのアップダウンキーが同時に押されたか片方だけ押されたかにより判定し、同時に押された場合には変更操作がされなかったものとしてT9に移行し、片方が押された場合には変更操作があったものとしてT8に移行する(T7)。   Here, the CPU 21 checks whether the user has operated the release button 63. If the release button 63 has been pressed, the process proceeds to T12, and if not, the process returns to T3 (T6). When the up / down key 67 is operated at T3, it is checked whether or not the luminance component changing operation has been performed. The presence or absence of the luminance component change operation is determined by whether the plus and minus up-down keys are pressed simultaneously or only one of them, and if they are pressed simultaneously, it is determined that the change operation has not been performed, and the process proceeds to T9. If it is pressed, it is determined that a change operation has been performed, and the process proceeds to T8 (T7).

上記T7で、アップダウンキー67(+)が押されると輝度値が高い方に所定値ずつ(本実施例では1ずつ)シフトされ、アップダウンキー67(−)が押されると輝度値が低い方に所定値ずつ(本実施例では1ずつ)シフトされる。従って、アップダウンキー67(+)またはアップダウンキー67(−)を操作することにより、パターンの輝度値を変更することができる(T8)。DRAM13のワークエリアに書込まれたパターン候補画像の輝度成分を8ビットで取込み加工し、パターン化する(T9)。   At T7, when the up / down key 67 (+) is pressed, the luminance value is shifted by a predetermined value (in this embodiment, one by one) to a higher value, and when the up / down key 67 (-) is pressed, the luminance value is low. Is shifted by a predetermined value (in this embodiment, one by one). Therefore, the luminance value of the pattern can be changed by operating the up-down key 67 (+) or the up-down key 67 (-) (T8). The luminance component of the pattern candidate image written in the work area of the DRAM 13 is fetched and processed by 8 bits to form a pattern (T9).

アップダウンキー67が1回操作される毎に、シグナルジェネレータ16はこの輝度加工画像データをビデオデータ化してVRAM17に描画した後、VRAM17に描画したビデオデータを読み出して液晶ディスプレイ20に出力し表示させる。これにより、液晶ディスプレイ20には使用者が撮像レンズ1を介してモニターしているパターン化候補画像を輝度加工パターンに加工した結果がスルー画像表示される。使用者はこの液晶ディスプレイ20に表示された画像を見てパターン(図8(B)')を確認することができる(T10)。   Each time the up / down key 67 is operated once, the signal generator 16 converts the brightness-processed image data into video data and draws it on the VRAM 17, reads out the video data drawn on the VRAM 17, outputs the video data on the liquid crystal display 20, and displays it. . As a result, a through image is displayed on the liquid crystal display 20 as a result of processing the patterning candidate image monitored by the user via the imaging lens 1 into a luminance processing pattern. The user can confirm the pattern (FIG. 8B ′) by looking at the image displayed on the liquid crystal display 20 (T10).

ここで、CPU21は使用者がレリーズボタン63を操作したかを調べ、レリーズボタン63が操作されている場合にはT12に移行し、操作されていない場合にはT7に戻る(T11)。CPU21は、上記T6またはT11でレリーズボタン63が押された場合、すなわち、所望のマスクパターン(図8(B)または(B'))を得た場合には、その時点で表示されているパターンをマスクパターンとして切出し、マスクパターンメモリ14Bに登録する(T12)。上記T10で得た輝度成分加工パターン画像は、図8(B')に示すようにパターンの境界周辺がぼやけた感じのパターンとなり、後述する図11(D)に示すようなぼかした感じの切り抜き画像(切抜き画像)を得ることができる。   Here, the CPU 21 checks whether or not the user has operated the release button 63. If the release button 63 has been operated, the process proceeds to T12, and if not, the process returns to T7 (T11). When the release button 63 is pressed at T6 or T11, that is, when a desired mask pattern (FIG. 8B or 8B ') is obtained, the CPU 21 displays the pattern displayed at that time. Is extracted as a mask pattern and registered in the mask pattern memory 14B (T12). The luminance component processing pattern image obtained in T10 becomes a pattern in which the periphery of the pattern is blurred as shown in FIG. 8B ′, and a blurred cutout as shown in FIG. An image (cutout image) can be obtained.

本実施例によれば、描画した絵を撮影してマスクパターンとして抽出/登録できるので、マスクパターンの登録が極く簡単にできる。また、好みのパターンをデザインして登録しておくことができるので、後述の合成処理等によりデザインパターンを基にした画像、例えば、商標や社章の試作等も簡単に行なえる。また、上記説明では描画した絵を撮影し、マスクパターンとして抽出/登録した例について述べたが、これに限られず、町や市街の風景やポスター、看板、雑誌等の中にある図形や画像を撮影して、それらのうち、使用者がパターン化してみたいと思うものを抽出してパターン化したり、直接描画入力した図形をパターン化することもできる。   According to the present embodiment, a drawn picture can be photographed and extracted / registered as a mask pattern, so that registration of the mask pattern can be extremely easily performed. In addition, since a favorite pattern can be designed and registered, an image based on the design pattern, for example, a prototype of a trademark or a company emblem can be easily produced by a synthesis process described later. In the above description, an example was described in which a drawn picture was photographed and extracted / registered as a mask pattern. However, the present invention is not limited to this, and figures and images in towns and cities, posters, signboards, magazines, and the like can be used. It is also possible to take an image and extract and pattern those which the user wants to pattern from among them, or to pattern a figure directly drawn and input.

前者の例としては、
(1) 被写体の輪郭を検出して抽出する輪郭抽出処理を行なってマスクパターンとして所望する被写体像のパターンを抽出する例、
(2) 画面上でカーソルを移動させ、マスクパターンとして所望する画像の輪郭をなぞってパターンを抽出する例、
(3) 画面上に透明な位置検出センサーを配設しておき、タッチペン等のポインテングデバイス等で、スルー画像の外郭をなぞってパターンとして抽出した例(実施例8)、を挙げることができ、後者の例としては、
(4) 使用者が画面上でカーソルを移動させて描いた図形を入力してマスクパターンとして抽出した例(実施例9)、
(5) 画面上に透明な位置検出センサーを配設しておき、タッチペン等のポインテングデバイスで画面に図形を描いてマスクパターンとして抽出した例、を挙げることができるが、これらに限定されない。
As an example of the former,
(1) an example of extracting a desired subject image pattern as a mask pattern by performing a contour extraction process of detecting and extracting a contour of a subject,
(2) An example in which a cursor is moved on a screen and a pattern is extracted by tracing a contour of a desired image as a mask pattern;
(3) An example in which a transparent position detection sensor is arranged on the screen, and a pattern is extracted by tracing the outline of the through image with a pointing device such as a touch pen (Example 8). , As an example of the latter,
(4) An example in which a user moves a cursor on a screen and inputs a drawn figure and extracts the figure as a mask pattern (Embodiment 9);
(5) An example in which a transparent position detection sensor is provided on a screen and a figure is drawn on the screen with a pointing device such as a touch pen and extracted as a mask pattern can be given, but not limited thereto.

[実施例2]:切抜き画像生成/登録処理(スルー画像とマスクパターンからの切抜き画像の生成/登録)
本実施例は、画像の生成/登録手段113の一実施例であり、スルー画像合成モード下でスルー画像と登録されたマスクパターンを適宜合成して切抜き画像とし、それを切り抜いて登録する例である。図9は切抜き画像生成/登録処理動作の一実施例を示すフローチャートであり、図10,図11は図9のフローチャートに基づく切抜き画像生成/登録過程の説明図である。以下、使用者が図10(A)に示すような被写体像を切抜き画像とする場合を例として説明する。
[Example 2]: Cutout image generation / registration processing (generation / registration of cutout image from through image and mask pattern)
This embodiment is an embodiment of the image generation / registration unit 113. In this example, a through image and a registered mask pattern are appropriately combined in a through image combining mode to form a cutout image, which is then cut out and registered. is there. FIG. 9 is a flowchart showing one embodiment of the cutout image generation / registration processing operation. FIGS. 10 and 11 are explanatory diagrams of the cutout image generation / registration process based on the flowchart of FIG. Hereinafter, a case will be described as an example where the user uses a subject image as shown in FIG. 10A as a cutout image.

図9で、撮像モード下で使用者が切抜き画像として所望する図10(A)に示すような被写体を撮影し、被写体像をDRAM13に一旦取込んでスルー画像表示する(U1)。ここで、CPU21は、マスクボタン66を操作されたか否かを調べ(S2)る。   In FIG. 9, a subject as shown in FIG. 10A, which is desired by the user as a cut-out image in the imaging mode, is photographed, and the subject image is once taken into the DRAM 13 and displayed as a through image (U1). Here, the CPU 21 checks whether or not the mask button 66 has been operated (S2).

使用者がマスクボタン66を押すとCPU21はマスクパターンメモリ14Bに記憶されているマスクパターンを読み出し、シグナルジェネレータ16を介してVRAM17に描画し、VRAM17に描画されたマスクパターンを読み出してD/A変換回路18およびアンプ19を介して液晶ディスプレイ20に表示する。これにより、例えば、図10(B)に示すようなマスクパターンが図10(A)に示すようなスルー画像と重畳されて図10(C)のように液晶ディスプレイ20に表示される。この場合、マスクパターンは画面中央に位置付けられている(U3)。   When the user presses the mask button 66, the CPU 21 reads the mask pattern stored in the mask pattern memory 14B, draws the mask pattern on the VRAM 17 via the signal generator 16, reads the mask pattern drawn on the VRAM 17, and performs D / A conversion. The information is displayed on the liquid crystal display 20 via the circuit 18 and the amplifier 19. Thereby, for example, a mask pattern as shown in FIG. 10B is superimposed on a through image as shown in FIG. 10A and displayed on the liquid crystal display 20 as shown in FIG. 10C. In this case, the mask pattern is positioned at the center of the screen (U3).

ここで、さらにマスクボタン66を押すと次のマスクパターンが読み出されスルー画像と重畳表示されるので、使用者は液晶ディスプレイ20に表示されたマスクパターンが所望のものか否かを判断し、所望のマスクパターンでない場合には所望のマスクパターンが現われるまでマスクボタン66を押してマスクパターンとスルー画像を合成して重畳表示させる(U4)。   Here, when the mask button 66 is further pressed, the next mask pattern is read out and superimposed on the through image, so that the user determines whether or not the mask pattern displayed on the liquid crystal display 20 is a desired one. If it is not the desired mask pattern, the mask button 66 is pressed until the desired mask pattern appears, and the mask pattern and the through image are combined and superimposed and displayed (U4).

上記U4で、所望のマスクパターンが表示された場合に、使用者が上記U4でマスクパターンに重畳したスルー画像を見て(例えば、スルー画像の所望の部分が画面中央のマスクパターンと重畳していないため)スルー画像の位置を修正する必要があると判断した場合には、使用者がカメラを移動させてアングルを調整してスルー画像の所望の部分が画面中央のマスクパターンと重なるようにし、スルー画像の位置を修正する必要がない場合にはレリーズボタンを押す(U5)。CPU21は使用者がレリーズボタン63を押したか否かを調べ(U6)、レリーズボタン63が押された場合には、液晶ディスプレイ20に表示されている画像部分(図10(D))を切り抜いて切抜き画像メモリ14Aに登録する(U7)。なお、図9のステップU5では、使用者がカメラを動かしてスルー画像の位置を修正し、スルー画像の所望の部分が画面中央のマスクパターンに重なるようにしたが、ステップU5を使用者が移動キー62(或いは、ポインティングデバイス等の入力手段)を操作してマスクパターンを移動できるように構成してもよい。   When a desired mask pattern is displayed in U4, the user looks at the through image superimposed on the mask pattern in U4 (for example, a desired portion of the through image is superimposed on the mask pattern in the center of the screen). If it is determined that the position of the through image needs to be corrected, the user moves the camera and adjusts the angle so that the desired portion of the through image overlaps the mask pattern in the center of the screen, If it is not necessary to correct the position of the through image, the release button is pressed (U5). The CPU 21 checks whether or not the user has pressed the release button 63 (U6). If the release button 63 has been pressed, the CPU 21 cuts out an image portion (FIG. 10D) displayed on the liquid crystal display 20. It is registered in the cutout image memory 14A (U7). In step U5 of FIG. 9, the user moves the camera to correct the position of the through image so that a desired portion of the through image overlaps the mask pattern at the center of the screen. However, the user moves step U5. The mask pattern may be moved by operating the key 62 (or an input means such as a pointing device).

以上のようにして切抜き画像メモリ14Aに使用者自身が作成した切抜き画像が登録されると、後述する合成処理(実施例3,5)を行なうことができる。なお、図10(B)は2値化されたパターンであり、この場合、切抜き画像は図10(D)に示すように境界が明確である。これに対し、上記実施例で図11(B)に示すような輝度加工パターンを用いて図11(D)に示すような切抜き画像を生成すると境界がぼやけた切抜き画像を得ることができる。また、図9のステップU7では、液晶ディスプレイ20に表示されている画像部分を切抜いて登録するようにしたが、撮影時点では切抜き画像として登録せずに、再生時に切抜き画像生成/登録処理を行なうようにしてもよい。   When the cut-out image created by the user himself is registered in the cut-out image memory 14A as described above, the later-described synthesizing process (embodiments 3 and 5) can be performed. FIG. 10B shows a binarized pattern. In this case, the cutout image has a clear boundary as shown in FIG. 10D. On the other hand, when the cutout image shown in FIG. 11D is generated by using the luminance processing pattern shown in FIG. 11B in the above embodiment, a cutout image with a blurred boundary can be obtained. Further, in step U7 of FIG. 9, the image portion displayed on the liquid crystal display 20 is cut out and registered. You may do so.

[実施例3] 貼り付け合成処理(スルー画像と切抜き画像との合成)
本実施例は、スルー画像合成処理手段114の一実施例であり、スルー画像合成モード下で、スルー画像と切抜き画像メモリ14Aに登録された切抜き画像を合成する例である。
[Embodiment 3] Paste synthesis processing (synthesis of a through image and a clipped image)
This embodiment is an example of the live view image combining processing unit 114, and is an example of combining the live view image and the cutout image registered in the cutout image memory 14A in the live view image combining mode.

図12は、図1のデジタルカメラの貼り付け合成処理動作の一実施例を示すフローチャートであり、図13および図14は図12のフローチャートに基づく貼り付け合成過程の説明図である。図12(A)で、撮像モード下で使用者が所望の被写体を撮影し、被写体像をDRAM13に取込んでスルー画像表示する(V1)。   FIG. 12 is a flowchart showing one embodiment of the pasting and combining processing operation of the digital camera of FIG. 1, and FIGS. 13 and 14 are explanatory diagrams of the pasting and combining process based on the flowchart of FIG. In FIG. 12A, the user takes a desired subject in the imaging mode, takes in the subject image into the DRAM 13, and displays a through image (V1).

次に、使用者がフレームボタン61を押すと(V2)、CPU21は切抜き画像メモリ14Aに記録されている切抜き画像の中から最初の切抜き画像を読み出してシグナルジェネレータ16に供給し、VRAM17に描画させる。VRAM17には既に上記V1で取込まれたスルー画像が描画されているので、その結果、VRAM17にはスルー画像と再生切抜き画像を合成した画像が描画されることになる。この合成画像がシグナルジェネレータ16により読み出され、D/A変換回路18でD/A変換された後、アンプ19を介して液晶ディスプレイ20に出力され、液晶ディスプレイ20の所定の位置(実施例では中央)に表示される。これにより、例えば、図13(A)に示すような合成画像が得られる。なお、図13(A)で、21はスルー画像、22は切抜き画像、23は背景画像の例である(V3)。   Next, when the user presses the frame button 61 (V2), the CPU 21 reads out the first cutout image from the cutout images recorded in the cutout image memory 14A, supplies the first cutout image to the signal generator 16, and causes the VRAM 17 to draw. . Since the through image captured at V1 has already been drawn in the VRAM 17, as a result, an image obtained by combining the through image and the reproduction cutout image is drawn in the VRAM 17. The synthesized image is read by the signal generator 16 and D / A converted by the D / A conversion circuit 18, output to the liquid crystal display 20 via the amplifier 19, and set at a predetermined position of the liquid crystal display 20 (in the embodiment, (Center). Thereby, for example, a composite image as shown in FIG. 13A is obtained. In FIG. 13A, reference numeral 21 denotes a through image, reference numeral 22 denotes a clipped image, and reference numeral 23 denotes a background image (V3).

使用者は液晶ディスプレイ20に表示された図13(A)の合成画像20を見て、表示された切抜き画像22が所望の切抜き画像であるか否かを判定する。いま、表示されている切抜き画像22が所望の切抜き画像でない場合には上記V2に戻る。使用者は所望の切抜き画像との合成画像が表示されるまでフレームボタン61を押し続ける。これにより、CPU21は切抜き画像メモリ14Aに記録されている次の切抜き画像を読み出して上述した場合と同様にして上記V3で合成画像を液晶ディスプレイ20の所定の位置に表示する。所望の切抜き画像との合成画像が表示された場合にはV5に移行する(V4)。   The user looks at the composite image 20 of FIG. 13A displayed on the liquid crystal display 20 and determines whether or not the displayed clipped image 22 is a desired clipped image. If the displayed clipped image 22 is not the desired clipped image, the process returns to V2. The user keeps pressing the frame button 61 until a composite image with the desired cutout image is displayed. As a result, the CPU 21 reads out the next clipped image recorded in the clipped image memory 14A, and displays the composite image at a predetermined position on the liquid crystal display 20 using V3 as described above. When the composite image with the desired cutout image is displayed, the process proceeds to V5 (V4).

使用者が上記V4で表示された画像を見て(例えば、構図上、図13(A)に示すように貼り付け画像22の配置が好ましくないような場合)スルー画像21の位置を修正する必要があると判断した場合には、使用者がカメラを移動させてアングルを調整して図13(B)に示すようにスルー画像21の所望の部分が画面中央の切抜き画像22と重なるようにする。また、スルー画像21の位置を修正する必要がない場合にはレリーズボタンを押す(V5)。   The user needs to correct the position of the through image 21 by looking at the image displayed in the above V4 (for example, when the layout of the pasted image 22 is not preferable as shown in FIG. 13A due to the composition). If it is determined that there is, the user moves the camera and adjusts the angle so that a desired portion of the through image 21 overlaps the cutout image 22 at the center of the screen as shown in FIG. . If it is not necessary to correct the position of the through image 21, the release button is pressed (V5).

上記V5で所望の合成画像が得られた場合には、使用者は、それをフラッシュメモリ14に記録するか否かを選択する(V6)。選択の結果、合成画像をフラッシュメモリ14に記録するとした場合には、使用者がさらにレリーズボタン63を操作すると(V7)、CPU21はVRAM17に現在描画されている合成画像データを読み出してフラッシュメモリ14に記録画像の一つとして記録させる(V8)。上記V6での選択の結果、合成画像をフラッシュメモリ14に記録しないとした場合には、この場合は単に合成画像が液晶ディスプレイ20に表示されるだけとなる。   When a desired composite image is obtained in V5, the user selects whether or not to record it in the flash memory 14 (V6). As a result of the selection, if the composite image is to be recorded in the flash memory 14, when the user further operates the release button 63 (V7), the CPU 21 reads the composite image data currently drawn in the VRAM 17 and reads the composite image data. Is recorded as one of the recorded images (V8). If the synthesized image is not recorded in the flash memory 14 as a result of the selection in V6, the synthesized image is simply displayed on the liquid crystal display 20 in this case.

なお、図12(A)のステップV5では、使用者がカメラを移動させてスルー画像21の位置を修正し、スルー画像の所望の部分が貼り付け画像22に重なるようにしたが、ステップV5を使用者がカーソル移動キー62、(または、ポインティングデバイス等の入力手段)を操作して切抜き画像を移動できるように構成してもよい。この場合、図12(B)に示すようにステップV5で切抜き画像の位置を修正する必要がある場合には、使用者が移動キー62のうち所定の方向に対応する移動キーを操作すると(V5')、CPU21はその操作された移動キー62に対応する方向に切抜き画像を移動/表示させV5に戻る(V5")ようにし、上記V5での選択の結果、切抜き画像を修正する必要がないとした場合(V5',V5"による修正操作の結果、OKとなった場合も含む)には、V6に移行するように構成できる。   In step V5 of FIG. 12A, the user corrects the position of the through image 21 by moving the camera so that a desired portion of the through image overlaps the pasted image 22. The user may operate the cursor movement key 62 (or an input means such as a pointing device) to move the cutout image. In this case, if it is necessary to correct the position of the cut-out image in step V5 as shown in FIG. 12B, the user operates a moving key corresponding to a predetermined direction among the moving keys 62 (V5). '), The CPU 21 moves / displays the cutout image in the direction corresponding to the operated moving key 62 and returns to V5 (V5 "). As a result of the selection in V5, there is no need to correct the cutout image. (Including the case where the result of the correction operation by V5 ', V5 "is OK), the process can be shifted to V6.

図13(A'),(B')は切抜き画像を移動させた例であり、図13(A')で中央にある切抜き画像22の位置が背景に重なって背景が見えないので、移動キー62を操作して図13(B')に示すように切抜き画像22を左上方に移動させた例である。   FIGS. 13A and 13B show an example in which the cutout image is moved. In FIG. 13A ', the position of the cutout image 22 at the center overlaps with the background and the background is not visible. This is an example in which the cutout image 22 is moved to the upper left as shown in FIG.

また、本実施例では上記V8で述べたように合成画像データをフラッシュメモリー14に記録画像の一つとして記録するよう構成したが、これに限られず、前述したリンクテーブル50(図5)をフラッシュメモリー14に設け、合成画像を記録する際に、記録画像とは別の画像と意味付けてリンクテーブル50にそれら情報を登録するように構成してもよい。また、合成画像を記録する代りにリンクテーブル50にそれら情報のみを登録し、合成画像の表示或いは外部装置への出力を行なう際にリンクテーブル50に登録した情報を基に合成画像を再生するように構成してもよい。なお、図13で用いた切抜き画像22は2値化されたパターンとの合成画像であり、この場合切抜き画像22の境界は明確である。これに対し、上記実施例で図14に示すような輝度加工パターンとの合成画像による切抜き画像22'を用いると切抜き画像との境界がぼやけた合成画像を得ることができる。   Further, in the present embodiment, as described in V8 above, the combined image data is recorded in the flash memory 14 as one of the recorded images. However, the present invention is not limited to this, and the link table 50 (FIG. 5) described above may be flashed. It may be provided in the memory 14 so that, when a composite image is recorded, the information is registered in the link table 50 with a meaning different from the recorded image. Instead of recording the composite image, only the information is registered in the link table 50, and when displaying the composite image or outputting to the external device, the composite image is reproduced based on the information registered in the link table 50. May be configured. The cutout image 22 used in FIG. 13 is a composite image with the binarized pattern. In this case, the boundary of the cutout image 22 is clear. On the other hand, in the above-described embodiment, if the cutout image 22 ′ formed by the synthesized image with the luminance processing pattern as shown in FIG. 14 is used, a synthesized image with a blurred boundary with the cutout image can be obtained.

[実施例4]:パターン生成/登録処理(記録画像からのマスクパターン生成/登録)
前述の実施例1ではスルー画像から所望のマスクパターンを抽出して登録したが記録画像からマスクパターンを抽出して登録することもできる。本実施例は、パターン生成/登録手段122の一実施例であり、記録画像合成モード下で、再生した所望の記録画像から所望の部分をマスクパターンとして抽出してマスクパターンメモリー14Bに登録する例である。
[Embodiment 4]: Pattern generation / registration processing (mask pattern generation / registration from recorded image)
In the first embodiment, a desired mask pattern is extracted from a through image and registered, but a mask pattern can be extracted and registered from a recorded image. This embodiment is an embodiment of the pattern generation / registration unit 122, in which a desired portion is extracted as a mask pattern from a reproduced desired recorded image and registered in the mask pattern memory 14B in the recorded image combining mode. It is.

図15は、パターン生成/登録処理動作の一実施例を示すフローチャートであり、図16は、図15のフローチャートに基づくパターン生成/登録過程の説明図である。図15で、使用者が再生ボタン64を操作して再生モードに設定し、最初の記録画像を再生して表示させる。使用者は、マスクボタン66を操作してマスクパターンとしたい被写体が含まれた画像を再生して液晶ディスプレイ20に表示させることができる。例えば、図16(A)に示すような再生画像(この例では、パターンを描画した絵の画像)が液晶ディスプレイ20に表示される。また、所定の操作によりCPU21は画面の所定の位置に枠型カーソル171を表示する(W1)。   FIG. 15 is a flowchart showing one embodiment of the pattern generation / registration processing operation, and FIG. 16 is an explanatory diagram of the pattern generation / registration process based on the flowchart of FIG. In FIG. 15, the user operates the play button 64 to set the play mode, and plays and displays the first recorded image. The user can operate the mask button 66 to reproduce an image including a subject to be used as a mask pattern and display the reproduced image on the liquid crystal display 20. For example, a reproduced image (in this example, an image of a picture in which a pattern is drawn) as shown in FIG. 16A is displayed on the liquid crystal display 20. In addition, the CPU 21 displays a frame cursor 171 at a predetermined position on the screen by a predetermined operation (W1).

次に、使用者が、その再生画像を見ながら所望の像172を囲むようにカーソル171を位置付け、マスクボタン66を操作するとCPU21はフラッシュメモリー14に記録されているビデオデータ(圧縮データ)からカーソル171の枠で囲まれた部分に相当するデータを読み出してデータ圧縮/伸張回路15に供給する。そして、伸張処理を施されたビデオデータ(図16(B))をDRAM13のワークエリアに書込む(W2)。なおW1でカーソル171より所望の像が大きい場合にはアップダウンキー67(+)を押してカーソル171を拡大させて、所望の像を囲むことができる。また、カーソル171にくらべ所望の像が小さ過ぎる場合にはアップダウンキー67(−)を押してカーソル172を縮小させて枠の大きさを調整できる。   Next, when the user positions the cursor 171 so as to surround the desired image 172 while viewing the reproduced image and operates the mask button 66, the CPU 21 moves the cursor from the video data (compressed data) recorded in the flash memory 14 to the cursor. The data corresponding to the portion surrounded by the frame 171 is read and supplied to the data compression / decompression circuit 15. Then, the decompressed video data (FIG. 16B) is written into the work area of the DRAM 13 (W2). When the desired image is larger than the cursor 171 at W1, the cursor 171 can be enlarged by pressing the up / down key 67 (+) to surround the desired image. If the desired image is too small compared to the cursor 171, the size of the frame can be adjusted by pressing the up / down key 67 (−) to reduce the cursor 172.

ここで、CPU21は使用者がアップダウンキー67を操作したかを調べ(W3)、アップダウンキー67が操作された場合にはW7に移行し、操作されていない場合にはワークエリアに書込まれた被写体像(画像データ)を切取ったのち、2値化処理する(W4)。2値化処理後、シグナルジェネレータ16はこの2値化画像データをビデオデータ化してVRAM17に描画した後、VRAM17に描画したビデオデータを読み出して液晶ディスプレイ20に出力し表示させる。これにより、液晶ディスプレイ20には再生されたパターン化候補画像を2値化パターンに加工した結果が表示される。使用者はこの液晶ディスプレイ20に表示された画像を見てパターン(図16(C))を確認することができる(W5)。   Here, the CPU 21 checks whether or not the user has operated the up / down key 67 (W3). If the up / down key 67 has been operated, the process proceeds to W7, and if not, the CPU 21 writes in the work area. The clipped subject image (image data) is cut out and binarized (W4). After the binarization process, the signal generator 16 converts the binarized image data into video data and draws the video data on the VRAM 17, reads out the video data drawn on the VRAM 17, outputs the video data to the liquid crystal display 20, and displays the video data. As a result, the liquid crystal display 20 displays the result of processing the reproduced patterning candidate image into a binary pattern. The user can confirm the pattern (FIG. 16C) by looking at the image displayed on the liquid crystal display 20 (W5).

ここで、CPU21は使用者がレリーズボタン63を操作したかを調べ、レリーズボタン63が操作されている場合にはW12に移行し、操作されていない場合にはW3に戻る(W6)。上記W3でアップダウンキー67が操作された場合には輝度成分変更操作を行なうか否かを調べ、行なわない場合にはW9に移行し、行なう場合にはW8に移行する(W7)。上記W7で、輝度成分変更操作を行なう場合には、アップダウンキー67(+)が押されると輝度値が高い方に所定値ずつ(本実施例では1ずつ)シフトされ、アップダウンキー67(−)が押されると輝度値が低い方に所定値ずつ(本実施例では1ずつ)シフトされる。従って、アップダウンキー67(+)またはアップダウンキー67(−)を操作することにより、パターンの輝度値を変化させることができる(W8)。   Here, the CPU 21 checks whether or not the user has operated the release button 63. If the release button 63 has been operated, the process proceeds to W12, and if not, the process returns to W3 (W6). If the up / down key 67 is operated in W3, it is checked whether or not the luminance component changing operation is performed. If not, the process proceeds to W9, and if it is performed, the process proceeds to W8 (W7). When the luminance component changing operation is performed at W7, when the up / down key 67 (+) is pressed, the luminance value is shifted by a predetermined value (in this embodiment, by 1) to a higher luminance value, and the up / down key 67 (+) is pressed. When-) is pressed, the luminance value is shifted by a predetermined value (in this embodiment, one by one) toward the lower side. Therefore, by operating the up / down key 67 (+) or the up / down key 67 (-), the luminance value of the pattern can be changed (W8).

DRAM13のワークエリアに書込まれたパターン候補画像の輝度成分を8ビットで取込み加工してパターン化する(W9)。アップダウンキー67が1回操作される毎に、シグナルジェネレータ16はこの輝度成分加工画像データをビデオデータ化してVRAM17に描画した後、VRAM17に描画したビデオデータを読み出して液晶ディスプレイ20に出力し表示させる。これにより、液晶ディスプレイ20には使用者がフラッシュメモリー14から読み出した所望のパターン化候補画像を輝度成分加工パターンに加工した結果が表示される。使用者はこの液晶ディスプレイ20に表示された画像を見てパターン(図16(C)')を確認することができる(W10)。   The luminance component of the pattern candidate image written in the work area of the DRAM 13 is fetched and processed by 8 bits to form a pattern (W9). Each time the up / down key 67 is operated once, the signal generator 16 converts this luminance component processed image data into video data and draws the video data on the VRAM 17, reads out the video data drawn on the VRAM 17, outputs it to the liquid crystal display 20, and displays it. Let it. As a result, the result of processing the desired patterning candidate image read from the flash memory 14 by the user into the luminance component processing pattern is displayed on the liquid crystal display 20. The user can confirm the pattern (FIG. 16C ′) by looking at the image displayed on the liquid crystal display 20 (W10).

ここで、CPU21は使用者がレリーズボタン63を操作したかを調べ、レリーズボタン63が操作されている場合にはW12に移行し、操作されていない場合にはW7に戻る(W11)。CPU21は、上記W6またはW11でレリーズボタン63が押された場合、すなわち、所望のマスクパターン(図16(C)または(C'))を得た場合には、表示されているパターン画像をマスクパターンとしてマスクパターンメモリー14Bに登録する(W12)。   Here, the CPU 21 checks whether or not the user has operated the release button 63. If the release button 63 has been operated, the process proceeds to W12, and if not, the process returns to W7 (W11). When the release button 63 is pressed by the above W6 or W11, that is, when a desired mask pattern (FIG. 16 (C) or (C ′)) is obtained, the CPU 21 masks the displayed pattern image. The pattern is registered in the mask pattern memory 14B (W12).

本実施例によれば、上記W10で得た輝度成分加工パターン画像は図16(C')に示すようにパターンの境界周辺がぼやけた感じのパターンとなり、図14に示したようなぼかした感じの切り抜き画像(切抜き画像)を得ることができる。また、本実施例によれば、記録画像を再生してマスクパターンとして抽出/登録できるので、撮影し、記録保存した画像を所望の時期に取り出して簡単な操作でマスクパターンを作成することができる。   According to the present embodiment, the luminance component processing pattern image obtained in W10 has a pattern in which the periphery of the pattern is blurred as shown in FIG. 16 (C ′), and the pattern is blurred as shown in FIG. Can be obtained. Further, according to the present embodiment, a recorded image can be reproduced and extracted / registered as a mask pattern, so that a photographed, recorded and saved image can be taken out at a desired time and a mask pattern can be created by a simple operation. .

また、本実施例ではステップW1で図16(A)に示したような枠型カーソル171を表示し、W2で、再生画像のうちカーソル171で囲まれた部分を抽出したが、これに限られない。このような代替実施例として、
(1)ステップW1で点カーソルを表示し、W2で、使用者が移動キー62を操作して画面上でカーソルを移動させて再生画像の所望部分の輪郭をなぞり、なぞられた閉鎖領域をパターン抽出した例、
(2)画面上に透明な位置検出センサーを配設しておき、タッチペン等のポインテングデバイス等で再生画像の所望部分の輪郭をなぞり、なぞられた閉鎖領域をパターン抽出した例(実施例8)。
(3)画像に含まれている複数の被写体の距離データを画像データと共に記録しておき、その画像を再生して距離を指定することにより再生画像中のある部分を特定し、それを抽出した例(実施例9)、
(4)使用者が移動キーを用いて画面上でカーソルを移動させて被写体像の輪郭をなぞって輪郭抽出処理を行ない、パターンを抽出した例、が挙げられる。
Further, in the present embodiment, the frame-shaped cursor 171 as shown in FIG. 16A is displayed in step W1, and the portion surrounded by the cursor 171 in the reproduced image is extracted in W2, but the present invention is not limited to this. Absent. In such an alternative embodiment,
(1) A point cursor is displayed in step W1, and in W2, the user operates the movement key 62 to move the cursor on the screen to trace the contour of a desired portion of the reproduced image, and pattern the traced closed area. Examples extracted,
(2) An example in which a transparent position detection sensor is provided on the screen, and a contour of a desired portion of a reproduced image is traced with a pointing device such as a touch pen, and a traced closed area is extracted as a pattern (Eighth Embodiment) ).
(3) Distance data of a plurality of subjects included in the image is recorded together with the image data, the image is reproduced, a distance is specified, a certain portion in the reproduced image is specified, and the portion is extracted. Example (Example 9),
(4) An example in which a user moves a cursor on a screen using a movement key to trace a contour of a subject image to perform a contour extraction process to extract a pattern.

[実施例5]:記録画像合成処理(記録画像と切抜き画像の合成)
本実施例は記録画像合成モード下で、フラッシュメモリー14に記録されている記録画像と予め切抜き画像メモリー14Aに登録されたフレームの付いた切抜き画像を合成する記録画像合成手段124による記録画像合成の一実施例である。
[Embodiment 5]: Recording image synthesis processing (Synthesis of recording image and cutout image)
In the present embodiment, in the recorded image combining mode, the recorded image combining unit 124 combines the recorded image recorded in the flash memory 14 and the clipped image with the frame registered in the clipped image memory 14A in advance. This is one embodiment.

図17は本発明の記録画像合成処理動作の一実施例を示すフローチャートであり、図18は図17のフローチャートに基づく合成画像生成過程の説明図である。図17で、使用者は合成する記録画像をフラッシュメモリー14から読み出し、液晶ディスプレイ20に表示させる。この操作は再生ボタン64を操作して再生モードに設定し、最初の記録画像を再生して表示させ、アップダウンキー67を操作することにより、所望の画像を再生/表示させて行なわれる(再生/表示モード)。これにより、例えば、図18(A)に示すような再生画像が液晶ディスプレイ20に表示される(S1)。   FIG. 17 is a flowchart showing one embodiment of the recording image composition processing operation of the present invention, and FIG. 18 is an explanatory diagram of a composite image generation process based on the flowchart of FIG. In FIG. 17, the user reads the recorded image to be synthesized from the flash memory 14 and displays the image on the liquid crystal display 20. This operation is performed by operating the reproduction button 64 to set the reproduction mode, reproducing and displaying the first recorded image, and operating the up / down key 67 to reproduce / display a desired image (reproduction). /Display mode). Thus, for example, a reproduced image as shown in FIG. 18A is displayed on the liquid crystal display 20 (S1).

次に、使用者がフレームボタン61を操作すると(S2)、CPU21は切抜き画像メモリー14Aに記録されている切抜き画像の中から所定の切抜き画像を読み出し、シグナルジェネレータ16に供給し、VRAM17に描画させる。VRAM17には既に上記S1で再生した記録画像が描画されているので、その結果、VRAM17には再生画像と再生した切抜き画像を合成した画像が描画されることになる。この合成画像がシグナルジェネレータ16により読み出され、D/A変換回路18でD/A変換された後、アンプ19を介して液晶ディスプレイ20に出力され、表示される。これにより、例えば、図18(B)に示すような合成画像が得られる(S3)。   Next, when the user operates the frame button 61 (S2), the CPU 21 reads out a predetermined cutout image from the cutout images recorded in the cutout image memory 14A, supplies the readout cutout image to the signal generator 16, and causes the VRAM 17 to draw. . Since the recorded image reproduced in S1 is already drawn on the VRAM 17, as a result, an image obtained by combining the reproduced image and the reproduced clipped image is drawn. The synthesized image is read out by the signal generator 16, D / A converted by the D / A conversion circuit 18, output to the liquid crystal display 20 via the amplifier 19, and displayed. Thereby, for example, a composite image as shown in FIG. 18B is obtained (S3).

使用者は液晶ディスプレイ20に表示された合成画像を見て、表示された画像が所望の切抜き画像であるか否かを選択する。いま、表示されている画像が所望の切抜き画像でない場合には上記S2に戻り、再びフレームボタン61を操作する。これにより、CPU21は切抜き画像メモリー14Aに記録されている次の切抜き画像を読み出して上述した場合と同様にして上記S3で液晶ディスプレイ20に合成画像を表示する。使用者は所望の切抜き画像との合成画像が表示されるまでフレームボタン61を押し続け、所望の切抜き画像との合成画像が表示された場合にはS5に移行する(S4)。   The user looks at the composite image displayed on the liquid crystal display 20 and selects whether or not the displayed image is a desired cutout image. If the displayed image is not the desired cutout image, the process returns to S2, and the frame button 61 is operated again. As a result, the CPU 21 reads out the next cut-out image recorded in the cut-out image memory 14A and displays the composite image on the liquid crystal display 20 in S3 in the same manner as described above. The user keeps pressing the frame button 61 until the composite image with the desired clipped image is displayed. When the composite image with the desired clipped image is displayed, the process proceeds to S5 (S4).

使用者は合成画像を見て、フレーム(枠)内の画像の位置を修正する必要があるか否かを選択する。選択の結果、フレーム内の画像を修正する必要がある場合にはS6に移行し、そうでない場合にはS8に移行する(S5)。上記S5でフレーム内の画像の位置を修正する必要がある場合には、使用者が移動キー62のうち所定の方向に対応する移動キーを操作すると(S6)、CPU21はその操作された移動キー62に対応する方向に再生画像を移動/表示させS5に戻る(S7)。例えば、図18(B)の合成画像が表示されている状態で、移動キー62を操作して左方向と下方向への移動を指示すると、図18(C)に示すように切抜き画像に重畳して表示されている画像が左下方向に移動する。このように、使用者が移動キー62を操作することで、背景画像(再生された記録画像)をフレーム内で移動させて所望の位置に位置付けることができる。なお、背景画像ではなく、切抜き画像の方を移動させるようにしてもよい。   The user looks at the composite image and selects whether or not it is necessary to correct the position of the image within the frame (frame). As a result of the selection, when it is necessary to correct the image in the frame, the process proceeds to S6, and otherwise, the process proceeds to S8 (S5). If it is necessary to correct the position of the image in the frame in S5, the user operates a moving key corresponding to a predetermined direction among the moving keys 62 (S6), and the CPU 21 operates the operated moving key. The reproduced image is moved / displayed in the direction corresponding to 62, and the process returns to S5 (S7). For example, when the movement key 62 is operated to instruct the movement in the left and down directions while the composite image of FIG. 18B is displayed, as shown in FIG. The displayed image moves to the lower left. As described above, when the user operates the movement key 62, the background image (the reproduced recorded image) can be moved within the frame and positioned at a desired position. Note that the cutout image may be moved instead of the background image.

上記S5での選択の結果、フレーム内の画像を修正する必要がないとした場合(位置修正(S6,S7)の結果、OKとなった場合も含む)には、使用者は、いま液晶ディスプレイ20に表示されている合成画像をフラッシュメモリー14に記録するか否かを選択する(S8)。選択の結果、合成画像をフラッシュメモリー14に記録する場合にはS9に移行し、そうでない場合には処理を終了させる。この場合は単に合成画像が液晶ディスプレイ20に表示されるだけとなる。
上記S8での選択の結果、合成画像をフラッシュメモリー14に記録するとした場合には、使用者がさらにレリーズボタン63を操作すると(S9)、CPU21はVRAM17に現在描画されている合成画像データを読み出してフラッシュメモリー14に記録画像の一つとして記録させる(S10)。
If it is determined that the image in the frame does not need to be corrected as a result of the selection in S5 (including the case where the position correction (S6, S7) results in OK), the user can now use the liquid crystal display. The user selects whether or not to record the composite image displayed on the flash memory 20 in the flash memory 14 (S8). As a result of the selection, if the composite image is to be recorded in the flash memory 14, the process proceeds to S9; otherwise, the process ends. In this case, the composite image is simply displayed on the liquid crystal display 20.
As a result of the selection in S8, if the composite image is to be recorded in the flash memory 14, when the user further operates the release button 63 (S9), the CPU 21 reads the composite image data currently drawn in the VRAM17. Then, it is recorded as one of the recorded images in the flash memory 14 (S10).

なお、本実施例では上記S10で述べたように合成画像データを記録画像の一つとして記録するよう構成したが、これに限られず、前述したリンクテーブル50(図5)をフラッシュメモリー14に設け、合成画像を記録する際に、記録画像とは別の画像と意味付けてリンクテーブル50にそれら情報を登録するように構成してもよく、また、合成画像を記録する代りにリンクテーブル50にそれら情報のみを登録し、合成画像の表示或いは外部装置への出力する際にリンクテーブル50に登録した情報を基に合成画像を再生するように構成してもよい。   In the present embodiment, the composite image data is recorded as one of the recording images as described in S10 above, but the present invention is not limited to this, and the above-described link table 50 (FIG. When recording a composite image, the information may be registered in the link table 50 with a meaning different from the recorded image, and the link table 50 may be used instead of recording the composite image. Only the information may be registered, and the composite image may be reproduced based on the information registered in the link table 50 when the composite image is displayed or output to an external device.

[実施例6]:切抜き画像生成/登録処理(記録画像とマスクパターンからの切抜き画像の生成/登録)
上記合成処理においては、切抜き画像メモリー14Aに予め記録されているフレーム付切抜き画像を適宜読み出し、複数の切抜き画像の中から所望の画像を選択するように構成したが、フラッシュメモリー14に既に記憶されている記録画像を用いて切抜き画像を生成することもできる。本実施例は記録画像合成モード下で、記録画像と予め登録されたマスクパターンを適宜合成して画像を切り抜いて切抜き画像を登録する切抜き画像の生成/登録手段123による切抜き画像の生成/登録処理の一実施例である。
[Sixth Embodiment]: Cutout image generation / registration processing (generation / registration of cutout image from recorded image and mask pattern)
In the synthesizing process, the frame-attached cut-out image previously recorded in the cut-out image memory 14A is appropriately read and a desired image is selected from a plurality of cut-out images. It is also possible to generate a cut-out image using the recorded image that is present. In the present embodiment, a cut-out image generation / registration unit 123 generates and registers a cut-out image by registering a cut-out image by appropriately synthesizing a print image and a pre-registered mask pattern in a print image synthesis mode. FIG.

図19は切抜き画像生成/登録処理動作の一実施例を示すフローチャートであり、図20は図19のフローチャートに基づく切抜き画像生成/登録過程の説明図である。図19で、使用者が再生ボタン64を操作して再生モードに設定し、最初の記録画像を再生して表示させ、アップダウンキー67を操作することにより、切抜き画像としたい画像を再生し液晶ディスプレイ20に表示させる。これにより、例えば、図20(A)に示すような記録画像が液晶ディスプレイ20に表示される(S21)。   FIG. 19 is a flowchart showing one embodiment of the cutout image generation / registration processing operation, and FIG. 20 is an explanatory diagram of the cutout image generation / registration process based on the flowchart of FIG. In FIG. 19, the user operates the playback button 64 to set the playback mode, plays back the first recorded image and displays it, and operates the up / down key 67 to play back the image desired to be a cut-out image. It is displayed on the display 20. Thereby, for example, a recorded image as shown in FIG. 20A is displayed on the liquid crystal display 20 (S21).

次に、使用者がマスクボタン66を操作するとCPU21はマスクパターンメモリー14Bに記憶されているマスクパターンを読み出し、シグナルジェネレータ16を介してVRAM17に描画し(S22)、VRAM17に描画されたマスクパターンを読み出してD/A変換回路18およびアンプ19を介して液晶ディスプレイ20に表示する。これにより、例えば、図20(B)に示すようなマスクパターンが液晶ディスプレイ20に表示される。また、このときCPU21はマスクパターンに重畳させてカーソルを表示する(S23)。   Next, when the user operates the mask button 66, the CPU 21 reads the mask pattern stored in the mask pattern memory 14B, draws it on the VRAM 17 via the signal generator 16 (S22), and writes the mask pattern drawn on the VRAM 17 The data is read out and displayed on the liquid crystal display 20 via the D / A conversion circuit 18 and the amplifier 19. Thereby, for example, a mask pattern as shown in FIG. 20B is displayed on the liquid crystal display 20. At this time, the CPU 21 displays a cursor so as to be superimposed on the mask pattern (S23).

ここで、使用者は液晶ディスプレイ20に表示されたマスクパターンから所望のものを選択する。すなわち、図20(B)に示されているようなカーソル(図の例では枠型カーソル)を移動キー62を操作して所望のマスクパターン上に位置付ける。そして、選択確定のために再度マスクボタン66を操作する(S24)。CPU21は上記S24で選択されたマスクパターンだけをVRAM17に送り、前記S21で選択された再生画像に重畳させて描画する。これにより、例えば、図20(C)に示すように図20(A)の再生画像と図20(B)の選択されたマスクパターンとが液晶ディスプレイ20に重畳表示される(S25)。   Here, the user selects a desired one from the mask patterns displayed on the liquid crystal display 20. That is, a cursor (a frame-shaped cursor in the example in the figure) as shown in FIG. 20B is operated on the desired mask pattern by operating the movement key 62. Then, the mask button 66 is operated again to confirm the selection (S24). The CPU 21 sends only the mask pattern selected in S24 to the VRAM 17, and draws the mask pattern superimposed on the reproduced image selected in S21. Thereby, for example, as shown in FIG. 20C, the reproduced image of FIG. 20A and the selected mask pattern of FIG. 20B are superimposed and displayed on the liquid crystal display 20 (S25).

次に、使用者が上記S25で重畳表示した画像を見てマスクパターンの位置を修正する必要があると判断した場合にはS27に移行し、そうでない場合にはS29に移行する(S26)。上記S26でマスクパターンの位置を修正する必要があると判断した場合には、使用者は移動キー62を操作して(S27)、マスクパターンを移動させる。例えば、図20(C)の状態で移動キー62のうち上方向のキーを操作するとマスクパターンは図20(D)に示すように上方に移動される(S28)。上記S26またはS28で所望のマスクパターンと記録画像を合成した合成画像を得た場合には、この合成画像を切抜き画像としてフラッシュメモリーに登録するために使用者はレリーズボタン63を操作する(S29)。このとき、CPU21は液晶ディスプレイ20に表示されている合成画像(図20(D)の画像)を切り抜いて切抜き画像メモリー14Aに切抜き画像(パターン枠+画像)として記録する(S30)。   Next, when the user determines that it is necessary to correct the position of the mask pattern by looking at the image superimposed and displayed in S25, the process proceeds to S27, and otherwise, proceeds to S29 (S26). If it is determined in S26 that the position of the mask pattern needs to be corrected, the user operates the move key 62 (S27) to move the mask pattern. For example, when an upward key among the move keys 62 is operated in the state of FIG. 20C, the mask pattern is moved upward as shown in FIG. 20D (S28). When a composite image obtained by combining the desired mask pattern and the recording image is obtained in S26 or S28, the user operates the release button 63 to register the composite image as a cut-out image in the flash memory (S29). . At this time, the CPU 21 cuts out the composite image (the image in FIG. 20D) displayed on the liquid crystal display 20 and records it as a cutout image (pattern frame + image) in the cutout image memory 14A (S30).

以上のようにして切抜き画像メモリー14Aに使用者自身が作成した切抜き画像が登録されると、図17のフローチャートで説明したと同様の動作(実施例5参照)で切抜き画像合成処理を行なうことができる。すなわち、図17のS2で、フレームボタン61を所定回数操作すると図20(D)に示した画像が切抜き画像メモリー14Aから読み出されて再生され、S3で液晶ディスプレイ20上に再生される。したがって、予めS1でこの切抜き画像と合成する記録画像を再生し表示しておけば、図20(E)に示すように自分で作成した切抜き画像を他の記録画像と合成することができる。また、これにより合成された画像もS9で述べたようにレリーズボタン63を操作してフラッシュメモリー14に記録することができる。   When the cut-out image created by the user is registered in the cut-out image memory 14A as described above, the cut-out image synthesizing process is performed by the same operation (see the fifth embodiment) as described in the flowchart of FIG. it can. That is, when the frame button 61 is operated a predetermined number of times in S2 of FIG. 17, the image shown in FIG. 20D is read from the clipped image memory 14A and reproduced, and is reproduced on the liquid crystal display 20 in S3. Therefore, if the recorded image to be combined with the cutout image is reproduced and displayed in advance in S1, the cutout image created by the user can be combined with another recorded image as shown in FIG. In addition, the combined image can be recorded in the flash memory 14 by operating the release button 63 as described in S9.

以上述べたように、実施例5,6では、フラッシュメモリー14に記録されている画像および予め切抜き画像メモリー14Aに登録されている切抜き画像を合成でき、また、フレーム付切抜き画像は既に記録されている画像とマスクパターンとを適宜合成することにより新たに生成できる。以上により記録した画像を簡単に加工(合成)することができる。   As described above, in the fifth and sixth embodiments, the image recorded in the flash memory 14 and the clipped image registered in the clipped image memory 14A in advance can be combined, and the clipped image with frame is already recorded. It can be newly generated by appropriately combining the existing image and the mask pattern. As described above, the recorded image can be easily processed (combined).

[実施例7]
図21は、図1のデジタルカメラの案内枠表示処理の一実施例としての証明写真枠による証明写真撮影を例としたフローチャートであり、図22は、図21のフローチャートに基づく証明写真撮影過程の説明図である。
図21で、使用者がアップダウンキー67を操作すると、CPU21はマスクパターンメモリー14Bに記憶されているマスクパターンを読み出し、シグナルジェネレータ16を介してVRAM17に描画し、VRAM17に描画された案内枠パターンを読み出してD/A変換回路18およびアンプ19を介して液晶ディスプレイ20に表示する。これにより、例えば、図22(A)に示すような案内枠81(この例では、運転免許写真用案内枠)として液晶ディスプレイ20に表示される。この場合、案内枠81は画面中央に位置付けられる(X1)。
[Example 7]
FIG. 21 is a flowchart showing an example of the process of displaying a guide frame of the digital camera shown in FIG. 1 by taking an ID photo frame using the ID photo frame, and FIG. 22 is a flowchart showing the ID photo shooting process based on the flowchart of FIG. FIG.
In FIG. 21, when the user operates the up / down key 67, the CPU 21 reads the mask pattern stored in the mask pattern memory 14B, draws the mask pattern on the VRAM 17 via the signal generator 16, and draws the guide frame pattern drawn on the VRAM 17. Is read out and displayed on the liquid crystal display 20 via the D / A conversion circuit 18 and the amplifier 19. Thereby, for example, the information is displayed on the liquid crystal display 20 as a guide frame 81 (in this example, a guide frame for a driver's license photograph) as shown in FIG. In this case, the guide frame 81 is positioned at the center of the screen (X1).

ここで、アップダウンキー67を更に操作すると次の案内枠が読み出され表示されるので、使用者は液晶ディスプレイ20に表示された案内枠が所望のものか否かを判断し、所望の案内枠でない場合には所望の案内枠が現われるまでアップダウンキー67を操作して案内枠を表示させる(X2)。
上記X2で、所望の案内枠が表示された場合には、使用者は被撮影者82(図22(B))のスルー画像82'(図22(C),(D))が画面中央の案内枠内にきちんと入っているかどうかを調べ(X3)、案内枠内にきちんと入っている場合にはレリーズボタン63を押し、そうでない場合にはカメラのアングルを調整して所望のスルー画像が画面中央の案内枠内にきちんと収るようにする(X4)。
Here, when the up / down key 67 is further operated, the next guide frame is read out and displayed, so that the user determines whether or not the guide frame displayed on the liquid crystal display 20 is the desired guide frame. If not, the guide frame is displayed by operating the up / down key 67 until the desired guide frame appears (X2).
When a desired guide frame is displayed in X2, the user views the through image 82 ′ (FIGS. 22C and 22D) of the photographed person 82 (FIG. 22B) in the center of the screen. Check whether it is properly in the guide frame (X3). If it is properly in the guide frame, press the release button 63. Otherwise, adjust the camera angle to display the desired through image on the screen. Make sure it fits in the center guide frame (X4).

CPU21は使用者がレリーズボタン63を押したか否かを調べ(X5)、レリーズボタン63が押された場合には、液晶ディスプレイ20に表示されている被撮影者像83(図22(E))を切り抜いてフラッシュメモリー14に撮影した画像として記録する(X6)。
なお、撮影時には切り抜かないでスルー画像をそのまま記録し、後に再生画像から切り抜くようにしてもよい(すなわち、撮影の目安として用いる)。
また、上記説明では案内枠を写真撮影用のものとしたが、マスクパターンのいずれでもよい。また、マスクパターンおよび切抜き画像はメーカ等によって予めフラッシュメモリー等の記録媒体に登録されたものでもよい。
これにより、撮影時に案内枠を表示できるので画像の大きさをほぼ一定に揃えたり、サイズが定められている証明用の写真等を簡単に撮影できる。
The CPU 21 checks whether or not the user has pressed the release button 63 (X5). When the release button 63 has been pressed, the subject image 83 displayed on the liquid crystal display 20 (FIG. 22E). Is cut out and recorded in the flash memory 14 as a photographed image (X6).
It should be noted that a through image may be recorded as it is without being clipped at the time of photographing, and then may be clipped from a reproduced image later (that is, used as a guide for photographing).
In the above description, the guide frame is for photographing, but may be any of mask patterns. Further, the mask pattern and the cutout image may be registered in advance in a recording medium such as a flash memory by a maker or the like.
As a result, the guide frame can be displayed at the time of photographing, so that the size of the image can be made substantially constant, or a photograph for certification or the like having a predetermined size can be easily taken.

[実施例8] ポインティングデバイスまたはカーソルによる輪郭抽出の例図23は、輪郭抽出によるマスクパターン生成の例を示す説明図である。   [Eighth Embodiment] Example of Outline Extraction by Pointing Device or Cursor FIG. 23 is an explanatory diagram showing an example of mask pattern generation by outline extraction.

図23(A)は再生された記録画像であり、図15のフローチャートのステップW1で使用者が選択した再生画像に相当する。図23(B)は、図15のフローチャートのステップW2に相当し、所望の画像91(この例では熊)が表示されたあと、画像91の顔の輪郭を記号92で示すようにタッチペンでなぞった状態を示している。タッチペンでの抽出範囲の指定が終了し、使用者がレリーズボタン63を操作すると、CPU21はタッチペンの軌跡の座標(xi,yj)から閉鎖空間を得る。そして、ワークエリアに記憶されている画像データについて閉鎖領域93以外の部分をオフセットしたのち(W3)、2値化処理する(W4)。
図23(C)は、図15のフローチャートのステップW5に相当し、液晶ディスプレイ20に表示された2値化パターンに加工した結果が表示される。使用者がレリーズボタン63を操作すると、所望のマスクパターン(図23(D))を得たものとしてパターン画像95をマスクパターンとしてマスクパターンメモリー14Bに登録する(W12)。
FIG. 23A shows a reproduced recorded image, which corresponds to the reproduced image selected by the user in step W1 of the flowchart in FIG. FIG. 23B corresponds to step W2 of the flowchart in FIG. 15. After a desired image 91 (a bear in this example) is displayed, the outline of the face of the image 91 is traced with a touch pen as indicated by a symbol 92. It shows the state where it was turned on. When the specification of the extraction range with the touch pen is completed and the user operates the release button 63, the CPU 21 obtains a closed space from the coordinates (xi, yj) of the locus of the touch pen. Then, the image data stored in the work area is offset in a portion other than the closed region 93 (W3), and then binarized (W4).
FIG. 23C corresponds to step W5 in the flowchart of FIG. 15, and displays the result of processing into the binarized pattern displayed on the liquid crystal display 20. When the user operates the release button 63, the pattern image 95 is registered as a mask pattern in the mask pattern memory 14B as a desired mask pattern (FIG. 23D) (W12).

本実施例では、再生された記録画像をタッチペンでなぞったが、カーソル移動キー62を操作してカーソルで画像91の顔の輪郭をなぞるようにしても上述の場合とほぼ同様の動作でマスクパターンを得ることができる。また、本実施例では、再生画像の輪郭をなぞって輪郭抽出を行なったが、スルー画像についても図7のフローチャートに基づいて輪郭抽出を行なうことにより、記録画像の場合と同様に所望のマスクパターンを得ることができる。   In the present embodiment, the reproduced recorded image is traced with the touch pen. However, even if the cursor movement key 62 is operated to trace the outline of the face of the image 91 with the cursor, the mask pattern is operated in substantially the same manner as described above. Can be obtained. In this embodiment, the outline is extracted by tracing the outline of the reproduced image. However, by extracting the outline of the through image based on the flowchart of FIG. 7, the desired mask pattern can be obtained as in the case of the recorded image. Can be obtained.

[実施例9] 距離指定に基づくパターン生成の例
町並みの看板などを眺めていてパターン化してみたいものがある場合がある。視野にある看板は1枚とは限られず、狭い視野に手前から奥に向って看板がながめられることがある。このような場合には、多くの看板が距離をおいてカメラの同一視野に入る。
Ninth Embodiment Example of Pattern Generation Based on Distance Designation There is a case where a user looks at a signboard in a townscape and wants to make a pattern. The number of signboards in the field of view is not limited to one, and the signboard may be viewed from the front to the back in a narrow field of view. In such a case, many signboards enter the same field of view of the camera at a distance.

本実施例は、同一視野内で異なる距離にある被写体をパターン化候補として1枚の記録画像とし、それを再生してそれぞれの被写体についてマスクパターン化操作を可能とする例である。   The present embodiment is an example in which subjects at different distances within the same field of view are used as patterning candidates to form a single recorded image, which is reproduced to enable a mask patterning operation for each subject.

デジタルカメラがオートフォーカス機構を有している場合には、注目点(多くの場合はファインダの中心)に対してカメラの焦点を合せるようにオートフォーカス機構が動作し、焦点が決定される。ここで、被写体と撮像レンズ1との距離をa、撮像レンズ1とCCD2の表面との距離をb、レンズの焦点距離をfとすると、1/a+1/b=1/fが成立する。
ここで、撮像レンズ1を±Δx(Δx<b<<a)移動させると、
1/(a−Δx)+1/(b+Δx)=1/f または、
1/(a+Δx)+1/(b−Δx)=1/f
となるが、b<<aであるから左辺第1項の1/(A+ΔX)≒1/aとみなし得るので、1/a+1/(b±Δx)=1/f(式1)が成立する。
When the digital camera has an autofocus mechanism, the autofocus mechanism operates so that the camera focuses on a point of interest (in most cases, the center of the viewfinder), and the focus is determined. Here, if the distance between the subject and the imaging lens 1 is a, the distance between the imaging lens 1 and the surface of the CCD 2 is b, and the focal length of the lens is f, 1 / a + 1 / b = 1 / f holds.
Here, when the imaging lens 1 is moved ± Δx (Δx <b << a),
1 / (a−Δx) + 1 / (b + Δx) = 1 / f or
1 / (a + Δx) + 1 / (b−Δx) = 1 / f
However, since b << a, it can be considered that 1 / (A + ΔX) ≒ 1 / a of the first term on the left side, and 1 / a + 1 / (b ± Δx) = 1 / f (Formula 1) holds. .

オートフォーカス制御により合焦状態となった時のレンズの移動距離Δxは既知であるから、上記式1から被写体と撮像レンズ1との距離aを算出できる。そこで、カメラを微動させて、同一視野にあるパターン候補の被写体を順次ファインダの注目点にするようにカメラを微動させて焦点を合せるようにすると、それぞれのパターン候補とレンズとの距離を得ることができる。また、オートフォーカス機構を備えていなくても測距機構を備えた撮像装置であればそれぞれのパターン候補とレンズとの距離を得ることができる。   Since the moving distance Δx of the lens at the time of focusing by the auto focus control is known, the distance a between the subject and the imaging lens 1 can be calculated from the above equation (1). Therefore, if the camera is finely moved and the camera is finely moved so that the pattern candidate in the same field of view becomes the attention point of the viewfinder in order, the distance between each pattern candidate and the lens can be obtained. Can be. Further, the distance between each pattern candidate and the lens can be obtained with an imaging device having a distance measuring mechanism without having an autofocus mechanism.

図24は、距離指定に基づくパターン生成動作の例を示すフローチャートであり、(a)は撮影時の距離データ記憶手段1126の動作、(b)は再生時(パターン化時)の動作である。上述した方法により同一視野内のパターン化候補である被写体と撮像レンズ1との距離aj(j=1〜n)を得てDRAM13の距離データ格納領域に一時記憶させる(Y1)。   FIG. 24 is a flowchart showing an example of the pattern generation operation based on the distance designation. FIG. 24A shows the operation of the distance data storage unit 1126 at the time of photographing, and FIG. 24B shows the operation at the time of reproduction (patterning). The distance aj (j = 1 to n) between the subject which is a patterning candidate in the same visual field and the imaging lens 1 is obtained by the above-described method, and is temporarily stored in the distance data storage area of the DRAM 13 (Y1).

使用者がレリーズボタン63を押して撮影を行なった場合にはY3に移行し、そうでない場合はY1に戻る(Y2)。
上記Y2で撮影が行なわれた場合には、画像データの記録と同時にその画像の各距離データをDRAM13の距離データ格納領域から読み出してリンクテーブル50の距離欄にそれぞれ記憶させる(Y3)。
再生時に、所望の再生画像を表示する(Y4)と共に、リンクテーブル50からその画像の距離データを取り出して再生画像と共に表示する(Y5)。
使用者が移動キー62を操作してカーソルで表示された距離のいずれかを指定し(Y6)、レリーズボタン63を押すと(Y7)、その距離にある被写体像が抽出され(Y8)、表示される(Y9)。
If the user presses the release button 63 to take a picture, the process proceeds to Y3, otherwise returns to Y1 (Y2).
When the photographing is performed at Y2, each distance data of the image is read out from the distance data storage area of the DRAM 13 and stored in the distance column of the link table 50 simultaneously with the recording of the image data (Y3).
At the time of reproduction, a desired reproduced image is displayed (Y4), and distance data of the image is extracted from the link table 50 and displayed together with the reproduced image (Y5).
When the user operates the movement key 62 to specify one of the distances indicated by the cursor (Y6) and presses the release button 63 (Y7), the subject image at that distance is extracted (Y8) and displayed. (Y9).

使用者がマスクボタン66を押すと(Y10)、表示された被写体像に2値化処理や輪郭抽出処理等のマスクパターン化処理(図7のT3〜T11)が施され(Y11)、マスクパターンとして登録されるが(Y12)、表示された被写体像がパターン候補の他に同距離にある他の像を含んでいるような場合には、移動キー62の操作により(Y13)、前述した輪郭抽出処理(実施例8)を行うことができる(Y14)。   When the user presses the mask button 66 (Y10), the displayed subject image is subjected to mask patterning processing (T3 to T11 in FIG. 7) such as binarization processing and contour extraction processing (Y11), and the mask pattern is displayed. (Y12), but if the displayed subject image includes another image at the same distance in addition to the pattern candidate, the movement key 62 is operated (Y13) to obtain the above-described contour. An extraction process (Eighth Embodiment) can be performed (Y14).

輪郭抽出処理をおこなった場合にはパターン候補以外の像をオフセットしてマスクパターン化処理(Y11)に移行する(Y15)。また、このような動作を繰り返して同一画像から複数のマスクパターンを得ることができる。なお、スルー画像表示時に距離を指定してその距離にある被写体像を抽出し、マスクパターンとして登録するようにしてもよい。   When the contour extraction processing has been performed, the image other than the pattern candidates is offset and the process proceeds to the mask patterning processing (Y11) (Y15). Also, by repeating such an operation, a plurality of mask patterns can be obtained from the same image. Note that a distance may be designated at the time of displaying a through image, a subject image at that distance may be extracted, and registered as a mask pattern.

[実施例10] カーソルまたはポインティングデバイスによる描画入力の例スルー画像合成モードまたは記録画像合成モードでダイレクトボタン68を押すとカーソルまたはポインティングデバイスによって画面上に描いた軌跡(或いは、指定点を繋いでなる図形)をパターンとして入力させ、抽出処理の後、マスクパターンとして登録することができる。   [Tenth Embodiment] Example of Drawing Input Using Cursor or Pointing Device When the direct button 68 is pressed in the through-image combining mode or the recorded image combining mode, a locus drawn on the screen by the cursor or the pointing device (or a designated point is connected). ) Can be input as a pattern, and can be registered as a mask pattern after the extraction processing.

図25は、パターン生成手段1125の動作例を示すフローチャートであり、図26は、カーソルによって描画されたパターンのマスクパターン化の説明図である。
スルー画像合成モード下で、ダイレクトボタン68が押された場合には(Z1)、CPU21はタイミングジェネレータ12を制御してシグナルジェネレータ16への画像データの供給を遮断し、液晶ディスプレイ20には図26(A)に示すような描画入力開始指示メッセージおよびカーソル310を表示する(Z2)。
FIG. 25 is a flowchart showing an operation example of the pattern generation unit 1125, and FIG. 26 is an explanatory diagram of mask pattern formation of a pattern drawn by a cursor.
When the direct button 68 is pressed in the through image synthesizing mode (Z1), the CPU 21 controls the timing generator 12 to cut off the supply of image data to the signal generator 16, and the liquid crystal display 20 displays FIG. A drawing input start instruction message and a cursor 310 as shown in (A) are displayed (Z2).

使用者が移動キー62を操作して、カーソルを連続的に移動させるとカーソル移動した軌跡311が表示され(図26(B))(Z3)、軌跡上の座標(xi,yj)が順次DRAM13のワークエリアに取込まれる(Z4)。このとき、ダウンキー67(−)を押してカーソルを移動させるとカーソルの軌跡は表示されず、その間の軌跡座標のワークエリアへの取込みは行なわれない(Z5)。また、この場合、カーソルを表示された軌跡と重ねて移動させるとその線分を消去できる(図26(C))(Z6)。アップキー67(+)を押すとカーソルの軌跡の表示が開始され、軌跡座標のワークエリアへの取込みが再開される(Z7)。   When the user operates the move key 62 to continuously move the cursor, the locus 311 of the cursor movement is displayed (FIG. 26B) (Z3), and the coordinates (xi, yj) on the locus are sequentially stored in the DRAM 13 (Z4). At this time, if the cursor is moved by pressing the down key 67 (-), the trajectory of the cursor is not displayed, and the trajectory coordinates during that time are not taken into the work area (Z5). In this case, if the cursor is moved so as to overlap the displayed locus, the line segment can be deleted (FIG. 26C) (Z6). When the up key 67 (+) is pressed, the display of the trace of the cursor is started, and the capture of the trace coordinates into the work area is restarted (Z7).

上記Z5,Z6を繰り返して連続線で結ばれた閉鎖領域からなる描画図形300を形成したあと、レリーズボタン63を押すと(Z8)、直線状の連続線を直線的に整形する直線整形用のアイコン301、曲線状の連続線には滑らかさを与える曲線整形用のアイコン302,303および定型的な図形(例えば、円304、矩形305、楕円306、三角形307、・・等々)用のアイコンが描画された図形と共に示される(図26(E))(Z9)。   After the drawing figure 300 composed of the closed areas connected by the continuous lines is formed by repeating the above Z5 and Z6, when the release button 63 is pressed (Z8), the linear shaping for linearly shaping the linear continuous lines is performed. The icon 301, the icons 302 and 303 for shaping the curve which gives smoothness to the curved continuous line, and the icons for fixed figures (for example, a circle 304, a rectangle 305, an ellipse 306, a triangle 307,...). This is shown together with the drawn figure (FIG. 26E) (Z9).

使用者は、移動キー62を操作して、描画図形300上の区間PQ{(xa,yb)、(xc,yd)}をカーソルで指定してから(図26(E))、所望のアイコンを指定するとその区間が指定されたアイコンの形で整形される(図26(F))。なお、定型的な図形にしたい場合には描画図形300の内部領域(閉鎖両域内の一点)をポイントしてから、所望のアイコンをポイントすると定型図形となる(Z10)。   The user operates the movement key 62 to designate the section PQ {(xa, yb), (xc, yd)} on the drawing 300 with the cursor (FIG. 26 (E)), and then selects the desired icon. Is designated, the section is shaped in the form of the designated icon (FIG. 26 (F)). If a standard graphic is desired, the user can point to an internal area (one point in both closed areas) of the graphic 300 and then point to a desired icon to obtain a standard graphic (Z10).

整形終了後、アップダウンキー67を操作すると図形の拡大/縮小が行なわれる。図26(G)には縮小されたパターン300'が示されている(Z11,Z12)。使用者がレリーズボタン63を押すと画面上の図形がパターンとして抽出される(Z13,Z14)。パターンが抽出されるとマスクパターン化処理(図7のステップT3〜T11参照)が施され(Z15)、マスクパターン化処理終了後はマスクパターンメモリー14Bに登録される(Z16)。   When the up / down key 67 is operated after the shaping, the graphic is enlarged / reduced. FIG. 26G shows a reduced pattern 300 ′ (Z11, Z12). When the user presses the release button 63, the graphic on the screen is extracted as a pattern (Z13, Z14). When the pattern is extracted, a mask patterning process (see steps T3 to T11 in FIG. 7) is performed (Z15), and after the mask patterning process is completed, it is registered in the mask pattern memory 14B (Z16).

[実施例11] プレビュー画像表示の例(マスクパターンの境界がぼやけている例)
本実施例は、登録されたマスクパターンの表示(図9のU3,図21のX1)、切抜き用画像の移動表示(図12のステップV3,図17のステップS3、図19のステップS21)、および背景画像表示(図7のT1,図9のU1,図12のステップV1,図15のステップW1、図17のステップS1)等、合成処理前に行なうプレビュー表示を高速化した例である。
[Example 11] Example of preview image display (example in which boundary of mask pattern is blurred)
In the present embodiment, the registered mask pattern is displayed (U3 in FIG. 9, X1 in FIG. 21), the moving display of the cutout image (step V3 in FIG. 12, step S3 in FIG. 17, step S21 in FIG. 19), This is an example of speeding up preview display performed before the combining process, such as display of a background image (T1 in FIG. 7, U1 in FIG. 9, step V1 in FIG. 12, step W1 in FIG. 15, step S1 in FIG. 17).

画像合成ではDRAM13に1画面(1フレーム)分の記憶領域(ワークエリア)が設けられる。画面表示の際には、そのとき表示される1画像分の画像データが記憶されているメモリー(マスクパターンならマスクパターンメモリー14B、切抜き画像なら切抜き画像メモリー14A、記録画像ならフラッシュメモリー14)から読み出されて、ワークエリアに記憶される。   In image synthesis, a storage area (work area) for one screen (one frame) is provided in the DRAM 13. At the time of screen display, image data of one image to be displayed at that time is read from a memory (a mask pattern memory 14B for a mask pattern, a clipped image memory 14A for a clipped image, and a flash memory 14 for a recorded image). It is issued and stored in the work area.

ここで、液晶ディスプレイ20の画面の左上の位置の座標を(0,0)とすると、先ず、画面座標(0,0)に対応するデータがワークエリアの位置(0,0)に書込まれ、順次、画面座標(xi,yj:i=0〜n−1、j=0〜m−1)に対応するデータがワークエリアの位置(xi,yj)に書込まれ、やがて1画像分のデータが書込まれる。   Here, assuming that the coordinates of the upper left position of the screen of the liquid crystal display 20 are (0, 0), first, data corresponding to the screen coordinates (0, 0) is written at the position (0, 0) of the work area. , Data corresponding to the screen coordinates (xi, yj: i = 0 to n−1, j = 0 to m−1) are sequentially written to the position (xi, yj) of the work area. Data is written.

ここで、ワークエリアに書込まれる各データの座標を、説明上、次のように定義する。
マスクパターンデータの座標:M(xi,yj)
切抜き画像データの座標:C(xi,yj)
背景画像データの座標:B(xi,yj)
表示座標(合成処理後のワークエリアでのデータの座標):W(xi,yj)
とし、データが8ビットで表現されるとする。
Here, the coordinates of each data written in the work area are defined as follows for explanation.
Coordinates of mask pattern data: M (xi, yj)
Coordinates of cutout image data: C (xi, yj)
Coordinates of background image data: B (xi, yj)
Display coordinates (coordinates of data in the work area after the combining process): W (xi, yj)
Suppose that data is represented by 8 bits.

この場合、例えば、マスクパターンを選択するために切抜き元画像(背景画像)上にマスクパターンを表示する場合には、選択候補のマスクパターンと切抜き元画像との背景画像の合成処理が行なわれる。この時のマスクパターンの表示位置座標は、画像合成処理の座表計算では、
W(xi,yj)=M(xi,yj)×B(xi,yj)
+(255−M(xi,yj)×C(xi,yj))/255
として、決定される。ここで、数値255は輝度である。
In this case, for example, when a mask pattern is displayed on a cut-out original image (background image) in order to select a mask pattern, the background image of the selection candidate mask pattern and the cut-out original image is synthesized. At this time, the coordinates of the display position of the mask pattern are calculated as
W (xi, yj) = M (xi, yj) × B (xi, yj)
+ (255-M (xi, yj) * C (xi, yj)) / 255
Is determined. Here, the numerical value 255 is luminance.

なお、マスクパターンで切抜き元画像としての背景画像を切抜いて切抜き画像像を生成する場合には、背景画像を移動させながらマスクパターンと背景画像を合成て切抜き候補画像を生成/表示し、使用者が切抜き候補画像の中から所望のものを選択した場合に切抜き画像として切抜く(抽出する)ことができるが、この場合の切抜き候補画像の表示座標は、画像合成処理の座標計算では、移動量を横pビット,縦qビットとするとき、
W(xi,yj)={M(xi−p,yj−q)×B(xi,yj)
+(255−M(xi−p,yj−q))
×C(xi−p,yj−q)}/255
として、決定できる。
When a cut-out image is generated by cutting out a background image as a cut-out original image using a mask pattern, a cut-out candidate image is generated / displayed by synthesizing the mask pattern and the background image while moving the background image. Can be cut out (extracted) as a cut-out image when a desired one is selected from the cut-out candidate images. In this case, the display coordinates of the cut-out candidate image are determined by the movement amount in the coordinate calculation of the image synthesis processing. Is p bits wide and q bits high,
W (xi, yj) = {M (xi−p, yj−q) × B (xi, yj)
+ (255-M (xi-p, yj-q))
× C (xi-p, yj-q)} / 255
As can be determined.

本実施例では表示座標を算出するためにパターン生成手段1125(または1225)や切抜き画像生成登録手段113(123)に表示座標決定用モジュールを組込んでいるが、プレビュー表示時の座標演算を高速化して画像を高速表示するために、表示座標決定用モジュールを各画像毎に次に述べるように場合分けして座標演算を行なうように構成した。   In this embodiment, the display coordinate determination module is incorporated in the pattern generation unit 1125 (or 1225) or the cutout image generation registration unit 113 (123) to calculate the display coordinates. In order to display the image at high speed, the display coordinate determination module is configured to perform the coordinate calculation for each image in each case as described below.

(1) マスクパターン選択時にはマスクパターンの表示座標を、
M(xi,yj)の輝度がある閾値より小さい時は、
W(xi,yj)=C(xi,yj)
M(xi,yj)の輝度がある閾値より大きい時は、
W(xi,yj)=B(xi,yj)
として算出し、この処理を一画面分のワークエリアの領域全部(i=0〜n−1,j=1〜m−1)に行なう。この結果に基づいて、パターン生成登録手段112(122)や切抜き画像生成/登録手段113(123)でマスクパターンを液晶ディスプレイ20に表示する。なお、本実施例では閾値を128とした。上記座標計算によれば、通常の画像合成処理時の合成速度(座表計算速度)に比べ数倍の早さでマスクパターンを表示できる。なお、この場合、マスクパターンと背景との境界が明瞭になるが、実際の合成ではなくプレビュー表示のため境界がはっきりしていても問題は生じない。
(1) When selecting a mask pattern, set the display coordinates of the mask pattern to
When the luminance of M (xi, yj) is smaller than a certain threshold,
W (xi, yj) = C (xi, yj)
When the luminance of M (xi, yj) is larger than a certain threshold,
W (xi, yj) = B (xi, yj)
This process is performed for all the areas of the work area for one screen (i = 0 to n−1, j = 1 to m−1). Based on the result, the mask pattern is displayed on the liquid crystal display 20 by the pattern generation / registration unit 112 (122) and the cutout image generation / registration unit 113 (123). In this embodiment, the threshold value is set to 128. According to the above coordinate calculation, the mask pattern can be displayed several times faster than the synthesis speed (coordinate calculation speed) during normal image synthesis processing. In this case, the boundary between the mask pattern and the background becomes clear, but there is no problem even if the boundary is clear for preview display, not actual synthesis.

(2) 切抜き画像の選択時には切抜き画像の表示座標を、
M(xi,yj)の輝度がある閾値より小さい時は、
W(xi,yj)=C(xi+p,yj+q)
M(xi,yj)の輝度がある閾値より大きい時は、
W(xi,yj)=B(xi,yj)
として算出し、この処理を一画面分のワークエリアの領域全部(i=0〜n−1,j=1〜m−1)に行なう。この結果に基づいて、パターン生成登録手段112(122)で切抜き画像を液晶ディスプレイ20に表示する。なお、p,qは縦,横の移動量(ドット数)である。また、本実施例では閾値を128とした。上記座標計算によれば、通常の画像合成処理時の合成速度(座表計算速度)に比べ数倍の早さで切抜き画像を表示できる。
(2) When selecting a cropped image, the display coordinates of the cropped image are
When the luminance of M (xi, yj) is smaller than a certain threshold,
W (xi, yj) = C (xi + p, yj + q)
When the luminance of M (xi, yj) is larger than a certain threshold,
W (xi, yj) = B (xi, yj)
This process is performed for all the areas of the work area for one screen (i = 0 to n−1, j = 1 to m−1). Based on the result, the cut-out image is displayed on the liquid crystal display 20 by the pattern generation registration unit 112 (122). Here, p and q are vertical and horizontal movement amounts (the number of dots). In this embodiment, the threshold value is set to 128. According to the above coordinate calculation, the cut-out image can be displayed several times faster than the synthesis speed (coordinate calculation speed) at the time of normal image synthesis processing.

(3) 背景画像の表示時には背景画像(スルー画像または再生された記録画像)の表示座標は、
生のデータのまま、すなわち、スルー画像或いは再生した記録画像の座標をそのままワークエリアに書込む。すなわち、
W(xi,yj)=B(xi,yj)
とし、この処理を一画面分のワークエリアの領域全部(i=0〜n−1,j=1〜m−1)に行なう。この結果に基づいて、パターン生成/登録手段112(122)、切抜き画像生成/登録手段113(123)、スルー画像合成手段114、或いは記録画像合成手段124で背景画像を液晶ディスプレイ20に表示する。
(3) When displaying the background image, the display coordinates of the background image (through image or reproduced recorded image) are
The raw data, that is, the coordinates of the through image or the reproduced recorded image is written in the work area as it is. That is,
W (xi, yj) = B (xi, yj)
This process is performed for the entire area of the work area for one screen (i = 0 to n-1, j = 1 to m-1). Based on this result, the background image is displayed on the liquid crystal display 20 by the pattern generation / registration unit 112 (122), the cut-out image generation / registration unit 113 (123), the through-image synthesis unit 114, or the recorded image synthesis unit 124.

(4) 貼込み位置選択時(画像移動時)には切抜き画像の表示座標を、
移動量を縦pドット,横qドットとし、貼り付け位置の中央からの移動量をr,sとすると、
M(xi−r,yj−p)の輝度がある閾値より小さい時は、
W(xi,yj)=C(xi+p−r,yj−q+s)
M(xi−r,yj=p)の輝度がある閾値より大きい時は、
W(xi,yj)=B(xi+p−r,yj−q+s)
として算出し、この処理を一画面分のワークエリアの領域全部(i=0〜n−1,j=1〜m−1)に行なう。この結果に基づいて切抜き画像生成/登録手段113(123)で切抜き画像を貼込み位置に位置付けて液晶ディスプレイ20に表示する。なお、本実施例では閾値を128とした。上記座標計算によれば、通常の画像合成処理時の合成速度(座表計算速度)に比べ数倍の早さで切抜き画像を表示できる。
(4) When selecting the paste position (when moving the image), specify the display coordinates of the cropped image,
Assuming that the movement amount is p dots vertically and q dots horizontally, and the movement amounts from the center of the pasting position are r and s,
When the luminance of M (xi-r, yj-p) is smaller than a certain threshold,
W (xi, yj) = C (xi + pr, yj-q + s)
When the luminance of M (xi-r, yj = p) is larger than a certain threshold,
W (xi, yj) = B (xi + pr, yj-q + s)
This process is performed for all the areas of the work area for one screen (i = 0 to n−1, j = 1 to m−1). Based on this result, the cut-out image is positioned at the pasting position by the cut-out image generation / registration means 113 (123) and displayed on the liquid crystal display 20. In this embodiment, the threshold value is set to 128. According to the above coordinate calculation, the cut-out image can be displayed several times faster than the synthesis speed (coordinate calculation speed) at the time of normal image synthesis processing.

[実施例12] 合成画像の解像度の自動決定の例
画像のデータ容量は大きく、メモリーの容量は限られているため画像をメモリーに記録する場合には画像(データ)にJPEG圧縮処理を施して記録し、再生時に記録画像(データ)に伸張処理を施して再生している。
画像の圧縮処理では、解像度を高くすると圧縮率が高まるが処理時間が長くなるので記録速度が遅くなり、解像度を低くすると圧縮率が低下するが処理時間が短くなるので記録速度が早くなる。
デジタルカメラでは、通常、使用者が解像度を選ぶことができるように構成されているが、処理対象の画像の切抜き画像や背景画像の解像度はその製品の使用によって異なってくるので、合成画像の解像度の選択肢は多様となる。
[Example 12] Example of Automatic Determination of Resolution of Synthetic Image Since the data capacity of the image is large and the capacity of the memory is limited, when the image is recorded in the memory, the image (data) is subjected to JPEG compression processing. The recorded image (data) is subjected to decompression processing and reproduced at the time of recording and reproduction.
In the image compression processing, when the resolution is increased, the compression rate is increased, but the processing time is longer, so that the recording speed is slower. When the resolution is lower, the compression rate is lower, but the processing time is shorter, so the recording speed is faster.
Digital cameras are usually configured so that the user can select the resolution, but the resolution of the cropped image and background image of the image to be processed depends on the use of the product, so the resolution of the composite image Options are diverse.

本実施例では、合成画像を早く記録するために最も低い解像度に合せるものとし、解像度自動決定手段で切抜き画像メモリー14Aと背景画像バッファ(DRAM13)に記録されている画像の解像度を比較して低い方の解像度を合成画像の解像度として決定し、決定された解像度に基づいて圧縮/伸張回路15で合成画像を圧縮してフラッシュメモリー14に記録する。   In this embodiment, the resolution is adjusted to the lowest resolution in order to record the synthesized image quickly, and the resolution of the cutout image memory 14A and the resolution of the image recorded in the background image buffer (DRAM 13) are compared by the automatic resolution determination means. The resolution is determined as the resolution of the combined image, and the combined image is compressed by the compression / expansion circuit 15 based on the determined resolution and recorded in the flash memory 14.

また、切抜き画像と背景画像との合成処理時の座標計算はプレビュー表示の場合の表示座標とは異なる。すなわち、合成処理時の座標は、移動量を縦pドット,横qドットとし、貼り付け位置の中央からの移動量をr,sとすると、
W(xi,yj)=M(xi−r,yjーs)×B(xi,yj)
+(255−M(xi−r,yj−s)
×C(xi+p−r,yj+q−s))/255
として算出し、この処理を一画面分のワークエリアの領域全部(i=0〜n−1,j=1〜m−1)に行なうことにより合成を行なう。
以上本発明の各実施例について説明したが、本発明は上記各実施例に限定されるものではなく、種々の変形実施が可能であることはいうまでもない。
Also, the coordinate calculation at the time of combining the cutout image and the background image is different from the display coordinates in the case of the preview display. That is, the coordinates at the time of the synthesizing process are as follows: the moving amount is vertical p dots and the horizontal q dots, and the moving amounts from the center of the pasting position are r and s.
W (xi, yj) = M (xi−r, yj−s) × B (xi, yj)
+ (255-M (xi-r, yj-s)
× C (xi + pr, yj + q−s)) / 255
The processing is performed over the entire area of the work area for one screen (i = 0 to n−1, j = 1 to m−1) to perform synthesis.
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and it goes without saying that various modifications can be made.

本発明の撮影装置の一実施例としてのデジタルカメラの構成例を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration example of a digital camera as one embodiment of a photographing device of the present invention. 図1に示したキー入力部の構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a key input unit illustrated in FIG. 1. 図1に示したデジタルカメラの処理モードの説明図である。FIG. 2 is an explanatory diagram of a processing mode of the digital camera shown in FIG. 1. 画像加工手段の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an image processing unit. リンクテーブルの構成例を示す説明図である。FIG. 4 is an explanatory diagram illustrating a configuration example of a link table. 撮影画像と切抜き画像との合成例の説明図である。FIG. 9 is an explanatory diagram of a synthesis example of a captured image and a clipped image. パターン生成/登録処理動作の一実施例を示すフローチャートである。6 is a flowchart illustrating an example of a pattern generation / registration processing operation. 図7のフローチャートに基づくパターン生成/登録過程の説明図である。FIG. 8 is an explanatory diagram of a pattern generation / registration process based on the flowchart of FIG. 7. 切抜き画像生成/登録処理動作の一実施例を示すフローチャートである。6 is a flowchart illustrating an example of a cut-out image generation / registration processing operation. 図9に示したフローチャートに基づく切抜き画像生成/登録過程の説明図である。FIG. 10 is an explanatory diagram of a cutout image generation / registration process based on the flowchart shown in FIG. 9. 図9に示したフローチャートに基づく切抜き画像生成/登録過程の説明図である。FIG. 10 is an explanatory diagram of a cutout image generation / registration process based on the flowchart shown in FIG. 9. 図1に示したデジタルカメラの切抜き画像合成処理動作の一実施例を示すフローチャートである。3 is a flowchart illustrating an example of a cut-out image synthesis processing operation of the digital camera illustrated in FIG. 図12に示したフローチャートに基づく切抜き画像合成過程の説明図である。FIG. 13 is an explanatory diagram of a cut-out image synthesizing process based on the flowchart shown in FIG. 12. 図12に示したフローチャートに基づく切抜き画像合成過程の説明図である。FIG. 13 is an explanatory diagram of a cut-out image synthesizing process based on the flowchart shown in FIG. 12. パターン生成/登録処理動作の一実施例を示すフローチャートである。6 is a flowchart illustrating an example of a pattern generation / registration processing operation. 図15に示したフローチャートに基づくパターン生成/登録過程の説明図である。FIG. 16 is an explanatory diagram of a pattern generation / registration process based on the flowchart shown in FIG. 15. 図1に示したデジタルカメラの貼り付け合成処理動作の一実施例を示すフローチャートである。3 is a flowchart illustrating an example of a pasting and combining process operation of the digital camera illustrated in FIG. 1. 図17に示したフローチャートに基づく合成画像生成過程の説明図である。FIG. 18 is an explanatory diagram of a composite image generation process based on the flowchart shown in FIG. 17. 切抜き画像生成/登録処理動作例を示すフローチャートである。9 is a flowchart illustrating an example of a cutout image generation / registration processing operation. 図19に示したフローチャートに基づく切抜き画像生成/登録過程の説明図である。FIG. 20 is an explanatory diagram of a cutout image generation / registration process based on the flowchart shown in FIG. 19. 図1に示したデジタルカメラの案内枠表示処理動作の一実施例としての証明写真枠による証明写真撮影を例としたフローチャートである。2 is a flowchart illustrating an example of a guide frame display processing operation of the digital camera illustrated in FIG. 1, which takes an ID photo frame using an ID photo frame. 図21に示したフローチャートに基づく証明写真撮影過程の説明図である。FIG. 22 is an explanatory diagram of an ID photographing process based on the flowchart shown in FIG. 21. 輪郭抽出によるマスクパターン生成の例を示す説明図である。FIG. 9 is an explanatory diagram illustrating an example of generating a mask pattern by contour extraction. 距離指定に基づくパターン生成動作の例を示すフローチャートである。9 is a flowchart illustrating an example of a pattern generation operation based on a designated distance. 描画されたパターンによるパターン生成手段の動作例を示すフローチャートである。6 is a flowchart illustrating an operation example of a pattern generation unit based on a drawn pattern. 図25に示したフローチャートに基づいて描画されたパターンのマスクパターン化の説明図である。FIG. 26 is an explanatory diagram of mask patterning of a pattern drawn based on the flowchart shown in FIG. 25.

符号の説明Explanation of reference numerals

1 撮像レンズ(撮像手段)
2 CCD(撮像手段)
14 フラッシュメモリ(撮像画像記憶手段、撮像静止画像記憶手段)
14A 切抜き画像メモリ(フレーム画像記憶手段、画像切抜きパターン記憶手段)
14B マスクパターンメモリ(マスク画像記憶手段、パターン記憶手段)
16 シグナルジェネレータ(表示制御手段、記憶制御手段)
20 液晶ディスプレイ(表示手段)
21 CPU(表示制御手段、記憶制御手段)
24 キー入力部(キー入力手段)
112,122 パターン生成/登録手段(パターン生成手段)
113,123 切抜き画像生成/登録手段(切抜き画像生成手段)
114 スルー画像合成手段(画像合成手段、表示制御手段)
124 記録画像合成手段(画像合成手段、表示制御手段)
1 imaging lens (imaging means)
2 CCD (imaging means)
14. Flash memory (captured image storage means, captured still image storage means)
14A cutout image memory (frame image storage means, image cutout pattern storage means)
14B Mask pattern memory (mask image storage means, pattern storage means)
16 signal generator (display control means, storage control means)
20 Liquid crystal display (display means)
21 CPU (display control means, storage control means)
24 key input section (key input means)
112, 122 Pattern generation / registration means (pattern generation means)
113, 123 Cutout image generation / registration means (cutout image generation means)
114 Through image combining means (image combining means, display control means)
124 Recorded image synthesizing means (image synthesizing means, display control means)

Claims (22)

被写体を撮像する撮像手段と、
前記撮像手段により撮像された撮像画像と合成するフレーム画像を記憶するフレーム画像記憶手段と、
前記フレーム画像記憶手段に記憶されているフレーム画像の中から所望のものを再生フレーム画像として再生させるフレーム画像再生手段と、
前記撮像画像と再生フレーム画像とを合成した合成画像を生成する合成手段と、
を備えることを特徴とする撮像装置。
Imaging means for imaging a subject;
A frame image storage unit that stores a frame image to be combined with a captured image captured by the imaging unit;
A frame image reproducing unit for reproducing a desired one from among the frame images stored in the frame image storing unit as a reproduced frame image,
Synthesizing means for generating a synthesized image obtained by synthesizing the captured image and the reproduction frame image,
An imaging device comprising:
前記撮像手段により撮像された撮像画像を記憶する撮像画像記憶手段と、前記撮像画像記憶手段に記憶されている撮像画像のなかから所望のものを再生画像として再生させる撮像再生手段とを備え、前記合成手段は前記撮像画像再生手段により再生された再生撮像画像と再生フレーム画像とを合成した合成画像を生成することを特徴とする請求項1記載の撮像装置。   A captured image storage unit configured to store a captured image captured by the imaging unit; and an imaging playback unit configured to play back a desired one of the captured images stored in the captured image storage unit as a playback image, 2. The imaging apparatus according to claim 1, wherein the synthesizing unit generates a synthesized image obtained by synthesizing the reproduced captured image reproduced by the captured image reproducing unit and the reproduced frame image. 前記合成画像を表示する表示手段をさらに備えることを特徴とする請求項1または2に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a display unit configured to display the composite image. 前記合成画像における前記撮像画像の相対的な位置を調整する調整手段をさらに備えることを特徴とする請求項2または3に記載の撮像装置。   The imaging apparatus according to claim 2, further comprising an adjustment unit configured to adjust a relative position of the captured image in the composite image. 前記撮像画像をマスクするマスク画像を記憶するマスク画像記憶手段と、前記撮像画像と前記マスク画像とを合成して、前記フレーム画像を生成する生成手段と、をさらに備えることを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。   2. The image processing apparatus according to claim 1, further comprising: a mask image storing unit configured to store a mask image for masking the captured image; and a generating unit configured to combine the captured image and the mask image to generate the frame image. The imaging device according to any one of claims 1 to 4. 前記合成画像を記憶する合成画像記憶手段をさらに備えることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   The imaging device according to claim 1, further comprising a composite image storage unit configured to store the composite image. 被写体を撮像し撮像画像を出力する撮像手段と、
前記撮像手段から出力された撮像画像を記憶する撮像画像記憶手段と、
複数のパターンを記憶するパターン記憶手段と、
前記パターン記憶手段に記憶されている複数のパターンの中から所望のものを選択するパターン選択手段と、
前記パターン選択手段により選択されたパターンを用いて前記撮像画像記憶手段に記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、
前記切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段とを有することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting a captured image;
A captured image storage unit that stores a captured image output from the imaging unit;
Pattern storage means for storing a plurality of patterns;
Pattern selection means for selecting a desired one from a plurality of patterns stored in the pattern storage means,
A cutout image generation unit that cuts out a corresponding portion of the captured image stored in the captured image storage unit using the pattern selected by the pattern selection unit to generate a cutout image,
An image synthesizing unit, comprising: a cutout image generated by the cutout image generating unit;
被写体を撮像し撮像画像を出力する撮像手段と、
前記撮像手段から出力された撮像画像を記憶する撮像画像記憶手段と、
前記撮像画像記憶手段に記憶されている記憶画像からパターンを生成するパターン生成手段と、
前記パターン生成手段により生成されたパターンを記憶するパターン記憶手段と、
前記パターン記憶手段に記憶されているパターンを用いて前記撮像画像記憶手段に記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、
前記切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段とを有することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting a captured image;
A captured image storage unit that stores a captured image output from the imaging unit;
Pattern generation means for generating a pattern from a stored image stored in the captured image storage means,
Pattern storage means for storing the pattern generated by the pattern generation means,
A cutout image generation unit that cuts out a corresponding portion of the captured image stored in the captured image storage unit using a pattern stored in the pattern storage unit to generate a cutout image,
An image synthesizing unit, comprising: a cutout image generated by the cutout image generating unit;
前記パターン生成手段は、前記撮像画像中の輪郭を抽出することによりパターンを生成することを特徴とする請求項8記載の撮像装置。   The imaging apparatus according to claim 8, wherein the pattern generation unit generates a pattern by extracting a contour in the captured image. 撮影距離を指定する指定手段を備え、
前記パターン生成手段は、前記撮像画像中の前記指定手段により指定された撮影距離に応じた画像部分を抽出することによりパターンを生成することを特徴とする請求項8記載の撮像装置。
There is a designating means for designating the shooting distance,
9. The imaging apparatus according to claim 8, wherein the pattern generation unit generates a pattern by extracting an image portion in the captured image corresponding to a shooting distance specified by the specification unit.
前記パターン生成手段は、前記撮像画像を2値化することによりパターンを生成することを特徴とする請求項8記載の撮像装置。   The imaging apparatus according to claim 8, wherein the pattern generation unit generates a pattern by binarizing the captured image. 前記パターン生成手段は、撮像画像の輝度成分を演算することによりパターンを生成することを特徴とする請求項8記載の撮像装置。   The imaging apparatus according to claim 8, wherein the pattern generation unit generates a pattern by calculating a luminance component of the captured image. 被写体を撮像する撮像手段と、
前記撮像手段から出力された撮像画像を記憶する撮像画像記憶手段と、
描画データを入力する描画データ入力手段と、
前記描画データ入力手段により入力された描画データからパターンを生成するパターン生成手段と、
前記パターン生成手段により生成されたパターンを記憶するパターン記憶手段と、
前記パターン生成手段に記憶されているパターンを用いて前記撮像画像記憶手段に記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、
前記切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段とを有することを特徴とする撮像装置。
Imaging means for imaging a subject;
A captured image storage unit that stores a captured image output from the imaging unit;
Drawing data input means for inputting drawing data;
Pattern generation means for generating a pattern from the drawing data input by the drawing data input means,
Pattern storage means for storing the pattern generated by the pattern generation means,
A cutout image generation unit that cuts out a corresponding portion of the captured image stored in the captured image storage unit using a pattern stored in the pattern generation unit to generate a cutout image,
An image synthesizing unit, comprising: a cutout image generated by the cutout image generating unit;
前記描画手段は、カーソルまたはポインティングデバイスを用いて描画することを特徴とする請求項13記載の撮像装置。   14. The imaging apparatus according to claim 13, wherein the drawing unit performs drawing using a cursor or a pointing device. 被写体を撮像し撮像画像を出力する撮像手段と、
前記撮像手段から出力される撮像動画像を表示する表示手段と、
画像切抜きパターンを記憶する画像切抜きパターン記憶手段と、
前記画像切抜きパターン記憶手段に記憶されている画像切抜きパターンを前記表示装置に表示されている撮像動画像上に合成して表示させる表示制御手段と、
キー入力手段と、
前記撮像手段から出力される撮像静止画像を記憶する撮像静止画像記憶手段と、
前記表示制御手段により前記表示手段に撮像動画像および切抜き画像パターンが表示されている間に前記キー入力手段が操作された場合、前記撮像静止画像記憶手段に前記撮像静止画像を記憶させる記憶制御手段と、
を有することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting a captured image;
Display means for displaying a captured moving image output from the imaging means;
Image cutout pattern storage means for storing an image cutout pattern;
Display control means for combining and displaying the image clipping pattern stored in the image clipping pattern storage means on the captured moving image displayed on the display device,
Key input means,
A captured still image storage unit that stores a captured still image output from the imaging unit,
A storage control unit that stores the captured still image in the captured still image storage unit when the key input unit is operated while the captured moving image and the cutout image pattern are displayed on the display unit by the display control unit; When,
An imaging device comprising:
前記記憶制御手段は、
前記表示手段に表示されている画像切抜きパターンを用いて前記撮像静止画像の対応部分を切抜いて切抜き静止画像を生成し、この切抜き静止画像を前記撮像静止画像記憶手段に記憶させることを特徴とする請求項15記載の撮像装置。
The storage control means,
Using the image clipping pattern displayed on the display unit, a corresponding portion of the captured still image is cut out to generate a cutout still image, and the cutout still image is stored in the captured still image storage unit. The imaging device according to claim 15.
さらに、前記撮像静止画像記憶手段に記憶されている撮像静止画像を再生する再生手段と、
前記画像切抜きパターン記憶手段に記憶されている画像切抜きパターンを用いて前記再生手段により再生された撮像静止画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、
前記切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段と、
を有することを特徴とする請求項15記載の撮像装置。
Playback means for playing back the captured still image stored in the captured still image storage means;
A cutout image generation unit that cuts out a corresponding portion of the captured still image reproduced by the reproduction unit using the image cutout pattern stored in the image cutout pattern storage unit to generate a cutout image,
Image synthesizing means for synthesizing the cut-out image generated by the cut-out image generating means with a desired image,
The imaging device according to claim 15, comprising:
被写体を撮像し撮像画像を出力する撮像手段と、
前記撮像手段から出力される撮像静止画像を記憶する撮像静止画像記憶手段と、
前記撮像手段から出力される撮像動画像を表示する表示手段と、
パターンを記憶するパターン記憶手段と、
前記パターン記憶手段に記憶されているパターンを用いて前記撮像画像記憶手段に記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、
前記切抜き画像生成手段により生成された切抜き画像を前記表示装置に表示されている撮像動画像上に合成して表示させる表示制御手段と、
キー入力手段と、
前記表示制御手段により前記表示手段に撮像動画像および切抜き画像が表示されている間に前記キー入力手段が操作された場合、前記撮像静止画像記憶手段に前記撮像静止画像を記憶させる記憶制御手段と、
を有することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting a captured image;
A captured still image storage unit that stores a captured still image output from the imaging unit,
Display means for displaying a captured moving image output from the imaging means;
Pattern storage means for storing a pattern,
A cutout image generation unit that cuts out a corresponding portion of the captured image stored in the captured image storage unit using a pattern stored in the pattern storage unit to generate a cutout image,
Display control means for combining and displaying the cutout image generated by the cutout image generation means on the captured moving image displayed on the display device,
Key input means,
A storage control unit that stores the captured still image in the captured still image storage unit when the key input unit is operated while the captured moving image and the cutout image are displayed on the display unit by the display control unit; ,
An imaging device comprising:
前記記憶制御手段は、前記表示手段に表示されている撮像静止画像および切抜き画像を前記撮像静止画像記憶手段に記憶させることを特徴とする請求項18記載の撮像装置。   19. The imaging apparatus according to claim 18, wherein the storage control unit stores the captured still image and the clipped image displayed on the display unit in the captured still image storage unit. さらに、前記表示制御手段により前記撮像動画像上に表示されている前記切抜き画像を、表示画面内の所望の位置に移動指示する移動指示手段を備えることを特徴とする請求項18記載の撮像装置。   19. The imaging apparatus according to claim 18, further comprising a movement instruction unit configured to instruct the cutout image displayed on the captured moving image to a desired position in a display screen by the display control unit. . 被写体を撮像し撮像画像を出力する撮像手段と、
前記撮像手段から出力された撮像画像を記憶する撮像画像記憶手段と、
前記撮像画像記憶手段に記憶されている撮像画像を表示する表示手段と、
パターンを記憶するパターン記憶手段と、
前記パターン記憶手段に記憶されているパターンを前記表示手段に表示されている撮像画像上に表示させる表示制御手段と、
前記表示制御手段により前記撮像画像上に表示されている前記パターンを、表示画面内の所望の位置に移動させる移動手段と、
前記移動手段により移動されたパターンを用いて前記撮像画像の対応部分を切抜いて切抜き画像を生成する切抜き画像生成手段と、
前記切抜き画像生成手段により生成された切抜き画像を所望の画像に合成する画像合成手段と、
を有することを特徴とする撮像装置。
Imaging means for imaging a subject and outputting a captured image;
A captured image storage unit that stores a captured image output from the imaging unit;
Display means for displaying a captured image stored in the captured image storage means,
Pattern storage means for storing a pattern,
Display control means for displaying a pattern stored in the pattern storage means on a captured image displayed on the display means,
Moving means for moving the pattern displayed on the captured image by the display control means to a desired position in a display screen;
A cutout image generating unit that cuts out a corresponding portion of the captured image using the pattern moved by the moving unit to generate a cutout image,
Image synthesizing means for synthesizing the cut-out image generated by the cut-out image generating means with a desired image,
An imaging device comprising:
被写体を撮像して撮像画像を得る工程と、前記撮像画像を記憶する工程と、
記憶されている撮像画像からパターンを生成する工程と、前記パターンを記憶する工程と、記憶されているパターンを用いて前記記憶されている撮像画像の対応部分を切抜いて切抜き画像を生成する工程と、
前記切抜き画像を所望の画像に合成する工程とを有することを特徴とする、撮像画像加工方法。
A step of capturing a subject to obtain a captured image, and a step of storing the captured image,
Generating a pattern from the stored captured image, storing the pattern, and generating a cutout image by cutting out a corresponding portion of the stored captured image using the stored pattern. ,
Combining the cutout image with a desired image.
JP2004000863A 1997-01-10 2004-01-06 Image pickup device and picked-up image working method Pending JP2004173300A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004000863A JP2004173300A (en) 1997-01-10 2004-01-06 Image pickup device and picked-up image working method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1470997 1997-01-10
JP31590697 1997-10-31
JP2004000863A JP2004173300A (en) 1997-01-10 2004-01-06 Image pickup device and picked-up image working method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP10013372A Division JPH11196362A (en) 1997-01-10 1998-01-07 Image pickup device and picked image processing method

Publications (1)

Publication Number Publication Date
JP2004173300A true JP2004173300A (en) 2004-06-17

Family

ID=32718592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004000863A Pending JP2004173300A (en) 1997-01-10 2004-01-06 Image pickup device and picked-up image working method

Country Status (1)

Country Link
JP (1) JP2004173300A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008067093A (en) * 2006-09-07 2008-03-21 Nikon Corp Camera system, image processor, and image processing program
JP2008186318A (en) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Drawing device
JP2009080619A (en) * 2007-09-26 2009-04-16 Casio Comput Co Ltd Imaging apparatus, image synthesizing apparatus, and its program
JP2009253555A (en) * 2008-04-03 2009-10-29 Sony Corp Information processing apparatus, information processing method, program, and recording medium
JP2014216724A (en) * 2013-04-23 2014-11-17 株式会社メイクソフトウェア Image processing apparatus, image processing method, and computer program
JP2016167814A (en) * 2016-03-24 2016-09-15 株式会社メイクソフトウェア Photographing play machine, control method for photographing play machine, and control program for photographing play machine
JP2018174545A (en) * 2018-06-12 2018-11-08 株式会社メイクソフトウェア Photographing play machine, control method for photographing play machine, and control program for photographing play machine

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008067093A (en) * 2006-09-07 2008-03-21 Nikon Corp Camera system, image processor, and image processing program
JP2008186318A (en) * 2007-01-31 2008-08-14 Sanyo Electric Co Ltd Drawing device
JP4663662B2 (en) * 2007-01-31 2011-04-06 三洋電機株式会社 Drawing device
US8077164B2 (en) 2007-01-31 2011-12-13 Sanyo Electric Co., Ltd. Drawing apparatus
JP2009080619A (en) * 2007-09-26 2009-04-16 Casio Comput Co Ltd Imaging apparatus, image synthesizing apparatus, and its program
JP2009253555A (en) * 2008-04-03 2009-10-29 Sony Corp Information processing apparatus, information processing method, program, and recording medium
JP4557035B2 (en) * 2008-04-03 2010-10-06 ソニー株式会社 Information processing apparatus, information processing method, program, and recording medium
US8249305B2 (en) 2008-04-03 2012-08-21 Sony Corporation Information processing apparatus, information processing method, program, and recording medium
JP2014216724A (en) * 2013-04-23 2014-11-17 株式会社メイクソフトウェア Image processing apparatus, image processing method, and computer program
JP2016167814A (en) * 2016-03-24 2016-09-15 株式会社メイクソフトウェア Photographing play machine, control method for photographing play machine, and control program for photographing play machine
JP2018174545A (en) * 2018-06-12 2018-11-08 株式会社メイクソフトウェア Photographing play machine, control method for photographing play machine, and control program for photographing play machine

Similar Documents

Publication Publication Date Title
KR100279140B1 (en) Image pickup device and image pickup image processing device
JPH11196362A (en) Image pickup device and picked image processing method
US20090227283A1 (en) Electronic device
JPH10240436A (en) Information processor and recording medium
JP2000078452A (en) Electronic still camera and photographing method
JPH11331693A (en) Method for processing picture and its device
JP4330049B2 (en) Electronic camera apparatus, information arrangement method, and computer-readable recording medium
JP4408456B2 (en) Information processing device
JP2004173300A (en) Image pickup device and picked-up image working method
JPH11120334A (en) Camera apparatus and image pickup method
JP2006018384A (en) Imaging device and image processing method
JP4570171B2 (en) Information processing apparatus and recording medium
JP4368203B2 (en) Imaging apparatus and captured image processing method
JPH11146311A (en) Electronic camera, control method of electronic camera and recording medium
JP3918228B2 (en) Information processing apparatus and recording medium
WO2020196384A1 (en) Image processing device, image processing method and program, and image-capture device
JP4525230B2 (en) Image display device and program
JP2008065851A (en) Information processing apparatus and recording medium
JP3817893B2 (en) Image processing device
JPH11284884A (en) Digital camera
JP3772563B2 (en) Panorama shooting method and imaging apparatus
JP2010224934A (en) Image processor and computer program
JP2007082252A (en) Information processing apparatus
JP4038842B2 (en) Information processing device
JP2008227990A (en) Imaging device, and imaging device control program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060808