JP4962219B2 - Composite image output apparatus and composite image output processing program - Google Patents

Composite image output apparatus and composite image output processing program Download PDF

Info

Publication number
JP4962219B2
JP4962219B2 JP2007223485A JP2007223485A JP4962219B2 JP 4962219 B2 JP4962219 B2 JP 4962219B2 JP 2007223485 A JP2007223485 A JP 2007223485A JP 2007223485 A JP2007223485 A JP 2007223485A JP 4962219 B2 JP4962219 B2 JP 4962219B2
Authority
JP
Japan
Prior art keywords
image
data
image data
special effect
composite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007223485A
Other languages
Japanese (ja)
Other versions
JP2009059015A (en
Inventor
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007223485A priority Critical patent/JP4962219B2/en
Publication of JP2009059015A publication Critical patent/JP2009059015A/en
Application granted granted Critical
Publication of JP4962219B2 publication Critical patent/JP4962219B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本発明は、動画撮影された人物画像を他のキャラクタ画像に置き換えた合成画像を生成して出力するための合成画像出力装置および合成画像出力処理プログラムに関する。   The present invention relates to a composite image output apparatus and a composite image output processing program for generating and outputting a composite image obtained by replacing a person image captured with a moving image with another character image.

近年、特殊撮影の技術の進歩により、ミニチュア撮影、人物と背景画像の合成、コンピュータグラフィックと撮影画像の合成等により、現実にはない情景を画面上に作り出すことが可能となった。そして最近では、モーションキャプチャ技術と3D画像処理技術によって、予め動画撮影されたモデル(対象人物)の動きにそのまま対応させた任意のキャラクタ画像を動画表示させることができるようになっている。また動画にコメントを追加する画像合成もネットサービスを用いて一般に行なわれるようになってきた。   In recent years, with the advancement of special photography technology, it has become possible to create scenes that do not exist on the screen by miniature photography, composition of a person and a background image, composition of a computer graphic and a photographed image, and the like. Recently, an arbitrary character image corresponding to the motion of a model (target person) captured in advance as a moving image can be displayed as a moving image by the motion capture technology and the 3D image processing technology. In addition, image composition for adding comments to moving images has been generally performed using a net service.

また従来、同一出願人において、デジタルカメラにより撮影された撮影画像に含まれる各画像部分までの距離情報に応じて、当該撮影画像から置き換え対象となる人物画像を抽出し、この抽出された対象人物画像のポーズ(姿勢)に応じた他のキャラクタ画像からなるまね画像を、当該対象人物画像に置き換え合成して表示する画像出力装置が考えられている(例えば、特許文献1参照。)。   Conventionally, in the same applicant, a person image to be replaced is extracted from the photographed image according to distance information to each image portion included in the photographed image photographed by the digital camera, and the extracted target person An image output device is conceivable in which a mimic image composed of another character image corresponding to an image pose (posture) is replaced with a target person image and displayed (for example, refer to Patent Document 1).

また、同一出願人において、通信ネットワーク上の端末装置から送られてくる撮影された置き換え対象となる人物画像の姿勢を示すポーズ情報を受信し、このポーズ情報に対応した姿勢のキャラクタ画像をデータベースから読み出して前記端末装置へ送信提供する画像配信サーバも考えられている(例えば、特許文献2参照。)。   Further, the same applicant receives pose information indicating the posture of the person image to be replaced that is sent from the terminal device on the communication network, and the character image of the posture corresponding to the pose information is received from the database. An image distribution server that reads out and provides a transmission to the terminal device is also considered (for example, see Patent Document 2).

このような従来の画像出力装置や画像配信サーバによれば、撮影画像の中の任意の対象人物画像を他のキャラクタ画像に置き換え合成して表示あるいはプリントすることが可能となり、ユーザ本人や知人を他のキャラクタ画像に置き換えて楽しんだり、あるいは他人に見られてはいけない人物を対象に他のキャラクタ画像に置き換え偽装したりして、撮影画像を様々な状況でより効果的に利用することができる。   According to such a conventional image output device or image distribution server, it is possible to replace an arbitrary target person image in a photographed image with another character image, and display or print it. You can enjoy using images by replacing them with other character images, or you can use the captured images more effectively in various situations by impersonating people who should not be seen by others and replacing them with other character images. .

特許第3901015号公報Japanese Patent No. 3901015

特許第3918632号公報Japanese Patent No. 3918632

前記従来における撮影人物画像の他のキャラクタ画像への置き換え合成技術では、静止画、動画、何れの場合でも、その対象人物画像をそのまま置き換え合成しているだけなので、特に、動画撮影された人物画像について、特撮やアニメーションのように対象人物の意志をもって必殺技、攻撃等を示す特殊効果画像を付加して、一連のシーンとなるような合成画像を生成することは困難な問題がある。   In the conventional technique for replacing a photographed person image with another character image, the target person image is replaced and synthesized as it is in either case of a still image or a moving image. As for special effects and animations, it is difficult to generate a composite image that forms a series of scenes by adding special effect images indicating the special techniques and attacks with the will of the target person.

本発明は、このような課題に鑑みなされたもので、動画撮影された人物画像について、対象人物の意志に従い、対象人物に対応した位置に特殊効果画像を付加して一連のシーンとなる合成画像を生成することが可能になる合成画像出力装置および合成画像出力処理プログラムを提供することを目的とする。   The present invention has been made in view of such problems, and for a human image taken in a moving image, a composite image that forms a series of scenes by adding a special effect image to a position corresponding to the target person according to the intention of the target person. It is an object of the present invention to provide a composite image output apparatus and a composite image output processing program that can generate the image.

請求項1に記載の合成画像出力装置は、予め設定された身振りのモデルデータと特殊効果の画像データと当該特殊効果を示すマークデータとを対応付けて記憶する特殊効果データ記憶手段と、動画撮影された一連の撮影画像データを取得する撮影画像取得手段と、この撮影画像取得手段により取得された一連の撮影画像データの中から人物画像を抽出する人物画像抽出手段と、この人物画像抽出手段により抽出された人物画像の中から、前記特殊効果データ記憶手段により記憶されているモデルデータとその予め設定された身振りが一致する人物画像を検出する特殊効果身振り検出手段と、この特殊効果身振り検出手段により予め設定された身振りの人物画像が検出された際の撮影画像データ前記特殊効果の画像データを合成した合成画像データを生成する合成画像生成手段と、この合成画像生成手段により生成された一連の合成画像データを出力する合成画像出力手段と、を備え、前記合成画像生成手段は、前記特殊効果身振り検出手段により予め設定された身振りの人物画像が検出された際の撮影画像データと、前記特殊効果を示すマークデータを合成したマーク付き合成画像データを生成するマーク付き合成画像生成手段と、前記マーク付き合成画像生成手段により生成されたマーク付き合成画像データに、前記特殊効果の画像データを合成した合成画像データを生成する効果合成画像生成手段と、を備え、前記合成画像出力手段は、前記マーク付き合成画像生成手段により生成されたマーク付き合成画像データを出力させるマーク付き合成画像出力手段と、前記効果合成画像生成手段により生成された前記特殊効果の画像データを合成した合成画像データを出力させる効果合成画像出力手段と、を備えたことを備えたことを特徴としている。 The composite image output apparatus according to claim 1, a special effect data storage unit that stores preset gesture model data, special effect image data, and mark data indicating the special effect in association with each other; A captured image acquisition means for acquiring a series of captured image data, a person image extraction means for extracting a person image from the series of captured image data acquired by the captured image acquisition means, and the person image extraction means. Special effect gesture detection means for detecting a person image whose model data stored in the special effect data storage means matches the preset gesture from the extracted person image, and the special effect gesture detection means advance the photographic image data when gestures of the person image is detected which has been set, the synthesized image obtained by combining the image data of the special effect by And composite image generation means for generating data, and synthesized image output means for outputting a sequence of composite image data generated by the composite image generating means, wherein the composite image generating means, by the special effect gesture detecting means Photographed image data when a pre-set gesture human image is detected, a marked composite image generating unit that generates combined image data with a mark by combining mark data indicating the special effect, and the combined image with the mark Effect combined image generation means for generating composite image data obtained by combining the image data with the special effect on the composite image data with marks generated by the generation means, and the composite image output means includes the composite image with marks A marked composite image output means for outputting the marked composite image data generated by the generating means; It is characterized by comprising further comprising the effect combined image output means for outputting the synthesized image data obtained by combining the image data of the special effect which is generated, an the image generating means.

請求項2に記載の合成画像出力装置は、前記請求項1に記載の合成画像出力装置において、前記効果合成画像生成手段は、前記検出された人物画像の位置に特殊効果の画像データを合成する、ことを特徴としている。 The composite image output apparatus according to claim 2, wherein the effect composite image generation unit synthesizes special effect image data at the detected position of the person image. It is characterized by that.

請求項3に記載の合成画像出力装置は、前記請求項1に記載の合成画像出力装置において、前記効果合成画像生成手段は、前記検出された人物画像の位置から一方向に向けて、特殊効果の画像データを合成することを特徴としている。 The composite image output device according to claim 3 is the composite image output device according to claim 1, wherein the effect composite image generation unit is configured to perform a special effect in one direction from the position of the detected person image. It is characterized by combining the image data .

請求項4に記載の合成画像出力処理装置は前記請求項1〜3のいずれか1項に記載の合成画像出力装置において、前記特殊効果データ記憶手段は、予め設定された身振りのモデルデータと特殊効果の画像データおよび音声データとを対応付けて記憶し、前記合成画像生成手段は、前記特殊効果身振り検出手段により予め設定された身振りの人物画像が検出された際の撮影画像データと、前記特殊効果の画像データを合成した合成画像データを生成すると共に、当該特殊効果の音声データを対応付けた合成画像データを生成する、ことを特徴としている。 The composite image output processing device according to claim 4 is the composite image output device according to any one of claims 1 to 3, wherein the special effect data storage means includes preset gesture model data and special data. The image data of the effect and the sound data are stored in association with each other, and the composite image generation unit is configured to capture the captured image data when the pre-set gesture human image is detected by the special effect gesture detection unit, and the special image It is characterized by generating combined image data obtained by combining the effect image data and generating combined image data in which the special effect audio data is associated .

本発明によれば、撮影画像データ中の人物画像について、対象人物による身振りに従い、適切に、撮影画像データに特殊効果画像を合成した合成画像を生成することができる。その際、身振りの人物画像が検出された際の撮影画像データと、前記特殊効果を示すマークデータを合成したマーク付き合成画像データを生成して出力するようにしたので、身振りに応じた特殊効果を示すマークデータを出力データにより確認することができる。
According to the present invention, for the person image in the photographed image data, in accordance with gesture by target person, appropriately, as possible out to produce a composite synthetic image special effect image to the photographed image data. At that time, the combined image data with the combination of the photographed image data when the gesture human image is detected and the mark data indicating the special effect are generated and output, so that the special effect corresponding to the gesture Can be confirmed from the output data.

以下図面により本発明の実施の形態について説明する。
図1は、本発明の合成画像出力装置の実施形態に係るデジタルカメラ10を利用した動画像の撮影状態と合成画像の生成状態を示す概念図である。
このデジタルカメラ10は、その背面にLCD表示部11、入力部12、音声出力部(スピーカ)13を備え、入力部12の操作に応じて撮影される動画像(撮影画像)Gは、リアルタイムで表示部11に表示される。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a conceptual diagram illustrating a moving image shooting state and a combined image generation state using a digital camera 10 according to an embodiment of a combined image output device of the present invention.
The digital camera 10 includes an LCD display unit 11, an input unit 12, and an audio output unit (speaker) 13 on the back surface thereof, and a moving image (captured image) G photographed according to the operation of the input unit 12 is real-time. It is displayed on the display unit 11.

このデジタルカメラ10は、主要な機能として、撮影中の動画像Gに含まれる人物・物体画像(P,K,A,B)を抽出する機能、抽出された人物画像が予め登録された人物画像(P)であるか否かを顔画像を認識処理して識別する機能、抽出された人物画像が予め登録された人物画像(P)である場合にその登録人物画像(P)に対応付けて予め設定された役柄画像(24Gw)のマーク(役柄変身マーク24Mw)を付加する機能、前記役柄変身マーク24Mwの付加された人物画像(P)を同予め設定された役柄画像(24Gw)に置き換える機能、抽出された人物画像の予め設定された身振り(モーション)を検出する機能、予め設定された身振りが検出された人物画像(K)についてその身振り検出時に予め設定された特殊効果画像(23Gu1)のマーク(特殊効果マーク23Mu1)を付加する機能、前記特殊効果マーク23Mu1の付加された人物画像(K)の近傍に予め設定された特殊効果画像(23Gu1)を付加する機能、抽出された物体画像が予め登録された破壊対象画像(A,B)である場合にその破壊対象画像(A,B)に対応付けて予め設定された破壊画像(15Ga3,15Gb3)のマーク(破壊マーク15Ma’,15Mb’)を付加する機能、前記破壊マーク15Ma’,15Mb’の付加された破壊対象画像(A,B)を同予め設定された破壊画像(15Ga3,15Gb3)に置き換える機能、そして、前記抽出された人物画像(P,K)の動きを捉えて前記役柄画像(24Gw)の3D画像に変換するためのモーションキャプチャ処理機能、3D画像処理機能などを有する。   The digital camera 10 has, as main functions, a function of extracting a person / object image (P, K, A, B) included in the moving image G being shot, and a person image in which the extracted person images are registered in advance. A function of recognizing whether or not the image is (P) by recognizing the face image; if the extracted person image is a person image (P) registered in advance, it is associated with the registered person image (P) A function of adding a mark (posture transformation mark 24Mw) of a pre-set role image (24Gw), and a function of replacing the person image (P) to which the role transformation mark 24Mw is added with the pre-set role image (24Gw) , A function for detecting a pre-set gesture (motion) of the extracted person image, and a special effect image that is set in advance for the person image (K) from which the pre-set gesture has been detected. A function of adding a mark (23Gu1) (special effect mark 23Mu1), a function of adding a preset special effect image (23Gu1) in the vicinity of the person image (K) to which the special effect mark 23Mu1 is added, are extracted. If the object image is a destruction target image (A, B) registered in advance, a mark (destruction mark 15Ma) of the destruction image (15Ga3, 15Gb3) set in advance in association with the destruction target image (A, B) ', 15Mb'), a function for replacing the destruction target images (A, B) to which the destruction marks 15Ma ', 15Mb' are added with the preset destruction images (15Ga3, 15Gb3), and A motion capture process for capturing the motion of the extracted person image (P, K) and converting it into a 3D image of the role image (24Gw) Function, and a like 3D image processing function.

なお、前記顔画像認識処理、モーションキャプチャ処理、3D画像処理については、周知の画像処理技術であるためその詳細な説明を省略する。
このような主要な機能を有するデジタルカメラ10を、例えば家族で利用してその父親Pを怪獣役、子供Kを○○マン役とした一連のシーンを母親が動画撮影して遊ぶ場合に、当該デジタルカメラ10において、父親Pの顔画像を怪獣画像(役柄画像24Gw)に対応付けて予め登録すると共に、ビール瓶Aと紙飛行機Bの破壊対象画像をそれぞれ塔と飛行機の破壊画像15Gaと15Gbに対応付けて予め登録する。
The face image recognition process, the motion capture process, and the 3D image process are well-known image processing techniques, and thus detailed description thereof is omitted.
When a digital camera 10 having such a main function is used by a family, for example, when a mother plays a series of scenes in which the father P serves as a monster and the child K serves as a man, In the digital camera 10, the face image of the father P is registered in advance in association with the monster image (the role image 24Gw), and the destruction target images of the beer bottle A and the paper airplane B correspond to the destruction images 15Ga and 15Gb of the tower and the airplane, respectively. And register in advance.

そして、父親Pによってビール瓶Aを倒したり、飛んで来る紙飛行機Bを叩き落としたりするのに伴い、子供Kが必殺技等の特殊効果のためのモーション(身振り)をして○○マンの必殺技を出そうとする一連のシーンを、母親がデジタルカメラ10により動画撮影する。
撮影中の動画像Gは、図1(A)に示すように、リアルタイムで表示部11に表示されると共に、本デジタルカメラ10が有する前記各種の機能によって解析され、父親Pの人物画像には、対応する怪獣画像(役柄画像24Gw)を示す役柄変身マーク24Mwが付加表示され、子供Kの人物画像には、予め設定された身振り(モーション)が検出された時点で、対応する○○マン画像の必殺技(特殊効果画像23Gu1)を示す特殊効果マーク23Mu1が付加表示される。また、ビール瓶Aには、対応する塔の破壊画像15Gaを示す破壊マーク15Maが付加表示され、紙飛行機Bには、対応する飛行機の破壊画像15Gbを示す破壊マーク15Maが付加表示される。
Then, as the father P defeats the beer bottle A or knocks down the flying paper airplane B, the child K makes a motion (special gesture) for special effects such as a special technique, and XX Man's Special Kill A mother photographs a series of scenes to try with a digital camera 10.
As shown in FIG. 1A, the moving image G being shot is displayed on the display unit 11 in real time and analyzed by the various functions of the digital camera 10. , A role transformation mark 24Mw indicating the corresponding monster image (a role image 24Gw) is additionally displayed, and when a preset gesture (motion) is detected in the child K person image, the corresponding XX man image is displayed. A special effect mark 23Mu1 indicating the special technique (special effect image 23Gu1) is additionally displayed. The beer bottle A is additionally displayed with a destruction mark 15Ma indicating the destruction image 15Ga of the corresponding tower, and the paper airplane B is additionally displayed with a destruction mark 15Ma indicating the destruction image 15Gb of the corresponding airplane.

これにより撮影中の母親は、父親P人物画像がその役柄通りに変身処理され、子供K人物画像の近傍に必殺技の特殊効果画像が追加処理またビール瓶Aや紙飛行機Bの物体画像がその登録通りに置き換え処理されていることを容易に認識することができる。
またこの際、前記怪獣画像(役柄画像24Gw)や○○マンの必殺技(特殊効果画像23Gu1)にそれぞれ対応付けられて予め記憶されている音声データ「ガオー」「ビビビビー」が読み出され音声出力部13から出力されることで、各役柄を演じている最中の父親Pや必殺技を演じている子供Kにあっても、自らがその役柄通りに変身処理、特殊効果処理されていることを容易に認識することができる。
As a result, the mother being photographed has the father P person image transformed according to his role, the special effect image of the special technique is added to the vicinity of the child K person image, and the object images of the beer bottle A and the paper airplane B are registered. It can be easily recognized that the replacement processing is performed as described above.
At this time, the voice data “Gao” and “Bibi Bibi” stored in advance in association with the monster image (role image 24Gw) and the XX man's special technique (special effect image 23Gu1) are read out and output as audio. By being output from the part 13, even if it is in the father P who is playing each role or the child K who is performing a special move, the transformation process and the special effect processing are carried out according to the role. Can be easily recognized.

なお、前記撮影された動画像(撮影画像)Gに対して役柄変身マーク24Mwや特殊効果マーク23Mu1、破壊マーク15Ma,15Mbが付加された動画像をマーク付き撮影画像Gmと称する。
この後、前記一連のシーンの動画像Gの撮影が終了すると共にそのマーク付き撮影画像Gmが生成されると、当該マーク付き撮影画像Gmが前記各種の機能によって解析され、図1(B)に示すように、前記役柄変身マーク24Mwの付加された父親Pの人物画像に対応する怪獣の役柄画像24Gwと、前記特殊効果マーク23Mu1の付加された子供Kの人物画像に対応する○○マンの必殺技の特殊効果画像23Gu1、および前記各破壊マーク15Ma,15Mbの付加されたビール瓶Aと紙飛行機Bの各破壊対象画像に対応する塔と飛行機の各破壊画像15Ga,15Gbが、予め設定された背景画像BGに合成されてなる合成動画像GGが生成される。
A moving image in which the role transformation mark 24Mw, the special effect mark 23Mu1, and the destruction marks 15Ma and 15Mb are added to the photographed moving image (captured image) G is referred to as a marked photographed image Gm.
Thereafter, when the shooting of the moving image G of the series of scenes is finished and the captured image Gm with the mark is generated, the captured image Gm with the mark is analyzed by the various functions, and is shown in FIG. As shown, the monster role image 24Gw corresponding to the person image of the father P to which the role change mark 24Mw is added, and the XX man's deadly shot corresponding to the child K person image to which the special effect mark 23Mu1 is added. The special effect image 23Gu1 of the technique, and the destruction images 15Ga and 15Gb of the tower and the plane corresponding to the destruction target images of the beer bottle A and the paper airplane B to which the destruction marks 15Ma and 15Mb are added are set in advance. A synthesized moving image GG synthesized with the image BG is generated.

なお、前記ビール瓶Aと紙飛行機Bの各破壊対象画像に対応付けられた各破壊画像15Ga,15Gbは、何れもその破壊対象画像(A,B)に対して、前記役柄変身マーク24Mwや変身マーク14Muが付加された父親Pや子供Kの人物画像が接触したことを検知して予め記憶された破壊後の画像に置き換え合成される。   Note that the destruction images 15Ga and 15Gb associated with the destruction target images of the beer bottle A and the paper airplane B are both the character change mark 24Mw and the transformation mark with respect to the destruction target images (A, B). It is detected that the father P or child K person image to which 14 Mu has been added has come into contact with the image and is replaced with a previously stored image after destruction.

これによりユーザ家族は、容易に特撮風の合成動画像GGを作ることができ、○○マンが怪獣に対して行った必殺技のシーンについて、撮影画像中の子供Kの人物画像に近傍に必殺技を示す特殊効果画像を付加して合成された画像を含む一連の合成動画像GGを表示部11に出力表示させて見たり、外部のモニタに出力表示させて見たりすることで、これまでにない楽しみを得ることができる。このように動画撮影された画像について、物体の破壊画像との合成を容易かつ効果的に行える。
図2は、前記デジタルカメラ10(通信端末A)の電子回路の構成を示すブロック図である。
This makes it easy for the user's family to create a special-effects-style synthesized moving image GG, and for the special move scene that XX Man has performed on the monster, it is close to the person image of the child K in the captured image. A series of synthesized moving images GG including images synthesized by adding special effect images indicating techniques are output and displayed on the display unit 11 or output and displayed on an external monitor. You can get some fun. Thus, it is possible to easily and effectively synthesize the image captured with the moving image with the destruction image of the object.
FIG. 2 is a block diagram showing a configuration of an electronic circuit of the digital camera 10 (communication terminal A).

このデジタルカメラ10は、コンピュータであるCPU16を備えている。
CPU16は、メモリ17に予め記憶されたシステムプログラム、あるいはメモリカードなどの外部記録媒体18からカードスロットなどの記録媒体読取部19を介して前記メモリ17に読み込まれたカメラ制御プログラム、あるいは通信ネットワーク(N)上のサーバ装置30(この場合はプログラムサーバ)から電送制御部20を介して前記メモリ17に読み込まれたカメラ制御プログラムに従い回路各部の動作を制御する。
The digital camera 10 includes a CPU 16 that is a computer.
The CPU 16 is a system program stored in the memory 17 in advance, a camera control program read from the external recording medium 18 such as a memory card into the memory 17 via a recording medium reading unit 19 such as a card slot, or a communication network ( N) The operation of each part of the circuit is controlled according to the camera control program read into the memory 17 from the server device 30 (in this case, the program server) via the power transmission control unit 20.

CPU16には、前記LCD表示部11、入力部12、音声出力部13、メモリ17、記録媒体読取部19、電送制御部20が接続される他に、固体撮像素子(CCD)や撮像光学系および距離センサや照度センサを備えた画像撮影部2lが接続される。
前記メモリ17のプログラムメモリ22には、本デジタルカメラ10の全体の動作を司るシステムプログラムや撮影動作を司るカメラ制御プログラム、通信ネットワークN上のサーバ装置30や外部の通信端末B(PC:personal computer)40との通信動作を司る通信制御プログラムが記憶されると共に、前記画像撮影部21により撮影された撮影画像Gに基づいて、前述したマーク付き撮影画像Gmや合成画像GGを生成したり出力したりするための前記各種の機能を司る画像処理プログラムが予め記憶される。
The CPU 16 is connected to the LCD display unit 11, the input unit 12, the audio output unit 13, the memory 17, the recording medium reading unit 19, and the power transmission control unit 20, as well as a solid-state imaging device (CCD), an imaging optical system, and the like. An image photographing unit 21 having a distance sensor and an illuminance sensor is connected.
The program memory 22 of the memory 17 includes a system program that controls the entire operation of the digital camera 10, a camera control program that controls the photographing operation, a server device 30 on the communication network N, and an external communication terminal B (PC: personal computer). ) A communication control program for controlling the communication operation with 40 is stored, and based on the captured image G captured by the image capturing unit 21, the above-described marked captured image Gm and composite image GG are generated and output. An image processing program that manages the various functions for storing the image is stored in advance.

そして、前記プログラムメモリ22に記憶された各種のプログラムは、入力部12からのキー入力信号や画像撮影部21からの撮影入力信号、電送制御部20を介した外部機器(30,40)からの受信入力信号に応じて起動される。
また、前記メモリ17には、変身データメモリ14、特殊効果データメモリ23、破壊データメモリ15、変身役柄データメモリ24、撮影画像データメモリ25、マーク付き撮影画像データメモリ26、合成画像データメモリ27、およびその他の作業用データメモリなどが備えられる。
The various programs stored in the program memory 22 are a key input signal from the input unit 12, a shooting input signal from the image shooting unit 21, and an external device (30, 40) via the transmission control unit 20. It is activated in response to the received input signal.
The memory 17 includes a transformation data memory 14, a special effect data memory 23, a destruction data memory 15, a transformation role data memory 24, a photographed image data memory 25, a marked photographed image data memory 26, a composite image data memory 27, And other working data memories.

図3は、前記デジタルカメラ10の変身データメモリ14に予め記憶される変身データの内容を示す図である。
この変身データメモリ14は、変身モーションモデルデータ14Pと変身画像データ14Guと変身マークデータ14Muの記憶領域を有し、変身画像データ14Guの記憶領域には、複数種類の変身画像データ(変身キャラクタ)およびその音声データが、例えば○○マンAの変身画像データ14Gu1およびその音声データ「シュワッチ」14Su1、初代○○マンの変身画像データ14Gu2およびその音声データ「ヤー・ター」14Su2として記憶される。また、変身マークデータ14Muの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2をそれぞれ簡易表現する変身マークデータ14Mu1,14Mu2が記憶される。そして、変身モーションモデルデータ14Pの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2にそれぞれ変身するための一連のモーション(身振り)からなる変身モーションモデルデータ14P1a〜14P1c,14P2a〜14P2cが記憶される。
FIG. 3 is a diagram showing the contents of the transformation data stored in advance in the transformation data memory 14 of the digital camera 10.
The transformation data memory 14 has storage areas for transformation motion model data 14P, transformation image data 14Gu, and transformation mark data 14Mu. The storage area for transformation image data 14Gu includes a plurality of types of transformation image data (transformation characters) and The audio data is stored as, for example, XX Man A's transformation image data 14Gu1 and its audio data “Swatch” 14Su1, the first XX Man's transformation image data 14Gu2 and its audio data “Ya Tah” 14Su2. Further, in the storage area of the transformation mark data 14Mu, transformation mark data 14Mu1 and 14Mu2 that respectively express the plurality of types of transformation image data 14Gu1 and 14Gu2 in a simplified manner are stored. In the storage area of the transformation motion model data 14P, transformation motion model data 14P1a to 14P1c and 14P2a to 14P2c including a series of motions (gestures) for transformation into the plural types of transformation image data 14Gu1 and 14Gu2 are stored. Is done.

なお、前記変身画像データ14Gu1,14Gu2は、様々な動きを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データと3D画像生成用データとの組み合わせとして記憶される。また前記変身モーションモデルデータ14P1a〜14P1c,14P2a〜14P2cは、当該変身モーションを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データとして記憶される。   The transformed image data 14Gu1 and 14Gu2 are stored as image data itself representing various movements, or a combination of movement data of limb skeletons and facial feature points and 3D image generation data. The transformation motion model data 14P1a to 14P1c and 14P2a to 14P2c are stored as image data representing the transformation motion itself, or movement data of the limb skeleton and facial feature points.

図4は、前記デジタルカメラ10の特殊効果データメモリ23に予め記憶される特殊効果データの内容を示す図である。
この特殊効果データメモリ23は、特殊効果モーションモデルデータ23Pと特殊効果画像データ23Guと特殊効果マークデータ23Muの記憶領域を有し、特殊効果画像データ23Guの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2にそれぞれ対応する特殊効果画像データおよびその音声データが、例えば○○マンA用の特殊効果画像データ23Gu1およびその音声データ「ビビビビー」23Su1、初代○○マン用の特殊効果画像データ23Gu2およびその音声データ「ピーバリバリー」23Su2として記憶される。また、特殊効果マークデータ23Muの記憶領域には、前記複数種類の特殊効果画像データ23Gu1,23Gu2をそれぞれ簡易表現する特殊効果マークデータ23Mu1,23Mu2が記憶される。そして、特殊効果モーションモデルデータ23Pの記憶領域には、前記複数種類の特殊効果画像データ23Gu1,23Gu2をそれぞれ対応する変身画像データ14Gu1,14Gu2の所定の位置から発生させて付加するための一連のモーション(身振り)からなる特殊効果モーションモデルデータ23P1a〜23P1c,23P2a〜23P2cが記憶される。
FIG. 4 is a diagram showing the contents of special effect data stored in advance in the special effect data memory 23 of the digital camera 10.
The special effect data memory 23 has storage areas for special effect motion model data 23P, special effect image data 23Gu, and special effect mark data 23Mu. The storage area for the special effect image data 23Gu includes the plurality of types of transformed images. The special effect image data corresponding to each of the data 14Gu1 and 14Gu2 and the sound data thereof are, for example, the special effect image data 23Gu1 for XX Man A and the sound data “BibiBibi” 23Su1, the special effect image data 23Gu2 for the first XX man. And its voice data “Peeverly” 23Su2. In addition, special effect mark data 23Mu1, 23Mu2 for simply expressing the plurality of types of special effect image data 23Gu1, 23Gu2 is stored in the storage area of the special effect mark data 23Mu. A series of motions for generating and adding the plurality of types of special effect image data 23Gu1, 23Gu2 from predetermined positions of the corresponding transformation image data 14Gu1, 14Gu2 to the storage area of the special effect motion model data 23P. Special effect motion model data 23P1a to 23P1c and 23P2a to 23P2c including (gesture) are stored.

なお、前記特殊効果画像データ23Gu1,23Gu2は、画像データそのもの、又は3D画像生成用データとして記憶される。また前記特殊効果モーションモデルデータ23P1a〜23P1c,23P2a〜23P2cは、当該特殊効果モーションを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データとして記憶される。   The special effect image data 23Gu1 and 23Gu2 are stored as image data itself or 3D image generation data. The special effect motion model data 23P1a to 23P1c and 23P2a to 23P2c are stored as image data representing the special effect motion itself, or movement data of the limb skeleton and facial feature points.

図5は、前記デジタルカメラ10の破壊データメモリ15に予め記憶される破壊データの内容を示す図である。
この破壊データメモリ15は、破壊対象画像データ15Tと破壊画像データ15Gと破壊(前)マークデータ15Mと破壊(後)マークデータ15M′の記憶領域を有し、破壊画像データ15Gの記憶領域には、複数種類の一連の破壊画像データおよびその破壊途中の音声データが、例えば塔の破壊前,破壊中,破壊後の各画像データ15Ga1〜15Ga3およびその破壊中音声データ「グシャ」15Sa、飛行機の破壊前,破壊中,破壊後の各画像データ15Gb1〜15Gb3およびその破壊中音声データ「ドカーン」15Sb、建物の破壊前,破壊中,破壊後の各画像データ15Gc1〜15Gc3およびその破壊中音声データ「ガラガラ」15Scとして記憶される。また、破壊(前)マークデータ15Mと破壊(後)マークデータ15M′の各記憶領域には、前記複数種類の破壊前後の画像データ15Ga1,15Ga3、15Gb1,15Gb3、15Gc1,15Gc3をそれぞれ簡易表現する同破壊前後のマークデータ15Ma,15Ma′、15Mb,15Mb′、15Mc,15Mc′が記憶される。そして、破壊対象画像データ15Tの記憶領域には、前記複数種類の破壊画像データ15Ga1〜15Ga3,15Gb1〜15Gb3,15Gc1〜15Gc3にそれぞれ置き換えるための対象となる一般家庭にある物体画像が、例えば塔の破壊画像データ15Ga1〜15Ga3の場合にはビール瓶A1やペットボトルA2、飛行機の破壊画像データ15Gb1〜15Gb3の場合には紙飛行機B、建物の破壊画像データ15Gc1〜15Gc3の場合にはティッシュボックスCとして記憶される。
FIG. 5 is a diagram showing the contents of the destruction data stored in advance in the destruction data memory 15 of the digital camera 10.
The destruction data memory 15 has storage areas for destruction target image data 15T, destruction image data 15G, destruction (front) mark data 15M, and destruction (rear) mark data 15M ′, and the storage area for the destruction image data 15G includes A series of a plurality of types of destruction image data and sound data in the middle of destruction include, for example, image data 15Ga1 to 15Ga3 before destruction of the tower, destruction of the tower, and sound data “Gusha” 15Sa during destruction, destruction of the airplane, The image data 15Gb1 to 15Gb3 before, during and after destruction, and the sound data “Dekan” 15Sb before destruction, the image data 15Gc1 to 15Gc3 before, during and after destruction of the building, and the sound data “Rattle” "Is stored as 15Sc. In addition, in each storage area of the destruction (previous) mark data 15M and the destruction (rear) mark data 15M ′, the plurality of types of image data 15Ga1, 15Ga3, 15Gb1, 15Gb3, 15Gc1, 15Gc3 before and after the destruction are respectively expressed in a simplified manner. Mark data 15Ma, 15Ma ′, 15Mb, 15Mb ′, 15Mc, 15Mc ′ before and after the destruction are stored. In the storage area of the destruction target image data 15T, an object image in a general household to be replaced with the plurality of types of destruction image data 15Ga1 to 15Ga3, 15Gb1 to 15Gb3, 15Gc1 to 15Gc3, for example, In the case of the destruction image data 15Ga1 to 15Ga3, it is stored as the beer bottle A1 or the plastic bottle A2, in the case of the destruction image data 15Gb1 to 15Gb3 of the airplane, the paper plane B, and in the case of the destruction image data 15Gc1 to 15Gc3 of the building, it is stored as the tissue box C. Is done.

なお、前記破壊画像データ15Ga1〜15Ga3,15Gb1〜15Gb3,15Gc1〜15Gc3は、画像データそのもの、又は3D画像生成用データとして記憶される。また前記破壊対象画像データA1(A2),B,Cは、その物体を撮影した画像データそのもの、又は同物体の特徴を示す形状データとして記憶される。   The destructive image data 15Ga1 to 15Ga3, 15Gb1 to 15Gb3, and 15Gc1 to 15Gc3 are stored as image data itself or 3D image generation data. The destruction target image data A1 (A2), B, and C are stored as image data obtained by photographing the object, or shape data indicating the characteristics of the object.

図6は、前記デジタルカメラ10の変身役柄データメモリ24に記憶される変身役柄データの内容を示す図である。
この変身役柄データメモリ24は、ユーザ登録される変身対象画像データ24T、変身(1)画像データ24Gwと変身(1)マークデータ24Mw、変身(2)画像データ24Gw′と変身(2)マークデータ24Mw′、変身条件データ24Hの記憶領域を有し、変身(1)画像データ24Gwの記憶領域には、複数種類の第1段階の変身画像データ(変身キャラクタ)およびその音声データが、例えば怪獣Aの変身(1)画像データ24Gw1およびその音声データ「ガオー」24Sw1、怪獣Bの変身(1)画像データ24Gw2およびその音声データ「ギャーギャー」24Sw2として記憶される。また、変身(1)マークデータ24Mwの記憶領域には、前記複数種類の変身(1)画像データ24Gw1,24Gw2をそれぞれ簡易表現する変身(1)マークデータ24Mw1,24Mw2が記憶される。また、変身(2)画像データ24Gw′の記憶領域には、前記複数種類の第1段階の変身画像データ24Gw1,24Gw2にそれぞれ対応する第2段階の変身画像データ24Gw1′,24Gw2′およびその音声データ24Sw1′,24Sw2′が記憶される。また、変身(2)マークデータ24Mw′の記憶領域には、前記変身(2)画像データ24Gw1′,24Gw2′を簡易表現する変身(2)マークデータ24Mw1′,24Mw2′が記憶される。さらに、変身条件データ24Hの記憶領域には、前記第1段階の変身(1)画像データ24Gw1,24Gw2から第2段階の変身(2)画像データ24Gw1′,24Gw2′に変身するための条件データ24H1,24H2が記憶される。
FIG. 6 is a view showing the contents of the transformation character data stored in the transformation character data memory 24 of the digital camera 10.
This transformation role data memory 24 includes transformation target image data 24T, transformation (1) image data 24Gw and transformation (1) mark data 24Mw, transformation (2) image data 24Gw 'and transformation (2) mark data 24Mw. ′, A storage area for transformation condition data 24H, and transformation (1) In the storage area for image data 24Gw, a plurality of types of first stage transformation image data (transformation characters) and their voice data are stored in, for example, monster A. Transformation (1) Image data 24Gw1 and its voice data “Gao” 24Sw1, transformation of monster B (1) Image data 24Gw2 and its voice data “Gaga” 24Sw2 are stored. Further, in the storage area of the transformation (1) mark data 24Mw, transformation (1) mark data 24Mw1 and 24Mw2 that simply express the plural types of transformation (1) image data 24Gw1 and 24Gw2 are stored. Further, in the storage area for the transformation (2) image data 24Gw ′, the second-stage transformation image data 24Gw1 ′ and 24Gw2 ′ corresponding to the plurality of types of first-stage transformation image data 24Gw1 and 24Gw2, respectively, and the audio data thereof. 24Sw1 'and 24Sw2' are stored. Further, in the storage area for the transformation (2) mark data 24Mw ′, transformation (2) mark data 24Mw1 ′ and 24Mw2 ′ for simply expressing the transformation (2) image data 24Gw1 ′ and 24Gw2 ′ are stored. Further, in the storage area of the transformation condition data 24H, the first stage transformation (1) image data 24Gw1, 24Gw2 to the second stage transformation (2) condition data 24H1 for transformation into image data 24Gw1 ′, 24Gw2 ′. , 24H2 is stored.

なお、本実施形態では、前記第2段階の変身(2)画像データ24Gw1′,24Gw2′は設定しないので、その変身(2)マークデータ24Mw1′,24Mw2′および変身条件データ24H1,24H2も設定されない。
そして、変身対象画像データ24Tの記憶領域には、前記複数種類の変身画像データ24Gw1,24Gw2にそれぞれ変身させて置き換えるための対象となる人物の顔画像が、例えば父親の顔画像P、母親の顔画像Mとしてユーザ登録され記憶される。
In this embodiment, since the second stage transformation (2) image data 24Gw1 ′ and 24Gw2 ′ is not set, the transformation (2) mark data 24Mw1 ′ and 24Mw2 ′ and transformation condition data 24H1 and 24H2 are not set. .
In the storage area of the transformation target image data 24T, the facial images of persons to be transformed and replaced with the plurality of types of transformation image data 24Gw1 and 24Gw2, respectively, are, for example, the father's facial image P, the mother's facial The user is registered and stored as an image M.

なお、前記変身(1)(2)画像データ24Gw,24Gw′は、様々な動きを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データと3D画像生成用データとの組み合わせとして記憶される。
撮影画像データメモリ25には、画像撮影部21により静止画または動画撮影されて入力された撮影画像データGが記憶される。
The transformation (1) and (2) image data 24Gw and 24Gw ′ are image data representing various movements, or a combination of movement data of limb skeletons and facial feature points and 3D image generation data. Remembered.
The photographed image data memory 25 stores photographed image data G input by taking a still image or a moving image by the image photographing unit 21.

マーク付き撮影画像データメモリ26には、前記撮影画像データメモリ25に動画撮影されて記憶された撮影画像データGに基づき、前記画像処理プログラムに従い撮影にリアルタイムで生成されたマーク付き撮影画像データGm(図1(A)参照)が順次記憶される。   In the marked-captured image data memory 26, the marked-captured image data Gm (generated in real time for shooting according to the image processing program based on the captured image data G captured and stored in the captured image data memory 25). 1A) are sequentially stored.

合成画像データメモリ27には、前記マーク付き撮影画像データメモリ26に生成記憶されたマーク付き撮影画像データGmに基づき、前記画像処理プログラムに従い生成された合成画像データGG(図1(B)参照)が記憶される。
なお、前記構成のデジタルカメラ10は、当該デジタルカメラ10自体により動画撮影される撮影画像データGに基づいて、前記マーク付き撮影画像データGm(図1(A)参照)をリアルタイムに生成表示し、この後に当該マーク付き撮影画像データGmから前記合成画像データGG(図1(B)参照)を生成して表示あるいは外部に出力するものである。これに対し、前記デジタルカメラ10が有する撮影機能以外の前記動画撮影された撮影画像データGからマーク付き撮影画像データGm(図1(A)参照)を生成し、このマーク付き撮影画像データGmから合成画像データGG(図1(B)参照)を生成するための各種の機能を、通信ネットワークN上のサーバ装置30に備えさせ、通信機能付きのデジタルカメラ(通信端末A)10′やPC(通信端末B)40から転送された動画撮影データGに基づき、当該サーバ装置30が前記マーク付き撮影画像データGmおよび合成画像データGGを生成し、前記各通信端末(A)10′,(B)40に応答配信してサービスを提供する構成としてもよい。
In the composite image data memory 27, composite image data GG generated according to the image processing program based on the marked captured image data Gm generated and stored in the marked captured image data memory 26 (see FIG. 1B). Is memorized.
The digital camera 10 having the above configuration generates and displays the marked photographic image data Gm (see FIG. 1A) in real time based on the photographic image data G captured by the digital camera 10 itself. Thereafter, the composite image data GG (see FIG. 1B) is generated from the photographed image data Gm with the mark and displayed or output to the outside. On the other hand, photographic image data Gm with a mark (see FIG. 1 (A)) is generated from the photographic image data G taken with the moving image other than the photographic function of the digital camera 10, and the photographic image data Gm with the mark is generated. Various functions for generating the composite image data GG (see FIG. 1B) are provided in the server device 30 on the communication network N, and a digital camera (communication terminal A) 10 ′ or PC (with communication function) is installed. Based on the moving image shooting data G transferred from the communication terminal B) 40, the server device 30 generates the marked shooting image data Gm and the composite image data GG, and the communication terminals (A) 10 'and (B). It is good also as a structure which responds to 40 and provides a service.

図7は、本発明の合成画像出力装置の実施形態に係るサーバ装置30の電子回路の構成を示すブロック図である。
このサーバ装置30は、コンピュータであるCPU31を備えている。
CPU31は、メモリ32に予め記憶されたシステムプログラム、あるいはCD−ROMなどの外部記録媒体33から光ディスクドライブなどの記録媒体読取部34を介して前記メモリ32に読み込まれたサーバ制御プログラムに従い回路各部の動作を制御する。
FIG. 7 is a block diagram showing the configuration of the electronic circuit of the server apparatus 30 according to the embodiment of the composite image output apparatus of the present invention.
The server device 30 includes a CPU 31 that is a computer.
The CPU 31 operates in accordance with a system program stored in advance in the memory 32 or a server control program read into the memory 32 from an external recording medium 33 such as a CD-ROM via a recording medium reading unit 34 such as an optical disk drive. Control the behavior.

CPU31には、前記メモリ32、記録媒体読取部34が接続される他に、通信ネットワークN上の通信端末A(デジタルカメラ)10′や通信端末B(PC)40との間でデータの電送制御を行うための電送制御部35、キーボード・マウスなどの入力部36、LCD表示部37が接続される。   In addition to the memory 32 and the recording medium reading unit 34 being connected to the CPU 31, data transmission control between the communication terminal A (digital camera) 10 ′ and the communication terminal B (PC) 40 on the communication network N is performed. Are connected to an electric transmission control unit 35, an input unit 36 such as a keyboard / mouse, and an LCD display unit 37.

前記メモリ32のプログラムメモリ32Aには、本サーバ装置30の全体の動作を司るシステムプログラム、通信ネットワークN上の各通信端末A(デジタルカメラ)10′や通信端末B(PC)40との通信動作を司る通信制御プログラムが記憶されると共に、当該外部の各通信端末A10′,B40から転送された動画撮影画像データGに基づいて、前述したデジタルカメラ10と同様にマーク付き撮影画像Gmや合成画像GGを生成したり出力(配信)したりするための前記図1を参照して説明した各種の機能を司る画像処理プログラムが予め記憶される。   The program memory 32A of the memory 32 includes a system program that controls the overall operation of the server device 30, and communication operations with each communication terminal A (digital camera) 10 'and communication terminal B (PC) 40 on the communication network N. The communication control program for managing the image is stored, and based on the moving image photographic image data G transferred from each of the external communication terminals A10 ′ and B40, the marked photographic image Gm and the composite image are obtained as in the digital camera 10 described above. An image processing program for managing various functions described with reference to FIG. 1 for generating or outputting (distributing) GG is stored in advance.

そして、前記プログラムメモリ32Aに記憶された各種のプログラムは、入力部36からの入力信号、電送制御部35を介した外部の各通信端末A10′,B40からの受信入力信号に応じて起動される。
また、前記メモリ32には、前記図1〜図6を参照して説明したデジタルカメラ10におけるそれと略同一のデータ内容である、変身データメモリ32B、特殊効果データメモリ32C、破壊データメモリ32D、変身役柄データメモリ32E、撮影画像データメモリ32F、マーク付き撮影画像データメモリ32G、合成画像データメモリ32H、およびその他の作業用データメモリなどが備えられる。
Various programs stored in the program memory 32A are activated in response to an input signal from the input unit 36 and a received input signal from each of the external communication terminals A10 'and B40 via the transmission control unit 35. .
The memory 32 includes a transformation data memory 32B, a special effect data memory 32C, a destruction data memory 32D, a transformation data, which are substantially the same data contents as those in the digital camera 10 described with reference to FIGS. A role data memory 32E, a photographed image data memory 32F, a marked photographed image data memory 32G, a composite image data memory 32H, and other work data memories are provided.

これにより、サーバ装置30では、通信ネットワークNに接続された通信端末A(デジタルカメラ)10′や通信端末B(PC)40から転送された動画撮影画像データGに基づき、前記同様のマーク付き撮影画像データGm(図1(A)参照)および合成画像データGG(図1(B)参照)を生成すると共に、前記撮影画像データGの転送元である各通信端末A10′,B40に応答配信してサービスを提供できる。   Thereby, in the server apparatus 30, based on the moving image photographic image data G transferred from the communication terminal A (digital camera) 10 'or the communication terminal B (PC) 40 connected to the communication network N, the same marked shooting as described above is performed. Image data Gm (see FIG. 1 (A)) and composite image data GG (see FIG. 1 (B)) are generated and distributed to the communication terminals A10 ′ and B40 that are the transfer source of the photographed image data G. Service.

次に、前記構成のデジタルカメラ10あるいはサーバ装置30による合成画像出力装置の動作について説明する。
図8は、前記合成画像出力装置による合成画像出力処理の全体過程を示すフローチャートである。
図9は、前記合成画像出力処理に伴い撮影画像(G)中に存在する人物(P,M,K)・物体(A,B,C)の対象画像を抽出する対象画像抽出処理を示すフローチャートである。
Next, the operation of the composite image output apparatus by the digital camera 10 or the server apparatus 30 having the above configuration will be described.
FIG. 8 is a flowchart showing the overall process of the composite image output process by the composite image output apparatus.
FIG. 9 is a flowchart showing target image extraction processing for extracting target images of persons (P, M, K) and objects (A, B, C) existing in the captured image (G) in accordance with the composite image output processing. It is.

図10は、前記合成画像出力処理に伴い役柄登録された人物画像(P,M)に変身マーク(24Mw)を付加する役柄変身マーク処理を示すフローチャートである。
図11は、前記合成画像出力処理に伴い抽出された物体画像(A,B,C)に破壊マーク(15M,15M′)を付加すると共に対応音声(15S)を出力する破壊マーク処理を示すフローチャートである。
FIG. 10 is a flowchart showing a role transformation mark process for adding a transformation mark (24 Mw) to a person image (P, M) whose role has been registered along with the composite image output process.
FIG. 11 is a flowchart showing destruction mark processing for adding a destruction mark (15M, 15M ′) to the object image (A, B, C) extracted with the composite image output processing and outputting the corresponding sound (15S). It is.

図12は、前記合成画像出力処理に伴い変身モーション(14P)の検出された人物画像(K)に変身マーク(14Mu)を付加すると共に対応音声(14Su)を出力するモーション変身マーク処理を示すフローチャートである。
図13は、前記合成画像出力処理に伴い特殊効果モーション(23P)の検出された人物画像(K)に特殊効果マーク(23Gu)を付加すると共に対応音声(23Su)を出力する特殊効果マーク処理を示すフローチャートである。
FIG. 12 is a flowchart showing a motion transformation mark process for adding a transformation mark (14Mu) to a person image (K) in which a transformation motion (14P) is detected in accordance with the synthetic image output process and outputting a corresponding voice (14Su). It is.
FIG. 13 shows a special effect mark process for adding a special effect mark (23Gu) to a person image (K) in which a special effect motion (23P) is detected in accordance with the composite image output process and outputting a corresponding sound (23Su). It is a flowchart to show.

図14は、前記合成画像出力処理に伴い変身マーク(24Mw)(14Mu)の付加された人物画像(P)(K)を変身画像(24Gw)((14Gu)に置き換え合成すると共に対応音声(24Sw)(14Su)の出力を設定する変身マーク合成処理を示すフローチャートである。   In FIG. 14, the person image (P) (K) to which the transformation mark (24Mw) (14Mu) is added in accordance with the synthetic image output processing is replaced with the transformation image (24Gw) ((14Gu) and synthesized, and the corresponding voice (24Sw ) (14Su) is a flowchart showing a transformation mark composition process for setting the output of (14Su).

図15は、前記合成画像出力処理に伴い破壊マーク(15M,15M′)の付加された物体画像(A,B)を破壊画像(15G)に置き換え合成すると共に対応音声(15S)の出力を設定する破壊マーク合成処理を示すフローチャートである。
図16は、前記合成画像出力処理に伴い特殊効果マーク(23Gu)の付加された人物画像(K)の所定位置に特殊効果画像23Guを追加合成すると共に対応音声(23Su)の出力を設定する特殊効果マーク合成処理を示すフローチャートである。
In FIG. 15, the object images (A, B) to which the destruction marks (15M, 15M ′) are added in accordance with the synthetic image output processing are replaced with the destruction images (15G), and the corresponding sound (15S) output is set. It is a flowchart which shows the destruction mark synthetic | combination process to perform.
FIG. 16 shows a special effect in which the special effect image 23Gu is additionally synthesized at a predetermined position of the person image (K) to which the special effect mark (23Gu) is added in accordance with the synthetic image output process and the output of the corresponding sound (23Su) is set. It is a flowchart which shows an effect mark synthetic | combination process.

図17〜図25は、前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送り(その1)〜(その9)にして示す図であり、同図(A)は撮影画像Gを示す図、同図(B)はマーク付き撮影画像Gmを示す図、同図(C)は合成画像GGを示す図である。   FIGS. 17 to 25 are diagrams showing image processing states based on the moving image captured image (G) accompanying the composite image output processing in order of typical frame advance (part 1) to (part 9). FIG. 3A is a diagram showing a captured image G, FIG. 4B is a diagram showing a marked captured image Gm, and FIG. 4C is a diagram showing a composite image GG.

前記図8における合成画像出力処理のステップS1〜S3の処理は、前記図17(A)〜図25(A)に示すように、動画撮影される各コマの撮影画像(G)が取得されるのに伴い繰り返し実行され、前記図17(B)〜図25(B)に示すようなマーク付き撮影画像(Gm)が生成出力される。   In the combined image output processing in steps S1 to S3 in FIG. 8, as shown in FIGS. 17A to 25A, a captured image (G) of each frame to be captured is acquired. As a result, the captured image (Gm) with a mark as shown in FIGS. 17B to 25B is generated and output.

そして、前記図8における合成画像出力処理のステップS4〜S7の処理は、前記図17(B)〜図25(B)に示すように生成された一連のマーク付き撮影画像(Gm)に基づき実行され、前記図17(C)〜図25(C)に示すような合成画像(GG)が生成出力される。   Then, the process of steps S4 to S7 of the composite image output process in FIG. 8 is executed based on a series of marked photographed images (Gm) generated as shown in FIGS. 17 (B) to 25 (B). Then, a composite image (GG) as shown in FIGS. 17C to 25C is generated and output.

なお、ここでは前記デジタルカメラ10(図2参照)において図8における合成画像出力処理を実行した場合を主体にして説明し、前記サーバ装置30(図7参照)において同合成画像出力処理を実行した場合については、略同じ処理内容となるためその説明を省略する。   Here, the case where the composite image output process in FIG. 8 is executed in the digital camera 10 (see FIG. 2) will be mainly described, and the composite image output process is executed in the server device 30 (see FIG. 7). Since the processing contents are substantially the same, the description thereof is omitted.

デジタルカメラ10の画像撮影部13により、例えば図17(A)〜図25(A)で示すように親子によって演じられる一連のシーンが撮影されると、その撮影画像G1〜G9は順次撮影画像データメモリ25に記憶され保存され(ステップS1)、リアルタイムで図9における対象画像抽出処理へ移行される(ステップSA)。   When a series of scenes played by a parent and child are photographed by the image photographing unit 13 of the digital camera 10, for example, as shown in FIGS. 17A to 25A, the photographed images G1 to G9 are sequentially captured image data. It is stored and stored in the memory 25 (step S1), and the process proceeds to the target image extraction process in FIG. 9 in real time (step SA).

この対象画像抽出処理は、2通りの方式があり、図9(A)に示す対象画像抽出処理(方式1)では、前記撮影画像データメモリ25に順次保存される撮影画像データGnが作業用メモリに一時転送記憶され(ステップA11)、前回の撮影画像データGn−1と今回の撮影画像データGnとの画像の変化部分がブロック化されて抽出される(ステップA12)。   This target image extraction processing has two methods. In the target image extraction processing (method 1) shown in FIG. 9A, the captured image data Gn sequentially stored in the captured image data memory 25 is stored in the work memory. Are temporarily transferred and stored (step A11), and the changed portion of the image between the previous captured image data Gn-1 and the current captured image data Gn is blocked and extracted (step A12).

すると、前記撮影画像データGn上でブロック化された位置情報が、人物や物体である対象画像の位置情報となり、当該撮影画像データGnの付加情報として前記撮影画像データメモリ25に記憶される(ステップA13)。
一方、図9(B)に示す対象画像抽出処理(方式2)では、前記撮影画像データメモリ25に順次保存される撮影画像データGnの付加情報である前記画像撮影部21の距離センサにより取得された被写体までの距離情報が読み出され(ステップA21)、その中で近距離に存在する画像部分がブロック化されて抽出される(ステップA22)。
Then, the position information blocked on the photographed image data Gn becomes the position information of the target image that is a person or an object, and is stored in the photographed image data memory 25 as additional information of the photographed image data Gn (step). A13).
On the other hand, in the target image extraction process (method 2) shown in FIG. 9B, it is acquired by the distance sensor of the image photographing unit 21, which is additional information of the photographed image data Gn sequentially stored in the photographed image data memory 25. The distance information to the subject is read (step A21), and the image portion existing at a short distance is extracted as a block (step A22).

すると、前記撮影画像データGn上でブロック化された位置情報が、人物や物体である対象画像の位置情報となり、当該撮影画像データGnの付加情報として前記撮影画像データメモリ25に記憶される(ステップA23)。
すなわち、図9(B)で示した対象画像抽出処理(方式2)は、撮影画像データGnの付加情報として被写体までの距離情報が必要になるため、デジタルカメラ10での処理に適し、また、図9(A)で示した対象画像抽出処理(方式1)は、逆に前記撮影画像データGnにおける被写体までの距離情報を必要としないので、サーバ装置30での処理に適している。
Then, the position information blocked on the photographed image data Gn becomes the position information of the target image that is a person or an object, and is stored in the photographed image data memory 25 as additional information of the photographed image data Gn (step). A23).
That is, the target image extraction process (method 2) shown in FIG. 9B requires distance information to the subject as additional information of the captured image data Gn, and is therefore suitable for processing by the digital camera 10, The target image extraction processing (method 1) shown in FIG. 9A is suitable for processing in the server device 30 because it does not require distance information to the subject in the captured image data Gn.

このように、前記対象画像抽出処理(ステップSA)により、撮影画像データGnの中に存在する人物画像(P,K)や物体画像(A,B)が抽出されると、図10における役柄変身マーク処理へ移行される(ステップSB)。
この役柄変身マーク処理では、前記対象画像抽出処理により抽出された撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記変身役柄データメモリ24(図6参照)にユーザ登録された変身対象(顔)画像データ24Tとしての人物画像(PやM)が含まれるか否かが前記顔画像認識処理を用いて識別される(ステップB1)。
As described above, when the person image (P, K) and the object image (A, B) existing in the captured image data Gn are extracted by the target image extraction process (step SA), the role transformation in FIG. The process proceeds to mark processing (step SB).
In this role transformation mark processing, the transformation role data memory 24 (see FIG. 6) is used for the person images (P, K) and object images (A, B) in the photographed image data Gn extracted by the target image extraction processing. ) Is included using the face image recognition process (step B1). The person image (P or M) as the transformation target (face) image data 24T registered by the user is included.

ここで、図17(A)〜図25(A)の撮影画像データG1〜G9にそれぞれ示すように、変身対象(顔)画像データ24Tとしての父親の人物画像Pが含まれていることが識別されると(ステップB1(Yes))、前記変身役柄データメモリ24(図6参照)に対応付けられて記憶されている怪獣Aの変身マークデータ24Mw1が読み出されると共に、前記識別された父親の人物画像Pの顔画像認識された位置に対応して付加され、図17(B)〜図25(B)に示すようなマーク付き撮影画像データGm1〜Gm9として作業用データメモリに一時保存されると共に表示部11に表示される(ステップB2)。   Here, as shown in each of the captured image data G1 to G9 in FIGS. 17A to 25A, it is identified that the father's person image P as the transformation target (face) image data 24T is included. When it is done (step B1 (Yes)), the transformation mark data 24Mw1 of the monster A stored in association with the transformation role data memory 24 (see FIG. 6) is read and the identified father's person The image P is added corresponding to the recognized position of the face image, and is temporarily stored in the work data memory as marked image data Gm1 to Gm9 as shown in FIGS. 17 (B) to 25 (B). It is displayed on the display unit 11 (step B2).

なお、前記登録された人物画像Pの顔画像の位置に対応付加される変身マークデータ24Mw1は、当該顔画像に重ねて付加されるか、または当該顔画像の近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップB3(Yes))、前記変身役柄データメモリ24(図6参照)に対応付けられて記憶されている音声データ「ガオー」24Sw1が読み出され、同図17(B)〜図25(B)に示すように音声出力部13から出力される(ステップB4)。
The transformation mark data 24Mw1 added corresponding to the position of the face image of the registered person image P is either added to the face image or added in the vicinity of the face image. There may be.
If it is determined that the digital camera 10 is currently photographing (step B3 (Yes)), the voice data “Gao” stored in association with the transformation character data memory 24 (see FIG. 6) is stored. 24Sw1 is read out and output from the audio output unit 13 as shown in FIGS. 17B to 25B (step B4).

すると次に、図11における破壊マーク処理へ移行される(ステップSC)。
この破壊マーク処理では、まず、前記対象画像抽出処理により抽出された撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記破壊データメモリ15(図5参照)に予め記憶された破壊対象画像データ15Tとしての物体画像(AやBやC)が含まれるか否かが画像認識処理により識別される(ステップC1)。
Then, the process proceeds to the destruction mark process in FIG. 11 (step SC).
In the destruction mark process, first, the destruction data memory 15 (see FIG. 5) is used for the person image (P, K) and the object image (A, B) in the photographed image data Gn extracted by the target image extraction process. ) Includes an object image (A, B, or C) as the destruction target image data 15T stored in advance (step C1).

ここで、図17(A)〜図25(A)の撮影画像データG1〜G9にそれぞれ示すように、破壊対象画像データ15Tとしてのビール瓶A1や紙飛行機Bの物体画像が含まれていることが識別されると(ステップC1(Yes))、当該識別されたビール瓶A1や紙飛行機Bの物体画像は破壊後の状態にあるか否かが、当該各物体画像(A1,B)が転倒状態や反転状態にあるか否かの画像認識によって判断される(ステップC2)。   Here, the object images of the beer bottle A1 and the paper airplane B as the destruction target image data 15T are included as shown in the captured image data G1 to G9 of FIGS. If the object image is identified (step C1 (Yes)), whether the object image of the identified beer bottle A1 or paper airplane B is in a state after destruction, whether each object image (A1, B) Judgment is made by image recognition as to whether or not it is in an inverted state (step C2).

ここで、例えば図17(A)におけるビール瓶A1あるいは図18(A)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にないと画像認識されて破壊後の状態ではないと判断された場合には(ステップC2(No))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔と飛行機の破壊(前)マークデータ15Ma,15Mbが読み出されると共に、前記各物体画像A1,Bの位置に対応して付加され、図17(B)あるいは図18(B)に示すようなマーク付き撮影画像データGm1,Gm2として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC3)。   Here, for example, as shown by the beer bottle A1 in FIG. 17A or the paper airplane B in FIG. 18A, each of the object images A1 and B is image-recognized unless they are in the overturned state or the inverted state. If it is determined that the state is not in the state (step C2 (No)), the tower and airplane destruction (previous) mark data 15Ma and 15Mb stored in association with the destruction data memory 15 (see FIG. 5) are stored. Is added corresponding to the position of each of the object images A1 and B, and is recorded in the work data memory as marked image data Gm1 and Gm2 as shown in FIG. 17B or 18B. It is temporarily stored and displayed on the display unit 11 (step C3).

なお、前記破壊対象の各物体画像A1,Bの位置に対応付加される破壊(前)マークデータ15Ma,15Mbは、当該各物体画像A1,Bに重ねて付加されるか、または当該各物体画像A1,Bの近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップC4(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊(前)画像データ15Gb1の音声データ「ビューン」15Sb1が読み出され、同図18(B)に示すように音声出力部13から出力される(ステップC5)。
The destruction (previous) mark data 15Ma and 15Mb added corresponding to the positions of the object images A1 and B to be destroyed are added to the object images A1 and B, or are added to the object images A1 and B. It may be added in the vicinity of A1 and B.
If it is determined that the digital camera 10 is currently photographing (step C4 (Yes)), the destruction of the airplane stored in association with the destruction data memory 15 (see FIG. 5) (previous) ) The audio data “Bune” 15Sb1 of the image data 15Gb1 is read out and output from the audio output unit 13 as shown in FIG. 18B (step C5).

すると、前記ステップC3において付加表示された塔や飛行機の破壊(前)マークデータ15Ma,15Mbに対応する部分であるビール瓶A1や紙飛行機Bの破壊対象画像データ(物体画像)の位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定され(ステップC6)、他の対象画像抽出ブロックの画像部分と接触したか否か判断される(ステップC7)。   Then, the position of the destruction target image data (object image) of the beer bottle A1 or the paper airplane B, which is a portion corresponding to the tower or airplane destruction (previous) mark data 15Ma, 15Mb additionally displayed in step C3, is the target. It is identified from the position information of the block obtained as additional information of the captured image data Gn by the image extraction process (step SA) (step C6), and it is determined whether or not the image portion of another target image extraction block has been touched. (Step C7).

ここで、例えば図18(A)の撮影画像データG2におけるビール瓶A1の物体画像と父親の人物画像Pとの接触状態、あるいは図19(A)の撮影画像データG3における紙飛行機Bの物体画像と同父親の人物画像Pとの接触状態において示すように、前記特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触したと判断された場合には(ステップC7(Yes))、当該接触判断された他の抽出画像部分が前記役柄変身マーク処理(ステップSB)にて変身マークデータ24Mwの付加された人物画像の部分であるか否か判断される(ステップC8)。   Here, for example, the contact state between the object image of the beer bottle A1 and the father's person image P in the photographed image data G2 in FIG. 18A, or the object image of the paper airplane B in the photographed image data G3 in FIG. As shown in the state of contact with the father's person image P, when it is determined that the position of the specified destruction target image data (A1 or B) is in contact with another extracted image portion (step C7). (Yes)), it is determined whether or not the other extracted image portion determined to be in contact is the portion of the person image to which the transformation mark data 24Mw is added in the role transformation mark processing (step SB) (step C8). ).

この場合、前記接触判断された他の抽出画像部分は、怪獣Aの変身マークデータ24Mw1が付加された父親Pの人物画像部分であると判断されるので(ステップC8(Yes))、図18(B)に示すように、ビール瓶A1の破壊対象画像データに対応する位置には、前記破壊データメモリ15に対応付けられて記憶されている塔の破壊(後)マークデータ15Ma′が読み出されて付加され、マーク付き撮影画像データGm2として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC9)。また同様に、図19(B)に示すように、紙飛行機Bの破壊対象画像データに対応する位置には、前記破壊データメモリ15に対応付けられて記憶されている飛行機の破壊(後)マークデータ15Mb′が読み出されて付加され、マーク付き撮影画像データGm3として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC9)。   In this case, since the other extracted image part determined to be in contact is determined to be the person image part of the father P to which the transformation mark data 24Mw1 of the monster A is added (step C8 (Yes)), FIG. As shown in B), the tower destruction (after) mark data 15Ma ′ stored in association with the destruction data memory 15 is read out at the position corresponding to the destruction target image data of the beer bottle A1. The image data Gm2 with a mark is added and temporarily stored in the work data memory and displayed on the display unit 11 (step C9). Similarly, as shown in FIG. 19B, the destruction (rear) mark of the airplane stored in association with the destruction data memory 15 at the position corresponding to the destruction target image data of the paper airplane B. Data 15Mb ′ is read and added, and is temporarily stored in the working data memory as marked image data Gm3 and displayed on the display unit 11 (step C9).

そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップC10(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔の破壊(中)画像データ15Ga2の音声データ「グシャ」15Saが読み出され、同図18(B)に示すように音声出力部13から出力される(ステップC11)。また同様に、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊(中)画像データ15Gb2の音声データ「ドカーン」15Sb2が読み出され、同図19(B)に示すように音声出力部13から出力される(ステップC11)。このように破壊中データの音声データ「グシャ」「ドカーン」等により、破壊の合成画像処理が適切に行われていることが、演技者(父親P等)により容易に聴覚的に認識することができる。   If it is determined that the digital camera 10 is currently photographing (step C10 (Yes)), the tower is stored in the destruction data memory 15 (see FIG. 5) in association with the destruction (medium). ) The audio data “Gusha” 15Sa of the image data 15Ga2 is read and output from the audio output unit 13 as shown in FIG. 18B (step C11). Similarly, the audio data “docan” 15Sb2 of the aircraft destruction (medium) image data 15Gb2 stored in association with the destruction data memory 15 (see FIG. 5) is read out, and FIG. Is output from the audio output unit 13 (step C11). In this way, the performer (such as father P) can easily and audibly recognize that the composite image processing of the destruction is appropriately performed by the voice data “Gusha”, “Dokan”, etc. of the data being destroyed. it can.

この後、当該破壊マーク処理における前記ステップC2において、例えば図19(A)〜図25(A)におけるビール瓶A1、あるいは図20(A)〜図25(A)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にあると画像認識されて破壊後の状態であると判断された場合には(ステップC2(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔と飛行機の破壊(後)マークデータ15Ma′,15Mb′が読み出されると共に、前記各物体画像A1,Bの位置に対応して付加され、図19(B)〜図25(B)あるいは図20(B)〜図25(B)に示すようなマーク付き撮影画像データGm3〜Gm9あるいはGm4〜Gm9として作業用データメモリに一時保存され表示部11に表示される(ステップC12)。   Thereafter, in the step C2 in the break mark processing, for example, as shown by the beer bottle A1 in FIGS. 19 (A) to 25 (A) or the paper airplane B in FIGS. 20 (A) to 25 (A), When each of the object images A1 and B is recognized as being in an overturned state or an inverted state and is determined to be in a state after destruction (step C2 (Yes)), the destruction data memory 15 (see FIG. 5). ) And the destruction (after) mark data 15Ma ′ and 15Mb ′ of the tower and the plane stored in association with each other) are read out and added corresponding to the positions of the object images A1 and B, respectively. ) To 25B or 20B to 25B, the marked image data Gm3 to Gm9 or Gm4 to Gm9 is temporarily stored in the work data memory. Is displayed on the display unit 11 is (step C12).

すると次に、図12におけるモーション変身マーク処理へ移行される(ステップSD)。
このモーション変身マーク処理では、前記対象画像抽出処理により抽出される一連の撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記変身データメモリ14(図3参照)に予め記憶された○○マンAの一連の変身モーションモデルデータ14P1a〜14P1cや初代○○マンの一連の変身モーションモデルデータ14P2a〜14P2cと一致する画像部分が検出されたか否か判断される(ステップD1)。
Then, the process proceeds to the motion transformation mark process in FIG. 12 (step SD).
In this motion transformation mark processing, the transformation data memory 14 (FIG. 3) is used for the person images (P, K) and object images (A, B) in the series of photographed image data Gn extracted by the target image extraction processing. It is determined whether or not an image portion corresponding to the series of transformation motion model data 14P1a to 14P1c of XX Man A and the series of transformation motion model data 14P2a to 14P2c of the first XX man is stored in advance. (Step D1).

ここで、図20(A)〜図22(A)の撮影画像データG4〜G6に順次示すように、前記対象画像抽出処理により抽出される一連の子供の人物画像Kについて、前記変身データメモリ14(図3参照)に予め記憶された○○マンAの一連の変身モーションモデルデータ14P1a〜14P1cと身振りが一致する画像部分であると検出されると(ステップD1(Yes))、当該変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンAの変身マークデータ14Mu1が読み出されると共に、前記モーション検出された子供の人物画像Kの顔画像認識された位置に対応して付加され、図22(B)〜図25(B)に示すようなマーク付き撮影画像データGm6〜Gm9として作業用データメモリに一時保存され表示部11に表示される(ステップD2)。   Here, as shown in the photographed image data G4 to G6 in FIGS. 20A to 22A in sequence, the transformation data memory 14 for a series of child person images K extracted by the target image extraction process. If it is detected that the image portion is identical in gesture with a series of transformation motion model data 14P1a to 14P1c of XX man A stored in advance (see FIG. 3) (step D1 (Yes)), the transformation data memory 14 (see FIG. 3) and stored in correspondence with the position of the face image of the child image K of the child whose motion has been detected, and the transformation mark data 14Mu1 of OO Man A stored in correspondence with the data 14 is read out. Added, and temporarily stored in the work data memory as marked image data Gm6 to Gm9 as shown in FIGS. Is displayed on the 1 (step D2).

なお、前記モーション検出された人物画像Kの顔画像の位置に対応付加される変身マークデータ14Mu1は、当該顔画像に重ねて付加されるか、または当該顔画像の近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップD3(Yes))、前記変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンAの音声データ「シュワッチ」14Su1が読み出され、同図22(B)〜図25(B)に示すように音声出力部13から出力される(ステップD4)。
It should be noted that the transformation mark data 14Mu1 added corresponding to the position of the face image of the person image K detected in motion is either added over the face image or added in the vicinity of the face image. It may be.
If it is determined that the digital camera 10 is currently photographing (step D3 (Yes)), the XXX man A stored in association with the transformation data memory 14 (see FIG. 3) is stored. The audio data “Schwatch” 14Su1 is read out and output from the audio output unit 13 as shown in FIGS. 22B to 25B (step D4).

すると次に、図13における特殊効果マーク処理へ移行される(ステップSE)。
この特殊効果マーク処理では、前記対象画像抽出処理により抽出される一連の撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記特殊効果データメモリ23(図4参照)に予め記憶された特殊効果Aの一連の変身モーションモデルデータ23P1a〜23P1cや特殊効果Bの一連の変身モーションモデルデータ23P2a〜23P2cと一致する画像部分が検出されたか否か判断される(ステップE1)。
Then, the process proceeds to the special effect mark process in FIG. 13 (step SE).
In the special effect mark processing, the special effect data memory 23 (FIG. 5) is used for the human images (P, K) and object images (A, B) in the series of photographed image data Gn extracted by the target image extraction processing. 4), it is determined whether or not an image portion matching the series of transformation motion model data 23P1a to 23P1c of special effect A and the series of transformation motion model data 23P2a to 23P2c of special effect B stored in advance is detected (see FIG. 4). Step E1).

ここで、図23(A)〜図25(A)の撮影画像データG7〜G9に順次示すように、前記対象画像抽出処理により抽出される一連の子供の人物画像Kについて、前記特殊効果データメモリ23(図4参照)に予め記憶された特殊効果Aの一連の変身モーションモデルデータ23P1a〜23P1cと身振りが一致する画像部分であると検出されると(ステップE1(Yes))、当該特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの特殊効果マークデータ23Mu1が読み出されると共に、前記モーション検出された子供の人物画像Kの所定位置(例えば画像上部から3分の1の位置)に対応して前記怪獣Aの変身マークデータ24Mw1が付加されている人物画像(父親)Pの方向へ向けて付加され、図25(B)に示すようなマーク付き撮影画像データGm9として作業用データメモリに一時保存され表示部11に表示される(ステップE2)。   Here, as shown in the photographed image data G7 to G9 in FIG. 23A to FIG. 25A in sequence, the special effect data memory for the series of child person images K extracted by the target image extraction process. 23 (see FIG. 4), if it is detected that the image portion has the same gesture as the series of transformation motion model data 23P1a to 23P1c of special effect A stored in advance (step E1 (Yes)), the special effect data The special effect mark data 23Mu1 of the special effect A stored in association with the memory 23 (see FIG. 4) is read out, and a predetermined position (for example, 3 minutes from the top of the image) of the child image K of the motion detected. Corresponding to the person image (father) P to which the transformation mark data 24Mw1 of the monster A is added. Figure 25 is temporarily stored in a working data memory as marked photographic image data Gm9 as shown in (B) is displayed on the display unit 11 (step E2).

なお、前記モーション検出された人物画像Kの所定位置に対応付加される特殊効果マークデータ24Mu1は、当該人物画像Kに重ねて付加されるか、または当該人物画像Kの近傍に付加されるかの何れであってもよい。これにより撮影中の母親は、子供Kが、特殊効果モーションを行った結果、コンピュータにより特殊効果処理が適切に実行され、特殊効果画像が付加された合成画像が作成されることを容易に認識することができる。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップE3(Yes))、前記特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの音声データ「ビビビビー」23Su1が読み出され、同図25(B)に示すように音声出力部13から出力される(ステップE4)。このようにデジタルカメラから特殊効果Aの音声データ「ビビビビー」23Su1が出ることで、特殊効果の処理が適切にコンピュータに実行されているが、演技者(子供、父親)に、音により認識できる。また演技者は、特殊効果の音声データによりリアルな感覚で演技をすることができる。
Whether the special effect mark data 24Mu1 added corresponding to a predetermined position of the person image K detected in motion is added to the person image K or in the vicinity of the person image K. Either may be sufficient. As a result, the mother who is photographing can easily recognize that the special effect processing is appropriately executed by the computer and the composite image to which the special effect image is added is created as a result of the child K performing the special effect motion. be able to.
If it is determined that the digital camera 10 is currently photographing (step E3 (Yes)), the special effect A stored in association with the special effect data memory 23 (see FIG. 4) is stored. The audio data “BibiBibi” 23Su1 is read and output from the audio output unit 13 as shown in FIG. 25B (step E4). As described above, the special effect processing is performed properly on the computer by outputting the sound data “Bibi Bibi” 23Su1 of the special effect A from the digital camera, but the performer (child, father) can recognize the sound by sound. Also, the performer can perform with a realistic feeling by using the sound data of the special effect.

すると、前記図17(B)〜図25(B)で示したように、前記ステップSA〜SEの処理に従い作業用データメモリ上に生成されたマーク付きの連続した撮影画像データGm1〜Gm9がマーク付き撮影画像データメモリ26に記憶され保存される(ステップS2)。   Then, as shown in FIG. 17B to FIG. 25B, the continuous photographed image data Gm1 to Gm9 with marks generated on the work data memory in accordance with the processing of the steps SA to SE are marked. It is stored and saved in the attached photographed image data memory 26 (step S2).

そして、画像撮影部21からの一連の撮影画像データG1〜G9の撮影入力が終了したと判断されると(ステップS3(Yes))、前記マーク付き撮影画像データメモリ26に生成保存された一連のマーク付き撮影画像データGm1〜Gm9に基づく合成画像の生成処理に進むか否か判断される(ステップS4)。   When it is determined that the shooting input of the series of shot image data G1 to G9 from the image shooting unit 21 has been completed (step S3 (Yes)), the series of shot images generated and stored in the marked shot image data memory 26. It is determined whether or not to proceed to the composite image generation process based on the marked image data Gm1 to Gm9 (step S4).

ここで、入力部12に対する合成画像生成のためのユーザ操作に応じて、あるいは前記一連の撮影画像データの取得終了に伴い自動的に、合成画像の生成処理に進むと判断されると(ステップS4(Yes))、前記マーク付き撮影画像データメモリ26から前記一連のマーク付き撮影画像データGm1〜Gm9が作業用メモリに読み出され、図14における変身マーク合成処理へ移行される(ステップSF)。   Here, when it is determined that the process proceeds to a composite image generation process in response to a user operation for generating a composite image on the input unit 12 or automatically upon completion of acquisition of the series of captured image data (step S4). (Yes)), the series of marked photographed image data Gm1 to Gm9 is read from the marked photographed image data memory 26 to the working memory, and the process proceeds to the transformation mark composition process in FIG. 14 (step SF).

この変身マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記変身役柄データメモリ24(図6参照)に予め記憶されている変身マークデータ24Mwや前記変身データメモリ14(図3参照)に予め記憶されている変身マークデータ14muが付加された画像が含まれているか否か判断される(ステップF1)。   In this transformation mark composition process, first, the marked photographed image data Gm1 to Gm9 read from the marked photographed image data memory 26 to the working memory is stored in advance in the transformation character data memory 24 (see FIG. 6). It is determined whether or not an image to which the transformation mark data 14mu stored in advance is included in the transformation mark data 24Mw being transformed or the transformation data memory 14 (see FIG. 3) (step F1).

ここで、図17(B)〜図25(B)で示すように怪獣Aの変身マークデータ24Mw1が付加された画像、また、図22(B)〜図25(B)で示すように○○マンAの変身マークデータ14Mu1が付加された画像が存在すると判断された場合には(ステップF1(Yes))、当該各変身マークデータ24Mw1,14Mu1が対応付加されている該マーク近傍の人物画像P,Kの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップF2)。   Here, as shown in FIGS. 17B to 25B, an image to which the transformation mark data 24Mw1 of the monster A is added, and as shown in FIGS. 22B to 25B, If it is determined that there is an image to which the transformation mark data 14Mu1 of Man A is added (step F1 (Yes)), the person image P in the vicinity of the mark to which the transformation mark data 24Mw1 and 14Mu1 are added correspondingly. , K are specified from the block position information obtained as additional information of the captured image data Gn by the target image extraction process (step SA) (step F2).

すると、前記特定された人物画像P,Kがモーションキャプチャ処理され、変身役柄データメモリ24(図6参照)に記憶されている前記怪獣Aの変身マークデータ24Mw1に対応するところの変身(1)画像データ24Gw1、変身データメモリ14(図3参照)に記憶されている前記○○マンAの変身マークデータ14Mu1に対応するところの変身画像データ14Gu1に基づき、図17(C)〜図25(C)に示すように当該人物画像(父親)Pと同じポーズ(姿勢)の怪獣Aの変身画像データ24Gw1、図22(C)〜図25(C)に示すように当該人物画像(子供)Kと同じポーズ(姿勢)の○○マンAの変身画像データ14Gu1にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG1〜GG9,GG6〜GG9が生成される(ステップF3)。   Then, the identified person images P and K are subjected to motion capture processing, and the transformation (1) image corresponding to the transformation mark data 24Mw1 of the monster A stored in the transformation role data memory 24 (see FIG. 6). Based on the transformation image data 14Gu1 corresponding to the transformation mark data 14Mu1 of the XX man A stored in the data 24Gw1 and the transformation data memory 14 (see FIG. 3), FIG. 17 (C) to FIG. 25 (C). The transformation image data 24Gw1 of the monster A in the same pose (posture) as the person image (father) P is the same as the person image (child) K as shown in FIGS. 22 (C) to 25 (C). The transformed image data 14Gu1 of the pose (posture) XX man A is replaced with the preset background image BG and synthesized, and synthesized image data GG ~GG9, GG6~GG9 is generated (step F3).

なおこの際、前記図22(C)の矢印xで示すように、人物画像(子供)Kと同じポーズ(姿勢)の○○マンAの変身画像データ14Gu1は拡大処理されて置き換え合成される。
そして、前記変身役柄データメモリ24(図6参照)に対応付けられて記憶されている怪獣Aの音声データ「ガオー」24Sw1が読み出され、前記図17(C)〜図25(C)に示すように生成された合成画像GG1〜GG9に対応付けられて保存され、また、前記変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンAの音声データ「シュワッチ」14Su1が読み出され、前記図22(C)〜図25(C)に示すように生成された合成画像GG6〜GG9に対応付けられて保存される(ステップF4)。
At this time, as shown by the arrow x in FIG. 22C, the transformation image data 14Gu1 of the XX man A having the same pose (posture) as the person image (child) K is enlarged and replaced and synthesized.
Then, the voice data “Gao” 24Sw1 of the monster A stored in association with the transformation character data memory 24 (see FIG. 6) is read out and shown in FIGS. 17 (C) to 25 (C). Is stored in association with the synthesized images GG1 to GG9 generated as described above and stored in association with the transformation data memory 14 (see FIG. 3). Are stored in association with the synthesized images GG6 to GG9 generated as shown in FIGS. 22C to 25C (step F4).

すると次に、図15における破壊マーク合成処理へ移行される(ステップSG)。
この破壊マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記破壊データメモリ15(図5参照)に予め記憶されている破壊(前)マークデータ15Mや破壊(後)マークデータ15M′が付加された画像が含まれているか否か判断される(ステップG1)。
Then, the process proceeds to the destruction mark composition process in FIG. 15 (step SG).
In this destruction mark composition process, first, the marked photographed image data Gm1 to Gm9 read from the marked photographed image data memory 26 to the working memory are stored in advance in the destruction data memory 15 (see FIG. 5). It is determined whether or not an image to which the destruction (front) mark data 15M and the destruction (rear) mark data 15M ′ are added is included (step G1).

ここで、図17(B)〜図25(B)で示すように塔の破壊(前/後)マークデータ15Ma/15Ma′が付加された画像、また、図18(B)〜図25(B)で示すように飛行機の破壊(前/後)マークデータ15Mb/15Mb′が付加された画像が存在すると判断された場合には(ステップG1(Yes))、当該各破壊(前/後)マークデータ15Ma/15Ma′や15Mb/15Mb′が対応付加されている該マーク近傍の破壊対象画像データ(ビール瓶)A1,(紙飛行機)Bの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップG2)。   Here, as shown in FIGS. 17B to 25B, an image to which the tower destruction (front / rear) mark data 15Ma / 15Ma ′ is added, and FIGS. 18B to 25B. ), When it is determined that there is an image to which the airplane destruction (front / rear) mark data 15Mb / 15Mb ′ is added (step G1 (Yes)), the respective destruction (front / rear) marks The position of destruction target image data (beer bottle) A1 (paper airplane) B in the vicinity of the mark to which data 15Ma / 15Ma 'and 15Mb / 15Mb' are added is taken by the target image extraction process (step SA). It is specified from the position information of the block obtained as additional information of the data Gn (step G2).

そして、前記特定された破壊対象画像データ(ビール瓶)A1,(紙飛行機)Bの位置が、前記対象画像抽出処理(ステップSA)により抽出されている他の対象画像抽出ブロックの画像部分と接触したか否か判断される(ステップG3)。
ここで、例えば図17(B)のマーク付き撮影画像データGm1における破壊対象画像データ(ビール瓶)A1、あるいは図18(B)のマーク付き撮影画像データGm2における破壊対象画像データ(紙飛行機)Bにおいて示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触してないと判断された場合には(ステップG3(No))、該特定されたビール瓶A1や紙飛行機Bの破壊対象画像データは破壊後の状態にあるか否かが、当該各物体画像(A1,B)が転倒状態や反転状態にあるか否かの画像認識によって判断される(ステップG4)。
And the position of the specified destruction target image data (beer bottle) A1, (paper airplane) B is in contact with the image portion of another target image extraction block extracted by the target image extraction process (step SA). Is determined (step G3).
Here, for example, in the destruction target image data (beer bottle) A1 in the marked photographed image data Gm1 in FIG. 17B, or in the destruction target image data (paper airplane) B in the marked photographed image data Gm2 in FIG. 18B. As shown, when it is determined that the position of the specified destruction target image data (A1 or B) is not in contact with another extracted image portion (step G3 (No)), the specified Whether or not the image data to be destroyed of the beer bottle A1 or the paper airplane B is in a state after destruction is determined by image recognition of whether or not each object image (A1, B) is in a fallen state or a reversed state. (Step G4).

ここで、例えば図17(B)におけるビール瓶A1あるいは図18(B)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にないと画像認識されて破壊後の状態ではないと判断された場合には(ステップG4(No))、その特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データが、図17(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(前)マークデータ15Maに対応するところの破壊(前)画像データ15Ga1、あるいは図18(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(前)マークデータ15Mbに対応するところの破壊(前)画像データ15Gb1にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG1,GG2が生成される(ステップG5)。   Here, for example, as shown by the beer bottle A1 in FIG. 17B or the paper airplane B in FIG. 18B, each of the object images A1 and B is image-recognized unless it is in the overturned state or the inverted state. If it is determined that it is not in the state (step G4 (No)), the image data to be destroyed of the specified beer bottle A1 or paper plane B is shown in FIG. 17C as the destruction data memory 15 (FIG. 5), the destruction (previous) image data 15Ga1 corresponding to the tower destruction (previous) mark data 15Ma stored in the tower, or the destruction data memory 15 (see FIG. 5) as shown in FIG. On the background image BG previously set in the destruction (previous) image data 15Gb1 corresponding to the destruction (previous) mark data 15Mb of the airplane stored in FIG. Synthesized been replaced come, the composite image data GG1, GG2 is generated (step G5).

そして、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊前音声データ「ビューン」15Sb1が読み出され、前記図18(C)に示すように生成された合成画像GG2に対応付けられて保存される(ステップG6)。
一方、例えば図18(B)のマーク付き画像データGm2における破壊対象画像データ(ビール瓶)A1と人物画像(父親)Pとの接触状態、あるいは図19(B)のマーク付き撮影画像データGm3における破壊対象画像データ(紙飛行機)Bと人物画像(父親)Pとの接触状態において示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の動作中の抽出画像部分と接触したと判断された場合には(ステップG3(Yes))、さらに、変身マーク付きの画像部分と接触したか否かが判別される。(ステップG7)。そして、変身マーク付きの画像部分と接触が検知された場合には、破壊対象画像として特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データが、図18(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(後)マークデータ15Ma′に対応するところの破壊(中)画像データ15Ga2、あるいは図19(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(後)マークデータ15Mb′に対応するところの破壊(中)画像データ15Gb2にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG2,GG3が生成される(ステップG8)。
なお、ステップG7で、変身マーク付きの画像部分と接触したか否かが判別されるが、この変身マークには、変身データ記憶手段(図3の14)に記憶された身振りのモデルデータと身振りが一致する人物画像を検出してその人物画像に変身マークをつけた場合(図8のSD)と、顔変身データ記憶手段に記憶された顔画像が一致する人物画像を検出してその人物画像に変身マークをつけた場合(図8のSB)がある。このように変身マークをつけた抽出画像部分との接触のみに応じて、破壊マークをつけるようにすることで、単に動いている画像部分と破壊対象画像がたまたま画面上重なった場合を排除して、変身マークをつけた人物との接触に限定して、適切に破壊画像を生成することができる。
Then, the pre-destruction voice data “Bune” 15Sb1 of the airplane stored in association with the destruction data memory 15 (see FIG. 5) is read out and generated as shown in FIG. 18C. The image is stored in association with the image GG2 (step G6).
On the other hand, for example, the destruction target image data (beer bottle) A1 and the person image (father) P in the marked image data Gm2 in FIG. 18B, or the destruction in the marked photographed image data Gm3 in FIG. 19B. As shown in the contact state between the target image data (paper airplane) B and the person image (father) P, the position of the specified destruction target image data (A1 and B) is the other extracted image part in operation. If it is determined that contact has been made (step G3 (Yes)), it is further determined whether or not the image portion with the transformation mark has been contacted. (Step G7). When contact with the image portion with the transformation mark is detected, the destruction target image data of the beer bottle A1 or the paper airplane B specified as the destruction target image is the destruction data memory as shown in FIG. 15 (see FIG. 5), the destruction (medium) image data 15Ga2 corresponding to the destruction (after) mark data 15Ma ′ stored in the tower 15 (see FIG. 5), or the destruction data memory 15 (see FIG. 19C). (See FIG. 5), the destruction (medium) image data 15Gb2 corresponding to the destruction (rear) mark data 15Mb 'of the airplane stored in FIG. 5 is respectively replaced with the preset background image BG and synthesized. Image data GG2 and GG3 are generated (step G8).
In step G7, it is determined whether or not the image portion with the transformation mark is touched. The transformation mark is stored in the transformation data storage means (14 in FIG. 3) and the gesture model data. When a person image with a matching face is detected and a transformation mark is attached to the person image (SD in FIG. 8), a person image with a matching face image stored in the face transformation data storage means is detected and the person image is detected. There is a case where a transformation mark is put on (SB in FIG. 8). In this way, the destruction mark is attached only in accordance with the contact with the extracted image part with the transformation mark, thereby eliminating the case where the moving image part and the destruction target image happen to overlap on the screen. The destruction image can be appropriately generated only for the contact with the person with the transformation mark.

そして、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔の破壊音データ「グシャ」15Saが読み出され、前記図18(C)に示すように生成された合成画像GG2に対応付けられて保存され、また飛行機の破壊音データ「ドカーン」15Sb2が読み出され、前記19(C)に示すように生成された合成画像GG3に対応付けられて保存される(ステップG9)。   Then, the destruction sound data “Gusha” 15Sa of the tower stored in association with the destruction data memory 15 (see FIG. 5) is read, and the composite image generated as shown in FIG. It is stored in association with GG2, and the destruction sound data “Docan” 15Sb2 of the airplane is read out and stored in association with the synthesized image GG3 generated as shown in 19 (C) (step G9). ).

一方、例えば図19(B)〜図25(B)のマーク付き撮影画像データGm3〜Gm9における破壊対象画像データ(ビール瓶)A1、あるいは図20(B)〜図25(B)のマーク付き撮影画像データGm4〜Gm9における破壊対象画像データ(紙飛行機)Bにおいて示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触してないと判断された場合であっても(ステップG3(No))、その各破壊対象画像データA1,Bは転倒状態や反転状態にあると画像認識されて破壊後の状態であると判断された場合には(ステップG4(Yes))、当該特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データは、同図19(B)〜図25(B)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(後)マークデータ15Ma′に対応するところの破壊(後)画像データ15Ga3、あるいは同図20(B)〜図25(B)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(後)マークデータ15Mb′に対応するところの破壊(後)画像データ15Gb3にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG3〜GG9あるいはGG4〜GG9が生成される(ステップG10)。   On the other hand, for example, the destruction target image data (beer bottle) A1 in the marked photographed image data Gm3 to Gm9 in FIGS. 19B to 25B, or the marked photographed images in FIGS. 20B to 25B. As shown in the destruction target image data (paper airplane) B in the data Gm4 to Gm9, it is determined that the position of the specified destruction target image data (A1 or B) is not in contact with other extracted image portions. Even if it is a case (step G3 (No)), when each of the destruction target image data A1 and B is image-recognized as being in the overturned state or the inverted state and is judged to be in the state after the destruction (step G4 (Yes)), the destruction target image data of the specified beer bottle A1 or paper plane B is the destruction data memory 15 (FIG. 5) as shown in FIGS. 19 (B) to 25 (B). The destruction (rear) image data 15Ga3 corresponding to the destruction (rear) mark data 15Ma 'of the tower stored in (b)) or the destruction data as shown in FIGS. 20 (B) to 25 (B). The destruction (rear) image data 15Gb3 corresponding to the destruction (rear) mark data 15Mb 'of the airplane stored in the memory 15 (see FIG. 5) is replaced with the preset background image BG and synthesized. Then, composite image data GG3 to GG9 or GG4 to GG9 are generated (step G10).

すると次に、図16における特殊効果マーク合成処理へ移行される(ステップSH)。
この特殊効果マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記特殊効果データメモリ23(図4参照)に予め記憶されている特殊効果マークデータ23Muが付加された画像が含まれているか否か判断される(ステップH1)。
Then, the process proceeds to the special effect mark composition process in FIG. 16 (step SH).
In this special effect mark composition processing, first, the marked image data Gm1 to Gm9 read from the marked image data memory 26 to the working memory is stored in advance in the special effect data memory 23 (see FIG. 4). It is determined whether or not an image to which the stored special effect mark data 23Mu is added is included (step H1).

ここで、図25(B)で示すように特殊効果Aの特殊効果マークデータ23Mu1が付加された画像Gm9が存在しないと判断された場合には(ステップH1(No))処理を終了し、存在すると判断された場合には(ステップH1(Yes))、当該特殊効果マークデータ23Mu1が対応付加されている該マーク近傍の人物画像(子供)Kの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップH2)。   If it is determined that there is no image Gm9 to which the special effect mark data 23Mu1 for the special effect A is added as shown in FIG. 25 (B) (step H1 (No)), the process is terminated and exists. If it is determined (step H1 (Yes)), the position of the person image (child) K in the vicinity of the mark to which the special effect mark data 23Mu1 is associated is added to the target image extraction process (step SA). Thus, the position information of the block obtained as additional information of the photographed image data Gn is specified (step H2).

すると、前記特殊効果データメモリ23(図4参照)の特殊効果マークデータ23Mu1に対応付けられて記憶されている特殊効果画像データ23Gu1が読み出され、前記特定された人物画像(子供)Kの所定位置(例えば画像上部から3分の1の位置)に対応して前記怪獣Aの変身マークデータ24Mw1が付加されている人物画像(父親)Pの方向へ向けて追加合成され、合成画像データGG9が生成される(ステップH3)。   Then, the special effect image data 23Gu1 stored in association with the special effect mark data 23Mu1 in the special effect data memory 23 (see FIG. 4) is read out, and the specified person image (child) K is predetermined. Corresponding to the position (for example, one third of the position from the top of the image), the image is added and synthesized in the direction of the person image (father) P to which the transformation mark data 24Mw1 of the monster A is added, and the combined image data GG9 is obtained. Is generated (step H3).

さらに、前記人物画像(子供)Kの所定位置に追加合成された特殊効果画像データ23Gu1は、その先端部の爆発効果画像部分23Gu1′が前記人物画像(父親)Pに対応する怪獣Aの変身(1)画像データ24Gw1に到達する位置まで延長されて追加合成され、合成画像データGG9が生成される(ステップH4)
そして、前記特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの音声データ「ビビビビー」23Su1が読み出され、前記図25(C)に示すように生成された合成画像GG9に対応付けられて保存される(ステップH5)。
Furthermore, the special effect image data 23Gu1 additionally synthesized at a predetermined position of the person image (child) K is transformed into a monster A whose explosion effect image part 23Gu1 ′ at the tip thereof corresponds to the person image (father) P ( 1) The image data 24Gw1 is extended to a position that reaches the image data 24Gw1, and is additionally combined to generate combined image data GG9 (step H4).
Then, the audio data “Bibi Bibi” 23Su1 of the special effect A stored in association with the special effect data memory 23 (see FIG. 4) is read out and generated as shown in FIG. 25 (C). The image is stored in association with the composite image GG9 (step H5).

すると、前記図17(C)〜図25(C)で示したように、前記ステップSF〜SHの処理に従い作業用データメモリ上に生成された一連の合成画像データGG1〜GG9が合成画像データメモリ27に記憶され保存される(ステップS6)。
そして、前記合成画像データメモリ27に記憶された一連の合成画像データ(対応付けられた音声データを含む)GG1〜GG9が、前記図17(C)〜図25(C)で示すように、表示部11により再生表示されると共に音声出力部13により再生出力される(ステップS7)。なお、本合成画像出力装置がサーバ装置30(図7参照)として構成されている場合には、前記ステップS1において受信された一連の撮影画像データG1〜G9の送信元である通信ネットワークN上の通信端末A(デジタルカメラ)10′や通信端末B(PC)40に対して、前記合成画像データメモリ27に記憶された一連の合成画像データ(対応付けられた音声データを含む)GG1〜GG9が読み出されて応答送信される(ステップS7)。
Then, as shown in FIGS. 17C to 25C, a series of synthesized image data GG1 to GG9 generated on the work data memory in accordance with the processing of the steps SF to SH is obtained as a synthesized image data memory. 27 and stored (step S6).
A series of synthesized image data (including associated audio data) GG1 to GG9 stored in the synthesized image data memory 27 is displayed as shown in FIGS. 17 (C) to 25 (C). Reproduced and displayed by the unit 11 and reproduced and output by the audio output unit 13 (step S7). When the composite image output device is configured as the server device 30 (see FIG. 7), it is on the communication network N that is the transmission source of the series of captured image data G1 to G9 received in step S1. For the communication terminal A (digital camera) 10 ′ and the communication terminal B (PC) 40, a series of synthesized image data (including associated audio data) GG1 to GG9 stored in the synthesized image data memory 27. The read response is transmitted (step S7).

したがって、前記構成のデジタルカメラ10あるいはサーバ装置30による合成画像出力装置によれば、画像撮影部21により動画撮影された一連の撮影画像データGnが入力されると、当該撮影画像データGnに含まれる人物画像(P,K)が抽出され、予め設定されたモーション(身振り)をしている人物画像(K)の有無が検出される。そして、撮影画像データGnに含まれる予め設定されたモーション(身振り)をしている人物画像(K)が検出されると、当該設定モーションのモデルデータ14Pに対応付けられて特殊効果データメモリ23に記憶されている例えば○○マンAの必殺技の特殊効果データ23Gu1に基づき、前記撮影画像データGnの人物画像(K)の近傍に、特殊効果データ14Gu1が付加された合成画像データGGnとして生成出力されるので、前記動画撮影に際して被写体となる人物がアニメのヒーローなどが必殺技や攻撃するための特殊効果モーション(身振り)をするだけで、その特殊効果モーションの際に当該被写体の人物画像の近傍に、特殊効果画像を付加した合成画像を容易に生成することができる。   Therefore, according to the composite image output device using the digital camera 10 or the server device 30 having the above configuration, when a series of captured image data Gn captured by the image capturing unit 21 is input, the captured image data Gn includes the captured image data Gn. A person image (P, K) is extracted, and the presence / absence of a person image (K) having a preset motion (gesture) is detected. When a person image (K) having a preset motion (gesture) included in the captured image data Gn is detected, it is associated with the model data 14P of the set motion and stored in the special effect data memory 23. Based on the stored special effect data 23Gu1 of XX man A's special move, for example, it is generated and output as composite image data GGn with special effect data 14Gu1 added in the vicinity of the person image (K) of the photographed image data Gn. Therefore, the person who becomes the subject at the time of the video shooting simply performs a special effect motion (gesture) for an anime hero or the like to perform a special technique or attack, and in the case of the special effect motion, in the vicinity of the person image of the subject In addition, a composite image to which a special effect image is added can be easily generated.

よって、動画撮影された人物画像について、対象人物の意志に従い、対象人物に対応した位置に特殊効果画像を付加して一連のシーンとなる合成画像を手軽に作成することができる。
これにより、例えばユーザ家族において子供をヒーロー役にした動画撮影を行えば、容易に特撮風の合成動画像GGnを作ることができ、当該生成された合成動画像GGnを表示部11に出力表示させて見たり、外部のモニタに出力表示させて見たりすることで、これまでにない楽しみを得ることができる。
Therefore, for a human image taken with a moving image, a composite image that is a series of scenes can be easily created by adding a special effect image to a position corresponding to the target person according to the will of the target person.
As a result, for example, if video shooting is performed with a child acting as a hero in a user family, a special effect-like synthesized moving image GGn can be easily created, and the generated synthesized moving image GGn is output and displayed on the display unit 11. You can get a new level of fun by watching it or by displaying it on an external monitor.

また、前記構成のデジタルカメラ10あるいはサーバ装置30による合成画像出力装置によれば、被写体となる人物画像(K)の予め設定されたモーション(身振り)を検出して、これに対応する例えば○○マンAの特殊効果画像データ23Gu1をに前記人物画像(K)の近傍に付加した合成画像GGを生成した際には、前記変身データメモリ23に記憶されている当該変身画像データ23Gu1の音声データ「ビビビビー」23Su1を、前記合成画像GGに対応付けて保存し出力させるので、容易且つよりリアルに特撮風の合成動画像GGnを作ることができる。   In addition, according to the composite image output device using the digital camera 10 or the server device 30 configured as described above, a preset motion (gesture) of the person image (K) that is the subject is detected and corresponding to this, for example, When a synthesized image GG is generated by adding the special effect image data 23Gu1 of Man A to the vicinity of the person image (K), the audio data “Guide image data 23Gu1 stored in the transformation data memory 23 is stored. Since “BibiBibi” 23Su1 is stored and output in association with the composite image GG, it is possible to easily and more realistically create a special effect-like composite moving image GGn.

また、前記構成のデジタルカメラ10による合成画像出力装置によれば、前記動画撮影中に表示部11にリアルタイムに表示される撮影画像データGnについて、前記予め設定されたモーション(身振り)の人物画像(K)が検出された際には、当該人物画像(K)に対して例えば○○マンAの特殊効果画像データ23Gu1への変身対象となったことを示す変身マークデータ23Mu1を付加したマーク付き撮影画像データGmnとして表示部11に表示させ、しかも前記変身画像データ23Gu1の音声データ「ビビビビー」23Su1も共に音声出力部13から出力させるので、例えば撮影操作中の家族は、被写体の人物画像(子供)Kが意図通りに必殺技等の特殊効果が付加されていることを容易に認識することができ、またこれを演じている最中の被写体自身(子供K)にあっても、自らが意図通りに必殺技等の特殊効果されていることを音声により容易に認識することができる。   Further, according to the composite image output device using the digital camera 10 having the above-described configuration, the preset motion (gesture) human image (gesture) of the captured image data Gn displayed in real time on the display unit 11 during the moving image capturing ( When K) is detected, the marked image obtained by adding transformation mark data 23Mu1 indicating that the person image (K) has been transformed into, for example, the special effect image data 23Gu1 of XX Man A is added. The image data Gmn is displayed on the display unit 11 and the audio data “Bibi Bibi” 23Su1 of the transformation image data 23Gu1 is also output from the audio output unit 13, so that, for example, the family during the shooting operation is a person image (child) of the subject. K can easily recognize that special effects such as Special Moves have been added as intended. Flip even in in the middle are the subject itself (child K), it can be easily recognized by the speech that it is special effects Special Move etc. itself intended.

前記実施形態では、撮影画像データGnから対象画像として抽出される人物画像(K)の予め設定されたモーション(身振り)を検出するための特殊効果モーションモデルデータ23Pと、これに対応する変身マークデータ23Muおよび変身画像データ23Guとを、変身データメモリ23により予め記憶する構成としたが、通信ネットワークN上のサーバ装置30(この場合はサービスサイトのデータ提供サーバ)から特殊効果画像データ(必殺技、攻撃等)の好みの種類を選択してダウンロードし、特殊効果データメモリ23として新たに記憶させ前記同様に機能させる構成としてもよい。   In the embodiment, the special effect motion model data 23P for detecting a preset motion (gesture) of the person image (K) extracted as the target image from the photographed image data Gn, and the transformation mark data corresponding thereto. 23Mu and transformation image data 23Gu are stored in advance in the transformation data memory 23, but the special effect image data (a special technique, a special technique image from the server device 30 on the communication network N (in this case, the data providing server of the service site)). It is also possible to select a desired type of attack, etc.), download it, and newly store it as the special effect data memory 23 so as to function in the same manner as described above.

なお、前記実施形態において記載した合成画像出力装置による各処理の手法、すなわち、図8のフローチャートに示す合成画像出力処理、図9のフローチャートに示す前記合成画像出力処理に伴う対象画像抽出処理、図10のフローチャートに示す前記合成画像出力処理に伴う役柄変身マーク処理、図11のフローチャートに示す前記合成画像出力処理に伴う破壊マーク処理、図12のフローチャートに示す前記合成画像出力処理に伴うモーション変身マーク処理、図13のフローチャートに示す前記合成画像出力処理に伴う特殊効果マーク処理、図14のフローチャートに示す前記合成画像出力処理に伴う変身マーク合成処理、図15のフローチャートに示す前記合成画像出力処理に伴う破壊マーク合成処理、図16のフローチャートに示す前記合成画像出力処理に伴う特殊効果マーク合成処理等の各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶媒体18(33)に格納して配布することができる。そして、変身データ14(32B)、特殊効果データ23(32C)、破壊データ15(32D)、変身役柄データ24(32E)をメモリ17(32)に記憶した種々のコンピュータ端末は、この外部記憶媒体18(33)に記憶されたプログラムをプログラムメモリ22(32A)に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した動画撮影画像データGnからの変身画像を用いた合成画像GGnの作成・出力機能を実現し、前述した手法による同様の処理を実行することができる。   Note that each processing method by the composite image output apparatus described in the embodiment, that is, the composite image output process shown in the flowchart of FIG. 8, the target image extraction process accompanying the composite image output process shown in the flowchart of FIG. The process change mark process accompanying the composite image output process shown in the flowchart of FIG. 10, the destruction mark process accompanying the composite image output process shown in the flowchart of FIG. 11, and the motion change mark accompanying the composite image output process shown in the flowchart of FIG. Processing, special effect mark processing accompanying the composite image output processing shown in the flowchart of FIG. 13, transformation mark composition processing accompanying the composite image output processing shown in the flowchart of FIG. 14, and the composite image output processing shown in the flowchart of FIG. Destruction mark compositing process with accompanying, shown in flowchart of FIG. Each method such as the special effect mark synthesis process associated with the synthesized image output process is a program that can be executed by a computer, such as a memory card (ROM card, RAM card, etc.), magnetic disk (floppy disk, hard disk, etc.). It can be stored and distributed in an external storage medium 18 (33) such as an optical disk (CD-ROM, DVD, etc.), semiconductor memory or the like. Various computer terminals storing the transformation data 14 (32B), the special effect data 23 (32C), the destruction data 15 (32D), and the transformation character data 24 (32E) in the memory 17 (32) are stored in the external storage medium. The program stored in 18 (33) is read into the program memory 22 (32A), and the operation is controlled by the read program, so that the transformed image from the moving image captured image data Gn described in the above embodiment is used. The function of creating and outputting the composite image GGn can be realized, and the same processing can be executed by the method described above.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末(プログラムサーバ)から前記のプログラムデータを取り込み、前述した動画撮影画像データGnからの変身画像を用いた合成画像GGnの作成・出力機能を実現することもできる。   Further, program data for realizing each of the above methods can be transmitted on a communication network (Internet) N as a program code form, and a computer terminal (program server) connected to the communication network (Internet) N ) From the above-mentioned program data, and a function of creating and outputting a composite image GGn using a transformed image from the above-described moving image captured image data Gn can be realized.

なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。   Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in each embodiment or some constituent elements are combined in different forms, the problems described in the column of the problem to be solved by the invention If the effects described in the column “Effects of the Invention” can be obtained, a configuration in which these constituent requirements are deleted or combined can be extracted as an invention.

本発明の合成画像出力装置の実施形態に係るデジタルカメラ10を利用した動画像の撮影状態と合成画像の生成状態を示す概念図。The conceptual diagram which shows the imaging | photography state of a moving image using the digital camera 10 which concerns on embodiment of the synthesized image output apparatus of this invention, and the production | generation state of a synthesized image. 前記デジタルカメラ10(通信端末A)の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the said digital camera 10 (communication terminal A). 前記デジタルカメラ10の変身データメモリ14に予め記憶される変身データの内容を示す図。The figure which shows the content of the transformation data previously stored in the transformation data memory 14 of the said digital camera 10. FIG. 前記デジタルカメラ10の特殊効果データメモリ23に予め記憶される特殊効果データの内容を示す図。The figure which shows the content of the special effect data previously stored in the special effect data memory 23 of the said digital camera 10. FIG. 前記デジタルカメラ10の破壊データメモリ15に予め記憶される破壊データの内容を示す図。The figure which shows the content of the destruction data previously stored in the destruction data memory 15 of the said digital camera 10. FIG. 前記デジタルカメラ10の変身役柄データメモリ24に記憶される変身役柄データの内容を示す図。The figure which shows the content of the transformation character data memorize | stored in the transformation character data memory 24 of the said digital camera. 本発明の合成画像出力装置の実施形態に係るサーバ装置30の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the server apparatus 30 which concerns on embodiment of the synthesized image output apparatus of this invention. 前記合成画像出力装置による合成画像出力処理の全体過程を示すフローチャート。6 is a flowchart showing an overall process of a composite image output process by the composite image output apparatus. 前記合成画像出力処理に伴い撮影画像(G)中に存在する人物(P,M,K)・物体(A,B,C)の対象画像を抽出する対象画像抽出処理を示すフローチャート。The flowchart which shows the target image extraction process which extracts the target image of the person (P, M, K) and the object (A, B, C) which exist in the picked-up image (G) with the said composite image output process. 前記合成画像出力処理に伴い役柄登録された人物画像(P,M)に変身マーク(24Mw)を付加する役柄変身マーク処理を示すフローチャート。The flowchart which shows the role transformation mark process which adds a transformation mark (24Mw) to the person image (P, M) by which the role registration was carried out with the said composite image output process. 前記合成画像出力処理に伴い抽出された物体画像(A,B,C)に破壊マーク(15M,15M′)を付加すると共に対応音声(15S)を出力する破壊マーク処理を示すフローチャート。The flowchart which shows the destruction mark process which adds a destruction mark (15M, 15M ') to the object image (A, B, C) extracted with the said synthetic image output process, and outputs corresponding sound (15S). 前記合成画像出力処理に伴い変身モーション(14P)の検出された人物画像(K)に変身マーク(14Mu)を付加すると共に対応音声(14Su)を出力するモーション変身マーク処理を示すフローチャート。The flowchart which shows the motion transformation mark process which adds a transformation mark (14Mu) to the person image (K) by which transformation motion (14P) was detected with the said composite image output process, and outputs corresponding sound (14Su). 前記合成画像出力処理に伴い特殊効果モーション(23P)の検出された人物画像(K)に特殊効果マーク(23Gu)を付加すると共に対応音声(23Su)を出力する特殊効果マーク処理を示すフローチャート。The flowchart which shows the special effect mark process which adds a special effect mark (23Gu) to the person image (K) from which the special effect motion (23P) was detected with the said composite image output process, and outputs corresponding sound (23Su). 前記合成画像出力処理に伴い変身マーク(24Mw)(14Mu)の付加された人物画像(P)(K)を変身画像(24Gw)((14Gu)に置き換え合成すると共に対応音声(24Sw)(14Su)の出力を設定する変身マーク合成処理を示すフローチャート。The person image (P) (K) to which the transformation mark (24Mw) (14Mu) is added in accordance with the synthetic image output processing is replaced with the transformation image (24Gw) ((14Gu) and synthesized, and the corresponding voice (24Sw) (14Su). FIG. 6 is a flowchart showing a transformation mark composition process for setting the output. 前記合成画像出力処理に伴い破壊マーク(15M,15M′)の付加された物体画像(A,B)を破壊画像(15G)に置き換え合成すると共に対応音声(15S)の出力を設定する破壊マーク合成処理を示すフローチャート。Destructive mark composition for replacing the object image (A, B) to which the destructive mark (15M, 15M ′) is added with the destructive image (15G) and setting the output of the corresponding voice (15S) along with the synthetic image output processing The flowchart which shows a process. 前記合成画像出力処理に伴い特殊効果マーク(23Gu)の付加された人物画像(K)の所定位置に特殊効果画像23Guを追加合成すると共に対応音声(23Su)の出力を設定する特殊効果マーク合成処理を示すフローチャート。A special effect mark synthesis process for additionally synthesizing the special effect image 23Gu at a predetermined position of the person image (K) to which the special effect mark (23Gu) is added in accordance with the synthetic image output process and setting the output of the corresponding sound (23Su). The flowchart which shows. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その1)であり、同図(A)は撮影画像G1を示す図、同図(B)はマーク付き撮影画像Gm1を示す図、同図(C)は合成画像GG1を示す図。FIG. 2 is a diagram (part 1) illustrating image processing states based on a moving image captured image (G) associated with the composite image output process in order of typical frame advance, in which FIG. (A) illustrates a captured image G1; FIG. 4B is a diagram showing a marked-captured photographed image Gm1, and FIG. 4C is a diagram showing a composite image GG1. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その2)であり、同図(A)は撮影画像G2を示す図、同図(B)はマーク付き撮影画像Gm2を示す図、同図(C)は合成画像GG2を示す図。FIG. 2 is a diagram (part 2) illustrating image processing states based on the moving image captured image (G) associated with the composite image output processing in order of typical frame advance, in which (A) is a diagram illustrating the captured image G2. FIG. 5B is a diagram showing a marked photographed image Gm2, and FIG. 5C is a diagram showing a composite image GG2. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その3)であり、同図(A)は撮影画像G3を示す図、同図(B)はマーク付き撮影画像Gm3を示す図、同図(C)は合成画像GG3を示す図。FIG. 3 is a diagram (part 3) illustrating image processing states based on the moving image captured image (G) associated with the composite image output process in order of typical frame advance, in which FIG. (A) is a diagram illustrating the captured image G3; FIG. 4B is a view showing a marked-captured photographed image Gm3, and FIG. 4C is a view showing a composite image GG3. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その4)であり、同図(A)は撮影画像G4を示す図、同図(B)はマーク付き撮影画像Gm4を示す図、同図(C)は合成画像GG4を示す図。FIG. 4 is a diagram (part 4) illustrating image processing states based on the moving image captured image (G) associated with the composite image output process sequentially as representative frame advance, and FIG. (A) is a diagram illustrating the captured image G4; FIG. 4B is a diagram showing a marked-captured photographed image Gm4, and FIG. 4C is a diagram showing a composite image GG4. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その5)であり、同図(A)は撮影画像G5を示す図、同図(B)はマーク付き撮影画像Gm5を示す図、同図(C)は合成画像GG5を示す図。FIG. 5 is a diagram (part 5) illustrating image processing states based on the moving image captured image (G) associated with the composite image output processing in order of typical frame advance, in which FIG. (A) illustrates the captured image G5; FIG. 5B is a view showing a marked photographic image Gm5, and FIG. 4C is a view showing a composite image GG5. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その6)であり、同図(A)は撮影画像G6を示す図、同図(B)はマーク付き撮影画像Gm6を示す図、同図(C)は合成画像GG6を示す図。FIG. 6 is a diagram (part 6) illustrating image processing states based on the moving image captured image (G) associated with the composite image output process sequentially as a representative frame advance, in which FIG. (A) illustrates the captured image G6; FIG. 5B is a view showing a marked photographed image Gm6, and FIG. 4C is a view showing a composite image GG6. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その7)であり、同図(A)は撮影画像G7を示す図、同図(B)はマーク付き撮影画像Gm7を示す図、同図(C)は合成画像GG7を示す図。FIG. 7 is a diagram (part 7) illustrating image processing states based on the moving image captured image (G) associated with the composite image output process sequentially as a representative frame advance, in which FIG. (A) illustrates the captured image G7; FIG. 4B is a diagram showing a marked photographic image Gm7, and FIG. 4C is a diagram showing a composite image GG7. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その8)であり、同図(A)は撮影画像G8を示す図、同図(B)はマーク付き撮影画像Gm8を示す図、同図(C)は合成画像GG8を示す図。FIG. 8 is a diagram (No. 8) illustrating image processing states based on the moving image captured image (G) accompanying the composite image output processing in order of typical frame advance, in which FIG. (A) is a diagram illustrating the captured image G8; FIG. 4B is a diagram showing a marked photographic image Gm8, and FIG. 4C is a diagram showing a composite image GG8. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その9)であり、同図(A)は撮影画像G9を示す図、同図(B)はマーク付き撮影画像Gm9を示す図、同図(C)は合成画像GG9を示す図。FIG. 9 is a diagram (No. 9) illustrating image processing states based on the moving image captured image (G) associated with the composite image output processing sequentially as representative frame advance, in which FIG. (A) is a diagram illustrating the captured image G9; FIG. 4B is a diagram showing a marked photographic image Gm9, and FIG. 4C is a diagram showing a composite image GG9.

符号の説明Explanation of symbols

10 …デジタルカメラ(通信端末A)
11(37)…表示部
12(36)…入力部
13 …音声出力部
14(32B)…変身データメモリ
14P…変身モーションモデルデータ
14Gu…変身画像データ
14Su…変身音声データ
14Mu…変身マークデータ
15(32D)…破壊データメモリ
15T…破壊対象画像データ
15G…破壊画像データ
15S…破壊音声データ
15M…破壊(前)マークデータ
15M′…破壊(後)マークデータ
16(31)…CPU
17(32)…メモリ
18(33)…外部記録媒体
19(34)…記録媒体読取部
20(35)…電送制御部
21 …画像撮影部
22(32A)…プログラムメモリ
23(32C)…特殊効果データメモリ
23P…特殊効果モーションモデルデータ
23Gu…特殊効果画像データ
23Su…特殊効果音声データ
23Mu…特殊効果マークデータ
24(32E)…変身役柄データメモリ
24T…変身対象(顔)画像データ
24Gw…変身画像データ
24Sw…変身音声データ
24Mw…変身マークデータ
24H …変身条件データ
25(32F)…撮影画像データメモリ
26(32G)…マーク付き撮影画像データメモリ
27(32H)…合成画像データメモリ
30 …サーバ装置
40 …通信端末B(PC)
N …通信ネットワーク(インターネット)
BG…背景画像データ
Gn…撮影画像データ
Gmn…マーク付き撮影画像データ
GGn…合成画像データ
P …人物画像(父親)
K …人物画像(子供)
M …人物画像(母親)
A1…物体画像(ビール瓶)
A2…物体画像(ペットボトル)
B …物体画像(紙飛行機)
C …物体画像(ティッシュボックス)
10 ... Digital camera (communication terminal A)
11 (37) ... Display unit 12 (36) ... Input unit 13 ... Audio output unit 14 (32B) ... Transformation data memory 14P ... Transformation motion model data 14Gu ... Transformation image data 14Su ... Transformation voice data 14Mu ... Transformation mark data 15 ( 32D) ... Destruction data memory 15T ... Destruction target image data 15G ... Destruction image data 15S ... Destruction audio data 15M ... Destruction (front) mark data 15M '... Destruction (rear) mark data 16 (31) ... CPU
17 (32) ... Memory 18 (33) ... External recording medium 19 (34) ... Recording medium reading section 20 (35) ... Transmission control section 21 ... Image photographing section 22 (32A) ... Program memory 23 (32C) ... Special effects Data memory 23P ... Special effect motion model data 23Gu ... Special effect image data 23Su ... Special effect sound data 23Mu ... Special effect mark data 24 (32E) ... Transformation role data memory 24T ... Transformation target (face) image data 24Gw ... Transform image data 24 Sw ... Transformation voice data 24 Mw ... Transformation mark data 24H ... Transformation condition data 25 (32F) ... Captured image data memory 26 (32G) ... Marked captured image data memory 27 (32H) ... Composite image data memory 30 ... Server device 40 ... Communication terminal B (PC)
N ... Communication network (Internet)
BG ... Background image data Gn ... Shooting image data Gmn ... Marked shooting image data GGn ... Composite image data P ... Person image (father)
K ... person image (child)
M ... person image (mother)
A1 ... Object image (beer bottle)
A2 ... Object image (plastic bottle)
B ... Object image (paper airplane)
C ... Object image (tissue box)

Claims (5)

予め設定された身振りのモデルデータと特殊効果の画像データと当該特殊効果を示すマークデータとを対応付けて記憶する特殊効果データ記憶手段と、
動画撮影された一連の撮影画像データを取得する撮影画像取得手段と、
この撮影画像取得手段により取得された一連の撮影画像データの中から人物画像を抽出する人物画像抽出手段と、
この人物画像抽出手段により抽出された人物画像の中から、前記特殊効果データ記憶手段により記憶されているモデルデータとその予め設定された身振りが一致する人物画像を検出する特殊効果身振り検出手段と、
この特殊効果身振り検出手段により予め設定された身振りの人物画像が検出された際の撮影画像データ前記特殊効果の画像データを合成した合成画像データを生成する合成画像生成手段と、
この合成画像生成手段により生成された一連の合成画像データを出力する合成画像出力手段と、
を備え
前記合成画像生成手段は、
前記特殊効果身振り検出手段により予め設定された身振りの人物画像が検出された際の撮影画像データと、前記特殊効果を示すマークデータを合成したマーク付き合成画像データを生成するマーク付き合成画像生成手段と、
前記マーク付き合成画像生成手段により生成されたマーク付き合成画像データに、前記特殊効果の画像データを合成した合成画像データを生成する効果合成画像生成手段と、
を備え
前記合成画像出力手段は、
前記マーク付き合成画像生成手段により生成されたマーク付き合成画像データを出力させるマーク付き合成画像出力手段と、
前記効果合成画像生成手段により生成された前記特殊効果の画像データを合成した合成画像データを出力させる効果合成画像出力手段と、
を備えることを特徴とする合成画像出力装置。
Special effect data storage means for storing pre-set gesture model data, special effect image data, and mark data indicating the special effect in association with each other;
Captured image acquisition means for acquiring a series of captured image data taken by a movie,
A person image extracting means for extracting a person image from a series of photographed image data obtained by the photographed image obtaining means;
Special effect gesture detection means for detecting a person image whose model gesture stored in the special effect data storage means matches the preset gesture from the person images extracted by the person image extraction means;
The special and effects gesture detecting means captured image data when the human image of preset gesture is detected by a composite image generating means for generating a composite image data obtained by combining the image data of the special effects,
A composite image output means for outputting a series of composite image data generated by the composite image generation means;
Equipped with a,
The composite image generation means includes
Marked composite image generation means for generating photographed image data when a pre-set gesture human image is detected by the special effect gesture detection means and combined image data with a mark obtained by combining the mark data indicating the special effect When,
Effect synthesized image generating means for generating synthesized image data obtained by synthesizing the image data of the special effect on the marked synthesized image data generated by the marked synthesized image generating means;
With
The composite image output means includes
A marked composite image output means for outputting the marked composite image data generated by the marked composite image generation means;
Effect composite image output means for outputting composite image data obtained by combining the special effect image data generated by the effect composite image generation means;
Composite image output apparatus characterized by comprising a.
前記効果合成画像生成手段は、前記検出された人物画像の位置に特殊効果の画像データを合成することを特徴とする請求項1に記載の合成画像出力装置。The composite image output apparatus according to claim 1, wherein the effect composite image generation unit synthesizes special effect image data at the position of the detected person image. 前記効果合成画像生成手段は、前記検出された人物画像の位置から一方向に向けて、特殊効果の画像データを合成することを特徴とする請求項1に記載の合成画像出力装置。The composite image output apparatus according to claim 1, wherein the effect composite image generation unit synthesizes special effect image data in one direction from the position of the detected person image. 前記特殊効果データ記憶手段は、予め設定された身振りのモデルデータと特殊効果の画像データおよび音声データとを対応付けて記憶し、
前記合成画像生成手段は、前記特殊効果身振り検出手段により予め設定された身振りの人物画像が検出された際の撮影画像データ前記特殊効果の画像データを合成した合成画像データを生成すると共に、当該特殊効果の音声データを対応付けた合成画像データを生成する、
ことを特徴とする請求項1〜3のいずれか1項に記載の合成画像出力装置。
The special effect data storage means stores preset gesture model data and special effect image data and audio data in association with each other,
The composite image generating means, wherein the preset shooting when the gestures of the person image is detected the image data by the special effect gesture detecting means, to generate a synthetic image data obtained by combining the image data of the special effects, Generating composite image data in which the sound data of the special effect is associated;
The composite image output device according to any one of claims 1 to 3 .
コンピュータを、
予め設定された身振りのモデルデータと特殊効果の画像データと当該特殊効果を示すマークデータとを対応付けて記憶する特殊効果データ記憶手段、
動画撮影された一連の撮影画像データを取得する撮影画像取得手段、
この撮影画像取得手段により取得された一連の撮影画像データの中から人物画像を抽出する人物画像抽出手段、
この人物画像抽出手段により抽出された人物画像の中から、前記特殊効果データ記憶手段により記憶されているモデルデータとその予め設定された身振りが一致する人物画像を検出する特殊効果身振り検出手段、
この特殊効果身振り検出手段により予め設定された身振りの人物画像が検出された際の撮影画像データ前記特殊効果の画像データを合成した合成画像データを生成する合成画像生成手段、
この合成画像生成手段により生成された一連の合成画像データを出力する合成画像出力手段、
として機能させ
前記合成画像生成手段は、
前記特殊効果身振り検出手段により予め設定された身振りの人物画像が検出された際の撮影画像データと、前記特殊効果を示すマークデータを合成したマーク付き合成画像データを生成するマーク付き合成画像生成手段と、
前記マーク付き合成画像生成手段により生成されたマーク付き合成画像データに、前記特殊効果の画像データを合成した合成画像データを生成する効果合成画像生成手段と、
備えるように機能させ
前記合成画像出力手段は、
前記マーク付き合成画像生成手段により生成されたマーク付き合成画像データを出力させるマーク付き合成画像出力手段と、
前記効果合成画像生成手段により生成された前記特殊効果の画像データを合成した合成画像データを出力させる効果合成画像出力手段と、
を備えるように機能させる、
ことを特徴とするコンピュータ読み込み可能な合成画像出力処理プログラム。
Computer
Special effect data storage means for storing pre-set gesture model data, special effect image data, and mark data indicating the special effect in association with each other;
Captured image acquisition means for acquiring a series of captured image data taken with a movie,
A person image extracting means for extracting a person image from a series of photographed image data acquired by the photographed image acquiring means;
Special effect gesture detection means for detecting a person image whose model gesture stored in the special effect data storage means matches the preset gesture from the person images extracted by the person image extraction means,
The special and effects gesture captured image data when the human image of preset gesture is detected by the detecting means, the composite image generation means for generating a composite image data obtained by combining the image data of the special effects,
A composite image output means for outputting a series of composite image data generated by the composite image generation means;
To function as,
The composite image generation means includes
Marked composite image generation means for generating photographed image data when a pre-set gesture human image is detected by the special effect gesture detection means and combined image data with a mark obtained by combining the mark data indicating the special effect When,
Effect synthesized image generating means for generating synthesized image data obtained by synthesizing the image data of the special effect on the marked synthesized image data generated by the marked synthesized image generating means;
Function to have
The composite image output means includes
A marked composite image output means for outputting the marked composite image data generated by the marked composite image generation means;
Effect composite image output means for outputting composite image data obtained by combining the special effect image data generated by the effect composite image generation means;
To work with
A computer-readable composite image output processing program characterized by the above.
JP2007223485A 2007-08-30 2007-08-30 Composite image output apparatus and composite image output processing program Expired - Fee Related JP4962219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007223485A JP4962219B2 (en) 2007-08-30 2007-08-30 Composite image output apparatus and composite image output processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007223485A JP4962219B2 (en) 2007-08-30 2007-08-30 Composite image output apparatus and composite image output processing program

Publications (2)

Publication Number Publication Date
JP2009059015A JP2009059015A (en) 2009-03-19
JP4962219B2 true JP4962219B2 (en) 2012-06-27

Family

ID=40554730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007223485A Expired - Fee Related JP4962219B2 (en) 2007-08-30 2007-08-30 Composite image output apparatus and composite image output processing program

Country Status (1)

Country Link
JP (1) JP4962219B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6396694B2 (en) * 2014-06-19 2018-09-26 株式会社バンダイ Game system, game method and program
JP2017173848A (en) * 2017-06-07 2017-09-28 辰巳電子工業株式会社 Imaging apparatus for game, imaging method for game, and program
CN109509140A (en) * 2017-09-15 2019-03-22 阿里巴巴集团控股有限公司 Display methods and device
CN113225483B (en) * 2021-05-10 2023-04-07 北京字跳网络技术有限公司 Image fusion method and device, electronic equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193824A (en) * 2000-04-13 2007-08-02 Fujifilm Corp Image processing method
JP3901015B2 (en) * 2002-05-28 2007-04-04 カシオ計算機株式会社 Image output apparatus, image output processing program, and image output method
JP3918632B2 (en) * 2002-05-28 2007-05-23 カシオ計算機株式会社 Image distribution server, image distribution program, and image distribution method

Also Published As

Publication number Publication date
JP2009059015A (en) 2009-03-19

Similar Documents

Publication Publication Date Title
JP4973622B2 (en) Image composition apparatus and image composition processing program
CN111080759B (en) Method and device for realizing split mirror effect and related product
CN108322832B (en) Comment method and device and electronic equipment
JP5169111B2 (en) Composite image output apparatus and composite image output processing program
JP5012373B2 (en) Composite image output apparatus and composite image output processing program
JP5252068B2 (en) Composite image output apparatus and composite image output processing program
JP4981370B2 (en) Movie generation system and movie generation method
JP4423929B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP4935647B2 (en) Composite image output apparatus and composite image output processing program
JP4962219B2 (en) Composite image output apparatus and composite image output processing program
JP4962218B2 (en) Composite image output apparatus and composite image output processing program
JP4983494B2 (en) Composite image output apparatus and composite image output processing program
KR102200239B1 (en) Real-time computer graphics video broadcasting service system
JP6313003B2 (en) Karaoke apparatus, image output method, and program
JP4254391B2 (en) Image output device, image output processing program, and image distribution server
JP3901015B2 (en) Image output apparatus, image output processing program, and image output method
JP4151543B2 (en) Image output apparatus, image output method, and image output processing program
JP2008271239A (en) Camera, content creation method, and program
JP7160707B2 (en) Method for providing images containing virtual characters
JP4168803B2 (en) Image output device
JP7167388B1 (en) Movie creation system, movie creation device, and movie creation program
WO2023130715A1 (en) Data processing method and apparatus, electronic device, computer-readable storage medium, and computer program product
JP2016131342A (en) Device, method, and program for model railroad appreciation, dedicated display monitor, and scene image data for synthesis
KR20230088142A (en) VR concert karaoke system
JP2020177488A (en) Program, terminal apparatus, and content reproduction system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120228

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120312

R150 Certificate of patent or registration of utility model

Ref document number: 4962219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees