JP2005136841A - Device, method and program of image output processing, image distribution server and image distribution processing program - Google Patents

Device, method and program of image output processing, image distribution server and image distribution processing program Download PDF

Info

Publication number
JP2005136841A
JP2005136841A JP2003372626A JP2003372626A JP2005136841A JP 2005136841 A JP2005136841 A JP 2005136841A JP 2003372626 A JP2003372626 A JP 2003372626A JP 2003372626 A JP2003372626 A JP 2003372626A JP 2005136841 A JP2005136841 A JP 2005136841A
Authority
JP
Japan
Prior art keywords
image
costume
pose
synthesized
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003372626A
Other languages
Japanese (ja)
Other versions
JP4423929B2 (en
Inventor
Takashi Koshiro
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003372626A priority Critical patent/JP4423929B2/en
Publication of JP2005136841A publication Critical patent/JP2005136841A/en
Application granted granted Critical
Publication of JP4423929B2 publication Critical patent/JP4423929B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To combine and output a costume image with a pose corresponding to an object image according to a place and a season (time) about a photographed image of an image output device such as a digital camera in the image output device. <P>SOLUTION: An object figure image Hn for composition (imitation) is extracted about the photographed image 12in in accordance with performing photography, whether or not the current photography place is a specific place is determined, when the photography place is determined as the specific place, a face omitted costume image with the pose corresponding to the figure image Hn for composition is acquired with a costume of a type according to atmosphere of the place, a composite image 12in1 formed by replacing and combining the figure image Hn for composition with the acquired face omitted costume image according to the photography place is created and displayed. Thus, the composite image 12in1 in which costumes of an object figure are differentiated according to the atmosphere of a place where the photography is performed is photographed and displayed as the composite image 12in1 without a sense of incongruity by composition of the face omitted costume image with the pose imitating the pose the object figure image Hn. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、デジタルカメラやカメラ付携帯端末などにおける撮影画像に応じた画像を合成して出力するための画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラムに関する。   The present invention relates to an image output device, an image output method, an image output processing program, an image distribution processing program, an image distribution processing program, and an image distribution processing program for synthesizing and outputting an image corresponding to a captured image in a digital camera, a camera-equipped mobile terminal, or the like. .

従来、各種のスチルカメラやビデオカメラにおいて、撮影した画像に対し他の画像を合成して表示あるいは印刷して出力するものがある。   2. Description of the Related Art Conventionally, there are various types of still cameras and video cameras that synthesize and display or print and output another image with a captured image.

例えば撮影フレームの固定した位置に予め用意された花や人気キャラクタなどのアニメ画像を合成して出力するものや、同予め用意されたアニメ画像を撮影フレーム内の希望の位置に合成して出力するものなどが実用されている。   For example, an animation image such as a flower or a popular character prepared in advance at a fixed position of the shooting frame is output and synthesized, or an animation image prepared in advance is combined and output at a desired position in the shooting frame. Things are in practical use.

また、デジタルカメラにより撮影された画像をパーソナルコンピュータの表示画面上に表示させて他の画像と合成して編集することもできるが、この場合に他の画像は例えば他の画像ファイルから選択的に切り出したり、インターネット上の任意のホームページ画面からダウンロードしたりするなどして取得され、撮影画像上の希望位置に合成される。   In addition, an image captured by a digital camera can be displayed on a display screen of a personal computer and combined with another image for editing. In this case, for example, another image can be selectively selected from other image files. It is obtained by cutting out or downloading from any homepage screen on the Internet, and is synthesized at a desired position on the photographed image.

また、デジタルカメラにより撮影された画像の任意の領域(例えば顔の部分)を切り出し、この切り出し画像を予め用意されたアニメ画像(例えばアニメキャラクタの顔部分)に合成させて新たな別の画像を作成するものや、任意の画像の指定した領域に対して、これに関連付けたアニメ画像を合成する(青空と推定される青色領域に雲画像を合成したり雪景色と推定される白色領域に雪像を合成したりする)ものも考えられている(例えば、特許文献1参照。)。
特開2001−230972号公報
In addition, an arbitrary region (for example, a face portion) of an image photographed by a digital camera is cut out, and this cut-out image is combined with a prepared animation image (for example, the face portion of an anime character) to create a new another image. The animation image associated with the specified area of the image to be created or any image is synthesized (the cloud image is synthesized with the blue area estimated to be the blue sky, or the snow area is estimated to be the snow area) An image is synthesized (for example, see Patent Document 1).
JP 2001-230972 A

前記従来の画像処理システムでは、撮影画像に対して、予め用意された画像をそのまま固定あるいは希望の位置に合成して出力したり、あるいは任意の切り出し画像に対して予め用意された画像を合成して出力したりするだけのものであるため、撮影画像以外の合成画像が常に固定的で変化が無く、またインターネットから多様な画像をダウンロードして利用するにしても、個々の撮影画像とは密接に関係しない単なる飾りなどでしかないため、面白味に欠け飽きが来やすい問題がある。   In the conventional image processing system, an image prepared in advance is fixed to a captured image as it is or is combined and output at a desired position, or an image prepared in advance is combined with an arbitrary clipped image. The combined image other than the shot image is always fixed and does not change, and even if various images are downloaded from the Internet and used, they are closely related to each shot image. There is a problem that it is not easy to get tired of because it is just a decoration that is not related to.

一方で近年、小型のデジタルカメラやデジタルカメラ付きの携帯電話が大幅に普及したことにより、各ユーザは常にこれを持ち歩き、何処でも,何時でも画像の撮影ができる状況となっている。   On the other hand, with the recent widespread use of small digital cameras and mobile phones with digital cameras, each user can always carry them around and take pictures anytime and anywhere.

本発明は、前記のような問題に鑑みてなされたもので、撮影画像に対して単に固定的な画像を合成するのではなく、場所や季節(時間)に応じて被写体画像に対応したポーズの衣装画像を合成して出力することが可能になる画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and does not simply synthesize a fixed image with a captured image, but has a pose corresponding to the subject image according to the location and season (time). An object of the present invention is to provide an image output device, an image output method, an image output processing program, an image distribution server, and an image distribution processing program that can synthesize and output a costume image.

本発明の請求項1に係る画像出力装置では、位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段を有し、撮影画像取得手段により取得された撮影画像から合成対象の人物画像を対象画像抽出手段によって抽出し、前記撮影画像を撮影した位置情報を位置情報取得手段によって取得する。すると、この位置情報取得手段により取得された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像が、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から対応画像取得手段によって取得される。そして、この対応画像取得手段により取得された衣装画像は、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対して、当該人物画像の顔部分を残し画像合成手段によって合成され、この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像が画像出力手段によって出力される。   The image output apparatus according to claim 1 of the present invention has a pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to position information, and is acquired by a captured image acquisition means. A person image to be synthesized is extracted from the captured image by a target image extraction unit, and position information of the captured image is acquired by a position information acquisition unit. Then, the costume image corresponding to the shooting position information of the shot image acquired by the position information acquisition unit and corresponding to the person image to be synthesized extracted by the target image extraction unit is the costume by pose. Acquired by the corresponding image acquisition means from the series of costume images stored by the image storage means. Then, the costume image acquired by the corresponding image acquisition unit is obtained by the image synthesis unit while leaving the face portion of the person image for the human image to be synthesized in the photographed image extracted by the target image extraction unit. The synthesized image obtained by synthesizing the costume image of the pose corresponding to the person image to be synthesized is output by the image output means.

これによれば、撮影画像の中の合成対象の人物画像に応じたポーズの衣装画像を取得して当該合成対象の人物画像と顔部分のみ残し合成して出力できるだけでなく、この撮影画像の撮影位置(場所)に応じた種類の衣装画像として前記合成対象の人物画像と合成することで、撮影画像上の人物画像をそのままのポーズで撮影位置(場所)に応じた衣装に着せ替えた合成画像として出力できることになる。   According to this, it is possible not only to acquire a costume image of a pose according to the person image to be synthesized in the photographed image and to synthesize and output only the face image and the person image to be synthesized, but also to shoot this photographed image. A composite image in which the person image on the photographed image is dressed in the costume according to the photographing position (location) as it is by compositing it with the person image to be synthesized as a type of costume image according to the position (location). Can be output as

本発明の請求項2に係る画像出力装置では、時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段を有し、撮影画像取得手段により取得された撮影画像から合成対象の人物画像を対象画像抽出手段によって抽出し、前記撮影画像を撮影した時間情報を時間情報取得手段によって取得する。すると、この時間情報取得手段により取得された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像が、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から対応画像取得手段によって取得される。そして、この対応画像取得手段により取得された衣装画像は、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対して、当該人物画像の顔部分を残し画像合成手段によって合成され、この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像が画像出力手段によって出力される。   The image output apparatus according to claim 2 of the present invention has a pose-specific costume image storage means for storing a series of costume images composed of a plurality of poses in a type of costume according to time information, and is acquired by a captured image acquisition means. The person image to be synthesized is extracted from the captured image by the target image extraction unit, and the time information of the captured image is acquired by the time information acquisition unit. Then, a costume image corresponding to the shooting time information of the captured image acquired by the time information acquisition unit and in accordance with the person image to be synthesized extracted by the target image extraction unit is the costume by pose. Acquired by the corresponding image acquisition means from the series of costume images stored by the image storage means. Then, the costume image acquired by the corresponding image acquisition unit is obtained by the image synthesis unit while leaving the face portion of the person image for the human image to be synthesized in the photographed image extracted by the target image extraction unit. The synthesized image obtained by synthesizing the costume image of the pose corresponding to the person image to be synthesized is output by the image output means.

これによれば、撮影画像の中の合成対象の人物画像に応じたポーズの衣装画像を取得して当該合成対象の人物画像と顔部分のみ残し合成して出力できるだけでなく、この撮影画像の撮影時間(時期)に応じた種類の衣装画像として前記合成対象の人物画像と合成することで、撮影画像上の人物画像をそのままのポーズで撮影時間(時期)に応じた衣装に着せ替えた合成画像として出力できることになる。   According to this, it is possible not only to acquire a costume image of a pose according to the person image to be synthesized in the photographed image and to synthesize and output only the face image and the person image to be synthesized, but also to shoot this photographed image. A composite image in which the person image on the photographed image is changed into a costume according to the photographing time (period) by combining it with the person image to be synthesized as a costume image of a kind according to the time (period). Can be output as

本発明の請求項3に係る画像出力装置は、前記請求項1または請求項2に係る画像出力装置にあって、前記対象画像抽出手段では、前記撮影画像取得手段により取得された一連の複数の撮影画像の中から変化部分を合成対象の人物画像として抽出する。   An image output apparatus according to a third aspect of the present invention is the image output apparatus according to the first or second aspect, wherein the target image extraction means is a series of a plurality of images acquired by the captured image acquisition means. A changed portion is extracted from the captured image as a person image to be synthesized.

これによれば、撮影に際して連続的にサンプリングされて取り込まれた一連の複数の撮影画像に基づき、その変化部分を合成対象の人物画像として容易に抽出できることになる。   According to this, based on a series of a plurality of photographed images that are continuously sampled and captured at the time of photographing, the changed portion can be easily extracted as a person image to be synthesized.

本発明の請求項4に係る画像出力装置は、前記請求項1または請求項2に係る画像出力装置にあって、前記対象画像抽出手段では、前記撮影画像取得手段により取得された撮影画像の各画像部分間の距離情報に応じて合成対象の人物画像を抽出する。   An image output device according to a fourth aspect of the present invention is the image output device according to the first or second aspect, wherein the target image extraction unit includes each of the captured images acquired by the captured image acquisition unit. A human image to be synthesized is extracted according to distance information between image portions.

これによれば、撮影された1枚の撮影画像の各画像部分の撮影距離に基づき、その手前画像部分を合成対象者の人物画像として容易に抽出できることになる。   According to this, based on the shooting distance of each image portion of one shot image, the near image portion can be easily extracted as a person image of the person to be synthesized.

本発明の請求項5に係る画像出力装置は、前記請求項1ないし請求項4の何れか1項に係る画像出力装置にあって、前記対応画像取得手段では、前記対象画像抽出手段により抽出された撮影画像における合成対象の人物画像と前記ポーズ別衣装画像記憶手段により記憶された各ポーズごとの衣装画像との類似度を評価する類似度評価手段を有し、この類似度評価手段により評価された合成対象の人物画像と各衣装画像との類似度に応じて当該合成対象の人物画像に対応したポーズの衣装画像を取得する。   An image output apparatus according to a fifth aspect of the present invention is the image output apparatus according to any one of the first to fourth aspects, wherein the corresponding image acquisition means extracts the image output apparatus by the target image extraction means. A similarity evaluation unit that evaluates the similarity between the person image to be synthesized in the captured image and the costume image for each pose stored by the pose-specific costume image storage unit, and is evaluated by the similarity evaluation unit. A costume image of a pose corresponding to the person image to be synthesized is acquired according to the similarity between the person image to be synthesized and each costume image.

これによれば、撮影画像における合成対象の人物画像のポーズにまねて合成すべき、撮影位置(場所)または撮影時間(時期)に応じた種類の衣装画像を容易に取得できることになる。   According to this, it is possible to easily acquire the type of costume image according to the shooting position (location) or shooting time (time) to be combined with the pose of the person image to be combined in the shot image.

本発明の請求項6に係る画像出力装置は、前記請求項1ないし請求項4の何れか1項に係る画像出力装置にあって、前記対応画像取得手段では、前記ポーズ別衣装画像記憶手段により記憶された衣装画像の各ポーズに対応付けた複数のポーズのモデル画像を記憶するモデル画像記憶手段と、前記対象画像抽出手段により抽出された撮影画像における合成対象の人物画像と前記モデル画像記憶手段により記憶された各ポーズのモデル画像との類似度を評価する類似度評価手段とを有し、この類似度評価手段により評価された合成対象の人物画像と各モデル画像との類似度に応じて当該モデル画像のポーズに対応付けられて前記ポーズ別衣装画像記憶手段により記憶された衣装画像を取得する。   An image output apparatus according to a sixth aspect of the present invention is the image output apparatus according to any one of the first to fourth aspects, wherein the corresponding image acquisition means includes the pose-specific costume image storage means. A model image storage means for storing model images of a plurality of poses associated with each pose of the stored costume image; a person image to be synthesized in the photographed image extracted by the target image extraction means; and the model image storage means A degree-of-similarity evaluation unit that evaluates the degree of similarity of each pose stored in the model image according to the degree of similarity between the person image to be synthesized and the model image evaluated by the degree-of-similarity evaluation unit. A costume image associated with the pose of the model image and stored by the pose-specific costume image storage means is acquired.

これによれば、撮影画像における合成対象の人物画像のポーズにまねて合成すべき、撮影位置(場所)または撮影時間(時期)に応じた種類の衣装画像を容易に取得できるだけでなく、類似度の評価対象に標準的モデルを用いることから合成対象の人物画像との高い類似(まね)度が得られやすく、より表現上違和感のない衣装画像を取得できることになる。   According to this, it is possible not only to easily acquire a type of costume image according to the shooting position (location) or shooting time (time) to be combined with the pose of the person image to be combined in the shot image, but also to obtain a similarity degree. Since a standard model is used for the evaluation object, it is easy to obtain a high degree of similarity (simulation) with the person image to be synthesized, and it is possible to acquire a costume image that is more comfortable in terms of expression.

本発明の請求項1に係る画像出力装置によれば、撮影画像の中の合成対象の人物画像に応じたポーズの衣装画像を取得して当該合成対象の人物画像と顔部分のみ残し合成して出力できるだけでなく、この撮影画像の撮影位置(場所)に応じた種類の衣装画像として前記合成対象の人物画像と合成することで、撮影画像上の人物画像をそのままのポーズで撮影位置(場所)に応じた衣装に着せ替えた合成画像として出力できるようになる。   According to the image output apparatus of the first aspect of the present invention, a costume image in a pose corresponding to the person image to be combined in the photographed image is acquired and combined with the person image to be combined and the face portion remaining. In addition to outputting, the person image on the photographed image is captured in the pose as it is by synthesizing it with the person image to be synthesized as a costume image of a type corresponding to the photographing position (place) of the photographed image. It becomes possible to output as a composite image dressed in a costume according to.

本発明の請求項2に係る画像出力装置によれば、撮影画像の中の合成対象の人物画像に応じたポーズの衣装画像を取得して当該合成対象の人物画像と顔部分のみ残し合成して出力できるだけでなく、この撮影画像の撮影時間(時期)に応じた種類の衣装画像として前記合成対象の人物画像と合成することで、撮影画像上の人物画像をそのままのポーズで撮影時間(時期)に応じた衣装に着せ替えた合成画像として出力できるようになる。   According to the image output apparatus of the second aspect of the present invention, a costume image in a pose corresponding to the person image to be combined in the photographed image is acquired and combined with the person image to be combined and the face portion remaining. In addition to outputting, the person image on the photographed image is captured in the pose as it is by synthesizing it with the person image to be synthesized as a costume image of a type corresponding to the photograph time (period) of the photographed image. It becomes possible to output as a composite image dressed in a costume according to.

本発明の請求項3に係る画像出力装置によれば、前記請求項1または請求項2に係る画像出力装置にあって、撮影に際して連続的にサンプリングされて取り込まれた一連の複数の撮影画像に基づき、その変化部分を合成対象の人物画像として容易に抽出できるようになる。   According to the image output device of the present invention, the image output device according to the first or second aspect of the present invention provides a series of a plurality of captured images that are continuously sampled and captured at the time of shooting. Based on this, the changed portion can be easily extracted as a person image to be synthesized.

本発明の請求項4に係る画像出力装置によれば、前記請求項1または請求項2に係る画像出力装置にあって、撮影された1枚の撮影画像の各画像部分の撮影距離に基づき、その手前画像部分を合成対象者の人物画像として容易に抽出できるようになる。   According to the image output device according to claim 4 of the present invention, in the image output device according to claim 1 or claim 2, based on the shooting distance of each image portion of one shot image, The front image portion can be easily extracted as a person image of the person to be synthesized.

本発明の請求項5に係る画像出力装置によれば、前記請求項1ないし請求項4の何れか1項に係る画像出力装置にあって、撮影画像における合成対象の人物画像のポーズにまねて合成すべき、撮影位置(場所)または撮影時間(時期)に応じた種類の衣装画像を容易に取得できるようになる。   According to an image output device of a fifth aspect of the present invention, in the image output device according to any one of the first to fourth aspects of the present invention, imitating a pose of a person image to be synthesized in a photographed image. It is possible to easily acquire the type of costume image corresponding to the shooting position (location) or shooting time (time) to be synthesized.

本発明の請求項6に係る画像出力装置によれば、前記請求項1ないし請求項4の何れか1項に係る画像出力装置にあって、撮影画像における合成対象の人物画像のポーズにまねて合成すべき、撮影位置(場所)または撮影時間(時期)に応じた種類の衣装画像を容易に取得できるだけでなく、類似度の評価対象に標準的モデルを用いることから合成対象の人物画像との高い類似(まね)度が得られやすく、より表現上違和感のない衣装画像を取得できるようになる。   According to an image output apparatus according to claim 6 of the present invention, in the image output apparatus according to any one of claims 1 to 4, imitating a pose of a person image to be synthesized in a captured image. Not only can you easily acquire the type of costume image according to the shooting position (location) or shooting time (time) to be combined, but also use a standard model for the evaluation of similarity, so It is easy to obtain a high degree of similarity (imitation), and it becomes possible to acquire a costume image that is more comfortable in terms of expression.

よって、本発明によれば、撮影画像に対して単に固定的な画像を合成するのではなく、場所や季節(時間)に応じて被写体画像に対応したポーズの衣装画像を合成して出力することが可能になる。   Therefore, according to the present invention, instead of simply synthesizing a fixed image with a photographed image, a costume image with a pose corresponding to the subject image is synthesized and output according to the location and season (time). Is possible.

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(第1実施形態)
図1は本発明の第1実施形態に係る画像出力装置10の電子回路の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an electronic circuit of the image output apparatus 10 according to the first embodiment of the present invention.

この画像出力装置10は、デジタルカメラ、デジタルカメラ付き携帯電話、デジタルカメラ付きPDA(personal digital assistants)などの携帯機器として構成されるもので、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。   The image output device 10 is configured as a portable device such as a digital camera, a mobile phone with a digital camera, or a PDA (personal digital assistants) with a digital camera. The image output device 10 is a program recorded on various recording media or transmitted. The electronic circuit is provided with a central processing unit (CPU) 11.

CPU11は、メモリ12内に予め記憶された装置制御プログラム、あるいはCD−ROMなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれた装置制御プログラム、あるいはインターネットN上のWebサーバ21(この場合はプログラムサーバ)から電送制御部15を介して前記メモリ12に読み込まれた装置制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶された装置制御プログラムは、キーやタッチパネルからなる入力部16からのユーザ操作に応じた入力信号、あるいは画像入力部17を介して入力される画像信号、あるいは位置情報検出部(GPS:Global Positioning System)18xを介して入力される現在位置情報、あるいは電送制御部15を介して接続されるインターネットN上の各Webサーバ21…との通信信号に応じて起動される。   The CPU 11 is a device control program stored in the memory 12 in advance, or a device control program read from the external recording medium 13 such as a CD-ROM into the memory 12 via the recording medium reading unit 14 or on the Internet N. The device stored in the memory 12 controls the operation of each part of the circuit in accordance with the device control program read into the memory 12 from the Web server 21 (in this case, the program server) via the power transmission control unit 15. The control program uses an input signal corresponding to a user operation from the input unit 16 including a key and a touch panel, an image signal input via the image input unit 17, or a position information detection unit (GPS: Global Positioning System) 18x. Current position information input via the interface, or an interface connected via the transmission control unit 15. It is activated in response to a communication signal with each Web server 21 on the network N.

前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、入力部16、画像入力部17、位置情報検出部18xが接続される他に、距離センサ18、LCDからなる表示部19、画像出力部20などが接続される。   The CPU 11 is connected to the memory 12, the recording medium reading unit 14, the electric transmission control unit 15, the input unit 16, the image input unit 17, and the position information detection unit 18 x, and a display unit including a distance sensor 18 and an LCD. 19, an image output unit 20 and the like are connected.

画像入力部17は、撮影画像データを入力するもので、この撮影画像データは、デジタルカメラ部17A、デジタルビデオムービー部17Bなどの画像撮影手段から選択的に取得される。なお、これらの画像撮影手段(17A)(17B)は、携帯機器である画像出力装置10の本体とは別体にして、接続ケーブルにより接続して使用したり、コネクタにより合体一体化して使用したりする構成としてもよい。   The image input unit 17 inputs captured image data, and the captured image data is selectively acquired from image capturing means such as a digital camera unit 17A and a digital video movie unit 17B. These image photographing means (17A) and (17B) are used separately from the main body of the image output apparatus 10 which is a portable device and connected by a connection cable, or combined and integrated by a connector. It is good also as a structure to do.

距離センサ18は、前記画像入力部17において入力される撮影画像の被写体までの距離を検出する。   The distance sensor 18 detects the distance to the subject of the captured image input by the image input unit 17.

画像出力部20は、前記画像入力部17から入力された撮影画像に基づき本装置により処理された画像データを出力するもので、この出力画像データは、メモリカード20A、VTR(録画装置)20B、画像印刷機20Cに選択的に出力され、当該画像の記憶,録画,印刷が行われる。   The image output unit 20 outputs image data processed by the present apparatus based on the captured image input from the image input unit 17, and the output image data includes a memory card 20A, a VTR (recording apparatus) 20B, The image is selectively output to the image printing machine 20C, and the image is stored, recorded, and printed.

メモリ12には、当該画像出力装置10の全体の動作を司るシステムプログラムや電送制御部15を介してインターネットN上の各Webサーバ21…とデータ通信するための通信プログラムが記憶される他に、画像入力部17や画像出力部20を介して撮影画像における合成(まね)対象画像(被写体人物像)に応じた対応衣装画像(例えば被写体人物像のポーズを真似た各種衣装画像)への置き換え(着せ替え)合成出力処理をその撮影場所(位置)や月日(時間)に関連付けて行うための画像出力処理プログラム12aなどが記憶される。   The memory 12 stores a system program that controls the overall operation of the image output apparatus 10 and a communication program for data communication with each Web server 21 on the Internet N via the transmission control unit 15. Replacement with the corresponding costume image (for example, various costume images imitating the pose of the subject person image) according to the synthesis target image (subject person image) in the photographed image via the image input unit 17 and the image output unit 20 ( An image output processing program 12a and the like for performing the dressing) composite output processing in association with the shooting location (position) and the date (time) are stored.

また、このメモリ12には、モデルポーズ画像メモリ12b、衣装1「時代劇」ポーズ画像メモリ12c、衣装2「ウエスタン」ポーズ画像メモリ12d、衣装3「中世ヨーロッパ」ポーズ画像メモリ12e…や衣装13「夏(6月〜9月)」ポーズ画像メモリ12f、衣装14「春秋(4,5,10,11月)」ポーズ画像メモリ12g、衣装15「冬(12月〜3月)」ポーズ画像メモリ12hなどが用意され、さらに撮影画像メモリ12i、合成(まね)対象画像位置メモリ12j、位置情報登録メモリ12k、現在年月日メモリ12l、そしてワークエリア12mなどが用意される。   The memory 12 also includes a model pose image memory 12b, a costume 1 “period drama” pose image memory 12c, a costume 2 “Western” pose image memory 12d, a costume 3 “medieval Europe” pose image memory 12e, and a costume 13 “ “Summer (June-September)” pose image memory 12f, Costume 14 “Spring and Fall (4, 5, 10, November)” pose image memory 12g, Costume 15 “Winter (December-March)” pose image memory 12h In addition, a captured image memory 12i, a composition target image position memory 12j, a position information registration memory 12k, a current date memory 12l, and a work area 12m are prepared.

図2は前記画像出力装置10の衣装1「時代劇」ポーズ画像メモリ12c:衣装2「ウエスタン」ポーズ画像メモリ12d…衣装13「夏(6月〜9月)」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各男性版の衣装画像12cM,12dM,12fMを示す図である。   2 shows the costume 1 “period drama” pose image memory 12 c of the image output device 10: the costume 2 “Western” pose image memory 12 d... The costume 13 “summer (June-September)” pose image memory 12 f. It is a figure which shows the costume image 12cM, 12dM, and 12fM of each male version corresponding to various poses.

図3は前記画像出力装置10の衣装1「時代劇」ポーズ画像メモリ12c:衣装2「ウエスタン」ポーズ画像メモリ12d…衣装13「夏(6月〜9月)」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各女性版の衣装画像12cW,12dW,12fWを示す図である。   FIG. 3 shows the costume 1 “period drama” pose image memory 12c: costume 2 “Western” pose image memory 12d... Costume 13 “summer (June to September)” pose image memory 12f of the image output device 10, respectively. It is a figure which shows the costume images 12cW, 12dW, and 12fW of each female version corresponding to various poses.

この衣装1「時代劇」,2「ウエスタン」,3「中世ヨーロッパ」の各ポーズ画像メモリ12c,12d,12e,…や衣装13「夏(6月〜9月)」,衣装14「春秋(4,5,10,11月)」,衣装15「冬(12月〜3月)」の各ポーズ画像メモリ12f,12g,12h,…に記憶された各衣装それぞれの各種のポーズ画像は、画像入力部17から入力された撮影画像上の被写体人物像(合成(まね)対象画像)のポーズを真似た衣装画像として選択的に使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶される。またこれらの各衣装それぞれのポーズ画像が撮影画像上の被写体人物像(合成(まね)対象画像)のポーズを真似た衣装画像として使用される際には、そのときの場所(位置)や季節(年月日時刻)に応じて指定される種類の衣装のポーズ画像が使用される。   Each costume image memory 12c, 12d, 12e, ... 13 costumes “Summer (June-September)”, costume 14 “Spring Autumn (4) , 5, 10 and November), costume 15 “winter (December to March)”, each pose image stored in each pose image memory 12f, 12g, 12h,. This is selectively used as a costume image that imitates the pose of the subject person image (image to be synthesized) on the photographed image input from the unit 17. Are stored in association with each other. In addition, when the pose image of each of these costumes is used as a costume image imitating the pose of the subject person image (image to be synthesized) on the photographed image, the location (position) and season ( The pose image of the type of costume specified according to the date is used.

図4は前記画像出力装置10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図である。   FIG. 4 is a view showing a model image corresponding to the model pose stored in the model pose image memory 12b of the image output apparatus 10. As shown in FIG.

このモデルポーズ画像メモリ12bに記憶された各種ポーズのモデル画像は、画像入力部17から入力された撮影画像上の被写体人物像(合成(まね)対象画像)のポーズに応じた類似のモデル画像を取得するために使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶され、さらに各ポーズNo.毎に3種のバリエーションA,B,Cのモデル画像が記憶される。   The model images of various poses stored in the model pose image memory 12b are similar model images corresponding to the pose of the subject person image (synthesize target image) on the photographed image input from the image input unit 17. This is used to acquire the pose No. for each different pose. Are stored in association with each other, and each pose No. is stored. Three types of model images of variations A, B, and C are stored every time.

そして、前記衣装1「時代劇」,2「ウエスタン」,3「中世ヨーロッパ」の各ポーズ画像メモリ12c,12d,12e,…や衣装13「夏(6月〜9月)」,14「春秋(4,5,10,11月)」,15「冬(12月〜3月)」の各ポーズ画像メモリ12f,12g,12h,…にそれぞれ記憶された各衣装画像には、前記モデルポーズ画像メモリ12bに記憶された全てのポーズNo.(No.1A,1B,1C、2A,2B,2C、〜、nA,nB,nC)に対応する同じポーズの衣装画像が用意されて記憶される。   Then, the pose image memories 12c, 12d, 12e,... And the costumes 13 “Summer (June-September)”, 14 “Spring Autumn ( 4, 5, 10, November) ”, 15“ winter (December to March) ”, each costume image stored in each pose image memory 12 f, 12 g, 12 h,. All pose Nos. Stored in 12b. Costume images of the same pose corresponding to (No. 1A, 1B, 1C, 2A, 2B, 2C,..., NA, nB, nC) are prepared and stored.

なお、前記各衣装のポーズ画像メモリ12c〜12hに記憶される各衣装画像は、髪型および首から下の全胴体部分を衣装画像とし、顔の部分のみ抜かされて透明画像とされ、撮影画像における合成(まね)対象画像への重ね合わせによる置き換え画像合成を行うことで、合成(まね)対象画像の顔部分のみ残して衣装を着せ替えた合成画像が作成される。   The costume images stored in the pose image memories 12c to 12h of the costumes are all the body parts below the hairstyle and neck, and the face part is removed to form a transparent image. By performing the replacement image composition by superimposing on the composition target image, a composite image in which only the face portion of the composition target image is changed and the costume is changed is created.

撮影画像メモリ12iには、画像入力部17を介して入力された撮影画像データおよびこれに基づき作成された合成画像データがその撮影画像単位1,2,…で記憶される。なお、この撮影画像メモリ12iに記憶される各撮影画像データには、当該撮影画像の撮影時直前(例えばシャッタ半押し中)にサンプリングされた複数枚の撮影準備画像が共に記憶されるか、または当該撮影画像のAF(auto focus)処理に伴い取得された画像領域各部における撮影距離データが共に記憶される。   The photographed image memory 12i stores photographed image data input via the image input unit 17 and composite image data created based on the photographed image data in units of photographed image units 1, 2,. In addition, each captured image data stored in the captured image memory 12i stores a plurality of captured preparation images sampled immediately before the captured image is captured (for example, when the shutter is half-pressed), or Shooting distance data in each part of the image area acquired along with AF (auto focus) processing of the shot image is stored together.

合成(まね)対象画像位置メモリ12jには、前記撮影画像メモリ12iに記憶された撮影画像1,2,…のそれぞれにおいて抽出された合成(まね)対象である各被写体人物像の位置情報が座標情報などにより各撮影画像単位1,2,…で記憶される。   In the compositing target image position memory 12j, the position information of each subject person image that is a compositing target extracted in each of the captured images 1, 2,... Stored in the captured image memory 12i is coordinated. It is stored in each photographed image unit 1, 2,.

位置情報登録メモリ12kには、前記各衣装1「時代劇」,2「ウエスタン」,3「中世ヨーロッパ」のポーズ画像12c,12d,12eを指定するためのテーマパークやイベント施設,アミューズメント施設である、例えば時代劇村,ウエスタン村,ユーロ村などの各衣装に応じた特定の場所(位置)の情報が、緯度・経度の情報として各場所(位置)単位1,2,…で登録される。   The location information registration memory 12k includes theme parks, event facilities, and amusement facilities for designating the pose images 12c, 12d, and 12e of the costumes 1 “period drama”, 2 “western”, and 3 “medieval Europe”. For example, information on a specific location (position) corresponding to each costume such as historical drama village, western village, euro village, etc. is registered in each location (position) unit 1, 2,.

現在年月日メモリ12lには、例えば前記CPU11から出力されるクロック信号に基づき計時される現在の年・月・日・時間(時刻)のデータが記憶される。   The current year / month / day memory 12l stores, for example, current year / month / day / time (time) data measured based on a clock signal output from the CPU 11.

ワークエリア12mには、前記画像出力処理プログラム12aに従い処理される画像データがその画像処理に応じて一時記憶される。   In the work area 12m, image data processed in accordance with the image output processing program 12a is temporarily stored according to the image processing.

このように構成された画像出力装置10について、その合成画像作成動作の概要を説明する。   An outline of the composite image creation operation of the image output apparatus 10 configured as described above will be described.

図5は前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影場所(時代劇村)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図である。   FIG. 5 is a diagram showing a replacement (dressing) composition state of a costume pose image corresponding to a photographing place (period play village) with respect to a person image to be synthesized (simulated) of the image output device 10.

図5(A)に示すように、例えば時代劇村において、入力部16におけるシャッタの半押し操作に伴い、画像入力部17から撮影画像12i1が取り込まれて表示部19に表示されると、この撮影表示中の撮影画像12i1の中から、図5(B)に示すように、合成(まね)対象としての被写体画像(人物画像)H1,H2,H3が抽出される。そして、位置情報検出部18xにより検出される現在の撮影位置(場所)が位置情報登録メモリ12kに登録された時代劇村であると判断されると、図5(C)に示すように、被写体画像(人物画像)H1,H2,H3それぞれのポーズに類似(真似)のポーズNo.19「しゃがむ」の男性版および女性版の時代劇衣装のポーズ画像12cM(19),12cW(19),12cM(19)が衣装1「時代劇」ポーズ画像メモリ12cから読み出される。すると、図5(D)に示すように、撮影画像12i1上の合成(まね)対象である各被写体画像(人物画像)H1,H2,H3それぞれの位置に、前記衣装1「時代劇」ポーズ画像メモリ(男性版/女性版)12cから読み出されたポーズNo.19「しゃがむ」の時代劇スタイルの各ポーズ画像12cM(19),12cW(19),12cM(19)が元の撮影画像12i1の顔部分のみ残し置き換え(着せ替え)られて合成される。   As shown in FIG. 5A, for example, in a historical village, when the photographed image 12i1 is captured from the image input unit 17 and displayed on the display unit 19 in response to a half-pressing operation of the shutter in the input unit 16, As shown in FIG. 5B, subject images (person images) H1, H2, and H3 are extracted from the photographed image 12i1 being photographed and displayed as shown in FIG. 5B. When it is determined that the current shooting position (location) detected by the position information detection unit 18x is a historical play village registered in the position information registration memory 12k, as shown in FIG. Similar (simulated) pose Nos. To the poses of the images (person images) H1, H2, and H3. The pose images 12cM (19), 12cW (19), and 12cM (19) of the 19th version “Squam” male version and female version of the period drama costume are read from the costume 1 “period drama” pose image memory 12c. Then, as shown in FIG. 5D, the costume 1 “period drama” pose image is placed on each of the subject images (person images) H1, H2, and H3 to be synthesized (simulated) on the photographed image 12i1. The pose No. read from the memory (male version / female version) 12c. Each pose image 12cM (19), 12cW (19), 12cM (19) in 19 drama style historical drama style is synthesized by replacing only the face portion of the original photographed image 12i1.

これにより、位置情報登録メモリ12kに登録された時代劇村で撮影した場合には、撮影画像12i1における各被写体(人物画像)H1,H2,H3のポーズの真似をした「時代劇」スタイルの衣装ポーズ画像12cM(19),12cW(19),12cM(19)が当該各被写体(人物画像)H1,H2,H3と顔部分のみ残して置き換え合成され、元の被写体画像H1,H2,H3のコスチュームを時代劇衣装に着せ替えて表示取得できるようになる。   As a result, when taking a picture in a historical drama village registered in the position information registration memory 12k, a “drama play” style costume imitating the pose of each subject (person image) H1, H2, H3 in the shot image 12i1. The pose images 12cM (19), 12cW (19), and 12cM (19) are replaced and combined with the respective subjects (person images) H1, H2, and H3, leaving only the face portions, and the costumes of the original subject images H1, H2, and H3 are combined. It becomes possible to get the display by changing into a period drama costume.

なお、撮影画像12i1から抽出された各被写体人物像H1,H2,H3それぞれの男性/女性の区別は、当該各被写体人物像H1,H2,H3の抽出表示画面上でユーザにより指定区別されて衣装1「時代劇」ポーズ画像メモリ(男性版:図2参照)12cから類似ポーズの男性衣装画像12cM(19)が読み出されるか、同衣装1「時代劇」ポーズ画像メモリ(女性版:図3参照)12cから類似ポーズの女性衣装画像12cW(19)が読み出される。また、各被写体人物像H1,H2,H3の抽出表示画面上でのユーザによる男性/女性の指定区別を行わない場合には、場所情報に対応した衣装1「時代劇」ポーズ画像メモリ(男性版/女性版)12cから類似度が高い方の男性または女性の衣装ポーズ画像12cM(19)または12cW(19)が読み出される。   The distinction between male / female in each subject person image H1, H2, H3 extracted from the photographed image 12i1 is specified and distinguished by the user on the extraction display screen of each subject person image H1, H2, H3. 1 “period drama” pose image memory (male version: see FIG. 2) 12cM (19) of a similar pose is read from 12c or the same costume 1 “period drama” pose image memory (female version: see FIG. 3) ) A female costume image 12cW (19) in a similar pose is read from 12c. Also, if the user does not distinguish between male / female on the extraction display screen of the subject person images H1, H2, H3, the costume 1 “period drama” pose image memory corresponding to the location information (male version) / Women version) The male or female costume pose image 12cM (19) or 12cW (19) having the higher similarity is read out from 12c.

図6は前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影場所(ウエスタン村)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図である。   FIG. 6 is a diagram showing a replacement (dressing) composition state of a costume pose image according to a photographing location (Western village) for a person image to be synthesized (simulated) of the photographed image of the image output device 10.

図6(A)に示すように、例えばウエスタン村において、入力部16におけるシャッタの半押し操作に伴い、画像入力部17から撮影画像12i2が取り込まれて表示部19に表示されると、この撮影表示中の撮影画像12i2の中から、図6(B)に示すように、合成(まね)対象としての被写体画像(人物画像)H1,H2,H3が抽出される。そして、位置情報検出部18xにより検出される現在の撮影位置(場所)が位置情報登録メモリ12kに登録されたウエスタン村であると判断されると、図6(C)に示すように、被写体画像(人物画像)H1,H2,H3それぞれのポーズに類似(真似)のポーズNo.4「歩く(横)反転」の男性版ウエスタンスタイルの衣装ポーズ画像12dM(4)R,ポーズNo.20「ばんざい」の男性版ウエスタンスタイルの衣装ポーズ画像12dM(20),ポーズNo.4「歩く(横)」の女性版ウエスタンスタイルの衣装ポーズ画像12dW(4)が衣装2「ウエスタン」ポーズ画像メモリ12dから読み出される。すると、図6(D)に示すように、撮影画像12i2上の合成(まね)対象である各被写体画像(人物画像)H1,H2,H3それぞれの位置に、前記衣装2「ウエスタン」ポーズ画像メモリ(男性版/女性版)12dから読み出されたポーズNo.4「歩く(横)反転」,No.20「ばんざい」,No.4「歩く(横)」のウエスタンスタイルの各ポーズ画像12dM(4)R,12dM(20),12dW(4)が撮影元画像12i1の顔部分のみ残し置き換え(着せ替え)られて合成される。   As shown in FIG. 6A, for example, in Western village, when the photographed image 12i2 is captured from the image input unit 17 and displayed on the display unit 19 in accordance with the half-pressing operation of the shutter in the input unit 16, this photographing is performed. As shown in FIG. 6B, subject images (person images) H1, H2, and H3 are extracted from the captured image 12i2 being displayed. When it is determined that the current shooting position (location) detected by the position information detection unit 18x is a western village registered in the position information registration memory 12k, as shown in FIG. (Portrait image) A pose No. similar to (similar to) each pose of H1, H2, and H3. 4 “Walking (horizontal) inversion” male version Western style costume pose image 12dM (4) R, pose no. 20 “Banzai” male version Western style costume pose image 12dM (20), pose no. 4 “Walking (horizontal)” female version Western style costume pose image 12dW (4) is read from the costume 2 “Western” pose image memory 12d. Then, as shown in FIG. 6D, the costume 2 “Western” pose image memory is located at each of the subject images (person images) H1, H2, and H3 on the photographed image 12i2. (Male version / Female version) Pose No. read from 12d 4 “Walking (horizontal) reversal”, no. 20 “Banzai”, no. 4 Western style pose images 12dM (4) R, 12dM (20), and 12dW (4) of “walking (horizontal)” are replaced and replaced with only the face portion of the photographic source image 12i1.

これにより、位置情報登録メモリ12kに登録されたウエスタン村で撮影した場合には、撮影画像12i2における各被写体(人物画像)H1,H2,H3のポーズの真似をした「ウエスタン」スタイルの衣装ポーズ画像12dM(4)R,12dM(20),12dW(4)が当該各被写体(人物画像)H1,H2,H3と顔部分のみ残して置き換え合成され、元の被写体画像H1,H2,H3のコスチュームをウエスタンの衣装に着せ替えて表示取得できるようになる。   As a result, when shooting in the Western village registered in the position information registration memory 12k, a “Western” style costume pose image that imitates the pose of each subject (person image) H1, H2, H3 in the captured image 12i2. 12dM (4) R, 12dM (20), and 12dW (4) are replaced and combined with the respective subjects (person images) H1, H2, and H3, leaving only the face portions, and the costumes of the original subject images H1, H2, and H3 are combined. You can get the display by changing into a Western costume.

なお、この場合も、各被写体人物像H1,H2,H3に対応する衣装2「ウエスタン」ポーズ画像(12d)についての男性版/女性版の区別は、前記衣装1「時代劇」の場合と同様にして行われる。以下、その他の場合についても同様にして行われる。   In this case as well, the distinction between the male version and female version of the costume 2 “Western” pose image (12d) corresponding to each subject person image H1, H2, H3 is the same as in the case of the costume 1 “period drama”. Is done. Hereinafter, it is performed in the same manner in other cases.

図7は前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影季節(年月日時刻)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図である。   FIG. 7 is a diagram showing a replacement (dressing) composition state of a costume pose image according to a photographing season (year / month / day / time) with respect to a person image to be synthesized (simulated) of the image output device 10.

図7(A)に示すように、入力部16におけるシャッタの半押し操作に伴い、画像入力部17から撮影画像12i3が取り込まれて表示部19に表示されると、この撮影表示中の撮影画像12i3の中から、図7(B)に示すように、合成(まね)対象としての被写体画像(人物画像)H1が抽出される。そして、現在年月日メモリ12lにより更新記憶される現在の年月が夏の8月であると判断されると、図7(C)に示すように、被写体画像(人物画像)H1のポーズに類似(真似)のポーズNo.1「はいチーズ(アップ)」の女性版の夏のポーズ画像12fW(1)が衣装13「夏」ポーズ画像メモリ12fから読み出される。すると、図7(D)に示すように、撮影画像12i3上の合成(まね)対象である被写体画像(人物画像)H1の位置に、前記衣装13「夏」ポーズ画像メモリ(女性版)12fから読み出されたポーズNo.1「はいチーズ(アップ)」の夏水着スタイルのポーズ画像12fW(1)が撮影元画像12i3の顔部分のみ残し置き換え(着せ替え)られて合成される。   As shown in FIG. 7A, when the photographed image 12i3 is captured from the image input unit 17 and displayed on the display unit 19 in accordance with the half-pressing operation of the shutter in the input unit 16, the photographed image being photographed and displayed is displayed. From 12i3, as shown in FIG. 7B, a subject image (person image) H1 as a synthesis target is extracted. When it is determined that the current date updated and stored in the current date memory 12l is August in summer, as shown in FIG. 7C, the subject image (person image) H1 is put into a pose. Similar (imitation) pose No. The summer pose image 12fW (1) of the female version of 1 “yes cheese (up)” is read from the costume 13 “summer” pose image memory 12f. Then, as shown in FIG. 7D, from the costume 13 “summer” pose image memory (female version) 12f at the position of the subject image (person image) H1 to be synthesized (simulated) on the photographed image 12i3. The read pose No. A summer swimsuit-style pose image 12fW (1) of 1 “yes cheese (up)” is replaced and replaced with the face image of the original image 12i3.

これにより、夏季の8月に撮影した場合には、撮影画像12i3における被写体(人物画像)H1のポーズの真似をした「夏水着」スタイルの衣装ポーズ画像12fW(1)が当該被写体(人物画像)H1と顔部分のみ残して置き換え合成され、元の被写体画像H1のコスチュームを夏衣装に着せ替えて表示取得できるようになる。   As a result, when the image is taken in August in summer, the “summer swimsuit” style costume pose image 12fW (1) simulating the pose of the subject (person image) H1 in the photographed image 12i3 is the subject (person image). Only H1 and the face part are left and replaced, and the costume of the original subject image H1 can be changed into a summer costume and displayed and acquired.

すなわち、各撮影画像12inについて、合成(まね)対象の被写体人物像Hnが抽出されると、撮影場所(位置)や撮影季節に応じた種類の衣装で被写体画像Hnのポーズの真似をした衣装ポーズ画像が、当該被写体画像Hnとその顔部分のみ残して置き換え合成されるようになり、撮影の被写体となる人物がその撮影場所や撮影時期に応じた衣装を着ていなくても、その場所や季節に応じたコスチュームに着替えた被写体画像を撮影取得できるようになる。   That is, for each photographed image 12in, when a subject person image Hn to be synthesized (simulated) is extracted, a costume pose imitating the pose of the subject image Hn with a kind of costume according to the photographing location (position) and the photographing season. The image is replaced and synthesized by leaving only the subject image Hn and the face portion thereof, and even if the person who is the subject of photography does not wear a costume according to the photographing location and photographing time, the location and season It is possible to capture and acquire a subject image changed to a costume corresponding to the.

次に、前記構成による画像出力装置10による詳細な画像処理動作について説明する。   Next, a detailed image processing operation by the image output apparatus 10 having the above configuration will be described.

ここでは、画像出力装置10をデジタルカメラとして実施した場合について説明する。   Here, a case where the image output apparatus 10 is implemented as a digital camera will be described.

図8は前記画像出力装置であるデジタルカメラ10とそのクレードル15xの外観構成を示す図である。   FIG. 8 is a diagram showing an external configuration of the digital camera 10 as the image output device and its cradle 15x.

デジタルカメラ10の入力部16としては、メニュー画面を表示させるための「MENU」キー16a、撮影モード(REC)と再生モード(PLAY)とを切り替えるための切り替えキー16b、撮影画像の取り込みおよび記録を指示するためのシャッタキー16c、表示画面(19)上でのデータ選択やカーソル移動及び選択データ決定などの操作を行うための上下左右に指1本で操作可能な選択/決定キー16dが備えられる。   The input unit 16 of the digital camera 10 includes a “MENU” key 16a for displaying a menu screen, a switching key 16b for switching between a shooting mode (REC) and a playback mode (PLAY), and capturing and recording of a shot image. There are provided a shutter key 16c for instructing and a selection / decision key 16d operable with one finger up, down, left and right for operations such as data selection on the display screen (19), cursor movement and selection data determination. .

また、デジタルカメラ10は、当該カメラ10の充電台やユーザPC(personal computer)との通信インターフェイスとなるクレードル15xに対して容易に着脱可能である。このクレードル15xへのデジタルカメラ10の装着状態において、「PHOTO」ボタン15aが押された場合には、撮影画像メモリ12iに保存されている各撮影画像12inやその合成画像12inmの表示部19に対する読み出し表示(フォトスタンド機能)が行われる。   The digital camera 10 can be easily attached to and detached from a cradle 15x serving as a communication interface with a charging base of the camera 10 and a user PC (personal computer). When the “PHOTO” button 15a is pressed while the digital camera 10 is mounted on the cradle 15x, each captured image 12in stored in the captured image memory 12i and its composite image 12inm are read out from the display unit 19. Display (photo stand function) is performed.

なお、「USB」ボタン15bが押された場合には、撮影画像メモリ12iに保存されている各撮影画像12inやその合成画像12inmのユーザPCへの転送出力が行われる。   When the “USB” button 15b is pressed, each photographic image 12in stored in the photographic image memory 12i and its composite image 12inm are transferred and output to the user PC.

なお、シャッタキー16cは、半押し/全押しの2段階で撮影画像の取り込みを指示するキーであり、半押し状態では、画像入力部17から一定サンプリング間隔で入力された撮影画像12inはAE(auto exposure),AF(auto focus)など調整されて画像処理ワークエリア12mに繰り返し書き込まれて表示部19に表示され、全押し状態にして撮影画像メモリ12iへの登録が行われる。   The shutter key 16c is a key for instructing capture of a captured image in two steps of half-press and full-press. In the half-press state, the captured image 12in input from the image input unit 17 at a constant sampling interval is AE ( Auto exposure), AF (auto focus), and the like are adjusted and repeatedly written in the image processing work area 12m, displayed on the display unit 19, and registered in the photographed image memory 12i in the fully depressed state.

図9は前記画像出力装置10の画像合成処理を示すフローチャートである。   FIG. 9 is a flowchart showing image composition processing of the image output apparatus 10.

画像の撮影を行うに際して、入力部16のシャッタキー16cを半押し操作すると、画像入力部17からの撮影画像12inの入力が開始され、画像処理ワークエリア12mに書き込まれて表示部19にリアルタイム表示される(ステップS1)。   When shooting an image, if the shutter key 16c of the input unit 16 is pressed halfway, the input of the captured image 12in from the image input unit 17 is started, written in the image processing work area 12m, and displayed on the display unit 19 in real time. (Step S1).

そして、位置情報検出部18xにより現在の撮影位置(場所)が検知され(ステップS2)、位置情報登録メモリ12kに登録されている特定の場所の位置情報と一致するか否か、つまり、現在の撮影場所(位置)が例えば時代劇村やウエスタン村などの特定の場所であるか否か判断される(ステップS3)。   Then, the current shooting position (location) is detected by the position information detection unit 18x (step S2), and whether or not it matches the position information of the specific location registered in the position information registration memory 12k, that is, the current It is determined whether or not the shooting location (position) is a specific location such as a historical village or a Western village (step S3).

ここで、現在の撮影場所(位置)が位置情報登録メモリ12kに登録されている特定の場所の何れかと一致したと判断された場合には、当該現在の位置情報に対応した衣装画像の種類、つまり撮影場所が例えば時代劇村である場合には、衣装1「時代劇」ポーズ画像(12c)が合成すべき衣装画像の種類として設定され、また撮影場所が例えばウエスタン村である場合には、衣装2「ウエスタン」ポーズ画像(12d)が合成すべき衣装画像の種類として設定される(ステップS3→S4)。   Here, if it is determined that the current shooting location (position) matches any of the specific locations registered in the location information registration memory 12k, the type of costume image corresponding to the current location information, That is, if the shooting location is, for example, a historical drama village, the costume 1 “period drama” pose image (12c) is set as the type of costume image to be synthesized, and if the shooting location is, for example, a Western village, The costume 2 “Western” pose image (12d) is set as the type of costume image to be synthesized (steps S3 → S4).

そして、図10における合成(まね)対象画像の抽出処理に移行される(ステップSA)。   Then, the process proceeds to extraction processing of the synthesis (simulation) target image in FIG. 10 (step SA).

一方、現在の撮影場所(位置)が位置情報登録メモリ12kに登録されている特定の場所の何れとも一致しないと判断された場合には、現在年月日メモリ12lにおいて更新記憶される現在の年月日時刻情報から当月が何月か検知される(ステップS3→S5)。   On the other hand, if it is determined that the current shooting location (position) does not match any of the specific locations registered in the location information registration memory 12k, the current year updated and stored in the current date memory 12l. The month is detected from the date / time information (step S3 → S5).

すると、現在の月に対応した衣装画像の種類、つまり当月が例えば真夏の8月である場合には、衣装13「夏(6月〜9月)」ポーズ画像(12f)が合成すべき衣装画像の種類として設定され、また当月が例えば春の5月である場合には、衣装14「春秋(4,5,10,11月)」ポーズ画像(12d)が合成すべき衣装画像の種類として設定される(ステップS6)。   Then, if the type of costume image corresponding to the current month, that is, the current month is, for example, August in midsummer, the costume image to be synthesized with the costume 13 “Summer (June to September)” pose image (12f). If the current month is, for example, May in spring, the costume 14 “Spring Autumn (4, 5, 10 and November)” pose image (12d) is set as the type of costume image to be synthesized. (Step S6).

そして、図10における合成(まね)対象画像の抽出処理に移行される(ステップSA)。   Then, the process proceeds to extraction processing of the synthesis (simulation) target image in FIG. 10 (step SA).

図10は前記画像出力装置10の画像合成処理に伴い合成(まね)対象の人物画像を抽出する対象画像抽出処理を示すフローチャートであり、同図(A)はその対象画像抽出処理(方式1)を示すフローチャート、同図(B)はその対象画像抽出処理(方式2)を示すフローチャートである。   FIG. 10 is a flowchart showing a target image extraction process for extracting a person image to be synthesized in accordance with the image synthesis process of the image output apparatus 10, and FIG. 10A shows the target image extraction process (method 1). FIG. 5B is a flowchart showing the target image extraction process (method 2).

図10(A)における対象画像抽出処理(方式1)では、前記画像入力部17を介して所定のタイミングで順次入力される一連の撮影画像12inm…が撮影画像メモリ12iに対し記憶される(ステップA11)。   In the target image extraction process (method 1) in FIG. 10A, a series of photographed images 12inm... Sequentially input at a predetermined timing via the image input unit 17 is stored in the photographed image memory 12i (step S1). A11).

すると、この撮影画像メモリ12iに記憶された一連の撮影画像12inm…のそれぞれから被写体の動きに伴う画像の変化部分が当該各被写体のブロック毎に抽出され(ステップA12)、これにより抽出された各被写体画像Hnがそのブロック毎に画像処理ワークエリア12mに保存される(ステップA13)。   Then, from each of the series of photographed images 12 inm... Stored in the photographed image memory 12 i, the changed portion of the image accompanying the movement of the subject is extracted for each block of the subject (step A 12), and each of the extracted parts is thereby extracted. The subject image Hn is stored in the image processing work area 12m for each block (step A13).

図10(B)における対象画像抽出処理(方式2)では、前記画像入力部17を介して入力される撮影画像12inmの各部分毎に距離センサ18による距離測定が行われ(ステップA21)、背景画像と被写体画像との距離差に基づき近距離側として判別される各被写体画像Hnがそのブロック毎に抽出される(ステップA22)。   In the target image extraction process (method 2) in FIG. 10B, distance measurement is performed by the distance sensor 18 for each part of the captured image 12inm input via the image input unit 17 (step A21), and the background Each subject image Hn, which is discriminated as a short distance side based on the distance difference between the image and the subject image, is extracted for each block (step A22).

これにより抽出された各被写体画像Hnがそのブロック毎に画像処理ワークエリア12mに保存される(ステップA23)。   Each subject image Hn thus extracted is stored in the image processing work area 12m for each block (step A23).

こうして、撮影画像12inmから当該撮影画像12inmに含まれる各被写体画像Hnがそのブロック毎に抽出されて画像処理ワークエリア12mに保存されると(ステップSA)、例えば図5(A)または図6(A)または図7(A)で示すように、抽出された各被写体人物画像Hnのそれぞれに囲みマークMが付加された撮影画像12inが表示部19に表示されると共に、撮影画像12in上での各被写体人物画像Hnの位置情報が合成(まね)対象画像位置メモリ12jに記憶される。   Thus, when each subject image Hn included in the photographed image 12inm is extracted for each block from the photographed image 12inm and stored in the image processing work area 12m (step SA), for example, FIG. 5A or FIG. As shown in FIG. 7A or FIG. 7A, a photographed image 12in in which a surrounding mark M is added to each of the extracted subject person images Hn is displayed on the display unit 19 and is displayed on the photographed image 12in. The position information of each subject person image Hn is stored in the synthesis target image position memory 12j.

前記撮影画像12inの中から合成(まね)対象の被写体人物画像Hnが抽出設定されると、図11における対応衣装画像取得処理に移行される(ステップSB)。   When the subject person image Hn to be synthesized (simulated) is extracted and set from the photographed image 12in, the process proceeds to the corresponding costume image acquisition process in FIG. 11 (step SB).

図11は前記画像出力装置10の画像合成処理に伴う対応衣装画像取得処理を示すフローチャートであり、同図(A)はその対応衣装画像取得処理(方式1)を示すフローチャート、同図(B)はその対応衣装画像取得処理(方式2)を示すフローチャートである。   FIG. 11 is a flowchart showing a corresponding costume image acquisition process associated with the image composition process of the image output apparatus 10, and FIG. 11A is a flowchart showing the corresponding costume image acquisition process (method 1), and FIG. Is a flowchart showing the corresponding costume image acquisition processing (method 2).

図11(A)における対応衣装画像取得処理(方式1)では、まず、前記撮影画像12inから抽出されて合成(まね)対象画像として設定された被写体人物画像Hnと撮影位置(場所)または撮影月(年月日時刻)に応じて設定された種類の衣装の各ポーズ画像との類似度が評価され(ステップB1C)、最も類似度の高いポーズの衣装ポーズ画像が現在の撮影画像12inが表示されている表示部19に対し例えばウインドウ画面にして表示される(ステップB12)。   In the corresponding costume image acquisition process (method 1) in FIG. 11A, first, the subject person image Hn extracted from the photographed image 12in and set as a synthesis target image and the photographing position (location) or photographing month. The degree of similarity between each pose image of the type of costume set according to (year / month / day / time) is evaluated (step B1C), and the currently photographed image 12in is displayed as the costume pose image having the highest similarity. For example, a window screen is displayed on the display unit 19 (step B12).

ここで、入力部16に対するユーザ操作に応じて前記表示部19に表示された合成(まね)対象画像に最も類似度の高いポーズの衣装ポーズ画像が選択されると、この選択されたポーズNo.の衣装画像が合成(まね)対象人物画像Hnに対応するポーズの衣装画像として登録される(ステップB13→B14)。   Here, when a costume pose image having the highest similarity to the synthesis target image displayed on the display unit 19 in response to a user operation on the input unit 16 is selected, the selected pose No. is selected. Of costume images are registered as costume images of poses corresponding to the synthesis target person image Hn (step B13 → B14).

一方、前記表示部19に合成(まね)対象人物画像Hnに最も類似度の高いポーズの衣装ポーズ画像が表示された状態で、入力部16に対するユーザ操作に応じて「次表示」が指示されると、当該「次表示」の操作毎に次に類似度の高いポーズの衣装ポーズ画像が順番に表示される(ステップB13→B15)。   On the other hand, “next display” is instructed in response to a user operation on the input unit 16 in a state where a costume pose image having a pose with the highest degree of similarity is displayed on the display unit 19 as a synthesis target person image Hn. Then, for each “next display” operation, the costume pose image having the next highest similarity is displayed in order (step B13 → B15).

そして、所望の類似度のポーズの衣装ポーズ画像が選択表示され、入力部16に対するユーザ操作に応じて当該表示された衣装ポーズ画像が選択されると、この選択されたポーズNo.の衣装画像が合成(まね)対象人物画像Hnに対応するポーズの衣装画像として登録される(ステップB13→B14)。   Then, a costume pose image having a desired similarity pose is selected and displayed. When the displayed costume pose image is selected in response to a user operation on the input unit 16, the selected pose No. Of costume images are registered as costume images of poses corresponding to the synthesis target person image Hn (step B13 → B14).

このように、対応衣装画像取得処理(方式1)では、撮影画像12inから抽出設定された合成(まね)対象画像としての被写体人物画像Hnに対し、撮影位置(場所)または撮影月(年月日時刻)に応じて設定された種類の衣装の各ポーズ画像との類似度が直接評価され、これに基づき被写体人物画像Hnのポーズを真似て置き換え(着せ替え)られる衣装ポーズ画像が決定される。   In this way, in the corresponding costume image acquisition process (method 1), the shooting position (location) or shooting month (year / month / day) is applied to the subject person image Hn as the synthesis target image extracted and set from the shot image 12in. The degree of similarity of each type of costume set according to the time) is directly evaluated, and based on this, the costume pose image to be replaced (changed) by imitating the pose of the subject person image Hn is determined.

図11(B)における対応衣装画像取得処理(方式2)では、まず、前記撮影画像12inから抽出されて合成(まね)対象画像として設定された被写体人物画像Hnとモデルポーズ画像メモリ12bに記憶されている各ポーズのモデル画像との類似度が評価され(ステップB2C)、最も類似度の高いポーズのモデル画像のポーズNo.に対応する、撮影場所または撮影月に応じた設定種類の衣装画像が現在の撮影画像12inが表示されている表示部19に対し例えばウインドウ画面にして表示される(ステップB22)。   In the corresponding costume image acquisition process (method 2) in FIG. 11B, first, the subject person image Hn extracted from the photographed image 12in and set as a synthesis target image and stored in the model pose image memory 12b. The degree of similarity of each pose with the model image is evaluated (step B2C), and the pose No. of the model image of the pose with the highest degree of similarity is evaluated. A set-type clothing image corresponding to the shooting location or shooting month is displayed on the display unit 19 on which the current shot image 12in is displayed, for example, as a window screen (step B22).

ここで、入力部16に対するユーザ操作に応じて前記表示部19に表示された真似対象人物画像Hnに最も類似度の高いモデルポーズに対応する衣装ポーズ画像が選択されると、この選択されたポーズNo.の衣装ポーズ画像が合成(まね)対象人物画像Hnに対応するポーズの衣装画像として登録される(ステップB23→B24)。   Here, when a costume pose image corresponding to the model pose having the highest similarity is selected in the imitation target person image Hn displayed on the display unit 19 in response to a user operation on the input unit 16, the selected pose is selected. No. Costume pose images are registered as costume images of poses corresponding to the synthesis target person image Hn (steps B23 → B24).

一方、前記表示部19に真似対象人物画像Hnに最も類似度の高いポーズのモデル画像のポーズNo.に対応する、撮影場所または撮影月に応じた設定種類の衣装画像が表示された状態で、入力部16に対するユーザ操作に応じて「次表示」が指示されると、当該「次表示」の操作毎に次に類似度の高いモデル画像のポーズNo.に対応する設定種類の衣装画像が順番に表示される(ステップB23→B25)。   On the other hand, the pose No. of the model image of the pose having the highest similarity to the target human image Hn is displayed on the display unit 19. When a “next display” is instructed in response to a user operation on the input unit 16 in a state where a set-type costume image corresponding to the shooting location or shooting month is displayed, the operation of the “next display” is performed. The pose No. of the model image with the next highest similarity for each time. Are displayed in order (step B23 → B25).

そして、所望の類似度のモデルポーズに対応する設定種類の衣装画像が選択表示され、入力部16に対するユーザ操作に応じて当該表示された衣装ポーズ画像が選択されると、この選択されたポーズNo.の衣装ポーズ画像が合成(まね)対象人物画像Hnに対応するポーズの衣装画像として登録される(ステップB23→B24)。   Then, a set-type costume image corresponding to a model pose having a desired similarity is selected and displayed, and when the displayed costume pose image is selected in response to a user operation on the input unit 16, the selected pose No. . Costume pose images are registered as costume images of poses corresponding to the synthesis target person image Hn (steps B23 → B24).

このように、対応衣装画像取得処理(方式2)では、撮影画像12inから抽出設定された真似対象画像としての被写体人物画像Hnに対し、人物の基本モデルである各ポーズ毎のモデル画像との類似度が評価され、これに基づき被写体人物画像Hnのポーズを真似て置き換え(着せ替え)られる衣装ポーズ画像が決定される。   As described above, in the corresponding costume image acquisition process (method 2), the subject person image Hn as the imitation target image extracted and set from the captured image 12in is similar to the model image for each pose that is a basic model of the person. The degree is evaluated, and based on this, a costume pose image to be replaced (changed) by imitating the pose of the subject person image Hn is determined.

この場合、真似対象画像としての被写体人物画像Hnに対し、撮影場所または撮影月に応じた設定種類の衣装の各ポーズ画像との類似度を直接評価して置き換え(着せ替え)の衣装画像を決定するようにした対応衣装画像取得処理(方式1)に比較して、各ポーズ毎のモデル画像との類似度を評価し選択されたモデルポーズNo.から置き換え(着せ替え)の衣装画像を決定するようにした対応衣装画像取得処理(方式2)の方が、類似度の評価対象に装飾のないシンプルな人物モデルを用いることから被写体人物画像Hnとの高い類似度が得られやすく、より類似性(真似度)の高いポーズの衣装画像を取得できる利点がある。   In this case, for the subject person image Hn as the imitation target image, the costume image for replacement (dressing) is determined by directly evaluating the degree of similarity with each pose image of the set type according to the shooting location or shooting month. Compared with the corresponding costume image acquisition processing (method 1), the degree of similarity with the model image for each pose is evaluated, and the selected model pose No. Since the corresponding costume image acquisition process (method 2) in which the costume image to be replaced (changed) is determined from a simple person model without decoration as the evaluation target of the similarity, the subject person image Hn It is easy to obtain a high degree of similarity, and there is an advantage that a costume image of a pose with higher similarity (similarity) can be acquired.

図12は前記画像出力装置10の画像合成処理に伴う対応衣装画像取得処理(方式1)(方式2)での真似対象人物画像との類似度評価処理を示すフローチャートである。   FIG. 12 is a flowchart showing similarity evaluation processing with the person image to be imitated in the corresponding costume image acquisition processing (method 1) (method 2) accompanying the image composition processing of the image output apparatus 10.

対応衣装画像取得処理(方式1)での類似度評価処理の場合は設定種類の衣装の各ポーズ画像との類似度を評価し、対応衣装画像取得処理(方式2)での類似度評価処理の場合は各ポーズ毎のモデル画像との類似度を評価する。   In the case of the similarity evaluation process in the corresponding costume image acquisition process (method 1), the similarity with the pose image of the set type of costume is evaluated, and the similarity evaluation process in the corresponding costume image acquisition process (method 2) In this case, the similarity with the model image for each pose is evaluated.

図13は前記画像出力装置10の対応衣装画像取得処理(方式1)での類似度評価処理に伴う設定種類の衣装ポーズ画像との類似度評価例を示す図である。   FIG. 13 is a diagram illustrating an example of similarity evaluation with a set-type costume pose image associated with the similarity evaluation process in the corresponding costume image acquisition process (method 1) of the image output apparatus 10.

図14は前記画像出力装置10の対応衣装画像取得処理(方式2)での類似度評価処理に伴うモデル画像との類似度評価例を示す図である。   FIG. 14 is a diagram showing an example of similarity evaluation with a model image accompanying the similarity evaluation process in the corresponding costume image acquisition process (method 2) of the image output apparatus 10.

まず、類似度評価処理(方式1)の場合、例えば図13(A)に示すように、設定種類の衣装(例えば衣装13「夏(6月〜9月)」12f)における先頭のポーズNo.の衣装画像12fW(1)が読み出され(ステップC1)、同図(X)で示す真似対象人物画像H1との縦・横のサイズが合わされる(ステップC2)。   First, in the case of similarity evaluation processing (method 1), for example, as shown in FIG. 13A, the first pose No. in the set type of costume (for example, costume 13 “Summer (June-September)” 12f). Costume image 12fW (1) is read out (step C1), and the vertical and horizontal sizes of the imitation target person image H1 shown in FIG.

すると、前記真似対象画像H1と縦横サイズの合わされた夏衣装ポーズ画像12fW(1)との重ね合わせ評価が行われ、その評価値(%)が算出されて当該夏衣装ポーズ画像12fW(1)との類似度として記憶される(ステップC3)。   Then, a superimposition evaluation of the imitation target image H1 and the summer costume pose image 12fW (1) in which the vertical and horizontal sizes are combined is performed, and the evaluation value (%) is calculated and the summer costume pose image 12fW (1) is calculated. (Step C3).

ここで、今回の類似度評価対象のポーズNo.の衣装ポーズ画像12fW(1)が左右非対称の画像であるか否か判断され(ステップC4)、当該ポーズの衣装画像が左右非対称の画像ではないと判断された場合には(ステップC4「No」)、順次、次のポーズNo.の夏衣装画像12fW(2)…との間でサイズ合わせ処理と重ね合わせ評価値の算出処理とによる類似度の算出,記憶処理が繰り返される(ステップC8→C9→C2〜C4)。   Here, the pose No. of the similarity evaluation target this time. It is determined whether or not the costume pose image 12fW (1) is a left-right asymmetric image (step C4). If it is determined that the costume image in the pose is not a left-right asymmetric image (step C4 “No”). ), The next pose No. The similarity calculation and storage processing by the size matching processing and the overlay evaluation value calculation processing are repeated with the summer costume image 12fW (2)... (Step C8 → C9 → C2 to C4).

一方、例えば図13(B)に示すように、今回の類似度評価対象のポーズNo.の夏衣装画像が左右非対称の撮影者画像(例えば「さよなら」12fW(11))であると判断された場合には、例えば図13(C)に示すように、当該ポーズの衣装画像(12fW(11))が左右反転され(ステップC4→C5)、この反転された衣装画像(12fW(11)R)について真似対象画像との縦・横のサイズが合わされる(ステップC6)。   On the other hand, for example, as shown in FIG. If it is determined that the summer costume image is a left-right asymmetric photographer image (for example, “Goodbye” 12 fW (11)), for example, as shown in FIG. 13C, the costume image (12 fW ( 11)) is reversed left and right (step C4 → C5), and the vertical and horizontal sizes of the reversed costume image (12fW (11) R) and the imitation target image are matched (step C6).

すると、前記真似対象画像と縦横サイズの合わされた反転衣装画像との重ね合わせ評価が行われ、その評価値(%)が算出されて当該反転夏衣装ポーズ画像との類似度として記憶される(ステップC7)。   Then, the overlay evaluation of the imitation target image and the inverted costume image in which the vertical and horizontal sizes are combined is performed, and the evaluation value (%) is calculated and stored as the similarity with the inverted summer costume pose image (step) C7).

この後、設定種類の衣装における次のポーズNo.の衣装画像(例えば12fW(n))がある場合には(ステップC8)、当該次のポーズNo.の衣装画像(12fW(n))が順次読み出され(ステップC9)、前記同様に真似対象人物画像Hnと設定種類の各ポーズ毎の衣装画像(12fW(n))との類似度評価処理が繰り返される(ステップC2〜C7)。   After this, the next pose No. in the set-type costume is displayed. If there is a costume image (for example, 12 fW (n)) (step C8), the next pose No. The costume images (12fW (n)) are sequentially read out (step C9), and the similarity evaluation process between the person image Hn to be imitated and the costume image (12fW (n)) for each set pose is performed as described above. Repeated (steps C2 to C7).

これにより、例えば図13で示したように、合成(まね)対象の被写体人物画像H1に対して「夏」の衣装画像12fW(n)…との類似度評価を行った場合には、ポーズNo.1に対応する夏衣装画像12fW(1)が最も類似度の高い衣装ポーズ画像として評価される。   Thus, for example, as shown in FIG. 13, when the similarity evaluation with the “summer” costume image 12fW (n)... . The summer costume image 12fW (1) corresponding to 1 is evaluated as the costume pose image with the highest similarity.

次に、類似度評価処理(方式2)の場合、例えば図14(A)に示すように、先頭のポーズNo.のモデル画像12b(1A)が読み出され(ステップC1)、同図(X)で示す真似対象人物画像H1との縦・横のサイズが合わされる(ステップC2)。   Next, in the similarity evaluation process (method 2), for example, as shown in FIG. Model image 12b (1A) is read out (step C1), and the vertical and horizontal sizes of the imitation target person image H1 shown in FIG.

すると、前記真似対象人物画像H1と縦横サイズの合わされたモデル画像12b(1A)との重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズのモデル画像12b(1A)との類似度として記憶される(ステップC3)。   Then, the overlay evaluation of the imitation target person image H1 and the model image 12b (1A) in which the vertical and horizontal sizes are combined is performed, and the evaluation value (%) is calculated to obtain the model image 12b (1A) of the pose. The similarity is stored (step C3).

ここで、今回の類似度評価対象のポーズNo.のモデル画像が左右非対称の画像であるか否か判断され(ステップC4)、例えば図14(A)で示すように、当該ポーズのモデル画像12b(1A)が左右非対称の画像ではないと判断された場合には(ステップC4「No」)、次のポーズNo.のモデル画像が読み出され(ステップC8→C9)、前記同様に真似対象人物画像H1と次のポーズのモデル画像との類似度評価処理が繰り返される(ステップC2〜C4)。   Here, the pose No. of the similarity evaluation target this time. It is determined whether or not the model image is a left-right asymmetric image (step C4). For example, as shown in FIG. 14A, it is determined that the model image 12b (1A) of the pose is not a left-right asymmetric image. If it is (step C4 “No”), the next pose No. Model image is read out (steps C8 → C9), and similarly, the similarity evaluation process between the imitation target person image H1 and the model image of the next pose is repeated (steps C2 to C4).

一方、例えば図14(B)で示すように、今回の類似度評価対象のポーズNo.1Bのモデル画像12b(1B)が左右非対称のモデル画像であると判断された場合には、当該ポーズ1Bのモデル画像12b(1B)が左右反転され(ステップC4→C5)、図14(C)で示すように、この反転されたモデル画像12b(1B)Rについて真似対象人物画像H1との縦・横のサイズが合わされる(ステップC6)。   On the other hand, for example, as shown in FIG. When it is determined that the 1B model image 12b (1B) is a left-right asymmetric model image, the model image 12b (1B) of the pose 1B is reversed left and right (step C4 → C5), and FIG. As shown in FIG. 6, the vertical and horizontal sizes of the inverted model image 12b (1B) R and the imitation target person image H1 are matched (step C6).

すると、前記真似対象人物画像H1と縦横サイズの合わされた反転モデル画像12b(1B)Rとの重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズの反転モデル画像12b(1B)Rとの類似度として記憶される(ステップC7)。   Then, the overlay evaluation of the imitation target person image H1 and the inverted model image 12b (1B) R in which the vertical and horizontal sizes are combined is performed, and the evaluation value (%) is calculated and the inverted model image 12b (1B) of the pose is calculated. ) Stored as the similarity to R (step C7).

この後、次のポーズNo.のモデル画像12b(n)がある場合には(ステップC8)、当該次のポーズNo.のモデル画像12b(n)が順次読み出され(ステップC9)、前記同様に真似対象人物画像Hnと各ポーズ毎のモデル画像12b(n)との類似度評価処理が繰り返される(ステップC2〜C7)。   After this, the next pose No. If there is a model image 12b (n) (step C8), the next pose No. Model images 12b (n) are sequentially read (step C9), and similarly, the similarity evaluation process between the imitation target person image Hn and the model image 12b (n) for each pose is repeated (steps C2 to C7). ).

これにより、例えば図14で示したように、合成(まね)対象の被写体人物画像H1に対してモデル画像12b(n)との類似度評価を行った場合には、ポーズNo.1Aに対応するモデル画像12b(1A)が最も類似度の高いポーズのモデル画像として評価される。   As a result, for example, as shown in FIG. 14, when the similarity evaluation with the model image 12b (n) is performed on the subject person image H1 to be synthesized (simulated), the pose No. The model image 12b (1A) corresponding to 1A is evaluated as a model image with the highest similarity.

このように、前記図11〜図14を参照して説明した対応衣装画像取得処理(ステップSB)によって、撮影画像12inから抽出された真似対象画像としての被写体人物画像Hnを真似たポーズの設定種類の衣装画像が決定されると、例えば図5で示したように、時代劇村での撮影において、前記対応衣装画像取得処理(図11参照)により取得された、撮影画像12i1上の真似対象画像である被写体人物H1,H2,H3の各ポーズ「しゃがむ」の真似をした設定種類の衣装である「時代劇」の各衣装ポーズ画像12cM(19),12cW(19),12cM(19)が、それぞれ当該合成(まね)対象の被写体人物画像H1,H2,H3とその顔部分のみ残して置き換え(着せ替え)られて合成表示される(ステップS7,S8)。   As described above, by the corresponding costume image acquisition process (step SB) described with reference to FIGS. 11 to 14, the pose setting type imitating the subject person image Hn as the imitation target image extracted from the photographed image 12 in. When the costume image is determined, for example, as shown in FIG. 5, the image to be imitated on the photographed image 12 i 1 acquired by the corresponding costume image acquisition process (see FIG. 11) in the shooting at the historical drama village. The costume pose images 12cM (19), 12cW (19), and 12cM (19) of “period drama”, which is a set of costumes that imitate each pose “squatting” of the subject person H1, H2, and H3, Each of the subject person images H1, H2, and H3 to be synthesized (simulated) is replaced (changed) while leaving only its face portion, and is synthesized and displayed (steps S7 and S8).

この場合、撮影画像12i1に対して、前記合成(まね)対象の被写体人物画像H1,H2,H3にそれぞれ類似のポーズの各時代劇衣装画像12cM(19),12cW(19),12cM(19)を、その撮影時に距離センサ18により検出された撮影距離が遠い順に各被写体画像H1,H2,H3の位置(合成(まね)対象画像位置12j1)に重ねて合成する。   In this case, the historical drama costume images 12cM (19), 12cW (19), and 12cM (19) of the poses similar to the subject person images H1, H2, and H3 to be synthesized (simulated) with respect to the photographed image 12i1. Are superimposed on the positions of the subject images H1, H2, and H3 (composite target image positions 12j1) in order of increasing shooting distance detected by the distance sensor 18 at the time of shooting.

すなわち、各衣装画像の顔部分には画像がないことから、撮影画像12i1における各被写体人物像H1,H2,H3の顔部分は残されて前記各時代劇衣装画像12cM(19),12cW(19),12cM(19)が重ねて置き換えられるので、時代劇村での撮影においては、元の撮影画像12i1に対し、各被写体人物像H1,H2,H3の衣装が時代劇スタイルに着せ替えられてなる合成画像12i11が作成表示される。   That is, since there is no image in the face portion of each costume image, the face portions of the subject person images H1, H2, H3 in the photographed image 12i1 are left and the historical drama costume images 12cM (19), 12cW (19 ), 12cM (19) are replaced and the costume of each subject person image H1, H2, H3 is changed to the period drama style with respect to the original photographed image 12i1 in the period drama village. A composite image 12i11 is generated and displayed.

そして、図5(D)で示したように、被写体画像H1,H2,H3のポーズを真似た各時代劇衣装画像12cM(19),12cW(19),12cM(19)が、当該被写体画像H1,H2,H3とその顔部分だけ残して置き換えられてなる合成画像データ12i11は、シャッタキー16cの全押し操作が検知されることで、撮影画像メモリ12iに登録される(ステップS9)。   Then, as shown in FIG. 5D, the historical drama costume images 12cM (19), 12cW (19), 12cM (19) imitating the poses of the subject images H1, H2, H3 are the subject image H1. , H2, H3 and the combined image data 12i11 that is replaced by leaving only its face portion is registered in the photographed image memory 12i when the full press operation of the shutter key 16c is detected (step S9).

また、例えば図6で示したように、ウエスタン村での撮影では、前記対応衣装画像取得処理(ステップSB)により取得された、撮影画像12i2上の真似対象画像である被写体人物H1,H2,H3の各ポーズ「歩く(横)反転」「ばんざい」「歩く(横)」の真似をした設定種類の衣装である「ウエスタン」の各衣装ポーズ画像12dM(4)R,12dM(20),12dW(4)がそれぞれ当該合成(まね)対象の被写体人物画像H1,H2,H3とその顔部分のみ残して置き換え(着せ替え)られて合成表示される(ステップS7,S8)。   For example, as shown in FIG. 6, in the shooting in the Western village, the subject persons H1, H2, and H3, which are imitation target images on the captured image 12i2, acquired by the corresponding costume image acquisition process (step SB). Each pose image of “Western”, which is a set of costumes imitating “walking (horizontal) reversal”, “banzai”, and “walking (horizontal)” 12dM (4) R, 12dM (20), 12dW ( 4) are respectively replaced (dressed) with the subject person images H1, H2, H3 and their face portions to be combined (simulated) displayed as combined (steps S7, S8).

この場合、撮影画像12i2に対して、前記合成(まね)対象の被写体人物画像H1,H2,H3にそれぞれ類似のポーズの各ウエスタン衣装画像12dM(4)R,12dM(20),12dW(4)を、その撮影時に距離センサ18により検出された撮影距離が遠い順に各被写体画像H1,H2,H3の位置(合成(まね)対象画像位置12j2)に重ねて合成する。   In this case, the western costume images 12dM (4) R, 12dM (20), and 12dW (4) having similar poses to the subject person images H1, H2, and H3 to be synthesized (simulated) with respect to the photographed image 12i2. Are superimposed on the positions of the subject images H1, H2, and H3 (synthesize target image positions 12j2) in order of increasing shooting distance detected by the distance sensor 18 at the time of shooting.

すなわちこの場合も、各衣装画像の顔部分には画像がないことから、撮影画像12i2における各被写体人物像H1,H2,H3の顔部分は残されて前記各ウエスタン衣装画像12dM(4)R,12dM(20),12dW(4)が重ねて置き換えられるので、ウエスタン村での撮影においては、元の撮影画像12i2に対し、各被写体人物像H1,H2,H3の衣装がウエスタンスタイルに着せ替えられてなる合成画像12i21が作成表示される。   That is, also in this case, since there is no image in the face portion of each costume image, the face portions of the subject person images H1, H2, H3 in the photographed image 12i2 are left and the Western costume images 12dM (4) R, Since 12dM (20) and 12dW (4) are superposed and replaced, in the shooting at the Western village, the costumes of the subject person images H1, H2 and H3 are changed to the Western style with respect to the original shot image 12i2. A composite image 12i21 is created and displayed.

そして、図6(D)で示したように、被写体画像H1,H2,H3のポーズを真似た各ウエスタン衣装画像12dM(4)R,12dM(20),12dW(4)が、当該被写体画像H1,H2,H3とその顔部分だけ残して置き換えられてなる合成画像データ12i21は、シャッタキー16cの全押し操作が検知されることで、撮影画像メモリ12iに登録される(ステップS9)。   As shown in FIG. 6D, the Western costume images 12dM (4) R, 12dM (20), and 12dW (4) imitating the poses of the subject images H1, H2, and H3 are the subject image H1. , H2 and H3 and the combined image data 12i21, which is replaced by leaving only its face portion, is registered in the photographed image memory 12i when the full depression of the shutter key 16c is detected (step S9).

一方、例えば図7で示したように、撮影場所の位置情報が特定の位置情報と一致しない場合の8月の撮影では、前記対応衣装画像取得処理(ステップSB)により取得された、撮影画像12i3上の真似対象画像である被写体人物H1のポーズ「はいチーズ(アップ)」の真似をした設定種類の衣装である「夏」の衣装ポーズ画像12fW(1)が当該合成(まね)対象の被写体人物画像H1とその顔部分のみ残して置き換え(着せ替え)られて合成表示される(ステップS7,S8)。   On the other hand, for example, as shown in FIG. 7, in August shooting when the position information of the shooting location does not match the specific position information, the shot image 12i3 acquired by the corresponding costume image acquisition processing (step SB). The costume pose image 12fW (1) of “Summer”, which is a set of costumes that imitates the pose “yes cheese (up)” of the subject person H1 that is the image to be imitated above, is the subject person to be synthesized (simulated). Only the image H1 and its face part are left and replaced (dressed) and combined and displayed (steps S7 and S8).

この場合、撮影画像12i3に対して、前記合成(まね)対象の被写体人物画像H1に類似のポーズの夏衣装画像12fW(1)を、被写体画像H1の位置(合成(まね)対象画像位置12j3)に重ねて合成する。   In this case, with respect to the photographed image 12i3, the summer costume image 12fW (1) having a pose similar to that of the subject person image H1 to be synthesized (simulated) is set to the position of the subject image H1 (synthesized target image position 12j3). Overlay and synthesize.

すなわちこの場合も、衣装画像の顔部分には画像がないことから、撮影画像12i3における被写体人物像H1の顔部分は残されて前記夏衣装画像12fW(1)が重ねて置き換えられるので、夏の8月の撮影においては、元の撮影画像12i3に対し、被写体人物像H1の衣装が水着スタイルに着せ替えられてなる合成画像12i31が作成表示される。   That is, also in this case, since there is no image in the face portion of the costume image, the face portion of the subject person image H1 in the photographed image 12i3 is left and replaced with the summer costume image 12fW (1). In shooting in August, a composite image 12i31 is created and displayed by changing the costume of the subject person image H1 to the swimsuit style with respect to the original shot image 12i3.

そして、図7(D)で示したように、被写体画像H1のポーズを真似た夏衣装画像12fW(1)が、当該被写体画像H1とその顔部分だけ残して置き換えられてなる合成画像データ12i31は、シャッタキー16cの全押し操作が検知されることで、撮影画像メモリ12iに登録される(ステップS9)。   Then, as shown in FIG. 7D, the composite image data 12i31 obtained by replacing the summer costume image 12fW (1) imitating the pose of the subject image H1 while leaving only the subject image H1 and its face portion is obtained. When the full depression of the shutter key 16c is detected, it is registered in the photographed image memory 12i (step S9).

なお、撮影画像メモリ12iに登録された撮影(合成)画像は、必要に応じて画像出力部20から出力され、メモリカード20Aによる記録、またはVTR(録画装置)20Bによる記録、または画像印刷機20Cによる印刷が行われる。   The photographed (synthesized) image registered in the photographed image memory 12i is output from the image output unit 20 as necessary, and recorded by the memory card 20A, recorded by the VTR (recording device) 20B, or image printing machine 20C. Is printed.

これにより、位置情報登録メモリ12kに登録された特定の場所での撮影に際しては、撮影画像12in上の被写体人物画像Hnは、当該撮影場所の雰囲気に応じた衣装画像に着せ替えられて撮影表示されるようになり、また、特定の場所以外でも、現在の撮影月が検知され、撮影画像12in上の被写体人物画像Hnは、当該撮影月の季節に応じた衣装画像に着せ替えられて撮影表示されるようになる。   As a result, when photographing at a specific location registered in the position information registration memory 12k, the subject person image Hn on the photographed image 12in is photographed and displayed as a costume image corresponding to the atmosphere of the photographing location. In addition, the current shooting month is detected at a place other than a specific place, and the subject person image Hn on the shot image 12in is changed to a costume image corresponding to the season of the shooting month and is displayed. Become so.

したがって、前記構成の画像出力装置10による画像合成処理機能によれば、写真撮影を行うのに伴い、撮影画像12inについて合成(まね)対象の被写体人物画像Hnが抽出されると、現在の撮影場所(位置)が特定の場所であるか否か判断され、特定の場所であると判断された場合には、その場所の雰囲気に応じた種類の衣装で前記合成(まね)対象人物画像Hnに対応するポーズの顔抜き衣装画像が取得されると共に、当該合成(まね)対象人物画像Hnを前記取得された撮影場所に応じた顔抜き衣装画像に置き換え合成した合成画像12in1が作成されて表示されるので、写真撮影を行う場所の雰囲気に合わせて被写体人物の衣装を異ならせた合成画像12in1を、当該被写体人物画像Hnのポーズを真似たポーズの顔抜き衣装画像の合成によって違和感なく非常に面白味のある合成画像12in1として撮影表示できるようになる。   Therefore, according to the image composition processing function of the image output apparatus 10 having the above-described configuration, when the subject person image Hn to be synthesized (simulated) is extracted from the photographed image 12in as the photograph is taken, the current photographing location is obtained. It is determined whether or not (position) is a specific place, and if it is determined that the position is a specific place, it corresponds to the person image Hn to be synthesized (simulated) with a kind of costume according to the atmosphere of the place. A face-out costume image of the pose to be acquired is acquired, and a composite image 12in1 is created and displayed by replacing the composition target person image Hn with the face-out costume image corresponding to the acquired shooting location. Therefore, the composite image 12in1 in which the subject person's costume is changed in accordance with the atmosphere of the place where the photograph is taken is combined with the face-out costume image in a pose imitating the pose of the subject person image Hn. Very becomes possible shooting display as a composite image 12in1 with interesting without discomfort by.

また、前記構成の画像出力装置10による画像合成処理機能によれば、写真撮影を行うのに伴い、撮影画像12inについて合成(まね)対象の被写体人物画像Hnが抽出されると、現在の撮影時間(季節/年/月/日/時)が検知され、例えばその季節の雰囲気に合わせた種類の衣装で前記合成(まね)対象人物画像Hnに対応するポーズの顔抜き衣装画像が取得されると共に、当該合成(まね)対象人物画像Hnを前記取得された撮影季節に応じた顔抜き衣装画像に置き換え合成した合成画像12inmが作成されて表示されるので、写真撮影を行う季節の雰囲気に合わせて被写体人物の衣装を異ならせた合成画像12inmを、当該被写体人物画像Hnのポーズを真似たポーズの顔抜き衣装画像によって違和感なく非常に面白味のある合成画像12inmとして撮影表示できるようになる。   Further, according to the image composition processing function of the image output apparatus 10 having the above configuration, when the subject person image Hn to be synthesized (simulated) is extracted from the photographed image 12in as the photograph is taken, the current photographing time is obtained. (Season / Year / Month / Day / Hour) is detected, and, for example, a faceless outfit image of a pose corresponding to the synthesis target person image Hn is acquired with a type of costume adapted to the atmosphere of the season. The composite image 12inm is created and displayed by replacing the synthetic target person image Hn with the face-out costume image corresponding to the acquired shooting season, so that it matches the atmosphere of the season in which the photo is taken. A composite image 1 in which the costume of the subject person is made different from the composite image 12 inm with a face-out costume image in a pose that imitates the pose of the subject person image Hn is very interesting and comfortable. It will be able to shooting display as inm.

また、前記構成の画像出力装置10による画像合成処理に伴う対象画像抽出機能(方式1)によれば、画像入力部17を介して所定のタイミングで順次入力される一連の撮影画像12in…が画像処理ワークエリアに記憶され、この一連の撮影画像12in…のそれぞれから被写体の動きに伴う画像の変化部分が当該各被写体人物像のブロックM毎に抽出されるので、この撮影画像12inを含む一連の取り込み画像12in…に基づき抽出された各被写体人物画像Hn…の画像部分を、当該撮影画像12inに対応付けた合成(まね)対象画像Hnの位置情報として容易に合成(まね)対象画像位置メモリ12jに記憶できるようになる。   Further, according to the target image extraction function (method 1) accompanying the image composition processing by the image output apparatus 10 having the above-described configuration, a series of captured images 12in... Sequentially input at a predetermined timing via the image input unit 17 is an image. Since the change part of the image accompanying the movement of the subject is extracted from each of the series of photographed images 12in... Stored in the processing work area for each block M of each subject person image, a series of images including the photographed images 12in is included. The image portion of each subject person image Hn... Extracted based on the captured image 12in... Is easily combined (simulated) target image position memory 12j as the position information of the combined target image Hn associated with the captured image 12in. Can be memorized.

また、前記構成の画像出力装置10による画像合成処理に伴う対象画像抽出機能(方式2)によれば、画像入力部17を介して入力される撮影画像12inの各部分毎に距離センサ18による距離測定が行われて画像処理ワークエリアに記憶され、背景画像と被写体画像との距離差に基づき近距離側として判別される各被写体人物画像Hn…がそのブロックM毎に抽出されるので、撮影時点の1枚の取り込み画像に基づき抽出された各被写体人物画像Hn…の画像部分を、当該撮影画像12inに対応付けた合成(まね)対象画像Hnの位置情報として容易に合成(まね)対象画像位置メモリ12jに記憶できるようになる。   Further, according to the target image extraction function (method 2) accompanying the image composition processing by the image output apparatus 10 having the above configuration, the distance by the distance sensor 18 for each part of the captured image 12in input via the image input unit 17. Each subject person image Hn, which is measured and stored in the image processing work area and is determined as the near distance side based on the distance difference between the background image and the subject image, is extracted for each block M. The image portion of each of the subject person images Hn... Extracted based on the one captured image is easily combined (simulated) target image position as position information of the combined target image Hn associated with the captured image 12in. It can be stored in the memory 12j.

また、前記構成の画像出力装置10による画像合成処理に伴う対応衣装画像取得機能(方式1)によれば、撮影画像12inから抽出された真似対象画像としての被写体人物画像Hnに対し、撮影場所や撮影時期に応じて設定された種類の衣装の各ポーズ毎の顔抜き衣装画像との類似度が直接評価され、これに基づき被写体人物画像Hnのポーズを真似たポーズの設定種類の衣装画像が決定されるので、被写体人物画像Hnのポーズをまねてその元の撮影衣装部分の画像と置き換え(着せ替え)合成するための衣装画像を容易に取得できるようになる。   Further, according to the corresponding costume image acquisition function (method 1) accompanying the image composition processing by the image output apparatus 10 having the above-described configuration, the shooting location and the subject person image Hn as the imitation target image extracted from the captured image 12in The degree of similarity between the type of costume set according to the shooting time and the faceless outfit image for each pose is directly evaluated, and based on this, the set type of costume image that imitates the pose of the subject person image Hn is determined. Therefore, it is possible to easily acquire a costume image for imposing a pose of the subject person image Hn and replacing (changing) the original image with the image of the photographic costume.

また、前記構成の画像出力装置10による画像合成処理に伴う対応衣装画像取得機能(方式2)によれば、撮影画像12inから抽出された真似対象画像としての被写体人物画像Hnに対し、人物の基本モデルである各ポーズ毎のモデル画像との類似度が評価され、これに基づき被写体人物画像Hnを真似たポーズで撮影場所や撮影時期に応じた設定種類の衣装画像が決定されるので、被写体人物画像Hnのポーズをまねてその元の撮影衣装部分の画像と置き換え(着せ替え)合成するための衣装画像を容易に取得できるだけでなく、類似度の評価対象に標準的人物モデルを用いることから被写体人物画像Hnとの高い類似度が得られやすく、より類似性(真似度)の高いポーズの衣装画像を取得できるようになる。   Further, according to the corresponding costume image acquisition function (method 2) accompanying the image composition processing by the image output apparatus 10 having the above-described configuration, the person basic is applied to the subject person image Hn as the imitation target image extracted from the photographed image 12in. The degree of similarity with the model image for each pose that is a model is evaluated, and based on this, a set type of costume image is determined according to the shooting location and shooting time in a pose that imitates the subject person image Hn. It is possible not only to easily acquire a costume image for imposing a pose of the image Hn and replacing (changing) with the original image of the clothing costume part, but also to use a standard person model as the evaluation target of similarity. It is easy to obtain a high degree of similarity with the person image Hn, and it is possible to acquire a costume image in a pose with a higher degree of similarity (similarity).

なお、前記実施形態における画像合成機能では、撮影画像12inから抽出された被写体人物画像Hnに対応するポーズの設定種類の顔抜き衣装画像を選択的に取得して、この取得された顔抜き衣装画像を撮影画像12inの被写体人物画像Hnと置き換え合成する構成としたが、実写や実写に近いコンピュータグラフィックスによる様々な種類の衣装画像を各ポーズ毎に予め記憶させておき、この実写などによる各ポーズの衣装画像を場所や季節に応じた衣装画像の種類として設定し、撮影画像12inから抽出された被写体人物画像Hnのポーズに対応する衣装画像として置き換え合成する構成としてもよい。   In the image composition function in the above embodiment, a face-out costume image of a set type of pose corresponding to the subject person image Hn extracted from the photographed image 12in is selectively acquired, and the acquired face-out costume image is acquired. Is replaced with the subject person image Hn of the photographed image 12in, but various kinds of costume images based on live-action and computer graphics close to real-life are stored in advance for each pose, and each pose by this live-action etc. The costume image may be set as the type of costume image according to the place and season, and replaced with a costume image corresponding to the pose of the subject person image Hn extracted from the photographed image 12in and synthesized.

また、前記実施形態では、撮影画像12inが静止画である場合について説明したが、画像入力部17を介して例えばデジタルビデオムービー17Bにより撮影入力される動画像に基づいて、当該動画像内の背景画像に対して時系列的に変化する被写体画像Hn…を順次抽出し、この抽出された被写体人物画像Hnに対応するポーズの設定種類の衣装画像を取得して、前記撮影動画像内でその被写体人物画像Hnと置き換え合成する構成としてもよい。   In the embodiment, the case where the captured image 12in is a still image has been described. However, based on a moving image captured and input by, for example, the digital video movie 17B via the image input unit 17, a background in the moving image is displayed. A subject image Hn that changes in time series with respect to the image is sequentially extracted, a costume image of a pose setting type corresponding to the extracted subject person image Hn is acquired, and the subject in the captured moving image is acquired. It may be configured to be replaced and synthesized with the person image Hn.

なお、前記実施形態の画像出力装置10では、デジタルカメラ付き携帯電話やデジタルカメラのその本体において、撮影画像12inにおける被写体人物画像Hnを真似たポーズの撮影場所や撮影時期に応じた種類の顔抜き衣装画像を取得して、当該被写体人物画像Hnの顔部分のみ残した衣装画像の置き換え(着せ替え)合成処理を行う構成としたが、次の第2実施形態において説明するように、インターネットなどの通信ネットワークN上にあるWebサーバ30において、各アクセスユーザからの写真撮影に伴う撮影画像を受信し、この受信撮影画像について、前記同様に、合成(まね)対象となる被写体人物画像Hnの抽出処理、この被写体人物画像Hnを真似たポーズで撮影場所や撮影時期に応じた種類の顔抜き衣装画像の取得処理、および前記受信撮影画像の被写体人物画像Hnに対する顔抜き衣装画像の置き換え合成処理を行い、この合成画像をアクセス元のユーザ端末へ配信する構成としてもよい。   In the image output device 10 of the above-described embodiment, the type of face is determined according to the shooting location and shooting time of the pose imitating the subject person image Hn in the shot image 12in in the mobile phone with digital camera or the main body of the digital camera. The costume image is acquired and the costume image that replaces only the face portion of the subject person image Hn is replaced (changed). However, as described in the second embodiment, the Internet or the like is used. The Web server 30 on the communication network N receives a photographed image accompanying a photograph taken from each access user, and the subject person image Hn to be synthesized (simulated) is extracted from the received photographed image in the same manner as described above. , A process of acquiring a face-out costume image of a type corresponding to the shooting location and shooting time in a pose imitating the subject person image Hn, and Performs replace composition process of the face vent costume image for subject person image Hn of the received captured image may be configured to deliver the synthesized image to the access source user terminal.

(第2実施形態)
図15は本発明の第2実施形態に係る画像配信サーバ30の電子回路の構成を示すブロック図である。
(Second embodiment)
FIG. 15 is a block diagram showing a configuration of an electronic circuit of the image distribution server 30 according to the second embodiment of the present invention.

この画像配信サーバ30は、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)31が備えられる。   The image distribution server 30 is configured by a computer that reads a program recorded on various recording media or a transmitted program and whose operation is controlled by the read program. The electronic circuit includes a CPU ( a central processing unit) 31 is provided.

CPU31は、メモリ32内に予め記憶されたサーバ制御プログラム、あるいはCD−ROMなどの外部記録媒体33から記録媒体読取部34を介して前記メモリ32に読み込まれたサーバ制御プログラム、あるいはインターネットN上の他のWebサーバ(この場合はプログラムサーバ)から電送制御部35を介して前記メモリ32に読み込まれたサーバ制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ32に記憶されたサーバ制御プログラムは、電送制御部35を介して接続されるインターネットN上の各通信端末(デジタルカメラ付き携帯電話10A、通信機能付きデジタルカメラ10B、その他PC(personal computer)端末)などや他のWebサーバとの通信信号に応じて起動される。   The CPU 31 is a server control program stored in advance in the memory 32, or a server control program read from the external recording medium 33 such as a CD-ROM into the memory 32 via the recording medium reading unit 34, or on the Internet N. The operation of each part of the circuit is controlled in accordance with a server control program read into the memory 32 from another Web server (in this case, a program server) via the power transmission control unit 35 and stored in the memory 32. The server control program includes communication terminals (mobile phone with digital camera 10A, digital camera with communication function 10B, other PC (personal computer) terminal) on the Internet N connected via the transmission control unit 35, and other Web It is activated in response to a communication signal with the server.

前記CPU31には、前記メモリ32、記録媒体読取部34、電送制御部35が接続される他に、LCDからなる表示部36などが接続される。   In addition to the memory 32, the recording medium reading unit 34, and the power transmission control unit 35, the CPU 31 is connected to a display unit 36 including an LCD.

そして、メモリ32には、当該画像配信サーバ30の全体の動作を司るシステムプログラムや、電送制御部35を介してインターネットN上の各通信端末(デジタルカメラ付き携帯電話10A、通信機能付きデジタルカメラ10B、その他PC(personal computer)端末など)、他のWebサーバとデータ通信するための通信プログラムが記憶される他に、前記インターネットN上の各通信端末(10A,10など)とのアクセスに基づき、それぞれそのユーザ端末毎の撮影画像ファイル32g1,32g2,…を生成管理し、撮影画像データを保存・配信したり、当該撮影画像についての合成(まね)対象画像位置,撮影位置情報を記憶したり、撮影画像に対する合成画像の作成処理およびその出力配信処理などを行うための画像出力処理プログラム32aなどが記憶される。   The memory 32 stores a system program that controls the overall operation of the image distribution server 30 and each communication terminal (mobile phone 10A with a digital camera, digital camera 10B with a communication function) on the Internet N via a transmission control unit 35. In addition to storing communication programs for data communication with other Web servers, other PC (personal computer) terminals, etc., based on access to each communication terminal (10A, 10 etc.) on the Internet N, Each of the user terminals generates and manages captured image files 32g1, 32g2,..., Stores and distributes captured image data, stores synthesis target image positions and captured position information about the captured images, An image output processing program for creating a composite image for a shot image and for outputting and delivering the composite image 32a, etc. are stored.

従って、この画像配信サーバ30のメモリ32にも、前記画像出力装置10のメモリ12と略同様に、モデルポーズ画像メモリ32b、衣装1「時代劇」ポーズ画像メモリ32c、衣装2「ウエスタン」ポーズ画像メモリ32d、衣装3「中世ヨーロッパ」ポーズ画像メモリ32e…や図示しない衣装13「夏(6月〜9月)」ポーズ画像メモリ、衣装14「春秋(4,5,10,11月)」ポーズ画像メモリ、衣装15「冬(12月〜3月)」ポーズ画像メモリなどが用意され、さらにそのワークエリアには、現在年月日メモリ32fの他、当該画像配信サーバ30によって各ユーザ端末毎の撮影画像データおよび撮影画像合成用の各設定情報が管理される撮影画像ファイル32g1,32g2,…が用意される。   Accordingly, in the memory 32 of the image distribution server 30, the model pose image memory 32b, the costume 1 “period drama” pose image memory 32c, and the costume 2 “Western” pose image are substantially the same as the memory 12 of the image output apparatus 10. Memory 32d, costume 3 "Medieval Europe" pose image memory 32e ... and costume 13 "summer (June-September)" pose image memory not shown, costume 14 "Spring fall (4, 5, 10, November)" pose image Memory, costume 15 “winter (December to March)” pose image memory, etc. are prepared, and in addition to the current date memory 32f, the work distribution area 30 takes a picture of each user terminal. Shooting image files 32g1, 32g2,... For managing image data and setting information for shooting image composition are prepared.

各ユーザ端末毎の撮影画像ファイル(1)32g1,(2)32g2,…には、そのそれぞれのファイル(1)(2)…毎に、ユーザ名:ファイル名:ユーザ認証データ(指紋画像やパスワードなど)32g1a,32g2a,…に対応付けされた撮影画像メモリ32g1b,32g2b,…、合成(まね)対象画像位置メモリ32g1c,32g2c,…、撮影位置情報メモリ32g1d,32g2d,…などが用意され、撮影画像メモリ32g1b,32g2b,…および合成(まね)対象画像位置メモリ32g1c,32g2c,…には、ともに前記第1実施形態の画像出力装置10における各メモリと同様の情報が記憶管理され、撮影位置情報メモリ32g1d,32g2d,…には、ユーザ端末から受信された各撮影画像32g1bn,32g2bn,…についての撮影場所を示す位置情報32g1dn,32g2dn,…が共に受信されて記憶管理される。   The captured image file (1) 32g1, (2) 32g2,... For each user terminal includes a user name: file name: user authentication data (fingerprint image or password) for each of the files (1), (2),. , Etc.) 32g1a, 32g2a,..., Image image memory 32g1b, 32g2b,..., Composition target image position memory 32g1c, 32g2c,. The image memory 32g1b, 32g2b,... And the synthesis target image position memory 32g1c, 32g2c,... Store and manage the same information as each memory in the image output device 10 of the first embodiment, and capture position information. In the memories 32g1d, 32g2d,..., Position information 32g1dn, 32g2dn indicating the shooting locations of the respective captured images 32g1bn, 32g2bn,. ... are stored and managed are received together.

このような構成の画像配信サーバ30をインターネットなどの通信ネットワークN上に開設し、各ユーザ端末としてのデジタルカメラ付き携帯電話10Aや通信機能付きデジタルカメラ10Bなどとの通信を行い、各ユーザ端末における撮影画像と共にその撮影場所の位置情報を受信し、当該画像配信サーバ30において前記第1実施形態の画像出力装置10と同様に管理する。これにより画像配信サーバ30は、各ユーザ端末からの撮影位置情報を伴う撮影画像の受信およびこれに基づく合成画像の作成とその配信要求に応じて、当該受信撮影画像について合成(まね)対象の被写体人物画像Hnを抽出すると共に、その撮影場所または撮影時期に応じた種類の衣装画像で前記被写体人物画像Hnを真似たポーズの顔抜き衣装画像を取得でき、前記第1実施形態の画像出力装置10と同様に被写体人物画像Hnを顔抜き衣装画像に置き換えた合成画像を作成することができる。そして、その合成画像を配信要求元の各ユーザ端末へ配信することができる。   The image distribution server 30 having such a configuration is established on a communication network N such as the Internet, and communicates with the mobile phone 10A with a digital camera or the digital camera 10B with a communication function as each user terminal. The location information of the shooting location is received together with the shot image, and is managed in the image distribution server 30 in the same manner as the image output device 10 of the first embodiment. Thus, the image distribution server 30 receives a captured image with shooting position information from each user terminal, creates a composite image based on the received image, and requests for distribution of the received captured image. While extracting the person image Hn, it is possible to acquire a faceless costume image in a pose imitating the subject person image Hn with a type of costume image according to the shooting location or shooting time, and the image output apparatus 10 of the first embodiment. Similarly to the above, it is possible to create a composite image in which the subject person image Hn is replaced with a faceless costume image. Then, the composite image can be distributed to each user terminal as a distribution request source.

この場合、各撮影画像ファイル32gnにおける受信撮影画像とその撮影位置情報に基づいた合成画像の作成処理とその配信処理は、その何れも各対応するユーザ端末の認証データ32gnaが入力一致判断された場合にのみ実行される。   In this case, the composite image creation process and the distribution process based on the received photographed image and the photographing position information in each photographed image file 32gn are performed when the authentication data 32gna of each corresponding user terminal is determined to match the input. Only run on.

したがって、前記構成の画像配信サーバ30において各ユーザ端末との間でアクセスしながら実施される画像合成機能や合成画像の配信機能によれば、各ユーザ端末から撮影画像32gnbおよびその撮影位置情報32gndを受信すると共に、合成画像の作成およびその配信要求を受信すると、この合成画像の作成およびその配信要求に応答して、当該撮影画像32gnbの撮影位置情報32gndが特定の場所の位置情報と一致するか否か判断され、特定の撮影場所である場合には当該撮影場所に応じた種類の衣装が設定され、また特定の撮影場所でない場合でも撮影時期に応じた種類の衣装が設定される。そして、撮影画像32gnbから合成(まね)対象の被写体人物画像Hnが抽出されると共に、この被写体人物画像Hnを真似たポーズの前記設定種類の顔抜き衣装画像が取得され、前記撮影画像32gnbの被写体人物画像Hnを前記取得された顔抜き衣装画像に置き換え合成した合成画像が作成されて配信されるので、各ユーザ端末にて撮影した撮影画像32gnbに対し、その撮影場所や撮影時期に応じた種類の衣装画像を、被写体人物画像Hnを真似たポーズの衣装画像として違和感なく置き換え合成して配信できるようになる。   Therefore, according to the image synthesizing function and the synthesized image distribution function performed while accessing the respective user terminals in the image distribution server 30 having the above-described configuration, the captured image 32gnb and the captured position information 32gnd are received from each user terminal. In addition to receiving the composite image creation and distribution request, in response to the composite image creation and distribution request, whether the photographing position information 32gnd of the photographed image 32gnb matches the position information of a specific location. If it is a specific shooting location, a type of costume corresponding to the shooting location is set, and even if it is not a specific shooting location, a type of costume corresponding to the shooting time is set. Then, a subject person image Hn to be synthesized (simulated) is extracted from the photographed image 32gnb, and the setting-type faceless costume image having a pose imitating the subject person image Hn is acquired, and the subject of the photographed image 32gnb is obtained. Since a composite image is created and distributed by replacing the person image Hn with the acquired faceless outfit image, the type corresponding to the shooting location and shooting time of the shot image 32gnb shot at each user terminal This costume image can be replaced and synthesized as a costume image with a pose imitating the subject person image Hn without being uncomfortable.

なお、前記各実施形態では、デジタルカメラなどよる撮影画像を元画像として種々の合成画像を作成して出力する場合について説明したが、元画像は撮影画像に限らず、画像メモリや光ディスクなどの各種の記録媒体に既に記録されている画像を対象としてもよい。ここで、当該元画像からその撮影情報がないために前記対象画像抽出処理(方式1)(方式2)での各被写体人物画像の抽出が行えない場合には、元画像に輪郭強調処理を施して肌色部分を広く含む輪郭領域を抽出したり、人体頭部を形作る円形部分を含む輪郭領域を抽出したりすることによって、各被写体人物画像の抽出を行う構成とすればよい。   In each of the above-described embodiments, the case has been described in which various composite images are generated and output using a photographed image obtained by a digital camera or the like as an original image. It is also possible to target an image already recorded on the other recording medium. Here, if each subject person image cannot be extracted in the target image extraction processing (method 1) (method 2) because there is no shooting information from the original image, contour enhancement processing is performed on the original image. Thus, it may be configured such that each subject person image is extracted by extracting a contour region including a wide skin color portion or extracting a contour region including a circular portion forming the human head.

なお、前記各実施形態において記載した画像出力装置10(画像配信サーバ30)による各処理の手法、すなわち、図9のフローチャートに示す画像合成処理、図10のフローチャートに示す当該画像合成処理に伴う対象画像抽出処理、図11のフローチャートに示す画像合成処理に伴う対応衣装画像取得処理、図12のフローチャートに示す当該対応衣装画像取得処理に伴う真似対象人物画像との類似度評価処理等の各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13(33)に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13(33)に記憶されたプログラムを記録媒体読取部14(34)によってメモリ12(32)に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した画像合成機能を実現し、前述した手法による同様の処理を実行することができる。   It should be noted that each processing method by the image output apparatus 10 (image distribution server 30) described in each of the embodiments, that is, the image synthesis process shown in the flowchart of FIG. 9 and the object associated with the image synthesis process shown in the flowchart of FIG. Each method such as an image extraction process, a corresponding costume image acquisition process associated with the image composition process shown in the flowchart of FIG. 11, and a similarity evaluation process with the imitation target person image associated with the corresponding costume image acquisition process shown in the flowchart of FIG. These are programs that can be executed by a computer, such as memory cards (ROM cards, RAM cards, etc.), magnetic disks (floppy disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), external recording such as semiconductor memories, etc. It can be stored and distributed on the medium 13 (33). Various computer terminals having a communication function with the communication network (Internet) N transfer the program stored in the external recording medium 13 (33) to the memory 12 (32) by the recording medium reading unit 14 (34). By reading and controlling the operation by the read program, the image composition function described in the above embodiment can be realized, and the same processing by the above-described method can be executed.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述した画像合成機能を実現することもできる。   The program data for realizing each of the above methods can be transmitted on a communication network (Internet) N in the form of a program code, and the above-mentioned data can be transmitted from a computer terminal connected to the communication network (Internet) N. It is also possible to implement the above-described image composition function by fetching program data.

なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。   Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in each embodiment or some constituent features are combined, the problems described in the column of the problem to be solved by the invention can be solved. When the effects described in the column of the effect of the invention can be obtained, a configuration in which these constituent elements are deleted or combined can be extracted as an invention.

本発明の第1実施形態に係る画像出力装置10の電子回路の構成を示すブロック図。1 is a block diagram showing a configuration of an electronic circuit of an image output apparatus 10 according to a first embodiment of the present invention. 前記画像出力装置10の衣装1「時代劇」ポーズ画像メモリ12c:衣装2「ウエスタン」ポーズ画像メモリ12d…衣装13「夏(6月〜9月)」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各男性版の衣装画像12cM,12dM,12fMを示す図。Costume 1 “period drama” pose image memory 12 c of the image output device 10: Costume 2 “Western” pose image memory 12 d... Costume 13 “Summer (June-September)” The figure which shows the costume images 12cM, 12dM, and 12fM of each male version corresponding to a pose. 前記画像出力装置10の衣装1「時代劇」ポーズ画像メモリ12c:衣装2「ウエスタン」ポーズ画像メモリ12d…衣装13「夏(6月〜9月)」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各女性版の衣装画像12cW,12dW,12fWを示す図。Costume 1 “period drama” pose image memory 12 c of the image output device 10: Costume 2 “Western” pose image memory 12 d... Costume 13 “Summer (June-September)” The figure which shows the costume image 12cW, 12dW, and 12fW of each female version corresponding to a pose. 前記画像出力装置10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図。The figure which shows the model image corresponding to the model pose memorize | stored in the model pose image memory 12b of the said image output apparatus 10. FIG. 前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影場所(時代劇村)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図。The figure which shows the replacement | exchange (dressing) synthetic | combination state of the costume pose image according to the imaging | photography place (period play village) with respect to the synthetic | combination (simulation) object person image of the said image output device 10. FIG. 前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影場所(ウエスタン村)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図。The figure which shows the replacement | exchange (dressing) synthetic | combination state of the costume pose image according to the imaging | photography place (Western village) with respect to the synthetic | combination (simulation) object person image of the said image output device 10. FIG. 前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影季節(年月日時刻)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図。The figure which shows the replacement | exchange (dressing) synthetic | combination state of the costume pose image according to the imaging | photography season (year-month-day time) with respect to the synthetic | combination (simulation) object person image of the said image output device 10. FIG. 前記画像出力装置であるデジタルカメラ10とそのクレードル15xの外観構成を示す図。FIG. 2 is a diagram showing an external configuration of a digital camera 10 that is the image output device and its cradle 15x. 前記画像出力装置10の画像合成処理を示すフローチャート。4 is a flowchart showing image composition processing of the image output apparatus 10; 前記画像出力装置10の画像合成処理に伴い合成(まね)対象の人物画像を抽出する対象画像抽出処理を示すフローチャートであり、同図(A)はその対象画像抽出処理(方式1)を示すフローチャート、同図(B)はその対象画像抽出処理(方式2)を示すフローチャート。4 is a flowchart showing a target image extraction process for extracting a person image to be synthesized (simulated) in accordance with the image synthesis process of the image output apparatus 10, and FIG. 4A is a flowchart showing the target image extraction process (method 1). FIG. 5B is a flowchart showing the target image extraction process (method 2). 前記画像出力装置10の画像合成処理に伴う対応衣装画像取得処理を示すフローチャートであり、同図(A)はその対応衣装画像取得処理(方式1)を示すフローチャート、同図(B)はその対応衣装画像取得処理(方式2)を示すフローチャート。It is a flowchart which shows the corresponding costume image acquisition process accompanying the image composition process of the said image output apparatus 10, The figure (A) is a flowchart which shows the corresponding costume image acquisition process (method 1), The figure (B) is the correspondence. The flowchart which shows a costume image acquisition process (scheme 2). 前記画像出力装置10の画像合成処理に伴う対応衣装画像取得処理(方式1)(方式2)での真似対象人物画像との類似度評価処理を示すフローチャート。The flowchart which shows the similarity evaluation process with the imitation object person image in the corresponding costume image acquisition process (method 1) (method 2) accompanying the image composition processing of the image output apparatus 10. 前記画像出力装置10の対応衣装画像取得処理(方式1)での類似度評価処理に伴う設定種類の衣装ポーズ画像との類似度評価例を示す図。The figure which shows the example of similarity evaluation with the costume pose image of the setting kind accompanying the similarity evaluation process in the corresponding | compatible costume image acquisition process (method 1) of the said image output device. 前記画像出力装置10の対応衣装画像取得処理(方式2)での類似度評価処理に伴うモデル画像との類似度評価例を示す図。The figure which shows the similarity evaluation example with the model image accompanying the similarity evaluation process in the corresponding | compatible clothing image acquisition process (method 2) of the said image output device. 本発明の第2実施形態に係る画像配信サーバ30の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the image delivery server 30 which concerns on 2nd Embodiment of this invention.

符号の説明Explanation of symbols

10 …画像出力装置
10A…デジタルカメラ付き携帯電話
10B…通信機能付きデジタルカメラ
30 …画像配信サーバ
11、31…CPU
12、32…メモリ
12a、32a…画像出力処理プログラム
12b、32b…モデルポーズ画像メモリ
12c、32c…衣装1「時代劇」ポーズ画像メモリ
12d、32d…衣装2「ウエスタン」ポーズ画像メモリ
12e、32e…衣装3「中世ヨーロッパ」ポーズ画像メモリ
12f…衣装13「夏(6月〜9月)」ポーズ画像メモリ
12g…衣装14「春秋(4,5,10,11月)」ポーズ画像メモリ
12h…衣装15「冬(12月〜3月)」ポーズ画像メモリ
32gn…撮影画像ファイル
32gna…ユーザ名:ファイル名:ユーザ認証データ
12i、32gnb…撮影画像メモリ
12j、32gnc…合成(まね)対象画像位置メモリ
12k…位置情報登録メモリ
32gnd…撮影位置情報メモリ
12l、32f…現在年月日メモリ
12m…画像処理ワークエリア
13、33…外部記録媒体
14、34…記録媒体読取部
15、35…電送制御部
16 …入力部
17 …画像入力部
17A…デジタルカメラ
17B…デジタルビデオムービー
18 …距離センサ
18x…位置情報検出部
19、36…表示部
20 …画像出力部
20A…メモリカード
20B…VTR(録画装置)
20C…画像印刷機
21 …Webサーバ
N …通信ネットワーク(インターネット)
DESCRIPTION OF SYMBOLS 10 ... Image output apparatus 10A ... Cell-phone with a digital camera 10B ... Digital camera with a communication function 30 ... Image delivery server 11, 31 ... CPU
12, 32 ... Memory 12a, 32a ... Image output processing program 12b, 32b ... Model pose image memory 12c, 32c ... Costume 1 "period drama" pose image memory 12d, 32d ... Costume 2 "Western" pose image memory 12e, 32e ... Costume 3 "Medieval Europe" pose image memory 12f ... Costume 13 "Summer (June-September)" pose image memory 12g ... Costume 14 "Spring autumn (4, 5, 10 and November)" pose image memory 12h ... Costume 15 “Winter (December-March)” pause image memory 32 gn ... Shooting image file 32 gna ... User name: File name: User authentication data 12i, 32 gnb ... Shooting image memory 12j, 32 gnc ... Compositing target image position memory 12k ... Position information registration memory 32gnd ... Shooting position information memory 12l, 32f ... Current date memory 12 m ... image processing work area 13, 33 ... external recording medium 14, 34 ... recording medium reading unit 15, 35 ... transmission control unit 16 ... input unit 17 ... image input unit 17A ... digital camera 17B ... digital video movie 18 ... distance sensor 18x: Position information detection unit 19, 36 ... Display unit 20 ... Image output unit 20A ... Memory card 20B ... VTR (recording device)
20C: Image printer 21: Web server N: Communication network (Internet)

Claims (15)

撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段と、
前記撮影画像を撮影した位置情報を取得する位置情報取得手段と、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段と、
前記位置情報取得手段により取得された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から取得する対応画像取得手段と、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段と、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力手段と、
を備えたことを特徴とする画像出力装置。
A captured image acquisition means for acquiring a captured image;
Target image extraction means for extracting a person image to be synthesized from the captured image acquired by the captured image acquisition means;
Position information obtaining means for obtaining position information obtained by photographing the photographed image;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to position information;
A costume image storing a pose corresponding to the photographic position information of the photographic image acquired by the position information acquisition unit and corresponding to the person image to be synthesized extracted by the target image extraction unit. Corresponding image acquisition means for acquiring from among a series of costume images stored by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extracting means, leaving the face portion of the person image. ,
Image output means for outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
An image output apparatus comprising:
撮影画像を取得する撮影画像取得手段と、
この撮影画像取得手段により取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段と、
前記撮影画像を撮影した時間情報を取得する時間情報取得手段と、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段と、
前記時間情報取得手段により取得された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から取得する対応画像取得手段と、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段と、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力手段と、
を備えたことを特徴とする画像出力装置。
A captured image acquisition means for acquiring a captured image;
Target image extraction means for extracting a person image to be synthesized from the captured image acquired by the captured image acquisition means;
Time information acquisition means for acquiring time information of photographing the photographed image;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses with different types of costumes according to time information;
A costume image for each pose corresponding to the photographic time information of the photographic image acquired by the time information acquisition means, and a pose costume image corresponding to the person image to be synthesized extracted by the target image extraction means. Corresponding image acquisition means for acquiring from among a series of costume images stored by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extracting means, leaving the face portion of the person image. ,
Image output means for outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
An image output apparatus comprising:
前記対象画像抽出手段は、前記撮影画像取得手段により取得された一連の複数の撮影画像の中から変化部分を合成対象の人物画像として抽出することを特徴とする請求項1または請求項2に記載の画像出力装置。   3. The target image extracting unit extracts a changed portion as a human image to be synthesized from a series of a plurality of captured images acquired by the captured image acquiring unit. Image output device. 前記対象画像抽出手段は、前記撮影画像取得手段により記憶された撮影画像の各画像部分間の距離情報に応じて合成対象の人物画像を抽出することを特徴とする請求項1または請求項2に記載の画像出力装置。   3. The target image extraction unit extracts a human image to be synthesized according to distance information between image portions of the captured image stored by the captured image acquisition unit. The image output device described. 前記対応画像取得手段は、
前記対象画像抽出手段により抽出された撮影画像における合成対象の人物画像と前記ポーズ別衣装画像記憶手段により記憶された各ポーズごとの衣装画像との類似度を評価する類似度評価手段を有し、
この類似度評価手段により評価された合成対象の人物画像と各衣装画像との類似度に応じて当該合成対象の人物画像に対応したポーズの衣装画像を取得することを特徴とする請求項1ないし請求項4の何れか1項に記載の画像出力装置。
The corresponding image acquisition means includes
A similarity evaluation means for evaluating the similarity between the person image to be synthesized in the photographed image extracted by the target image extraction means and the costume image for each pose stored by the pose-specific costume image storage means;
The costume image of the pose corresponding to the person image to be synthesized is acquired according to the similarity between the person image to be synthesized and each costume image evaluated by the similarity evaluation means. The image output device according to claim 4.
前記対応画像取得手段は、
前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の各ポーズに対応付けた複数のポーズのモデル画像を記憶するモデル画像記憶手段と、
前記対象画像抽出手段により抽出された撮影画像における合成対象の人物画像と前記モデル画像記憶手段により記憶された各ポーズのモデル画像との類似度を評価する類似度評価手段とを有し、
この類似度評価手段により評価された合成対象の人物画像と各モデル画像との類似度に応じて当該モデル画像のポーズに対応付けられて前記ポーズ別衣装画像記憶手段により記憶された衣装画像を取得することを特徴とする請求項1ないし請求項4の何れか1項に記載の画像出力装置。
The corresponding image acquisition means includes
Model image storage means for storing model images of a plurality of poses associated with each pose of a series of costume images stored by the pose-specific costume image storage means;
Similarity evaluation means for evaluating the similarity between the person image to be synthesized in the captured image extracted by the target image extraction means and the model image of each pose stored by the model image storage means;
Acquire a costume image stored in the pose-specific costume image storage means in association with the pose of the model image in accordance with the similarity between each model image and the person image to be synthesized evaluated by the similarity evaluation means. The image output apparatus according to claim 1, wherein the image output apparatus is an image output apparatus.
撮影手段を備え、
前記撮影画像取得手段は、前記撮影手段により撮影された撮影画像を取得する、
ことを特徴とする請求項1〜請求項6の何れか1項に記載の画像出力装置。
Equipped with shooting means,
The captured image acquisition means acquires a captured image captured by the imaging means;
The image output apparatus according to claim 1, wherein the image output apparatus is an image output apparatus.
撮影画像を取得する撮影画像取得ステップと、
この撮影画像取得ステップにて取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出ステップと、
前記撮影画像を撮影した位置情報を取得する位置情報取得ステップと、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶ステップと、
前記位置情報取得ステップにて取得された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出ステップにて抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶ステップにてメモリ記憶された一連の衣装画像の中から取得する対応画像取得ステップと、
この対応画像取得ステップにて取得された衣装画像を、前記対象画像抽出ステップにて抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成ステップと、
この画像合成ステップにて前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力ステップと、
からなることを特徴とする画像出力方法。
A captured image acquisition step of acquiring a captured image;
A target image extraction step of extracting a person image to be synthesized from the captured image acquired in the captured image acquisition step;
A position information acquisition step of acquiring position information obtained by capturing the captured image;
A pose-specific costume image storage step for storing a series of costume images consisting of a plurality of poses in a type of costume according to position information in a memory;
The costume image of the pose corresponding to the shooting position information of the shot image acquired in the position information acquisition step and corresponding to the person image to be synthesized extracted in the target image extraction step A corresponding image acquisition step of acquiring from a series of costume images stored in the memory in the image storage step;
Image composition for combining the costume image acquired in the corresponding image acquisition step with the person image to be combined in the photographed image extracted in the target image extraction step, leaving the face portion of the person image. Steps,
An image output step of outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized in this image synthesis step;
An image output method comprising:
撮影画像を取得する撮影画像取得ステップと、
この撮影画像取得ステップにて取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出ステップと、
前記撮影画像を撮影した時間情報を取得する時間情報取得ステップと、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶ステップと、
前記時間情報取得ステップにて取得された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出ステップにて抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶ステップにてメモリに記憶された一連の衣装画像の中から取得する対応画像取得ステップと、
この対応画像取得ステップにて取得された衣装画像を、前記対象画像抽出ステップにて抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成ステップと、
この画像合成ステップにて前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力ステップと、
からなることを特徴とする画像出力方法。
A captured image acquisition step of acquiring a captured image;
A target image extraction step of extracting a person image to be synthesized from the captured image acquired in the captured image acquisition step;
A time information acquisition step of acquiring time information of capturing the captured image;
A pose-specific costume image storage step for storing a series of costume images of a plurality of poses in a type of costume according to time information in a memory;
The costume image corresponding to the shooting time information of the captured image acquired in the time information acquisition step and the pose according to the person image to be combined extracted in the target image extraction step A corresponding image acquisition step of acquiring from a series of costume images stored in the memory in the image storage step;
Image composition for combining the costume image acquired in the corresponding image acquisition step with the person image to be combined in the photographed image extracted in the target image extraction step, leaving the face portion of the person image. Steps,
An image output step of outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized in this image synthesis step;
An image output method comprising:
コンピュータを制御して画像の出力処理を行うための画像出力処理プログラムであって、
前記コンピュータを、
撮影画像を取得する撮影画像取得手段、
この撮影画像取得手段により取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段、
前記撮影画像を撮影した位置情報を取得する位置情報取得手段、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶手段、
前記位置情報取得手段により取得された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段によりメモリに記憶された一連の衣装画像の中から取得する対応画像取得手段、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力手段、
として機能させるようにしたコンピュータ読み込み可能な画像出力処理プログラム。
An image output processing program for controlling a computer to perform image output processing,
The computer,
Captured image acquisition means for acquiring captured images,
Target image extraction means for extracting a person image to be synthesized from the captured image acquired by the captured image acquisition means;
Position information acquisition means for acquiring position information of the captured image;
Pose-specific costume image storage means for storing a series of costume images of a plurality of poses in a type of costume according to position information in a memory;
A costume image storing a pose corresponding to the photographic position information of the photographic image acquired by the position information acquisition unit and corresponding to the person image to be synthesized extracted by the target image extraction unit. Corresponding image acquisition means for acquiring from a series of costume images stored in the memory by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extraction means, leaving the face portion of the person image;
Image output means for outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
A computer-readable image output processing program designed to function as a computer.
コンピュータを制御して画像の出力処理を行うための画像出力処理プログラムであって、
前記コンピュータを、
撮影画像を取得する撮影画像取得手段、
この撮影画像取得手段により取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段、
前記撮影画像を撮影した時間情報を取得する時間情報取得手段、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶手段、
前記時間情報取得手段により取得された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段によりメモリに記憶された一連の衣装画像の中から取得する対応画像取得手段、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力手段、
として機能させるようにしたコンピュータ読み込み可能な画像出力処理プログラム。
An image output processing program for controlling a computer to perform image output processing,
The computer,
Captured image acquisition means for acquiring captured images,
Target image extraction means for extracting a person image to be synthesized from the captured image acquired by the captured image acquisition means;
Time information acquisition means for acquiring time information of photographing the photographed image;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to time information in a memory;
A costume image for each pose corresponding to the photographic time information of the photographic image acquired by the time information acquisition means, and a pose costume image corresponding to the person image to be synthesized extracted by the target image extraction means. Corresponding image acquisition means for acquiring from a series of costume images stored in the memory by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extraction means, leaving the face portion of the person image;
Image output means for outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
A computer-readable image output processing program designed to function as a computer.
端末から撮影画像を受信する撮影画像受信手段と、
この撮影画像受信手段により受信された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段と、
前記端末から前記撮影画像を撮影した位置情報を受信する位置情報受信手段と、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段と、
前記位置情報受信手段により受信された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から取得する対応画像取得手段と、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段と、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を前記端末へ送信する合成画像送信手段と、
を備えたことを特徴とする画像配信サーバ。
A captured image receiving means for receiving a captured image from the terminal;
Target image extracting means for extracting a person image to be synthesized from the photographed image received by the photographed image receiving means;
Position information receiving means for receiving position information obtained by photographing the photographed image from the terminal;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to position information;
The pose-specific costume image memory stores a pose costume image corresponding to the photographic position information of the photographic image received by the position information receiving means and corresponding to the person image to be synthesized extracted by the target image extracting means. Corresponding image acquisition means for acquiring from among a series of costume images stored by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extracting means, leaving the face portion of the person image. ,
A synthesized image transmitting means for transmitting to the terminal a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
An image delivery server comprising:
端末から撮影画像を受信する撮影画像受信手段と、
この撮影画像受信手段により受信された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段と、
前記端末から前記撮影画像を撮影した時間情報を受信する時間情報受信手段と、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段と、
前記時間情報受信手段により受信された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から取得する対応画像取得手段と、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段と、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を前記端末へ送信する合成画像送信手段と、
を備えたことを特徴とする画像配信サーバ。
A captured image receiving means for receiving a captured image from the terminal;
Target image extracting means for extracting a person image to be synthesized from the photographed image received by the photographed image receiving means;
Time information receiving means for receiving time information of photographing the photographed image from the terminal;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses with different types of costumes according to time information;
The pose-specific costume image memory stores a pose costume image corresponding to the photographic time information of the photographic image received by the time information receiving means and corresponding to the person image to be synthesized extracted by the target image extracting means. Corresponding image acquisition means for acquiring from among a series of costume images stored by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extracting means, leaving the face portion of the person image. ,
A synthesized image transmitting means for transmitting to the terminal a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
An image delivery server comprising:
コンピュータを制御して画像の配信処理を行うための画像配信処理プログラムであって、
前記コンピュータを、
端末から撮影画像を受信する撮影画像受信手段、
この撮影画像受信手段により受信された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段、
前記端末から前記撮影画像を撮影した位置情報を受信する位置情報受信手段、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶手段、
前記位置情報受信手段により受信された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段によりメモリに記憶された一連の衣装画像の中から取得する対応画像取得手段、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を前記端末へ送信する合成画像送信手段、
として機能させるようにしたコンピュータ読み込み可能な画像配信処理プログラム。
An image distribution processing program for controlling a computer to perform image distribution processing,
The computer,
Captured image receiving means for receiving captured images from the terminal,
Target image extraction means for extracting a person image to be synthesized from the photographed image received by the photographed image receiving means;
Position information receiving means for receiving position information obtained by photographing the photographed image from the terminal;
Pose-specific costume image storage means for storing a series of costume images of a plurality of poses in a type of costume according to position information in a memory;
The pose-specific costume image memory stores a pose costume image corresponding to the photographic position information of the photographic image received by the position information receiving means and corresponding to the person image to be synthesized extracted by the target image extracting means. Corresponding image acquisition means for acquiring from a series of costume images stored in the memory by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extraction means, leaving the face portion of the person image;
A composite image transmitting means for transmitting, to the terminal, a composite image in which a costume image of a pose corresponding to the person image to be combined is combined by the image combining means;
A computer-readable image distribution processing program that functions as a computer.
コンピュータを制御して画像の配信処理を行うための画像配信処理プログラムであって、
前記コンピュータを、
端末から撮影画像を受信する撮影画像受信手段、
この撮影画像受信手段により受信された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段、
前記端末から前記撮影画像を撮影した時間情報を受信する時間情報受信手段、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶手段、
前記時間情報受信手段により受信された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段によりメモリに記憶された一連の衣装画像の中から取得する対応画像取得手段、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を前記端末へ送信する合成画像送信手段、
として機能させるようにしたコンピュータ読み込み可能な画像配信処理プログラム。
An image distribution processing program for controlling a computer to perform image distribution processing,
The computer,
Captured image receiving means for receiving captured images from the terminal,
Target image extraction means for extracting a person image to be synthesized from the photographed image received by the photographed image receiving means;
Time information receiving means for receiving time information of photographing the photographed image from the terminal;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to time information in a memory;
The pose-specific costume image memory stores a pose costume image corresponding to the photographic time information of the photographic image received by the time information receiving means and corresponding to the person image to be synthesized extracted by the target image extracting means. Corresponding image acquisition means for acquiring from a series of costume images stored in the memory by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extraction means, leaving the face portion of the person image;
A composite image transmitting means for transmitting, to the terminal, a composite image in which a costume image of a pose corresponding to the person image to be combined is combined by the image combining means;
A computer-readable image distribution processing program that functions as a computer.
JP2003372626A 2003-10-31 2003-10-31 Image output device, image output method, image output processing program, image distribution server, and image distribution processing program Expired - Fee Related JP4423929B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003372626A JP4423929B2 (en) 2003-10-31 2003-10-31 Image output device, image output method, image output processing program, image distribution server, and image distribution processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003372626A JP4423929B2 (en) 2003-10-31 2003-10-31 Image output device, image output method, image output processing program, image distribution server, and image distribution processing program

Publications (2)

Publication Number Publication Date
JP2005136841A true JP2005136841A (en) 2005-05-26
JP4423929B2 JP4423929B2 (en) 2010-03-03

Family

ID=34648957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003372626A Expired - Fee Related JP4423929B2 (en) 2003-10-31 2003-10-31 Image output device, image output method, image output processing program, image distribution server, and image distribution processing program

Country Status (1)

Country Link
JP (1) JP4423929B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088729A (en) * 2007-09-28 2009-04-23 Casio Comput Co Ltd Composite image output device and composite image output processing program
JP2009086785A (en) * 2007-09-28 2009-04-23 Casio Comput Co Ltd Composite image output device and composite image output processing program
JP2010199772A (en) * 2009-02-24 2010-09-09 Olympus Imaging Corp Image display apparatus, image display method, and program
JP2010279068A (en) * 2010-08-09 2010-12-09 Nintendo Co Ltd Imaging apparatus, imaging system and game machine
JP2011103561A (en) * 2009-11-11 2011-05-26 Sony Corp System, device and method for processing image, and program
JP2012105008A (en) * 2010-11-09 2012-05-31 Casio Comput Co Ltd Image processing device and method, and program
JP2012108923A (en) * 2011-12-22 2012-06-07 Casio Comput Co Ltd Composite image output device and composite image output processing program
JP2013097699A (en) * 2011-11-04 2013-05-20 Sony Corp Image processing apparatus, image processing method, and program
JP2013143725A (en) * 2012-01-12 2013-07-22 Casio Comput Co Ltd Image display device, image display method, and program
US8698920B2 (en) 2009-02-24 2014-04-15 Olympus Imaging Corp. Image display apparatus and image display method
WO2015068447A1 (en) * 2013-11-06 2015-05-14 ソニー株式会社 Information processing device, information processing method, and information processing system
JP2016189622A (en) * 2016-07-06 2016-11-04 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
US10163419B2 (en) 2011-11-08 2018-12-25 Sony Corporation Image processing to combine virtual object with captured image
JP2020178191A (en) * 2019-04-16 2020-10-29 大日本印刷株式会社 Image processing device, photographing device, and program
CN113869435A (en) * 2021-09-30 2021-12-31 北京爱奇艺科技有限公司 Image processing method, image processing device, clothing identification method, clothing identification device, equipment and storage medium
CN113890994A (en) * 2021-09-30 2022-01-04 荣耀终端有限公司 Image capturing method, system, storage medium, and program product
JP7465487B2 (en) 2021-07-27 2024-04-11 ダナル エンターテインメント カンパニー リミテッド Emoticon Generator

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009088729A (en) * 2007-09-28 2009-04-23 Casio Comput Co Ltd Composite image output device and composite image output processing program
JP2009086785A (en) * 2007-09-28 2009-04-23 Casio Comput Co Ltd Composite image output device and composite image output processing program
US8698920B2 (en) 2009-02-24 2014-04-15 Olympus Imaging Corp. Image display apparatus and image display method
JP2010199772A (en) * 2009-02-24 2010-09-09 Olympus Imaging Corp Image display apparatus, image display method, and program
JP2011103561A (en) * 2009-11-11 2011-05-26 Sony Corp System, device and method for processing image, and program
US9547791B2 (en) 2009-11-11 2017-01-17 Sony Corporation Image processing system, image processing apparatus, image processing method, and program
US9020210B2 (en) 2009-11-11 2015-04-28 Sony Corporation Image processing system, image processing apparatus, image processing method, and program
JP2010279068A (en) * 2010-08-09 2010-12-09 Nintendo Co Ltd Imaging apparatus, imaging system and game machine
JP2012105008A (en) * 2010-11-09 2012-05-31 Casio Comput Co Ltd Image processing device and method, and program
JP2013097699A (en) * 2011-11-04 2013-05-20 Sony Corp Image processing apparatus, image processing method, and program
US11024251B2 (en) 2011-11-08 2021-06-01 Sony Corporation Image processing apparatus and image processing method
US10720122B2 (en) 2011-11-08 2020-07-21 Sony Corporation Image processing apparatus and image processing method
US10163419B2 (en) 2011-11-08 2018-12-25 Sony Corporation Image processing to combine virtual object with captured image
JP2012108923A (en) * 2011-12-22 2012-06-07 Casio Comput Co Ltd Composite image output device and composite image output processing program
JP2013143725A (en) * 2012-01-12 2013-07-22 Casio Comput Co Ltd Image display device, image display method, and program
US10133966B2 (en) 2013-11-06 2018-11-20 Sony Corporation Information processing apparatus, information processing method, and information processing system
WO2015068447A1 (en) * 2013-11-06 2015-05-14 ソニー株式会社 Information processing device, information processing method, and information processing system
JP2016189622A (en) * 2016-07-06 2016-11-04 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
JP2020178191A (en) * 2019-04-16 2020-10-29 大日本印刷株式会社 Image processing device, photographing device, and program
JP7293834B2 (en) 2019-04-16 2023-06-20 大日本印刷株式会社 Image processing device, photography device, program
JP7465487B2 (en) 2021-07-27 2024-04-11 ダナル エンターテインメント カンパニー リミテッド Emoticon Generator
CN113869435A (en) * 2021-09-30 2021-12-31 北京爱奇艺科技有限公司 Image processing method, image processing device, clothing identification method, clothing identification device, equipment and storage medium
CN113890994A (en) * 2021-09-30 2022-01-04 荣耀终端有限公司 Image capturing method, system, storage medium, and program product
CN113890994B (en) * 2021-09-30 2022-12-23 荣耀终端有限公司 Image photographing method, system and storage medium

Also Published As

Publication number Publication date
JP4423929B2 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
JP4423929B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
US8698920B2 (en) Image display apparatus and image display method
CN101232594B (en) Image pickup device and image processing apparatus
JP3918632B2 (en) Image distribution server, image distribution program, and image distribution method
JP2010183317A (en) Imaging device, image composition and display device, image composition and display method, and program
JP2010171676A (en) Camera, image display device, image display method, and program
JP7011206B2 (en) Amusement photography equipment, image processing equipment, and image processing methods
JP5012373B2 (en) Composite image output apparatus and composite image output processing program
JP5169111B2 (en) Composite image output apparatus and composite image output processing program
JP6043753B2 (en) Content reproduction system, server, portable terminal, content reproduction method, program, and recording medium
JP4161769B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP4168800B2 (en) Image distribution device
JP2015093010A (en) Game system
JP4151543B2 (en) Image output apparatus, image output method, and image output processing program
JP3901015B2 (en) Image output apparatus, image output processing program, and image output method
JP4254391B2 (en) Image output device, image output processing program, and image distribution server
JP2005107988A (en) Image output device, image output method, image output processing program, image delivery server and image delivery processing program
CN113012040B (en) Image processing method, image processing device, electronic equipment and storage medium
JP2013168969A (en) Image display method, and image display device
JP2007166383A (en) Digital camera, image composing method, and program
JP6461289B2 (en) Game system
JP2004088728A (en) Picture providing apparatus, method, and program thereof
JP4168803B2 (en) Image output device
JP6849851B2 (en) Shooting system, shooting device and user shooting method
JP2004173320A (en) Image providing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091130

R150 Certificate of patent or registration of utility model

Ref document number: 4423929

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131218

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees