JP2005136841A - Device, method and program of image output processing, image distribution server and image distribution processing program - Google Patents
Device, method and program of image output processing, image distribution server and image distribution processing program Download PDFInfo
- Publication number
- JP2005136841A JP2005136841A JP2003372626A JP2003372626A JP2005136841A JP 2005136841 A JP2005136841 A JP 2005136841A JP 2003372626 A JP2003372626 A JP 2003372626A JP 2003372626 A JP2003372626 A JP 2003372626A JP 2005136841 A JP2005136841 A JP 2005136841A
- Authority
- JP
- Japan
- Prior art keywords
- image
- costume
- pose
- synthesized
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、デジタルカメラやカメラ付携帯端末などにおける撮影画像に応じた画像を合成して出力するための画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラムに関する。 The present invention relates to an image output device, an image output method, an image output processing program, an image distribution processing program, an image distribution processing program, and an image distribution processing program for synthesizing and outputting an image corresponding to a captured image in a digital camera, a camera-equipped mobile terminal, or the like. .
従来、各種のスチルカメラやビデオカメラにおいて、撮影した画像に対し他の画像を合成して表示あるいは印刷して出力するものがある。 2. Description of the Related Art Conventionally, there are various types of still cameras and video cameras that synthesize and display or print and output another image with a captured image.
例えば撮影フレームの固定した位置に予め用意された花や人気キャラクタなどのアニメ画像を合成して出力するものや、同予め用意されたアニメ画像を撮影フレーム内の希望の位置に合成して出力するものなどが実用されている。 For example, an animation image such as a flower or a popular character prepared in advance at a fixed position of the shooting frame is output and synthesized, or an animation image prepared in advance is combined and output at a desired position in the shooting frame. Things are in practical use.
また、デジタルカメラにより撮影された画像をパーソナルコンピュータの表示画面上に表示させて他の画像と合成して編集することもできるが、この場合に他の画像は例えば他の画像ファイルから選択的に切り出したり、インターネット上の任意のホームページ画面からダウンロードしたりするなどして取得され、撮影画像上の希望位置に合成される。 In addition, an image captured by a digital camera can be displayed on a display screen of a personal computer and combined with another image for editing. In this case, for example, another image can be selectively selected from other image files. It is obtained by cutting out or downloading from any homepage screen on the Internet, and is synthesized at a desired position on the photographed image.
また、デジタルカメラにより撮影された画像の任意の領域(例えば顔の部分)を切り出し、この切り出し画像を予め用意されたアニメ画像(例えばアニメキャラクタの顔部分)に合成させて新たな別の画像を作成するものや、任意の画像の指定した領域に対して、これに関連付けたアニメ画像を合成する(青空と推定される青色領域に雲画像を合成したり雪景色と推定される白色領域に雪像を合成したりする)ものも考えられている(例えば、特許文献1参照。)。
前記従来の画像処理システムでは、撮影画像に対して、予め用意された画像をそのまま固定あるいは希望の位置に合成して出力したり、あるいは任意の切り出し画像に対して予め用意された画像を合成して出力したりするだけのものであるため、撮影画像以外の合成画像が常に固定的で変化が無く、またインターネットから多様な画像をダウンロードして利用するにしても、個々の撮影画像とは密接に関係しない単なる飾りなどでしかないため、面白味に欠け飽きが来やすい問題がある。 In the conventional image processing system, an image prepared in advance is fixed to a captured image as it is or is combined and output at a desired position, or an image prepared in advance is combined with an arbitrary clipped image. The combined image other than the shot image is always fixed and does not change, and even if various images are downloaded from the Internet and used, they are closely related to each shot image. There is a problem that it is not easy to get tired of because it is just a decoration that is not related to.
一方で近年、小型のデジタルカメラやデジタルカメラ付きの携帯電話が大幅に普及したことにより、各ユーザは常にこれを持ち歩き、何処でも,何時でも画像の撮影ができる状況となっている。 On the other hand, with the recent widespread use of small digital cameras and mobile phones with digital cameras, each user can always carry them around and take pictures anytime and anywhere.
本発明は、前記のような問題に鑑みてなされたもので、撮影画像に対して単に固定的な画像を合成するのではなく、場所や季節(時間)に応じて被写体画像に対応したポーズの衣装画像を合成して出力することが可能になる画像出力装置、画像出力方法、画像出力処理プログラム、および画像配信サーバ、画像配信処理プログラムを提供することを目的とする。 The present invention has been made in view of the above-described problems, and does not simply synthesize a fixed image with a captured image, but has a pose corresponding to the subject image according to the location and season (time). An object of the present invention is to provide an image output device, an image output method, an image output processing program, an image distribution server, and an image distribution processing program that can synthesize and output a costume image.
本発明の請求項1に係る画像出力装置では、位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段を有し、撮影画像取得手段により取得された撮影画像から合成対象の人物画像を対象画像抽出手段によって抽出し、前記撮影画像を撮影した位置情報を位置情報取得手段によって取得する。すると、この位置情報取得手段により取得された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像が、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から対応画像取得手段によって取得される。そして、この対応画像取得手段により取得された衣装画像は、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対して、当該人物画像の顔部分を残し画像合成手段によって合成され、この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像が画像出力手段によって出力される。
The image output apparatus according to
これによれば、撮影画像の中の合成対象の人物画像に応じたポーズの衣装画像を取得して当該合成対象の人物画像と顔部分のみ残し合成して出力できるだけでなく、この撮影画像の撮影位置(場所)に応じた種類の衣装画像として前記合成対象の人物画像と合成することで、撮影画像上の人物画像をそのままのポーズで撮影位置(場所)に応じた衣装に着せ替えた合成画像として出力できることになる。 According to this, it is possible not only to acquire a costume image of a pose according to the person image to be synthesized in the photographed image and to synthesize and output only the face image and the person image to be synthesized, but also to shoot this photographed image. A composite image in which the person image on the photographed image is dressed in the costume according to the photographing position (location) as it is by compositing it with the person image to be synthesized as a type of costume image according to the position (location). Can be output as
本発明の請求項2に係る画像出力装置では、時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段を有し、撮影画像取得手段により取得された撮影画像から合成対象の人物画像を対象画像抽出手段によって抽出し、前記撮影画像を撮影した時間情報を時間情報取得手段によって取得する。すると、この時間情報取得手段により取得された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像が、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から対応画像取得手段によって取得される。そして、この対応画像取得手段により取得された衣装画像は、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対して、当該人物画像の顔部分を残し画像合成手段によって合成され、この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像が画像出力手段によって出力される。 The image output apparatus according to claim 2 of the present invention has a pose-specific costume image storage means for storing a series of costume images composed of a plurality of poses in a type of costume according to time information, and is acquired by a captured image acquisition means. The person image to be synthesized is extracted from the captured image by the target image extraction unit, and the time information of the captured image is acquired by the time information acquisition unit. Then, a costume image corresponding to the shooting time information of the captured image acquired by the time information acquisition unit and in accordance with the person image to be synthesized extracted by the target image extraction unit is the costume by pose. Acquired by the corresponding image acquisition means from the series of costume images stored by the image storage means. Then, the costume image acquired by the corresponding image acquisition unit is obtained by the image synthesis unit while leaving the face portion of the person image for the human image to be synthesized in the photographed image extracted by the target image extraction unit. The synthesized image obtained by synthesizing the costume image of the pose corresponding to the person image to be synthesized is output by the image output means.
これによれば、撮影画像の中の合成対象の人物画像に応じたポーズの衣装画像を取得して当該合成対象の人物画像と顔部分のみ残し合成して出力できるだけでなく、この撮影画像の撮影時間(時期)に応じた種類の衣装画像として前記合成対象の人物画像と合成することで、撮影画像上の人物画像をそのままのポーズで撮影時間(時期)に応じた衣装に着せ替えた合成画像として出力できることになる。 According to this, it is possible not only to acquire a costume image of a pose according to the person image to be synthesized in the photographed image and to synthesize and output only the face image and the person image to be synthesized, but also to shoot this photographed image. A composite image in which the person image on the photographed image is changed into a costume according to the photographing time (period) by combining it with the person image to be synthesized as a costume image of a kind according to the time (period). Can be output as
本発明の請求項3に係る画像出力装置は、前記請求項1または請求項2に係る画像出力装置にあって、前記対象画像抽出手段では、前記撮影画像取得手段により取得された一連の複数の撮影画像の中から変化部分を合成対象の人物画像として抽出する。 An image output apparatus according to a third aspect of the present invention is the image output apparatus according to the first or second aspect, wherein the target image extraction means is a series of a plurality of images acquired by the captured image acquisition means. A changed portion is extracted from the captured image as a person image to be synthesized.
これによれば、撮影に際して連続的にサンプリングされて取り込まれた一連の複数の撮影画像に基づき、その変化部分を合成対象の人物画像として容易に抽出できることになる。 According to this, based on a series of a plurality of photographed images that are continuously sampled and captured at the time of photographing, the changed portion can be easily extracted as a person image to be synthesized.
本発明の請求項4に係る画像出力装置は、前記請求項1または請求項2に係る画像出力装置にあって、前記対象画像抽出手段では、前記撮影画像取得手段により取得された撮影画像の各画像部分間の距離情報に応じて合成対象の人物画像を抽出する。 An image output device according to a fourth aspect of the present invention is the image output device according to the first or second aspect, wherein the target image extraction unit includes each of the captured images acquired by the captured image acquisition unit. A human image to be synthesized is extracted according to distance information between image portions.
これによれば、撮影された1枚の撮影画像の各画像部分の撮影距離に基づき、その手前画像部分を合成対象者の人物画像として容易に抽出できることになる。 According to this, based on the shooting distance of each image portion of one shot image, the near image portion can be easily extracted as a person image of the person to be synthesized.
本発明の請求項5に係る画像出力装置は、前記請求項1ないし請求項4の何れか1項に係る画像出力装置にあって、前記対応画像取得手段では、前記対象画像抽出手段により抽出された撮影画像における合成対象の人物画像と前記ポーズ別衣装画像記憶手段により記憶された各ポーズごとの衣装画像との類似度を評価する類似度評価手段を有し、この類似度評価手段により評価された合成対象の人物画像と各衣装画像との類似度に応じて当該合成対象の人物画像に対応したポーズの衣装画像を取得する。 An image output apparatus according to a fifth aspect of the present invention is the image output apparatus according to any one of the first to fourth aspects, wherein the corresponding image acquisition means extracts the image output apparatus by the target image extraction means. A similarity evaluation unit that evaluates the similarity between the person image to be synthesized in the captured image and the costume image for each pose stored by the pose-specific costume image storage unit, and is evaluated by the similarity evaluation unit. A costume image of a pose corresponding to the person image to be synthesized is acquired according to the similarity between the person image to be synthesized and each costume image.
これによれば、撮影画像における合成対象の人物画像のポーズにまねて合成すべき、撮影位置(場所)または撮影時間(時期)に応じた種類の衣装画像を容易に取得できることになる。 According to this, it is possible to easily acquire the type of costume image according to the shooting position (location) or shooting time (time) to be combined with the pose of the person image to be combined in the shot image.
本発明の請求項6に係る画像出力装置は、前記請求項1ないし請求項4の何れか1項に係る画像出力装置にあって、前記対応画像取得手段では、前記ポーズ別衣装画像記憶手段により記憶された衣装画像の各ポーズに対応付けた複数のポーズのモデル画像を記憶するモデル画像記憶手段と、前記対象画像抽出手段により抽出された撮影画像における合成対象の人物画像と前記モデル画像記憶手段により記憶された各ポーズのモデル画像との類似度を評価する類似度評価手段とを有し、この類似度評価手段により評価された合成対象の人物画像と各モデル画像との類似度に応じて当該モデル画像のポーズに対応付けられて前記ポーズ別衣装画像記憶手段により記憶された衣装画像を取得する。 An image output apparatus according to a sixth aspect of the present invention is the image output apparatus according to any one of the first to fourth aspects, wherein the corresponding image acquisition means includes the pose-specific costume image storage means. A model image storage means for storing model images of a plurality of poses associated with each pose of the stored costume image; a person image to be synthesized in the photographed image extracted by the target image extraction means; and the model image storage means A degree-of-similarity evaluation unit that evaluates the degree of similarity of each pose stored in the model image according to the degree of similarity between the person image to be synthesized and the model image evaluated by the degree-of-similarity evaluation unit. A costume image associated with the pose of the model image and stored by the pose-specific costume image storage means is acquired.
これによれば、撮影画像における合成対象の人物画像のポーズにまねて合成すべき、撮影位置(場所)または撮影時間(時期)に応じた種類の衣装画像を容易に取得できるだけでなく、類似度の評価対象に標準的モデルを用いることから合成対象の人物画像との高い類似(まね)度が得られやすく、より表現上違和感のない衣装画像を取得できることになる。 According to this, it is possible not only to easily acquire a type of costume image according to the shooting position (location) or shooting time (time) to be combined with the pose of the person image to be combined in the shot image, but also to obtain a similarity degree. Since a standard model is used for the evaluation object, it is easy to obtain a high degree of similarity (simulation) with the person image to be synthesized, and it is possible to acquire a costume image that is more comfortable in terms of expression.
本発明の請求項1に係る画像出力装置によれば、撮影画像の中の合成対象の人物画像に応じたポーズの衣装画像を取得して当該合成対象の人物画像と顔部分のみ残し合成して出力できるだけでなく、この撮影画像の撮影位置(場所)に応じた種類の衣装画像として前記合成対象の人物画像と合成することで、撮影画像上の人物画像をそのままのポーズで撮影位置(場所)に応じた衣装に着せ替えた合成画像として出力できるようになる。 According to the image output apparatus of the first aspect of the present invention, a costume image in a pose corresponding to the person image to be combined in the photographed image is acquired and combined with the person image to be combined and the face portion remaining. In addition to outputting, the person image on the photographed image is captured in the pose as it is by synthesizing it with the person image to be synthesized as a costume image of a type corresponding to the photographing position (place) of the photographed image. It becomes possible to output as a composite image dressed in a costume according to.
本発明の請求項2に係る画像出力装置によれば、撮影画像の中の合成対象の人物画像に応じたポーズの衣装画像を取得して当該合成対象の人物画像と顔部分のみ残し合成して出力できるだけでなく、この撮影画像の撮影時間(時期)に応じた種類の衣装画像として前記合成対象の人物画像と合成することで、撮影画像上の人物画像をそのままのポーズで撮影時間(時期)に応じた衣装に着せ替えた合成画像として出力できるようになる。 According to the image output apparatus of the second aspect of the present invention, a costume image in a pose corresponding to the person image to be combined in the photographed image is acquired and combined with the person image to be combined and the face portion remaining. In addition to outputting, the person image on the photographed image is captured in the pose as it is by synthesizing it with the person image to be synthesized as a costume image of a type corresponding to the photograph time (period) of the photographed image. It becomes possible to output as a composite image dressed in a costume according to.
本発明の請求項3に係る画像出力装置によれば、前記請求項1または請求項2に係る画像出力装置にあって、撮影に際して連続的にサンプリングされて取り込まれた一連の複数の撮影画像に基づき、その変化部分を合成対象の人物画像として容易に抽出できるようになる。 According to the image output device of the present invention, the image output device according to the first or second aspect of the present invention provides a series of a plurality of captured images that are continuously sampled and captured at the time of shooting. Based on this, the changed portion can be easily extracted as a person image to be synthesized.
本発明の請求項4に係る画像出力装置によれば、前記請求項1または請求項2に係る画像出力装置にあって、撮影された1枚の撮影画像の各画像部分の撮影距離に基づき、その手前画像部分を合成対象者の人物画像として容易に抽出できるようになる。
According to the image output device according to
本発明の請求項5に係る画像出力装置によれば、前記請求項1ないし請求項4の何れか1項に係る画像出力装置にあって、撮影画像における合成対象の人物画像のポーズにまねて合成すべき、撮影位置(場所)または撮影時間(時期)に応じた種類の衣装画像を容易に取得できるようになる。 According to an image output device of a fifth aspect of the present invention, in the image output device according to any one of the first to fourth aspects of the present invention, imitating a pose of a person image to be synthesized in a photographed image. It is possible to easily acquire the type of costume image corresponding to the shooting position (location) or shooting time (time) to be synthesized.
本発明の請求項6に係る画像出力装置によれば、前記請求項1ないし請求項4の何れか1項に係る画像出力装置にあって、撮影画像における合成対象の人物画像のポーズにまねて合成すべき、撮影位置(場所)または撮影時間(時期)に応じた種類の衣装画像を容易に取得できるだけでなく、類似度の評価対象に標準的モデルを用いることから合成対象の人物画像との高い類似(まね)度が得られやすく、より表現上違和感のない衣装画像を取得できるようになる。
According to an image output apparatus according to claim 6 of the present invention, in the image output apparatus according to any one of
よって、本発明によれば、撮影画像に対して単に固定的な画像を合成するのではなく、場所や季節(時間)に応じて被写体画像に対応したポーズの衣装画像を合成して出力することが可能になる。 Therefore, according to the present invention, instead of simply synthesizing a fixed image with a photographed image, a costume image with a pose corresponding to the subject image is synthesized and output according to the location and season (time). Is possible.
以下、図面を参照して本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(第1実施形態)
図1は本発明の第1実施形態に係る画像出力装置10の電子回路の構成を示すブロック図である。
(First embodiment)
FIG. 1 is a block diagram showing a configuration of an electronic circuit of the
この画像出力装置10は、デジタルカメラ、デジタルカメラ付き携帯電話、デジタルカメラ付きPDA(personal digital assistants)などの携帯機器として構成されるもので、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)11が備えられる。
The
CPU11は、メモリ12内に予め記憶された装置制御プログラム、あるいはCD−ROMなどの外部記録媒体13から記録媒体読取部14を介して前記メモリ12に読み込まれた装置制御プログラム、あるいはインターネットN上のWebサーバ21(この場合はプログラムサーバ)から電送制御部15を介して前記メモリ12に読み込まれた装置制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ12に記憶された装置制御プログラムは、キーやタッチパネルからなる入力部16からのユーザ操作に応じた入力信号、あるいは画像入力部17を介して入力される画像信号、あるいは位置情報検出部(GPS:Global Positioning System)18xを介して入力される現在位置情報、あるいは電送制御部15を介して接続されるインターネットN上の各Webサーバ21…との通信信号に応じて起動される。
The
前記CPU11には、前記メモリ12、記録媒体読取部14、電送制御部15、入力部16、画像入力部17、位置情報検出部18xが接続される他に、距離センサ18、LCDからなる表示部19、画像出力部20などが接続される。
The
画像入力部17は、撮影画像データを入力するもので、この撮影画像データは、デジタルカメラ部17A、デジタルビデオムービー部17Bなどの画像撮影手段から選択的に取得される。なお、これらの画像撮影手段(17A)(17B)は、携帯機器である画像出力装置10の本体とは別体にして、接続ケーブルにより接続して使用したり、コネクタにより合体一体化して使用したりする構成としてもよい。
The
距離センサ18は、前記画像入力部17において入力される撮影画像の被写体までの距離を検出する。
The
画像出力部20は、前記画像入力部17から入力された撮影画像に基づき本装置により処理された画像データを出力するもので、この出力画像データは、メモリカード20A、VTR(録画装置)20B、画像印刷機20Cに選択的に出力され、当該画像の記憶,録画,印刷が行われる。
The
メモリ12には、当該画像出力装置10の全体の動作を司るシステムプログラムや電送制御部15を介してインターネットN上の各Webサーバ21…とデータ通信するための通信プログラムが記憶される他に、画像入力部17や画像出力部20を介して撮影画像における合成(まね)対象画像(被写体人物像)に応じた対応衣装画像(例えば被写体人物像のポーズを真似た各種衣装画像)への置き換え(着せ替え)合成出力処理をその撮影場所(位置)や月日(時間)に関連付けて行うための画像出力処理プログラム12aなどが記憶される。
The
また、このメモリ12には、モデルポーズ画像メモリ12b、衣装1「時代劇」ポーズ画像メモリ12c、衣装2「ウエスタン」ポーズ画像メモリ12d、衣装3「中世ヨーロッパ」ポーズ画像メモリ12e…や衣装13「夏(6月〜9月)」ポーズ画像メモリ12f、衣装14「春秋(4,5,10,11月)」ポーズ画像メモリ12g、衣装15「冬(12月〜3月)」ポーズ画像メモリ12hなどが用意され、さらに撮影画像メモリ12i、合成(まね)対象画像位置メモリ12j、位置情報登録メモリ12k、現在年月日メモリ12l、そしてワークエリア12mなどが用意される。
The
図2は前記画像出力装置10の衣装1「時代劇」ポーズ画像メモリ12c:衣装2「ウエスタン」ポーズ画像メモリ12d…衣装13「夏(6月〜9月)」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各男性版の衣装画像12cM,12dM,12fMを示す図である。
2 shows the
図3は前記画像出力装置10の衣装1「時代劇」ポーズ画像メモリ12c:衣装2「ウエスタン」ポーズ画像メモリ12d…衣装13「夏(6月〜9月)」ポーズ画像メモリ12fにそれぞれ記憶された各種のポーズに対応する各女性版の衣装画像12cW,12dW,12fWを示す図である。
FIG. 3 shows the
この衣装1「時代劇」,2「ウエスタン」,3「中世ヨーロッパ」の各ポーズ画像メモリ12c,12d,12e,…や衣装13「夏(6月〜9月)」,衣装14「春秋(4,5,10,11月)」,衣装15「冬(12月〜3月)」の各ポーズ画像メモリ12f,12g,12h,…に記憶された各衣装それぞれの各種のポーズ画像は、画像入力部17から入力された撮影画像上の被写体人物像(合成(まね)対象画像)のポーズを真似た衣装画像として選択的に使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶される。またこれらの各衣装それぞれのポーズ画像が撮影画像上の被写体人物像(合成(まね)対象画像)のポーズを真似た衣装画像として使用される際には、そのときの場所(位置)や季節(年月日時刻)に応じて指定される種類の衣装のポーズ画像が使用される。
Each
図4は前記画像出力装置10のモデルポーズ画像メモリ12bに記憶されたモデルポーズに対応するモデル画像を示す図である。
FIG. 4 is a view showing a model image corresponding to the model pose stored in the model pose
このモデルポーズ画像メモリ12bに記憶された各種ポーズのモデル画像は、画像入力部17から入力された撮影画像上の被写体人物像(合成(まね)対象画像)のポーズに応じた類似のモデル画像を取得するために使用されるもので、異なるポーズ毎にそのポーズNo.が対応付けられて記憶され、さらに各ポーズNo.毎に3種のバリエーションA,B,Cのモデル画像が記憶される。
The model images of various poses stored in the model pose
そして、前記衣装1「時代劇」,2「ウエスタン」,3「中世ヨーロッパ」の各ポーズ画像メモリ12c,12d,12e,…や衣装13「夏(6月〜9月)」,14「春秋(4,5,10,11月)」,15「冬(12月〜3月)」の各ポーズ画像メモリ12f,12g,12h,…にそれぞれ記憶された各衣装画像には、前記モデルポーズ画像メモリ12bに記憶された全てのポーズNo.(No.1A,1B,1C、2A,2B,2C、〜、nA,nB,nC)に対応する同じポーズの衣装画像が用意されて記憶される。
Then, the
なお、前記各衣装のポーズ画像メモリ12c〜12hに記憶される各衣装画像は、髪型および首から下の全胴体部分を衣装画像とし、顔の部分のみ抜かされて透明画像とされ、撮影画像における合成(まね)対象画像への重ね合わせによる置き換え画像合成を行うことで、合成(まね)対象画像の顔部分のみ残して衣装を着せ替えた合成画像が作成される。
The costume images stored in the
撮影画像メモリ12iには、画像入力部17を介して入力された撮影画像データおよびこれに基づき作成された合成画像データがその撮影画像単位1,2,…で記憶される。なお、この撮影画像メモリ12iに記憶される各撮影画像データには、当該撮影画像の撮影時直前(例えばシャッタ半押し中)にサンプリングされた複数枚の撮影準備画像が共に記憶されるか、または当該撮影画像のAF(auto focus)処理に伴い取得された画像領域各部における撮影距離データが共に記憶される。
The photographed
合成(まね)対象画像位置メモリ12jには、前記撮影画像メモリ12iに記憶された撮影画像1,2,…のそれぞれにおいて抽出された合成(まね)対象である各被写体人物像の位置情報が座標情報などにより各撮影画像単位1,2,…で記憶される。
In the compositing target image position memory 12j, the position information of each subject person image that is a compositing target extracted in each of the captured
位置情報登録メモリ12kには、前記各衣装1「時代劇」,2「ウエスタン」,3「中世ヨーロッパ」のポーズ画像12c,12d,12eを指定するためのテーマパークやイベント施設,アミューズメント施設である、例えば時代劇村,ウエスタン村,ユーロ村などの各衣装に応じた特定の場所(位置)の情報が、緯度・経度の情報として各場所(位置)単位1,2,…で登録される。
The location information registration memory 12k includes theme parks, event facilities, and amusement facilities for designating the
現在年月日メモリ12lには、例えば前記CPU11から出力されるクロック信号に基づき計時される現在の年・月・日・時間(時刻)のデータが記憶される。
The current year / month / day memory 12l stores, for example, current year / month / day / time (time) data measured based on a clock signal output from the
ワークエリア12mには、前記画像出力処理プログラム12aに従い処理される画像データがその画像処理に応じて一時記憶される。
In the work area 12m, image data processed in accordance with the image
このように構成された画像出力装置10について、その合成画像作成動作の概要を説明する。
An outline of the composite image creation operation of the
図5は前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影場所(時代劇村)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図である。
FIG. 5 is a diagram showing a replacement (dressing) composition state of a costume pose image corresponding to a photographing place (period play village) with respect to a person image to be synthesized (simulated) of the
図5(A)に示すように、例えば時代劇村において、入力部16におけるシャッタの半押し操作に伴い、画像入力部17から撮影画像12i1が取り込まれて表示部19に表示されると、この撮影表示中の撮影画像12i1の中から、図5(B)に示すように、合成(まね)対象としての被写体画像(人物画像)H1,H2,H3が抽出される。そして、位置情報検出部18xにより検出される現在の撮影位置(場所)が位置情報登録メモリ12kに登録された時代劇村であると判断されると、図5(C)に示すように、被写体画像(人物画像)H1,H2,H3それぞれのポーズに類似(真似)のポーズNo.19「しゃがむ」の男性版および女性版の時代劇衣装のポーズ画像12cM(19),12cW(19),12cM(19)が衣装1「時代劇」ポーズ画像メモリ12cから読み出される。すると、図5(D)に示すように、撮影画像12i1上の合成(まね)対象である各被写体画像(人物画像)H1,H2,H3それぞれの位置に、前記衣装1「時代劇」ポーズ画像メモリ(男性版/女性版)12cから読み出されたポーズNo.19「しゃがむ」の時代劇スタイルの各ポーズ画像12cM(19),12cW(19),12cM(19)が元の撮影画像12i1の顔部分のみ残し置き換え(着せ替え)られて合成される。
As shown in FIG. 5A, for example, in a historical village, when the photographed image 12i1 is captured from the
これにより、位置情報登録メモリ12kに登録された時代劇村で撮影した場合には、撮影画像12i1における各被写体(人物画像)H1,H2,H3のポーズの真似をした「時代劇」スタイルの衣装ポーズ画像12cM(19),12cW(19),12cM(19)が当該各被写体(人物画像)H1,H2,H3と顔部分のみ残して置き換え合成され、元の被写体画像H1,H2,H3のコスチュームを時代劇衣装に着せ替えて表示取得できるようになる。 As a result, when taking a picture in a historical drama village registered in the position information registration memory 12k, a “drama play” style costume imitating the pose of each subject (person image) H1, H2, H3 in the shot image 12i1. The pose images 12cM (19), 12cW (19), and 12cM (19) are replaced and combined with the respective subjects (person images) H1, H2, and H3, leaving only the face portions, and the costumes of the original subject images H1, H2, and H3 are combined. It becomes possible to get the display by changing into a period drama costume.
なお、撮影画像12i1から抽出された各被写体人物像H1,H2,H3それぞれの男性/女性の区別は、当該各被写体人物像H1,H2,H3の抽出表示画面上でユーザにより指定区別されて衣装1「時代劇」ポーズ画像メモリ(男性版:図2参照)12cから類似ポーズの男性衣装画像12cM(19)が読み出されるか、同衣装1「時代劇」ポーズ画像メモリ(女性版:図3参照)12cから類似ポーズの女性衣装画像12cW(19)が読み出される。また、各被写体人物像H1,H2,H3の抽出表示画面上でのユーザによる男性/女性の指定区別を行わない場合には、場所情報に対応した衣装1「時代劇」ポーズ画像メモリ(男性版/女性版)12cから類似度が高い方の男性または女性の衣装ポーズ画像12cM(19)または12cW(19)が読み出される。
The distinction between male / female in each subject person image H1, H2, H3 extracted from the photographed image 12i1 is specified and distinguished by the user on the extraction display screen of each subject person image H1, H2, H3. 1 “period drama” pose image memory (male version: see FIG. 2) 12cM (19) of a similar pose is read from 12c or the
図6は前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影場所(ウエスタン村)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図である。
FIG. 6 is a diagram showing a replacement (dressing) composition state of a costume pose image according to a photographing location (Western village) for a person image to be synthesized (simulated) of the photographed image of the
図6(A)に示すように、例えばウエスタン村において、入力部16におけるシャッタの半押し操作に伴い、画像入力部17から撮影画像12i2が取り込まれて表示部19に表示されると、この撮影表示中の撮影画像12i2の中から、図6(B)に示すように、合成(まね)対象としての被写体画像(人物画像)H1,H2,H3が抽出される。そして、位置情報検出部18xにより検出される現在の撮影位置(場所)が位置情報登録メモリ12kに登録されたウエスタン村であると判断されると、図6(C)に示すように、被写体画像(人物画像)H1,H2,H3それぞれのポーズに類似(真似)のポーズNo.4「歩く(横)反転」の男性版ウエスタンスタイルの衣装ポーズ画像12dM(4)R,ポーズNo.20「ばんざい」の男性版ウエスタンスタイルの衣装ポーズ画像12dM(20),ポーズNo.4「歩く(横)」の女性版ウエスタンスタイルの衣装ポーズ画像12dW(4)が衣装2「ウエスタン」ポーズ画像メモリ12dから読み出される。すると、図6(D)に示すように、撮影画像12i2上の合成(まね)対象である各被写体画像(人物画像)H1,H2,H3それぞれの位置に、前記衣装2「ウエスタン」ポーズ画像メモリ(男性版/女性版)12dから読み出されたポーズNo.4「歩く(横)反転」,No.20「ばんざい」,No.4「歩く(横)」のウエスタンスタイルの各ポーズ画像12dM(4)R,12dM(20),12dW(4)が撮影元画像12i1の顔部分のみ残し置き換え(着せ替え)られて合成される。
As shown in FIG. 6A, for example, in Western village, when the photographed image 12i2 is captured from the
これにより、位置情報登録メモリ12kに登録されたウエスタン村で撮影した場合には、撮影画像12i2における各被写体(人物画像)H1,H2,H3のポーズの真似をした「ウエスタン」スタイルの衣装ポーズ画像12dM(4)R,12dM(20),12dW(4)が当該各被写体(人物画像)H1,H2,H3と顔部分のみ残して置き換え合成され、元の被写体画像H1,H2,H3のコスチュームをウエスタンの衣装に着せ替えて表示取得できるようになる。 As a result, when shooting in the Western village registered in the position information registration memory 12k, a “Western” style costume pose image that imitates the pose of each subject (person image) H1, H2, H3 in the captured image 12i2. 12dM (4) R, 12dM (20), and 12dW (4) are replaced and combined with the respective subjects (person images) H1, H2, and H3, leaving only the face portions, and the costumes of the original subject images H1, H2, and H3 are combined. You can get the display by changing into a Western costume.
なお、この場合も、各被写体人物像H1,H2,H3に対応する衣装2「ウエスタン」ポーズ画像(12d)についての男性版/女性版の区別は、前記衣装1「時代劇」の場合と同様にして行われる。以下、その他の場合についても同様にして行われる。
In this case as well, the distinction between the male version and female version of the costume 2 “Western” pose image (12d) corresponding to each subject person image H1, H2, H3 is the same as in the case of the
図7は前記画像出力装置10の撮影画像の合成(まね)対象人物像に対する撮影季節(年月日時刻)に応じた衣装ポーズ画像の置き換え(着せ替え)合成状態を示す図である。
FIG. 7 is a diagram showing a replacement (dressing) composition state of a costume pose image according to a photographing season (year / month / day / time) with respect to a person image to be synthesized (simulated) of the
図7(A)に示すように、入力部16におけるシャッタの半押し操作に伴い、画像入力部17から撮影画像12i3が取り込まれて表示部19に表示されると、この撮影表示中の撮影画像12i3の中から、図7(B)に示すように、合成(まね)対象としての被写体画像(人物画像)H1が抽出される。そして、現在年月日メモリ12lにより更新記憶される現在の年月が夏の8月であると判断されると、図7(C)に示すように、被写体画像(人物画像)H1のポーズに類似(真似)のポーズNo.1「はいチーズ(アップ)」の女性版の夏のポーズ画像12fW(1)が衣装13「夏」ポーズ画像メモリ12fから読み出される。すると、図7(D)に示すように、撮影画像12i3上の合成(まね)対象である被写体画像(人物画像)H1の位置に、前記衣装13「夏」ポーズ画像メモリ(女性版)12fから読み出されたポーズNo.1「はいチーズ(アップ)」の夏水着スタイルのポーズ画像12fW(1)が撮影元画像12i3の顔部分のみ残し置き換え(着せ替え)られて合成される。
As shown in FIG. 7A, when the photographed image 12i3 is captured from the
これにより、夏季の8月に撮影した場合には、撮影画像12i3における被写体(人物画像)H1のポーズの真似をした「夏水着」スタイルの衣装ポーズ画像12fW(1)が当該被写体(人物画像)H1と顔部分のみ残して置き換え合成され、元の被写体画像H1のコスチュームを夏衣装に着せ替えて表示取得できるようになる。 As a result, when the image is taken in August in summer, the “summer swimsuit” style costume pose image 12fW (1) simulating the pose of the subject (person image) H1 in the photographed image 12i3 is the subject (person image). Only H1 and the face part are left and replaced, and the costume of the original subject image H1 can be changed into a summer costume and displayed and acquired.
すなわち、各撮影画像12inについて、合成(まね)対象の被写体人物像Hnが抽出されると、撮影場所(位置)や撮影季節に応じた種類の衣装で被写体画像Hnのポーズの真似をした衣装ポーズ画像が、当該被写体画像Hnとその顔部分のみ残して置き換え合成されるようになり、撮影の被写体となる人物がその撮影場所や撮影時期に応じた衣装を着ていなくても、その場所や季節に応じたコスチュームに着替えた被写体画像を撮影取得できるようになる。 That is, for each photographed image 12in, when a subject person image Hn to be synthesized (simulated) is extracted, a costume pose imitating the pose of the subject image Hn with a kind of costume according to the photographing location (position) and the photographing season. The image is replaced and synthesized by leaving only the subject image Hn and the face portion thereof, and even if the person who is the subject of photography does not wear a costume according to the photographing location and photographing time, the location and season It is possible to capture and acquire a subject image changed to a costume corresponding to the.
次に、前記構成による画像出力装置10による詳細な画像処理動作について説明する。
Next, a detailed image processing operation by the
ここでは、画像出力装置10をデジタルカメラとして実施した場合について説明する。
Here, a case where the
図8は前記画像出力装置であるデジタルカメラ10とそのクレードル15xの外観構成を示す図である。
FIG. 8 is a diagram showing an external configuration of the
デジタルカメラ10の入力部16としては、メニュー画面を表示させるための「MENU」キー16a、撮影モード(REC)と再生モード(PLAY)とを切り替えるための切り替えキー16b、撮影画像の取り込みおよび記録を指示するためのシャッタキー16c、表示画面(19)上でのデータ選択やカーソル移動及び選択データ決定などの操作を行うための上下左右に指1本で操作可能な選択/決定キー16dが備えられる。
The
また、デジタルカメラ10は、当該カメラ10の充電台やユーザPC(personal computer)との通信インターフェイスとなるクレードル15xに対して容易に着脱可能である。このクレードル15xへのデジタルカメラ10の装着状態において、「PHOTO」ボタン15aが押された場合には、撮影画像メモリ12iに保存されている各撮影画像12inやその合成画像12inmの表示部19に対する読み出し表示(フォトスタンド機能)が行われる。
The
なお、「USB」ボタン15bが押された場合には、撮影画像メモリ12iに保存されている各撮影画像12inやその合成画像12inmのユーザPCへの転送出力が行われる。
When the “USB”
なお、シャッタキー16cは、半押し/全押しの2段階で撮影画像の取り込みを指示するキーであり、半押し状態では、画像入力部17から一定サンプリング間隔で入力された撮影画像12inはAE(auto exposure),AF(auto focus)など調整されて画像処理ワークエリア12mに繰り返し書き込まれて表示部19に表示され、全押し状態にして撮影画像メモリ12iへの登録が行われる。
The shutter key 16c is a key for instructing capture of a captured image in two steps of half-press and full-press. In the half-press state, the captured image 12in input from the
図9は前記画像出力装置10の画像合成処理を示すフローチャートである。
FIG. 9 is a flowchart showing image composition processing of the
画像の撮影を行うに際して、入力部16のシャッタキー16cを半押し操作すると、画像入力部17からの撮影画像12inの入力が開始され、画像処理ワークエリア12mに書き込まれて表示部19にリアルタイム表示される(ステップS1)。
When shooting an image, if the shutter key 16c of the
そして、位置情報検出部18xにより現在の撮影位置(場所)が検知され(ステップS2)、位置情報登録メモリ12kに登録されている特定の場所の位置情報と一致するか否か、つまり、現在の撮影場所(位置)が例えば時代劇村やウエスタン村などの特定の場所であるか否か判断される(ステップS3)。
Then, the current shooting position (location) is detected by the position
ここで、現在の撮影場所(位置)が位置情報登録メモリ12kに登録されている特定の場所の何れかと一致したと判断された場合には、当該現在の位置情報に対応した衣装画像の種類、つまり撮影場所が例えば時代劇村である場合には、衣装1「時代劇」ポーズ画像(12c)が合成すべき衣装画像の種類として設定され、また撮影場所が例えばウエスタン村である場合には、衣装2「ウエスタン」ポーズ画像(12d)が合成すべき衣装画像の種類として設定される(ステップS3→S4)。
Here, if it is determined that the current shooting location (position) matches any of the specific locations registered in the location information registration memory 12k, the type of costume image corresponding to the current location information, That is, if the shooting location is, for example, a historical drama village, the
そして、図10における合成(まね)対象画像の抽出処理に移行される(ステップSA)。 Then, the process proceeds to extraction processing of the synthesis (simulation) target image in FIG. 10 (step SA).
一方、現在の撮影場所(位置)が位置情報登録メモリ12kに登録されている特定の場所の何れとも一致しないと判断された場合には、現在年月日メモリ12lにおいて更新記憶される現在の年月日時刻情報から当月が何月か検知される(ステップS3→S5)。 On the other hand, if it is determined that the current shooting location (position) does not match any of the specific locations registered in the location information registration memory 12k, the current year updated and stored in the current date memory 12l. The month is detected from the date / time information (step S3 → S5).
すると、現在の月に対応した衣装画像の種類、つまり当月が例えば真夏の8月である場合には、衣装13「夏(6月〜9月)」ポーズ画像(12f)が合成すべき衣装画像の種類として設定され、また当月が例えば春の5月である場合には、衣装14「春秋(4,5,10,11月)」ポーズ画像(12d)が合成すべき衣装画像の種類として設定される(ステップS6)。
Then, if the type of costume image corresponding to the current month, that is, the current month is, for example, August in midsummer, the costume image to be synthesized with the costume 13 “Summer (June to September)” pose image (12f). If the current month is, for example, May in spring, the
そして、図10における合成(まね)対象画像の抽出処理に移行される(ステップSA)。 Then, the process proceeds to extraction processing of the synthesis (simulation) target image in FIG. 10 (step SA).
図10は前記画像出力装置10の画像合成処理に伴い合成(まね)対象の人物画像を抽出する対象画像抽出処理を示すフローチャートであり、同図(A)はその対象画像抽出処理(方式1)を示すフローチャート、同図(B)はその対象画像抽出処理(方式2)を示すフローチャートである。
FIG. 10 is a flowchart showing a target image extraction process for extracting a person image to be synthesized in accordance with the image synthesis process of the
図10(A)における対象画像抽出処理(方式1)では、前記画像入力部17を介して所定のタイミングで順次入力される一連の撮影画像12inm…が撮影画像メモリ12iに対し記憶される(ステップA11)。
In the target image extraction process (method 1) in FIG. 10A, a series of photographed images 12inm... Sequentially input at a predetermined timing via the
すると、この撮影画像メモリ12iに記憶された一連の撮影画像12inm…のそれぞれから被写体の動きに伴う画像の変化部分が当該各被写体のブロック毎に抽出され(ステップA12)、これにより抽出された各被写体画像Hnがそのブロック毎に画像処理ワークエリア12mに保存される(ステップA13)。
Then, from each of the series of photographed
図10(B)における対象画像抽出処理(方式2)では、前記画像入力部17を介して入力される撮影画像12inmの各部分毎に距離センサ18による距離測定が行われ(ステップA21)、背景画像と被写体画像との距離差に基づき近距離側として判別される各被写体画像Hnがそのブロック毎に抽出される(ステップA22)。
In the target image extraction process (method 2) in FIG. 10B, distance measurement is performed by the
これにより抽出された各被写体画像Hnがそのブロック毎に画像処理ワークエリア12mに保存される(ステップA23)。 Each subject image Hn thus extracted is stored in the image processing work area 12m for each block (step A23).
こうして、撮影画像12inmから当該撮影画像12inmに含まれる各被写体画像Hnがそのブロック毎に抽出されて画像処理ワークエリア12mに保存されると(ステップSA)、例えば図5(A)または図6(A)または図7(A)で示すように、抽出された各被写体人物画像Hnのそれぞれに囲みマークMが付加された撮影画像12inが表示部19に表示されると共に、撮影画像12in上での各被写体人物画像Hnの位置情報が合成(まね)対象画像位置メモリ12jに記憶される。
Thus, when each subject image Hn included in the photographed image 12inm is extracted for each block from the photographed image 12inm and stored in the image processing work area 12m (step SA), for example, FIG. 5A or FIG. As shown in FIG. 7A or FIG. 7A, a photographed image 12in in which a surrounding mark M is added to each of the extracted subject person images Hn is displayed on the
前記撮影画像12inの中から合成(まね)対象の被写体人物画像Hnが抽出設定されると、図11における対応衣装画像取得処理に移行される(ステップSB)。 When the subject person image Hn to be synthesized (simulated) is extracted and set from the photographed image 12in, the process proceeds to the corresponding costume image acquisition process in FIG. 11 (step SB).
図11は前記画像出力装置10の画像合成処理に伴う対応衣装画像取得処理を示すフローチャートであり、同図(A)はその対応衣装画像取得処理(方式1)を示すフローチャート、同図(B)はその対応衣装画像取得処理(方式2)を示すフローチャートである。
FIG. 11 is a flowchart showing a corresponding costume image acquisition process associated with the image composition process of the
図11(A)における対応衣装画像取得処理(方式1)では、まず、前記撮影画像12inから抽出されて合成(まね)対象画像として設定された被写体人物画像Hnと撮影位置(場所)または撮影月(年月日時刻)に応じて設定された種類の衣装の各ポーズ画像との類似度が評価され(ステップB1C)、最も類似度の高いポーズの衣装ポーズ画像が現在の撮影画像12inが表示されている表示部19に対し例えばウインドウ画面にして表示される(ステップB12)。 In the corresponding costume image acquisition process (method 1) in FIG. 11A, first, the subject person image Hn extracted from the photographed image 12in and set as a synthesis target image and the photographing position (location) or photographing month. The degree of similarity between each pose image of the type of costume set according to (year / month / day / time) is evaluated (step B1C), and the currently photographed image 12in is displayed as the costume pose image having the highest similarity. For example, a window screen is displayed on the display unit 19 (step B12).
ここで、入力部16に対するユーザ操作に応じて前記表示部19に表示された合成(まね)対象画像に最も類似度の高いポーズの衣装ポーズ画像が選択されると、この選択されたポーズNo.の衣装画像が合成(まね)対象人物画像Hnに対応するポーズの衣装画像として登録される(ステップB13→B14)。
Here, when a costume pose image having the highest similarity to the synthesis target image displayed on the
一方、前記表示部19に合成(まね)対象人物画像Hnに最も類似度の高いポーズの衣装ポーズ画像が表示された状態で、入力部16に対するユーザ操作に応じて「次表示」が指示されると、当該「次表示」の操作毎に次に類似度の高いポーズの衣装ポーズ画像が順番に表示される(ステップB13→B15)。
On the other hand, “next display” is instructed in response to a user operation on the
そして、所望の類似度のポーズの衣装ポーズ画像が選択表示され、入力部16に対するユーザ操作に応じて当該表示された衣装ポーズ画像が選択されると、この選択されたポーズNo.の衣装画像が合成(まね)対象人物画像Hnに対応するポーズの衣装画像として登録される(ステップB13→B14)。
Then, a costume pose image having a desired similarity pose is selected and displayed. When the displayed costume pose image is selected in response to a user operation on the
このように、対応衣装画像取得処理(方式1)では、撮影画像12inから抽出設定された合成(まね)対象画像としての被写体人物画像Hnに対し、撮影位置(場所)または撮影月(年月日時刻)に応じて設定された種類の衣装の各ポーズ画像との類似度が直接評価され、これに基づき被写体人物画像Hnのポーズを真似て置き換え(着せ替え)られる衣装ポーズ画像が決定される。 In this way, in the corresponding costume image acquisition process (method 1), the shooting position (location) or shooting month (year / month / day) is applied to the subject person image Hn as the synthesis target image extracted and set from the shot image 12in. The degree of similarity of each type of costume set according to the time) is directly evaluated, and based on this, the costume pose image to be replaced (changed) by imitating the pose of the subject person image Hn is determined.
図11(B)における対応衣装画像取得処理(方式2)では、まず、前記撮影画像12inから抽出されて合成(まね)対象画像として設定された被写体人物画像Hnとモデルポーズ画像メモリ12bに記憶されている各ポーズのモデル画像との類似度が評価され(ステップB2C)、最も類似度の高いポーズのモデル画像のポーズNo.に対応する、撮影場所または撮影月に応じた設定種類の衣装画像が現在の撮影画像12inが表示されている表示部19に対し例えばウインドウ画面にして表示される(ステップB22)。
In the corresponding costume image acquisition process (method 2) in FIG. 11B, first, the subject person image Hn extracted from the photographed image 12in and set as a synthesis target image and stored in the model pose
ここで、入力部16に対するユーザ操作に応じて前記表示部19に表示された真似対象人物画像Hnに最も類似度の高いモデルポーズに対応する衣装ポーズ画像が選択されると、この選択されたポーズNo.の衣装ポーズ画像が合成(まね)対象人物画像Hnに対応するポーズの衣装画像として登録される(ステップB23→B24)。
Here, when a costume pose image corresponding to the model pose having the highest similarity is selected in the imitation target person image Hn displayed on the
一方、前記表示部19に真似対象人物画像Hnに最も類似度の高いポーズのモデル画像のポーズNo.に対応する、撮影場所または撮影月に応じた設定種類の衣装画像が表示された状態で、入力部16に対するユーザ操作に応じて「次表示」が指示されると、当該「次表示」の操作毎に次に類似度の高いモデル画像のポーズNo.に対応する設定種類の衣装画像が順番に表示される(ステップB23→B25)。
On the other hand, the pose No. of the model image of the pose having the highest similarity to the target human image Hn is displayed on the
そして、所望の類似度のモデルポーズに対応する設定種類の衣装画像が選択表示され、入力部16に対するユーザ操作に応じて当該表示された衣装ポーズ画像が選択されると、この選択されたポーズNo.の衣装ポーズ画像が合成(まね)対象人物画像Hnに対応するポーズの衣装画像として登録される(ステップB23→B24)。
Then, a set-type costume image corresponding to a model pose having a desired similarity is selected and displayed, and when the displayed costume pose image is selected in response to a user operation on the
このように、対応衣装画像取得処理(方式2)では、撮影画像12inから抽出設定された真似対象画像としての被写体人物画像Hnに対し、人物の基本モデルである各ポーズ毎のモデル画像との類似度が評価され、これに基づき被写体人物画像Hnのポーズを真似て置き換え(着せ替え)られる衣装ポーズ画像が決定される。 As described above, in the corresponding costume image acquisition process (method 2), the subject person image Hn as the imitation target image extracted and set from the captured image 12in is similar to the model image for each pose that is a basic model of the person. The degree is evaluated, and based on this, a costume pose image to be replaced (changed) by imitating the pose of the subject person image Hn is determined.
この場合、真似対象画像としての被写体人物画像Hnに対し、撮影場所または撮影月に応じた設定種類の衣装の各ポーズ画像との類似度を直接評価して置き換え(着せ替え)の衣装画像を決定するようにした対応衣装画像取得処理(方式1)に比較して、各ポーズ毎のモデル画像との類似度を評価し選択されたモデルポーズNo.から置き換え(着せ替え)の衣装画像を決定するようにした対応衣装画像取得処理(方式2)の方が、類似度の評価対象に装飾のないシンプルな人物モデルを用いることから被写体人物画像Hnとの高い類似度が得られやすく、より類似性(真似度)の高いポーズの衣装画像を取得できる利点がある。 In this case, for the subject person image Hn as the imitation target image, the costume image for replacement (dressing) is determined by directly evaluating the degree of similarity with each pose image of the set type according to the shooting location or shooting month. Compared with the corresponding costume image acquisition processing (method 1), the degree of similarity with the model image for each pose is evaluated, and the selected model pose No. Since the corresponding costume image acquisition process (method 2) in which the costume image to be replaced (changed) is determined from a simple person model without decoration as the evaluation target of the similarity, the subject person image Hn It is easy to obtain a high degree of similarity, and there is an advantage that a costume image of a pose with higher similarity (similarity) can be acquired.
図12は前記画像出力装置10の画像合成処理に伴う対応衣装画像取得処理(方式1)(方式2)での真似対象人物画像との類似度評価処理を示すフローチャートである。
FIG. 12 is a flowchart showing similarity evaluation processing with the person image to be imitated in the corresponding costume image acquisition processing (method 1) (method 2) accompanying the image composition processing of the
対応衣装画像取得処理(方式1)での類似度評価処理の場合は設定種類の衣装の各ポーズ画像との類似度を評価し、対応衣装画像取得処理(方式2)での類似度評価処理の場合は各ポーズ毎のモデル画像との類似度を評価する。 In the case of the similarity evaluation process in the corresponding costume image acquisition process (method 1), the similarity with the pose image of the set type of costume is evaluated, and the similarity evaluation process in the corresponding costume image acquisition process (method 2) In this case, the similarity with the model image for each pose is evaluated.
図13は前記画像出力装置10の対応衣装画像取得処理(方式1)での類似度評価処理に伴う設定種類の衣装ポーズ画像との類似度評価例を示す図である。
FIG. 13 is a diagram illustrating an example of similarity evaluation with a set-type costume pose image associated with the similarity evaluation process in the corresponding costume image acquisition process (method 1) of the
図14は前記画像出力装置10の対応衣装画像取得処理(方式2)での類似度評価処理に伴うモデル画像との類似度評価例を示す図である。
FIG. 14 is a diagram showing an example of similarity evaluation with a model image accompanying the similarity evaluation process in the corresponding costume image acquisition process (method 2) of the
まず、類似度評価処理(方式1)の場合、例えば図13(A)に示すように、設定種類の衣装(例えば衣装13「夏(6月〜9月)」12f)における先頭のポーズNo.の衣装画像12fW(1)が読み出され(ステップC1)、同図(X)で示す真似対象人物画像H1との縦・横のサイズが合わされる(ステップC2)。 First, in the case of similarity evaluation processing (method 1), for example, as shown in FIG. 13A, the first pose No. in the set type of costume (for example, costume 13 “Summer (June-September)” 12f). Costume image 12fW (1) is read out (step C1), and the vertical and horizontal sizes of the imitation target person image H1 shown in FIG.
すると、前記真似対象画像H1と縦横サイズの合わされた夏衣装ポーズ画像12fW(1)との重ね合わせ評価が行われ、その評価値(%)が算出されて当該夏衣装ポーズ画像12fW(1)との類似度として記憶される(ステップC3)。 Then, a superimposition evaluation of the imitation target image H1 and the summer costume pose image 12fW (1) in which the vertical and horizontal sizes are combined is performed, and the evaluation value (%) is calculated and the summer costume pose image 12fW (1) is calculated. (Step C3).
ここで、今回の類似度評価対象のポーズNo.の衣装ポーズ画像12fW(1)が左右非対称の画像であるか否か判断され(ステップC4)、当該ポーズの衣装画像が左右非対称の画像ではないと判断された場合には(ステップC4「No」)、順次、次のポーズNo.の夏衣装画像12fW(2)…との間でサイズ合わせ処理と重ね合わせ評価値の算出処理とによる類似度の算出,記憶処理が繰り返される(ステップC8→C9→C2〜C4)。 Here, the pose No. of the similarity evaluation target this time. It is determined whether or not the costume pose image 12fW (1) is a left-right asymmetric image (step C4). If it is determined that the costume image in the pose is not a left-right asymmetric image (step C4 “No”). ), The next pose No. The similarity calculation and storage processing by the size matching processing and the overlay evaluation value calculation processing are repeated with the summer costume image 12fW (2)... (Step C8 → C9 → C2 to C4).
一方、例えば図13(B)に示すように、今回の類似度評価対象のポーズNo.の夏衣装画像が左右非対称の撮影者画像(例えば「さよなら」12fW(11))であると判断された場合には、例えば図13(C)に示すように、当該ポーズの衣装画像(12fW(11))が左右反転され(ステップC4→C5)、この反転された衣装画像(12fW(11)R)について真似対象画像との縦・横のサイズが合わされる(ステップC6)。 On the other hand, for example, as shown in FIG. If it is determined that the summer costume image is a left-right asymmetric photographer image (for example, “Goodbye” 12 fW (11)), for example, as shown in FIG. 13C, the costume image (12 fW ( 11)) is reversed left and right (step C4 → C5), and the vertical and horizontal sizes of the reversed costume image (12fW (11) R) and the imitation target image are matched (step C6).
すると、前記真似対象画像と縦横サイズの合わされた反転衣装画像との重ね合わせ評価が行われ、その評価値(%)が算出されて当該反転夏衣装ポーズ画像との類似度として記憶される(ステップC7)。 Then, the overlay evaluation of the imitation target image and the inverted costume image in which the vertical and horizontal sizes are combined is performed, and the evaluation value (%) is calculated and stored as the similarity with the inverted summer costume pose image (step) C7).
この後、設定種類の衣装における次のポーズNo.の衣装画像(例えば12fW(n))がある場合には(ステップC8)、当該次のポーズNo.の衣装画像(12fW(n))が順次読み出され(ステップC9)、前記同様に真似対象人物画像Hnと設定種類の各ポーズ毎の衣装画像(12fW(n))との類似度評価処理が繰り返される(ステップC2〜C7)。 After this, the next pose No. in the set-type costume is displayed. If there is a costume image (for example, 12 fW (n)) (step C8), the next pose No. The costume images (12fW (n)) are sequentially read out (step C9), and the similarity evaluation process between the person image Hn to be imitated and the costume image (12fW (n)) for each set pose is performed as described above. Repeated (steps C2 to C7).
これにより、例えば図13で示したように、合成(まね)対象の被写体人物画像H1に対して「夏」の衣装画像12fW(n)…との類似度評価を行った場合には、ポーズNo.1に対応する夏衣装画像12fW(1)が最も類似度の高い衣装ポーズ画像として評価される。 Thus, for example, as shown in FIG. 13, when the similarity evaluation with the “summer” costume image 12fW (n)... . The summer costume image 12fW (1) corresponding to 1 is evaluated as the costume pose image with the highest similarity.
次に、類似度評価処理(方式2)の場合、例えば図14(A)に示すように、先頭のポーズNo.のモデル画像12b(1A)が読み出され(ステップC1)、同図(X)で示す真似対象人物画像H1との縦・横のサイズが合わされる(ステップC2)。
Next, in the similarity evaluation process (method 2), for example, as shown in FIG.
すると、前記真似対象人物画像H1と縦横サイズの合わされたモデル画像12b(1A)との重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズのモデル画像12b(1A)との類似度として記憶される(ステップC3)。
Then, the overlay evaluation of the imitation target person image H1 and the
ここで、今回の類似度評価対象のポーズNo.のモデル画像が左右非対称の画像であるか否か判断され(ステップC4)、例えば図14(A)で示すように、当該ポーズのモデル画像12b(1A)が左右非対称の画像ではないと判断された場合には(ステップC4「No」)、次のポーズNo.のモデル画像が読み出され(ステップC8→C9)、前記同様に真似対象人物画像H1と次のポーズのモデル画像との類似度評価処理が繰り返される(ステップC2〜C4)。
Here, the pose No. of the similarity evaluation target this time. It is determined whether or not the model image is a left-right asymmetric image (step C4). For example, as shown in FIG. 14A, it is determined that the
一方、例えば図14(B)で示すように、今回の類似度評価対象のポーズNo.1Bのモデル画像12b(1B)が左右非対称のモデル画像であると判断された場合には、当該ポーズ1Bのモデル画像12b(1B)が左右反転され(ステップC4→C5)、図14(C)で示すように、この反転されたモデル画像12b(1B)Rについて真似対象人物画像H1との縦・横のサイズが合わされる(ステップC6)。
On the other hand, for example, as shown in FIG. When it is determined that the
すると、前記真似対象人物画像H1と縦横サイズの合わされた反転モデル画像12b(1B)Rとの重ね合わせ評価が行われ、その評価値(%)が算出されて当該ポーズの反転モデル画像12b(1B)Rとの類似度として記憶される(ステップC7)。
Then, the overlay evaluation of the imitation target person image H1 and the
この後、次のポーズNo.のモデル画像12b(n)がある場合には(ステップC8)、当該次のポーズNo.のモデル画像12b(n)が順次読み出され(ステップC9)、前記同様に真似対象人物画像Hnと各ポーズ毎のモデル画像12b(n)との類似度評価処理が繰り返される(ステップC2〜C7)。
After this, the next pose No. If there is a
これにより、例えば図14で示したように、合成(まね)対象の被写体人物画像H1に対してモデル画像12b(n)との類似度評価を行った場合には、ポーズNo.1Aに対応するモデル画像12b(1A)が最も類似度の高いポーズのモデル画像として評価される。
As a result, for example, as shown in FIG. 14, when the similarity evaluation with the
このように、前記図11〜図14を参照して説明した対応衣装画像取得処理(ステップSB)によって、撮影画像12inから抽出された真似対象画像としての被写体人物画像Hnを真似たポーズの設定種類の衣装画像が決定されると、例えば図5で示したように、時代劇村での撮影において、前記対応衣装画像取得処理(図11参照)により取得された、撮影画像12i1上の真似対象画像である被写体人物H1,H2,H3の各ポーズ「しゃがむ」の真似をした設定種類の衣装である「時代劇」の各衣装ポーズ画像12cM(19),12cW(19),12cM(19)が、それぞれ当該合成(まね)対象の被写体人物画像H1,H2,H3とその顔部分のみ残して置き換え(着せ替え)られて合成表示される(ステップS7,S8)。
As described above, by the corresponding costume image acquisition process (step SB) described with reference to FIGS. 11 to 14, the pose setting type imitating the subject person image Hn as the imitation target image extracted from the photographed
この場合、撮影画像12i1に対して、前記合成(まね)対象の被写体人物画像H1,H2,H3にそれぞれ類似のポーズの各時代劇衣装画像12cM(19),12cW(19),12cM(19)を、その撮影時に距離センサ18により検出された撮影距離が遠い順に各被写体画像H1,H2,H3の位置(合成(まね)対象画像位置12j1)に重ねて合成する。
In this case, the historical drama costume images 12cM (19), 12cW (19), and 12cM (19) of the poses similar to the subject person images H1, H2, and H3 to be synthesized (simulated) with respect to the photographed image 12i1. Are superimposed on the positions of the subject images H1, H2, and H3 (composite target image positions 12j1) in order of increasing shooting distance detected by the
すなわち、各衣装画像の顔部分には画像がないことから、撮影画像12i1における各被写体人物像H1,H2,H3の顔部分は残されて前記各時代劇衣装画像12cM(19),12cW(19),12cM(19)が重ねて置き換えられるので、時代劇村での撮影においては、元の撮影画像12i1に対し、各被写体人物像H1,H2,H3の衣装が時代劇スタイルに着せ替えられてなる合成画像12i11が作成表示される。 That is, since there is no image in the face portion of each costume image, the face portions of the subject person images H1, H2, H3 in the photographed image 12i1 are left and the historical drama costume images 12cM (19), 12cW (19 ), 12cM (19) are replaced and the costume of each subject person image H1, H2, H3 is changed to the period drama style with respect to the original photographed image 12i1 in the period drama village. A composite image 12i11 is generated and displayed.
そして、図5(D)で示したように、被写体画像H1,H2,H3のポーズを真似た各時代劇衣装画像12cM(19),12cW(19),12cM(19)が、当該被写体画像H1,H2,H3とその顔部分だけ残して置き換えられてなる合成画像データ12i11は、シャッタキー16cの全押し操作が検知されることで、撮影画像メモリ12iに登録される(ステップS9)。
Then, as shown in FIG. 5D, the historical drama costume images 12cM (19), 12cW (19), 12cM (19) imitating the poses of the subject images H1, H2, H3 are the subject image H1. , H2, H3 and the combined image data 12i11 that is replaced by leaving only its face portion is registered in the photographed
また、例えば図6で示したように、ウエスタン村での撮影では、前記対応衣装画像取得処理(ステップSB)により取得された、撮影画像12i2上の真似対象画像である被写体人物H1,H2,H3の各ポーズ「歩く(横)反転」「ばんざい」「歩く(横)」の真似をした設定種類の衣装である「ウエスタン」の各衣装ポーズ画像12dM(4)R,12dM(20),12dW(4)がそれぞれ当該合成(まね)対象の被写体人物画像H1,H2,H3とその顔部分のみ残して置き換え(着せ替え)られて合成表示される(ステップS7,S8)。 For example, as shown in FIG. 6, in the shooting in the Western village, the subject persons H1, H2, and H3, which are imitation target images on the captured image 12i2, acquired by the corresponding costume image acquisition process (step SB). Each pose image of “Western”, which is a set of costumes imitating “walking (horizontal) reversal”, “banzai”, and “walking (horizontal)” 12dM (4) R, 12dM (20), 12dW ( 4) are respectively replaced (dressed) with the subject person images H1, H2, H3 and their face portions to be combined (simulated) displayed as combined (steps S7, S8).
この場合、撮影画像12i2に対して、前記合成(まね)対象の被写体人物画像H1,H2,H3にそれぞれ類似のポーズの各ウエスタン衣装画像12dM(4)R,12dM(20),12dW(4)を、その撮影時に距離センサ18により検出された撮影距離が遠い順に各被写体画像H1,H2,H3の位置(合成(まね)対象画像位置12j2)に重ねて合成する。
In this case, the western costume images 12dM (4) R, 12dM (20), and 12dW (4) having similar poses to the subject person images H1, H2, and H3 to be synthesized (simulated) with respect to the photographed image 12i2. Are superimposed on the positions of the subject images H1, H2, and H3 (synthesize target image positions 12j2) in order of increasing shooting distance detected by the
すなわちこの場合も、各衣装画像の顔部分には画像がないことから、撮影画像12i2における各被写体人物像H1,H2,H3の顔部分は残されて前記各ウエスタン衣装画像12dM(4)R,12dM(20),12dW(4)が重ねて置き換えられるので、ウエスタン村での撮影においては、元の撮影画像12i2に対し、各被写体人物像H1,H2,H3の衣装がウエスタンスタイルに着せ替えられてなる合成画像12i21が作成表示される。 That is, also in this case, since there is no image in the face portion of each costume image, the face portions of the subject person images H1, H2, H3 in the photographed image 12i2 are left and the Western costume images 12dM (4) R, Since 12dM (20) and 12dW (4) are superposed and replaced, in the shooting at the Western village, the costumes of the subject person images H1, H2 and H3 are changed to the Western style with respect to the original shot image 12i2. A composite image 12i21 is created and displayed.
そして、図6(D)で示したように、被写体画像H1,H2,H3のポーズを真似た各ウエスタン衣装画像12dM(4)R,12dM(20),12dW(4)が、当該被写体画像H1,H2,H3とその顔部分だけ残して置き換えられてなる合成画像データ12i21は、シャッタキー16cの全押し操作が検知されることで、撮影画像メモリ12iに登録される(ステップS9)。
As shown in FIG. 6D, the Western costume images 12dM (4) R, 12dM (20), and 12dW (4) imitating the poses of the subject images H1, H2, and H3 are the subject image H1. , H2 and H3 and the combined image data 12i21, which is replaced by leaving only its face portion, is registered in the photographed
一方、例えば図7で示したように、撮影場所の位置情報が特定の位置情報と一致しない場合の8月の撮影では、前記対応衣装画像取得処理(ステップSB)により取得された、撮影画像12i3上の真似対象画像である被写体人物H1のポーズ「はいチーズ(アップ)」の真似をした設定種類の衣装である「夏」の衣装ポーズ画像12fW(1)が当該合成(まね)対象の被写体人物画像H1とその顔部分のみ残して置き換え(着せ替え)られて合成表示される(ステップS7,S8)。 On the other hand, for example, as shown in FIG. 7, in August shooting when the position information of the shooting location does not match the specific position information, the shot image 12i3 acquired by the corresponding costume image acquisition processing (step SB). The costume pose image 12fW (1) of “Summer”, which is a set of costumes that imitates the pose “yes cheese (up)” of the subject person H1 that is the image to be imitated above, is the subject person to be synthesized (simulated). Only the image H1 and its face part are left and replaced (dressed) and combined and displayed (steps S7 and S8).
この場合、撮影画像12i3に対して、前記合成(まね)対象の被写体人物画像H1に類似のポーズの夏衣装画像12fW(1)を、被写体画像H1の位置(合成(まね)対象画像位置12j3)に重ねて合成する。 In this case, with respect to the photographed image 12i3, the summer costume image 12fW (1) having a pose similar to that of the subject person image H1 to be synthesized (simulated) is set to the position of the subject image H1 (synthesized target image position 12j3). Overlay and synthesize.
すなわちこの場合も、衣装画像の顔部分には画像がないことから、撮影画像12i3における被写体人物像H1の顔部分は残されて前記夏衣装画像12fW(1)が重ねて置き換えられるので、夏の8月の撮影においては、元の撮影画像12i3に対し、被写体人物像H1の衣装が水着スタイルに着せ替えられてなる合成画像12i31が作成表示される。 That is, also in this case, since there is no image in the face portion of the costume image, the face portion of the subject person image H1 in the photographed image 12i3 is left and replaced with the summer costume image 12fW (1). In shooting in August, a composite image 12i31 is created and displayed by changing the costume of the subject person image H1 to the swimsuit style with respect to the original shot image 12i3.
そして、図7(D)で示したように、被写体画像H1のポーズを真似た夏衣装画像12fW(1)が、当該被写体画像H1とその顔部分だけ残して置き換えられてなる合成画像データ12i31は、シャッタキー16cの全押し操作が検知されることで、撮影画像メモリ12iに登録される(ステップS9)。
Then, as shown in FIG. 7D, the composite image data 12i31 obtained by replacing the summer costume image 12fW (1) imitating the pose of the subject image H1 while leaving only the subject image H1 and its face portion is obtained. When the full depression of the shutter key 16c is detected, it is registered in the photographed
なお、撮影画像メモリ12iに登録された撮影(合成)画像は、必要に応じて画像出力部20から出力され、メモリカード20Aによる記録、またはVTR(録画装置)20Bによる記録、または画像印刷機20Cによる印刷が行われる。
The photographed (synthesized) image registered in the photographed
これにより、位置情報登録メモリ12kに登録された特定の場所での撮影に際しては、撮影画像12in上の被写体人物画像Hnは、当該撮影場所の雰囲気に応じた衣装画像に着せ替えられて撮影表示されるようになり、また、特定の場所以外でも、現在の撮影月が検知され、撮影画像12in上の被写体人物画像Hnは、当該撮影月の季節に応じた衣装画像に着せ替えられて撮影表示されるようになる。 As a result, when photographing at a specific location registered in the position information registration memory 12k, the subject person image Hn on the photographed image 12in is photographed and displayed as a costume image corresponding to the atmosphere of the photographing location. In addition, the current shooting month is detected at a place other than a specific place, and the subject person image Hn on the shot image 12in is changed to a costume image corresponding to the season of the shooting month and is displayed. Become so.
したがって、前記構成の画像出力装置10による画像合成処理機能によれば、写真撮影を行うのに伴い、撮影画像12inについて合成(まね)対象の被写体人物画像Hnが抽出されると、現在の撮影場所(位置)が特定の場所であるか否か判断され、特定の場所であると判断された場合には、その場所の雰囲気に応じた種類の衣装で前記合成(まね)対象人物画像Hnに対応するポーズの顔抜き衣装画像が取得されると共に、当該合成(まね)対象人物画像Hnを前記取得された撮影場所に応じた顔抜き衣装画像に置き換え合成した合成画像12in1が作成されて表示されるので、写真撮影を行う場所の雰囲気に合わせて被写体人物の衣装を異ならせた合成画像12in1を、当該被写体人物画像Hnのポーズを真似たポーズの顔抜き衣装画像の合成によって違和感なく非常に面白味のある合成画像12in1として撮影表示できるようになる。
Therefore, according to the image composition processing function of the
また、前記構成の画像出力装置10による画像合成処理機能によれば、写真撮影を行うのに伴い、撮影画像12inについて合成(まね)対象の被写体人物画像Hnが抽出されると、現在の撮影時間(季節/年/月/日/時)が検知され、例えばその季節の雰囲気に合わせた種類の衣装で前記合成(まね)対象人物画像Hnに対応するポーズの顔抜き衣装画像が取得されると共に、当該合成(まね)対象人物画像Hnを前記取得された撮影季節に応じた顔抜き衣装画像に置き換え合成した合成画像12inmが作成されて表示されるので、写真撮影を行う季節の雰囲気に合わせて被写体人物の衣装を異ならせた合成画像12inmを、当該被写体人物画像Hnのポーズを真似たポーズの顔抜き衣装画像によって違和感なく非常に面白味のある合成画像12inmとして撮影表示できるようになる。
Further, according to the image composition processing function of the
また、前記構成の画像出力装置10による画像合成処理に伴う対象画像抽出機能(方式1)によれば、画像入力部17を介して所定のタイミングで順次入力される一連の撮影画像12in…が画像処理ワークエリアに記憶され、この一連の撮影画像12in…のそれぞれから被写体の動きに伴う画像の変化部分が当該各被写体人物像のブロックM毎に抽出されるので、この撮影画像12inを含む一連の取り込み画像12in…に基づき抽出された各被写体人物画像Hn…の画像部分を、当該撮影画像12inに対応付けた合成(まね)対象画像Hnの位置情報として容易に合成(まね)対象画像位置メモリ12jに記憶できるようになる。
Further, according to the target image extraction function (method 1) accompanying the image composition processing by the
また、前記構成の画像出力装置10による画像合成処理に伴う対象画像抽出機能(方式2)によれば、画像入力部17を介して入力される撮影画像12inの各部分毎に距離センサ18による距離測定が行われて画像処理ワークエリアに記憶され、背景画像と被写体画像との距離差に基づき近距離側として判別される各被写体人物画像Hn…がそのブロックM毎に抽出されるので、撮影時点の1枚の取り込み画像に基づき抽出された各被写体人物画像Hn…の画像部分を、当該撮影画像12inに対応付けた合成(まね)対象画像Hnの位置情報として容易に合成(まね)対象画像位置メモリ12jに記憶できるようになる。
Further, according to the target image extraction function (method 2) accompanying the image composition processing by the
また、前記構成の画像出力装置10による画像合成処理に伴う対応衣装画像取得機能(方式1)によれば、撮影画像12inから抽出された真似対象画像としての被写体人物画像Hnに対し、撮影場所や撮影時期に応じて設定された種類の衣装の各ポーズ毎の顔抜き衣装画像との類似度が直接評価され、これに基づき被写体人物画像Hnのポーズを真似たポーズの設定種類の衣装画像が決定されるので、被写体人物画像Hnのポーズをまねてその元の撮影衣装部分の画像と置き換え(着せ替え)合成するための衣装画像を容易に取得できるようになる。
Further, according to the corresponding costume image acquisition function (method 1) accompanying the image composition processing by the
また、前記構成の画像出力装置10による画像合成処理に伴う対応衣装画像取得機能(方式2)によれば、撮影画像12inから抽出された真似対象画像としての被写体人物画像Hnに対し、人物の基本モデルである各ポーズ毎のモデル画像との類似度が評価され、これに基づき被写体人物画像Hnを真似たポーズで撮影場所や撮影時期に応じた設定種類の衣装画像が決定されるので、被写体人物画像Hnのポーズをまねてその元の撮影衣装部分の画像と置き換え(着せ替え)合成するための衣装画像を容易に取得できるだけでなく、類似度の評価対象に標準的人物モデルを用いることから被写体人物画像Hnとの高い類似度が得られやすく、より類似性(真似度)の高いポーズの衣装画像を取得できるようになる。
Further, according to the corresponding costume image acquisition function (method 2) accompanying the image composition processing by the
なお、前記実施形態における画像合成機能では、撮影画像12inから抽出された被写体人物画像Hnに対応するポーズの設定種類の顔抜き衣装画像を選択的に取得して、この取得された顔抜き衣装画像を撮影画像12inの被写体人物画像Hnと置き換え合成する構成としたが、実写や実写に近いコンピュータグラフィックスによる様々な種類の衣装画像を各ポーズ毎に予め記憶させておき、この実写などによる各ポーズの衣装画像を場所や季節に応じた衣装画像の種類として設定し、撮影画像12inから抽出された被写体人物画像Hnのポーズに対応する衣装画像として置き換え合成する構成としてもよい。 In the image composition function in the above embodiment, a face-out costume image of a set type of pose corresponding to the subject person image Hn extracted from the photographed image 12in is selectively acquired, and the acquired face-out costume image is acquired. Is replaced with the subject person image Hn of the photographed image 12in, but various kinds of costume images based on live-action and computer graphics close to real-life are stored in advance for each pose, and each pose by this live-action etc. The costume image may be set as the type of costume image according to the place and season, and replaced with a costume image corresponding to the pose of the subject person image Hn extracted from the photographed image 12in and synthesized.
また、前記実施形態では、撮影画像12inが静止画である場合について説明したが、画像入力部17を介して例えばデジタルビデオムービー17Bにより撮影入力される動画像に基づいて、当該動画像内の背景画像に対して時系列的に変化する被写体画像Hn…を順次抽出し、この抽出された被写体人物画像Hnに対応するポーズの設定種類の衣装画像を取得して、前記撮影動画像内でその被写体人物画像Hnと置き換え合成する構成としてもよい。
In the embodiment, the case where the captured image 12in is a still image has been described. However, based on a moving image captured and input by, for example, the
なお、前記実施形態の画像出力装置10では、デジタルカメラ付き携帯電話やデジタルカメラのその本体において、撮影画像12inにおける被写体人物画像Hnを真似たポーズの撮影場所や撮影時期に応じた種類の顔抜き衣装画像を取得して、当該被写体人物画像Hnの顔部分のみ残した衣装画像の置き換え(着せ替え)合成処理を行う構成としたが、次の第2実施形態において説明するように、インターネットなどの通信ネットワークN上にあるWebサーバ30において、各アクセスユーザからの写真撮影に伴う撮影画像を受信し、この受信撮影画像について、前記同様に、合成(まね)対象となる被写体人物画像Hnの抽出処理、この被写体人物画像Hnを真似たポーズで撮影場所や撮影時期に応じた種類の顔抜き衣装画像の取得処理、および前記受信撮影画像の被写体人物画像Hnに対する顔抜き衣装画像の置き換え合成処理を行い、この合成画像をアクセス元のユーザ端末へ配信する構成としてもよい。
In the
(第2実施形態)
図15は本発明の第2実施形態に係る画像配信サーバ30の電子回路の構成を示すブロック図である。
(Second embodiment)
FIG. 15 is a block diagram showing a configuration of an electronic circuit of the image distribution server 30 according to the second embodiment of the present invention.
この画像配信サーバ30は、各種の記録媒体に記録されたプログラム、又は、伝送されたプログラムを読み込んで、その読み込んだプログラムによって動作が制御されるコンピュータによって構成され、その電子回路には、CPU(central processing unit)31が備えられる。 The image distribution server 30 is configured by a computer that reads a program recorded on various recording media or a transmitted program and whose operation is controlled by the read program. The electronic circuit includes a CPU ( a central processing unit) 31 is provided.
CPU31は、メモリ32内に予め記憶されたサーバ制御プログラム、あるいはCD−ROMなどの外部記録媒体33から記録媒体読取部34を介して前記メモリ32に読み込まれたサーバ制御プログラム、あるいはインターネットN上の他のWebサーバ(この場合はプログラムサーバ)から電送制御部35を介して前記メモリ32に読み込まれたサーバ制御プログラムに応じて、回路各部の動作を制御するもので、前記メモリ32に記憶されたサーバ制御プログラムは、電送制御部35を介して接続されるインターネットN上の各通信端末(デジタルカメラ付き携帯電話10A、通信機能付きデジタルカメラ10B、その他PC(personal computer)端末)などや他のWebサーバとの通信信号に応じて起動される。
The
前記CPU31には、前記メモリ32、記録媒体読取部34、電送制御部35が接続される他に、LCDからなる表示部36などが接続される。
In addition to the
そして、メモリ32には、当該画像配信サーバ30の全体の動作を司るシステムプログラムや、電送制御部35を介してインターネットN上の各通信端末(デジタルカメラ付き携帯電話10A、通信機能付きデジタルカメラ10B、その他PC(personal computer)端末など)、他のWebサーバとデータ通信するための通信プログラムが記憶される他に、前記インターネットN上の各通信端末(10A,10など)とのアクセスに基づき、それぞれそのユーザ端末毎の撮影画像ファイル32g1,32g2,…を生成管理し、撮影画像データを保存・配信したり、当該撮影画像についての合成(まね)対象画像位置,撮影位置情報を記憶したり、撮影画像に対する合成画像の作成処理およびその出力配信処理などを行うための画像出力処理プログラム32aなどが記憶される。
The
従って、この画像配信サーバ30のメモリ32にも、前記画像出力装置10のメモリ12と略同様に、モデルポーズ画像メモリ32b、衣装1「時代劇」ポーズ画像メモリ32c、衣装2「ウエスタン」ポーズ画像メモリ32d、衣装3「中世ヨーロッパ」ポーズ画像メモリ32e…や図示しない衣装13「夏(6月〜9月)」ポーズ画像メモリ、衣装14「春秋(4,5,10,11月)」ポーズ画像メモリ、衣装15「冬(12月〜3月)」ポーズ画像メモリなどが用意され、さらにそのワークエリアには、現在年月日メモリ32fの他、当該画像配信サーバ30によって各ユーザ端末毎の撮影画像データおよび撮影画像合成用の各設定情報が管理される撮影画像ファイル32g1,32g2,…が用意される。
Accordingly, in the
各ユーザ端末毎の撮影画像ファイル(1)32g1,(2)32g2,…には、そのそれぞれのファイル(1)(2)…毎に、ユーザ名:ファイル名:ユーザ認証データ(指紋画像やパスワードなど)32g1a,32g2a,…に対応付けされた撮影画像メモリ32g1b,32g2b,…、合成(まね)対象画像位置メモリ32g1c,32g2c,…、撮影位置情報メモリ32g1d,32g2d,…などが用意され、撮影画像メモリ32g1b,32g2b,…および合成(まね)対象画像位置メモリ32g1c,32g2c,…には、ともに前記第1実施形態の画像出力装置10における各メモリと同様の情報が記憶管理され、撮影位置情報メモリ32g1d,32g2d,…には、ユーザ端末から受信された各撮影画像32g1bn,32g2bn,…についての撮影場所を示す位置情報32g1dn,32g2dn,…が共に受信されて記憶管理される。
The captured image file (1) 32g1, (2) 32g2,... For each user terminal includes a user name: file name: user authentication data (fingerprint image or password) for each of the files (1), (2),. , Etc.) 32g1a, 32g2a,..., Image image memory 32g1b, 32g2b,..., Composition target image position memory 32g1c, 32g2c,. The image memory 32g1b, 32g2b,... And the synthesis target image position memory 32g1c, 32g2c,... Store and manage the same information as each memory in the
このような構成の画像配信サーバ30をインターネットなどの通信ネットワークN上に開設し、各ユーザ端末としてのデジタルカメラ付き携帯電話10Aや通信機能付きデジタルカメラ10Bなどとの通信を行い、各ユーザ端末における撮影画像と共にその撮影場所の位置情報を受信し、当該画像配信サーバ30において前記第1実施形態の画像出力装置10と同様に管理する。これにより画像配信サーバ30は、各ユーザ端末からの撮影位置情報を伴う撮影画像の受信およびこれに基づく合成画像の作成とその配信要求に応じて、当該受信撮影画像について合成(まね)対象の被写体人物画像Hnを抽出すると共に、その撮影場所または撮影時期に応じた種類の衣装画像で前記被写体人物画像Hnを真似たポーズの顔抜き衣装画像を取得でき、前記第1実施形態の画像出力装置10と同様に被写体人物画像Hnを顔抜き衣装画像に置き換えた合成画像を作成することができる。そして、その合成画像を配信要求元の各ユーザ端末へ配信することができる。
The image distribution server 30 having such a configuration is established on a communication network N such as the Internet, and communicates with the
この場合、各撮影画像ファイル32gnにおける受信撮影画像とその撮影位置情報に基づいた合成画像の作成処理とその配信処理は、その何れも各対応するユーザ端末の認証データ32gnaが入力一致判断された場合にのみ実行される。 In this case, the composite image creation process and the distribution process based on the received photographed image and the photographing position information in each photographed image file 32gn are performed when the authentication data 32gna of each corresponding user terminal is determined to match the input. Only run on.
したがって、前記構成の画像配信サーバ30において各ユーザ端末との間でアクセスしながら実施される画像合成機能や合成画像の配信機能によれば、各ユーザ端末から撮影画像32gnbおよびその撮影位置情報32gndを受信すると共に、合成画像の作成およびその配信要求を受信すると、この合成画像の作成およびその配信要求に応答して、当該撮影画像32gnbの撮影位置情報32gndが特定の場所の位置情報と一致するか否か判断され、特定の撮影場所である場合には当該撮影場所に応じた種類の衣装が設定され、また特定の撮影場所でない場合でも撮影時期に応じた種類の衣装が設定される。そして、撮影画像32gnbから合成(まね)対象の被写体人物画像Hnが抽出されると共に、この被写体人物画像Hnを真似たポーズの前記設定種類の顔抜き衣装画像が取得され、前記撮影画像32gnbの被写体人物画像Hnを前記取得された顔抜き衣装画像に置き換え合成した合成画像が作成されて配信されるので、各ユーザ端末にて撮影した撮影画像32gnbに対し、その撮影場所や撮影時期に応じた種類の衣装画像を、被写体人物画像Hnを真似たポーズの衣装画像として違和感なく置き換え合成して配信できるようになる。 Therefore, according to the image synthesizing function and the synthesized image distribution function performed while accessing the respective user terminals in the image distribution server 30 having the above-described configuration, the captured image 32gnb and the captured position information 32gnd are received from each user terminal. In addition to receiving the composite image creation and distribution request, in response to the composite image creation and distribution request, whether the photographing position information 32gnd of the photographed image 32gnb matches the position information of a specific location. If it is a specific shooting location, a type of costume corresponding to the shooting location is set, and even if it is not a specific shooting location, a type of costume corresponding to the shooting time is set. Then, a subject person image Hn to be synthesized (simulated) is extracted from the photographed image 32gnb, and the setting-type faceless costume image having a pose imitating the subject person image Hn is acquired, and the subject of the photographed image 32gnb is obtained. Since a composite image is created and distributed by replacing the person image Hn with the acquired faceless outfit image, the type corresponding to the shooting location and shooting time of the shot image 32gnb shot at each user terminal This costume image can be replaced and synthesized as a costume image with a pose imitating the subject person image Hn without being uncomfortable.
なお、前記各実施形態では、デジタルカメラなどよる撮影画像を元画像として種々の合成画像を作成して出力する場合について説明したが、元画像は撮影画像に限らず、画像メモリや光ディスクなどの各種の記録媒体に既に記録されている画像を対象としてもよい。ここで、当該元画像からその撮影情報がないために前記対象画像抽出処理(方式1)(方式2)での各被写体人物画像の抽出が行えない場合には、元画像に輪郭強調処理を施して肌色部分を広く含む輪郭領域を抽出したり、人体頭部を形作る円形部分を含む輪郭領域を抽出したりすることによって、各被写体人物画像の抽出を行う構成とすればよい。 In each of the above-described embodiments, the case has been described in which various composite images are generated and output using a photographed image obtained by a digital camera or the like as an original image. It is also possible to target an image already recorded on the other recording medium. Here, if each subject person image cannot be extracted in the target image extraction processing (method 1) (method 2) because there is no shooting information from the original image, contour enhancement processing is performed on the original image. Thus, it may be configured such that each subject person image is extracted by extracting a contour region including a wide skin color portion or extracting a contour region including a circular portion forming the human head.
なお、前記各実施形態において記載した画像出力装置10(画像配信サーバ30)による各処理の手法、すなわち、図9のフローチャートに示す画像合成処理、図10のフローチャートに示す当該画像合成処理に伴う対象画像抽出処理、図11のフローチャートに示す画像合成処理に伴う対応衣装画像取得処理、図12のフローチャートに示す当該対応衣装画像取得処理に伴う真似対象人物画像との類似度評価処理等の各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録媒体13(33)に格納して配布することができる。そして、通信ネットワーク(インターネット)Nとの通信機能を備えた種々のコンピュータ端末は、この外部記録媒体13(33)に記憶されたプログラムを記録媒体読取部14(34)によってメモリ12(32)に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した画像合成機能を実現し、前述した手法による同様の処理を実行することができる。 It should be noted that each processing method by the image output apparatus 10 (image distribution server 30) described in each of the embodiments, that is, the image synthesis process shown in the flowchart of FIG. 9 and the object associated with the image synthesis process shown in the flowchart of FIG. Each method such as an image extraction process, a corresponding costume image acquisition process associated with the image composition process shown in the flowchart of FIG. 11, and a similarity evaluation process with the imitation target person image associated with the corresponding costume image acquisition process shown in the flowchart of FIG. These are programs that can be executed by a computer, such as memory cards (ROM cards, RAM cards, etc.), magnetic disks (floppy disks, hard disks, etc.), optical disks (CD-ROM, DVD, etc.), external recording such as semiconductor memories, etc. It can be stored and distributed on the medium 13 (33). Various computer terminals having a communication function with the communication network (Internet) N transfer the program stored in the external recording medium 13 (33) to the memory 12 (32) by the recording medium reading unit 14 (34). By reading and controlling the operation by the read program, the image composition function described in the above embodiment can be realized, and the same processing by the above-described method can be executed.
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末から前記のプログラムデータを取り込み、前述した画像合成機能を実現することもできる。 The program data for realizing each of the above methods can be transmitted on a communication network (Internet) N in the form of a program code, and the above-mentioned data can be transmitted from a computer terminal connected to the communication network (Internet) N. It is also possible to implement the above-described image composition function by fetching program data.
なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。 Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in each embodiment or some constituent features are combined, the problems described in the column of the problem to be solved by the invention can be solved. When the effects described in the column of the effect of the invention can be obtained, a configuration in which these constituent elements are deleted or combined can be extracted as an invention.
10 …画像出力装置
10A…デジタルカメラ付き携帯電話
10B…通信機能付きデジタルカメラ
30 …画像配信サーバ
11、31…CPU
12、32…メモリ
12a、32a…画像出力処理プログラム
12b、32b…モデルポーズ画像メモリ
12c、32c…衣装1「時代劇」ポーズ画像メモリ
12d、32d…衣装2「ウエスタン」ポーズ画像メモリ
12e、32e…衣装3「中世ヨーロッパ」ポーズ画像メモリ
12f…衣装13「夏(6月〜9月)」ポーズ画像メモリ
12g…衣装14「春秋(4,5,10,11月)」ポーズ画像メモリ
12h…衣装15「冬(12月〜3月)」ポーズ画像メモリ
32gn…撮影画像ファイル
32gna…ユーザ名:ファイル名:ユーザ認証データ
12i、32gnb…撮影画像メモリ
12j、32gnc…合成(まね)対象画像位置メモリ
12k…位置情報登録メモリ
32gnd…撮影位置情報メモリ
12l、32f…現在年月日メモリ
12m…画像処理ワークエリア
13、33…外部記録媒体
14、34…記録媒体読取部
15、35…電送制御部
16 …入力部
17 …画像入力部
17A…デジタルカメラ
17B…デジタルビデオムービー
18 …距離センサ
18x…位置情報検出部
19、36…表示部
20 …画像出力部
20A…メモリカード
20B…VTR(録画装置)
20C…画像印刷機
21 …Webサーバ
N …通信ネットワーク(インターネット)
DESCRIPTION OF
12, 32 ...
20C: Image printer 21: Web server N: Communication network (Internet)
Claims (15)
この撮影画像取得手段により取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段と、
前記撮影画像を撮影した位置情報を取得する位置情報取得手段と、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段と、
前記位置情報取得手段により取得された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から取得する対応画像取得手段と、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段と、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力手段と、
を備えたことを特徴とする画像出力装置。 A captured image acquisition means for acquiring a captured image;
Target image extraction means for extracting a person image to be synthesized from the captured image acquired by the captured image acquisition means;
Position information obtaining means for obtaining position information obtained by photographing the photographed image;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to position information;
A costume image storing a pose corresponding to the photographic position information of the photographic image acquired by the position information acquisition unit and corresponding to the person image to be synthesized extracted by the target image extraction unit. Corresponding image acquisition means for acquiring from among a series of costume images stored by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extracting means, leaving the face portion of the person image. ,
Image output means for outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
An image output apparatus comprising:
この撮影画像取得手段により取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段と、
前記撮影画像を撮影した時間情報を取得する時間情報取得手段と、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段と、
前記時間情報取得手段により取得された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から取得する対応画像取得手段と、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段と、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力手段と、
を備えたことを特徴とする画像出力装置。 A captured image acquisition means for acquiring a captured image;
Target image extraction means for extracting a person image to be synthesized from the captured image acquired by the captured image acquisition means;
Time information acquisition means for acquiring time information of photographing the photographed image;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses with different types of costumes according to time information;
A costume image for each pose corresponding to the photographic time information of the photographic image acquired by the time information acquisition means, and a pose costume image corresponding to the person image to be synthesized extracted by the target image extraction means. Corresponding image acquisition means for acquiring from among a series of costume images stored by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extracting means, leaving the face portion of the person image. ,
Image output means for outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
An image output apparatus comprising:
前記対象画像抽出手段により抽出された撮影画像における合成対象の人物画像と前記ポーズ別衣装画像記憶手段により記憶された各ポーズごとの衣装画像との類似度を評価する類似度評価手段を有し、
この類似度評価手段により評価された合成対象の人物画像と各衣装画像との類似度に応じて当該合成対象の人物画像に対応したポーズの衣装画像を取得することを特徴とする請求項1ないし請求項4の何れか1項に記載の画像出力装置。 The corresponding image acquisition means includes
A similarity evaluation means for evaluating the similarity between the person image to be synthesized in the photographed image extracted by the target image extraction means and the costume image for each pose stored by the pose-specific costume image storage means;
The costume image of the pose corresponding to the person image to be synthesized is acquired according to the similarity between the person image to be synthesized and each costume image evaluated by the similarity evaluation means. The image output device according to claim 4.
前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の各ポーズに対応付けた複数のポーズのモデル画像を記憶するモデル画像記憶手段と、
前記対象画像抽出手段により抽出された撮影画像における合成対象の人物画像と前記モデル画像記憶手段により記憶された各ポーズのモデル画像との類似度を評価する類似度評価手段とを有し、
この類似度評価手段により評価された合成対象の人物画像と各モデル画像との類似度に応じて当該モデル画像のポーズに対応付けられて前記ポーズ別衣装画像記憶手段により記憶された衣装画像を取得することを特徴とする請求項1ないし請求項4の何れか1項に記載の画像出力装置。 The corresponding image acquisition means includes
Model image storage means for storing model images of a plurality of poses associated with each pose of a series of costume images stored by the pose-specific costume image storage means;
Similarity evaluation means for evaluating the similarity between the person image to be synthesized in the captured image extracted by the target image extraction means and the model image of each pose stored by the model image storage means;
Acquire a costume image stored in the pose-specific costume image storage means in association with the pose of the model image in accordance with the similarity between each model image and the person image to be synthesized evaluated by the similarity evaluation means. The image output apparatus according to claim 1, wherein the image output apparatus is an image output apparatus.
前記撮影画像取得手段は、前記撮影手段により撮影された撮影画像を取得する、
ことを特徴とする請求項1〜請求項6の何れか1項に記載の画像出力装置。 Equipped with shooting means,
The captured image acquisition means acquires a captured image captured by the imaging means;
The image output apparatus according to claim 1, wherein the image output apparatus is an image output apparatus.
この撮影画像取得ステップにて取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出ステップと、
前記撮影画像を撮影した位置情報を取得する位置情報取得ステップと、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶ステップと、
前記位置情報取得ステップにて取得された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出ステップにて抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶ステップにてメモリ記憶された一連の衣装画像の中から取得する対応画像取得ステップと、
この対応画像取得ステップにて取得された衣装画像を、前記対象画像抽出ステップにて抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成ステップと、
この画像合成ステップにて前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力ステップと、
からなることを特徴とする画像出力方法。 A captured image acquisition step of acquiring a captured image;
A target image extraction step of extracting a person image to be synthesized from the captured image acquired in the captured image acquisition step;
A position information acquisition step of acquiring position information obtained by capturing the captured image;
A pose-specific costume image storage step for storing a series of costume images consisting of a plurality of poses in a type of costume according to position information in a memory;
The costume image of the pose corresponding to the shooting position information of the shot image acquired in the position information acquisition step and corresponding to the person image to be synthesized extracted in the target image extraction step A corresponding image acquisition step of acquiring from a series of costume images stored in the memory in the image storage step;
Image composition for combining the costume image acquired in the corresponding image acquisition step with the person image to be combined in the photographed image extracted in the target image extraction step, leaving the face portion of the person image. Steps,
An image output step of outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized in this image synthesis step;
An image output method comprising:
この撮影画像取得ステップにて取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出ステップと、
前記撮影画像を撮影した時間情報を取得する時間情報取得ステップと、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶ステップと、
前記時間情報取得ステップにて取得された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出ステップにて抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶ステップにてメモリに記憶された一連の衣装画像の中から取得する対応画像取得ステップと、
この対応画像取得ステップにて取得された衣装画像を、前記対象画像抽出ステップにて抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成ステップと、
この画像合成ステップにて前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力ステップと、
からなることを特徴とする画像出力方法。 A captured image acquisition step of acquiring a captured image;
A target image extraction step of extracting a person image to be synthesized from the captured image acquired in the captured image acquisition step;
A time information acquisition step of acquiring time information of capturing the captured image;
A pose-specific costume image storage step for storing a series of costume images of a plurality of poses in a type of costume according to time information in a memory;
The costume image corresponding to the shooting time information of the captured image acquired in the time information acquisition step and the pose according to the person image to be combined extracted in the target image extraction step A corresponding image acquisition step of acquiring from a series of costume images stored in the memory in the image storage step;
Image composition for combining the costume image acquired in the corresponding image acquisition step with the person image to be combined in the photographed image extracted in the target image extraction step, leaving the face portion of the person image. Steps,
An image output step of outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized in this image synthesis step;
An image output method comprising:
前記コンピュータを、
撮影画像を取得する撮影画像取得手段、
この撮影画像取得手段により取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段、
前記撮影画像を撮影した位置情報を取得する位置情報取得手段、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶手段、
前記位置情報取得手段により取得された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段によりメモリに記憶された一連の衣装画像の中から取得する対応画像取得手段、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力手段、
として機能させるようにしたコンピュータ読み込み可能な画像出力処理プログラム。 An image output processing program for controlling a computer to perform image output processing,
The computer,
Captured image acquisition means for acquiring captured images,
Target image extraction means for extracting a person image to be synthesized from the captured image acquired by the captured image acquisition means;
Position information acquisition means for acquiring position information of the captured image;
Pose-specific costume image storage means for storing a series of costume images of a plurality of poses in a type of costume according to position information in a memory;
A costume image storing a pose corresponding to the photographic position information of the photographic image acquired by the position information acquisition unit and corresponding to the person image to be synthesized extracted by the target image extraction unit. Corresponding image acquisition means for acquiring from a series of costume images stored in the memory by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extraction means, leaving the face portion of the person image;
Image output means for outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
A computer-readable image output processing program designed to function as a computer.
前記コンピュータを、
撮影画像を取得する撮影画像取得手段、
この撮影画像取得手段により取得された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段、
前記撮影画像を撮影した時間情報を取得する時間情報取得手段、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶手段、
前記時間情報取得手段により取得された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段によりメモリに記憶された一連の衣装画像の中から取得する対応画像取得手段、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を出力する画像出力手段、
として機能させるようにしたコンピュータ読み込み可能な画像出力処理プログラム。 An image output processing program for controlling a computer to perform image output processing,
The computer,
Captured image acquisition means for acquiring captured images,
Target image extraction means for extracting a person image to be synthesized from the captured image acquired by the captured image acquisition means;
Time information acquisition means for acquiring time information of photographing the photographed image;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to time information in a memory;
A costume image for each pose corresponding to the photographic time information of the photographic image acquired by the time information acquisition means, and a pose costume image corresponding to the person image to be synthesized extracted by the target image extraction means. Corresponding image acquisition means for acquiring from a series of costume images stored in the memory by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extraction means, leaving the face portion of the person image;
Image output means for outputting a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
A computer-readable image output processing program designed to function as a computer.
この撮影画像受信手段により受信された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段と、
前記端末から前記撮影画像を撮影した位置情報を受信する位置情報受信手段と、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段と、
前記位置情報受信手段により受信された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から取得する対応画像取得手段と、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段と、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を前記端末へ送信する合成画像送信手段と、
を備えたことを特徴とする画像配信サーバ。 A captured image receiving means for receiving a captured image from the terminal;
Target image extracting means for extracting a person image to be synthesized from the photographed image received by the photographed image receiving means;
Position information receiving means for receiving position information obtained by photographing the photographed image from the terminal;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to position information;
The pose-specific costume image memory stores a pose costume image corresponding to the photographic position information of the photographic image received by the position information receiving means and corresponding to the person image to be synthesized extracted by the target image extracting means. Corresponding image acquisition means for acquiring from among a series of costume images stored by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extracting means, leaving the face portion of the person image. ,
A synthesized image transmitting means for transmitting to the terminal a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
An image delivery server comprising:
この撮影画像受信手段により受信された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段と、
前記端末から前記撮影画像を撮影した時間情報を受信する時間情報受信手段と、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像を記憶するポーズ別衣装画像記憶手段と、
前記時間情報受信手段により受信された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段により記憶された一連の衣装画像の中から取得する対応画像取得手段と、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段と、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を前記端末へ送信する合成画像送信手段と、
を備えたことを特徴とする画像配信サーバ。 A captured image receiving means for receiving a captured image from the terminal;
Target image extracting means for extracting a person image to be synthesized from the photographed image received by the photographed image receiving means;
Time information receiving means for receiving time information of photographing the photographed image from the terminal;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses with different types of costumes according to time information;
The pose-specific costume image memory stores a pose costume image corresponding to the photographic time information of the photographic image received by the time information receiving means and corresponding to the person image to be synthesized extracted by the target image extracting means. Corresponding image acquisition means for acquiring from among a series of costume images stored by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extracting means, leaving the face portion of the person image. ,
A synthesized image transmitting means for transmitting to the terminal a synthesized image in which a costume image of a pose corresponding to the person image to be synthesized is synthesized by the image synthesizing means;
An image delivery server comprising:
前記コンピュータを、
端末から撮影画像を受信する撮影画像受信手段、
この撮影画像受信手段により受信された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段、
前記端末から前記撮影画像を撮影した位置情報を受信する位置情報受信手段、
位置情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶手段、
前記位置情報受信手段により受信された撮影画像の撮影位置情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段によりメモリに記憶された一連の衣装画像の中から取得する対応画像取得手段、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を前記端末へ送信する合成画像送信手段、
として機能させるようにしたコンピュータ読み込み可能な画像配信処理プログラム。 An image distribution processing program for controlling a computer to perform image distribution processing,
The computer,
Captured image receiving means for receiving captured images from the terminal,
Target image extraction means for extracting a person image to be synthesized from the photographed image received by the photographed image receiving means;
Position information receiving means for receiving position information obtained by photographing the photographed image from the terminal;
Pose-specific costume image storage means for storing a series of costume images of a plurality of poses in a type of costume according to position information in a memory;
The pose-specific costume image memory stores a pose costume image corresponding to the photographic position information of the photographic image received by the position information receiving means and corresponding to the person image to be synthesized extracted by the target image extracting means. Corresponding image acquisition means for acquiring from a series of costume images stored in the memory by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extraction means, leaving the face portion of the person image;
A composite image transmitting means for transmitting, to the terminal, a composite image in which a costume image of a pose corresponding to the person image to be combined is combined by the image combining means;
A computer-readable image distribution processing program that functions as a computer.
前記コンピュータを、
端末から撮影画像を受信する撮影画像受信手段、
この撮影画像受信手段により受信された撮影画像から合成対象の人物画像を抽出する対象画像抽出手段、
前記端末から前記撮影画像を撮影した時間情報を受信する時間情報受信手段、
時間情報に応じた種類の衣装で複数のポーズからなる一連の衣装画像をメモリに記憶するポーズ別衣装画像記憶手段、
前記時間情報受信手段により受信された撮影画像の撮影時間情報に対応し、かつ、前記対象画像抽出手段により抽出された合成対象の人物画像に応じたポーズの衣装画像を、前記ポーズ別衣装画像記憶手段によりメモリに記憶された一連の衣装画像の中から取得する対応画像取得手段、
この対応画像取得手段により取得された衣装画像を、前記対象画像抽出手段により抽出された撮影画像の中の合成対象の人物画像に対し、当該人物画像の顔部分を残して合成する画像合成手段、
この画像合成手段により前記合成対象の人物画像に対応したポーズの衣装画像が合成された合成画像を前記端末へ送信する合成画像送信手段、
として機能させるようにしたコンピュータ読み込み可能な画像配信処理プログラム。 An image distribution processing program for controlling a computer to perform image distribution processing,
The computer,
Captured image receiving means for receiving captured images from the terminal,
Target image extraction means for extracting a person image to be synthesized from the photographed image received by the photographed image receiving means;
Time information receiving means for receiving time information of photographing the photographed image from the terminal;
Pose-specific costume image storage means for storing a series of costume images consisting of a plurality of poses in a type of costume according to time information in a memory;
The pose-specific costume image memory stores a pose costume image corresponding to the photographic time information of the photographic image received by the time information receiving means and corresponding to the person image to be synthesized extracted by the target image extracting means. Corresponding image acquisition means for acquiring from a series of costume images stored in the memory by the means;
Image combining means for combining the costume image acquired by the corresponding image acquisition means with the person image to be combined in the photographed image extracted by the target image extraction means, leaving the face portion of the person image;
A composite image transmitting means for transmitting, to the terminal, a composite image in which a costume image of a pose corresponding to the person image to be combined is combined by the image combining means;
A computer-readable image distribution processing program that functions as a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003372626A JP4423929B2 (en) | 2003-10-31 | 2003-10-31 | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003372626A JP4423929B2 (en) | 2003-10-31 | 2003-10-31 | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005136841A true JP2005136841A (en) | 2005-05-26 |
JP4423929B2 JP4423929B2 (en) | 2010-03-03 |
Family
ID=34648957
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003372626A Expired - Fee Related JP4423929B2 (en) | 2003-10-31 | 2003-10-31 | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4423929B2 (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088729A (en) * | 2007-09-28 | 2009-04-23 | Casio Comput Co Ltd | Composite image output device and composite image output processing program |
JP2009086785A (en) * | 2007-09-28 | 2009-04-23 | Casio Comput Co Ltd | Composite image output device and composite image output processing program |
JP2010199772A (en) * | 2009-02-24 | 2010-09-09 | Olympus Imaging Corp | Image display apparatus, image display method, and program |
JP2010279068A (en) * | 2010-08-09 | 2010-12-09 | Nintendo Co Ltd | Imaging apparatus, imaging system and game machine |
JP2011103561A (en) * | 2009-11-11 | 2011-05-26 | Sony Corp | System, device and method for processing image, and program |
JP2012105008A (en) * | 2010-11-09 | 2012-05-31 | Casio Comput Co Ltd | Image processing device and method, and program |
JP2012108923A (en) * | 2011-12-22 | 2012-06-07 | Casio Comput Co Ltd | Composite image output device and composite image output processing program |
JP2013097699A (en) * | 2011-11-04 | 2013-05-20 | Sony Corp | Image processing apparatus, image processing method, and program |
JP2013143725A (en) * | 2012-01-12 | 2013-07-22 | Casio Comput Co Ltd | Image display device, image display method, and program |
US8698920B2 (en) | 2009-02-24 | 2014-04-15 | Olympus Imaging Corp. | Image display apparatus and image display method |
WO2015068447A1 (en) * | 2013-11-06 | 2015-05-14 | ソニー株式会社 | Information processing device, information processing method, and information processing system |
JP2016189622A (en) * | 2016-07-06 | 2016-11-04 | オリンパス株式会社 | Image processing apparatus, image processing method, and image processing program |
US10163419B2 (en) | 2011-11-08 | 2018-12-25 | Sony Corporation | Image processing to combine virtual object with captured image |
JP2020178191A (en) * | 2019-04-16 | 2020-10-29 | 大日本印刷株式会社 | Image processing device, photographing device, and program |
CN113869435A (en) * | 2021-09-30 | 2021-12-31 | 北京爱奇艺科技有限公司 | Image processing method, image processing device, clothing identification method, clothing identification device, equipment and storage medium |
CN113890994A (en) * | 2021-09-30 | 2022-01-04 | 荣耀终端有限公司 | Image capturing method, system, storage medium, and program product |
JP7465487B2 (en) | 2021-07-27 | 2024-04-11 | ダナル エンターテインメント カンパニー リミテッド | Emoticon Generator |
-
2003
- 2003-10-31 JP JP2003372626A patent/JP4423929B2/en not_active Expired - Fee Related
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009088729A (en) * | 2007-09-28 | 2009-04-23 | Casio Comput Co Ltd | Composite image output device and composite image output processing program |
JP2009086785A (en) * | 2007-09-28 | 2009-04-23 | Casio Comput Co Ltd | Composite image output device and composite image output processing program |
US8698920B2 (en) | 2009-02-24 | 2014-04-15 | Olympus Imaging Corp. | Image display apparatus and image display method |
JP2010199772A (en) * | 2009-02-24 | 2010-09-09 | Olympus Imaging Corp | Image display apparatus, image display method, and program |
JP2011103561A (en) * | 2009-11-11 | 2011-05-26 | Sony Corp | System, device and method for processing image, and program |
US9547791B2 (en) | 2009-11-11 | 2017-01-17 | Sony Corporation | Image processing system, image processing apparatus, image processing method, and program |
US9020210B2 (en) | 2009-11-11 | 2015-04-28 | Sony Corporation | Image processing system, image processing apparatus, image processing method, and program |
JP2010279068A (en) * | 2010-08-09 | 2010-12-09 | Nintendo Co Ltd | Imaging apparatus, imaging system and game machine |
JP2012105008A (en) * | 2010-11-09 | 2012-05-31 | Casio Comput Co Ltd | Image processing device and method, and program |
JP2013097699A (en) * | 2011-11-04 | 2013-05-20 | Sony Corp | Image processing apparatus, image processing method, and program |
US11024251B2 (en) | 2011-11-08 | 2021-06-01 | Sony Corporation | Image processing apparatus and image processing method |
US10720122B2 (en) | 2011-11-08 | 2020-07-21 | Sony Corporation | Image processing apparatus and image processing method |
US10163419B2 (en) | 2011-11-08 | 2018-12-25 | Sony Corporation | Image processing to combine virtual object with captured image |
JP2012108923A (en) * | 2011-12-22 | 2012-06-07 | Casio Comput Co Ltd | Composite image output device and composite image output processing program |
JP2013143725A (en) * | 2012-01-12 | 2013-07-22 | Casio Comput Co Ltd | Image display device, image display method, and program |
US10133966B2 (en) | 2013-11-06 | 2018-11-20 | Sony Corporation | Information processing apparatus, information processing method, and information processing system |
WO2015068447A1 (en) * | 2013-11-06 | 2015-05-14 | ソニー株式会社 | Information processing device, information processing method, and information processing system |
JP2016189622A (en) * | 2016-07-06 | 2016-11-04 | オリンパス株式会社 | Image processing apparatus, image processing method, and image processing program |
JP2020178191A (en) * | 2019-04-16 | 2020-10-29 | 大日本印刷株式会社 | Image processing device, photographing device, and program |
JP7293834B2 (en) | 2019-04-16 | 2023-06-20 | 大日本印刷株式会社 | Image processing device, photography device, program |
JP7465487B2 (en) | 2021-07-27 | 2024-04-11 | ダナル エンターテインメント カンパニー リミテッド | Emoticon Generator |
CN113869435A (en) * | 2021-09-30 | 2021-12-31 | 北京爱奇艺科技有限公司 | Image processing method, image processing device, clothing identification method, clothing identification device, equipment and storage medium |
CN113890994A (en) * | 2021-09-30 | 2022-01-04 | 荣耀终端有限公司 | Image capturing method, system, storage medium, and program product |
CN113890994B (en) * | 2021-09-30 | 2022-12-23 | 荣耀终端有限公司 | Image photographing method, system and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4423929B2 (en) | 2010-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4423929B2 (en) | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program | |
US8698920B2 (en) | Image display apparatus and image display method | |
CN101232594B (en) | Image pickup device and image processing apparatus | |
JP3918632B2 (en) | Image distribution server, image distribution program, and image distribution method | |
JP2010183317A (en) | Imaging device, image composition and display device, image composition and display method, and program | |
JP2010171676A (en) | Camera, image display device, image display method, and program | |
JP7011206B2 (en) | Amusement photography equipment, image processing equipment, and image processing methods | |
JP5012373B2 (en) | Composite image output apparatus and composite image output processing program | |
JP5169111B2 (en) | Composite image output apparatus and composite image output processing program | |
JP6043753B2 (en) | Content reproduction system, server, portable terminal, content reproduction method, program, and recording medium | |
JP4161769B2 (en) | Image output device, image output method, image output processing program, image distribution server, and image distribution processing program | |
JP4168800B2 (en) | Image distribution device | |
JP2015093010A (en) | Game system | |
JP4151543B2 (en) | Image output apparatus, image output method, and image output processing program | |
JP3901015B2 (en) | Image output apparatus, image output processing program, and image output method | |
JP4254391B2 (en) | Image output device, image output processing program, and image distribution server | |
JP2005107988A (en) | Image output device, image output method, image output processing program, image delivery server and image delivery processing program | |
CN113012040B (en) | Image processing method, image processing device, electronic equipment and storage medium | |
JP2013168969A (en) | Image display method, and image display device | |
JP2007166383A (en) | Digital camera, image composing method, and program | |
JP6461289B2 (en) | Game system | |
JP2004088728A (en) | Picture providing apparatus, method, and program thereof | |
JP4168803B2 (en) | Image output device | |
JP6849851B2 (en) | Shooting system, shooting device and user shooting method | |
JP2004173320A (en) | Image providing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091117 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4423929 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121218 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131218 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |