JP2015143997A - Photographing game device, image processing method, and image processing program - Google Patents

Photographing game device, image processing method, and image processing program Download PDF

Info

Publication number
JP2015143997A
JP2015143997A JP2015034622A JP2015034622A JP2015143997A JP 2015143997 A JP2015143997 A JP 2015143997A JP 2015034622 A JP2015034622 A JP 2015034622A JP 2015034622 A JP2015034622 A JP 2015034622A JP 2015143997 A JP2015143997 A JP 2015143997A
Authority
JP
Japan
Prior art keywords
image
subject
shadow
background
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015034622A
Other languages
Japanese (ja)
Other versions
JP5871083B2 (en
Inventor
辰巳 聡
Satoshi Tatsumi
聡 辰巳
幸輔 大北
Kosuke Okita
幸輔 大北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tatsumi Denshi Kogyo KK
Original Assignee
Tatsumi Denshi Kogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tatsumi Denshi Kogyo KK filed Critical Tatsumi Denshi Kogyo KK
Priority to JP2015034622A priority Critical patent/JP5871083B2/en
Publication of JP2015143997A publication Critical patent/JP2015143997A/en
Application granted granted Critical
Publication of JP5871083B2 publication Critical patent/JP5871083B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a photographing game device capable of increasing the reality of a composite image by enabling the attachment of natural shadows.SOLUTION: The photographing game device includes: a photographing part having at least one camera for photographing a subject to generate a photographed image reflecting the subject; a subject image generation part for generating a subject image obtained by extracting an area reflecting the subject from the photographed image; a storage part for storing a plurality of kinds of background images; a background image acquisition part for receiving the selection of a background image to be combined as a background of the subject image among the plurality of kinds of background images; a shadow information generation part for determining the shape of a shadow corresponding to the selected background image on the basis of the shape of the subject image; a composite image generation part for generating a composite image having the shadow of the shape corresponding to the selected background image, the subject image and the background image; an editing part for performing editing processing of the composite image generated by the composite image generation part to generate an outputting image; and an output part for outputting the outputting image.

Description

本発明は、写真撮影遊戯装置、画像処理方法、及び画像処理プログラムに関する。   The present invention relates to a photography game device, an image processing method, and an image processing program.

従来より、ユーザを含む被写体をカメラで撮影し、その撮影画像を写真印刷シートとして出力する遊戯用の写真撮影遊戯装置が知られている。このような写真撮影遊戯装置では、ユーザの嗜好に応じて、例えば、次のような編集処理を行えるものが多く提案されている。まず、撮影された被写体の画像に対してクロマキー処理を施し、被写体部分を抽出した被写体画像を生成する。そして、この被写体画像にユーザが選択した背景画像を合成し、合成画像を生成する。その後、合成画像に対して編集を施した出力用画像を生成し、これを写真印刷シートとして出力している。   2. Description of the Related Art Conventionally, there has been known a photography photography game device for a game in which a subject including a user is photographed with a camera and the photographed image is output as a photo print sheet. As such a photography game device, many devices capable of performing the following editing process, for example, have been proposed according to the user's preference. First, chroma key processing is performed on the photographed subject image to generate a subject image from which the subject portion is extracted. Then, a background image selected by the user is combined with the subject image to generate a combined image. Thereafter, an output image obtained by editing the composite image is generated and output as a photographic print sheet.

しかしながら、上記のような出力用画像の生成に当たっては、被写体画像と背景画像とを合成するため、影がなく立体感に乏しい合成画像が生成される。これに対して、例えば、特許文献1では、予め複数パターンの影を有するレイヤー画像を生成しておき、これを被写体画像及び背景画像に合成することで、被写体が影とともに写る合成画像を生成している。   However, when generating the output image as described above, since the subject image and the background image are combined, a combined image having no shadow and no three-dimensional effect is generated. On the other hand, for example, in Patent Document 1, a layer image having a plurality of patterns of shadows is generated in advance, and this is combined with the subject image and the background image, thereby generating a composite image in which the subject is reflected together with the shadow. ing.

特許第4648092号公報Japanese Patent No. 4648092

ところが、特許文献1で生成されるレイヤー画像は、影が単一の色で生成されているため、見栄えが人工的である。そのため、このような影を付すと、かえって合成画像のリアリティが低下するおそれがある。本発明は、上記問題を解決するためになされたものであり、人工的ではない、自然な影を付することができ、合成画像のリアリティを増大することができる写真撮影遊戯装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。   However, the layer image generated in Patent Document 1 has an artificial appearance because the shadow is generated in a single color. Therefore, if such a shadow is added, the reality of the composite image may be deteriorated. The present invention has been made to solve the above-described problems, and is a photography game device and an image processing method that can add a natural shadow that is not artificial and can increase the reality of a composite image. And an image processing program.

本発明に係る第1の写真撮影遊戯装置は、被写体を撮影する少なくとも1つのカメラを有し、前記被写体が写る撮影画像を生成する、撮影部と、前記撮影画像から前記被写体が写る領域を抽出した被写体画像を生成する被写体画像生成部と、複数種類の背景画像が記憶されている記憶部と、前記複数種類の背景画像の中から前記被写体画像の背景として合成する背景画像の選択を受け付ける背景画像取得部と、前記被写体画像の形状に基づいて、選択された前記背景画像に対応した影の形状を決定する影情報生成部と、選択された前記背景画像に対応した形状の影、前記被写体画像、及び前記背景画像を有する合成画像を生成する合成画像生成部と、前記合成画像生成部で生成された合成画像に編集処理を施し、出力用画像を生成する編集部と、前記出力用画像を出力する出力部と、を備えている。   A first photography game apparatus according to the present invention has at least one camera for photographing a subject, generates a photographed image in which the subject is photographed, and extracts a region in which the subject is photographed from the photographed image. A subject image generating unit that generates the subject image, a storage unit that stores a plurality of types of background images, and a background that receives selection of a background image to be combined as a background of the subject image from the plurality of types of background images An image acquisition unit; a shadow information generation unit that determines a shape of a shadow corresponding to the selected background image based on a shape of the subject image; a shadow having a shape corresponding to the selected background image; A composite image generation unit that generates a composite image having an image and the background image, and an editing unit that performs an editing process on the composite image generated by the composite image generation unit and generates an output image , And a, and an output unit for outputting the output image.

本発明に係る第1の画像処理方法は、カメラによって撮影された被写体が写る撮影画像から前記被写体が写る領域を抽出した被写体画像を生成するステップと、複数種類の背景画像の中から前記被写体画像の背景として合成する背景画像の選択を受け付けるステップと、前記被写体画像の形状に基づいて、選択された前記背景画像に対応した影の形状を決定するステップと、選択された前記背景画像に対応した形状の影、前記被写体画像、及び前記背景画像を有する合成画像を生成するステップと、を備えている。   The first image processing method according to the present invention includes a step of generating a subject image obtained by extracting a region where the subject is captured from a photographed image where the subject photographed by a camera is photographed, and the subject image from a plurality of types of background images. Receiving a selection of a background image to be synthesized as a background, determining a shadow shape corresponding to the selected background image based on the shape of the subject image, and corresponding to the selected background image Generating a composite image having a shape shadow, the subject image, and the background image.

本発明に係る第1の画像処理プログラムは、コンピュータに、カメラによって撮影された被写体が写る撮影画像から前記被写体が写る領域を抽出した被写体画像を生成するステップと、複数種類の背景画像の中から前記被写体画像の背景として合成する背景画像の選択を受け付けるステップと、前記被写体画像の形状に基づいて、選択された前記背景画像に対応した影の形状を決定するステップと、選択された前記背景画像に対応した形状の影、前記被写体画像、及び前記背景画像を有する合成画像を生成するステップと、を実行させる。   A first image processing program according to the present invention includes a step of generating a subject image obtained by extracting a region in which a subject is captured from a captured image in which a subject captured by a camera is captured, and a plurality of types of background images. Receiving a selection of a background image to be combined as a background of the subject image, determining a shadow shape corresponding to the selected background image based on the shape of the subject image, and the selected background image Generating a composite image having a shadow corresponding to the shape of the object, the subject image, and the background image.

本発明に係る第1の画像処理装置は、被写体が写る撮影画像をクロマキー処理することで、前記被写体が抽出された被写体画像を生成する被写体画像生成部と、前記被写体に近い基端部と終端部とを有するとともに前記基端部から終端部にいくしたがって色の濃度が薄くなるように形成された、前記被写体の影を生成するための影情報を生成する影情報生成部と、背景画像を取得する背景画像取得部と、前記影情報に基づいて前記背景画像に影を形成するとともに、当該影が形成された背景画像と前記被写体画像とを合成した合成画像を生成する合成画像生成部と、を備えている。   A first image processing apparatus according to the present invention includes a subject image generation unit that generates a subject image from which the subject is extracted by performing chroma key processing on a captured image in which the subject is captured, and a base end portion and a terminal end that are close to the subject. A shadow information generation unit for generating shadow information for generating a shadow of the subject, and a background image, which is formed so that the color density decreases from the base end part to the terminal end part. A background image acquisition unit to acquire, and a composite image generation unit that forms a shadow on the background image based on the shadow information and generates a composite image obtained by combining the background image on which the shadow is formed and the subject image; It is equipped with.

この構成によれば、被写体に近い基端部と終端部とを有するとともに基端部から終端部にいくしたがって色の濃度が薄くなるように形成された、被写体の影を生成するための影情報を生成する影情報生成部を備えている。そして、この影情報に基づいて、背景画像を処理し、影が形成された背景画像を生成している。そのため、背景画像に形成される影は、被写体から離れるにしたがって濃度が薄くなるグラデーションを有する。したがって、合成画像に自然な影を形成することができるため、画像の立体感が増し、リアリティを増大することができる。   According to this configuration, shadow information for generating a shadow of a subject, which has a base end portion and a terminal end portion close to the subject and is formed so that the color density decreases from the base end portion to the terminal end portion. Is provided with a shadow information generation unit. And based on this shadow information, a background image is processed and the background image in which the shadow was formed is produced | generated. Therefore, the shadow formed on the background image has a gradation in which the density becomes lighter as the distance from the subject increases. Therefore, since a natural shadow can be formed on the composite image, the stereoscopic effect of the image is increased and the reality can be increased.

本発明に係る第2の画像処理装置は、被写体が写る撮影画像をクロマキー処理することで、前記被写体が抽出された被写体画像を生成する被写体画像生成部と、前記被写体に近い基端部と終端部とを有するとともに前記基端部から終端部にいくしたがって色の濃度が薄くなるように形成された、前記被写体のための影画像を生成する影画像生成部と、背景画像を取得する背景画像取得部と、前記被写体画像、前記背景画像、及び前記影画像を合成した合成画像を生成する合成画像生成部と、を備えている。   The second image processing apparatus according to the present invention includes a subject image generation unit that generates a subject image from which the subject is extracted by performing chroma key processing on a captured image in which the subject is captured, and a base end portion and a terminal end that are close to the subject. A shadow image generation unit for generating a shadow image for the subject, and a background image for acquiring a background image. An acquisition unit; and a composite image generation unit that generates a composite image obtained by combining the subject image, the background image, and the shadow image.

本発明に係る第2の画像処理方法は、被写体が写る撮影画像をクロマキー処理することで、前記被写体が抽出された被写体画像を生成するステップと、前記被写体に近い基端部と終端部とを有するとともに前記基端部から終端部にいくしたがって色の濃度が薄くなるように形成された、前記被写体の影を生成するための影情報を生成するステップと、背景画像を取得するステップと、前記影情報に基づいて前記背景画像に影を形成するとともに、当該影が形成された背景画像と前記被写体画像とを合成した合成画像を生成するステップと、を備えている。   A second image processing method according to the present invention includes a step of generating a subject image from which the subject is extracted by performing chroma key processing on a captured image in which the subject is captured, and a base end portion and a terminal end portion that are close to the subject. And generating shadow information for generating a shadow of the subject formed so as to decrease in color density from the base end portion to the terminal end portion, obtaining a background image, and And forming a shadow on the background image based on shadow information, and generating a composite image obtained by combining the background image on which the shadow is formed and the subject image.

本発明に係る第2の画像処理プログラムは、コンピュータに、被写体が写る撮影画像をクロマキー処理することで、前記被写体が抽出された被写体画像を生成するステップと、前記被写体に近い基端部と終端部とを有するとともに前記基端部から終端部にいくしたがって色の濃度が薄くなるように形成された、前記被写体の影を生成するための影情報を生成するステップと、背景画像を取得するステップと、前記影情報に基づいて前記背景画像に影を形成するとともに、当該影が形成された背景画像と前記被写体画像とを合成した合成画像を生成するステップと、を実行させる。   The second image processing program according to the present invention includes a step of generating a subject image from which the subject is extracted by performing chroma key processing on a captured image in which the subject is captured on a computer, and a base end portion and a terminal end close to the subject. A step of generating shadow information for generating a shadow of the subject, and a step of acquiring a background image, which are formed so as to decrease in color density from the base end portion to the terminal end portion. And forming a shadow on the background image based on the shadow information, and generating a composite image obtained by combining the background image on which the shadow is formed and the subject image.

本発明に係る写真印刷シートは、被写体が写る撮影画像をクロマキー処理することで、前記被写体が抽出された被写体画像を生成するステップと、前記被写体に近い基端部と終端部とを有するとともに前記基端部から終端部にいくしたがって色の濃度が薄くなるように形成された、前記被写体の影を生成するための影情報を生成するステップと、背景画像を取得するステップと、前記影情報に基づいて前記背景画像に影を形成するとともに、当該影が形成された背景画像と前記被写体画像とを合成した合成画像を生成するステップと、前記合成画像に編集を施し、出力画像を生成するステップと、前記出力画像を印刷して出力するステップと、により生成される。   The photographic print sheet according to the present invention includes a step of generating a subject image from which the subject is extracted by performing chroma key processing on a captured image in which the subject is captured, and a base end portion and a terminal end portion that are close to the subject, and The step of generating shadow information for generating a shadow of the subject, the step of acquiring a background image, which is formed so that the density of the color decreases from the base end portion to the terminal end portion, Forming a shadow on the background image based on the image, generating a composite image by combining the background image on which the shadow is formed and the subject image, and editing the composite image to generate an output image And printing and outputting the output image.

本発明によれば、人工的ではない、自然な影を付することができ、合成画像のリアリティを増大することができる。   According to the present invention, a non-artificial natural shadow can be added, and the reality of the composite image can be increased.

本発明の一実施形態に係る写真撮影遊戯装置を左前側から見た斜視図である。It is the perspective view which looked at the photography game device concerning one embodiment of the present invention from the left front side. 図1の写真撮影遊戯装置を上から見た平面図である。It is the top view which looked at the photography game device of FIG. 1 from the top. 撮影筐体の斜視図である。It is a perspective view of a photography housing. 編集筐体の斜視図である。It is a perspective view of an edit housing | casing. 出力筐体の正面図である。It is a front view of an output housing | casing. 写真撮影遊戯装置の内部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure inside a photography imaging | photography game device. 撮影画像の処理に係る制御部4の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the control part 4 which concerns on the process of a picked-up image. 撮影画像とマスク画像の例である。It is an example of a picked-up image and a mask image. グラデーションマスクの例である。It is an example of a gradation mask. グラデーションカーブの一例である。It is an example of a gradation curve. グラデーションマスクと足ゾーンの関係を示す図である。It is a figure which shows the relationship between a gradation mask and a foot zone. 傾斜マスクの作成方法の例を示す図である。It is a figure which shows the example of the preparation method of an inclination mask. 傾斜マスクの作成方法の例を示す図である。It is a figure which shows the example of the preparation method of an inclination mask. 傾斜マスクの例である。It is an example of an inclination mask. 背景画像と、影が付された背景画像を示す図である。It is a figure which shows a background image and the background image to which the shadow was attached | subjected. 合成画像の例である。It is an example of a synthesized image. 撮影画像の例である。It is an example of a picked-up image. マスク画像の例である。It is an example of a mask image. グラデーションマスクの例である。It is an example of a gradation mask. 傾斜マスクの例である。It is an example of an inclination mask. 傾斜マスクの圧縮方法の例である。It is an example of the compression method of an inclination mask. 圧縮された傾斜マスクの例である。It is an example of the compressed inclination mask. 影が付された背景画像を示す図である。It is a figure which shows the background image to which the shadow was attached | subjected. 移動グラデーションマスクの例である。It is an example of a moving gradation mask. 影が付された背景画像を示す図である。It is a figure which shows the background image to which the shadow was attached | subjected. 合成画像の例である。It is an example of a synthesized image. 本実施形態における写真撮影遊戯装置でのプレイの手順を示すフローチャートである。It is a flowchart which shows the procedure of the play in the photography game device in this embodiment. 撮影処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of an imaging | photography process. 上部モニタに示される画像の例である。It is an example of the image shown on an upper monitor. 背景画像の選択の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of selection of a background image. 背景選択用の画面を示す模式図である。It is a schematic diagram which shows the screen for background selection. 編集用モニタに表示される編集対象画像の編集用画面を示す模式図である。It is a schematic diagram which shows the edit screen of the edit object image displayed on the monitor for edit. 背景画像の例である。It is an example of a background image. 背景画像における影の処理の例である。It is an example of the process of the shadow in a background image. 傾斜マスクを生成する手順の例である。It is an example of the procedure which produces | generates an inclination mask. 傾斜マスクを生成する手順の例である。It is an example of the procedure which produces | generates an inclination mask. 差分グラデーションマスクの例である。It is an example of a difference gradation mask. 傾斜マスクを生成する手順の例である。It is an example of the procedure which produces | generates an inclination mask.

以下、本発明に係る写真撮影遊戯装置の一実施形態について、図面を参照しつつ説明する。本実施形態に係る写真撮影遊戯装置は、写真撮影により生成された画像データに対して落書き編集を行った後、写真印刷シートとして印刷したり、画像データとして外部装置(携帯端末や画像蓄積サーバ等)に出力するものである。まず、この写真撮影遊戯装置の全体構造について説明する。   Hereinafter, an embodiment of a photography game apparatus according to the present invention will be described with reference to the drawings. The photography game device according to the present embodiment performs graffiti editing on image data generated by photography and then prints it as a photographic print sheet or as image data from an external device (such as a portable terminal or an image storage server). ). First, the overall structure of this photography game apparatus will be described.

<1.全体構造>
図1は、本実施形態に係る写真撮影遊戯装置を左前側から見た斜視図、図2は図1の写真撮影遊戯装置を上から見た平面図である。以下では、図1に示す前後左右の方向を基準として、他の図面の説明も行う。図1及び図2に示すように、この写真撮影遊技装置は、前部側の撮影部1と後部側の編集部2とを備えており、前後方向に長いほぼ直方体状を呈している。そして、編集部2の後端には、編集後の写真の出力などを行う出力部3が設けられている。
<1. Overall structure>
FIG. 1 is a perspective view of the photographic game apparatus according to the present embodiment as viewed from the left front side, and FIG. 2 is a plan view of the photographic game apparatus of FIG. 1 as viewed from above. Hereinafter, other drawings will also be described with reference to the front, rear, left, and right directions shown in FIG. As shown in FIGS. 1 and 2, this photographic game apparatus includes a front-side shooting unit 1 and a rear-side editing unit 2 and has a substantially rectangular parallelepiped shape that is long in the front-rear direction. An output unit 3 is provided at the rear end of the editing unit 2 to output the edited photo.

撮影部1は、ユーザを撮影するカメラが内蔵された撮影筐体11と、この撮影筐体11の後方に撮影空間10を介して配置された背景壁部12とを有している。そして、撮影筐体11の側面と、背景壁部12の側面との間の隙間が、撮影空間10への出入口である第1出入口101a,101bを構成している。また、編集部2は、背景壁部12の後方に隣接して配置された編集筐体21を有しており、この編集筐体21には、左右の方向を向く一対の操作面が設けられている。そして、各操作面への入力作業を行う編集空間20a,20bへは第2出入口201a,201bを介して入ることができる。また、出力部3は、編集筐体21の後端面と接する出力筐体31を有しており、この出力筐体31に対しては、写真撮影遊戯装置の後端側から操作を行うように、操作面が後端側を向いている。したがって、この出力筐体31の後端側の空間が、出力操作を行う出力空間30となる。   The photographing unit 1 includes a photographing case 11 in which a camera for photographing a user is incorporated, and a background wall portion 12 disposed behind the photographing case 11 via a photographing space 10. A gap between the side surface of the imaging housing 11 and the side surface of the background wall portion 12 constitutes first entrances 101 a and 101 b that are entrances to the imaging space 10. In addition, the editing unit 2 has an editing case 21 disposed adjacent to the back of the background wall 12, and the editing case 21 is provided with a pair of operation surfaces facing left and right directions. ing. The editing spaces 20a and 20b for performing input operations on the respective operation surfaces can be entered through the second doorways 201a and 201b. The output unit 3 has an output housing 31 that is in contact with the rear end surface of the editing housing 21, and the output housing 31 is operated from the rear end side of the photographic game machine. The operation surface faces the rear end side. Therefore, the space on the rear end side of the output housing 31 becomes an output space 30 for performing an output operation.

撮影筐体11と背景壁部12の上端部の側面は、前後方向に延びる天井フレーム13によって互いに連結されている。そして、この天井フレーム13の枠内部には、撮影空間10を上から覆い、照明及びフラッシュ照射する天井照明ユニット14が設けられている。撮影筐体11の左側面(あるいは右側面)には、写真撮影遊技装置の使用方法を含む説明書きを掲示するための掲示スペース15が設けられている。また、その左側面の上部には、撮影筐体11が使用中であるか否かを示す表示部16が設けられている。   The side surfaces of the photographing housing 11 and the upper end of the background wall 12 are connected to each other by a ceiling frame 13 extending in the front-rear direction. A ceiling illumination unit 14 is provided inside the ceiling frame 13 to cover the imaging space 10 from above and illuminate and flash. On the left side (or right side) of the photographic housing 11 is provided a posting space 15 for posting instructions including how to use the photographic gaming machine. In addition, a display unit 16 that indicates whether or not the photographing housing 11 is in use is provided on the upper left side.

この表示部16は、編集筐体21の制御ボックス211(図4参照)の内部に設けられた制御装置(図示せず)によって発光又は消灯される表示灯で構成されている。そして、発光によって撮影部1が使用中であることをユーザに示し、消灯によって撮影部1が空きになったことをユーザに示すものである。本実施形態では、表示部16が左右方向外側に突出した平面視三角形状に形成されているが、その形状は特には限定されず、凸湾曲状などのその他の形状であってもよい。   The display unit 16 is configured by an indicator lamp that emits light or is turned off by a control device (not shown) provided in the control box 211 (see FIG. 4) of the editing housing 21. Light emission indicates to the user that the photographing unit 1 is in use, and light extinction indicates to the user that the photographing unit 1 has become empty. In the present embodiment, the display unit 16 is formed in a triangular shape in plan view protruding outward in the left-right direction, but the shape is not particularly limited, and may be other shapes such as a convex curve shape.

背景壁部12は、撮影筐体11とほぼ同じ幅及び高さの板状部材によって形成され、撮影筐体11の正面と対面する本体プレート121と、この本体プレート121の左右両端から前方に延設された一対のサイドプレート122とを有しており、全体として平面視コ字状に形成されている。本体プレート121において、撮影筐体11を向く面には、クロマキー処理のための単一の色(例えば、青色または緑色)が着色されている。着色については、本体プレート121に直接ペンキなどで着色するほか、着色された布地、プレート等を取付けてもよい。また、図示はしていないが、撮影空間10の床面には、この本体プレート121と連続するように、当該本体プレート121と同様にクロマキー処理のための単一色が着色されている。そして、撮影筐体11の後端縁と、天井フレーム13の下端縁と、サイドプレート122の前端縁とから、上述したように、撮影空間10に出入りするための第1出入口101a,101bが構成されている。   The background wall portion 12 is formed by a plate-like member having substantially the same width and height as the imaging housing 11, and extends from the left and right ends of the body plate 121 to the front. It has a pair of side plates 122 provided, and is formed in a U-shape in plan view as a whole. A single color (for example, blue or green) for chroma key processing is colored on the surface of the main body plate 121 facing the photographing housing 11. Regarding the coloring, in addition to coloring the main body plate 121 directly with paint or the like, a colored fabric, plate or the like may be attached. Although not shown, the floor surface of the imaging space 10 is colored with a single color for chroma key processing like the main body plate 121 so as to be continuous with the main body plate 121. The first entrances 101 a and 101 b for entering and exiting the imaging space 10 are configured from the rear edge of the imaging housing 11, the lower edge of the ceiling frame 13, and the front edge of the side plate 122, as described above. Has been.

本実施形態の編集筐体21は、左右両側から2組のユーザが同時に編集可能な対面式であり、左右それぞれに操作面が設けられるとともに、左右方向長さが背景壁部12の同方向幅よりも小さい筐体よりなる。編集筐体21は、その前端面を背景壁部12の背面の中央部に接続されており、この編集筐体21の左右両側方のスペースが、2組のユーザがそれぞれ編集作業を行う編集空間20a,20bとなっている。編集筐体21の上方には、平面視においてほぼコの字状のカーテンフレーム22が設けられている。このカーテンフレーム22は、前後方向に延びる一対の側部フレーム221と、この側部フレーム221の後端同士を連結する左右方向に延びる後部フレーム222とからなる。   The editing housing 21 of the present embodiment is a face-to-face system that can be edited simultaneously by two sets of users from both the left and right sides. Smaller casing. The front side of the editing case 21 is connected to the center of the back surface of the background wall 12, and the space on the left and right sides of the editing case 21 is an editing space in which two sets of users perform editing operations. 20a and 20b. Above the editing case 21, a substantially U-shaped curtain frame 22 is provided in plan view. The curtain frame 22 includes a pair of side frames 221 extending in the front-rear direction and a rear frame 222 extending in the left-right direction that connects the rear ends of the side frames 221.

各側部フレーム221の前端は、天井フレーム13の後端に前後方向に延長状に連結されており、後部フレーム222の中央部は、編集筐体21の後上端部に設けられた支持部材23によって支持されている。そして、左右一方側の側部フレーム221と、後部フレーム222のほぼ半分の長さ部分により、編集空間20a,20bに出入りするための前記第2出入口201a,201bの上枠部が構成されている。   The front end of each side frame 221 is connected to the rear end of the ceiling frame 13 so as to extend in the front-rear direction, and the central portion of the rear frame 222 is a support member 23 provided at the rear upper end of the editing casing 21. Is supported by. The left and right side frames 221 and the substantially half length of the rear frame 222 constitute upper frame portions of the second entrances 201a and 201b for entering and exiting the editing spaces 20a and 20b. .

<2.撮影筐体>
次に、撮影筐体11について詳細に説明する。図3は撮影筐体の斜視図である。同図に示すように、本実施形態の撮影筐体11の室内側面には、撮影空間10を前方から照明するとともに、フラッシュ照射する正面照明ユニット115が設けられている。この正面照明ユニット115は、4つの部位、つまり中央上側のユニット部分115Aと、中央下側のユニット部分115Bと、左側のユニット部分115Cと、右側のユニット部分115Dとから構成されている。また、撮影筐体11の右下部には、コイン投入口とコイン返却口を有するキャッシュボックス116が設けられている。
<2. Shooting housing>
Next, the photographing casing 11 will be described in detail. FIG. 3 is a perspective view of the photographing housing. As shown in the figure, a front illumination unit 115 that illuminates the photographing space 10 from the front and irradiates a flash is provided on the indoor side surface of the photographing casing 11 of the present embodiment. The front illumination unit 115 includes four parts, that is, a central upper unit part 115A, a central lower unit part 115B, a left unit part 115C, and a right unit part 115D. In addition, a cash box 116 having a coin insertion slot and a coin return slot is provided in the lower right portion of the photographing casing 11.

上述した中央上側のユニット部分115A及びユニット部分115Bは、一体的に連結され、凹湾曲状に形成されている。そして、ユニット部分115Aの上端部には、被写体を上方から撮影するための上部カメラ111が搭載されている。また、上部カメラ111の下方には、撮影条件などの入力操作が可能なタッチパネル式の液晶モニタである上部モニタ113が設けられている。そして、この上部モニタ113には、上部カメラ111で撮影された画像が表示される。また、上部モニタ113の下方、つまりユニット部分115Aの下端部には、被写体を正面から撮影するための下部カメラ112が搭載されている。そして、この下部カメラ112の下方、つまりユニット部分115Bの上端部には、このカメラ112で撮影された画像が表示される下部モニタ114が設けられている。この下部モニタ114にはタッチパネルは設けられておらず、もっぱら表示のみを行うようになっている。   The central upper unit portion 115A and unit portion 115B described above are integrally connected and formed in a concave curved shape. An upper camera 111 for photographing the subject from above is mounted on the upper end portion of the unit portion 115A. Further, below the upper camera 111, an upper monitor 113, which is a touch panel type liquid crystal monitor capable of inputting an imaging condition or the like, is provided. The upper monitor 113 displays an image captured by the upper camera 111. Further, a lower camera 112 for photographing the subject from the front is mounted below the upper monitor 113, that is, at the lower end of the unit portion 115A. A lower monitor 114 on which an image taken by the camera 112 is displayed is provided below the lower camera 112, that is, at the upper end of the unit portion 115B. The lower monitor 114 is not provided with a touch panel, and only performs display.

<3.編集筐体>
続いて、編集筐体21について詳細に説明する。図4は編集筐体の斜視図である。同図に示すように、本実施形態の編集筐体21は、下部側の制御ボックス211と、この制御ボックス211の上に設けられた編集台部212とを有する。制御ボックス211の内部には、メインコンピュータユニット及びI/Oコントローラなどの各種の制御装置が内蔵されており、この制御装置が写真撮影遊戯装置全体の動作の制御を行う。
<3. Editing enclosure>
Next, the editing casing 21 will be described in detail. FIG. 4 is a perspective view of the editing housing. As shown in the figure, the editing casing 21 of the present embodiment includes a lower control box 211 and an editing stand 212 provided on the control box 211. Various control devices such as a main computer unit and an I / O controller are built in the control box 211, and this control device controls the operation of the entire photography game device.

編集台部212は、左右方向を向く山形の傾斜面により形成されており、各傾斜面に編集作業を行うための操作面が設置されている。具体的には、各操作面にはタブレットを内蔵した液晶モニタで構成された編集用モニタ213が設けられており、各編集用モニタ213の左右両側には2本のタッチペン214A,214Bが接続されている。このタッチペン214A,213Bのペン先を編集用モニタ213の画面に接触させることにより、画面表示されたアイコンを選択する選択入力や、文字や描画の落書きを行う場合の手書き入力を行うことができる。なお、図4では、左側の編集用モニタ213を示しているが、右側の編集用モニタ213も左側と同じ構造である。また、制御ボックス211の制御装置は、左右両側の編集用モニタ213への入力情報に対応する処理を個別に並列処理できるようになっている。   The editing table 212 is formed by a mountain-shaped inclined surface facing in the left-right direction, and an operation surface for performing editing work is installed on each inclined surface. Specifically, each operation surface is provided with an editing monitor 213 composed of a liquid crystal monitor with a built-in tablet, and two touch pens 214A and 214B are connected to the left and right sides of each editing monitor 213. ing. By making the pen tips of the touch pens 214A and 213B come into contact with the screen of the editing monitor 213, selection input for selecting an icon displayed on the screen and handwriting input for performing a character or drawing doodle can be performed. 4 shows the left editing monitor 213, the right editing monitor 213 has the same structure as the left side. In addition, the control device of the control box 211 can individually process in parallel the processing corresponding to the input information to the editing monitors 213 on the left and right sides.

<4.出力筐体>
次に、出力筐体31について詳細に説明する。図5は出力筐体の正面図である。同図に示すように、出力筐体31は、編集筐体21の後端部に接する矩形状の筐体であり、後端側を向く面に操作面が設けられている。操作面の上部中央にはタッチパネル式の液晶モニタ311が設けられており、このモニタ311に、出力の説明などが表示される。
<4. Output housing>
Next, the output housing 31 will be described in detail. FIG. 5 is a front view of the output housing. As shown in the figure, the output housing 31 is a rectangular housing that is in contact with the rear end of the editing housing 21, and an operation surface is provided on the surface facing the rear end. A touch panel type liquid crystal monitor 311 is provided at the upper center of the operation surface, and an explanation of output is displayed on the monitor 311.

液晶モニタ311の下方には非接触通信部312が設けられており、近接された非接触型ICと通信を行うことで、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。例えば、FeliCa(登録商標)などを利用することができる。また、この非接触通信部312の下にはシール紙排出口313が設けられている。シート排出口164には、編集部において編集処理を行うことによって作成した画像が印刷された写真印刷シートが排出される。そのため、出力筐体31にはプリンタが内蔵されており、写真印刷シートの印刷がそのプリンタにより行われる。また、シール紙排出口313の下にはスピーカ314が設けられており、出力処理における案内音声、BGM、効果音等の音を出力する。なお、本実施形態では、出力筐体31を編集筐体21と別体としているが、これらを一体的な筐体で構成することもできる。   A non-contact communication unit 312 is provided below the liquid crystal monitor 311, and by reading data from the non-contact type IC and writing data to the non-contact type IC by communicating with a non-contact type IC that is in close proximity. I do. For example, FeliCa (registered trademark) or the like can be used. A seal paper discharge port 313 is provided below the non-contact communication unit 312. A photographic print sheet on which an image created by editing processing in the editing unit is printed is discharged to the sheet discharge port 164. Therefore, the output housing 31 has a built-in printer, and the photographic print sheet is printed by the printer. In addition, a speaker 314 is provided below the sticker paper discharge port 313, and outputs sounds such as guidance voice, BGM, and sound effects in the output process. In the present embodiment, the output housing 31 is separate from the editing housing 21, but these can also be configured as an integral housing.

<5.写真撮影遊戯装置の機能的構成>
次に、本実施形態に係る写真撮影遊戯装置の機能的構成について説明する。図6は、写真撮影遊戯装置の内部の機能的構成を示すブロック図である。
<5. Functional configuration of photography game machine>
Next, the functional configuration of the photography game apparatus according to the present embodiment will be described. FIG. 6 is a block diagram showing an internal functional configuration of the photography game apparatus.

図6に示すように、この写真撮影遊戯装置では、バスXを介して、制御部4、記憶部5、撮影部1、編集部2、出力部3が電気的に接続されている。制御部4は、公知のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備えている。そして、制御部4では、記憶部5に記憶されているプログラムを実行し、写真撮影遊戯装置の全体の動作を制御する。また、バスXには、通信部6、外部ドライブ7も接続されている。なお、制御部4、記憶部5、通信部6及び外部ドライブ7は、公知のコンピュータにより構成してもよく、このようなコンピュータが上述した編集筐体21の制御ボックス211に内蔵されている。   As shown in FIG. 6, in this photography game device, a control unit 4, a storage unit 5, a photographing unit 1, an editing unit 2, and an output unit 3 are electrically connected via a bus X. The control unit 4 includes a known CPU (Central Processing Unit), ROM (Read Only Memory), and RAM (Random Access Memory). And the control part 4 executes the program memorize | stored in the memory | storage part 5, and controls the operation | movement of the whole photography game device. A communication unit 6 and an external drive 7 are also connected to the bus X. The control unit 4, the storage unit 5, the communication unit 6, and the external drive 7 may be configured by a known computer, and such a computer is built in the control box 211 of the editing casing 21 described above.

記憶部5は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体で構成され、制御部4から送信された各種の設定情報を記憶する。記憶部5に記憶されている情報は制御部4により適宜読み出される。この記憶部5には、画像の編集のために用いられる各種画像データ、画像処理のためのデータが記憶されている。例えば、撮影画像の背景となる背景画像データなどが記憶されている。また、制御部4のROMには、制御部4において実行されるプログラムやデータが記憶されており、RAMには、制御部4において処理するデータやプログラムを一時的に記憶する。以下では、RAM, ROMをまとめてメモリということがある。   The storage unit 5 is configured by a nonvolatile storage medium such as a hard disk or a flash memory, and stores various setting information transmitted from the control unit 4. Information stored in the storage unit 5 is appropriately read out by the control unit 4. The storage unit 5 stores various image data used for image editing and data for image processing. For example, background image data that is the background of the captured image is stored. The ROM of the control unit 4 stores programs and data to be executed by the control unit 4, and the RAM temporarily stores data and programs to be processed by the control unit 4. Hereinafter, RAM and ROM may be collectively referred to as memory.

通信部6はインターネットなどのネットワークと接続するためのインタフェースであり、制御部4による制御に従って外部の装置と通信を行う。外部ドライブ7では、光ディスクや半導体メモリなどのリムーバブルメディアに対する読み書きが行われる。例えば、外部ドライブ7によりリムーバブルメディアから読み出されたコンピュータプログラムやデータは、制御部4に送信され、記憶部5に記憶されたり、プログラムとしてインストールされる。   The communication unit 6 is an interface for connecting to a network such as the Internet, and communicates with an external device according to control by the control unit 4. The external drive 7 reads / writes from / to a removable medium such as an optical disk or a semiconductor memory. For example, a computer program or data read from a removable medium by the external drive 7 is transmitted to the control unit 4 and stored in the storage unit 5 or installed as a program.

撮影部1は、撮影空間10における撮影処理を行う構成であるコイン処理部17、照明制御部18、上部カメラ111、下部カメラ112、上部モニタ113、下部モニタ114、およびスピーカ19から構成される。   The imaging unit 1 includes a coin processing unit 17, an illumination control unit 18, an upper camera 111, a lower camera 112, an upper monitor 113, a lower monitor 114, and a speaker 19 that are configured to perform imaging processing in the imaging space 10.

上部カメラ111及び下部カメラ112は、制御部4による制御に従って撮影を行い、撮影によって得られた画像を制御部4に出力する。上述したように、上部カメラ111は、被写体を情報から撮影するためものであり、下部カメラ112は、被写体を正面から撮影するためのものである。そのため、これらのカメラ111,112はそれぞれ、最適な画像を得るために理想的な画角やトリミング範囲などの設定が予め行われている。各カメラ111、112は、リアルタイムに画像を取り込んで当該画像を表す画像信号を出力する。カメラ111,112から出力された画像信号は制御部4に入力されて、その内部のメモリに一時的に記憶されるとともに、上部モニタ113および下部モニタ114にそれぞれ送信され、当該画像信号に基づくライブ映像が表示される。すなわち、上部カメラ111によるライブ映像は、上部モニタ113に表示され、下部カメラ112によるライブ映像は、下部モニタ114に表示される。なお、実際には、静止画像として保存される撮影画像データ(以下、単に「撮影画像」ということもある)は高解像度の静止画データであり、ライブ映像表示を行うための撮影画像データ(「スルー画像データ」とも呼ばれる)は低解像度の動画データである場合が多いが、高解像度の動画データとしてもよい。   The upper camera 111 and the lower camera 112 shoot according to control by the control unit 4 and output an image obtained by the shooting to the control unit 4. As described above, the upper camera 111 is for photographing a subject from information, and the lower camera 112 is for photographing a subject from the front. For this reason, each of these cameras 111 and 112 is set in advance with an ideal angle of view and trimming range in order to obtain an optimum image. Each camera 111, 112 captures an image in real time and outputs an image signal representing the image. Image signals output from the cameras 111 and 112 are input to the control unit 4 and temporarily stored in the internal memory thereof, and transmitted to the upper monitor 113 and the lower monitor 114, respectively, and live based on the image signals. An image is displayed. That is, live video from the upper camera 111 is displayed on the upper monitor 113, and live video from the lower camera 112 is displayed on the lower monitor 114. Actually, the captured image data stored as a still image (hereinafter, sometimes simply referred to as “captured image”) is high-resolution still image data, and the captured image data (“ In many cases, it is low resolution moving image data, but it may be high resolution moving image data.

上部モニタ113は、公知のタッチパネルであり、表示機器として、上部カメラ111によって撮影中のライブ映像を表示する。また、上部カメラ111および下部カメラ112で撮影された静止画像としての撮影画像が表示されるとともに、入力機器としても、表示された撮影画像を選択する操作や、撮影画像に対する補正に関する操作等を受け付ける。これらの操作を示す信号は、操作信号として制御部4に入力される。一方、下部モニタ114は、下部カメラ112によって撮影中のライブ映像を表示するものであり、上部モニタ113と概ね同じ構成である。但し、上述したように、タッチパネルとしての機能は有しておらず、もっぱら画像を表示することに用いられる。   The upper monitor 113 is a known touch panel, and displays a live video being shot by the upper camera 111 as a display device. In addition, the captured image as a still image captured by the upper camera 111 and the lower camera 112 is displayed, and the input device accepts an operation for selecting the displayed captured image, an operation for correcting the captured image, and the like. . Signals indicating these operations are input to the control unit 4 as operation signals. On the other hand, the lower monitor 114 displays a live image being shot by the lower camera 112 and has substantially the same configuration as the upper monitor 113. However, as described above, it does not have a function as a touch panel, and is used exclusively for displaying an image.

コイン処理部17は、コイン投入口に対するコインの投入を検出する。コイン処理部17は、プレイに要する金額分(プレイ料金分)のコインが投入されたことを検出した場合、そのことを表す起動信号を制御部4に出力する。なお、コイン処理部17は、電子マネーやクレジットカードによるプレイ料金の支払を受け付け、当該起動信号を制御部4に出力するようなものとすることもできる。   The coin processing unit 17 detects the insertion of a coin into the coin insertion slot. When the coin processing unit 17 detects that a coin for the amount required for play (play fee amount) has been inserted, the coin processing unit 17 outputs an activation signal indicating that to the control unit 4. Note that the coin processing unit 17 may accept payment of a play fee by electronic money or a credit card and output the activation signal to the control unit 4.

照明制御部18は、制御部4より供給される照明制御信号に従って、撮影空間10内の正面照明ユニット115から照射されるフラッシュを制御する。また、照明制御部18は、天井照明ユニット14及び正面照明ユニット115の内部に設けられる電灯(蛍光灯など)を制御することで、ユーザによる撮影処理の段階に応じて撮影空間10内の明るさを調整する。スピーカ19は、ユーザによる撮影処理の段階応じた音声を出力する。   The illumination control unit 18 controls the flash emitted from the front illumination unit 115 in the imaging space 10 according to the illumination control signal supplied from the control unit 4. In addition, the illumination control unit 18 controls the light (fluorescent lamp or the like) provided inside the ceiling illumination unit 14 and the front illumination unit 115, so that the brightness in the imaging space 10 according to the stage of the imaging process by the user. Adjust. The speaker 19 outputs sound corresponding to the stage of shooting processing by the user.

編集部2a,2bは、編集空間20a,20bそれぞれで編集処理を行うためのものである。編集部2aおよび編集部2の機能的構成は同じであるので、以下では編集部2aの機能的構成のみを説明し、編集部2bの機能的構成の説明を省略する。   The editing units 2a and 2b are for performing editing processing in the editing spaces 20a and 20b, respectively. Since the functional configurations of the editing unit 2a and the editing unit 2 are the same, only the functional configuration of the editing unit 2a will be described below, and the description of the functional configuration of the editing unit 2b will be omitted.

編集部2aは、タブレット内蔵モニタとしての編集用モニタ213、2本のタッチペン214A,214B、およびスピーカ215から構成される。編集用モニタ213は、制御部4による制御に従って編集画面を表示し、編集画面に対するユーザの編集操作等を検出する。すなわち、ユーザにより、編集用モニタ213がタッチペン214A,214Bでタッチされると、その操作およびタッチペン214A,214Bのいずれでタッチされたのかが検出され、操作信号として制御部4に送信される。これにより、編集対象である合成画像(後述)の編集が行われる。具体的には、編集用モニタ213に表示された画像に対し、例えば、文字、模様、図形などのいわゆる落書きを、タッチペン214A,214Bなどの入力デバイスで入力する。これにより、合成画像に、落書きが重ね合わされた出力用画像が生成される。画像の編集については、後述する。こうして生成された出力用画像に基づく画像データは、出力部3へ送信される。   The editing unit 2a includes an editing monitor 213 as a tablet built-in monitor, two touch pens 214A and 214B, and a speaker 215. The editing monitor 213 displays an editing screen according to control by the control unit 4 and detects a user's editing operation on the editing screen. That is, when the editing monitor 213 is touched with the touch pens 214A and 214B by the user, it is detected which of the operations and the touch pens 214A and 214B are touched, and is transmitted to the control unit 4 as an operation signal. As a result, a composite image (described later) to be edited is edited. Specifically, for example, so-called graffiti such as characters, patterns, and figures is input to the image displayed on the editing monitor 213 with an input device such as the touch pens 214A and 214B. As a result, an output image in which graffiti is superimposed on the composite image is generated. The image editing will be described later. Image data based on the output image generated in this way is transmitted to the output unit 3.

出力部3は、出力空間30における出力処理を行う構成であるタッチパネル式の液晶モニタ311、非接触通信部312、およびスピーカ314から構成される。その他、印刷を行うためのプリンタ34、およびシール紙ユニット35も備えている。プリンタ34は、合成画像、または編集処理によって得られた編集済みの出力用画像を、プリンタ34に装着されたシール紙ユニット35に収納されているシール紙に印刷し、シール紙排出口313に排出する。非接触通信部312は、携帯端末との間のデータの受送信を行うものである。なお、編集部2で作成された画像データは、通信部6によってネットワークを通じて外部の画像蓄積サーバに送信される。   The output unit 3 includes a touch panel type liquid crystal monitor 311, a non-contact communication unit 312, and a speaker 314 that are configured to perform output processing in the output space 30. In addition, a printer 34 for performing printing and a sticker unit 35 are also provided. The printer 34 prints the composite image or the edited output image obtained by the editing process on the sticker paper stored in the sticker paper unit 35 attached to the printer 34 and discharges it to the sticker paper discharge port 313. To do. The non-contact communication unit 312 performs data transmission / reception with the mobile terminal. The image data created by the editing unit 2 is transmitted by the communication unit 6 to an external image storage server through the network.

<6.被写体の影の生成のための制御部の機能的構成>
次に、ユーザによる編集処理が行われるまでの撮影画像の処理について説明する。本実施形態では、出力される画像に対して立体感を付与し、リアリティを向上するため、被写体の影を付した画像を生成する。以下では、被写体の影が付された画像の生成方法について説明する。まず、図7を参照しつつ、上述した制御部4の具体的な機能的構成について説明する。図7は、撮影画像の処理に係る制御部4の機能的構成を示すブロック図である。同図に示すように、制御部4は、メモリや記憶部5内に格納されている画像処理プログラムを読み出して実行することにより、仮想的に撮影画像取得部41、マスク画像生成部42、影情報生成部43、背景画像取得部44、及び合成画像生成部45として動作する。以下、各部41〜45の動作による画像処理について説明する。
<6. Functional configuration of control unit for object shadow generation>
Next, the processing of the captured image until the editing process by the user is performed will be described. In this embodiment, in order to give a stereoscopic effect to the output image and improve the reality, an image with a shadow of the subject is generated. Hereinafter, a method for generating an image with a shadow of a subject will be described. First, a specific functional configuration of the control unit 4 described above will be described with reference to FIG. FIG. 7 is a block diagram illustrating a functional configuration of the control unit 4 related to processing of a captured image. As shown in the figure, the control unit 4 reads and executes an image processing program stored in the memory or the storage unit 5 to virtually execute the captured image acquisition unit 41, the mask image generation unit 42, the shadows, and the like. It operates as an information generation unit 43, a background image acquisition unit 44, and a composite image generation unit 45. Hereinafter, image processing by the operation of each unit 41 to 45 will be described.

撮影画像取得部41は、上述したいずれかのカメラ111、112で撮影された撮影画像を取得する。この撮影画像には、撮影筐体11の本体プレート121前に立つユーザが含まれる。すなわち、この撮影画像は、クロマキー処理用の本体プレート121及び撮影空間10の床面(不図示)を背景として、被写体としてのユーザが写る画像である。そして、取得された撮影画像は、マスク画像生成部42において、クロマキー処理される。これにより、図8に示すように、撮影画像からマスク画像を生成する。マスク画像は、被写体が写る被写体領域が100%の透過率で透過された画像であり、より詳細には、被写体領域と背景領域とが二値化された画像である。   The captured image acquisition unit 41 acquires a captured image captured by any of the cameras 111 and 112 described above. This photographed image includes a user standing in front of the main body plate 121 of the photographing housing 11. That is, this photographed image is an image of a user as a subject with the chroma key processing body plate 121 and the floor surface (not shown) of the photographing space 10 as a background. The acquired captured image is subjected to chroma key processing in the mask image generation unit 42. Thereby, as shown in FIG. 8, a mask image is generated from the captured image. The mask image is an image in which a subject area in which a subject is photographed is transmitted with a transmittance of 100%, and more specifically, an image in which a subject area and a background area are binarized.

背景画像取得部44は、後述するように、ユーザからの背景画像の選択を受け付けるものである。そして、影情報取得部43は、マスク画像生成部42で生成されたマスク画像に基づいて、被写体の影を表す影情報を生成するものである。影情報の生成手順については後述する。合成画像生成部45は、影情報に基づいて背景画像に影を形成するとともに、生成されたマスク画像を用いて、撮影画像から被写体が抽出された被写体画像を生成する。そして、影が形成された背景画像及び被写体画像を合成し、合成画像を生成する。この合成画像に対しては、編集部2においてユーザが編集処理を施すことにより、編集画像がさらに重ね合わされ、最終的な出力用画像が生成される。なお、本発明の被写体画像生成部は、本実施形態においては、合成画像生成部45が兼ねている。   The background image acquisition unit 44 receives selection of a background image from the user, as will be described later. The shadow information acquisition unit 43 generates shadow information representing the shadow of the subject based on the mask image generated by the mask image generation unit 42. The procedure for generating shadow information will be described later. The composite image generation unit 45 forms a shadow on the background image based on the shadow information, and generates a subject image in which the subject is extracted from the captured image using the generated mask image. Then, the background image on which the shadow is formed and the subject image are combined to generate a combined image. With respect to this synthesized image, the editing unit 2 performs an editing process on the editing unit 2 so that the edited images are further superimposed and a final output image is generated. Note that the subject image generation unit of the present invention also serves as the composite image generation unit 45 in the present embodiment.

<6−1.上部カメラで撮影された撮影画像の処理>
次に、影情報を生成するための具体的な撮影画像の処理について説明する。まず、上部カメラ111で撮影された撮影画像が撮影画像取得部41に取得される。そして、マスク画像生成部42により、図8に示すように、この撮影画像からマスク画像が生成される。続いて、影画像生成部43において、以下の手順に基づいて、マスク画像に基づき、影情報を生成する。
<6-1. Processing of images taken with the upper camera>
Next, specific captured image processing for generating shadow information will be described. First, a captured image captured by the upper camera 111 is acquired by the captured image acquisition unit 41. Then, the mask image generation unit 42 generates a mask image from this captured image as shown in FIG. Subsequently, the shadow image generation unit 43 generates shadow information based on the mask image based on the following procedure.

まず、マスク画像を下端から上端へ走査し、被写体領域の下端S1を検出する。次に、図9に示すような、被写体領域にグラデーションマスクを形成する。このグラデーションマスクは、検出した下端S1から予め決められた基準長さL1だけ形成される。すなわち、被写体領域の下端S1から上端S2までの基準長さL1の領域に亘って、被写体領域と同じ輪郭を有するグラデーションマスクが形成される。なお、上端S2は画像の幅方向(水平方向)に延びる直線で表される。また、基準長さL1は、例えば、画像の縦方向に並ぶ画素数としたり、あるいは所定の長さとすることもできる。   First, the mask image is scanned from the lower end to the upper end, and the lower end S1 of the subject area is detected. Next, a gradation mask is formed in the subject area as shown in FIG. This gradation mask is formed by a predetermined reference length L1 from the detected lower end S1. That is, a gradation mask having the same contour as the subject area is formed over the region of the reference length L1 from the lower end S1 to the upper end S2 of the subject region. The upper end S2 is represented by a straight line extending in the width direction (horizontal direction) of the image. Further, the reference length L1 can be, for example, the number of pixels arranged in the vertical direction of the image, or a predetermined length.

このグラデーションマスクは、図10に示すグラデーションカーブに基づいて決定された画素値を有する画素により構成される。図9のグラフは、横軸が画像の縦方向の位置を示し、原点が下端S1、上限点が上端S2を示す。また、縦軸は、グラデーションの強度である画素値を示し、原点が画素値255、上限点が画素値0を示す。ここでは、画素値255は透明であり、画素値0が黒となるようにしている。そして、被写体領域に形成されるグラデーションマスクは、図10のカーブに基づいて画素値が決定され、下端から上端に向かって縦方向に画素値が変化するように形成される。なお、図10はグラデーションカーブの一例であり、他の曲線を用いることもできる。このようなグラデーションカーブは、記憶部に記憶され、グラデーションカーブが形成されるときに、読み出され、参照される。   This gradation mask is composed of pixels having pixel values determined based on the gradation curve shown in FIG. In the graph of FIG. 9, the horizontal axis indicates the vertical position of the image, the origin indicates the lower end S1, and the upper limit indicates the upper end S2. The vertical axis indicates the pixel value that is the intensity of gradation, the origin indicates the pixel value 255, and the upper limit indicates the pixel value 0. Here, the pixel value 255 is transparent, and the pixel value 0 is black. The gradation mask formed in the subject area is formed such that the pixel value is determined based on the curve of FIG. 10 and the pixel value changes in the vertical direction from the lower end to the upper end. FIG. 10 is an example of a gradation curve, and other curves can be used. Such a gradation curve is stored in the storage unit, and is read out and referred to when the gradation curve is formed.

次に、上記のように形成されたグラデーションマスクを傾斜させ、傾斜マスクを形成する。なお、この処理では、グラデーションマスク上で画素を傾斜させるのではなく、グラデーションマスクを構成する画素データを用いて、新たに傾斜マスクを形成する。まず、グラデーションマスクの中で、影として用いる領域を決定する。ここでは、図11に示すように、マスク画像の下端部からラインS3までの、画像の縦方向の所定の長さL2の領域を、被写体の床面側の部分(以下、「被写体の基端部」という)が写るであろう(被写体が人であって床面に立って撮影している場合は、足が写るであろう)範囲に相当する足ゾーンとして認識する。足ゾーンの認識方法は種々の方法があるが、例えば、マスク画像の下端部から所定の画素数の領域を足ゾーンとして認識することもできるし、マスク画像の縦方向の総画素数のうち、下端部からの所定の割合を足ゾーンとして認識することができる。また、撮影画像における、本体プレート121と撮影空間10の床面(不図示)との境界から下、あるいは、その境界よりも若干上から下を足ゾーンとして認識することもできる。但し、足ゾーンの長さL2がグラデーションマスクの基準長さL1よりも短くなるように、基準長さL1及び足ゾーンの長さL2をそれぞれ決めておく必要がある。   Next, the gradation mask formed as described above is inclined to form an inclined mask. In this process, the pixel is not inclined on the gradation mask, but a new inclination mask is formed using pixel data constituting the gradation mask. First, an area used as a shadow is determined in the gradation mask. Here, as shown in FIG. 11, an area of a predetermined length L2 in the vertical direction of the image from the lower end of the mask image to the line S3 is defined as a portion on the floor side of the subject (hereinafter referred to as “subject base of subject” (Referred to as a foot zone if the subject is a person and is shooting while standing on the floor). There are various methods for recognizing the foot zone. For example, a region having a predetermined number of pixels from the lower end of the mask image can be recognized as a foot zone, and among the total number of pixels in the vertical direction of the mask image, A predetermined ratio from the lower end can be recognized as a foot zone. Further, it is also possible to recognize a foot zone from below the boundary between the main body plate 121 and the floor surface (not shown) of the photographing space 10 or slightly above and below the boundary in the photographed image. However, it is necessary to determine the reference length L1 and the foot zone length L2 so that the foot zone length L2 is shorter than the gradation mask reference length L1.

そして、グラデーションマスクの中で、足ゾーンを含む領域が、影領域として利用される。次に、影領域を足ゾーンを中心に傾斜させる。この点について、図12を参照しつつ説明する。図12(a)は、説明の簡略化のため、グラデーションマスクに含まれる画素の中から、縦方向の一列を選択して表示している。図中の数値は、画素値の例である。ここでは、一例として、20個の画素が並んであり、説明の便宜上、これらを下から上へ向かって第1〜第20画素P1〜P20と称することにする。また、足ゾーンの各画素を中心に傾斜させる画素数(基準画素数D)、および、その傾斜角度θを予め決めておく。ここでは、説明を容易にするため基準画素数Dを4画素とするがこれに限らない。基準画素数Dは、ある程度多い方が影の色変化を滑らかにすることができる。   In the gradation mask, an area including the foot zone is used as a shadow area. Next, the shadow area is tilted around the foot zone. This point will be described with reference to FIG. In FIG. 12A, for simplification of description, one column in the vertical direction is selected and displayed from the pixels included in the gradation mask. The numerical values in the figure are examples of pixel values. Here, as an example, 20 pixels are arranged, and for convenience of explanation, these are referred to as first to twentieth pixels P1 to P20 from the bottom to the top. In addition, the number of pixels to be tilted around each pixel in the foot zone (reference pixel number D) and the tilt angle θ are determined in advance. Here, for ease of explanation, the reference pixel number D is set to 4 pixels, but is not limited thereto. A larger number of reference pixels D can smooth the color change of the shadow.

次に、具体的なグラデーションマスクの傾斜方法について説明する。まず、図12(b)に示すように、第1画素P1を基準とし、これよりも上方にある基準画素数Dの画素を傾斜角度θだけ傾斜させる。すなわち、第1画素P1を回転中心として、これよりも上にある第2〜第5画素P2〜P5を回転させる。続いて、第2画素P2を回転中心として、これよりも上にある第3〜第6画素P3〜P6を回転させる。同様にして、足ゾーンに含まれる第9画素までを回転中心とし、それぞれ、それより上にある画素を回転させる。ここで、第6〜第9画素P6〜P9を回転中心とするときには、足ゾーンよりも上にある画素も利用している。したがって、影を生成するために用いられる「影領域」とは、足ゾーン内で被写体領域に含まれる画素、及び足ゾーンより上であっても、足ゾーン内の画素から基準画素数D内に含まれる画素が該当する。   Next, a specific gradient mask tilting method will be described. First, as shown in FIG. 12B, the first pixel P1 is used as a reference, and the reference pixel number D above is inclined by the inclination angle θ. That is, the second to fifth pixels P2 to P5 located above the first pixel P1 are rotated. Subsequently, with the second pixel P2 as the rotation center, the third to sixth pixels P3 to P6 located above the second pixel P2 are rotated. Similarly, up to the ninth pixel included in the foot zone is set as the rotation center, and the pixels above it are rotated. Here, when the sixth to ninth pixels P6 to P9 are set as the rotation center, the pixels above the foot zone are also used. Therefore, the “shadow region” used to generate a shadow is a pixel included in the subject region in the foot zone, and within the reference pixel number D from the pixel in the foot zone, even above the foot zone. This includes the included pixels.

但し、基準画素数Dに含まれる画素は、被写体領域内の画素に限られる。したがって、ある画素よりも上の画素が、被写体領域の外にある場合にはその画素は利用しない(厳密には、傾斜マスクを生成するために、被写体領域の外にある画素の画素値を利用しない)。なお、回転中心として利用する画素は、必ずしも被写体領域内になくてもよい。例えば、被写体領域外にある画素から基準画素数D内にある画素が、被写体領域内にある場合には、そのような被写体領域外の画素を回転中心とすることができる。ただし、回転させる被写体領域外の画素は、足ゾーン内に含まれるものに限る。   However, the pixels included in the reference pixel number D are limited to the pixels in the subject area. Therefore, if a pixel above a certain pixel is outside the subject area, that pixel is not used (strictly, the pixel value of the pixel outside the subject area is used to generate a tilt mask). do not do). Note that the pixel used as the rotation center is not necessarily in the subject area. For example, when a pixel within the reference pixel number D from a pixel outside the subject region is within the subject region, such a pixel outside the subject region can be set as the rotation center. However, the pixels outside the subject area to be rotated are limited to those included in the foot zone.

こうして、足ゾーンに含まれる画素の任意の一列を傾斜させた概略図が、図13である。そして、このような処理を足ゾーンに含まれるすべての列について行うと、図14に示すような傾斜マスクが形成される。なお、複数の列について、画素の傾斜を行うと、画素の重複が生じる。この場合には、画素値の高いものを新しい画素値とする。例えば、傾斜により、ある画素の画素値が100であった場合、これに、画素値が110の画素が傾斜されて重なったときには、その画素の画素値を110に置き換える。そして、新たに重ねられた画素値の方が小さい場合には、元の画素値を維持する。このように、傾斜マスクは、所定の長さの画素のうち、最も下側の画素(足ゾーンの各画素)を回転中心として回転させているため、後述するように、影が被写体の基端部付近(被写体が人であって床面に立っている場合は、足下)から延びるように見せることができる。こうして形成された傾斜マスクが、本発明における影情報に相当する。そして、傾斜マスクの最も下側の位置が本発明の基端部に相当し、それとは反対の端部が本発明の終端部に想到する。   Thus, FIG. 13 is a schematic diagram in which an arbitrary row of pixels included in the foot zone is inclined. When such a process is performed for all the columns included in the foot zone, an inclined mask as shown in FIG. 14 is formed. Note that when pixels are tilted for a plurality of columns, overlapping of pixels occurs. In this case, a higher pixel value is set as a new pixel value. For example, if the pixel value of a certain pixel is 100 due to tilting, and a pixel with a pixel value of 110 is tilted and overlapped with this, the pixel value of that pixel is replaced with 110. When the newly overlapped pixel value is smaller, the original pixel value is maintained. In this way, the tilt mask rotates around the lowermost pixel (each pixel in the foot zone) among the pixels of a predetermined length, so that the shadow is the base end of the subject as will be described later. It can be seen to extend from the vicinity of the head (if the subject is a person and is standing on the floor). The inclined mask formed in this way corresponds to the shadow information in the present invention. The lowermost position of the inclined mask corresponds to the base end portion of the present invention, and the opposite end portion reaches the terminal end portion of the present invention.

次に、上記のように得られた傾斜マスクを元に背景画像の処理を行う。ここでは、図15(a)に示す背景画像が取得されたとする。この背景画像において、傾斜マスクに対応する領域に対し、画像の処理を行う。具体的には、例えば、背景画像において、傾斜マスクに対応する領域の画素に対し、傾斜マスクの画素値に対応するように、彩度を上げるとともに、明度を下げる。すなわち、傾斜マスクの画素値が高い場合には、それに併せて背景画像の画素の彩度を大きく上昇させるとともに、明度を大きく低下させる。このとき、画素の色相は変化させずに維持する。これにより、図15(b)に示すように、背景画像に影が形成される。この影は、基端部に近い部位ほど色が濃く、終端部に近いほど色が薄い。例えば、図8(a)のように被写体が床面に立っている場合は、床面に近い足の影ほど影の色が濃く暗くなり、床面から遠い部位の影ほど影の色が薄く明るくなる(図15(b))。また、背景画像の色相は変化させないので、選ばれた背景画像にとって自然な色の影をつけることができる。   Next, a background image is processed based on the tilt mask obtained as described above. Here, it is assumed that the background image shown in FIG. In this background image, image processing is performed on the region corresponding to the tilt mask. Specifically, for example, in the background image, for the pixels in the region corresponding to the tilt mask, the saturation is increased and the brightness is decreased so as to correspond to the pixel value of the tilt mask. That is, when the pixel value of the tilt mask is high, the saturation of the pixels of the background image is greatly increased and the brightness is greatly decreased. At this time, the hue of the pixel is maintained without being changed. Thereby, as shown in FIG.15 (b), a shadow is formed in a background image. The shadow is darker in the portion closer to the base end portion and lighter in color near the end portion. For example, when the subject is standing on the floor as shown in FIG. 8A, the shadow color is darker and darker as the shadow of the foot closer to the floor, and the shadow color is lighter as the shadow is farther from the floor. It becomes brighter (FIG. 15 (b)). Further, since the hue of the background image is not changed, it is possible to add a natural color shadow to the selected background image.

こうして画像処理された背景画像に対し、被写体画像を合成すると、図16に示すような合成画像が形成される。   When the subject image is synthesized with the background image subjected to the image processing in this way, a synthesized image as shown in FIG. 16 is formed.

<6−2.下部カメラで撮影された撮影画像の処理>
次に、下部カメラで撮影された撮影画像の処理について説明する。上部カメラ111による撮影のように、被写体を上方から撮影する場合、照明は上方から照射されるため、一般的に影の長さは短くなる。一方、下部カメラ112で撮影する場合には、照明は正面から照射されるため、影は長くなり、後方に向かって拡散するように形成される。また、下部カメラ112で撮影された撮影画像には、被写体の全身が満遍なく写るため、被写体の基端部(立っている場合は、足下)と床面との境目も明確に表示される。そして、合成される背景画像は、被写体画像の撮影環境とは関係なく作成されたものであるため、背景画像と被写体画像を合成すると、被写体が背景から浮いたように見えるおそれがある。これは、被写体の基端部も明確に表示される下部カメラ112による撮影画像では顕著に起こりうる問題である。以上の理由により、下部カメラ112で撮影した撮影画像に対しては、上部カメラ111で撮影された撮影画像とは異なる画像処理を施す。以下、詳述する。
<6-2. Processing of images taken with the lower camera>
Next, processing of a captured image captured by the lower camera will be described. When the subject is photographed from above as in the case of photographing with the upper camera 111, since the illumination is irradiated from above, the length of the shadow is generally shortened. On the other hand, when photographing with the lower camera 112, since the illumination is irradiated from the front, the shadow becomes longer and is formed so as to diffuse toward the rear. In addition, in the captured image captured by the lower camera 112, the entire body of the subject is captured uniformly, so the boundary between the base end portion of the subject (the feet when standing) and the floor surface is also clearly displayed. Since the background image to be combined is created regardless of the shooting environment of the subject image, when the background image and the subject image are combined, the subject may appear to float from the background. This is a problem that may occur remarkably in an image captured by the lower camera 112 in which the base end portion of the subject is also clearly displayed. For the above reasons, the captured image captured by the lower camera 112 is subjected to image processing different from the captured image captured by the upper camera 111. Details will be described below.

まず、図17に示すような下部カメラ112で撮影した撮影画像を、撮影画像取得部41で取得する。この撮影画像に基づいて、マスク画像生成部42によって、図18に示すように、マスク画像を生成する。そして、このマスク画像に基づいて、図19に示すように、グラデーションマスクを生成する。ここまでの処理は、上述した上部カメラ111による撮影画像に対する処理と同じであるため、詳細は省略する。なお、下部カメラ112で撮影された撮影画像には、上部カメラ112で撮影された撮影画像よりも床面が写りこまないので、上部カメラ112で撮影された撮影画像に関する足ゾーンの長さL2よりも短く設定される必要がある。   First, the captured image acquired by the lower camera 112 as shown in FIG. Based on this photographed image, a mask image is generated by the mask image generator 42 as shown in FIG. Based on this mask image, a gradation mask is generated as shown in FIG. Since the processing so far is the same as the processing for the captured image by the upper camera 111 described above, the details are omitted. In addition, since the floor surface does not appear in the captured image captured by the lower camera 112 than the captured image captured by the upper camera 112, the foot zone length L2 relating to the captured image captured by the upper camera 112 is used. Also need to be set short.

次に、傾斜マスクを生成するのであるが、上述したように、正面からの撮影では影が拡散するため、ここでは、角度の相違する2種類の傾斜マスクを生成し、これを合成する。例えば、図20(a)に示すような傾斜角度θが10度の傾斜マスク、及び図20(b)に示すような傾斜角度θが30度の傾斜マスクを生成する。ここでの傾斜の方法は、上述したとおりである。そして、図20(c)に示すように、これら2つの傾斜マスクを合成し、合成傾斜マスクを生成する。合成する際に画素が重なり合うときには、高い画素値を採用する。すなわち、画素値100の画素と、画素値120の画素が重なった場合には、画素値を120とする。   Next, an inclined mask is generated. As described above, since shadows are diffused when photographing from the front, two types of inclined masks having different angles are generated and combined. For example, a tilt mask having a tilt angle θ of 10 degrees as shown in FIG. 20A and a tilt mask having a tilt angle θ of 30 degrees as shown in FIG. 20B are generated. The tilting method here is as described above. Then, as shown in FIG. 20C, these two inclined masks are combined to generate a combined inclined mask. When the pixels overlap when they are combined, a high pixel value is adopted. That is, when a pixel having a pixel value of 100 and a pixel having a pixel value of 120 overlap, the pixel value is set to 120.

こうして、図20(c)に示すような合成傾斜マスクが生成されるが、このマスクは縦方向に長すぎて、影としては不自然に見えるため、これを縦方向に圧縮する処理を行う。圧縮の方法は特には限定されないが、例えば、図21に示すように行うことができる。ここでは、縦方向の長さが50%になるように圧縮する例を示す。同図に示すように、合成傾斜マスクの下側から10個の画素(第1〜第10画素P1〜P10)が並んでいるとすると(図中の数値は画素値)、第1画素P1と第2画素P2を合成した画素を第1画素P1の位置に生成する。画素値は第1及び第2画素P1,P2の平均である。また、第3画素P3と第4画素P4とを合成した画素を第2画素P2の位置に生成する。画素値は第3及び第4画素P3,P4の平均である。こうして、すべての画素に対して同様の処理を行い、縦方向の長さを半分にする。これにより、図22に示すように、合成傾斜マスクの下端の位置は変化せず、縦方向に圧縮された合成傾斜マスクが生成される。こうして形成された圧縮された合成傾斜マスクが、本発明における影情報に相当する。そして、圧縮された合成傾斜マスクに基づいて、背景画像の処理を行い、図23に示すように、背景画像に影を生成する。このときの、背景画像に対して影を生成する処理は、上述した方法と同じである。   In this way, a synthetic gradient mask as shown in FIG. 20C is generated. Since this mask is too long in the vertical direction and looks unnatural as a shadow, a process of compressing it in the vertical direction is performed. Although the compression method is not particularly limited, for example, it can be performed as shown in FIG. Here, an example is shown in which compression is performed so that the length in the vertical direction is 50%. As shown in the figure, assuming that ten pixels (first to tenth pixels P1 to P10) are arranged from the lower side of the composite tilt mask (the numerical values in the figure are pixel values), the first pixel P1 and A pixel obtained by synthesizing the second pixel P2 is generated at the position of the first pixel P1. The pixel value is an average of the first and second pixels P1 and P2. Further, a pixel obtained by synthesizing the third pixel P3 and the fourth pixel P4 is generated at the position of the second pixel P2. The pixel value is an average of the third and fourth pixels P3 and P4. In this way, the same processing is performed on all the pixels, and the length in the vertical direction is halved. Thereby, as shown in FIG. 22, the position of the lower end of the synthetic gradient mask does not change, and the synthetic gradient mask compressed in the vertical direction is generated. The compressed synthetic tilt mask formed in this way corresponds to the shadow information in the present invention. Then, the background image is processed based on the compressed synthetic gradient mask, and a shadow is generated in the background image as shown in FIG. The process for generating a shadow on the background image at this time is the same as the method described above.

次に、撮影画像における被写体の基端部付近に影をつける処理について説明する。被写体を正面から撮影した場合、被写体と背景画像とを合成すると、被写体が背景画像から浮いたように見え、リアリティが低下するおそれがある。そこで、下部カメラ112による撮影画像に対する処理では、後述する移動グラデーションマスクを作成して被写体の基端部付近に影をつける処理を行う。以下、詳述する。移動グラデーションマスクも、上述した傾斜マスクと同様、グラデーションマスク上で画素を傾斜させるのではなく、グラデーションマスクを構成する画素データを用いて、新たに移動グラデーションマスクを作成する。   Next, a process for applying a shadow near the base end of the subject in the captured image will be described. When the subject is photographed from the front, if the subject and the background image are combined, the subject appears to float from the background image, and the reality may be reduced. Therefore, in the processing for the captured image by the lower camera 112, a moving gradation mask, which will be described later, is created to apply a shadow to the vicinity of the base end portion of the subject. Details will be described below. Similarly to the tilt mask described above, the moving gradation mask does not tilt the pixels on the gradation mask, but creates a new moving gradation mask using pixel data constituting the gradation mask.

図19で示したグラデーションマスクにおいて、足ゾーンよりも上の画素の画素値は使用しない。まず、足ゾーンに含まれるグラデーションマスクに対して、被写体領域の基端部と終端部の画素値の差が大きくなるように、画素のコントラストを上げる。すなわち、被写体の基端部に近い画素の画素値を「255」により近づけるとともに、被写体の基端部から遠い画素の画素値を「0」により近づける。これにより、基端部付近にのみ強い影が生じるようになる。続いて、このグラデーションマスクを縦方向へわずかに下方に移動させ、図24に示すようなグラデーションマスクを生成する。これを移動グラデーションマスクと称する。このときの移動量はごくわずかであり、後述するように、被写体画像の輪郭を強調する程度の数画素分(例えば、1〜10画素)の長さである。これに基づいて、背景画像に対し、被写体の基端部付近(図24に示す例では「足下部分」に相当)に対応する暗領域を生成する。このとき、背景画像に対する処理では、影を形成する場合よりも、彩度及び明度の変更量を多くし、色の濃い暗領域を形成する。こうして、図25に示すように、背景画像には、被写体の基端部付近(足下)に対応する暗領域と影が形成され、この背景画像に対して、被写体画像を合成すると、図26に示すような合成画像が形成される。ここで、暗領域は、当初のグラデーションマスクを下方にずらせた移動グラデーションマスクに基づいて生成されているため、暗領域は被写体からずれた位置に形成される。そのため、暗領域は、被写体領域からはみ出し、被写体の基端部付近の輪郭を強調する。以上の工程で生成された合成画像に対し、後述するような編集処理が行われる。   In the gradation mask shown in FIG. 19, the pixel values of the pixels above the foot zone are not used. First, with respect to the gradation mask included in the foot zone, the pixel contrast is increased so that the difference between the pixel values of the base end portion and the end end portion of the subject region becomes large. That is, the pixel value of the pixel near the base end of the subject is brought closer to “255”, and the pixel value of the pixel far from the base end of the subject is brought closer to “0”. As a result, a strong shadow is generated only in the vicinity of the base end portion. Subsequently, the gradation mask is moved slightly downward in the vertical direction to generate a gradation mask as shown in FIG. This is called a moving gradation mask. The amount of movement at this time is very small, and, as will be described later, is a length of several pixels (for example, 1 to 10 pixels) enough to enhance the contour of the subject image. Based on this, a dark region corresponding to the vicinity of the base end of the subject (corresponding to the “foot part” in the example shown in FIG. 24) is generated for the background image. At this time, in the process for the background image, the amount of change in saturation and lightness is increased as compared with the case of forming a shadow, and a dark region having a deep color is formed. Thus, as shown in FIG. 25, a dark area and a shadow corresponding to the vicinity of the base end (foot) of the subject are formed in the background image. When the subject image is synthesized with this background image, FIG. A composite image as shown is formed. Here, since the dark region is generated based on the moving gradation mask obtained by shifting the original gradation mask downward, the dark region is formed at a position shifted from the subject. Therefore, the dark region protrudes from the subject region and emphasizes the outline near the base end of the subject. An editing process as will be described later is performed on the composite image generated in the above steps.

<7.写真撮影遊戯装置における処理手順>
続いて、本実施形態に係る写真撮影遊戯装置のプレイ方法及び画像処理について説明する。上述したように、この写真撮影遊戯装置には、撮影部1、編集部2、及び出力部3が含まれている。撮影部1では撮影処理が行われ、編集部2では後述する編集処理が行われ、出力部3では出力処理が行われる。これらの処理は、記憶部5またはドライブ7に記憶されたプログラム、あるいはインストールされたプログラムを制御部4により実行することにより、行われる。以下では、まず、プレイの流れとそれに伴うユーザの移動について、図2及び図22に示すフローチャートを参照しつつ説明し、その後、各処理について詳細に説明する。
<7. Processing procedure in photography game machine>
Subsequently, a playing method and image processing of the photography game apparatus according to the present embodiment will be described. As described above, the photography game device includes the photographing unit 1, the editing unit 2, and the output unit 3. The photographing unit 1 performs photographing processing, the editing unit 2 performs editing processing described later, and the output unit 3 performs output processing. These processes are performed by the control unit 4 executing a program stored in the storage unit 5 or the drive 7 or an installed program. In the following, first, the flow of play and the accompanying user movement will be described with reference to the flowcharts shown in FIGS. 2 and 22, and then each process will be described in detail.

<7−1.プレイの流れ>
以下、図27のフローチャートにしたがい、プレイの流れについて説明する。図2に示すように、まず、ユーザは、矢印Aで示すように第1出入口101a,101bから、撮影空間10に入り、撮影部1に設けられたカメラ111,112やモニタ113,114など利用して撮影処理を行う。この写真撮影遊戯装置が使用されていない時(プレイが行われていない時)には、上部モニタ113にはデモ画像が表示されている。デモ画像の表示中にユーザがコイン投入口にコインを所定の金額を投入すると(ステップS100のYES)、プレイが開始され、撮影処理が始まる(ステップS110)。そして、撮影処理を終えたユーザは、矢印Bで示すように第1出入口101a,101bを使って撮影空間10から装置外部に出た後、いずれかの編集空間20a,20bに移動する。このとき、撮影筐体11の上部モニタ113およびスピーカ19によって、編集空間20a,20bへの移動を促す表示や通知がなされる(ステップS120)。例えば、いずれの編集空間20a,20bもユーザが利用していないときは、いずれか一方の編集空間への移動を促す表示などを行う。また、いずれか一方の編集空間20a,20bにユーザが存在する場合には、空いている編集空間への移動を促す表示などを行う。そして、いずれの編集空間20a,20bもユーザによって利用されている場合には、編集空間への移動を待つように表示などを行う。
<7-1. Flow of play>
Hereinafter, the flow of play will be described with reference to the flowchart of FIG. As shown in FIG. 2, first, the user enters the imaging space 10 through the first entrances 101 a and 101 b as indicated by the arrow A, and uses the cameras 111 and 112 and monitors 113 and 114 provided in the imaging unit 1. To perform shooting processing. When the photographic game machine is not used (when no play is performed), a demo image is displayed on the upper monitor 113. When the user inserts a predetermined amount of coins into the coin insertion slot while displaying the demo image (YES in step S100), play is started and shooting processing is started (step S110). Then, the user who has finished the photographing process moves out of the photographing space 10 to the outside of the apparatus using the first entrances 101a and 101b as indicated by an arrow B, and then moves to one of the editing spaces 20a and 20b. At this time, the upper monitor 113 and the speaker 19 of the photographing housing 11 display and notify the user to move to the editing spaces 20a and 20b (step S120). For example, when neither of the editing spaces 20a and 20b is used by the user, a display that prompts the user to move to one of the editing spaces is performed. In addition, when a user exists in one of the editing spaces 20a and 20b, a display that prompts the user to move to an empty editing space is performed. When any of the editing spaces 20a and 20b is used by the user, display is performed so as to wait for movement to the editing space.

編集空間20a,20bに移動したユーザは編集処理を開始する。各編集空間20a,20bのユーザは、同時に編集処理を行うことができる。ユーザは、まず、背景画像の選択を行い(ステップS130)、その後、選択した背景画像と被写体画像とが合成された合成画像に対して、編集処理を行う(ステップS140)。なお、選択された編集画像には、上述したような影を付する処理がなされている。そして、編集処理が終了すると、撮影画像や編集済みの撮影画像の中から選択された画像の印刷が開始される。そして、編集筐体21の編集用モニタ213には出力空間30への移動を促す表示がなされるとともに、スピーカ215によって出力空間30への移動を促す音声が通知される(ステップS150)。これに従って、編集処理を終えたユーザは、いずれかの編集空間20a,20bから、矢印Cで示すように出力空間30に移動して印刷などの出力処理を行う(ステップS160)。なお、出力空間30で他のユーザが出力処理をしている場合には、編集用モニタ213およびスピーカ215によって、出力空間30への移動を待たせる表示や通知がなされる。   The user who has moved to the editing spaces 20a and 20b starts editing processing. The users of the editing spaces 20a and 20b can perform editing processing at the same time. The user first selects a background image (step S130), and then performs an editing process on the combined image obtained by combining the selected background image and the subject image (step S140). The selected edited image is subjected to a process for adding a shadow as described above. When the editing process ends, printing of an image selected from the captured image and the edited captured image is started. Then, the editing monitor 213 of the editing casing 21 is displayed to urge the user to move to the output space 30 and the speaker 215 is notified of a sound urging to move to the output space 30 (step S150). Accordingly, the user who has finished the editing process moves from one of the editing spaces 20a and 20b to the output space 30 as indicated by the arrow C, and performs an output process such as printing (step S160). When another user is performing output processing in the output space 30, the editing monitor 213 and the speaker 215 display and notify the user of waiting for movement to the output space 30.

そして、出力空間30では、ユーザに画像の印刷を待たせている間、本プレイによって生成した画像をユーザの携帯端末で取得できるようにするための操作(例えば、メールアドレスの入力)をモニタ311に対して行わせる(ステップS170)。画像の印刷が終了したとき、ユーザは、出力筐体31に設けられたシール紙排出口313からシール紙を受け取り、一連のプレイを終えることになる。以上のようなユーザの移動を促す表示は、制御部4により行われる。   In the output space 30, the monitor 311 performs an operation (for example, input of an e-mail address) for allowing the user's portable terminal to acquire the image generated by the play while waiting for the user to print the image. (Step S170). When the printing of the image is finished, the user receives the sticker paper from the sticker paper discharge port 313 provided in the output housing 31 and finishes a series of play. The display for prompting the user to move as described above is performed by the control unit 4.

<7−2.撮影処理>
次に、撮影部1における撮影処理について、図28を参照しつつ説明する。図28は、本実施形態における撮影処理の処理手順を示すフローチャートである。
<7-2. Shooting process>
Next, photographing processing in the photographing unit 1 will be described with reference to FIG. FIG. 28 is a flowchart showing the processing procedure of the photographing process in the present embodiment.

コインが投入され、プレイが開始されると、制御部4は、2種類の画像の撮影を行う。まず、上部カメラにより画像を取得する撮影が4回連続して行われる(ステップS200)。ここで、上部モニタ113には、図29に示すような画面が表示される。ユーザは、この画面の撮影フレーム1131にリアルタイムに表示されるスルー画像を見ながら撮影を行う。このとき、撮影フレーム1131に表示されるスルー画像は、上部カメラ111により撮影されたものである。また、撮影フレーム1131に表示される画像は、クロマキー処理により、撮影画像から抽出された被写体画像と、予め決められた前景画像および/または背景画像とが合成された画像である。以下、予め決められた背景画像が合成された画像を、仮合成画像と称することとする。   When a coin is inserted and play is started, the control unit 4 takes two types of images. First, photographing for acquiring an image by the upper camera is performed four times in succession (step S200). Here, a screen as shown in FIG. 29 is displayed on the upper monitor 113. The user takes a picture while viewing a through image displayed in real time on the photographing frame 1131 of this screen. At this time, the through image displayed on the shooting frame 1131 is taken by the upper camera 111. The image displayed in the shooting frame 1131 is an image obtained by combining the subject image extracted from the shot image and a predetermined foreground image and / or background image by chroma key processing. Hereinafter, an image in which a predetermined background image is combined is referred to as a temporary combined image.

撮影フレーム1131には、図29に示すように、ユーザの立ち位置(図中の点線)をスルー画像上に重ねて表示することもできる。また、ユーザの立ち位置を大まかに示す領域を、スルー画像上に重ねて表示することもできる。これらにより、ユーザの立ち位置を誘導し、上述した足ゾーンに、ユーザの足が含まれるような撮影画像を取得することができる。撮影は秒数1132を示してカウントダウンを行いながら所定時間ごとにシャッターが切られることで行われる。つまり、制御部4より上部カメラ111に制御信号が送信され撮影が行われる。撮影された画像のサムネイルが、画面下部のサムネイル表示領域1133に順に表示されていく。こうして、4回の撮影により、4種類の画像に係る撮影画像データが生成され、メモリに格納される。なお、メモリに格納されるのは、仮合成画像ではなく、クロマキー処理がなされていない撮影画像である。   As shown in FIG. 29, the user's standing position (dotted line in the drawing) can be displayed on the shooting frame 1131 so as to overlap the through image. In addition, an area roughly indicating the user's standing position can be displayed on the through image. Thus, it is possible to guide the user's standing position and acquire a captured image in which the user's foot is included in the above-described foot zone. Shooting is performed by releasing the shutter every predetermined time while counting down with the number of seconds 1132. That is, a control signal is transmitted from the control unit 4 to the upper camera 111, and photographing is performed. The thumbnails of the captured images are sequentially displayed in the thumbnail display area 1133 at the bottom of the screen. Thus, the captured image data relating to the four types of images is generated and stored in the memory by performing the imaging four times. Note that what is stored in the memory is not a temporary composite image but a captured image that has not been subjected to chroma key processing.

次に、下部カメラ112による撮影が2回連続して行われる(ステップS210)。ここでは、ユーザは、図29に示す撮影フレーム1131にリアルタイムに表示されるスルー画像を見ながら撮影を行う。このとき、撮影フレーム1131に表示されるスルー画像は、上述した仮合成画像である。また、図示を省略するが、撮影フレーム1131には、ユーザの立ち位置を表示することもできる。撮影は秒数1132を示してカウントダウンを行いながら、所定時間ごとにシャッターが切られることで行われる。撮影された画像のサムネイルは、上部カメラ111による撮影と同様に、画面下部のサムネイル表示領域1133に表示される。こうして、2回の撮影により、2種類の画像に係る撮影画像が生成され、メモリに格納される。以上の6回の撮影が終了すると、サムネイル表示領域1133には、6枚の仮合成画像のサムネイルが表示される。   Next, the imaging | photography by the lower camera 112 is performed twice continuously (step S210). Here, the user performs shooting while viewing a through image displayed in real time in the shooting frame 1131 shown in FIG. At this time, the through image displayed on the shooting frame 1131 is the above-described temporary composite image. Although not shown, the standing position of the user can be displayed on the photographing frame 1131. Photographing is performed by releasing the shutter every predetermined time while counting down with the number of seconds 1132. The thumbnails of the captured images are displayed in the thumbnail display area 1133 at the bottom of the screen, as with the upper camera 111. In this way, a photographed image relating to two types of images is generated by two photographings and stored in the memory. When the above six shootings are completed, thumbnails of six temporary composite images are displayed in the thumbnail display area 1133.

こうして、合計6回の撮影が完了し、さらに撮影時間が残っていたとすると(ステップS220のYES)、ボーナスショットの撮影が行われる(ステップS230)。こうして、すべての撮影が完了すると、上部モニタ113には、編集部2のいずれか一方の編集空間20a,20bへの移動を促す表示がなされるとともに、スピーカ19によって、編集空間20a,20bへの移動を促す通知がなされる(ステップS240)。また、生成された各撮影画像は、編集部2に送信される。なお、撮影回数は特には限定されない。   In this way, assuming that a total of six shootings are completed and there is still a shooting time (YES in step S220), a bonus shot is shot (step S230). Thus, when all the shootings are completed, the upper monitor 113 is displayed to prompt the user to move to one of the editing spaces 20a and 20b of the editing unit 2, and the speaker 19 displays the editing space 20a and 20b. A notification for prompting the movement is made (step S240). Each generated captured image is transmitted to the editing unit 2. In addition, the frequency | count of imaging | photography is not specifically limited.

<7−3.編集用モニタの画面構成と編集処理>
編集処理は以下の手順で行われる。まず、背景画像(以下では、前景画像が含まれている場合でも、単に「背景画像」と記載する)の選択が行われる。この点について、図30のフローチャートを参照しつつ説明する。上述したように、撮影部1のモニタに表示された仮合成画像は、制御部4が自動的に背景画像を付加することで生成されている。そのため、編集作業に入る前に、ユーザによる背景画像の選択を行う。最初に、編集用モニタ213には、図31に示すような、背景選択画面が表示される(ステップS300)。この背景選択画面の上部には、6つの撮影画像フレームPが表示されている。この撮影画像フレームには、6つの仮合成画像が表示されている。これら仮合成画像は、撮影部1で生成したものであってもよいし、編集部2で改めて生成したものであってもよい。そして、撮影画像フレームPの下方には、複数の背景画像の候補が表示された、背景画像フレームQが表示されている。ここで、ユーザは、タッチペン214A,214Bで、背景画像のいずれかをタッチして背景画像の選択を行い(ステップS310)、その後、仮合成画像のいずれかをタッチすると、選択された背景画像が、予め決められた背景画像と入れ替わった合成画像が表示される(ステップS320)。このとき、表示される合成画像は、上述した手順(項6)で生成されたものである。すなわち、選択された背景画像に対して、上述した処理を経て影が形成され、影が形成された背景画像が、被写体画像と合成され、合成画像が生成される。
<7-3. Screen structure and editing process of editing monitor>
The editing process is performed according to the following procedure. First, a background image (hereinafter simply described as “background image” even if a foreground image is included) is selected. This point will be described with reference to the flowchart of FIG. As described above, the temporary composite image displayed on the monitor of the photographing unit 1 is generated by the control unit 4 automatically adding a background image. Therefore, the user selects the background image before entering the editing work. First, a background selection screen as shown in FIG. 31 is displayed on the editing monitor 213 (step S300). Six captured image frames P are displayed at the top of the background selection screen. Six temporary composite images are displayed in the captured image frame. These temporary composite images may be generated by the photographing unit 1 or may be newly generated by the editing unit 2. A background image frame Q on which a plurality of background image candidates are displayed is displayed below the captured image frame P. Here, when the user touches any of the background images with the touch pens 214A and 214B to select the background image (step S310), and then touches any of the temporary composite images, the selected background image is displayed. Then, a composite image replaced with a predetermined background image is displayed (step S320). At this time, the displayed composite image is generated by the above-described procedure (Section 6). In other words, a shadow is formed on the selected background image through the above-described processing, and the background image on which the shadow is formed is combined with the subject image to generate a combined image.

そして、この操作をすべての仮合成画像に対して行うことができる。こうして背景画像の選択が完了すると、OKボタンRを押下する(ステップS330のYES)。これにより、仮合成画像の背景画像が、選択された背景画像に入れ替わった合成画像(編集対象画像)が生成され、その画像データがメモリに記憶される。あるいは、OKボタンRが押下されなくても、所定の時間が経過すると、背景画像の選択は自動的に終了し、生成された合成画像がメモリに記憶される。   This operation can be performed on all temporary composite images. When the selection of the background image is completed in this way, the OK button R is pressed (YES in step S330). As a result, a composite image (edit target image) in which the background image of the temporary composite image is replaced with the selected background image is generated, and the image data is stored in the memory. Alternatively, even when the OK button R is not pressed, when a predetermined time has elapsed, the selection of the background image is automatically terminated, and the generated composite image is stored in the memory.

こうして背景画像が決定されると、これに続いて、編集対象画像等に対して編集処理を行う。ここでは、編集処理を行う際に、編集用モニタ213に表れる画面の構成について説明する。以下、このような落書きのための編集用モニタ213の画面構成について、図32を参照しつつ詳細に説明する。図32は編集用モニタに表示される編集対象画像の編集用画面を示す模式図である。   When the background image is determined in this way, the editing process is subsequently performed on the image to be edited. Here, the configuration of a screen appearing on the editing monitor 213 when performing editing processing will be described. Hereinafter, the screen configuration of the editing monitor 213 for graffiti will be described in detail with reference to FIG. FIG. 32 is a schematic diagram showing an editing screen of an image to be edited displayed on the editing monitor.

図32に示すように、この編集画面において、編集用モニタ213は、左右一対の編集スペースに区分けされ、2人のユーザが同時並行して使用できるようになっている。編集用モニタ213の左側の編集スペースにおいては、左側のタッチペン214Aによる入力受け付けが可能となっており、右側の編集スペースにおいては、右側のタッチペン214Bによる入力受け付けが可能となっている。各編集スペースの上部中央には、編集対象画像を表示し(仮想的な)落書きを行える矩形状の落書き領域501が設けられている。各落書き領域501の上方には、6枚の編集対象画像のサムネイル502が表示されており、ここから選択された1枚の編集対象画像が、落書き領域501に表示される。   As shown in FIG. 32, on this editing screen, the editing monitor 213 is divided into a pair of left and right editing spaces and can be used by two users simultaneously in parallel. In the editing space on the left side of the editing monitor 213, input can be received by the left touch pen 214A, and in the right editing space, input can be received by the right touch pen 214B. In the upper center of each editing space, a rectangular graffiti area 501 that displays an image to be edited and allows (virtual) graffiti to be provided is provided. Above each graffiti area 501, thumbnails 502 of six editing target images are displayed, and one editing target image selected from the thumbnails 501 is displayed in the graffiti area 501.

落書き領域501の側部には、編集ボタンが配置されている。具体的には、上から、「エンド」ボタン503、消しゴムボタン504、「進む」ボタン505、及び「戻る」ボタン506が配置されている。「エンド」ボタン503は、編集を終了するためのボタンであり、この「エンド」ボタン503を押下すると、編集処理が自発的に終了し、出力処理へと移行する。消しゴムボタン504は、4種類のものが配置されており、3種類の大きさ消しゴムボタンと、すべての落書きを消すための「全消し」ボタンとが配置されている。例えば、いずれかの大きさ消しゴムボタンをタッチペン214A,214Bで押下すると、その大きさ消しゴムが設定され、この状態で落書き領域501をタッチペン214A,214Bでなぞると、なぞった部分の落書きが消去されるようになっている。また、「全消し」ボタンを押下すると、すべての落書きが消去される。   An edit button is arranged on the side of the graffiti area 501. Specifically, an “end” button 503, an eraser button 504, a “forward” button 505, and a “return” button 506 are arranged from the top. An “end” button 503 is a button for ending editing. When the “end” button 503 is pressed, the editing process ends spontaneously and the process proceeds to an output process. Four types of eraser buttons 504 are arranged, and three types of eraser buttons of a size and an “all eraser” button for erasing all graffiti are arranged. For example, when any size eraser button is pressed with the touch pens 214A and 214B, the size eraser is set, and when the graffiti area 501 is traced with the touch pens 214A and 214B in this state, the traced portion of the doodle is erased. It is like that. When the “Erase all” button is pressed, all graffiti is erased.

「戻る」ボタン506は、直前に行った落書き処理を取り消して元に戻すためのボタンであり、「進む」ボタン505は、反対に、「戻る」ボタン506を押下する直前の落書き処理を復活させるためのボタンである。   The “return” button 506 is a button for canceling and returning the graffiti processing performed immediately before, and the “forward” button 505, on the contrary, restores the graffiti processing immediately before the “return” button 506 is pressed. It is a button for.

また、左右の編集ボタンの間には、カウントダウン用のタイマー508が設けられている。このタイマーは、種々の設定ができるが、例えば、落書き編集を行える基本制限時間(例えば、300秒)を予め設定しておき、落書き編集が開始されると同時にカウントダウンを始め、タイマーの表示がゼロになったときに落書き編集を強制的に終了させるように構成することができる。あるいは、撮影部1にユーザがいないとき、つまり、編集作業を待つ後続のユーザがいないときには、カウントダウンを行わず、制限なく編集作業を行えるようにしてもよいし、最大制限時間(例えば、20分)を設定しておき、最大制限時間まで編集作業を行えるようにしてもよい。但し、このような状態になったとき、もう一方の編集部2に後続のユーザがいる状態で、新たなユーザによる撮影処理が開始された場合、撮影処理の開始に合わせて、予め設定された時間(例えば、60秒)からのカウントダウンを始めるようにすることが好ましい。このタイマー508は、左右のユーザで共通であり、両ユーザの編集処理時間が1つのタイマー508で管理される。   A countdown timer 508 is provided between the left and right edit buttons. This timer can be set in various ways. For example, a basic time limit (for example, 300 seconds) during which graffiti editing can be performed is set in advance, and when the graffiti editing starts, the countdown starts and the timer display is zero. It can be configured to forcibly terminate graffiti editing when Alternatively, when there is no user in the photographing unit 1, that is, when there is no subsequent user waiting for the editing work, the editing work may be performed without limitation without being counted down, or the maximum time limit (for example, 20 minutes). ) May be set so that editing can be performed up to the maximum time limit. However, in such a state, when a shooting process by a new user is started in a state where there is a subsequent user in the other editing unit 2, it is set in advance in accordance with the start of the shooting process. It is preferable to start counting down from time (eg, 60 seconds). This timer 508 is common to the left and right users, and the editing processing time for both users is managed by one timer 508.

落書き領域501の下方には、絵、模様、図形、文字などを書き込むためのパレット509が配置されている。パレット509は、複数の領域に分けられている。まず、パレット509の上段には、複数のカテゴリーが表示されたカテゴリー領域510が配置されている。ここでは、例として「オススメ」、「スタンプ」、「ペン」、「メッセージ」、及び「メイク」という5つのカテゴリーが表示されている。   Below the graffiti area 501, a palette 509 for writing pictures, patterns, figures, characters and the like is arranged. The pallet 509 is divided into a plurality of areas. First, a category area 510 in which a plurality of categories are displayed is arranged in the upper part of the palette 509. Here, as an example, five categories of “recommended”, “stamp”, “pen”, “message”, and “make” are displayed.

カテゴリー領域510の下方には、詳細ツール領域511が配置されており、上記各カテゴリーに関連した落書き用のツールが表示される。例えば、「スタンプ」というカテゴリーを選択すると、種々の種類のスタンプ(ツール)が表示される。この領域の上段には、6つの種類ボタン(A〜F)512が配置され、その下方には、複数種のスタンプが表示されたツールボタン513が配置されている。また、ツールボタン513の側方には、ツール編集ボタン、及び大きさ調整ボタン518が配置されている。   Below the category area 510, a detailed tool area 511 is arranged, and a graffiti tool related to each category is displayed. For example, when the category “stamp” is selected, various types of stamps (tools) are displayed. In the upper part of this area, six type buttons (A to F) 512 are arranged, and below that, tool buttons 513 displaying a plurality of types of stamps are arranged. Further, a tool edit button and a size adjustment button 518 are arranged on the side of the tool button 513.

種類ボタン512は、選択されたカテゴリーをさらに分類するものである。図32には、1つの種類ボタンに対応する複数のスタンプが示されているが、これと同様に、他の種類ボタンを押下すると、同じカテゴリーでさらに種類の異なるスタンプが表示される。例えば、図32のツールが表示された状態で落書き処理を行う場合には、いずれかのツールをタッチペン214A,214Bで押下してツールを選択し、その後、タッチペン214A,214Bで落書き領域501の任意の位置を押下する。これにより、選択されたツールが落書き領域501における押下された位置に表示される。一旦設定されたツールは、他のツールを選択するまで維持される。   The type button 512 further classifies the selected category. FIG. 32 shows a plurality of stamps corresponding to one type button. Similarly, when another type button is pressed, different types of stamps are displayed in the same category. For example, when the graffiti process is performed in a state where the tool of FIG. 32 is displayed, one of the tools is pressed with the touch pens 214A and 214B to select the tool, and then the graffiti area 501 is arbitrarily selected with the touch pens 214A and 214B. Press the position of. As a result, the selected tool is displayed at the pressed position in the graffiti area 501. Once a tool is set, it is maintained until another tool is selected.

ツール編集ボタンは、4種類のボタンを有している。上から、第1回転ボタン514、第2回転ボタン515及び反転ボタン516が配置されている。第1回転ボタン514は、画面に垂直な軸回りに選択されたツールを回転するためのものであり、第2回転ボタン515は、画面に平行で上下に延びる軸回りに選択されたツールを回転する(奥行き方向に回転する)ためのものである。反転ボタン516は、落書き領域に表示されたツールの左右を反転させるものである。また、大きさ調整ボタン518は、落書き領域501に表示するツールの大きさを決定するためのものであり、5種類の大きさが表示されている。例えば、カテゴリーとしてスタンプを選択して、大きさ調整ボタン518を押下した後、いずれかのツールを選択すると、選択した大きさに応じたスタンプが落書き領域501に表示される。   The tool edit button has four types of buttons. From the top, a first rotation button 514, a second rotation button 515, and a reverse button 516 are arranged. The first rotation button 514 is for rotating the selected tool around an axis perpendicular to the screen, and the second rotation button 515 is for rotating the selected tool around an axis extending parallel to the screen and extending up and down. For rotating (rotating in the depth direction). The reverse button 516 is used to reverse the right and left of the tool displayed in the graffiti area. The size adjustment button 518 is for determining the size of the tool to be displayed in the graffiti area 501, and five types of sizes are displayed. For example, when a stamp is selected as a category and the size adjustment button 518 is pressed and then any tool is selected, a stamp corresponding to the selected size is displayed in the graffiti area 501.

以上の画面構成は、左右の編集スペースで同じである。ユーザは、適宜、編集すべき編集対象画像をサムネイル502から選択し、落書き領域501に表示させる。そして、表示された編集対象画像に対して、編集作業を行う。   The above screen configuration is the same in the left and right editing spaces. The user appropriately selects an image to be edited from the thumbnail 502 and displays it in the graffiti area 501. Then, an editing operation is performed on the displayed editing target image.

こうして、ユーザは、タイマー46の残り時間が0になる(またはユーザが終了させる操作を行う)まで、落書きを行う。そして、タイマーの残り時間が0になるか、あるいはユーザが終了ボタンをタッチして自発的に落書きを終了させると、編集用モニタ213に「落書き終了」との表示が表れる。そして、その時点において、編集画面で編集されている編集対象画像が編集済画像(出力用画像)とされ、この編集済画像に係る編集済画像データがメモリに保存され、編集処理が終了する。その後、出力用のシール紙のレイアウトを編集用モニタ213で決定することもできる。   In this way, the user performs graffiti until the remaining time of the timer 46 becomes zero (or the user performs an operation to end). When the remaining time of the timer becomes zero or when the user touches the end button to end the graffiti voluntarily, the display of “end of graffiti” appears on the editing monitor 213. At that time, the editing target image edited on the editing screen is set as an edited image (output image), edited image data relating to the edited image is stored in the memory, and the editing process ends. Thereafter, the layout of the output sticker sheet can be determined by the editing monitor 213.

<7−4.出力処理>
次に、出力処理について説明する。上記のように生成された編集済画像データは、出力部3に送信される。そして、まず、編集済画像データの送信処理を行う。
<7-4. Output processing>
Next, output processing will be described. The edited image data generated as described above is transmitted to the output unit 3. First, edited image data transmission processing is performed.

送信に当たっては、複数の方法がある。まず、電子メールを入力させ、その電子メールに画像データを送信したり、あるいは画像データを取得できるインターネット上のサイトのURLを送信することもできる。このとき、モニタ311には、2人のユーザに対して、それぞれメールアドレスの入力を促す画面が表示される。なお、編集済画像データまたはURLは、写真撮影遊戯装置から直接ユーザの電子メールアカウントに送信することもできるし、写真撮影遊戯装置から外部のサーバを介して送信することもできる。   There are several methods for transmission. First, an e-mail can be input and image data can be transmitted to the e-mail, or a URL of a site on the Internet from which image data can be acquired can be transmitted. At this time, the monitor 311 displays a screen that prompts the two users to input mail addresses. The edited image data or URL can be transmitted directly from the photography game apparatus to the user's e-mail account, or can be transmitted from the photography game apparatus via an external server.

また、出力部3の非接触通信部312から、編集済画像データを携帯端末へ送信することもできる。さらに、モニタ311にQRコード(登録商標)を表示させ、このQR(登録商標)コードを読み取ることで、上述したURLを取得することもできる。   The edited image data can also be transmitted from the non-contact communication unit 312 of the output unit 3 to the portable terminal. Furthermore, the above-described URL can be acquired by displaying a QR code (registered trademark) on the monitor 311 and reading the QR (registered trademark) code.

こうして、画像データの送信処理が完了すると、出力部3においてシート紙の印刷が行われ、シール紙排出口313から排出される。   When the image data transmission process is completed in this manner, the sheet paper is printed in the output unit 3 and discharged from the sticker paper discharge port 313.

<8.効果>
以上のように、本実施形態によれば、影情報生成部43により、被写体に近い位置から離れるにしたがって色の濃度が薄くなるように形成された、被写体の影を生成するための傾斜マスクが生成される。そして、この傾斜マスクに基づいて、背景画像を処理し、影が形成された背景画像を生成している。そのため、背景画像に形成される影は、被写体から離れるにしたがって濃度が薄くなるグラデーションを有する。したがって、合成画像に自然な影を形成することができるため、画像の立体感が増し、リアリティを増大することができる。
<8. Effect>
As described above, according to the present embodiment, the shadow information generation unit 43 forms the inclined mask for generating the shadow of the subject formed so that the color density becomes lighter as the distance from the position close to the subject increases. Generated. And based on this inclination mask, a background image is processed and the background image in which the shadow was formed is produced | generated. Therefore, the shadow formed on the background image has a gradation in which the density becomes lighter as the distance from the subject increases. Therefore, since a natural shadow can be formed on the composite image, the stereoscopic effect of the image is increased and the reality can be increased.

また、傾斜マスクは、被写体領域を有するマスク画像に基づいて形成される。そのため、被写体の形状に即した自然な影を形成することができる。また、この傾斜マスクは、被写体領域の下端から傾斜するように形成されているため、背景画像において、傾斜マスクと対応する位置の画素を画像処理することで、被写体の基端部から延びる影を形成することができる。したがって、影を形成する際に、影の位置決めなどの処理を行うことなく、被写体の基端部から正確に延びる影を形成することができる。   Further, the tilt mask is formed based on a mask image having a subject area. Therefore, it is possible to form a natural shadow that matches the shape of the subject. In addition, since the tilt mask is formed so as to tilt from the lower end of the subject area, a shadow extending from the base end portion of the subject is processed by performing image processing on a pixel at a position corresponding to the tilt mask in the background image. Can be formed. Therefore, when forming a shadow, it is possible to form a shadow that accurately extends from the base end of the subject without performing processing such as positioning of the shadow.

<9.変形例>
以上、本発明の一実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて、種々の変更が可能である。
<9. Modification>
As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning.

<9−1>
上記実施形態では、編集部2において、ユーザが背景画像を選択したときに、背景画像に影を形成しているが、その他、制御部4で自動的に選択された背景画像に対しても、影を形成することができる。例えば、撮影時のスルー画像や、図28の撮影画像フレームに表示された仮合成画像の背景画像に影を形成することもできる。影の形成手順は同じである。
<9-1>
In the above embodiment, the editing unit 2 forms a shadow on the background image when the user selects the background image. In addition, for the background image automatically selected by the control unit 4, Shadows can be formed. For example, a shadow can be formed on a through image at the time of shooting or a background image of a temporary composite image displayed in the shot image frame of FIG. The shadow formation procedure is the same.

<9−2>
上記実施形態では、図7に示す合成画像生成部45において、撮影画像から被写体画像を抽出しているが、マスク画像生成部42において、被写体画像を抽出し、これを用いて、合成画像生成部45で背景画像との合成を行ってもよい。この場合、本発明の被写体画像生成部は、マスク画像生成部42が兼ねることになる。
<9-2>
In the above embodiment, the subject image is extracted from the captured image in the composite image generation unit 45 shown in FIG. 7, but the subject image is extracted in the mask image generation unit 42 and is used as a composite image generation unit. 45 may be combined with the background image. In this case, the mask image generation unit 42 also serves as the subject image generation unit of the present invention.

<9−3>
また、背景画像に影を形成するか否かをユーザに選択させることもできる。すなわち、ユーザの選択により、背景画像に影を形成しないようにすることもできる。その選択は、背景画像の選択時、または編集時に行うことができる。
<9-3>
In addition, the user can select whether to form a shadow on the background image. That is, it is possible to prevent a shadow from being formed on the background image by the user's selection. The selection can be performed when the background image is selected or edited.

<9−4>
影の形成手順における、グラデーションマスク、傾斜マスク、合成傾斜マスク、圧縮された合成傾斜マスクの形成方法は、特には限定されず、種々の方法が可能である。すなわち、本発明においては、マスク画像を用いて最終的にグラデーションが付された傾斜マスクが形成されればよい。例えば、グラデーション処理、傾斜処理は、その順序を反対にすることもできる。
<9-4>
The method of forming the gradation mask, the tilt mask, the composite tilt mask, and the compressed composite tilt mask in the shadow forming procedure is not particularly limited, and various methods are possible. In other words, in the present invention, it is only necessary to form an inclined mask finally provided with gradation using a mask image. For example, the order of gradation processing and inclination processing can be reversed.

<9−5>
上記実施形態では、グラデーションマスク、傾斜マスク、合成傾斜マスク、圧縮された合成傾斜マスクの形成方法、及び背景画像に対する影の生成処理を、予め決められたパラメータにしたがって行っているが、これを、選択された背景画像に応じて行うこともできる。例えば、図15(a)に示す背景画像は、右側が明るく、左側が暗い。これは、照明が右側から照射された様子を示している。この場合、背景画像には右から左へ延びる影が形成されるのが自然である。したがって、このような背景画像に表された画像に応じて、影の形状、色情報(彩度、明度、色相など)、グラデーション等を決定するパラメータを適宜選択し、背景画像に応じた影を形成することもできる。例えば、上述した基準長さL1、足ゾーンの長さL2、基準画素数D、傾斜角度θ、傾斜の向き、グラデーションカーブ、彩度、明度の調整量を、選択された背景画像に応じて変化させてもよい。
<9-5>
In the above embodiment, the gradation mask, the tilt mask, the composite tilt mask, the compressed composite tilt mask forming method, and the shadow generation process for the background image are performed according to predetermined parameters. It can also be performed according to the selected background image. For example, the background image shown in FIG. 15A is bright on the right side and dark on the left side. This shows that the illumination is illuminated from the right side. In this case, it is natural that a shadow extending from right to left is formed in the background image. Therefore, according to the image represented in such a background image, parameters for determining the shape of the shadow, color information (saturation, brightness, hue, etc.), gradation, etc. are appropriately selected, and the shadow corresponding to the background image is selected. It can also be formed. For example, the reference length L1, the foot zone length L2, the reference pixel number D, the inclination angle θ, the inclination direction, the gradation curve, the saturation, and the brightness adjustment amount described above are changed according to the selected background image. You may let them.

同様に、いずれのカメラで撮影されたかによって、上記パラメータを変化させることもできる。すなわち、上部カメラで撮影されたときと、下部カメラで撮影されたときで、影の形状、色情報、グラデーションを決定するパラメータを適宜変化させ、形成される影を相違させることもできる。   Similarly, the above parameters can be changed depending on which camera is used for shooting. In other words, the shadow shape, color information, and parameters for determining gradation can be appropriately changed between when the image is taken by the upper camera and when the image is taken by the lower camera, and the formed shadow can be made different.

<9−6>
また、背景画像には、例えば、図33に示すように、水平面と壁との間の境界を示すような表示を形成することもできる。この例では、水平方向に延びる色味の濃い線状の領域を形成し、これを境界とすることができる。この境界の位置は、背景画像と被写体画像とが合成された状態において、被写体画像の基端部よりも上方にあるように調整することが好ましい。これにより、合成画像において、被写体が水平面上に立っているように見せることができる。境界の位置の調整は、カメラの位置、ユーザの立ち位置から、調整することができる。また、境界の位置は、上記したような位置となるように予め設定しておくこともできる。
<9-6>
Further, for example, as shown in FIG. 33, a display that shows a boundary between a horizontal plane and a wall can be formed on the background image. In this example, a linear region with a deep color extending in the horizontal direction can be formed and used as a boundary. The position of this boundary is preferably adjusted so that it is above the base end of the subject image when the background image and the subject image are combined. This makes it possible to make the subject appear to be standing on a horizontal plane in the composite image. The boundary position can be adjusted from the camera position and the user's standing position. Further, the position of the boundary can be set in advance so as to be the position described above.

<9−7>
また、このような境界を形成した場合、影は境界よりも下側に形成されることが好ましい。これにより、影が水平面上に形成されているように見せることができる。但し、影が境界を越えるように形成することもできる。この場合、自然な影に見せるため、図34に示すように、境界上で影を傾斜させ、境界より上側で影が上方に伸びるように、形成することができる。
<9-7>
Further, when such a boundary is formed, it is preferable that the shadow is formed below the boundary. Thereby, it can appear as if the shadow is formed on the horizontal plane. However, it can also be formed so that the shadow exceeds the boundary. In this case, in order to make it appear as a natural shadow, as shown in FIG. 34, it can be formed so that the shadow is inclined on the boundary and the shadow extends upward above the boundary.

<9−8>
上記実施形態において、種々の傾斜マスクの形成方法を示したが、次のような方法で傾斜マスクを形成することもできる。これについて、図35及び図36を用いて説明する。上記実施形態では、例えば、図18に示すマスク画像を利用し、図19に示すように、その被写体領域内の画素値がグラデーションするグラデーションマスクを利用して影を形成していた。一方、この例では、例えば、図35に示すように、画像全体に縦方向のグラデーションが形成されたマスクを利用して影を形成する。点線は被写体領域の輪郭であり、この例では、被写体領域の足ゾーンに含まれる各画素を回転の中心とする。当該各画素からの基準画素数Dについては、上記実施形態と同様に設定する。より詳細に説明すると、例えば、図35の線Xにおいては、足ゾーン内にも関わらず、点Kよりも上は被写体領域ではない。そのため、点Kの画素を回転中心として、それよりも上の画素を回転させようとしても、その画素は被写体領域の外にあり、上記実施形態の処理では回転に用いることができなかった。そこで、この例では、被写体領域の外にある画素も基準画素数Dに含まれる画素として、回転させる。
<9-8>
In the above embodiment, various methods for forming an inclined mask have been described. However, an inclined mask can also be formed by the following method. This will be described with reference to FIGS. 35 and 36. FIG. In the embodiment described above, for example, the mask image shown in FIG. 18 is used, and as shown in FIG. 19, a shadow is formed using a gradation mask in which pixel values in the subject area are gradation. On the other hand, in this example, for example, as shown in FIG. 35, a shadow is formed using a mask in which a gradation in the vertical direction is formed on the entire image. The dotted line is the outline of the subject area. In this example, each pixel included in the foot zone of the subject area is set as the center of rotation. The reference pixel number D from each pixel is set in the same manner as in the above embodiment. More specifically, for example, on the line X in FIG. 35, the region above the point K is not the subject region, even though it is within the foot zone. For this reason, even if an attempt is made to rotate the pixel above the point K pixel as the rotation center, the pixel is outside the subject area and cannot be used for the rotation in the processing of the above embodiment. Therefore, in this example, the pixels outside the subject area are also rotated as pixels included in the reference pixel number D.

例えば、図36の画素P4が被写体領域の輪郭の境界(図35の点K)にあると仮定すると、この画素P4より上にあって画素P4から基準画素数D内に含まれる画素P5〜P8(傾斜マスクを利用するのに利用される画素)は被写体領域の外にある。しかしながら、この例では、被写体領域の外にある画素P5〜P8を画素P4を中心に回転させる。図19の例では、被写体領域の外にグラデーションが形成された画素が存在しないが、図35の例では、画像全体にグラデーションを形成しているため、被写体領域の外にもグラデーションが形成された画素が存在する。よって、それらの画素を傾斜させ、傾斜マスクを形成する。このようにすることで、影が不自然に切れてしまったり、短くなったりするのを防止することができる。この手法は、図26のような、影に被写体の形状を反映させる必要がない場合に適応することができる。   For example, assuming that the pixel P4 in FIG. 36 is at the boundary of the contour of the subject area (point K in FIG. 35), pixels P5 to P8 that are above the pixel P4 and are included in the reference pixel number D from the pixel P4. (Pixels used to use the tilt mask) are outside the subject area. However, in this example, the pixels P5 to P8 outside the subject area are rotated around the pixel P4. In the example of FIG. 19, there is no pixel in which gradation is formed outside the subject area. However, in the example of FIG. 35, gradation is formed outside the subject area because the gradation is formed on the entire image. Pixel exists. Therefore, these pixels are inclined to form an inclined mask. By doing so, it is possible to prevent the shadow from being cut unnaturally or shortened. This method can be applied when there is no need to reflect the shape of the subject in the shadow as shown in FIG.

<9−9>
上記実施形態では、図24〜図26に示すように、移動グラデーションマスクを利用して、被写体の基端部付近に影をつけた。しかしながら、被写体の基端部付近に影を形成する方法は、これに限定されず、種々の方法を適用することができる。例えば、グラデーションマスクを2つ準備し、そのうちの1つを縦方向に下側にずらし、図37に示すように、両グラデーションマスクの差分を生成する。このときのずらす長さはごくわずかであり、被写体画像の輪郭を強調する程度の数画素分(例えば、1〜10画素)の長さである。こうして、生成された差分グラデーションマスクは、被写体の基端部の輪郭に対応するものであり、これに基づいて、背景画像に対し、基端部の輪郭に対応する部分の影を生成する。このとき、背景画像に対する処理では、影を形成する場合よりも、彩度及び明度の変更量を多くし、色の濃い輪郭を形成する。このような差分グラデーションマスクを利用することで、背景画像には、被写体の基端部付近に影が形成され、この背景画像に対して、被写体画像を合成すると、図26に示すような合成画像が形成される。
<9-9>
In the above embodiment, as shown in FIGS. 24 to 26, a shadow is applied in the vicinity of the base end of the subject using a moving gradation mask. However, the method of forming a shadow near the base end portion of the subject is not limited to this, and various methods can be applied. For example, two gradation masks are prepared, and one of them is shifted downward in the vertical direction to generate a difference between both gradation masks as shown in FIG. At this time, the shifting length is very small, and is a length corresponding to several pixels (for example, 1 to 10 pixels) enough to enhance the contour of the subject image. Thus, the generated differential gradation mask corresponds to the contour of the base end portion of the subject, and based on this, a shadow of a portion corresponding to the contour of the base end portion is generated for the background image. At this time, in the process for the background image, the amount of change in saturation and lightness is increased as compared with the case of forming a shadow, and a dark outline is formed. By using such a differential gradation mask, a shadow is formed in the vicinity of the base end of the subject in the background image. When the subject image is combined with this background image, a composite image as shown in FIG. Is formed.

<9−10>
また、次のような方法で傾斜マスクを生成することもできる。例えば、図38に示すようなグラデーションマスクを用い、被写体領域内の各画素を横方向にシフトさせる。このとき、同図の矢印の長さで示すように、画像の縦方向において、グラデーションマスクの基端部(図の下端側)に近い画素ほどシフト量を小さくし、終端部に近いほどシフト量を大きくする。こうして形成された傾斜マスクに基づいて、背景画像に影を生成する。これにより、背景画像には、被写体領域から斜めに延びる影を形成することができる。ただし、被写体領域内の各画素をシフトさせる方向は、図38に示したような左横方向に限定されず、右横方向や左斜め上方向、左斜め下方向等様々な方向にシフトさせることができる。この場合も、図38の例と同様に、グラデーションマスクの基端部に近いほどシフト量を小さくし、終端部に近いほどシフト量を大きくする。
<9-10>
In addition, the inclined mask can be generated by the following method. For example, a gradation mask as shown in FIG. 38 is used to shift each pixel in the subject area in the horizontal direction. At this time, as indicated by the length of the arrow in the figure, in the vertical direction of the image, the shift amount is smaller as the pixel is closer to the base end portion (lower end side in the drawing) of the gradation mask, and the shift amount is closer to the end portion. Increase Based on the inclined mask thus formed, a shadow is generated in the background image. Thereby, a shadow extending obliquely from the subject area can be formed in the background image. However, the direction in which each pixel in the subject area is shifted is not limited to the left horizontal direction as shown in FIG. 38, but may be shifted in various directions such as the right horizontal direction, the left diagonally upward direction, and the left diagonally downward direction. Can do. Also in this case, as in the example of FIG. 38, the shift amount is decreased as the distance from the base end portion of the gradation mask is increased, and the shift amount is increased as the distance from the end portion.

<9−11>
上記実施形態及び各変形例等では、傾斜マスクを影情報とし、これに基づいて、背景画像に影を形成しているが、影を表す影画像を形成し、これと背景画像を合成することもできる。影画像は、上記実施形態及び各変形例と同様に、傾斜マスクを用いて作成する。例えば、任意の影用の画像に対し、傾斜マスクに基づいて影を形成し、これを切り取って形成することができる。この場合、背景画像の上に影画像を重畳し、さらにその上に被写体画像を重畳することで、図16,26で示した影が付いた合成画像を作ることができる。
<9-11>
In the above-described embodiment and each modification, etc., the tilt mask is used as shadow information, and a shadow is formed on the background image based on this, but a shadow image representing the shadow is formed and this is combined with the background image. You can also. The shadow image is created using an inclined mask, as in the above embodiment and each modification. For example, a shadow can be formed on an arbitrary shadow image based on an inclined mask, and the shadow can be cut out. In this case, by superimposing a shadow image on the background image and further superimposing a subject image on the background image, a composite image with a shadow shown in FIGS. 16 and 26 can be created.

<9−12>
上記実施形態では、上から被写体を撮影する上部カメラ111と、下から被写体を撮影する下部カメラ112という2つのカメラを備えている。しかしながら、カメラを移動させることで、1台のカメラで上から被写体を撮影したり、下から被写体を撮影したりすることができる。
<9-12>
In the above embodiment, two cameras are provided: an upper camera 111 that captures an object from above and a lower camera 112 that captures an object from below. However, by moving the camera, it is possible to shoot a subject from above with a single camera or shoot a subject from below.

<9−13>
上記実施形態及び各変形例等では、写真撮影遊戯装置において、影が付加された背景画像と、被写体画像とを合成することで合成画像を形成しているが、写真撮影遊戯装置以外で用いることもできる。すなわち、上記写真撮影遊戯装置において合成画像を生成する部位(例えば、コンピュータ)を取り出し、これを画像処理装置として用いることもできる。これにより、任意の撮影画像を入力すれば、影が付された合成画像を生成する画像処理装置とすることができる。
<9-13>
In the above-described embodiment and each modified example, a composite image is formed by synthesizing a background image with a shadow and a subject image in a photographic game device. You can also. That is, it is possible to take out a part (for example, a computer) for generating a composite image and use it as an image processing apparatus. Thereby, if an arbitrary captured image is input, an image processing apparatus that generates a combined image with a shadow can be obtained.

41 撮影画像取得部
42 マスク画像生成部
43 影情報生成部
44 背景画像取得部
45 合成画像生成部
111 上部カメラ
112 下部カメラ
41 Captured image acquisition unit 42 Mask image generation unit 43 Shadow information generation unit 44 Background image acquisition unit 45 Composite image generation unit 111 Upper camera 112 Lower camera

Claims (4)

被写体を撮影する少なくとも1つのカメラを有し、前記被写体が写る撮影画像を生成する、撮影部と、
前記撮影画像から前記被写体が写る領域を抽出した被写体画像を生成する被写体画像生成部と、
複数種類の背景画像が記憶されている記憶部と、
前記複数種類の背景画像の中から前記被写体画像の背景として合成する背景画像の選択を受け付ける背景画像取得部と、
前記被写体画像の形状に基づいて、選択された前記背景画像に対応した影の形状を決定する影情報生成部と、
選択された前記背景画像に対応した形状の影、前記被写体画像、及び前記背景画像を有する合成画像を生成する合成画像生成部と、
前記合成画像生成部で生成された合成画像に編集処理を施し、出力用画像を生成する編集部と、
前記出力用画像を出力する出力部と、
を備えている、写真撮影遊戯装置。
A photographing unit having at least one camera for photographing a subject and generating a photographed image showing the subject;
A subject image generation unit that generates a subject image obtained by extracting an area where the subject is captured from the captured image;
A storage unit storing a plurality of types of background images;
A background image acquisition unit that receives selection of a background image to be combined as a background of the subject image from the plurality of types of background images;
A shadow information generator that determines a shape of a shadow corresponding to the selected background image based on the shape of the subject image;
A composite image generating unit that generates a composite image having a shadow having a shape corresponding to the selected background image, the subject image, and the background image;
An editing unit that performs an editing process on the composite image generated by the composite image generation unit and generates an output image;
An output unit for outputting the output image;
A photography game device equipped with.
前記撮影画像から、前記被写体を示す被写体領域を有するマスク画像を生成するマスク画像生成部をさらに備え、
前記影情報生成部は、選択された前記背景画像に対応した変形処理を前記マスク画像に施し、前記変形処理が施された前記マスク画像に基づいて前記影の形状を決定する、請求項1に記載の写真撮影遊戯装置。
A mask image generating unit that generates a mask image having a subject area indicating the subject from the captured image;
The shadow information generation unit performs a deformation process corresponding to the selected background image on the mask image, and determines the shape of the shadow based on the mask image subjected to the deformation process. The described photography game device.
カメラによって撮影された被写体が写る撮影画像から前記被写体が写る領域を抽出した被写体画像を生成するステップと、
複数種類の背景画像の中から前記被写体画像の背景として合成する背景画像の選択を受け付けるステップと、
前記被写体画像の形状に基づいて、選択された前記背景画像に対応した影の形状を決定するステップと、
選択された前記背景画像に対応した形状の影、前記被写体画像、及び前記背景画像を有する合成画像を生成するステップと、
を備えている、画像処理方法。
Generating a subject image obtained by extracting an area in which the subject is captured from a captured image in which the subject photographed by the camera is captured;
Receiving a selection of a background image to be combined as a background of the subject image from a plurality of types of background images;
Determining a shadow shape corresponding to the selected background image based on the shape of the subject image;
Generating a composite image having a shadow of a shape corresponding to the selected background image, the subject image, and the background image;
An image processing method comprising:
コンピュータに、
カメラによって撮影された被写体が写る撮影画像から前記被写体が写る領域を抽出した被写体画像を生成するステップと、
複数種類の背景画像の中から前記被写体画像の背景として合成する背景画像の選択を受け付けるステップと、
前記被写体画像の形状に基づいて、選択された前記背景画像に対応した影の形状を決定するステップと、
選択された前記背景画像に対応した形状の影、前記被写体画像、及び前記背景画像を有する合成画像を生成するステップと、
を実行させる、画像処理プログラム。
On the computer,
Generating a subject image obtained by extracting an area in which the subject is captured from a captured image in which the subject photographed by the camera is captured;
Receiving a selection of a background image to be combined as a background of the subject image from a plurality of types of background images;
Determining a shadow shape corresponding to the selected background image based on the shape of the subject image;
Generating a composite image having a shadow of a shape corresponding to the selected background image, the subject image, and the background image;
An image processing program for executing
JP2015034622A 2015-02-24 2015-02-24 PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM Active JP5871083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015034622A JP5871083B2 (en) 2015-02-24 2015-02-24 PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015034622A JP5871083B2 (en) 2015-02-24 2015-02-24 PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013197630A Division JP5704205B2 (en) 2013-09-24 2013-09-24 Image processing apparatus, photography game apparatus using the same, image processing method, image processing program, and photo print sheet

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016004031A Division JP2016146623A (en) 2016-01-13 2016-01-13 Photographing game device, image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2015143997A true JP2015143997A (en) 2015-08-06
JP5871083B2 JP5871083B2 (en) 2016-03-01

Family

ID=53888962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015034622A Active JP5871083B2 (en) 2015-02-24 2015-02-24 PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP5871083B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11346329A (en) * 1998-06-01 1999-12-14 Canon Inc Image processor, its method and image processing system
JP2006162815A (en) * 2004-12-03 2006-06-22 Sony Computer Entertainment Inc Multimedia reproducing apparatus
US20060280368A1 (en) * 2001-07-02 2006-12-14 Photoinaphoto.Com, Inc. System and method for discovering and categorizing attributes of a digital image
JP2008276438A (en) * 2007-04-27 2008-11-13 Tatsumi Denshi Kogyo Kk Automatic photograph creation device and automatic photograph creation method
JP2012235314A (en) * 2011-04-28 2012-11-29 Furyu Kk Image processing device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11346329A (en) * 1998-06-01 1999-12-14 Canon Inc Image processor, its method and image processing system
US20060280368A1 (en) * 2001-07-02 2006-12-14 Photoinaphoto.Com, Inc. System and method for discovering and categorizing attributes of a digital image
JP2006162815A (en) * 2004-12-03 2006-06-22 Sony Computer Entertainment Inc Multimedia reproducing apparatus
JP2008276438A (en) * 2007-04-27 2008-11-13 Tatsumi Denshi Kogyo Kk Automatic photograph creation device and automatic photograph creation method
JP2012235314A (en) * 2011-04-28 2012-11-29 Furyu Kk Image processing device and image processing method

Also Published As

Publication number Publication date
JP5871083B2 (en) 2016-03-01

Similar Documents

Publication Publication Date Title
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP7011206B2 (en) Amusement photography equipment, image processing equipment, and image processing methods
JP5782873B2 (en) Game shooting device, game shooting method and program
JP5472365B2 (en) Photo sticker creation apparatus, image processing method, and program
JP2006228036A (en) Photograph seal creating device and its image processing method
JP6085838B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP5704205B2 (en) Image processing apparatus, photography game apparatus using the same, image processing method, image processing program, and photo print sheet
JP6881884B2 (en) Photography game device, image generation method, and image generation program
JP2008079185A (en) Automatic photograph creating apparatus, and automatic photograph creating method
JP5871083B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
JP6635170B2 (en) Photo shooting game device, image processing method, and image processing program
JP6582865B2 (en) Game shooting device, image editing method and program
JP2019012153A (en) Image acquisition system
JP6245529B2 (en) Game shooting device, game shooting method and program
JP2016042641A (en) Photographing game device, image processing method, and image processing program
JP2014075812A (en) Photographic seal creation device, image processing method, and program
JP2016146623A (en) Photographing game device, image processing method and image processing program
JP6614386B2 (en) Image processing apparatus, image processing method, and program
JP6468386B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
JP2017037271A (en) Game imaging device
JP5428245B2 (en) Photo editing device
JP2017203989A (en) Imaging device
JP2013218349A (en) Imaging apparatus for game, imaging method for game, and computer program
JP2016033821A (en) Photographing play device, image generation method, and image generation program
JP6191318B2 (en) Game shooting device, image processing method, and computer program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R150 Certificate of patent or registration of utility model

Ref document number: 5871083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250