JP5488526B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP5488526B2
JP5488526B2 JP2011102444A JP2011102444A JP5488526B2 JP 5488526 B2 JP5488526 B2 JP 5488526B2 JP 2011102444 A JP2011102444 A JP 2011102444A JP 2011102444 A JP2011102444 A JP 2011102444A JP 5488526 B2 JP5488526 B2 JP 5488526B2
Authority
JP
Japan
Prior art keywords
image
subject
background
color
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011102444A
Other languages
Japanese (ja)
Other versions
JP2012235314A (en
Inventor
潤一 小林
卓麻 鈴木
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2011102444A priority Critical patent/JP5488526B2/en
Publication of JP2012235314A publication Critical patent/JP2012235314A/en
Application granted granted Critical
Publication of JP5488526B2 publication Critical patent/JP5488526B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、特に、人物の影が写るリアリティのある合成画像を作成することができるようにした画像処理装置および画像処理方法に関する。   In particular, the present invention relates to an image processing apparatus and an image processing method capable of creating a realistic composite image in which a person's shadow is reflected.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。   There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.

写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集画像をシール紙に印刷して排出するという流れになる。例えば撮影空間は、写真シール機の筐体自体やカーテンなどにより外部から仕切られている。   The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is an edited image, is printed on sticker paper and discharged. For example, the shooting space is partitioned from the outside by the casing itself of the photographic sticker or a curtain.

このような写真シール機の中には、撮影空間における撮影処理時に、カメラにより取り込んだ画像から利用者の領域を抽出し、抽出した領域と、合成用画像とをリアルタイムで合成して表示する機能が搭載されているものがある。これにより、利用者は、撮影空間には実際にない風景と自分たちが合成された合成画像を見たり、静止画として保存したりすることが可能になる。   In such a photo sticker machine, a function of extracting a user's area from an image captured by a camera during a shooting process in a shooting space, and synthesizing and displaying the extracted area and a synthesis image in real time. Some are equipped with. As a result, the user can view the scenery that does not actually exist in the shooting space and the synthesized image in which the user is synthesized, or can save it as a still picture.

カメラにより取り込んだ画像から利用者の領域を抽出するための処理として、通常、マスク画像を用いたクロマキ処理が行われる。   As a process for extracting a user's area from an image captured by a camera, a chroma process using a mask image is usually performed.

特許文献1には、被写体の輪郭の外側に向かうにつれて階調を変化させたマスクパターンを使用することによって、被写体と背景画像との境界部における色調を段階的に変化させる技術が開示されている。   Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for changing the color tone in a boundary portion between a subject and a background image in a stepwise manner by using a mask pattern whose gradation is changed toward the outside of the contour of the subject. .

特許文献2には、撮影画像と背景画像を合成する際、撮影画像を2値化することによって得られたマスク画像の輪郭をぼかし、背景画像の彩度と明度が反映するようにマスク画像の輪郭の色調を補正する技術が開示されている。   In Patent Document 2, when a captured image and a background image are combined, the contour of the mask image obtained by binarizing the captured image is blurred, and the saturation and brightness of the background image are reflected so as to reflect the saturation and brightness of the background image. A technique for correcting the color tone of an outline is disclosed.

特許文献3には、2値化したマスク画像を縮小した画像(縮小マスク画像)と、マスク画像を拡大した画像(拡大マスク画像)を作成し、縮小マスク画像と拡大マスク画像の差分領域に光彩(グロー)効果やぼかし処理等の画像処理を施す技術が開示されている。   In Patent Document 3, an image obtained by reducing a binarized mask image (reduced mask image) and an image obtained by enlarging the mask image (enlarged mask image) are created, and a glow is applied to a difference area between the reduced mask image and the enlarged mask image. Techniques for performing image processing such as (glow) effect and blur processing are disclosed.

実用新案登録第3058664号Utility model registration No. 3058664 特開2000−224410号公報JP 2000-224410 A 特開2006−060719号公報JP 2006-060719 A

上述した技術によれば、被写体の輪郭付近にぼかし処理等の画像処理を施すことによって背景画像と被写体が滑らかに合成された合成画像を得ることができるが、その合成画像は、利用者の背中側にある壁面に投影される利用者自身の影が消えてしまうことによってリアリティのない、不自然な仕上がりの画像になってしまう。   According to the above-described technique, it is possible to obtain a composite image in which the background image and the subject are smoothly synthesized by performing image processing such as blurring processing on the vicinity of the contour of the subject. The user's own shadow projected on the wall on the side disappears, resulting in an unnaturally finished image with no reality.

本発明はこのような状況に鑑みてなされたものであり、人物の影が写るリアリティのある合成画像を作成することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to create a realistic composite image in which a person's shadow is reflected.

本発明の画像処理装置は、撮影画像に基づいて、前記撮影画像に写る被写体の部分を透過させるとともに、撮影時に前記被写体の後方にある背景カーテンに投影した前記被写体の影の部分を、前記背景カーテンの色の明度に応じて部分的に異なる所定の透過率で透過させる第1のマスク画像を生成するマスク画像生成手段と、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記被写体の背景となる画像である背景画像に合成する合成手段とを備える。 The image processing apparatus of the present invention, based on the captured image, and to reflect the portion of the object caught on the captured image, a portion of the shadow of the object projected on the background curtain at the rear of the subject at the time of shooting, the background A mask image generating means for generating a first mask image that is transmitted at a predetermined transmittance that is partially different depending on the lightness of the color of the curtain, and the subject portion and the shadow portion of the subject from the photographed image; Is extracted using the first mask image, and is combined with a background image that is an image serving as a background of the subject.

前記マスク画像生成手段には、前記撮影画像の各画素の色に基づいて、前記被写体の部分と、前記被写体の影の部分と、それ以外の部分とを検出し、前記第1のマスク画像を生成させることができる。   The mask image generating means detects the subject portion, the shadow portion of the subject, and other portions based on the color of each pixel of the captured image, and the first mask image is obtained. Can be generated.

前記合成手段には、前記第1のマスク画像を用いて抽出した前記被写体の部分と前記被写体の影の部分とを前記背景画像に合成して得られた合成画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、再度、前記背景画像に合成させることができる。   The synthesizing means includes, from a synthesized image obtained by synthesizing the subject portion extracted using the first mask image and the shadow portion of the subject with the background image, the subject portion and the The shadow portion of the subject can be extracted using the first mask image, and can be combined with the background image again.

前記合成手段には、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像と色が異なる画像である色背景画像に合成して得られた合成画像を前記撮影画像として、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像に合成させることができる。   The synthesizing unit extracts the subject portion and the shadow portion of the subject from the photographed image using the first mask image, and generates a color background image that is an image having a color different from the background image. Using the composite image obtained by combining as the captured image, the subject portion and the shadow portion of the subject are extracted from the captured image using the first mask image and combined with the background image. be able to.

前記色背景画像は、前記背景画像の色と同じ色の物に投影する影の色の画像であるようにすることができる。   The color background image may be an image of a shadow color projected onto an object having the same color as the color of the background image.

前記合成手段には、前記撮影画像の撮影モードに応じて明るさを変えた前記色背景画像を用いさせることができる。   The synthesizing unit can use the color background image in which the brightness is changed according to the shooting mode of the shot image.

前記マスク画像生成手段には、前記撮影画像に基づいて、前記被写体の部分を透過させるとともに前記被写体の輪郭の周りの一定の部分を所定の透過率で透過させる第2のマスク画像を生成させ、前記合成手段には、前記撮影画像から、前記被写体の部分と前記被写体の輪郭の周りの部分とを前記第2のマスク画像を用いて抽出し、前記背景画像と色が異なる画像である色背景画像に合成して得られた合成画像を前記撮影画像として、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像に合成させることができる。   The mask image generation means generates a second mask image that transmits the portion of the subject and transmits a certain portion around the contour of the subject with a predetermined transmittance based on the captured image, The synthesizing means extracts a portion of the subject and a portion around the contour of the subject from the photographed image using the second mask image, and a color background that is an image having a color different from that of the background image. Using the first mask image to extract the subject part and the shadow part of the subject from the photographed image, using the first mask image as a composite image obtained by combining with the image as the photographed image, to the background image Can be synthesized.

前記合成手段には、前記被写体の部分と前記被写体の影の部分とを前記背景画像に合成する前に、前記被写体の影の部分の色の調整を行わせることができる。   The synthesizing unit can adjust the color of the shadow portion of the subject before synthesizing the subject portion and the shadow portion of the subject with the background image.

前記マスク画像生成手段には、前記第1のマスク画像を加工させ、前記合成手段には、加工された前記第1のマスク画像を用いて、前記被写体の部分と前記被写体の影の部分とを抽出させることができる。   The mask image generating means processes the first mask image, and the synthesizing means uses the processed first mask image to obtain the subject portion and the shadow portion of the subject. Can be extracted.

前記マスク画像生成手段には、前記第1のマスク画像の加工として、前記第1のマスク画像のコントラストをトーンカーブに従って調整する処理と、前記第1のマスク画像の輪郭をぼかす処理とのうちの少なくともいずれかの処理を行わせることができる。   The mask image generation means includes processing for adjusting the contrast of the first mask image according to a tone curve as processing of the first mask image, and processing for blurring an outline of the first mask image. At least one of the processes can be performed.

本発明の画像処理方法は、撮影画像に基づいて、前記撮影画像に写る被写体の部分を透過させるとともに、撮影時に前記被写体の後方にある背景カーテンに投影した前記被写体の影の部分を、前記背景カーテンの色の明度に応じて部分的に異なる所定の透過率で透過させるマスク画像を生成し、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記マスク画像を用いて抽出し、前記被写体の背景となる画像である背景画像に合成するステップを含む。 According to the image processing method of the present invention, based on the photographed image, the portion of the subject that appears in the photographed image is transmitted, and the shadow portion of the subject that is projected onto the background curtain behind the subject at the time of photographing is used as the background. Generates a mask image to be transmitted with a predetermined transmittance that is partially different depending on the brightness of the color of the curtain, and extracts the subject portion and the shadow portion of the subject from the photographed image using the mask image And a step of synthesizing with a background image that is an image that becomes a background of the subject.

本発明においては、撮影画像に基づいて、前記撮影画像に写る被写体の部分を透過させるとともに、撮影時に前記被写体の後方にある背景カーテンに投影した前記被写体の影の部分を、前記背景カーテンの色の明度に応じて部分的に異なる所定の透過率で透過させるマスク画像が生成される。また、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記マスク画像を用いて抽出され、前記被写体の背景となる画像である背景画像に合成される。 In the present invention, based on the photographed image, the portion of the subject that appears in the photographed image is transmitted, and the shadow portion of the subject projected on the background curtain behind the subject at the time of photographing is replaced with the color of the background curtain. A mask image to be transmitted with a predetermined transmissivity partially different depending on the brightness of the image is generated. Further, the portion of the subject and the shadow portion of the subject are extracted from the photographed image using the mask image, and are combined with a background image that is an image that is a background of the subject.

本発明によれば、人物の影が写るリアリティのある合成画像を作成することができる。   According to the present invention, a realistic composite image in which a person's shadow is reflected can be created.

画像処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an image process part. カメラによる撮影の様子を示す図である。It is a figure which shows the mode of imaging | photography with a camera. 合成処理の第1の例を示す図である。It is a figure which shows the 1st example of a synthetic | combination process. 図3の撮影画像を拡大して示す図である。It is a figure which expands and shows the picked-up image of FIG. 図3のマスク画像を拡大して示す図である。It is a figure which expands and shows the mask image of FIG. 従来のマスク画像とマスク画像生成部により生成されるマスク画像を示す図である。It is a figure which shows the mask image produced | generated by the conventional mask image and a mask image production | generation part. 図3の合成画像を拡大して示す図である。It is a figure which expands and shows the synthesized image of FIG. 合成処理の第2の例を示す図である。It is a figure which shows the 2nd example of a synthetic | combination process. 合成処理の第3の例を示す図である。It is a figure which shows the 3rd example of a synthetic | combination process. 合成処理の第5の例を示す図である。It is a figure which shows the 5th example of a synthetic | combination process. 合成処理の第6の例を示す図である。It is a figure which shows the 6th example of a synthetic | combination process. 1段目の合成処理と2段目の合成処理とで異なるマスク画像を用いる場合の2段階合成処理の第1の例を示す図である。It is a figure which shows the 1st example of the 2 step | paragraph synthetic | combination process in the case of using a different mask image by the 1st step | paragraph synthetic | combination process and a 2nd step | paragraph synthetic | combination process. 1段目の合成処理と2段目の合成処理とで異なるマスク画像を用いる場合の2段階合成処理の第2の例を示す図である。It is a figure which shows the 2nd example of a 2 step | paragraph synthetic | combination process in the case of using a different mask image by the 1st step | paragraph synthetic | combination process and a 2nd step | paragraph synthetic | combination process. マスク画像の加工の例を示す図である。It is a figure which shows the example of a process of a mask image. 1段目の合成処理と2段目の合成処理とで異なるマスク画像を用いる場合の2段階合成処理の第3の例を示す図である。It is a figure which shows the 3rd example of a 2 step | paragraph synthetic | combination process in case a different mask image is used by the 1st step | paragraph synthetic | combination process and a 2nd step | paragraph synthetic | combination process. マスク画像の加工の例を示す図である。It is a figure which shows the example of a process of a mask image. 合成処理に用いるマスク画像の組み合わせの例について説明する図である。It is a figure explaining the example of the combination of the mask image used for a synthetic | combination process. 写真シール機の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of a photograph sealing machine. カーテンを取り付けた状態の写真シール機の外観を示す斜視図である。It is a perspective view which shows the external appearance of the photographic seal machine of the state which attached the curtain. 写真シール機の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sealing machine from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 撮影部の色について説明する図である。It is a figure explaining the color of an imaging part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集部の構成例を示す図である。It is a figure which shows the structural example of an edit part. 事後接客部の構成例を示す図である。It is a figure which shows the structural example of a customer service part after the fact. 写真シール機の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sealing machine. 写真シール作成ゲームを提供する処理について説明するフローチャートである。It is a flowchart explaining the process which provides a photograph sticker creation game. 図28のステップS2において行われる本撮影処理について説明するフローチャートである。It is a flowchart explaining the main imaging | photography process performed in step S2 of FIG. 撮影空間における画面表示の例を示す図である。It is a figure which shows the example of the screen display in imaging | photography space. 撮影空間における画面表示の例を示す図である。It is a figure which shows the example of the screen display in imaging | photography space. 図28のステップS3において行われる被写体の画像処理について説明するフローチャートである。FIG. 29 is a flowchart for describing subject image processing performed in step S <b> 3 of FIG. 28. FIG. 撮影空間における画面表示の例を示す図である。It is a figure which shows the example of the screen display in imaging | photography space. 撮影空間における画面表示の例を示す図である。It is a figure which shows the example of the screen display in imaging | photography space. 図28のステップS5において行われる撮影画像の画像処理について説明するフローチャートである。It is a flowchart explaining the image processing of the picked-up image performed in step S5 of FIG. 編集空間における画面表示の例を示す図である。It is a figure which shows the example of the screen display in edit space. 編集空間における画面表示の例を示す図である。It is a figure which shows the example of the screen display in edit space. 写真シール機の他の外観の構成例を示す斜視図である。It is a perspective view which shows the example of a structure of the other external appearance of a photograph sealing machine. カーテンを取り付けた状態の図38の写真シール機の外観を示す斜視図である。It is a perspective view which shows the external appearance of the photographic sealing machine of FIG. 38 of the state which attached the curtain. 図38の写真シール機の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sealing machine of FIG. 38 from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 編集部の正面の構成例を示す図である。It is a figure which shows the structural example of the front of an edit part. 編集部の側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit part. 事中接客部の構成例を示す図である。It is a figure which shows the structural example of a customer service part. 図38の写真シール機の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of the photograph sticker of FIG. 写真シール作成ゲームを提供する処理について説明するフローチャートである。It is a flowchart explaining the process which provides a photograph sticker creation game.

以下、本発明を実施するための形態について説明する。説明は以下の順序で行う。
1.合成処理について
2.写真シール機の構成と動作について
Hereinafter, modes for carrying out the present invention will be described. The description will be made in the following order.
1. 1. About the synthesis process About the structure and operation of the photo seal machine

<合成処理について>
[画像処理部の構成例]
図1は、画像処理部1001の構成例を示すブロック図である。図1の画像処理部1001が、後述する写真シール機1において実現される。
<About composition processing>
[Configuration example of image processing unit]
FIG. 1 is a block diagram illustrating a configuration example of the image processing unit 1001. The image processing unit 1001 in FIG. 1 is realized in the photo sticker 1 described later.

画像処理部1001は、撮影画像取得部1011、マスク画像生成部1012、合成部1013、および背景画像取得部1014により構成される。   The image processing unit 1001 includes a captured image acquisition unit 1011, a mask image generation unit 1012, a synthesis unit 1013, and a background image acquisition unit 1014.

撮影画像取得部1011は、カメラにより撮影された画像である撮影画像を取得する。図2はカメラによる撮影の様子を示す図であり、図2に示すように、パネルやカーテンなどを背景として、その壁面の前に立っている人物を撮影して得られた撮影画像が撮影画像取得部1011により取得される。   The captured image acquisition unit 1011 acquires a captured image that is an image captured by the camera. FIG. 2 is a view showing a state of shooting by a camera. As shown in FIG. 2, a shot image obtained by shooting a person standing in front of the wall with a panel or curtain as a background is a shot image. Acquired by the acquisition unit 1011.

図2の例においては2人の人物が撮影を行っている。撮影画像取得部1011により取得された画像には2人の人物が写り、2人の人物の背景の色は、2人の人物の後方にある背景カーテンの色と同じ色になる。背景カーテンは、例えば、緑色などの一色のカーテンである。このようにして撮影され、撮影画像取得部1011により取得された撮影画像はマスク画像生成部1012と合成部1013に供給される。   In the example of FIG. 2, two persons are shooting. In the image acquired by the captured image acquisition unit 1011, two persons are shown, and the background color of the two persons is the same as the color of the background curtain behind the two persons. The background curtain is, for example, a one-color curtain such as green. The captured image captured in this manner and acquired by the captured image acquisition unit 1011 is supplied to the mask image generation unit 1012 and the synthesis unit 1013.

マスク画像生成部1012は、撮影画像取得部1011から供給された撮影画像に基づいてマスク画像を生成し、合成部1013に出力する。マスク画像生成部1012が生成するマスク画像は、人物の部分を100%の透過率で透過させるとともに、撮影時に背景カーテンに投影された人物の影の部分を所定の透過率で透過させるマスク画像である。   The mask image generation unit 1012 generates a mask image based on the captured image supplied from the captured image acquisition unit 1011 and outputs the mask image to the synthesis unit 1013. The mask image generated by the mask image generation unit 1012 is a mask image that transmits the human part with a transmittance of 100% and transmits the shadow of the person projected on the background curtain at the time of shooting with a predetermined transmittance. is there.

合成部1013は、マスク画像生成部1012により生成されたマスク画像を用いて、撮影画像取得部1011から供給された撮影画像に写る人物の部分と影の部分とを抽出する。また、合成部1013は、撮影画像から抽出した人物の部分と影の部分を、背景画像取得部1014から供給された背景画像に合成することによって合成画像を生成する。   The synthesizing unit 1013 uses the mask image generated by the mask image generating unit 1012 to extract a person portion and a shadow portion that appear in the captured image supplied from the captured image acquisition unit 1011. The synthesizing unit 1013 generates a synthesized image by synthesizing the person portion and the shadow portion extracted from the captured image with the background image supplied from the background image acquiring unit 1014.

合成部1013による画像の合成は、撮影画像から抽出した部分を、背景画像取得部1014から供給された背景画像の上に重ねるようにして行われる。合成画像には、人物の影の部分も含まれることになる。   The composition of the image by the composition unit 1013 is performed such that the part extracted from the captured image is superimposed on the background image supplied from the background image acquisition unit 1014. The composite image includes a shadow portion of the person.

背景画像取得部1014は、白色などの所定の色の画像や、柄のある画像を取得し、背景画像として合成部1013に出力する。背景画像は、撮影画像のサイズ(画素数)と同じサイズの画像であり、予め用意されている。   The background image acquisition unit 1014 acquires an image of a predetermined color such as white or an image with a pattern, and outputs the acquired image as a background image to the synthesis unit 1013. The background image is an image having the same size as the size (number of pixels) of the photographed image, and is prepared in advance.

人物の影の部分を所定の透過率で抽出できるマスク画像を用いて合成を行うことによって、人物の影の部分を合成画像に含ませることができ、背景画像を実際に背景にして撮影したような、リアリティのある、自然な仕上がりの合成画像を作成することが可能になる。   By combining with a mask image that can extract the shadow part of the person with a predetermined transmittance, the shadow part of the person can be included in the composite image, and the background image is actually taken as the background It is possible to create a realistic and natural composite image.

[合成処理の第1の例]
図3は、画像処理部1001による合成処理の第1の例を示す図である。
[First example of composition processing]
FIG. 3 is a diagram illustrating a first example of the composition processing by the image processing unit 1001.

図3に示すように、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分が撮影画像から抽出され、抽出された人物の部分と影の部分が背景画像に合成されることによって合成画像が生成される。各画像について説明する。   As shown in FIG. 3, using a mask image generated based on a photographed image, a person part and a shadow part are extracted from the photographed image, and the extracted person part and shadow part are combined with a background image. As a result, a composite image is generated. Each image will be described.

図4は、図3の撮影画像を拡大して示す図である。撮影画像には2人の人物が写り、人物の輪郭より外側であって、人物の輪郭の近くには、ところどころに、撮影時に背景カーテンに投影した人物の影が写っている。図4において影を付して示すように、2人の人物の間や、それぞれの人物の足の間などに影が多く写ることになる。   FIG. 4 is an enlarged view of the captured image of FIG. The photographed image shows two persons, and outside the outline of the person and near the outline of the person, the shadow of the person projected on the background curtain at the time of shooting is shown in some places. As shown with shadows in FIG. 4, many shadows appear between two persons or between the legs of each person.

また、撮影画像のうち、人物の輪郭の外側の部分には背景カーテンが写る。背景カーテンが写る部分の色は、人物の影が映っている部分を除いて、背景カーテンの色と同じ色になる。図4において斜めの格子を付して示す部分は背景カーテンが写っている部分を示す。背景カーテンに投影する人物の影であるから、影の部分の色は、背景カーテンの色を若干暗めにしたような色になる。   In addition, a background curtain appears in a portion outside the outline of the person in the photographed image. The color of the part where the background curtain is reflected is the same color as the color of the background curtain except for the part where the shadow of the person is reflected. In FIG. 4, a portion indicated by an oblique grid indicates a portion where the background curtain is reflected. Since it is a shadow of a person projected on the background curtain, the color of the shadow portion is a color that is slightly darker than the color of the background curtain.

図5は、図3のマスク画像を拡大して示す図である。図4の撮影画像が撮影画像取得部1011により取得された場合、マスク画像生成部1012は、撮影画像のうち、背景カーテンの色と同じ色の部分と、背景カーテンの色を若干暗めにした色の部分と、それ以外の色の部分とを、各画素の画素値に基づいて検出する。   FIG. 5 is an enlarged view of the mask image of FIG. When the captured image of FIG. 4 is acquired by the captured image acquisition unit 1011, the mask image generation unit 1012 includes a portion of the captured image that has the same color as the color of the background curtain and a color in which the color of the background curtain is slightly darkened. And other color portions are detected based on the pixel value of each pixel.

マスク画像生成部1012は、背景カーテンの色と同じ色の部分の透過率を0%、背景カーテンの色を若干暗めにした色の部分の透過率を所定の透過率、それ以外の色の部分の透過率を100%とすることによって、図5に示すようなマスク画像を生成する。背景カーテンの色の部分と背景カーテンの色を若干暗めにした色の部分以外の部分は、人物が写る部分になる。   The mask image generation unit 1012 has a transmittance of 0% for the portion of the same color as the color of the background curtain, a transmittance of a portion where the color of the background curtain is slightly darkened, a predetermined transmittance, and a portion of the other colors By making the transmittance of 100% 100%, a mask image as shown in FIG. 5 is generated. The portions other than the color portion of the background curtain and the color portion where the color of the background curtain is slightly darker are portions where a person is reflected.

図5に示すマスク画像のうち、黒色の部分は、背景カーテンの色と同じ色の部分、すなわち透過率が0%である部分を表し、黒色と白色が混在している部分は、背景カーテンの色を若干暗めにした色の部分、すなわち透過率が所定の透過率である部分を表す。白色の部分(見え方によっては薄いチェック柄が付されているように見える部分)は、人物の部分、すなわち透過率が100%の部分を表す。   In the mask image shown in FIG. 5, the black portion represents the same color as the background curtain color, that is, the portion having a transmittance of 0%, and the black and white mixed portion represents the background curtain. The portion of the color where the color is slightly darkened, that is, the portion where the transmittance is a predetermined transmittance is shown. A white portion (a portion that appears to have a thin check pattern depending on how it is seen) represents a person portion, that is, a portion having a transmittance of 100%.

なお、マスク画像生成部1012は、撮影画像に写る背景カーテンの色の暗さに応じて、対応する部分の透過率を変えるようにしてマスク画像を生成する。より暗い背景カーテンの色が検出された部分、すなわち明度の小さい部分は、その明度に応じて透過率が大きくなり、より明るい背景カーテンの色が検出された部分、すなわち明度の大きい部分は、その明度に応じて透過率が小さくなる。   The mask image generation unit 1012 generates a mask image by changing the transmittance of the corresponding part according to the darkness of the color of the background curtain that appears in the captured image. The part where the color of the darker background curtain is detected, i.e., the part where the lightness is low, has a higher transmittance, and the part where the lighter background curtain color is detected, i.e., the part where the lightness is high, The transmittance decreases according to the brightness.

マスク画像生成部1012が生成するマスク画像のうちの、撮影画像において背景カーテンが写っている部分に対応する部分の透過率は、その全体が均一の透過率というわけではなく、部分的な明度の違いに応じて異なる透過率になることになる。例えば上方から照明を当てた状態で撮影画像の撮影が行われた場合、より明度の高い背景カーテンの色が検出された画像の上の方に対応する部分の透過率はより低くなるとともに、より明度の低い背景カーテンの色が検出された画像の下の方に対応する部分の透過率はより高くなり、結果として、マスク画像生成部1012が生成するマスク画像においては、上下で透過率が異なることになる。   Of the mask image generated by the mask image generation unit 1012, the transmittance of the portion corresponding to the portion where the background curtain is reflected in the captured image is not a uniform transmittance as a whole. Depending on the difference, the transmittance will be different. For example, when a photographed image is taken with illumination from above, the transmittance of the portion corresponding to the upper part of the image where the color of the background curtain with higher brightness is detected becomes lower and more The transmittance of the portion corresponding to the lower part of the image where the color of the background curtain with low lightness is detected is higher, and as a result, the transmittance is different in the upper and lower portions in the mask image generated by the mask image generation unit 1012. It will be.

このように、マスク画像の生成は、背景カーテンの色と同じ色が検出された部分の透過率を0%にするようにして行われる。従来のマスク画像の生成方法によれば、背景カーテンの色として検出する色の明度の幅が広く、これにより、透過率が0%になる部分が比較的広くなるのに対して、マスク画像生成部1012は明度の幅を狭くして背景カーテンの色と同じ色の部分の検出を行うため、従来の方法により生成されるマスク画像と較べて、透過率が0%になる部分が狭いマスク画像が生成される。   As described above, the mask image is generated by setting the transmittance of the portion where the same color as the background curtain color is detected to 0%. According to the conventional mask image generation method, the brightness range of the color to be detected as the background curtain color is wide, and the portion where the transmittance is 0% is relatively wide, whereas the mask image generation is Since the portion 1012 narrows the brightness and detects a portion having the same color as the color of the background curtain, the mask image in which the portion where the transmittance is 0% is narrower than the mask image generated by the conventional method. Is generated.

図6は、従来のマスク画像と、マスク画像生成部1012により生成されるマスク画像を示す図である。図6の左側は従来のマスク画像を表し、右側はマスク画像生成部1012により生成されるマスク画像を表す。   FIG. 6 is a diagram illustrating a conventional mask image and a mask image generated by the mask image generation unit 1012. The left side of FIG. 6 represents a conventional mask image, and the right side represents a mask image generated by the mask image generation unit 1012.

図6の左側に示すように、従来のマスク画像においては、人物の輪郭全体を囲む一定の幅の部分が所定の透過率を有する部分となるのに対して、マスク画像生成部1012により生成されるマスク画像においては、人物の輪郭より外側であって、実際に人物の影が写っていた部分が所定の透過率を有する部分になる。例えば、人物の下方に光が当たりにくい環境で撮影を行う場合、人物の特に下半身の周りには影が多く写り、その影の部分が所定の透過率を有するマスク画像が生成されることになる。   As shown on the left side of FIG. 6, in a conventional mask image, a portion having a certain width that surrounds the entire contour of a person is a portion having a predetermined transmittance, but is generated by a mask image generation unit 1012. In the mask image, the portion outside the outline of the person and where the shadow of the person is actually reflected becomes a portion having a predetermined transmittance. For example, when shooting is performed in an environment where it is difficult for light to hit under a person, a shadow image is generated around the lower body of the person, and a mask image in which the shadow portion has a predetermined transmittance is generated. .

図7は、図3の合成画像を拡大して示す図である。合成部1013は、図5のマスク画像を用いることによって、人物が写っている部分と、実際に背景カーテンに投影された人物の影が写っている部分とを撮影画像から抽出し、抽出した画像を、背景画像取得部1014から供給された背景画像に合成することによって図7の合成画像を生成する。   FIG. 7 is an enlarged view of the composite image of FIG. The synthesizing unit 1013 uses the mask image of FIG. 5 to extract a portion where a person is reflected and a portion where a shadow of the person actually projected on the background curtain is captured from the captured image, and the extracted image Is combined with the background image supplied from the background image acquisition unit 1014 to generate the combined image of FIG.

合成部1013は、撮影画像から抽出した人物の部分と影の部分とを背景画像に重ねて合成を行う。影の部分は所定の透過率を有する形で撮影画像から抽出されているから、合成画像のうちの影の部分の画素値は、撮影画像から抽出された影の部分の画素の画素値と、背景画像の対応する画素の画素値とを透過率に応じて混合した画素値となる。   The synthesizing unit 1013 performs synthesis by superimposing the person portion and the shadow portion extracted from the photographed image on the background image. Since the shadow part is extracted from the photographed image in a form having a predetermined transmittance, the pixel value of the shadow part of the composite image is the pixel value of the pixel of the shadow part extracted from the photographed image, It becomes a pixel value obtained by mixing the pixel value of the corresponding pixel of the background image in accordance with the transmittance.

図7に示すように、合成画像には、マスク画像を用いることによって撮影画像から抽出された2人の人物と、撮影時に背景カーテンに投影した2人の影が写る。また、人物と影の部分以外の部分は背景画像の色の部分になる。図7において、人物の背景となる白色の部分は、その部分が背景画像の色の部分であることを表す。   As shown in FIG. 7, the composite image includes two persons extracted from the captured image by using the mask image and two shadows projected on the background curtain at the time of capturing. Further, the part other than the person and the shadow part is the color part of the background image. In FIG. 7, the white portion that is the background of the person represents that the portion is the color portion of the background image.

以上のようにして生成したマスク画像を用いることによって、人物が写っている部分と、実際に背景カーテンに投影された人物の影の部分とを撮影画像から抽出することが可能になる。また、撮影画像における影の写り方によっては半透明領域(所定の透過率を有する領域)が増えることになり、これにより、背景と人物との境界が滑らかになじんだ状態の合成画像を得ることが可能になる。   By using the mask image generated as described above, it is possible to extract from the photographed image a portion where the person is reflected and a shadow portion of the person actually projected onto the background curtain. Also, depending on how shadows appear in the captured image, the number of semi-transparent areas (areas with a predetermined transmittance) will increase, thereby obtaining a composite image in which the boundary between the background and the person is smoothly blended. Is possible.

さらに、背景画像に人物の影が写り込んだリアリティのある合成画像を生成することが可能になる。   Furthermore, it is possible to generate a realistic composite image in which a person's shadow is reflected in the background image.

[合成処理の第2の例]
図8は、画像処理部1001による合成処理の第2の例を示す図である。図8の合成処理においては、マスク画像を用いて人物の部分と影の部分を抽出し、他の画像に合成する処理が2回繰り返される。
[Second example of composition processing]
FIG. 8 is a diagram illustrating a second example of the composition processing by the image processing unit 1001. In the combining process of FIG. 8, the process of extracting a person part and a shadow part using a mask image and combining them with another image is repeated twice.

図8の上段に示す1段目の合成処理は、図3に示す合成処理と同じ処理である。図3に示す合成処理によって得られた合成画像を合成画像Aとする。   The first-stage synthesis process shown in the upper part of FIG. 8 is the same process as the synthesis process shown in FIG. A combined image obtained by the combining process shown in FIG.

図8の合成処理によって合成画像を生成する場合、合成部1013は、矢印#1の先に示すように、2段目の合成処理として、撮影画像からではなく合成画像Aから、人物の部分と影の部分をマスク画像を用いて抽出する。2段目の合成処理に用いられるマスク画像は1段目の合成処理に用いられるマスク画像と同じ画像である。また、2段目の合成処理に用いられる背景画像は1段目の合成処理に用いられる背景画像と同じ画像である。   When the composite image is generated by the composite processing in FIG. 8, the composite unit 1013 performs the second-stage composite processing from the composite image A instead of the photographed image, A shadow portion is extracted using a mask image. The mask image used for the second stage compositing process is the same image as the mask image used for the first stage compositing process. Further, the background image used for the second-stage composition process is the same image as the background image used for the first-stage composition process.

合成部1013は、1段目の合成処理に用いたマスク画像と同じマスク画像を用いて合成画像Aから抽出した人物の部分と影の部分を背景画像に再度合成し、合成画像Bを生成する。   The synthesizing unit 1013 again synthesizes the person portion and the shadow portion extracted from the synthesized image A using the same mask image as the mask image used in the first-stage synthesis process, and generates the synthesized image B. .

図3に示す合成処理の場合、合成画像に写る影の部分の色は、背景カーテンの色を若干暗めにした色と背景画像を混合した色になる。例えば影の部分の色が暗めの緑色であり、背景画像の色が赤色であるといったように、撮影画像から抽出された影の部分の色が、背景画像の色と同じ色の背景の前に立って撮影した場合に写る影の色と違う色である場合、合成画像に写る影が違和感のある影に見えてしまう。   In the case of the composition process shown in FIG. 3, the color of the shadow portion that appears in the composite image is a color obtained by mixing the background curtain color with a slightly darker background curtain color. For example, the color of the shadow part extracted from the photographed image is in front of the background with the same color as the background image color, such as the shadow part color is dark green and the background image color is red. If the color is different from the color of the shadow that appears when shooting while standing, the shadow that appears in the composite image will appear to be an uncomfortable shadow.

図8に示すように、1段目の合成処理によって合成画像Aを生成した後、マスク画像を用いて人物の部分と影の部分を合成画像Aから抽出し、背景画像に再度合成することにより、合成画像Bに写る影の色を、違和感のない色にすることが可能になる。   As shown in FIG. 8, after the composite image A is generated by the first-stage composite processing, a human part and a shadow part are extracted from the composite image A using the mask image and composited with the background image again. Thus, it is possible to make the color of the shadow appearing in the composite image B a color that does not cause a sense of incongruity.

以下、適宜、図8に示すように画像の合成を2回繰り返す合成処理を2段階合成処理という。   Hereinafter, the combination process in which the image combination is repeated twice as shown in FIG. 8 is referred to as a two-step combination process.

[合成処理の第3の例]
図9は、画像処理部1001による合成処理の第3の例を示す図である。図9の合成処理においては、2段目の合成処理に用いる背景画像と異なる画像が、1段目の合成処理時に背景画像として用いられる。
[Third example of composition processing]
FIG. 9 is a diagram illustrating a third example of the composition processing by the image processing unit 1001. In the composition process of FIG. 9, an image different from the background image used for the second-stage composition process is used as the background image during the first-stage composition process.

図9の合成処理によって合成画像を生成する場合、背景画像取得部1014は、背景画像と、その背景画像に対応する影色背景画像を取得し、合成部1013に出力する。影色背景画像は、例えば背景画像の色と同じ色の平面の前に立って撮影した場合に写る影の色として想定される色の画像であり、背景画像と対応付けて背景画像取得部1014により予め管理されている。影色背景画像の色は、背景カーテンの色とは異なる色であり、例えば、背景画像の色を若干暗めにした色である。図9の影色背景画像や合成画像において垂直水平方向の格子を付して示す部分の色は、影色背景画像の色と同じ色の部分を表す。   When a composite image is generated by the composite processing in FIG. 9, the background image acquisition unit 1014 acquires a background image and a shadow color background image corresponding to the background image, and outputs the background image to the composition unit 1013. The shadow color background image is, for example, an image of a color assumed as a shadow color that appears when standing in front of a plane of the same color as the color of the background image, and is associated with the background image to obtain a background image acquisition unit 1014. Are managed in advance. The color of the shadow color background image is a color different from the color of the background curtain. For example, the color of the background image is slightly darkened. In the shadow color background image and the composite image in FIG. 9, the color of the portion indicated by the vertical and horizontal grids represents the same color as the color of the shadow color background image.

図9の上段に示す1段目の合成処理は、背景画像の代わりに影色背景画像を用いる点を除いて、図8の1段目の合成処理と同じ処理である。   The first stage compositing process shown in the upper part of FIG. 9 is the same as the first stage compositing process of FIG. 8 except that a shadow color background image is used instead of the background image.

合成部1013は、1段目の合成処理として、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分を撮影画像から抽出し、抽出した人物の部分と影の部分を影色背景画像に合成することによって合成画像Cを生成する。合成画像Cに写る影の部分の色は、撮影画像から抽出された影の部分の色と、影色背景画像の色とを混合した色になる。   As the first-stage composition processing, the composition unit 1013 extracts a person part and a shadow part from the photographed image using a mask image generated based on the photographed image, and extracts the extracted person part and shadow part. Is combined with the shadow color background image to generate a composite image C. The color of the shadow portion shown in the composite image C is a color obtained by mixing the color of the shadow portion extracted from the photographed image and the color of the shadow color background image.

また、合成部1013は、矢印#11の先に示すように、2段目の合成処理として、合成画像Cから、人物の部分と影の部分をマスク画像を用いて抽出する。合成部1013は、1段目の合成処理に用いたマスク画像と同じマスク画像を用いて合成画像Cから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Dを生成する。   In addition, as indicated by the tip of arrow # 11, the synthesizing unit 1013 extracts a human part and a shadow part from the synthetic image C using a mask image as the second-stage synthesizing process. The synthesizing unit 1013 synthesizes the person portion and the shadow portion extracted from the synthesized image C using the same mask image as the mask image used for the first-stage synthesizing process, and generates a synthesized image D.

このように、背景画像に適した色の画像を影色背景画像として用意しておき、人物の影の色として背景画像の色ではなく影色背景画像の色を用いることにより、合成画像Dに写る影の色を、背景画像の色に対して違和感のない色にすることが可能になる。   In this way, an image of a color suitable for the background image is prepared as a shadow color background image, and the color of the shadow color background image is used as the shadow color of the person instead of the color of the background image. It is possible to make the color of the shadow appearing a color that does not feel uncomfortable with the color of the background image.

例えば、背景画像がピンク色である場合、その背景画像に対して、撮影画像から抽出した灰色の影の部分を合成したときには影の部分が汚れに見えてしまうが、赤色や茶色などの、ピンク色を暗めにした色の画像を影色背景画像として用いることによって、ピンク色の背景画像に合成したときに違和感のない、赤色や茶色の影を背景画像に写り込ませることが可能になる。   For example, if the background image is pink, when the gray shadow part extracted from the photographed image is combined with the background image, the shadow part looks dirty, but the red or brown or other pink By using a dark color image as a shadow color background image, it is possible to cause a red or brown shadow to appear in the background image without any sense of incongruity when it is combined with a pink background image.

[合成処理の第4の例]
撮影モードに応じて影色背景画像の色を変えるようにしてもよい。
[Fourth Example of Composition Processing]
You may make it change the color of a shadow color background image according to imaging | photography mode.

例えば、逆光の雰囲気の画像を撮影するモードである逆光モードと、順光の雰囲気の画像を撮影するモードである順光モードが撮影モードとして用意されているものとする。被写体としての利用者(後述する写真シール機1の利用者)は、逆光モードと順光モードのうちのいずれかのモードを選択し、撮影を行うことになる。   For example, it is assumed that a backlight mode, which is a mode for capturing an image with a backlight atmosphere, and a backlight mode, which is a mode for capturing an image with a backlight environment, are prepared as shooting modes. A user as a subject (a user of the photo sticker 1 described later) selects one of the backlight mode and the follow light mode and performs photographing.

例えば、逆光モードが選択された場合、影色背景画像として、順光モードが選択された場合に用いられる影色背景画像と同系色であるが、明るめの色の画像が選択され、図9を参照して説明した1段目の合成処理が行われる。   For example, when the backlight mode is selected, a shadow color background image similar to the shadow color background image used when the follow light mode is selected, but a lighter color image is selected. The first-stage synthesis process described with reference to the reference is performed.

また、順光モードが選択された場合、影色背景画像として、逆光モードが選択された場合に用いられる影色背景画像と同系色であるが、暗めの色の画像が選択され、図9を参照して説明した1段目の合成処理が行われる。   Further, when the follow light mode is selected, an image having a color similar to that of the shadow color background image used when the backlight mode is selected as the shadow color background image but having a dark color is selected. The first-stage synthesis process described with reference to the reference is performed.

例えば、背景画像がピンク色であるとすると、順光モードにおいては、暗めの茶色の影色背景画像が用いられ、逆光モードにおいては、明るめの赤色の影色背景画像が用いられる。背景画像取得部1014は、このような影色背景画像を撮影モードに応じて取得し、合成部1013に出力する。   For example, if the background image is pink, a dark brown shadow background image is used in the follow light mode, and a bright red shadow background image is used in the backlight mode. The background image acquisition unit 1014 acquires such a shadow color background image according to the shooting mode, and outputs it to the synthesis unit 1013.

2段目の合成処理を行って最終的に得られる合成画像に写る影の部分の色は、逆光モードである場合には明るめの色になり、順光モードである場合には暗めの色になる。   The color of the shadow portion that appears in the composite image that is finally obtained by performing the second-stage compositing process is a bright color when in the backlight mode, and a dark color when in the follow light mode. Become.

これにより、逆光で撮影したときに写る影や、順光で撮影したときに写る影を表現することができ、リアリティのある合成画像を生成することが可能になる。   As a result, it is possible to express a shadow that appears when shooting with backlight and a shadow that appears when shooting with direct light, and it is possible to generate a realistic composite image.

[合成処理の第5の例]
図10は、画像処理部1001による合成処理の第5の例を示す図である。図10の合成処理においては、2段目の合成処理に用いるマスク画像と異なるマスク画像を用いて1段目の合成処理が行われる。
[Fifth example of composition processing]
FIG. 10 is a diagram illustrating a fifth example of the composition processing by the image processing unit 1001. In the synthesis process of FIG. 10, the first-stage synthesis process is performed using a mask image different from the mask image used for the second-stage synthesis process.

図10の合成処理によって合成画像を生成する場合、マスク画像生成部1012は、撮影画像の画素値に基づいて、背景カーテンと同じ色の部分と、それ以外の色の部分とを検出する。   When the composite image is generated by the composite processing in FIG. 10, the mask image generation unit 1012 detects the same color portion as the background curtain and the other color portions based on the pixel values of the captured image.

マスク画像生成部1012は、背景カーテンと同じ色の部分以外の部分を人物の部分として、人物の部分を100%の透過率で透過させるとともに、例えば人物の輪郭に沿って人物の周囲全体の一定の幅の部分を所定の透過率で透過させるマスク画像を生成する。背景カーテンが写る部分の透過率は0%になる。以下、適宜、人物の部分の透過率が100%、人物の輪郭に沿って確保される一定の幅の部分の透過率が所定の透過率、背景カーテンの部分の透過率が0%のマスク画像を従来のマスク画像という。   The mask image generation unit 1012 allows a portion other than the same color portion as the background curtain to be a portion of a person, transmits the portion of the person with a transmittance of 100%, and, for example, constants the entire periphery of the person along the outline of the person A mask image that transmits a portion having a predetermined width with a predetermined transmittance is generated. The transmittance of the portion where the background curtain is reflected is 0%. Hereinafter, as appropriate, a mask image in which the transmittance of the person portion is 100%, the transmittance of a certain width portion secured along the contour of the person is a predetermined transmittance, and the transmittance of the background curtain portion is 0%. Is called a conventional mask image.

図10の上段に示す1段目の合成処理は、画像の抽出に用いるマスク画像が異なる点を除いて、図9の1段目の合成処理と同じ処理である。   The first stage compositing process shown in the upper part of FIG. 10 is the same as the first stage compositing process of FIG. 9 except that the mask image used for image extraction is different.

合成部1013は、1段目の合成処理として、撮影画像に基づいて生成された従来のマスク画像を用いて、人物の部分と人物の周りの部分を撮影画像から抽出し、抽出した人物の部分と人物の周りの部分を影色背景画像に合成することによって合成画像Eを生成する。合成画像Eに写る人物の周りの部分の色は、撮影画像から抽出された人物の周りの部分の色と、影色背景画像の色とを混合した色になる。   The composition unit 1013 uses a conventional mask image generated based on the photographed image as a first-stage composition process, and extracts a person part and a part around the person from the photographed image. The synthesized image E is generated by synthesizing the portion around the person with the shadow color background image. The color of the portion around the person shown in the composite image E is a color obtained by mixing the color of the portion around the person extracted from the photographed image and the color of the shadow color background image.

また、合成部1013は、矢印#21の先に示すように、2段目の合成処理として、合成画像Eから、人物の部分と影の部分をマスク画像(図9のマスク画像と同じマスク画像)を用いて抽出する。合成部1013は、1段目の合成処理に用いた従来のマスク画像と異なるマスク画像を用いて合成画像Eから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Fを生成する。   Further, as indicated by the tip of arrow # 21, the synthesizing unit 1013 performs a mask image (the same mask image as the mask image in FIG. 9) from the synthesized image E as a second-stage synthesizing process. ) To extract. The synthesizing unit 1013 synthesizes the person portion and the shadow portion extracted from the synthesized image E using a different mask image from the conventional mask image used in the first-stage synthesis process, and generates a synthesized image F. To do.

従来のマスク画像は、人物の周りの部分を所定の透過率で透過させるものであるため、合成画像Eに写る人物の周りの色には影色背景画像の色が含まれる。合成画像Eから人物の部分と影の部分とをマスク画像を用いて抽出し、背景画像に合成することによっても、背景画像の色に適した色の影を背景画像に写り込ませることが可能になる。   Since the conventional mask image transmits a portion around the person with a predetermined transmittance, the color around the person shown in the composite image E includes the color of the shadow color background image. By extracting the human part and the shadow part from the composite image E using the mask image and combining it with the background image, it is possible to incorporate a shadow of a color suitable for the color of the background image into the background image. become.

[合成処理の第6の例]
図11は、画像処理部1001による合成処理の第6の例を示す図である。図11の合成処理においては、1段目の合成処理と2段目の合成処理の間に、影の色を調整する処理が行われる。
[Sixth example of composition processing]
FIG. 11 is a diagram illustrating a sixth example of the composition process performed by the image processing unit 1001. In the composition process of FIG. 11, a process for adjusting the shadow color is performed between the first-stage composition process and the second-stage composition process.

図8の1段目の合成処理と2段目の合成処理の間に影の色を調整する場合について説明するが、図9、図10の2段階合成処理においても、同様の処理を、1段目の合成処理と2段目の合成処理の間に行うようにすることが可能である。   Although the case where the shadow color is adjusted between the first-stage composition process and the second-stage composition process in FIG. 8 will be described, the same process is also performed in the two-stage composition process in FIGS. It is possible to perform the process between the stage synthesis process and the second stage synthesis process.

図11の合成処理によって合成画像を生成する場合、マスク画像生成部1012は、撮影画像に基づいて生成したマスク画像の白領域と黒領域を反転させることによって、図11に示すような背景マスク画像を生成する。   When generating a combined image by the combining process of FIG. 11, the mask image generating unit 1012 reverses the white area and the black area of the mask image generated based on the captured image, so that the background mask image as illustrated in FIG. 11 is obtained. Is generated.

合成部1013は、図8の1段目の合成処理が終了した後、1段目の合成処理によって得られた合成画像Aから、背景の部分(人物以外の部分)を背景マスク画像に基づいて抽出する。合成部1013は、抽出した背景の部分の色を調整し、色を調整した背景の部分と人物の部分とを合成することによって、合成画像A’を生成する。背景マスク画像を用いて抽出した人物の部分以外の背景の部分の色を調整することは、人物の影の部分の色をも調整することになる。   The synthesis unit 1013 completes the background portion (the portion other than the person) based on the background mask image from the synthesized image A obtained by the first-stage synthesis processing after the first-stage synthesis processing in FIG. Extract. The synthesizing unit 1013 adjusts the color of the extracted background part, and synthesizes the background part and the person part whose color has been adjusted, thereby generating a composite image A ′. Adjusting the color of the background portion other than the person portion extracted using the background mask image also adjusts the color of the shadow portion of the person.

背景の部分の色の調整は、色相、彩度、明度のうちの少なくともいずれかを調整するようにして行われる。背景の部分の色をどのように調整するのかは、例えば背景画像に対応付けて予め決められており、背景画像の色と同じ色の平面に写る影の色として適した色になるような調整が行われる。合成部1013は、合成画像A’を合成画像Aとして用いて、図8の2段目の合成処理を行う。   Adjustment of the color of the background portion is performed by adjusting at least one of hue, saturation, and brightness. How to adjust the color of the background portion is determined in advance in association with the background image, for example, and is adjusted so that the color is suitable as a shadow color on the same color plane as the background image color. Is done. The synthesizing unit 1013 performs the second-stage synthesizing process in FIG.

このように、1段目の合成処理の合成結果から抽出した背景の部分の色相・彩度・明度を調整してから2段目の合成処理を行うことによっても、適した色の影を背景画像に写り込ませることが可能になる。   As described above, by adjusting the hue, saturation, and brightness of the background portion extracted from the synthesis result of the first-stage synthesis process, the second-stage synthesis process can also be performed to obtain a suitable color shadow. It can be reflected in the image.

[合成処理の第7の例]
2段目の合成処理に使用するマスク画像として、1段目の合成処理に使用したマスク画像を加工したマスク画像を使用するようにしてもよい。マスク画像の加工には次の処理が含まれる。
1.トーンカーブを用いたコントラスト調整
2.ぼかし処理
3.影の部分を対象としたぼかし処理
4.トーンカーブを用いたコントラスト調整とぼかし処理
5.トーンカーブを用いたコントラスト調整と影の部分を対象としたぼかし処理
[Seventh example of composition processing]
A mask image obtained by processing the mask image used for the first-stage compositing process may be used as the mask image used for the second-stage compositing process. The processing of the mask image includes the following processing.
1. 1. Contrast adjustment using tone curve 2. Blur processing 3. Blur processing for shadows 4. Contrast adjustment and blurring using tone curve Contrast adjustment using tone curves and blurring for shadows

1.トーンカーブを用いたコントラスト調整
図12は、2段目の合成処理に使用するマスク画像として、1段目の合成処理に使用したマスク画像のコントラストを調整して得られたマスク画像を使用する場合の2段階合成処理の例を示す図である。図12の処理は、2段目の合成処理に使用するマスク画像が異なる点を除いて図9の処理と同様である。
1. FIG. 12 shows a case where a mask image obtained by adjusting the contrast of the mask image used in the first-stage compositing process is used as the mask image used in the second-stage compositing process. It is a figure which shows the example of 2 step | paragraph synthetic | combination processes. The process of FIG. 12 is the same as the process of FIG. 9 except that the mask image used for the second-stage compositing process is different.

すなわち、合成部1013は、1段目の合成処理として、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分を撮影画像から抽出し、抽出した人物の部分と影の部分を影色背景画像に合成することによって合成画像Cを生成する。   In other words, as the first-stage composition processing, the composition unit 1013 extracts a person part and a shadow part from the photographed image using a mask image generated based on the photographed image, and extracts the extracted person part and shadow. Is combined with the shadow color background image to generate a composite image C.

マスク画像生成部1012は、矢印#31に示すように、1段目の合成処理に使用したマスク画像のコントラストを調整することによってマスク画像MA1を生成する。マスク画像MA1は、例えば、1段目の合成処理に使用したマスク画像と較べて、所定の透過率を有する部分、すなわち影の部分の面積が異なる画像であったり、各位置の透過率が異なる画像である。   The mask image generation unit 1012 generates the mask image MA1 by adjusting the contrast of the mask image used for the first-stage compositing process, as indicated by arrow # 31. The mask image MA1 is, for example, an image in which the area of a predetermined transmittance, that is, a shadow portion is different from that of the mask image used in the first-stage composition process, or the transmittance at each position is different. It is an image.

合成部1013は、矢印#32の先に示すように、2段目の合成処理として、合成画像Cから、人物の部分と影の部分をマスク画像MA1を用いて抽出する。合成部1013は、マスク画像MA1を用いて合成画像Cから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Gを生成する。   As indicated by the tip of arrow # 32, the synthesizing unit 1013 extracts a human part and a shadow part from the synthesized image C using the mask image MA1 as the second stage synthesizing process. The synthesizing unit 1013 synthesizes the person portion and the shadow portion extracted from the synthesized image C using the mask image MA1 with the background image to generate a synthesized image G.

マスク画像のコントラストを調整することによって影の濃さや広がりを調整することができ、例えば影の存在が目立つ合成画像を生成することが可能になる。   By adjusting the contrast of the mask image, the darkness and spread of the shadow can be adjusted. For example, it is possible to generate a composite image in which the presence of the shadow is conspicuous.

2.ぼかし処理
図13は、2段目の合成処理に使用するマスク画像として、1段目の合成処理に使用したマスク画像にぼかし処理を行うことによって得られたマスク画像を使用する場合の2段階合成処理の例を示す図である。図13の処理も、2段目の合成処理に使用するマスク画像が異なる点を除いて図9の処理と同様である。
2. Blur Processing FIG. 13 shows a two-stage composition when a mask image obtained by performing a blur process on the mask image used in the first-stage composition process is used as the mask image used in the second-stage composition process. It is a figure which shows the example of a process. The process of FIG. 13 is the same as the process of FIG. 9 except that the mask image used for the second-stage compositing process is different.

すなわち、合成部1013は、1段目の合成処理として、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分を撮影画像から抽出し、抽出した人物の部分と影の部分を影色背景画像に合成することによって合成画像Cを生成する。   In other words, as the first-stage composition processing, the composition unit 1013 extracts a person part and a shadow part from the photographed image using a mask image generated based on the photographed image, and extracts the extracted person part and shadow. Is combined with the shadow color background image to generate a composite image C.

マスク画像生成部1012は、矢印#41に示すように、1段目の合成処理に使用したマスク画像を対象としてぼかし処理を行い、マスク画像MA2を生成する。マスク画像MA2は、例えば、1段目の合成処理に使用したマスク画像と較べて、人物の輪郭と影の輪郭がぼけた(コントラストが低い)画像である。   The mask image generation unit 1012 performs a blurring process on the mask image used in the first-stage compositing process as shown by an arrow # 41, and generates a mask image MA2. The mask image MA2 is, for example, an image in which the outline of the person and the outline of the shadow are blurred (contrast is low) compared to the mask image used in the first-stage composition process.

合成部1013は、矢印#42の先に示すように、2段目の合成処理として、合成画像Cから、人物の部分と影の部分をマスク画像MA2を用いて抽出する。合成部1013は、マスク画像MA2を用いて合成画像Cから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Hを生成する。   As indicated by the tip of arrow # 42, the synthesizing unit 1013 extracts a human part and a shadow part from the synthesized image C using the mask image MA2 as the second stage synthesizing process. The synthesizing unit 1013 synthesizes the person portion and the shadow portion extracted from the synthesized image C using the mask image MA2 with the background image to generate a synthesized image H.

これにより、マスク画像に含まれるノイズを除去することができ、滑らかな影を合成画像Cから抽出し、背景画像に合成することができる。また、人物の輪郭と影をぼかすことによって、柔らかい雰囲気の合成画像を生成することができる。   Thereby, noise included in the mask image can be removed, and a smooth shadow can be extracted from the composite image C and combined with the background image. Also, a soft atmosphere composite image can be generated by blurring the outline and shadow of a person.

3.影の部分を対象としたぼかし処理
図14は、マスク画像の加工の例を示す図である。図14の処理により、図13に示すようにしてマスク画像全体をぼかすのとは異なり、人物の輪郭を残しつつ、影の部分のみをぼかすことが可能になる。
3. Blur Processing for Shadow Part FIG. 14 is a diagram illustrating an example of mask image processing. The process of FIG. 14 makes it possible to blur only the shadow portion while leaving the outline of the person, unlike blurring the entire mask image as shown in FIG.

はじめに、マスク画像生成部1012は、矢印#51に示すように、1段目の合成処理に使用したマスク画像を対象としてぼかし処理を行うことによって、人物の輪郭と影の輪郭がぼけた画像であるマスク画像MA2を生成する。図14のマスク画像MA2は、図13のマスク画像MA2と同じ画像である。   First, as shown by an arrow # 51, the mask image generation unit 1012 performs blurring processing on the mask image used in the first-stage composition processing, thereby blurring the outline of the person and the shadow. A certain mask image MA2 is generated. The mask image MA2 in FIG. 14 is the same image as the mask image MA2 in FIG.

また、マスク画像生成部1012は、矢印#52に示すように、1段目の合成処理に使用したマスク画像と、マスク画像MA2との差(差の絶対値)を求め、差分画像を生成する。矢印#52の先に示す差分画像のうち、黒色の部分は、1段目の合成処理に使用したマスク画像とマスク画像MA2との差がない部分を表し、白色の部分は差がある部分を表す。   Further, as indicated by arrow # 52, the mask image generation unit 1012 obtains a difference (absolute value) between the mask image used in the first-stage compositing process and the mask image MA2, and generates a difference image. . Of the difference image shown at the tip of arrow # 52, the black portion represents a portion where there is no difference between the mask image used in the first-stage compositing process and the mask image MA2, and the white portion represents a portion where there is a difference. Represent.

マスク画像生成部1012は、矢印#53,#54,#55の先に示すように、1段目の合成処理に使用したマスク画像と差分画像とマスク画像MA2に基づいてマスク画像MA3を生成する。例えば、マスク画像生成部1012は、1段目の合成処理に使用したマスク画像に含まれる人物の輪郭を差分画像を用いて抽出し、抽出した輪郭をマスク画像MA2に合成することによってマスク画像MA3を生成する。   The mask image generation unit 1012 generates a mask image MA3 based on the mask image, the difference image, and the mask image MA2 used for the first-stage composition process, as indicated by arrows # 53, # 54, and # 55. . For example, the mask image generation unit 1012 extracts the contour of the person included in the mask image used in the first-stage composition process using the difference image, and synthesizes the extracted contour with the mask image MA2, thereby mask image MA3. Is generated.

マスク画像MA3は、人物の輪郭がマスク画像MA2よりはっきりとしているが、影の輪郭がマスク画像MA2の影の輪郭と同様にぼけた画像になる。合成部1013は、このようにしてマスク画像生成部1012により生成されたマスク画像MA3を用いて、図13の2段目の合成処理を行うことになる。   In the mask image MA3, the outline of the person is clearer than that of the mask image MA2, but the shadow outline is blurred as with the shadow outline of the mask image MA2. The synthesizing unit 1013 performs the second stage synthesizing process of FIG. 13 using the mask image MA3 generated by the mask image generating unit 1012 in this way.

これにより、マスク画像に含まれるノイズを除去することができ、滑らかな影を抽出し、背景画像に合成することができる。また、影のみをぼかすことによって、人物の輪郭ははっきりとしつつも、影のみが柔らかい雰囲気の合成画像を生成することができる。   Thereby, noise included in the mask image can be removed, and a smooth shadow can be extracted and synthesized with the background image. Also, by blurring only the shadow, it is possible to generate a composite image in which the outline of the person is clear but the shadow is soft.

4.トーンカーブを用いたコントラスト調整とぼかし処理
図15は、2段目の合成処理に使用するマスク画像として、1段目の合成処理に使用したマスク画像のコントラストを調整した後、さらにぼかし処理を行って得られたマスク画像を使用する場合の2段階合成処理の例を示す図である。図15の処理も、2段目の合成処理に使用するマスク画像が異なる点を除いて図9の処理と同様である。
4). Contrast adjustment and blurring process using tone curve Fig. 15 shows the mask image used for the second stage compositing process. After adjusting the contrast of the mask image used for the first stage compositing process, further blurring process is performed. It is a figure which shows the example of a 2 step | paragraph synthetic | combination process in the case of using the mask image obtained by this. The process of FIG. 15 is the same as the process of FIG. 9 except that the mask image used for the second-stage compositing process is different.

合成部1013は、1段目の合成処理として、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分を撮影画像から抽出し、抽出した人物の部分と影の部分を影色背景画像に合成することによって合成画像Cを生成する。   As the first-stage composition processing, the composition unit 1013 extracts a person part and a shadow part from the photographed image using a mask image generated based on the photographed image, and extracts the extracted person part and shadow part. Is combined with the shadow color background image to generate a composite image C.

マスク画像生成部1012は、矢印#61に示すように、1段目の合成処理に使用したマスク画像のコントラストを調整し、さらに、ぼかし処理を行うことによってマスク画像MA4を生成する。マスク画像MA4は、例えば、1段目の合成処理に使用したマスク画像と較べて、所定の透過率を有する部分、すなわち影の部分の面積が異なる画像であったり、各位置の透過率が異なる画像である。また、マスク画像MA4は、1段目の合成処理に使用したマスク画像と較べて、人物の輪郭と影の輪郭がぼけた画像である。   The mask image generation unit 1012 generates the mask image MA4 by adjusting the contrast of the mask image used for the first-stage compositing process and performing the blurring process as indicated by an arrow # 61. The mask image MA4 is, for example, an image in which the area of a predetermined transmittance, that is, a shadow portion is different from that of the mask image used in the first-stage compositing process, or the transmittance at each position is different. It is an image. Further, the mask image MA4 is an image in which the outline of the person and the outline of the shadow are blurred as compared with the mask image used in the first-stage composition process.

合成部1013は、矢印#62の先に示すように、2段目の合成処理として、合成画像Cから、人物の部分と影の部分をマスク画像MA4を用いて抽出する。合成部1013は、マスク画像MA4を用いて合成画像Cから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Iを生成する。   As indicated by the tip of arrow # 62, the synthesizer 1013 extracts a human part and a shadow part from the synthesized image C using the mask image MA4 as the second-stage synthesize process. The synthesizing unit 1013 synthesizes the person portion and the shadow portion extracted from the synthesized image C using the mask image MA4 with the background image to generate a synthesized image I.

マスク画像のコントラストを調整することにより影の濃さや広がりを調整することができ、例えば影の存在が目立つ合成画像を生成することが可能になる。また、マスク画像に含まれるノイズを除去することができ、滑らかな影を抽出し、背景画像に合成することができる。   By adjusting the contrast of the mask image, the darkness and spread of the shadow can be adjusted. For example, it is possible to generate a composite image in which the presence of the shadow is conspicuous. Further, noise included in the mask image can be removed, and a smooth shadow can be extracted and combined with the background image.

5.トーンカーブを用いたコントラスト調整と影の部分を対象としたぼかし処理
図16は、マスク画像の加工の例を示す図である。
5. FIG. 16 is a diagram illustrating an example of mask image processing. FIG. 16 is a diagram illustrating an example of mask image processing.

はじめに、マスク画像生成部1012は、1段目の合成処理に使用したマスク画像のコントラストを調整することによって生成したマスク画像MA1を対象としてぼかし処理を行い、矢印#71に示すように、人物の輪郭と影の輪郭がぼけた画像であるマスク画像MA4を生成する。図16のマスク画像MA1は、1段目の合成処理に使用したマスク画像のコントラストを調整することによって生成された、図12のマスク画像MA1と同じ画像である。また、図16のマスク画像MA4は図15のマスク画像MA4と同じ画像である。   First, the mask image generation unit 1012 performs a blurring process on the mask image MA1 generated by adjusting the contrast of the mask image used in the first-stage compositing process, and as shown by an arrow # 71, A mask image MA4 that is an image in which the contour and the contour of the shadow are blurred is generated. The mask image MA1 in FIG. 16 is the same image as the mask image MA1 in FIG. 12 generated by adjusting the contrast of the mask image used in the first-stage compositing process. Further, the mask image MA4 in FIG. 16 is the same image as the mask image MA4 in FIG.

また、マスク画像生成部1012は、矢印#72に示すように、マスク画像MA1とマスク画像MA4との差を表す差分画像を生成する。矢印#72の先に示す差分画像のうち、黒色の部分は、マスク画像MA1とマスク画像MA4との差がない部分を表し、白色の部分は差がある部分を表す。   Further, the mask image generation unit 1012 generates a difference image representing a difference between the mask image MA1 and the mask image MA4, as indicated by an arrow # 72. Of the difference image indicated by the tip of arrow # 72, the black portion represents a portion where there is no difference between the mask image MA1 and the mask image MA4, and the white portion represents a portion where there is a difference.

マスク画像生成部1012は、矢印#73,#74,#75の先に示すように、マスク画像MA1と差分画像とマスク画像MA4に基づいてマスク画像MA5を生成する。例えば、マスク画像生成部1012は、マスク画像MA1に含まれる人物の輪郭を差分画像を用いて抽出し、抽出した輪郭をマスク画像MA4に合成することによってマスク画像MA5を生成する。   The mask image generation unit 1012 generates a mask image MA5 based on the mask image MA1, the difference image, and the mask image MA4, as indicated by the tip of arrows # 73, # 74, and # 75. For example, the mask image generation unit 1012 generates the mask image MA5 by extracting the contour of the person included in the mask image MA1 using the difference image and combining the extracted contour with the mask image MA4.

マスク画像MA5は、人物の輪郭がマスク画像MA4よりはっきりとしているが、影の輪郭がマスク画像MA4の影の輪郭と同様にぼけた画像になる。合成部1013は、このようにしてマスク画像生成部1012により生成されたマスク画像MA5を用いて、図15の2段目の合成処理を行うことになる。   In the mask image MA5, the outline of the person is clearer than that of the mask image MA4, but the shadow outline is blurred as in the case of the shadow outline of the mask image MA4. The synthesizing unit 1013 performs the second stage synthesizing process in FIG. 15 using the mask image MA5 generated by the mask image generating unit 1012 in this way.

これにより、マスク画像のコントラストを調整することによって影の濃さや広がりを調整することができ、例えば影の存在が目立つ合成画像を生成することが可能になる。また、影のみをぼかすことによって、人物の輪郭ははっきりとしつつも、影のみが柔らかい雰囲気の合成画像を生成することができる。   Accordingly, the darkness and spread of the shadow can be adjusted by adjusting the contrast of the mask image. For example, it is possible to generate a composite image in which the presence of the shadow is conspicuous. Also, by blurring only the shadow, it is possible to generate a composite image in which the outline of the person is clear but the shadow is soft.

[合成処理の第8の例]
図17は、合成処理に用いるマスク画像の組み合わせの例について説明する図である。ここでは、1段目の合成処理に用いるマスク画像をマスク画像X、2段目の合成処理に用いるマスク画像をマスク画像Yとして説明する。
[Eighth Example of Composition Processing]
FIG. 17 is a diagram illustrating an example of a combination of mask images used for the synthesis process. Here, the mask image used for the first-stage compositing process will be described as mask image X, and the mask image used for the second-stage compositing process will be described as mask image Y.

以上においては、1段目の合成処理に使用したマスク画像を加工して得られたマスク画像を2段目の合成処理に用いるものとしたが、そのように、撮影画像に基づいて生成したマスク画像を加工して得られたマスク画像を、1段目の合成処理に用いるようにすることも可能である。また、撮影画像に基づいて生成したマスク画像を加工して得られたマスク画像を、1段目の合成処理と2段目の合成処理の両方で用いるようにすることも可能である。   In the above description, the mask image obtained by processing the mask image used in the first-stage compositing process is used in the second-stage compositing process. As such, the mask generated based on the captured image is used. It is also possible to use the mask image obtained by processing the image for the first-stage compositing process. It is also possible to use a mask image obtained by processing a mask image generated based on a captured image in both the first-stage synthesis process and the second-stage synthesis process.

例えば、マスク画像X,Yとして、図16の処理によって生成したマスク画像MA5を用いて1段目の合成処理と2段目の合成処理をそれぞれ行うようにすることも可能である。   For example, as the mask images X and Y, the first-stage synthesis process and the second-stage synthesis process can be performed using the mask image MA5 generated by the process of FIG.

また、マスク画像X,Yとして、上述したマスク画像MA1乃至MA4のいずれかを用いて1段目の合成処理と2段目の合成処理をそれぞれ行うようにすることも可能である。   Further, the first-stage synthesis process and the second-stage synthesis process can be performed using any of the mask images MA1 to MA4 described above as the mask images X and Y, respectively.

1段目の合成処理と2段目の合成処理に同じマスク画像を用いることにより、より自然な状態で人物が合成された合成画像を生成することが可能になる。1段目の合成処理と2段目の合成処理で用いるマスク画像が異なる場合、例えば、2段目の合成処理で用いるマスク画像の影の部分が1段目の合成処理で用いるマスク画像の影の部分より広いときには、1段目の合成処理により得られた合成画像に含まれる背景画像の色(影色背景画像の色)が、人物の輪郭によって縁取りされたようなものになってしまうことがあるが、そのようなことを防ぐことができる。   By using the same mask image for the first-stage synthesis process and the second-stage synthesis process, it is possible to generate a synthesized image in which a person is synthesized in a more natural state. If the mask image used in the first-stage compositing process is different from the mask image used in the second-stage compositing process, for example, the shadow portion of the mask image used in the second-stage compositing process is the shadow of the mask image used in the first-stage compositing process. If it is wider than the area of, the color of the background image (color of the shadow color background image) included in the composite image obtained by the first-stage composite processing will be as if it is bordered by the outline of the person There is, but can prevent such a thing.

<写真シール機の構成と動作について>
次に、以上のような合成処理を行う写真シール機の構成と動作について説明する。
<About the structure and operation of the photo sticker>
Next, the configuration and operation of a photo sticker that performs the above-described composition processing will be described.

[写真シール機の外観構成]
図18は、本発明の一実施形態に係る写真シール機1の外観の構成例を示す斜視図である。図1の画像処理部1001が、図18の写真シール機1において実現される。
[External structure of photo sticker]
FIG. 18 is a perspective view showing a configuration example of the appearance of the photographic sealing machine 1 according to an embodiment of the present invention. The image processing unit 1001 in FIG. 1 is realized in the photographic sticker 1 in FIG.

写真シール機1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール機1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるし、複数人であることもある。   The photo sticker 1 is a game machine that allows a user to perform operations such as shooting and editing as a game and receives a price from the user instead of providing a shot image or an edited image. The photo sticker 1 is installed in a store such as a game center. There may be one user or a plurality of users.

写真シール機1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した編集対象の画像に対して、手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。   The user who plays the game provided by the photo sticker 1 pays the price, takes a picture of himself as a subject, and performs handwriting on the image to be edited selected from the shot images obtained by shooting. Editing is performed using an editing function for combining line drawings and stamp images, thereby making the photographed image rich and colorful. The user receives the sticker sheet on which the edited image is printed and ends the series of games.

図18に示すように、写真シール機1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。   As shown in FIG. 18, the photo sticker 1 is mainly composed of a photographing unit 11, an editing unit 12, and a subsequent customer service unit 13. The photographing unit 11 and the editing unit 12 are installed in contact with each other, and the editing unit 12 and the subsequent customer service unit 13 are installed in contact with each other.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影処理が行われる。図2の撮影の様子は、写真シール機1の撮影空間での撮影の様子を示している。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The photographing unit 21 and the background unit 22 are installed with a predetermined distance apart, and photographing processing is performed in a photographing space that is a space formed between the photographing unit 21 and the background unit 22. The state of photographing in FIG. 2 shows the state of photographing in the photographing space of the photo sticker 1.

撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に望む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42Bにより構成される。   The photographing unit 21 is a device that allows a user to perform photographing processing. The photographing unit 21 enters the photographing space and is located in front of the user who is performing the photographing process. The front panel 41 of the photographing unit 21 that constitutes a surface in which the photographing space is desired in front is provided with a touch panel monitor used by the user during photographing processing. When the left side is the left side and the right side is the right side as viewed from the user in the imaging space, the left side of the imaging unit 21 is configured by the side panel 42A, and the right side is configured by the side panel 42B.

背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bより横幅の狭い板状の部材である側面パネル52B(図20)から構成される。   The background unit 22 is attached to the left end of the rear panel 51 and the rear panel 51, which are plate-like members positioned on the rear side of the user who is performing the photographing process facing the front, and is a plate having a narrower width than the side panel 42A. A side panel 52A that is a plate-shaped member and a side panel 52B (FIG. 20) that is a plate-like member that is attached to the right end of the back panel 51 and has a narrower width than the side panel 42B.

撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって連結される。   The side panel 42A constituting the left side surface of the photographing unit 21 and the side panel 52A of the background unit 22 are provided on substantially the same plane, and their upper portions are connected by a connecting part 23A that is a plate-like member. Further, the side panel 42B constituting the right side surface of the photographing unit 21 and the side panel 52B of the background portion 22 are provided on substantially the same plane, and their upper portions are connected by a connecting portion 23B which is a plate-like member.

撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。   An opening formed by being surrounded by the side panel 42 </ b> A of the photographing unit 21, the connecting part 23 </ b> A, and the side panel 52 </ b> A of the background part 22 becomes an entrance G <b> 1 of the photographing space. An opening formed by being surrounded by the side panel 42B of the imaging unit 21, the connecting unit 23B, and the side panel 52B of the background unit 22 is also an entrance G2 of the imaging space.

背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Bに支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用する巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。   The background curtain unit 25 is provided above the background portion 22 so as to be supported by the back panel 51, the side panel 52A, and the side panel 52B. The background curtain unit 25 stores a plurality of roll-up type background curtains having different colors or patterns and used for the background. The background curtain unit 25 operates in conjunction with photographing by a camera or the like provided in the photographing unit 21. At the time of photographing, for example, the curtain of the color selected by the user is lowered and the other curtains are wound up.

複数のカーテンを1枚のクロマキ用のカーテンとし、昇降式の背景カーテンとして用意してもよい。また、クロマキ用のカーテンを予め撮影空間の背面に張り付けるとともに、合成用の背景画像を複数種類用意し、編集処理において利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。   A plurality of curtains may be used as one blackboard curtain, and may be prepared as an elevating type background curtain. In addition, a black curtain is attached to the back of the shooting space in advance, and multiple types of background images are prepared so that the user can synthesize the background image desired by the user in the editing process. May be.

撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the background curtain unit 25 is formed above the photographing space, and the ceiling strobe unit 24 covers the part of the opening. Provided. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. A fluorescent lamp is provided inside the strobe constituting the ceiling strobe unit 24, and also functions as illumination of the photographing space.

図19に示すように、撮影空間の上方に形成される開口のうち、天井ストロボユニット24を挟んで前方の部分は天井前方カーテン61で覆われ、後方の部分は天井後方カーテン62で覆われる。天井前方カーテン61の少なくとも内側の色は黒色などの暗い色とされ、天井後方カーテン62の少なくとも内側の色は白色などの明るい色とされる。   As shown in FIG. 19, in the opening formed above the imaging space, the front part across the ceiling strobe unit 24 is covered with a ceiling front curtain 61, and the rear part is covered with a ceiling rear curtain 62. At least the inner color of the ceiling front curtain 61 is a dark color such as black, and at least the inner color of the ceiling rear curtain 62 is a bright color such as white.

また、図19に示すように、撮影空間の出入り口G1には側面カーテン63が取り付けられる。反対側の出入り口である出入り口G2にも図示せぬ側面カーテンが取り付けられる。撮影空間の出入り口G1およびG2に取り付けられる側面カーテンの少なくとも内側の色は黒色などの暗い色とされる。   Further, as shown in FIG. 19, a side curtain 63 is attached to the entrance G1 of the imaging space. A side curtain (not shown) is also attached to the doorway G2, which is the doorway on the opposite side. At least the inner color of the side curtains attached to the entrances G1 and G2 of the imaging space is a dark color such as black.

図18の説明に戻り、編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。   Returning to the description of FIG. 18, the editing unit 12 is a device that allows the user to perform an editing process that is a process of editing an image obtained by the shooting process. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface thereof is in contact with the back surface of the front panel 41 of the photographing unit 21. The editing unit 12 is provided with a configuration such as a tablet built-in monitor used by the user during editing processing.

図18に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。   If the configuration of the editing unit 12 shown in FIG. 18 is the configuration on the front side, the editing unit 12 is used for editing processing on the front side and the back side so that two sets of users can perform editing processing simultaneously. Each configuration is provided.

編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集処理に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。支持部73Aの上面にはカーテンレール26を支持する支持部75が設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図20)が設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and is composed of a surface 71 that is substantially parallel to the side panel 42A, and a slope 72 formed above the surface 71. The configuration used is provided on the slope 72. On the left side of the slope 72, a support portion 73A that has a columnar shape and supports one end of the lighting device 74 is provided. A support portion 75 that supports the curtain rail 26 is provided on the upper surface of the support portion 73A. A support portion 73 </ b> B (FIG. 20) that supports the other end of the lighting device 74 is also provided on the right side of the slope 72.

編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above is a U-shape. One end of the rails 26A and 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and both ends of the remaining one rail 26C are joined to the other end.

カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. The space in front of the editing unit 12 and the space in front of the back of the editing unit 12 surrounded by the curtain attached to the curtain rail 26 are editing spaces in which the user performs editing processing.

図20は、写真シール機1を別の角度から見た斜視図である。   FIG. 20 is a perspective view of the photographic sealing machine 1 as seen from another angle.

事後接客部13は事後接客処理を利用者に行わせる装置である。事後接客処理には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する処理、ミニゲームを利用者に行わせる処理、アンケートに答えさせる処理などが含まれる。   The subsequent customer service unit 13 is a device that allows the user to perform the subsequent customer service process. Subsequent customer service processing includes processing for transmitting a photographed image or edited image to a mobile terminal such as a mobile phone, processing for allowing a user to play a mini game, processing for answering a questionnaire, and the like.

図20に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、その背面が編集部12の左側面に接するように編集部12に連結して設けられる。事後接客部13の正面には、事後接客処理時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者が事後接客処理を行う事後接客空間となる。   As shown in FIG. 20, the post-service customer unit 13 has a plate-like housing having a predetermined thickness, and is connected to the editing unit 12 so that the back surface thereof is in contact with the left side surface of the editing unit 12. Provided. On the front side of the post-service unit 13, there are provided a tablet built-in monitor used by the user at the time of post-service processing, a discharge port through which sticker paper on which a photographed image or an edited image is printed is discharged. The space in front of the front-end customer service unit 13 becomes a rear-end customer service space where a user waiting for printing on the sticker paper to perform post-service processing.

ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図21を参照して説明する。図21は、写真シール機1を上から見た平面図である。   Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 21 is a plan view of the photo sticker 1 as viewed from above.

写真シール機1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理を行う。   The user of the photo seal machine 1 takes a picture formed between the photographing part 21 and the background part 22 from the doorway G1 as indicated by the white arrow # 1 or from the doorway G2 as indicated by the white arrow # 2. The camera enters the space A1 and performs a shooting process using a camera or a touch panel monitor provided in the shooting unit 21.

撮影処理を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。   The user who has finished the shooting process exits the shooting space A1 and moves to the editing space A2-1 using the doorway G1 as indicated by the white arrow # 3, or moves to the editing space A2-1 as indicated by the white arrow # 4. To leave the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is moved is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the empty space of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing processing. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing processing at the same time.

編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客処理を行う。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客処理を行う。   After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. During printing of the image, the user who has finished the editing process moves from the editing space A2-1 to the subsequent customer service space A3 as indicated by the white arrow # 5 if the editing process has been performed in the editing space A2-1. Then, the customer service is processed after the fact. In addition, when the editing process is completed in the editing space A2-2, the user who has finished the editing process moves from the editing space A2-2 to the post-service area A3 as indicated by the white arrow # 6. Post service processing is performed in the customer service space A3.

画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the post-service section 13 and finishes a series of photo sticker creation games.

[各装置の構成]
次に、各装置の構成について説明する。
[Configuration of each device]
Next, the configuration of each device will be described.

図22は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。   FIG. 22 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured by attaching a front panel 41, a side panel 42A, and a side panel 42B to a base unit 43 having a box shape.

正面パネル41は撮影空間A1で撮影処理を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影処理を行う利用者の左側、右側に位置する。側面パネル42Aの上方には連結部23Aが固定され、側面パネル42Bの上方には連結部23Bが固定される。   The front panel 41 is positioned in front of the user who performs the shooting process in the shooting space A1, and the side panel 42A and the side panel 42B are positioned on the left side and the right side of the user who performs the shooting process in the shooting space A1, respectively. The connecting portion 23A is fixed above the side panel 42A, and the connecting portion 23B is fixed above the side panel 42B.

正面パネル41のほぼ中央には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、正面ストロボ92、およびタッチパネルモニタ93から構成される。   An imaging / display unit 81 is provided in the approximate center of the front panel 41. The photographing / display unit 81 includes a camera 91, a front strobe 92, and a touch panel monitor 93.

カメラ91は、CCD(Charge Coupled Device)などの撮像素子により構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像は、タッチパネルモニタ93にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。図2に示すカメラが、図22のカメラ91に相当する。   The camera 91 is configured by an image sensor such as a CCD (Charge Coupled Device), and photographs a user in the photographing space A1. The moving image captured by the camera 91 is displayed on the touch panel monitor 93 in real time. An image captured by the camera 91 at a predetermined timing such as when a user gives an instruction to shoot is saved as a photographic image (still image). The camera shown in FIG. 2 corresponds to the camera 91 in FIG.

カメラ91を囲むように発光面が設けられた正面ストロボ92は、他のストロボと同様にカメラ91による撮影に合わせて発光し、被写体としての利用者の顔付近を正面から照射する。   The front strobe 92 provided with a light emitting surface so as to surround the camera 91 emits light in accordance with the photographing by the camera 91 like other strobes, and irradiates the vicinity of the user's face as a subject from the front.

カメラ91の下側に設けられたタッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ93には、適宜、背景等の画像が合成された後の動画像が表示される。   A touch panel monitor 93 provided on the lower side of the camera 91 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 93 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUI (Graphical User Interface) images and accepts a user's selection operation through the touch panel. ing. On the touch panel monitor 93, a moving image after an image such as a background is appropriately displayed is displayed.

また、タッチパネルモニタ93には、合成処理によって生成された合成画像が撮影処理時などの所定のタイミングで表示される。   Further, the touch panel monitor 93 displays a composite image generated by the composite process at a predetermined timing such as during the photographing process.

正面パネル41には、撮影・表示ユニット81の位置を基準として、上方に上ストロボ82が設置される。また、左方に左ストロボ83が設置され、右方に右ストロボ84が設置される。撮影・表示ユニット81の下方の位置には、ベース部43の上面が一部突出する形で下ストロボ85が設けられる。   On the front panel 41, an upper strobe 82 is installed on the upper side with respect to the position of the photographing / display unit 81. A left strobe 83 is installed on the left side and a right strobe 84 is installed on the right side. A lower strobe 85 is provided at a position below the photographing / display unit 81 so that the upper surface of the base portion 43 protrudes partially.

上ストロボ82は、利用者を上前方から照射する。左ストロボ83は、利用者を左前方から照射し、右ストロボ84は、利用者を右前方から照射する。下ストロボ85は、利用者を下前方から照射する。   The upper strobe 82 irradiates the user from the upper front. The left strobe 83 irradiates the user from the left front, and the right strobe 84 irradiates the user from the right front. The lower strobe 85 irradiates the user from the lower front.

ベース部43には利用者の足元を照射する足元ストロボ86も設けられる。上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、および足元ストロボ86の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。   The base unit 43 is also provided with a foot strobe 86 that irradiates the user's foot. The upper strobe 82, left strobe 83, right strobe 84, lower strobe 85, and foot strobe 86 are provided with fluorescent lamps. Used as illumination in the space A1.

足元ストロボ86の右側には、利用者がお金を投入する硬貨投入返却口87が設けられる。   On the right side of the foot strobe 86, a coin insertion / return port 87 through which a user inserts money is provided.

下ストロボ85を挟んでベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影処理を行う利用者が手荷物等を置くための荷物置き場として用いられる。正面パネル41の例えば天井付近には、撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。   Spaces 43A and 43B formed on the left and right sides of the upper surface of the base portion 43 with the lower strobe 85 interposed therebetween are used as a luggage storage place for a user who performs photographing processing to place baggage and the like. For example, near the ceiling of the front panel 41, a speaker for outputting sound such as guidance sound for shooting processing, BGM (Back Ground Music), and sound effects is also provided.

このような構成を有する撮影部21の各部のうち、正面パネル41、側面パネル42A、側面パネル42B、およびベース部43の撮影空間A1に面する部分の色と、連結部23A、連結部23Bの内側の色は、図23に色を付して示すように黒色などの暗い色とされる。図19を参照して説明したように、撮影空間A1の天井前方の開口に取り付けられる天井前方カーテン61の内側の色と、出入り口G1およびG2に取り付けられるカーテンの内側の色が暗い色であることもあって、撮影空間A1の前方の色は全体的に暗い色となる。   Of each part of the photographing unit 21 having such a configuration, the color of the part facing the photographing space A1 of the front panel 41, the side panel 42A, the side panel 42B, and the base part 43, and the connecting part 23A and the connecting part 23B. The inner color is a dark color such as black as shown in FIG. As described with reference to FIG. 19, the color inside the ceiling front curtain 61 attached to the opening in front of the ceiling of the photographing space A1 and the color inside the curtain attached to the entrances G1 and G2 are dark colors. For this reason, the color in front of the shooting space A1 is dark overall.

後述するように、背景部22には撮影空間A1にいる利用者を背面側から照射するストロボが設けられる。撮影空間A1の前方の色を全体的に暗い色にすることによって、背景部22に設けられるストロボからの光が撮影空間A1内で反射し、利用者を照射してしまうことを防ぐことができ、意図した明るさで撮影を行うことが可能になる。   As will be described later, the background unit 22 is provided with a strobe that irradiates the user in the shooting space A1 from the back side. By making the color in front of the shooting space A1 darker as a whole, it is possible to prevent the light from the strobe provided in the background portion 22 from being reflected in the shooting space A1 and irradiating the user. This makes it possible to shoot at the intended brightness.

すなわち、背景部22の両端に設けられたストロボからの光のうち、利用者にあたらない光の反射は出入り口G1およびG2に取り付けられた側面カーテンの内側で防ぐことができる。また、撮影部21の正面に設けられた例えば下ストロボ85からの光のうち、利用者にあたらない光の反射は天井前方カーテン61の内側で防ぐことができる。撮影部21の正面に設けられた左ストロボ83および右ストロボ84からの光のうち、利用者にあたらない光の反射は側面パネル42A、側面パネル42Bの内側で防ぐことができる。   That is, of the light from the strobes provided at both ends of the background portion 22, reflection of light that does not hit the user can be prevented inside the side curtains attached to the entrances G1 and G2. In addition, reflection of light that does not hit the user among the light from, for example, the lower strobe 85 provided in front of the photographing unit 21 can be prevented inside the ceiling front curtain 61. Of the light from the left strobe 83 and the right strobe 84 provided in front of the photographing unit 21, reflection of light that does not hit the user can be prevented inside the side panel 42A and the side panel 42B.

また、図19を参照して説明したように、撮影空間A1の天井後方の開口に取り付けられる天井後方カーテン62の内側の色は明るい色であり、撮影空間A1の後方の色は全体的に明るい色となる。   Further, as described with reference to FIG. 19, the color inside the ceiling rear curtain 62 attached to the opening behind the ceiling of the photographing space A1 is a bright color, and the color behind the photographing space A1 is generally bright. Become a color.

撮影空間A1の後方の色を全体的に明るい色にすることによって、撮影部21に設けられるストロボからの光を撮影空間A1内で反射させ、利用者を後方から照射することが可能になる。利用者を後方から照射して撮影を行うことによって、逆光で撮影したときと同様に、利用者の輪郭が柔らかい雰囲気で写っている画像を撮影することが可能になる。   By making the color behind the imaging space A1 bright overall, it is possible to reflect the light from the strobe provided in the imaging unit 21 within the imaging space A1 and irradiate the user from behind. By irradiating the user from behind and taking a picture, it is possible to take an image in which the contour of the user is reflected in a soft atmosphere, as in the case of taking a picture with backlight.

図24は、背景部22の撮影空間A1側の構成例を示す図である。   FIG. 24 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。   As described above, the background curtain unit 25 is provided above the back panel 51. Near the center of the background curtain unit 25, a back center strobe 101 that irradiates a user who is performing a photographing process in the photographing space A1 from the rear center is attached.

背面パネル51の上方であって、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の上方であって、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。   A rear left strobe 102 that irradiates a user who is performing a photographing process in the photographing space A1 from the left rear is provided above the rear panel 51 and on the doorway G1 side. Further, a rear right strobe 103 that irradiates a user who is performing a photographing process in the photographing space A1 from the right rear is provided above the rear panel 51 and on the entrance / exit G2 side.

図25は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。   FIG. 25 is a diagram illustrating a configuration example of the front side of the editing unit 12 (the editing space A2-1 side).

斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided at substantially the center of the slope 72. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。   The tablet built-in monitor 131 is configured by superimposing a tablet capable of operation input using the touch pen 132A or 132B on a monitor such as an LCD. On the tablet built-in monitor 131, for example, an editing screen that is a screen used for editing a captured image selected as an image to be edited is displayed. When two people perform editing work simultaneously, the touch pen 132A is used by one user, and the touch pen 132B is used by the other user.

編集部12の左側には事後接客部13が設けられる。   On the left side of the editing unit 12, a post-service unit 13 is provided.

図26は、事後接客部13の正面側の構成例を示す図である。   FIG. 26 is a diagram illustrating a configuration example of the front side of the post-service unit 13.

事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、ミニゲームなどの事後接客処理に用いられる画面が表示される。   A monitor 161 with a built-in tablet is provided at the upper center of the post-service section 13. A touch pen 162A is provided on the left side of the tablet built-in monitor 161, and a touch pen 162B is provided on the right side. Similarly to the tablet built-in monitor 131, the tablet built-in monitor 161 is configured by superimposing a tablet capable of performing an operation input using the touch pen 162A or 162B on a monitor such as an LCD. On the tablet built-in monitor 161, a screen used for post-service processing such as a mini game is displayed.

タブレット内蔵モニタ161の下には非接触型ICリーダ/ライタ163が設けられ、非接触型ICリーダ/ライタ163の下にはシール紙排出口164が設けられる。シール紙排出口164の下にはスピーカ165が設けられる。   A non-contact type IC reader / writer 163 is provided under the tablet built-in monitor 161, and a sticker paper discharge port 164 is provided under the non-contact type IC reader / writer 163. A speaker 165 is provided below the sticker paper discharge port 164.

非接触型ICリーダ/ライタ163は、近接された非接触型ICと通信を行い、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。   The non-contact type IC reader / writer 163 communicates with a non-contact type IC that is in close proximity, and reads data from the non-contact type IC and writes data to the non-contact type IC.

シール紙排出口164には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。   In the sticker paper discharge port 164, sticker paper on which an image created by the user of the editing space A2-1 is edited, or the user of the editing space A2-2 performs the editing process. The sticker paper on which the created image is printed is discharged. A printer is provided inside the editing unit 12, and printing of images is performed by the printer.

スピーカ165は、事後接客処理の案内音声、BGM、効果音等の音を出力する。   The speaker 165 outputs sound such as guidance voice, BGM, and sound effects for the post-service processing.

[写真シール機の内部構成]
次に、写真シール機1の内部構成について説明する。図27は、写真シール機1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
[Internal configuration of photo sticker]
Next, the internal configuration of the photo sticker 1 will be described. FIG. 27 is a block diagram showing an example of the internal configuration of the photo sticker 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The overlapping description will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール機1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、事後接客部210、および印刷部211の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in a ROM (Read Only Memory) 206 and a storage unit 202, and controls the overall operation of the photo sticker 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. The control unit 201 is also connected with the components of the photographing unit 208, the editing unit 209, the post-service unit 210, and the printing unit 211.

制御部201においては、所定のプログラムが実行されることによって、図1の構成を有する画像処理部1001が実現される。カメラ91により撮影が行われることによって得られた撮影画像が画像処理部1001の撮影画像取得部1011により取得され、記憶部202に記憶されている背景画像や影色背景画像が背景画像取得部1014により取得される。   In the control unit 201, an image processing unit 1001 having the configuration of FIG. 1 is realized by executing a predetermined program. A captured image obtained by capturing with the camera 91 is acquired by the captured image acquisition unit 1011 of the image processing unit 1001, and the background image and the shadow color background image stored in the storage unit 202 are the background image acquisition unit 1014. Obtained by

画像処理部1001の合成部1013により生成された合成画像は、合成部1013からタッチパネルモニタ93やタブレット内蔵モニタ131に供給され、表示される。利用者は、自分の影が写り込んでいる合成画像を見ることができる。   The composite image generated by the combining unit 1013 of the image processing unit 1001 is supplied from the combining unit 1013 to the touch panel monitor 93 or the tablet built-in monitor 131 and displayed. The user can see the composite image in which his / her shadow is reflected.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 includes a non-volatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203はインターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。   A communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 201.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. Computer programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、背景制御部222、照明制御部223、カメラ91、タッチパネルモニタ93、およびスピーカ224から構成される。   The imaging unit 208 includes a coin processing unit 221, a background control unit 222, an illumination control unit 223, a camera 91, a touch panel monitor 93, and a speaker 224 that are configured to perform imaging processing in the imaging space A1.

硬貨処理部221は、硬貨投入返却口87に対する硬貨の投入を検出する。硬貨処理部221は、300円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion / return port 87. When the coin processing unit 221 detects that a predetermined amount of coins such as 300 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that to the control unit 201.

背景制御部222は、制御部201より供給される背景制御信号に従って背景カーテンユニット25に収納されている背景カーテンの上げ下ろしを行う。背景カーテンの選択が利用者により手動で行われるようにしてもよい。   The background control unit 222 raises and lowers the background curtain stored in the background curtain unit 25 according to the background control signal supplied from the control unit 201. The background curtain may be manually selected by the user.

照明制御部223は、制御部201より供給される照明制御信号に従って、撮影空間A1内の各ストロボの発光を制御する。   The illumination control unit 223 controls the light emission of each strobe in the imaging space A1 according to the illumination control signal supplied from the control unit 201.

カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。   The camera 91 shoots according to the control by the control unit 201 and outputs an image obtained by the shooting to the control unit 201.

編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。   The editing unit 209A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 231 provided on the front side of the editing unit 12 as a configuration for performing editing processing in the editing space A2-1. The editing unit 209B has the same configuration as the editing unit 209A, and performs editing processing in the editing space A2-2.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen according to control by the control unit 201, and detects a user operation on the editing screen. A signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、非接触型ICリーダ/ライタ163、およびスピーカ165から構成される。   The subsequent customer service unit 210 includes a tablet built-in monitor 161, touch pens 162 </ b> A and 162 </ b> B, a non-contact type IC reader / writer 163, and a speaker 165.

印刷部211は、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口164に排出する。一点鎖線で囲んで示す事後接客部210と印刷部211が、事後接客空間A3にいる利用者を相手とした処理を行う構成となる。   The printing unit 211 includes a printer 241 and a sticker sheet unit 242 that are configured to perform printing processing. The printer 241 prints the photographed image or the edited image obtained by the editing process on the sticker paper stored in the sticker paper unit 242 attached to the printer 241 and discharges it to the sticker paper discharge port 164. The a posteriori customer service unit 210 and the printing unit 211 shown by being surrounded by a one-dot chain line are configured to perform a process for the user in the a posteriori customer service space A3.

[写真シール機の動作]
ここで、図28のフローチャートを参照して、写真シール作成ゲームを提供する写真シール機1の処理について説明する。
[Operation of photo sticker]
Here, with reference to the flowchart of FIG. 28, the process of the photo sticker machine 1 that provides the photo sticker creation game will be described.

ステップS1において、写真シール機1の制御部201は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。   In step S1, the control unit 201 of the photo sticker 1 determines whether or not a predetermined amount of coins has been inserted based on a signal supplied from the coin processing unit 221 and waits until it is determined that the coin has been inserted. .

硬貨が投入されたとステップS1において判定した場合、ステップS2において、制御部201は、撮影部208を制御し、本撮影処理を行う。本撮影処理により、撮影空間A1にいる利用者を被写体として撮影が行われる。本撮影処理については図29のフローチャートを参照して後述する。   If it is determined in step S1 that a coin has been inserted, in step S2, the control unit 201 controls the photographing unit 208 to perform the main photographing process. With this photographing process, photographing is performed with the user in the photographing space A1 as the subject. The main photographing process will be described later with reference to the flowchart of FIG.

ステップS3において、制御部201は被写体の画像処理を行う。被写体の画像処理により、本撮影処理によって得られた撮影画像の明るさの調整などの各種の処理が行われる。被写体の画像処理については図32のフローチャートを参照して後述する。   In step S3, the control unit 201 performs subject image processing. Various processes such as adjustment of the brightness of the photographed image obtained by the main photographing process are performed by subject image processing. The subject image processing will be described later with reference to the flowchart of FIG.

ステップS4において、制御部201は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。   In step S4, the control unit 201 guides the user in the shooting space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a screen on the touch panel monitor 93 of the photographing unit 208 or by outputting sound from the speaker 224.

ステップS5において、制御部201は、撮影画像の画像処理を行う。撮影画像の画像処理は、編集対象画像として選択された撮影画像に合成する画像を利用者に選択させ、選択された画像を撮影画像に合成したりする処理である。撮影画像の画像処理については図35のフローチャートを参照して後述する。   In step S5, the control unit 201 performs image processing of the captured image. The image processing of the captured image is processing for causing the user to select an image to be combined with the captured image selected as the image to be edited and combining the selected image with the captured image. Image processing of the captured image will be described later with reference to the flowchart of FIG.

ステップS6において、制御部201は、編集部209Aまたは編集部209Bを制御し、編集処理を行う。制御部201は、編集画面をタブレット内蔵モニタ131に表示させ、利用者による編集操作に従って、編集対象として選択された撮影画像の編集を行う。編集が終了したとき、制御部201は、印刷する画像の選択画面をタブレット内蔵モニタ131に表示させ、印刷する画像を利用者に選択させる。印刷する画像の選択画面には、撮影画像や編集済みの画像が表示され、その中から所定の枚数の画像が選択される。   In step S6, the control unit 201 controls the editing unit 209A or the editing unit 209B to perform editing processing. The control unit 201 displays an editing screen on the tablet built-in monitor 131, and edits the captured image selected as the editing target in accordance with the editing operation by the user. When the editing is completed, the control unit 201 displays an image selection screen for printing on the tablet built-in monitor 131, and allows the user to select an image to be printed. On the screen for selecting an image to be printed, a photographed image and an edited image are displayed, and a predetermined number of images are selected from them.

ステップS7において、制御部201は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。   In step S7, the control unit 201 guides the user who has finished the editing process in the editing space A2-1 or the editing space A2-2 to move to the post-service space A3. The guidance of the movement to the post-service space A3 is performed by displaying a screen on the tablet built-in monitor 131 or by outputting sound from the speaker 231.

ステップS8において、制御部201は、事後接客部210を制御し、事後接客処理を行う。例えば、撮影画像や編集済みの画像を携帯端末に送信する処理を事後接客処理として行う場合、制御部201は、携帯端末の電子メールアドレスの入力画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。また、ミニゲームを利用者に行わせる処理を事後接客処理として行う場合、制御部201は、ミニゲームの画面をタブレット内蔵モニタ161に表示させる。アンケートに答えさせる処理を事後接客処理として行う場合、制御部201は、アンケート画面をタブレット内蔵モニタ161に表示させ、利用者による回答を取得する。   In step S <b> 8, the control unit 201 controls the subsequent customer service unit 210 to perform the subsequent customer service process. For example, in the case where the process of transmitting a captured image or an edited image to a mobile terminal is performed as a post-service process, the control unit 201 displays an input screen for an e-mail address of the mobile terminal or a selection screen for an image to be transmitted on a tablet built-in monitor. 161, and an image is transmitted according to an operation by the user. In addition, when the process for causing the user to perform the mini game is performed as the post-service processing, the control unit 201 displays the screen of the mini game on the tablet built-in monitor 161. When performing the process of answering the questionnaire as the post-service processing, the control unit 201 displays the questionnaire screen on the tablet built-in monitor 161 and acquires the answer by the user.

ステップS8において事後接客処理を行うことと並行して、ステップS9において、制御部201は印刷処理を行う。制御部201は、利用者により選択された画像をプリンタ241に出力してシール紙に印刷させる。   In parallel with the post-service processing in step S8, the control unit 201 performs printing processing in step S9. The control unit 201 outputs the image selected by the user to the printer 241 and prints it on a sticker sheet.

印刷が終了したとき、ステップS10において、プリンタ241は、画像が印刷されたシール紙をシール紙排出口164に排出し、処理を終了させる。   When the printing is finished, in step S10, the printer 241 discharges the sticker paper on which the image is printed to the sticker paper discharge port 164 and finishes the process.

次に、図29のフローチャートを参照して、図28のステップS2において行われる本撮影処理について説明する。   Next, the main photographing process performed in step S2 of FIG. 28 will be described with reference to the flowchart of FIG.

ステップS21において、制御部201は、写り選択画面をタッチパネルモニタ93に表示させ、利用者による写り選択を受け付ける。写り選択は、色合いやシャープネス等の、撮影画像の画質の選択である。制御部201は、利用者により選択された写りに応じて、カメラ91により撮影された画像の画質を調整する。   In step S <b> 21, the control unit 201 displays a reflection selection screen on the touch panel monitor 93 and accepts a reflection selection by the user. The image selection is selection of the image quality of the photographed image, such as hue and sharpness. The control unit 201 adjusts the image quality of the image captured by the camera 91 in accordance with the image selected by the user.

ステップS22において、制御部201は、撮影方法の案内画面をタッチパネルモニタ93に表示させる。撮影方法の案内画面を表示した後、制御部201は、カメラ91を制御し、画像の取り込みを開始させる。   In step S <b> 22, the control unit 201 displays a shooting method guidance screen on the touch panel monitor 93. After displaying the shooting method guidance screen, the control unit 201 controls the camera 91 to start capturing an image.

ステップS23において、制御部201は、カメラ91により取り込まれた動画像をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。   In step S23, the control unit 201 displays the moving image captured by the camera 91 on the touch panel monitor 93 (performs live view display).

図30は、ライブビュー表示の例を示す図である。ライブビュー表示の画面のほぼ中央にはカメラ91により取り込まれた動画像である画像501が表示され、その周りには、ポーズの取り方を案内するメッセージなどが表示されている。   FIG. 30 is a diagram illustrating an example of live view display. An image 501, which is a moving image captured by the camera 91, is displayed almost at the center of the live view display screen, and a message or the like for guiding how to take a pose is displayed around the image 501.

ライブビュー表示の画面に表示される画像501は、例えば1段目の合成処理を行うことによって得られた合成画像である。制御部201の画像処理部1001は、カメラ91により取り込まれた動画像を構成する各画像を撮影画像として1段目の合成処理を行うことになる。1段目の合成処理を行うことによって生成された例えば図8の合成画像A、図9の合成画像Cなどの合成画像が、タッチパネルモニタ93に供給され、画像501として表示される。   An image 501 displayed on the live view display screen is, for example, a composite image obtained by performing the first-stage composition processing. The image processing unit 1001 of the control unit 201 performs first-stage composition processing using each image constituting the moving image captured by the camera 91 as a captured image. A composite image such as the composite image A in FIG. 8 or the composite image C in FIG. 9 generated by performing the first-stage composite processing is supplied to the touch panel monitor 93 and displayed as an image 501.

2段目の合成処理を行うことによって得られた合成画像がライブビュー表示の画面に表示されるようにしてもよい。合成処理に用いられる背景画像は、利用者により選択されるようにしてもよいし、写真シール機1により自動的に選択されるようにしてもよい。   A synthesized image obtained by performing the second-stage synthesis process may be displayed on a live view display screen. The background image used for the composition process may be selected by the user or may be automatically selected by the photo sticker 1.

ステップS24において、制御部201は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。   In step S <b> 24, the control unit 201 displays a countdown indicator on the touch panel monitor 93 and notifies the user of shooting timing.

撮影タイミングになったとき、ステップS25において、制御部201は、カメラ91を制御して撮影を行い、静止画像である撮影画像を取得する。   When the shooting timing comes, in step S25, the control unit 201 controls the camera 91 to perform shooting, and acquires a shot image that is a still image.

ステップS26において、制御部201は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。   In step S <b> 26, the control unit 201 displays the captured image on the touch panel monitor 93 and causes the user to check the captured result.

図31は、撮影結果の確認画面の例を示す図である。撮影結果の確認画面のほぼ中央には撮影画像である画像511が表示され、その周りには、撮影結果であることを案内するメッセージなどが表示されている。   FIG. 31 is a diagram illustrating an example of a shooting result confirmation screen. An image 511 that is a photographed image is displayed in the approximate center of the photographing result confirmation screen, and a message or the like that indicates that it is a photographing result is displayed around the image 511.

撮影結果の確認画面に表示される画像511は、例えば2段目の合成処理を行うことによって得られた合成画像である。制御部201の画像処理部1001は、撮影タイミングに合わせてカメラ91により取り込まれた撮影画像を対象として2段階合成処理を行うことになる。2段階合成処理を行うことによって最終的に生成された例えば図8の合成画像B、図9の合成画像Dなどの合成画像が、タッチパネルモニタ93に供給され、画像511として表示される。   An image 511 displayed on the shooting result confirmation screen is, for example, a composite image obtained by performing the second-stage composition processing. The image processing unit 1001 of the control unit 201 performs a two-stage composition process on the captured image captured by the camera 91 in accordance with the capturing timing. A composite image such as the composite image B of FIG. 8 or the composite image D of FIG. 9 that is finally generated by performing the two-stage composition processing is supplied to the touch panel monitor 93 and displayed as an image 511.

ステップS27において、制御部201は、撮影を所定回数繰り返し行ったか否かを判定する。制御部201は、撮影を所定回数行っていないとステップS27において判定した場合、ステップS23に戻り、以上の処理を繰り返し行う。   In step S27, the control unit 201 determines whether or not shooting has been repeated a predetermined number of times. If the control unit 201 determines in step S27 that shooting has not been performed a predetermined number of times, the control unit 201 returns to step S23 and repeats the above processing.

一方、撮影を6回などの所定の回数繰り返し行ったとステップS27において判定した場合、ステップS28において、制御部201は、撮影可能時間内であるか否かを判定する。例えば、本撮影処理を開始してからの時間が、本撮影処理に割り当てられた時間を経過していない場合、撮影可能時間内であるとして判定される。   On the other hand, when it is determined in step S27 that the shooting has been repeated a predetermined number of times such as 6 times, in step S28, the control unit 201 determines whether or not it is within the shooting possible time. For example, if the time since the start of the main photographing process has not passed the time allocated to the main photographing process, it is determined that the time is within the photographing possible time.

撮影可能時間内であるとステップS28において判定した場合、ステップS29において、制御部201は、ボーナス撮影の案内画面をタッチパネルモニタ93に表示させる。ボーナス撮影は、ステップS25において行われる通常の撮影と異なる形で行われる撮影であり、例えば、カメラ91により取り込まれた動画像に対して合成用の画像がリアルタイムで合成され、その合成結果の画像がライブビュー表示される。   If it is determined in step S28 that the time is within the shootable time, the control unit 201 causes the touch panel monitor 93 to display a bonus shooting guide screen in step S29. The bonus shooting is shooting performed in a form different from the normal shooting performed in step S25. For example, a composite image is combined with a moving image captured by the camera 91 in real time, and an image of the combination result is obtained. Is displayed in live view.

ステップS30において、制御部201は、動画像に合成する合成用の画像である撮影用合成用画像を例えば記憶部202から読み出す。撮影用合成用画像が予め決められているのではなく、複数種類の画像の中から撮影用合成用画像を利用者に選択させるようにしてもよい。   In step S <b> 30, the control unit 201 reads from the storage unit 202, for example, a shooting composition image that is a composition image to be combined with a moving image. The shooting composition image is not determined in advance, and the user may select a shooting composition image from a plurality of types of images.

ステップS31において、制御部201は、カメラ91により取り込まれた動画像の各画像に撮影用合成用画像を合成し、合成結果をタッチパネルモニタ93に表示させてライブビュー表示を行う。図30を参照して説明した場合と同様に、ボーナス撮影時のライブビュー表示の画面に、1段目の合成処理によって得られた合成画像、または2段目の合成処理によって得られた合成画像が表示されるようにしてもよい。   In step S <b> 31, the control unit 201 synthesizes a photographic composition image with each moving image captured by the camera 91, displays the composition result on the touch panel monitor 93, and performs live view display. Similar to the case described with reference to FIG. 30, the composite image obtained by the first-stage composition process or the composite image obtained by the second-stage composition process on the live view display screen at the time of bonus shooting. May be displayed.

ステップS32において、制御部201はボーナス撮影を行う。すなわち、制御部201は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。   In step S32, the control unit 201 performs bonus shooting. That is, the control unit 201 displays a countdown indicator on the touch panel monitor 93 and notifies the user of the shooting timing.

撮影タイミングになったとき、ステップS33において、制御部201は、カメラ91を制御して撮影を行い、撮影画像を取得する。   When it is time to shoot, in step S33, the control unit 201 controls the camera 91 to perform shooting and obtains a shot image.

ステップS34において、制御部201は、ボーナス撮影によって得られた撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。図31を参照して説明した場合と同様に、ボーナス撮影時の撮影結果の確認画面に、2段階合成処理によって得られた合成画像が表示されるようにしてもよい。   In step S34, the control unit 201 displays a photographed image obtained by the bonus photographing on the touch panel monitor 93, and allows the user to confirm the photographing result. Similarly to the case described with reference to FIG. 31, the composite image obtained by the two-step composition process may be displayed on the photographing result confirmation screen at the time of bonus photographing.

ボーナス撮影の結果の確認が行われた後、またはステップS28において撮影可能時間内ではないと判定された場合、図28のステップS2に戻り、それ以降の処理が行われる。   After confirming the result of the bonus shooting, or when it is determined in step S28 that the time is not within the shooting possible time, the process returns to step S2 in FIG. 28 and the subsequent processing is performed.

次に、図32のフローチャートを参照して、図28のステップS3において行われる被写体の画像処理について説明する。   Next, the subject image processing performed in step S3 of FIG. 28 will be described with reference to the flowchart of FIG.

ステップS41において、制御部201は、撮影画像に写る利用者の目のサイズの選択に用いられる目サイズ選択画面をタッチパネルモニタ93に表示させ、利用者による選択を受け付ける。例えば、制御部201は、本撮影処理によって得られた複数の撮影画像(利用者が被写体として写っている画像)の中から所定の撮影画像を選択し、選択した撮影画像に写る利用者の目を検出する。制御部201は、検出した目のサイズを変えることによって、写っている目のサイズが異なる複数の画像を生成し、目サイズ選択画面に表示させる。利用者は、自分が実際に写っている画像を見て目のサイズを選択することができる。   In step S41, the control unit 201 causes the touch panel monitor 93 to display an eye size selection screen that is used to select the size of the user's eyes that appear in the captured image, and accepts selection by the user. For example, the control unit 201 selects a predetermined photographed image from a plurality of photographed images (images showing a user as a subject) obtained by the main photographing process, and the user's eyes appearing in the selected photographed image. Is detected. The control unit 201 generates a plurality of images with different eye sizes by changing the detected eye size, and displays the images on the eye size selection screen. The user can select the size of the eyes by looking at the image that he / she actually shows.

図33は、利用者自身が写されている撮影画像を使用して、被写体(利用者)の目のサイズを選択するのに用いられる目サイズ選択画面の例を示す図である。   FIG. 33 is a diagram illustrating an example of an eye size selection screen used to select the eye size of a subject (user) using a captured image in which the user himself is photographed.

目サイズ選択画面には、本撮影処理によって得られた撮影画像521が表示される。例えば図29を参照して説明したように撮影を6回繰り返し行ったときには6枚の撮影画像が得られており、目サイズ選択画面には、6枚の撮影画像である撮影画像521−1乃至521−6が、画面の中央から左側の位置に表示される。   A captured image 521 obtained by the actual photographing process is displayed on the eye size selection screen. For example, as described with reference to FIG. 29, when the shooting is repeated six times, six shot images are obtained, and in the eye size selection screen, the shot images 521-1 to 6 that are six shot images are displayed. 521-6 is displayed at a position on the left side from the center of the screen.

撮影画像521−1乃至521−6は、例えば2段階合成処理によって最終的に得られた合成画像である。   The captured images 521-1 to 521-6 are synthesized images that are finally obtained by, for example, two-stage synthesis processing.

撮影画像521−1乃至521−6の上方には、利用者自身が写されている撮影画像521−1乃至521−6により目のサイズの確認ができることを示す「目の大きさを自分の顔で確認してね」の文字が表示されている。   Above the captured images 521-1 to 521-6, it is shown that the size of the eyes can be confirmed by the captured images 521-1 to 521-6 in which the user himself is photographed. Please check with "is displayed.

目サイズ選択画面の右側には、目サイズ選択ボタン522−1乃至522−3が上から順に表示される。目サイズ選択ボタン522−1には、「ナチュラルeye」という文字と、目のサイズが自然な大きさのモデルの目の画像とが表示されている。目サイズ選択ボタン522−2には、「パッチリeye」という文字と、目のサイズが若干大きな(例えば、自然な大きさよりも1割程度大きな)モデルの目の画像とが表示されている。また、目サイズ選択ボタン522−2には、この大きさの目サイズを選択することが推奨されることを示唆する「おすすめ」の文字がハート形の図形とともに表示されている。   On the right side of the eye size selection screen, eye size selection buttons 522-1 to 522-3 are displayed in order from the top. On the eye size selection button 522-1, characters "natural eye" and an image of a model eye with a natural eye size are displayed. In the eye size selection button 522-2, characters "Patch Lee" and an image of a model eye having a slightly larger eye size (for example, about 10% larger than the natural size) are displayed. In addition, on the eye size selection button 522-2, a “recommended” character indicating that it is recommended to select an eye size of this size is displayed together with a heart-shaped figure.

目サイズ選択ボタン522−3には、「ボリュームeye」という文字と、目のサイズが比較的大きな(例えば、自然な大きさよりも2割程度大きな)モデルの目の画像とが表示されている。また、目サイズ選択ボタン522−1乃至522−3の右方には、上から下に向かう矢印が表示されるとともに、その矢印の上方に「natural」という文字が表示され、その矢印の下方に「big」という文字が表示されている。つまり、目サイズ選択ボタン522−1、目サイズ選択ボタン522−2、および目サイズ選択ボタン522−3の順に下に向かうにしたがって、目サイズが大きくなることを示している。   On the eye size selection button 522-3, characters “volume eye” and an image of a model eye having a relatively large eye size (for example, about 20% larger than the natural size) are displayed. In addition, an arrow from the top to the bottom is displayed on the right side of the eye size selection buttons 522-1 to 522-3, and the word “natural” is displayed above the arrow, and below the arrows. The word “big” is displayed. That is, the eye size increases as the eye size selection button 522-1, the eye size selection button 522-2, and the eye size selection button 522-3 move downward.

また、目サイズ選択画面の右下には、目のサイズの選択を決定するときに操作される決定ボタン523が表示されており、決定ボタン523には、「決定」という文字が表示されている。なお、目サイズ選択画面の上辺には、目のサイズの選択に用いられる画面であることを示す「目の大きさを選んでね!」という文字が表示される。また、目サイズ選択画面の右上側の「Time」と表示されている箇所には、目のサイズの選択を行うことができる制限時間がカウントダウン方式で表示される。   In addition, a determination button 523 that is operated when determining the selection of the eye size is displayed on the lower right of the eye size selection screen. The determination button 523 displays characters “OK”. . In addition, on the upper side of the eye size selection screen, characters “Please select the eye size!” Indicating that the screen is used for selecting the eye size are displayed. In addition, a time limit at which the eye size can be selected is displayed in a countdown manner at a position where “Time” is displayed on the upper right side of the eye size selection screen.

このような目サイズ選択画面がタッチパネルモニタ93に表示され、利用者が、目サイズ選択ボタン522−1乃至522−3のいずれかを選択すると、制御部201は、利用者による選択を受け付ける。そして、制御部201は、利用者により選択されたサイズの目が写されている画像になるように、撮影画像521−1乃至521−6の被写体の目のサイズを一括して変更する。   When such an eye size selection screen is displayed on the touch panel monitor 93 and the user selects any of the eye size selection buttons 522-1 to 522-3, the control unit 201 accepts the selection by the user. Then, the control unit 201 collectively changes the size of the subject's eyes in the captured images 521-1 to 521-6 so that the image of the size selected by the user is captured.

例えば、利用者が、目サイズ選択ボタン522−1を選択すると、制御部201は、画像から被写体の目を検出して、撮影画像521−1乃至521−6の被写体の目のサイズが自然な大きさとなるように変更する画像処理を施す。そして、制御部201は、その変更が反映された撮影画像521−1乃至521−6で目サイズ選択画面の表示を更新する。このとき、制御部201は、本撮影処理によって得られた全ての撮影画像521に対して、それぞれの撮影画像521に複数の被写体が写されていれば、その全ての被写体の目サイズを変更する画像処理を一括で施す画像処理を行う。   For example, when the user selects the eye size selection button 522-1, the control unit 201 detects the eye of the subject from the image, and the eye size of the subject of the captured images 521-1 to 521-6 is natural. Image processing is performed to change the size. Then, the control unit 201 updates the display of the eye size selection screen with the captured images 521-1 to 521-6 in which the change is reflected. At this time, the control unit 201 changes the eye size of all of the captured images 521 if all of the captured images 521 are captured in each captured image 521 with respect to all the captured images 521 obtained by the actual capturing process. Image processing is performed for batch image processing.

同様に、利用者が、目サイズ選択ボタン522−2を選択すると、制御部201は、撮影画像521−1乃至521−6の被写体の目のサイズが若干大きくなるように変更し、その変更が反映された撮影画像521−1乃至521−6を表示する。また、利用者が、目サイズ選択ボタン522−3を選択すると、制御部201は、撮影画像521−1乃至521−6に写る利用者の目のサイズが比較的大きくなるように変更し、その変更が反映された撮影画像521−1乃至521−6を表示する。   Similarly, when the user selects the eye size selection button 522-2, the control unit 201 changes the subject eye size of the captured images 521-1 to 521-6 to be slightly larger, and the change is made. The reflected captured images 521-1 to 521-6 are displayed. When the user selects the eye size selection button 522-3, the control unit 201 changes the size of the user's eyes shown in the captured images 521-1 to 521-6 to be relatively large, and The captured images 521-1 to 521-6 reflecting the change are displayed.

そして、利用者が、目のサイズの選択を行った後に決定ボタン523を選択すると、その時点で撮影画像521−1乃至521−6に反映されていた大きさで、被写体の目のサイズの選択が決定される。   When the user selects the determination button 523 after selecting the eye size, the eye size of the subject is selected with the size reflected in the captured images 521-1 to 521-6 at that time. Is determined.

このように、写真シール機1では、目のサイズが選択されると、制御部201は、撮影画像521−1乃至521−6の被写体の目のサイズを変更する画像処理を行って、その変更が反映された撮影画像521−1乃至521−6を表示する。従って、利用者は、目のサイズの変更が反映された利用者自身が表示される撮影画像521−1乃至521−6を確認しながら、最適な目のサイズを選択することができる。これにより、写真シール機1では、所望の目サイズとなるように画像処理が施された利用者が写る撮影画像521−1乃至521−6を提供することができる。   As described above, in the photo sticker 1, when the eye size is selected, the control unit 201 performs image processing to change the eye size of the subject in the captured images 521-1 to 521-6, and the change is performed. The captured images 521-1 to 521-6 reflecting the above are displayed. Therefore, the user can select the optimum eye size while confirming the captured images 521-1 to 521-6 on which the user himself / herself reflects the change in the eye size. As a result, the photograph sticker 1 can provide the captured images 521-1 to 521-6 in which the user who has been subjected to the image processing so as to have a desired eye size is shown.

なお、図33では、予め用意されたモデルの目の画像が目サイズ選択ボタン522−1乃至522−3に表示されているが、例えば、撮影画像521−1乃至521−6に写されているいずれかの被写体(利用者自身)の目を使用してもよい。即ち、撮影画像521−1乃至521−6から、被写体の目を含む所定範囲を切り出して、その切り出した画像の目の大きさを適宜変更して目サイズ選択ボタン522−1乃至522−3に表示することができる。また、目のサイズの変更には、例えば、目の大きさ自体を変更する他、黒目の大きさを変更したり、まつ毛のボリュームを変更したりすることが含まれる。   In FIG. 33, images of the eyes of a model prepared in advance are displayed on the eye size selection buttons 522-1 to 522-3. For example, the images are captured in the captured images 521-1 to 521-6. Any subject's (user's own) eyes may be used. That is, a predetermined range including the subject's eyes is cut out from the photographed images 521-1 to 521-6, and the eye size of the cut-out image is appropriately changed to the eye size selection buttons 522-1 to 522-3. Can be displayed. The change in the eye size includes, for example, changing the size of the eye itself, changing the size of the black eye, and changing the volume of the eyelashes.

図32の説明に戻り、ステップS42において、制御部201は、利用者による操作に応じて目のサイズを選択する。   Returning to the description of FIG. 32, in step S <b> 42, the control unit 201 selects an eye size according to an operation by the user.

ステップS43において、制御部201は、利用者により選択されたサイズの目が写っている画像になるように、全ての撮影画像に写る利用者の目のサイズを一括して変更する。   In step S <b> 43, the control unit 201 collectively changes the size of the user's eyes that appear in all the captured images so that the image includes the eyes of the size selected by the user.

ステップS44において、制御部201は、目のサイズを変更した撮影画像をタッチパネルモニタ93に表示し、目のサイズの変更結果を利用者に確認させる。   In step S44, the control unit 201 displays the captured image with the eye size changed on the touch panel monitor 93, and allows the user to confirm the result of the eye size change.

ステップS45において、制御部201は、決定ボタン523が押されたか否かをタッチパネルモニタ93から供給された情報に基づいて判定し、押されていないと判定した場合、ステップS42に戻り、以上の処理を繰り返す。   In step S45, the control unit 201 determines whether or not the determination button 523 is pressed based on the information supplied from the touch panel monitor 93. If it is determined that the determination button 523 is not pressed, the control unit 201 returns to step S42 and performs the above processing. repeat.

一方、決定ボタンが押されたとステップS45において判定した場合、ステップS46において、制御部201は、目のサイズを決定し、決定した目のサイズを表す情報を記憶部202などに記憶させて保存する。被写体の画像処理の終了後にタブレット内蔵モニタ131に表示される編集対象画像の選択画面や編集画面には、利用者により選択されたサイズで利用者の目が写っている撮影画像が表示される。   On the other hand, if it is determined in step S45 that the enter button has been pressed, in step S46, the control unit 201 determines the eye size, and stores information indicating the determined eye size in the storage unit 202 or the like and saves it. . On the editing target image selection screen or editing screen displayed on the tablet built-in monitor 131 after the image processing of the subject is completed, a photographed image showing the user's eyes in the size selected by the user is displayed.

ステップS47において、制御部201は、撮影画像の明るさの選択に用いられる明るさ選択画面をタッチパネルモニタ93に表示させ、利用者による選択を受け付ける。例えば、制御部201は、本撮影処理によって得られた複数の撮影画像の中から所定の撮影画像を選択し、選択した撮影画像の明るさを変えることによって明るさの異なる複数の画像を生成する。制御部201は、生成した複数の画像を明るさ選択画面に表示させ、画像の明るさを利用者に選択させる。利用者は、自分が実際に写っている画像を見て画像の明るさを選択することができる。   In step S <b> 47, the control unit 201 displays a brightness selection screen used for selecting the brightness of the captured image on the touch panel monitor 93 and accepts selection by the user. For example, the control unit 201 selects a predetermined photographed image from a plurality of photographed images obtained by the main photographing process, and generates a plurality of images having different brightness by changing the brightness of the selected photographed image. . The control unit 201 displays the generated plurality of images on the brightness selection screen, and causes the user to select the brightness of the image. The user can select the brightness of the image by looking at the image that he / she actually shows.

図34は、利用者自身が写されている撮影画像を使用して、被写体の明るさを選択するのに用いられる明るさ選択画面の例を示す図である。   FIG. 34 is a diagram illustrating an example of a brightness selection screen used to select the brightness of a subject using a captured image in which the user himself is photographed.

明るさ選択画面には、本撮影処理によって得られた撮影画像531が表示される。例えば図29を参照して説明したように撮影を6回繰り返し行ったときには6枚の撮影画像が得られており、明るさ選択画面には、6枚の撮影画像である撮影画像531−1乃至531−6が、画面の中央から左側の位置に表示される。   A captured image 531 obtained by the actual photographing process is displayed on the brightness selection screen. For example, as described with reference to FIG. 29, when the shooting is repeated six times, six shot images are obtained, and the brightness selection screen displays the shot images 531-1 to 531-1 which are six shot images. 531-6 is displayed on the left side from the center of the screen.

撮影画像531−1乃至531−6は、例えば2段階合成処理によって最終的に得られた合成画像である。   The captured images 531-1 to 531-6 are synthesized images finally obtained by, for example, two-stage synthesis processing.

また、撮影画像531−1乃至531−6の上方には、利用者自身が写されている撮影画像531−1乃至531−6により被写体の明るさの確認ができることを示す「明るさを自分の顔で確認してね」の文字が表示されている。   In addition, above the captured images 531-1 to 531-6, “the brightness is adjusted to the user's own brightness” indicating that the brightness of the subject can be confirmed by the captured images 531-1 to 531-6 in which the user himself is photographed. Please check with your face "is displayed.

明るさ選択画面の右側には、明るさ選択ボタン532−1乃至532−5が上から順に表示される。明るさ選択ボタン532−1乃至532−5には、「1」から「5」までの数値がそれぞれ表示されているとともに、明るさの異なるモデルがそれぞれ表示されている。明るさ選択ボタン532−1乃至532−5の「1」から「5」までの数値は、明るさの程度を示しており、数値が大きくなるほど被写体が暗い色合いとなる。   On the right side of the brightness selection screen, brightness selection buttons 532-1 to 532-5 are displayed in order from the top. On the brightness selection buttons 532-1 to 532-5, numerical values from “1” to “5” are respectively displayed, and models having different brightness are respectively displayed. The numerical values from “1” to “5” of the brightness selection buttons 532-1 to 532-5 indicate the degree of brightness. The larger the numerical value, the darker the subject becomes.

また、明るさ選択ボタン532−3には、標準の(自然な)明るさのモデルの画像が表示されている。そして、明るさ選択ボタン532−2には、若干明るい色合いの(例えば、自然な明るさよりも1割程度明るさを増加した)モデルの画像が表示され、明るさ選択ボタン532−1には、比較的明るい色合いの(例えば、自然な明るさよりも2割程度明るさを増加した)モデルの画像が表示される。一方、明るさ選択ボタン532−4には、若干暗い色合いの(例えば、自然な明るさよりも1割程度明るさを低減した)モデルの画像が表示され、明るさ選択ボタン532−5のモデルは、比較的暗い色合いの(例えば、自然な明るさよりも2割程度明るさを低減した)モデルの画像が表示される。   The brightness selection button 532-3 displays a standard (natural) brightness model image. The brightness selection button 532-2 displays an image of a model with a slightly brighter hue (for example, the brightness is increased by about 10% from the natural brightness), and the brightness selection button 532-1 has a brightness selection button 532-1. An image of a model having a relatively bright hue (for example, the brightness is increased by about 20% from the natural brightness) is displayed. On the other hand, the brightness selection button 532-4 displays an image of a model with a slightly darker hue (for example, the brightness is reduced by about 10% from the natural brightness), and the model of the brightness selection button 532-5 is An image of a model having a relatively dark hue (for example, the brightness is reduced by about 20% from the natural brightness) is displayed.

また、明るさ選択ボタン532−1乃至532−5の右方には、上から下に向かって順に、「美白」、「おすすめ」、および「美黒」という文字が表示されている。つまり、明るさ選択ボタン532−1乃至532−5の並びにおいて、上側が被写体を明るくし、下側が被写体を暗くすることを示している。   In addition, on the right side of the brightness selection buttons 532-1 to 532-5, characters “whitening”, “recommended”, and “beautiful black” are displayed in order from the top to the bottom. That is, in the arrangement of the brightness selection buttons 532-1 to 532-5, the upper side brightens the subject, and the lower side darkens the subject.

また、明るさ選択画面の右下側には、被写体の明るさを決定するときに操作される決定ボタン533が表示されており、決定ボタン533には、「決定」という文字が表示されている。なお、明るさ選択画面の上辺には、被写体の明るさの選択に用いられる画面であることを示唆する「好きな明るさを選んでね!」という文字が表示される。また、明るさ選択画面の右上側の「Time」と表示されている箇所には、被写体の明るさの選択を行うことができる制限時間がカウントダウン方式で表示される。   In addition, a determination button 533 operated when determining the brightness of the subject is displayed on the lower right side of the brightness selection screen. The determination button 533 displays characters “OK”. . In addition, on the upper side of the brightness selection screen, a character “Please choose your favorite brightness!” Is displayed, which indicates that the screen is used for selecting the brightness of the subject. In addition, a time limit in which the brightness of the subject can be selected is displayed in a countdown manner at a position where “Time” is displayed on the upper right side of the brightness selection screen.

このような明るさ選択画面がタッチパネルモニタ93に表示され、利用者が、明るさ選択ボタン532−1乃至532−5のいずれかを選択すると、制御部201は、利用者による選択を受け付ける。そして、制御部201は、利用者により選択された明るさで被写体が写されている画像になるように、撮影画像531−1乃至531−6の被写体の明るさを一括して変更する画像処理を行う。   When such a brightness selection screen is displayed on the touch panel monitor 93 and the user selects any of the brightness selection buttons 532-1 to 532-5, the control unit 201 accepts the selection by the user. Then, the control unit 201 collectively changes the brightness of the subjects of the captured images 531-1 to 531-6 so that the subject is captured at the brightness selected by the user. I do.

例えば、利用者が、明るさ選択ボタン532−3を選択すると、制御部201は、画像から被写体を検出して、撮影画像531−1乃至531−6の被写体の明るさが自然な明るさとなるように変更する画像処理を施す。そして、制御部201は、その変更が反映された撮影画像531−1乃至531−6で明るさ選択画面の表示を更新する。このとき、制御部201は、本撮影処理によって得られた全ての撮影画像531に対して、それぞれの撮影画像531に複数の被写体が写されていれば、その全ての被写体の明るさを変更する画像処理を一括で施す。   For example, when the user selects the brightness selection button 532-3, the control unit 201 detects the subject from the image, and the brightness of the subjects of the captured images 531-1 to 531-6 becomes a natural brightness. The image processing to be changed is performed. Then, the control unit 201 updates the display of the brightness selection screen with the captured images 531-1 to 531-6 in which the change is reflected. At this time, if a plurality of subjects are captured in each captured image 531 with respect to all the captured images 531 obtained by the main capturing process, the control unit 201 changes the brightness of all the subjects. Apply image processing all at once.

同様に、利用者が、明るさ選択ボタン532−2を選択すると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさが若干明るくなるように変更し、その変更が反映された撮影画像531−1乃至531−6を表示する。また、利用者が、明るさ選択ボタン532−1を選択すると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさが比較的明るくなるように変更し、その変更が反映された撮影画像531−1乃至531−6を表示する。一方、利用者が、明るさ選択ボタン532−4を選択すると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさが若干暗くなるように変更し、その変更が反映された撮影画像531−1乃至531−6を表示する。また、利用者が、明るさ選択ボタン532−5を選択すると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさが比較的暗くなるように変更し、その変更が反映された撮影画像531−1乃至531−6を表示する。   Similarly, when the user selects the brightness selection button 532-2, the control unit 201 changes the brightness of the subjects of the captured images 531-1 to 531-6 to be slightly brighter, and the change is reflected. The captured images 531-1 to 531-6 are displayed. When the user selects the brightness selection button 532-1, the control unit 201 changes the brightness of the subjects of the captured images 531-1 to 531-6 to be relatively bright, and the change is reflected. The captured images 531-1 to 531-6 are displayed. On the other hand, when the user selects the brightness selection button 532-4, the control unit 201 changes the brightness of the subjects of the captured images 531-1 to 531-6 to be slightly dark, and the change is reflected. The captured images 531-1 to 531-6 are displayed. When the user selects the brightness selection button 532-5, the control unit 201 changes the brightness of the subjects of the captured images 531-1 to 531-6 to be relatively dark, and the change is reflected. The captured images 531-1 to 531-6 are displayed.

そして、利用者が、被写体の明るさの選択を行った後に決定ボタン533を選択すると、その時点で撮影画像531−1乃至531−6に反映されていた明るさで、被写体の明るさの選択が決定される。   When the user selects the determination button 533 after selecting the brightness of the subject, the selection of the brightness of the subject is performed with the brightness reflected in the captured images 531-1 to 531-6 at that time. Is determined.

このように、写真シール機1では、被写体の明るさが選択されると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさを変更する画像処理を行って、その変更が反映された撮影画像531−1乃至531−6を表示する。従って、利用者は、明るさの変更が反映された利用者自身が表示される撮影画像531−1乃至531−6を確認しながら、最適な被写体の明るさを選択することができる。これにより、写真シール機1では、所望の明るさとなるように画像処理が施された利用者が写る撮影画像531−1乃至531−6を提供することができる。   As described above, in the photo sticker 1, when the brightness of the subject is selected, the control unit 201 performs image processing to change the brightness of the subject of the captured images 531-1 to 531-6, and changes the change. The captured images 531-1 to 531-6 reflecting the above are displayed. Accordingly, the user can select the optimum brightness of the subject while confirming the captured images 531-1 to 531-6 on which the user himself / herself reflects the change in brightness. As a result, the photograph sticker 1 can provide photographed images 531-1 to 531-6 in which a user who has been subjected to image processing to have a desired brightness is shown.

なお、図34では、予め用意されたモデルの顔の画像が明るさ選択ボタン532−1乃至532−5に表示されているが、例えば、撮影画像531−1乃至531−6に写されているいずれかの被写体(利用者自身)の顔を使用してもよい。即ち、撮影画像531−1乃至531−6から、被写体の顔を含む所定範囲を切り出して、その切り出した画像の被写体の明るさを適宜変更して明るさ選択ボタン532−1乃至532−5に表示することができる。   In FIG. 34, images of model faces prepared in advance are displayed on the brightness selection buttons 532-1 to 532-5, but are shown as captured images 531-1 to 531-6, for example. Any subject (user's own) face may be used. That is, a predetermined range including the face of the subject is cut out from the captured images 531-1 to 531-6, and the brightness of the subject of the cut-out image is changed as appropriate to change the brightness selection buttons 532-1 to 532-5. Can be displayed.

また、被写体の明るさを選択する処理が、上述したような被写体の目のサイズを選択する処理の後に行われる場合、撮影画像531−1乃至531−6には、目のサイズの変更が反映された被写体が表示される。   When the process of selecting the brightness of the subject is performed after the process of selecting the eye size of the subject as described above, the captured image 531-1 to 531-6 reflects the change of the eye size. The selected subject is displayed.

図32の説明に戻り、ステップS48において、制御部201は、利用者による操作に応じて明るさを選択する。   Returning to the description of FIG. 32, in step S <b> 48, the control unit 201 selects brightness according to an operation by the user.

ステップS49において、制御部201は、利用者により選択された明るさの画像になるように、全ての撮影画像の明るさを一括して変更する。   In step S49, the control unit 201 collectively changes the brightness of all the captured images so as to obtain an image having the brightness selected by the user.

ステップS50において、制御部201は、明るさを変更した撮影画像をタッチパネルモニタ93に表示し、明るさの変更結果を利用者に確認させる。   In step S50, the control unit 201 displays the photographed image with the changed brightness on the touch panel monitor 93, and allows the user to confirm the result of the brightness change.

ステップS51において、制御部201は、決定ボタン533が押されたか否かをタッチパネルモニタ93から供給された情報に基づいて判定し、押されていないと判定した場合、ステップS48に戻り、以上の処理を繰り返す。   In step S51, the control unit 201 determines whether or not the determination button 533 is pressed based on the information supplied from the touch panel monitor 93. If it is determined that the determination button 533 is not pressed, the control unit 201 returns to step S48 and performs the above processing. repeat.

一方、決定ボタンが押されたとステップS51において判定した場合、ステップS52において、制御部201は、画像の明るさを決定し、決定した明るさを表す情報を記憶部202などに記憶させて保存する。被写体の画像処理の終了後にタッチパネルモニタ93に表示される編集対象の画像の選択画面やタブレット内蔵モニタ131に表示される編集画面には、利用者により選択された明るさの撮影画像が表示される。   On the other hand, if it is determined in step S51 that the enter button has been pressed, in step S52, the control unit 201 determines the brightness of the image, and stores the information indicating the determined brightness in the storage unit 202 or the like. . On the selection screen for the image to be edited displayed on the touch panel monitor 93 after the image processing of the subject and the editing screen displayed on the tablet built-in monitor 131, a photographed image having the brightness selected by the user is displayed. .

このように、被写体の画像処理は、撮影画像に写る利用者の目のサイズと撮影画像の明るさを選択する処理である。その後、図28のステップS3に戻り、それ以降の処理が行われる。   As described above, the subject image processing is processing for selecting the size of the user's eyes appearing in the captured image and the brightness of the captured image. Thereafter, the process returns to step S3 in FIG. 28, and the subsequent processing is performed.

次に、図35のフローチャートを参照して、図28のステップS5において行われる撮影画像の画像処理について説明する。撮影画像の画像処理は、編集空間A2−1、または編集空間A2−2にいる利用者を対象として行われる処理である。   Next, image processing of the captured image performed in step S5 of FIG. 28 will be described with reference to the flowchart of FIG. The image processing of the captured image is processing performed for the user in the editing space A2-1 or the editing space A2-2.

ステップS61において、制御部201は、編集対象画像の選択画面をタブレット内蔵モニタ131に表示させ、利用者による選択を受け付ける。   In step S61, the control unit 201 displays an edit target image selection screen on the tablet built-in monitor 131, and accepts selection by the user.

図36は、利用者自身が写されている撮影画像を使用して、編集対象の画像を選択するのに用いられる選択画面の例を示す図である。   FIG. 36 is a diagram illustrating an example of a selection screen used to select an image to be edited using a captured image in which the user himself is photographed.

編集対象画像の選択画面には、本撮影処理によって得られた撮影画像541が表示される。例えば図29を参照して説明したように撮影を6回繰り返し行ったときには6枚の撮影画像が得られており、編集対象画像の選択画面には、6枚の撮影画像である撮影画像541−1乃至541−6が、画面の中央から左側の位置に表示される。   On the selection screen for the image to be edited, a captured image 541 obtained by the actual photographing process is displayed. For example, as described with reference to FIG. 29, when the shooting is repeated six times, six shot images are obtained, and the shot image 541 that is the six shot images is displayed on the selection screen of the editing target image. 1 to 541-6 are displayed at positions on the left side from the center of the screen.

撮影画像541−1乃至541−6は、例えば2段階合成処理によって最終的に得られた合成画像である。   The captured images 541-1 to 541-6 are combined images finally obtained by, for example, two-step combining processing.

撮影画像541−1乃至541−6の上方には、利用者自身が写されている撮影画像541−1乃至541−6の中から編集対象の画像を選択できることを示す「落書きする画像を選んでね」の文字が表示されている。   Above the captured images 541-1 to 541-6, “Select a graffiti image is selected” indicating that an image to be edited can be selected from the captured images 541-1 to 541-6 in which the user himself is captured. "Ne" is displayed.

編集対象画像の選択画面の右側には、撮影画像541−1乃至541−6の全ての撮影画像を編集対象画像として選択するときに操作される全部選択ボタン542と、撮影画像541−1乃至541−6のうちの所定の撮影画像を編集対象画像として選択するときに操作される決定ボタン543とが表示される。全部選択ボタン542を押したとき、撮影画像541−1乃至541−6の全ての撮影画像が編集対象画像として保存され、撮影画像541−1乃至541−6のうちの所定の撮影画像を選択した状態で決定ボタン543を押したとき、選択している撮影画像が編集対象画像として保存される。   On the right side of the selection screen of the editing target image, an all selection button 542 operated when selecting all the captured images of the captured images 541-1 to 541-6 as editing target images, and the captured images 541-1 to 541 are displayed. A determination button 543 that is operated when a predetermined photographed image of −6 is selected as an image to be edited is displayed. When the select all button 542 is pressed, all of the photographed images 541-1 to 541-6 are stored as images to be edited, and a predetermined photographed image is selected from the photographed images 541-1 to 541-6. When the enter button 543 is pressed in the state, the selected photographed image is saved as an image to be edited.

図35の説明に戻り、ステップS62において、制御部201は、編集対象画像として図36の選択画面から選択された撮影画像を記憶部202に記憶させて保存する。   Returning to the description of FIG. 35, in step S62, the control unit 201 causes the storage unit 202 to store and save the captured image selected from the selection screen of FIG.

ステップS63において、制御部201は、撮影用合成用画像の選択画面をタブレット内蔵モニタ131に表示させる。   In step S <b> 63, the control unit 201 causes the tablet built-in monitor 131 to display a shooting composition image selection screen.

図37は、撮影画像に写されている被写体の背景に用いる撮影用合成用画像を選択するのに用いられる撮影用合成用画像の選択画面の例を示す図である。   FIG. 37 is a diagram showing an example of a selection screen for selecting a composite image for shooting used to select a composite image for shooting used for the background of the subject captured in the captured image.

上述したように、2段階合成処理を行うことによって得られた合成画像は、本撮影処理時や被写体の画像処理時、または編集対象画像の選択時に表示される。撮影用合成用画像を選択時にも複数の背景画像に合成するようにして2段階合成処理が行われ、図37の選択画面が表示される。   As described above, the composite image obtained by performing the two-stage composition process is displayed during the main photographing process, the subject image process, or the selection of the image to be edited. A two-step composition process is performed so as to compose a plurality of background images at the time of selecting a composite image for shooting, and the selection screen shown in FIG. 37 is displayed.

撮影用合成用画像の選択画面には、撮影用合成用画像の分類ボタンの表示領域である表示領域551、合成画像の表示領域である表示領域552、および、撮影画像と選択済みの合成画像の表示領域である表示領域553が設けられる。   On the selection screen for the composite image for shooting, a display area 551 that is a display area of the classification button for the composite image for shooting, a display area 552 that is a display area of the composite image, and a combination of the captured image and the selected composite image are displayed. A display area 553 which is a display area is provided.

表示領域551には、ノーマルボタン554、柄ボタン555、およびセットボタン556が表示される。図37の例では、黒色で反転表示されているノーマルボタン554が選択されている。   In the display area 551, a normal button 554, a pattern button 555, and a set button 556 are displayed. In the example of FIG. 37, the normal button 554 that is highlighted in black is selected.

ノーマルボタン554および柄ボタン555は、予め用意された複数の撮影用合成用画像の中から、利用者が、所望の撮影用合成用画像を選択するときに操作される。ノーマルボタン554を選択することにより、各種の色からなる撮影用合成用画像の中から所望の撮影用合成用画像を選択することができる。また、柄ボタン555を選択することにより、各種の柄からなる撮影用合成用画像の中から所望の撮影用合成用画像を選択することができる。   The normal button 554 and the pattern button 555 are operated when the user selects a desired shooting composition image from a plurality of shooting composition images. By selecting the normal button 554, a desired photographic composition image can be selected from among photographic composition images having various colors. Further, by selecting the pattern button 555, it is possible to select a desired photographing composition image from among photographing composition images having various patterns.

セットボタン556は、複数の撮影用合成用画像のセットの中から、利用者が所望の撮影用合成用画像のセットを選択するときに操作される。撮影用合成用画像のセットは、例えば、各種の色および柄からなる複数種類の撮影用合成用画像の中から、撮影枚数(例えば、6枚)に従って、任意の種類の撮影用合成用画像が組み合わされて、予め用意されている。   The set button 556 is operated when the user selects a desired set of shooting composition images from a plurality of shooting composition images. The set of photographic composition images includes, for example, any type of photographic composition image according to the number of images (for example, six images) out of a plurality of types of photographic composition images having various colors and patterns. Combined and prepared in advance.

表示領域552には複数の合成画像が表示される。合成画像は、2段階合成処理のうちの1段目の合成処理を行うことによって生成された合成結果の画像である。2段階合成処理によって最終的に得られた合成画像が表示領域552に表示されるようにしてもよい。   In the display area 552, a plurality of composite images are displayed. The composite image is an image of a composite result generated by performing the first stage of the two-stage composite process. The synthesized image finally obtained by the two-stage synthesis process may be displayed in the display area 552.

表示領域553には、撮影画像と選択済みの合成画像が表示される。撮影画像と選択済みの合成画像は、2段階合成処理のうちの1段目の合成処理を行うことによって生成された合成結果の画像である。2段階合成処理によって最終的に得られた合成画像が表示領域553に表示されるようにしてもよい。   In the display area 553, the captured image and the selected composite image are displayed. The photographed image and the selected composite image are images of the composite results generated by performing the first stage of the two-stage composite process. The synthesized image finally obtained by the two-stage synthesis process may be displayed in the display area 553.

表示領域551に表示されているボタンを操作することによって撮影用合成用画像が選択された場合、制御部201の画像処理部1001は、表示領域553において選択されている撮影画像を取得し、上述したようにしてマスク画像を生成する。画像処理部1001は、撮影画像に写る利用者の部分と影の部分をマスク画像を用いて抽出し、選択されたそれぞれの撮影用合成用画像に合成することによって複数の合成画像を生成し、表示領域552に並べて表示させる。   When a shooting composition image is selected by operating a button displayed in the display area 551, the image processing unit 1001 of the control unit 201 acquires the shot image selected in the display area 553, and A mask image is generated as described above. The image processing unit 1001 generates a plurality of composite images by extracting a user's part and a shadow part appearing in the photographed image using a mask image, and synthesizing them with each of the selected photographing composition images. They are displayed side by side in the display area 552.

図37の例では、それぞれ異なる色の撮影用合成用画像を背景画像として用いて1段目の合成処理を行うことによって得られた27枚(3行×9列)の合成画像が表示領域552に示されている。   In the example of FIG. 37, 27 composite images (3 rows × 9 columns) obtained by performing the first-stage compositing process using the shooting compositing images of different colors as the background image are displayed in the display area 552. Is shown in

例えば、利用者が、合成画像の表示領域552に表示されている複数の合成画像の中から、任意の合成画像を選択すると、その合成画像に合成されている撮影用合成用画像が選択される。そして、利用者により選択された合成画像には、既に選択されたことを示唆する「済」のマークが表示される。また、直前に選択された合成画像には、利用者が選択したばかりであることを示唆する「SELECT」の文字が表示される。   For example, when the user selects an arbitrary composite image from a plurality of composite images displayed in the composite image display area 552, a shooting composite image combined with the composite image is selected. . Then, a “completed” mark indicating that the user has already selected is displayed on the composite image selected by the user. In the composite image selected immediately before, a character “SELECT” indicating that the user has just selected is displayed.

表示領域553には、表示領域552から選択された合成画像である合成画像557と、6枚の撮影画像のうち、撮影用合成用画像がまだ選択されていない撮影画像である撮影画像558が表示される。図37の例では、表示領域553には、合成画像557−1乃至557−4と、撮影画像558−5,558−6が表示されている。また、合成画像557−1乃至557−4の下には、キャンセルボタン559−1乃至559−4がそれぞれ表示されている。   In the display area 553, a composite image 557, which is a composite image selected from the display area 552, and a captured image 558, which is a captured image for which no composite image for capturing has been selected from among the six captured images, are displayed. Is done. In the example of FIG. 37, composite images 557-1 to 557-4 and captured images 558-5 and 558-6 are displayed in the display area 553. Cancel buttons 559-1 to 559-4 are displayed below the composite images 557-1 to 557-4, respectively.

例えば、撮影用合成用画像の選択画面が最初に表示されたときには、表示領域553には6枚の撮影画像558が表示される。なお、表示領域553では、本撮影処理によって撮影された順番で左側から順に撮影画像558が表示され、左端に表示された撮影画像558から順に合成画像の選択が行われる。表示領域553に表示される撮影画像558は、上述した被写体の画像処理により、被写体の目のサイズと明るさが変更された画像である。   For example, when the shooting composition image selection screen is first displayed, six captured images 558 are displayed in the display area 553. In the display area 553, the captured images 558 are displayed in order from the left side in the order of shooting by the main shooting process, and the composite image is selected in order from the captured image 558 displayed at the left end. The captured image 558 displayed in the display area 553 is an image in which the size and brightness of the subject's eyes are changed by the above-described subject image processing.

利用者が、1枚目の撮影画像558に対して、合成画像の表示領域552に表示されている複数の合成画像の中から、所望の合成画像を選択することにより、その合成画像に合成されている撮影用合成用画像が選択される。これに従って、1枚目の撮影画像558の表示が、利用者により選択された合成画像557−1に更新される。つまり、1枚目の撮影画像558に替えて、1枚目の撮影画像558の被写体の背景に、利用者により選択された撮影用合成用画像が合成された合成画像557−1が表示される。さらに、合成画像557−1の下方に、キャンセルボタン559−1が表示される。   When the user selects a desired composite image from a plurality of composite images displayed in the composite image display area 552 with respect to the first photographed image 558, the composite image is combined with the composite image. The composite image for shooting is selected. Accordingly, the display of the first photographed image 558 is updated to the composite image 557-1 selected by the user. That is, instead of the first photographed image 558, a composite image 557-1 obtained by compositing the photographing composite image selected by the user is displayed on the background of the subject of the first photographed image 558. . Further, a cancel button 559-1 is displayed below the composite image 557-1.

以下、同様に、利用者が、2枚目の撮影画像558、3枚目の撮影画像558、および4枚目の撮影画像558に対して撮影用合成用画像を順番に選択すると、その選択に従って、合成画像557−2乃至557−4がそれぞれ表示される。さらに、合成画像557−2乃至557−4の下に、キャンセルボタン559−2乃至559−4がそれぞれ表示される。   In the same manner, when the user sequentially selects a photographic composite image for the second photographic image 558, the third photographic image 558, and the fourth photographic image 558, the user follows the selection. The composite images 557-2 to 557-4 are respectively displayed. Further, cancel buttons 559-2 to 559-4 are displayed below the composite images 557-2 to 557-4, respectively.

このように、図37には、4枚目の撮影画像558に対して撮影用合成用画像が選択された時点での撮影用合成用画像の選択画面が示されている。   In this way, FIG. 37 shows a selection screen for selecting a composite image for shooting when a composite image for shooting is selected for the fourth captured image 558.

従って、この撮影用合成用画像の選択画面では、撮影画像558−5に対する撮影用合成用画像の選択が行われる。そのことを示すため、撮影画像558−5を囲うように枠560が表示されるとともに、撮影画像および合成画像の表示領域553の上方に「5枚目の背景を選んでね!」という文字が表示される。   Accordingly, on the selection screen for the composite image for shooting, the composite image for shooting with respect to the captured image 558-5 is selected. In order to indicate this, a frame 560 is displayed so as to surround the photographed image 558-5, and characters “Please select the fifth background!” Above the display area 553 of the photographed image and the composite image. Is displayed.

また、撮影画像および合成画像の表示領域553の左方には、キャンセルボタン559により選択済みの撮影用合成用画像のキャンセルができることを示す「キャンセルボタンで選んだ背景をキャンセルできるよ」という文字が表示されている。即ち、キャンセルボタン559を操作することで、その上方に表示されている合成画像557に合成されている撮影用合成用画像の選択をキャンセルして、撮影用合成用画像を選び直すことができる。また、撮影用合成用画像の選択画面の右上側の「Time」と表示されている箇所には、撮影用合成用画像の選択を行うことができる制限時間がカウントダウン方式で表示される。   In addition, on the left side of the display area 553 of the captured image and the composite image, there is a character “You can cancel the background selected with the cancel button” indicating that the composite image for shooting that has been selected with the cancel button 559 can be cancelled. It is displayed. In other words, by operating the cancel button 559, the selection of the photographic composite image combined with the composite image 557 displayed above it can be canceled and the photographic composite image can be selected again. In addition, a time limit for selecting a photographic composite image is displayed in a countdown manner at a position where “Time” is displayed on the upper right side of the photographic composite image selection screen.

合成画像の表示領域552の右側には、人を消すボタン561が表示されている。   On the right side of the composite image display area 552, a button 561 for deleting a person is displayed.

人を消すボタン561は、表示領域552に表示されている合成画像を、被写体が合成されていない状態に表示を変更する際に操作される。例えば、通常、表示領域552には、撮影画像の被写体と撮影用合成用画像とが合成された合成画像が表示されるが、被写体によって撮影用合成用画像の色や柄を確認し難い場合があると想定される。そのような場合には、利用者が人を消すボタン561を操作することで、表示領域552には撮影用合成用画像(つまり、背景のみ)が表示されることになり、利用者が、撮影用合成用画像の色や柄を確認し易くなる。   The erase button 561 is operated when changing the display of the composite image displayed in the display area 552 to a state in which the subject is not composited. For example, the display area 552 normally displays a composite image in which the subject of the captured image and the composite image for shooting are combined, but it may be difficult to confirm the color or pattern of the composite image for shooting depending on the subject. It is assumed that there is. In such a case, when the user operates the button 561 for deleting a person, a composite image for shooting (that is, only the background) is displayed in the display area 552, and the user can take a picture. It becomes easy to confirm the color and pattern of the image for composition.

また、人を消すボタン561が操作され、表示領域552に撮影用合成用画像が表示されるのと同時に、人を消すボタン561に表示されていた文字は「人を表示する」に変更される。そして、表示領域552の表示が撮影用合成用画像であるときに、利用者が人を消すボタン561を操作すると、表示領域552が元に戻り、図37に示すように、被写体の背景に撮影用合成用画像が合成された合成画像が表示領域552に表示される。   In addition, when the person erasing button 561 is operated to display the shooting composition image in the display area 552, the character displayed on the person erasing button 561 is changed to “display person”. . Then, when the display area 552 is a composite image for photographing, when the user operates the button 561 for erasing the person, the display area 552 is restored to the original, as shown in FIG. A synthesized image obtained by synthesizing the image for synthesis is displayed in the display area 552.

図35の説明に戻り、ステップS64において、制御部201は、図37の選択画面に対する利用者の操作に応じて撮影用合成用画像を決定する。   Returning to the description of FIG. 35, in step S <b> 64, the control unit 201 determines a composite image for photographing according to the user's operation on the selection screen of FIG. 37.

ステップS65において、制御部201は、撮影画像の画像処理を開始してから所定の時間が経過したか否かを判定し、所定の時間が経過していないと判定した場合、ステップS64以降の処理を繰り返す。一方、制御部201は、所定の時間が経過したと判定した場合、図28のステップS5に戻り、それ以降の処理を行う。   In step S65, the control unit 201 determines whether or not a predetermined time has elapsed since the start of image processing of the captured image. If it is determined that the predetermined time has not elapsed, the processing after step S64 is performed. repeat. On the other hand, when determining that the predetermined time has elapsed, the control unit 201 returns to step S5 in FIG. 28 and performs the subsequent processing.

このように、写真シール作成ゲームを提供する一連の処理においては、利用者が写っている画像を表示するために2段階合成処理が複数回行われる。これにより、利用者の影が写り込んでいるリアリティのある合成画像を利用者に確認させることができる。なお、2段階合成処理によって生成された合成画像に対しては、適宜、編集処理において編集が施され、編集が施された合成画像がシール紙に印刷される。   Thus, in a series of processes for providing a photo sticker creation game, a two-stage composition process is performed a plurality of times in order to display an image showing a user. Thereby, it is possible to make the user confirm a realistic composite image in which the shadow of the user is reflected. Note that the composite image generated by the two-step composite process is appropriately edited in the edit process, and the composite image that has been edited is printed on a sticker sheet.

[写真シール機の外観構成]
図38は、写真シール機1の外観の他の構成例を示す斜視図である。上述した構成と同じ構成には同じ符号を付してある。図1の画像処理部1001が、図38の写真シール機1において実現される。図38の写真シール機1においても、図18の写真シール機1において行われるのと同様にして2段階合成処理が行われる。
[External structure of photo sticker]
FIG. 38 is a perspective view showing another configuration example of the appearance of the photographic sticker 1. The same code | symbol is attached | subjected to the same structure as the structure mentioned above. The image processing unit 1001 in FIG. 1 is realized in the photographic sticker 1 in FIG. Also in the photo seal machine 1 of FIG. 38, the two-stage composition process is performed in the same manner as in the photo seal machine 1 of FIG.

図38に示すように、写真シール機1は、主に、撮影ユニット11、編集部12、および事中接客部301から構成される。編集部12と事中接客部301が接した状態で設置され、撮影ユニット11は、編集部12と事中接客部301から離れた位置に設置される。   As shown in FIG. 38, the photo sticker 1 is mainly composed of a photographing unit 11, an editing unit 12, and a customer service unit 301. The editing unit 12 and the customer service unit 301 are installed in contact with each other, and the photographing unit 11 is installed at a position away from the editing unit 12 and the customer service unit 301.

撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される撮影空間において撮影処理が行われる。   The photographing unit 11 includes a photographing unit 21 and a background unit 22. The photographing unit 21 and the background unit 22 are installed with a predetermined distance apart, and photographing processing is performed in a photographing space formed between the photographing unit 21 and the background unit 22.

撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に望む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42Bにより構成される。   The photographing unit 21 is a device that allows a user to perform photographing processing. The photographing unit 21 enters the photographing space and is located in front of the user who is performing the photographing process. The front panel 41 of the photographing unit 21 that constitutes a surface in which the photographing space is desired in front is provided with a touch panel monitor used by the user during photographing processing. When the left side is the left side and the right side is the right side as viewed from the user in the imaging space, the left side of the imaging unit 21 is configured by the side panel 42A, and the right side is configured by the side panel 42B.

背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51から構成される。背景部22の上部には、背面パネル51に支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用する巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。   The background unit 22 includes a back panel 51 that is a plate-like member positioned on the back side of a user who is performing a photographing process facing the front. A background curtain unit 25 is provided above the background portion 22 so as to be supported by the back panel 51. The background curtain unit 25 stores a plurality of roll-up type background curtains having different colors or patterns and used for the background. The background curtain unit 25 operates in conjunction with photographing by a camera or the like provided in the photographing unit 21. At the time of photographing, for example, the curtain of the color selected by the user is lowered and the other curtains are wound up.

撮影部21の左側面を構成する側面パネル42Aの上部と背景カーテンユニット25は、板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bの上部と背景カーテンユニット25は、板状の部材である連結部23Bによって連結される。   The upper part of the side panel 42A constituting the left side surface of the photographing unit 21 and the background curtain unit 25 are connected by a connecting part 23A that is a plate-like member. Moreover, the upper part of the side panel 42B which comprises the right side surface of the imaging | photography part 21, and the background curtain unit 25 are connected by the connection part 23B which is a plate-shaped member.

撮影部21の側面パネル42A、連結部23A、および背景部22の背面パネル51に囲まれることによって形成される開口が撮影空間の出入り口G1となる。撮影部21の側面パネル42B、連結部23B、および背景部22の背面パネル51に囲まれることによって形成される開口も撮影空間の出入り口G2となる。   An opening formed by being surrounded by the side panel 42A of the imaging unit 21, the connecting unit 23A, and the back panel 51 of the background unit 22 is an entrance G1 of the imaging space. An opening formed by being surrounded by the side panel 42B of the photographing unit 21, the connecting part 23B, and the back panel 51 of the background 22 is also an entrance G2 of the photographing space.

撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。   An opening surrounded by the front panel 41 of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the background curtain unit 25 is formed above the photographing space, and the ceiling strobe unit 24 covers the part of the opening. Provided. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. A fluorescent lamp is provided inside the strobe constituting the ceiling strobe unit 24, and also functions as illumination of the photographing space.

正面パネル41の背面側には、所定の距離だけ離れた位置に、正面パネル41の背面に対して正面が向くように事中接客部301が設けられる。事中接客部301は、事中接客処理を利用者に行わせる装置である。事中接客処理として、上述した被写体の画像処理が行われる。図38の写真シール機1の利用者は、撮影処理に含まれる本撮影処理と被写体の画像処理のうち、本撮影処理のみを撮影空間で行い、被写体の画像処理については、事中接客部301の正面前方に形成される事中接客空間で行うことになる。   On the back side of the front panel 41, a customer service section 301 is provided at a position separated by a predetermined distance so that the front faces the back of the front panel 41. The customer service section 301 is a device that allows the user to perform customer service processing. The above-described subject image processing is performed as the customer service process. The user of the photo sticker 1 in FIG. 38 performs only the main photographing process in the photographing space out of the main photographing process and the subject image processing included in the photographing process. It will be done in the customer service space that is formed in front of the front.

事中接客部301は、所定の厚さを有する板状の筐体を有しており、その背面が編集部12の右側面に接するように編集部12に連結して設けられる。事中接客部301の正面には、事中接客処理時に利用者により用いられるタブレット内蔵モニタが設けられる。   The customer service section 301 has a plate-like housing having a predetermined thickness, and is provided so as to be connected to the editing section 12 so that the back surface thereof is in contact with the right side surface of the editing section 12. A tablet built-in monitor used by the user during the customer service process is provided in front of the customer service unit 301.

事中接客部301の上方には連結レール302が取り付けられる。連結レールは3本のレール302A乃至302Cを組み合わせて構成される。レール302Aの一端は連結部23Aに固定され、他端は、レール302Aの延長上にあるカーテンレール26のレール26Aと接合される。レール302Bの一端は連結部23Bに固定され、他端は、レール302Bの延長上にあるカーテンレール26のレール26Bと接合される。レール302Cの一端は、レール302Aとレール26Aの接合部に接合され、他端は、レール302Bとレール26Bの接合部に接合される。   A connecting rail 302 is attached above the customer service section 301. The connecting rail is configured by combining three rails 302A to 302C. One end of the rail 302A is fixed to the connecting portion 23A, and the other end is joined to the rail 26A of the curtain rail 26 on the extension of the rail 302A. One end of the rail 302B is fixed to the connecting portion 23B, and the other end is joined to the rail 26B of the curtain rail 26 on the extension of the rail 302B. One end of the rail 302C is joined to the joint between the rail 302A and the rail 26A, and the other end is joined to the joint between the rail 302B and the rail 26B.

図38に示す編集部12の構成を正面側の構成とすると、レール302Cには、事中接客空間と編集部12の正面側の編集空間とを仕切る仕切りカーテン303A、および、事中接客空間と編集部12の背面側の編集空間とを仕切る仕切りカーテン303Bが取り付けられる。仕切りカーテン303Aと303Bは、事中接客部301の正面とほぼ平行に取り付けられる。   If the configuration of the editing unit 12 shown in FIG. 38 is a front-side configuration, the rail 302C includes a partition curtain 303A that divides the customer service space and the edit space on the front side of the editing unit 12, and a customer service space. A partition curtain 303B that partitions the editing space on the back side of the editing unit 12 is attached. The partition curtains 303 </ b> A and 303 </ b> B are attached substantially parallel to the front of the customer service section 301.

事中接客空間と編集空間を仕切るカーテンが事中接客部301の正面とほぼ平行に取り付けられることにより、事中接客部301の正面に設けられるタブレット内蔵モニタ161などを用いて事中接客処理を終えた利用者は、その向きのまま、編集空間に移動することができる。また、仕切りカーテン303Aと303Bを、各空間にいる利用者の足元が見える高さに取り付けることによって、編集空間への移動を容易に行わせることができる。仕切りカーテン303Aと303Bの代わりに、事中接客空間と編集空間を仕切るパネルを設けてもよい。   The curtain that divides the customer service space and the editing space is attached almost in parallel with the front of the customer service unit 301, so that the customer service process using the tablet built-in monitor 161 provided on the front of the customer service unit 301 is performed. The finished user can move to the editing space in the same direction. In addition, by attaching the partition curtains 303A and 303B at a height at which the user's feet in each space can be seen, it is possible to easily move to the editing space. Instead of the partition curtains 303A and 303B, a panel for partitioning the customer service space and the editing space may be provided.

編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。   The editing unit 12 is a device that allows a user to perform editing processing, which is processing for editing an image obtained by shooting processing. The editing unit 12 is provided with a configuration such as a tablet built-in monitor used by the user during editing processing. The configuration used for the editing process is provided on the front side and the back side of the editing unit 12 so that the two sets of users can simultaneously perform the editing process.

編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集処理に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。支持部73Aの上面にはカーテンレール26を支持する支持部75が設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図40)が設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and is composed of a surface 71 that is substantially parallel to the side panel 42A, and a slope 72 formed above the surface 71. The configuration used is provided on the slope 72. On the left side of the slope 72, a support portion 73A that has a columnar shape and supports one end of the lighting device 74 is provided. A support portion 75 that supports the curtain rail 26 is provided on the upper surface of the support portion 73A. Also on the right side of the slope 72, a support portion 73B (FIG. 40) that supports the other end of the lighting device 74 is provided.

編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。レール26Aの一端は、連結レールのレール302Aと接合され、レール26Aの他端はレール26Cの一端と接合される。レール26Bの一端は、連結レールのレール302Bと接合され、レール26Bの他端はレール26Cの他端と接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above is a U-shape. One end of the rail 26A is joined to the rail 302A of the connecting rail, and the other end of the rail 26A is joined to one end of the rail 26C. One end of the rail 26B is joined to the rail 302B of the connecting rail, and the other end of the rail 26B is joined to the other end of the rail 26C.

カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う空間である編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. The space in front of the editing unit 12 and the space in front of the back of the editing unit 12 surrounded by the curtain attached to the curtain rail 26 serve as an editing space in which the user performs editing processing.

図39は、カーテンを取り付けた状態の写真シール機1の外観を示す図である。   FIG. 39 is a view showing the appearance of the photographic sticker 1 with a curtain attached.

図39に示すように、撮影空間の出入り口G1には側面カーテン63が取り付けられる。反対側の出入り口である出入り口G2にも図示せぬ側面カーテンが取り付けられる。撮影空間の出入り口G1およびG2に取り付けられる側面カーテンの少なくとも内側の色は黒色などの暗い色とされる。   As shown in FIG. 39, a side curtain 63 is attached to the entrance G1 of the imaging space. A side curtain (not shown) is also attached to the doorway G2, which is the doorway on the opposite side. At least the inner color of the side curtains attached to the entrances G1 and G2 of the imaging space is a dark color such as black.

また、撮影空間の上方に形成される開口のうち、天井ストロボユニット24を挟んで前方の部分は天井前方カーテン61で覆われ、後方の部分は天井後方カーテン62で覆われる。天井前方カーテン61の少なくとも内側の色は黒色などの暗い色とされ、天井後方カーテン62の少なくとも内側の色は白色などの明るい色とされる。   In addition, in the opening formed above the photographing space, the front part with the ceiling strobe unit 24 interposed therebetween is covered with the ceiling front curtain 61, and the rear part is covered with the ceiling rear curtain 62. At least the inner color of the ceiling front curtain 61 is a dark color such as black, and at least the inner color of the ceiling rear curtain 62 is a bright color such as white.

事中接客空間の上方に設けられるレール302Aにはカーテン311Aが取り付けられ、レール302Bにはカーテン311Bが取り付けられる。編集空間の上方に設けられるレール26Aにはカーテン312Aが取り付けられ、レール26Bにはカーテン312Bが取り付けられる。   A curtain 311A is attached to the rail 302A provided above the customer service space, and a curtain 311B is attached to the rail 302B. A curtain 312A is attached to the rail 26A provided above the editing space, and a curtain 312B is attached to the rail 26B.

図40は、図38の写真シール機1を別の角度から見た斜視図である。   FIG. 40 is a perspective view of the photographic sealing machine 1 of FIG. 38 viewed from another angle.

編集部12の左側面76には、撮影画像や編集済みの画像が印刷されたシール紙が排出されるシール紙排出口164が設けられる。編集部12の左側面76の前方の空間が、利用者がシール紙の印刷が終わるのを待つ印刷待ち空間となる。   The left side surface 76 of the editing unit 12 is provided with a sticker paper discharge port 164 through which sticker paper on which a photographed image or an edited image is printed is discharged. The space in front of the left side surface 76 of the editing unit 12 is a print waiting space where the user waits for the printing of the sticker paper to end.

ここで、図38の写真シール機1により提供される写真シール作成ゲームの流れと、それに伴う利用者の移動について図41を参照して説明する。図41は、写真シール機1を上から見た平面図である。   Here, the flow of the photo sticker creation game provided by the photo sticker machine 1 of FIG. 38 and the accompanying movement of the user will be described with reference to FIG. FIG. 41 is a plan view of the photo sticker 1 as viewed from above.

写真シール機1の利用者は、白抜き矢印#11で示すように出入り口G1から、または白抜き矢印#12で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理のうちの本撮影処理を行う。   The user of the photo seal machine 1 takes a picture formed between the photographing part 21 and the background part 22 from the entrance / exit G1 as indicated by the white arrow # 11 or from the entrance / exit G2 as indicated by the white arrow # 12. Entering the space A1, the main photographing process of the photographing process is performed using a camera or a touch panel monitor provided in the photographing unit 21.

本撮影処理を終えた利用者は、白抜き矢印#13で示すように出入り口G1を使って撮影空間A1から出て事中接客空間A11に移動するか、白抜き矢印#14で示すように出入り口G2を使って撮影空間A1から出て事中接客空間A11に移動し、被写体の画像処理を行う。   The user who has finished the photographing process exits the photographing space A1 using the doorway G1 as indicated by the white arrow # 13 and moves to the customer service space A11, or the doorway as indicated by the white arrow # 14. Using G2, the user leaves the shooting space A1 and moves to the customer service space A11 to perform image processing of the subject.

被写体の画像処理を終えた利用者は、白抜き矢印#15で示すように事中接客空間A11から出て編集空間A2−1に移動するか、白抜き矢印#16で示すように事中接客空間A11から出て編集空間A2−2に移動する。   The user who has finished image processing of the subject either moves out of the customer service space A11 as indicated by a white arrow # 15 and moves to the editing space A2-1, or as shown by a white arrow # 16. Move out of the space A11 and move to the editing space A2-2.

編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、事中接客部301のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is to be moved is guided by the screen display on the touch panel monitor of the customer service section 301. For example, the empty space of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing processing. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing processing at the same time.

編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#17で示すように編集空間A2−1から印刷待ち空間A12に移動して印刷が終わるのを待つ。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#18で示すように編集空間A2−2から印刷待ち空間A12に移動し、印刷待ち空間A12において印刷が終わるのを待つ。   After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. The user who has finished the editing process during image printing moves from the editing space A2-1 to the print waiting space A12 as indicated by the white arrow # 17 if the editing process has been performed in the editing space A2-1. And wait for printing to finish. In addition, when the editing process is completed in the editing space A2-2, the user who has finished the editing process moves from the editing space A2-2 to the print waiting space A12 as indicated by the white arrow # 18, and prints. Wait for printing to finish in the waiting space A12.

画像の印刷が終了したとき、利用者は、編集部12の左側面76に設けられたシール紙排出口164からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   When the printing of the image is finished, the user receives the sticker paper from the sticker paper outlet 164 provided on the left side surface 76 of the editing unit 12 and finishes a series of photo sticker creation games.

このように、事中接客空間A11を設け、被写体の画像処理を、本撮影処理を行う撮影空間A1とは別の空間である事中接客空間A11で行わせることにより、被写体の画像処理を利用者に集中して行わせることが可能になる。また、撮影空間A1では本撮影処理のみを行わせることにより、本撮影処理にも利用者を集中させることが可能になる。   As described above, the image processing of the subject is used by providing the customer service space A11 and performing the subject image processing in the event customer service space A11 which is a space different from the shooting space A1 in which the main shooting process is performed. It becomes possible to make it concentrate on a person. In addition, by performing only the main shooting process in the shooting space A1, it is possible to concentrate the user on the main shooting process.

本撮影処理と被写体の画像処理を撮影空間A1で行わせ、編集対象画像の選択などの、撮影画像の編集前の処理を事中接客空間A11で行わせるようにしてもよい。   The main photographing process and the subject image processing may be performed in the photographing space A1, and processing before editing of the photographed image, such as selection of an image to be edited, may be performed in the mid-customer service space A11.

[各装置の構成]
次に、各装置の構成について説明する。撮影部21の正面の構成は図22および図23に示す構成と同じである。また、背景部22の撮影空間A1側の構成は図24に示す構成と同じである。
[Configuration of each device]
Next, the configuration of each device will be described. The front configuration of the imaging unit 21 is the same as the configuration shown in FIGS. 22 and 23. The configuration of the background portion 22 on the photographing space A1 side is the same as the configuration shown in FIG.

図42は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。   FIG. 42 is a diagram illustrating a configuration example of the front side (editing space A2-1 side) of the editing unit 12.

斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided at substantially the center of the slope 72. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。   The tablet built-in monitor 131 is configured by superimposing a tablet capable of operation input using the touch pen 132A or 132B on a monitor such as an LCD. On the tablet built-in monitor 131, for example, an editing screen that is a screen used for editing a captured image selected as an image to be edited is displayed. When two people perform editing work simultaneously, the touch pen 132A is used by one user, and the touch pen 132B is used by the other user.

編集部12の右側には事中接客部301が設けられる。   A customer service section 301 is provided on the right side of the editing section 12.

図43は、編集部12の左側面の構成例を示す図である。   FIG. 43 is a diagram illustrating a configuration example of the left side surface of the editing unit 12.

編集部12の左側面76にはシール紙排出口164が設けられる。シール紙排出口164には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。   The left side surface 76 of the editing unit 12 is provided with a sticker paper discharge port 164. In the sticker paper discharge port 164, sticker paper on which an image created by the user of the editing space A2-1 is edited, or the user of the editing space A2-2 performs the editing process. The sticker paper on which the created image is printed is discharged. A printer is provided inside the editing unit 12, and printing of images is performed by the printer.

編集空間A2−2側の斜面77には、斜面72に設けられる図42の構成と同じ構成が設けられる。   The slope 77 on the editing space A2-2 side has the same configuration as the configuration of FIG.

図44は、事中接客部301の正面の構成例を示す図である。   FIG. 44 is a diagram illustrating a configuration example of the front of the customer service section 301.

事中接客部301の構成は、シール紙排出口164が設けられていない点を除いて事後接客部13の構成と同じである。事中接客部301の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。   The configuration of the customer service unit 301 is the same as that of the customer service unit 13 except that the sticker discharge port 164 is not provided. A tablet built-in monitor 161 is provided at the upper center of the customer service section 301. A touch pen 162A is provided on the left side of the tablet built-in monitor 161, and a touch pen 162B is provided on the right side. Similarly to the tablet built-in monitor 131, the tablet built-in monitor 161 is configured by superimposing a tablet capable of performing an operation input using the touch pen 162A or 162B on a monitor such as an LCD.

タブレット内蔵モニタ161の下には非接触型ICリーダ/ライタ163が設けられ、非接触型ICリーダ/ライタ163の下方にはスピーカ165が設けられる。非接触型ICリーダ/ライタ163は、近接された非接触型ICと通信を行い、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。スピーカ165は、事中接客処理の案内音声、BGM、効果音等の音を出力する。   A non-contact type IC reader / writer 163 is provided under the tablet built-in monitor 161, and a speaker 165 is provided below the non-contact type IC reader / writer 163. The non-contact type IC reader / writer 163 communicates with a non-contact type IC that is in close proximity, and reads data from the non-contact type IC and writes data to the non-contact type IC. The speaker 165 outputs sounds such as guidance voices, background music, and sound effects for the customer service process.

[写真シール機の内部構成]
図45は、図38の写真シール機1の内部の構成例を示すブロック図である。図27を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
[Internal configuration of photo sticker]
FIG. 45 is a block diagram showing an example of the internal configuration of the photographic sticker 1 of FIG. The same components as those described with reference to FIG. 27 are denoted by the same reference numerals. The overlapping description will be omitted as appropriate.

制御部201においては、所定のプログラムが実行されることによって、図1の構成を有する画像処理部1001が実現される。カメラ91により撮影が行われることによって得られた撮影画像が画像処理部1001の撮影画像取得部1011により取得され、記憶部202に記憶されている背景画像や影色背景画像が背景画像取得部1014により取得される。   In the control unit 201, an image processing unit 1001 having the configuration of FIG. 1 is realized by executing a predetermined program. A captured image obtained by capturing with the camera 91 is acquired by the captured image acquisition unit 1011 of the image processing unit 1001, and the background image and the shadow color background image stored in the storage unit 202 are the background image acquisition unit 1014. Obtained by

事中接客部351は、事中接客空間A11における事中接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、非接触型ICリーダ/ライタ163、およびスピーカ165から構成される。   The customer service section 351 includes a tablet built-in monitor 161, touch pens 162 </ b> A and 162 </ b> B, a non-contact IC reader / writer 163, and a speaker 165 that perform the customer service process in the customer service space A <b> 11.

[写真シール機の動作]
ここで、図46のフローチャートを参照して、写真シール作成ゲームを提供する図38の写真シール機1の処理について説明する。
[Operation of photo sticker]
Here, with reference to the flowchart of FIG. 46, the process of the photo sticker machine 1 of FIG. 38 that provides the photo sticker creation game will be described.

ステップS101において、写真シール機1の制御部201は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。   In step S101, the control unit 201 of the photo sticker 1 determines whether or not a predetermined amount of coins has been inserted based on a signal supplied from the coin processing unit 221 and waits until it is determined that the coin has been inserted. .

硬貨が投入されたとステップS101において判定した場合、ステップS102において、制御部201は、撮影部208を制御し、本撮影処理を行う。図29のフローチャートを参照して説明したように、本撮影処理により、撮影空間A1にいる利用者を被写体として撮影が行われる。   When it is determined in step S101 that a coin has been inserted, in step S102, the control unit 201 controls the photographing unit 208 to perform the main photographing process. As described with reference to the flowchart of FIG. 29, the main photographing process shoots a user in the photographing space A1 as a subject.

ステップS103において、制御部201は、撮影空間A1にいる利用者に対して、事中接客空間A11への移動を案内する。事中接客空間A11への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。   In step S103, the control unit 201 guides the user in the shooting space A1 to move to the customer service space A11. The movement guidance to the customer service space A11 is performed by displaying a screen on the touch panel monitor 93 of the photographing unit 208 or by outputting sound from the speaker 224.

ステップS104において、制御部201は、事中接客部351を制御し、事中接客空間A11にいる利用者による操作に応じて被写体の画像処理を行う。図32のフローチャートを参照して説明した被写体の画像処理により、本撮影処理によって得られた撮影画像に写る利用者の目のサイズの選択と、撮影画像の明るさの選択が事中接客空間A11にいる利用者によって行われる。目のサイズの選択に用いられる選択画面と、撮影画像の明るさの調整に用いられる選択画面は事中接客部301のタブレット内蔵モニタ161に表示される。   In step S <b> 104, the control unit 201 controls the customer service unit 351 to perform subject image processing according to an operation by a user in the customer service space A <b> 11. With the subject image processing described with reference to the flowchart of FIG. 32, the selection of the user's eye size and the selection of the brightness of the captured image in the captured image obtained by the actual imaging processing are performed in the customer service space A11. Done by users in A selection screen used to select the eye size and a selection screen used to adjust the brightness of the captured image are displayed on the tablet built-in monitor 161 of the customer service unit 301.

ステップS105において、制御部201は、事中接客空間A11にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、事中接客部351のタブレット内蔵モニタ161に画面を表示させることによって、または音声をスピーカ165から出力させることによって行われる。   In step S105, the control unit 201 guides the user in the customer service space A11 to move to the editing space A2-1 or the editing space A2-2. Guidance on the movement to the editing space A2-1 or the editing space A2-2 is performed by displaying a screen on the tablet built-in monitor 161 of the customer service unit 351 or by outputting sound from the speaker 165.

ステップS106において、制御部201は、図35のフローチャートを参照して説明した撮影画像の画像処理を行う。   In step S106, the control unit 201 performs image processing of the captured image described with reference to the flowchart of FIG.

ステップS107において、制御部201は、編集部209Aまたは編集部209Bを制御し、編集処理を行う。制御部201は、編集画面をタブレット内蔵モニタ131に表示させ、利用者による編集操作に従って、編集対象として選択された撮影画像の編集を行う。編集が終了したとき、制御部201は、印刷する画像の選択画面をタブレット内蔵モニタ131に表示させ、印刷する画像を利用者に選択させる。印刷する画像の選択画面には、撮影画像や編集済みの画像が表示され、その中から所定の枚数の画像が選択される。   In step S107, the control unit 201 controls the editing unit 209A or the editing unit 209B to perform editing processing. The control unit 201 displays an editing screen on the tablet built-in monitor 131, and edits the captured image selected as the editing target in accordance with the editing operation by the user. When the editing is completed, the control unit 201 displays an image selection screen for printing on the tablet built-in monitor 131, and allows the user to select an image to be printed. On the screen for selecting an image to be printed, a photographed image and an edited image are displayed, and a predetermined number of images are selected from them.

ステップS108において、制御部201は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して印刷待ち空間A12への移動を案内する。印刷待ち空間A12への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。印刷待ち空間A12への移動を案内する前、事後接客処理が編集空間A2−1または編集空間A2−2において行われるようにしてもよい。   In step S108, the control unit 201 guides the user who has finished editing processing in the editing space A2-1 or the editing space A2-2 to move to the print waiting space A12. The movement guidance to the print waiting space A12 is performed by displaying a screen on the tablet built-in monitor 131 or by outputting sound from the speaker 231. Before guiding the movement to the print waiting space A12, the post-service processing may be performed in the editing space A2-1 or the editing space A2-2.

ステップS109において、制御部201は印刷処理を行う。制御部201は、利用者により選択された画像をプリンタ241に出力してシール紙に印刷させる。   In step S109, the control unit 201 performs a printing process. The control unit 201 outputs the image selected by the user to the printer 241 and prints it on a sticker sheet.

印刷が終了したとき、ステップS110において、プリンタ241は、画像が印刷されたシール紙をシール紙排出口164に排出し、処理を終了させる。   When the printing is finished, in step S110, the printer 241 discharges the sticker paper on which the image is printed to the sticker paper discharge port 164, and ends the processing.

なお、非接触型ICリーダ/ライタ163を、事中接客部301ではなく編集部12に設けるようにしてもよい。また、図18の写真シール機1のように、図38の写真シール機1にも図26のような構成を有する事後接客部13を設けるようにしてもよい。   Note that the non-contact type IC reader / writer 163 may be provided not in the customer service unit 301 but in the editing unit 12. Further, like the photo seal machine 1 in FIG. 18, the photo sticker machine 1 in FIG. 38 may also be provided with the post-service section 13 having the configuration as shown in FIG.

以上のように、図38の外観構成を有する写真シール機1において2段階合成処理が行われるようにすることも可能である。撮影画像の画像処理が事中接客空間A11にいる利用者を対象として行われるようにしてもよい。   As described above, the two-step composition process can be performed in the photographic sticker 1 having the external configuration of FIG. The image processing of the captured image may be performed for the user in the customer service space A11.

本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

1 写真シール機, 11 撮影ユニット, 12 編集部, 13 事後接客部, 21 撮影部, 22 背景部, 1001 画像処理部, 1011 撮影画像取得部, 1012 マスク画像生成部, 1013 合成部, 1014 背景画像取得部   DESCRIPTION OF SYMBOLS 1 Photo sticker machine, 11 Shooting unit, 12 Editing part, 13 Subsequent customer service part, 21 Photographing part, 22 Background part, 1001 Image processing part, 1011 Photographed image acquisition part, 1012 Mask image generation part, 1013 Composition part, 1014 Background image Acquisition department

Claims (11)

撮影画像に基づいて、前記撮影画像に写る被写体の部分を透過させるとともに、撮影時に前記被写体の後方にある背景カーテンに投影した前記被写体の影の部分を、前記背景カーテンの色の明度に応じて部分的に異なる所定の透過率で透過させる第1のマスク画像を生成するマスク画像生成手段と、
前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記被写体の背景となる画像である背景画像に合成する合成手段と
を備える画像処理装置。
Based on the photographed image, the portion of the subject that appears in the photographed image is transmitted, and the shadow portion of the subject projected on the background curtain behind the subject at the time of photographing is determined according to the lightness of the color of the background curtain. A mask image generating means for generating a first mask image that is transmitted at a predetermined partially different transmittance;
An image comprising: a synthesizing unit that extracts a portion of the subject and a shadow portion of the subject from the photographed image using the first mask image, and combines the extracted portion with a background image that is an image that is a background of the subject. Processing equipment.
前記マスク画像生成手段は、前記撮影画像の各画素の色に基づいて、前記被写体の部分と、前記被写体の影の部分と、それ以外の部分とを検出し、前記第1のマスク画像を生成する
請求項1に記載の画像処理装置。
The mask image generation means detects the subject portion, the shadow portion of the subject, and other portions based on the color of each pixel of the captured image, and generates the first mask image. The image processing apparatus according to claim 1.
前記合成手段は、前記第1のマスク画像を用いて抽出した前記被写体の部分と前記被写体の影の部分とを前記背景画像に合成して得られた合成画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、再度、前記背景画像に合成する
請求項1または2に記載の画像処理装置。
The synthesizing unit is configured to generate the subject portion and the subject from a synthesized image obtained by synthesizing the subject portion extracted using the first mask image and the shadow portion of the subject with the background image. The image processing apparatus according to claim 1, wherein the shadow portion of the image is extracted using the first mask image, and is combined with the background image again.
前記合成手段は、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像と色が異なる画像である色背景画像に合成して得られた合成画像を前記撮影画像として、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像に合成する
請求項1または2に記載の画像処理装置。
The synthesizing unit extracts the subject portion and the shadow portion of the subject from the photographed image using the first mask image, and synthesizes the subject portion and a color background image that is an image having a color different from that of the background image. The synthesized image obtained in this manner is used as the photographed image, and the subject portion and the shadow portion of the subject are extracted from the photographed image using the first mask image and synthesized with the background image. Item 3. The image processing apparatus according to Item 1 or 2.
前記色背景画像は、前記背景画像の色と同じ色の物に投影する影の色の画像である
請求項4に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the color background image is an image of a shadow color projected onto an object having the same color as the color of the background image.
前記合成手段は、前記撮影画像の撮影モードに応じて明るさを変えた前記色背景画像を用いる
請求項4または5に記載の画像処理装置。
The image processing apparatus according to claim 4, wherein the synthesizing unit uses the color background image whose brightness is changed according to a shooting mode of the captured image.
前記マスク画像生成手段は、前記撮影画像に基づいて、前記被写体の部分を透過させるとともに前記被写体の輪郭の周りの一定の部分を所定の透過率で透過させる第2のマスク画像を生成し、
前記合成手段は、前記撮影画像から、前記被写体の部分と前記被写体の輪郭の周りの部分とを前記第2のマスク画像を用いて抽出し、前記背景画像と色が異なる画像である色背景画像に合成して得られた合成画像を前記撮影画像として、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像に合成する
請求項1または2に記載の画像処理装置。
The mask image generating means generates a second mask image that transmits a portion of the subject and transmits a predetermined portion around the contour of the subject with a predetermined transmittance based on the captured image,
The synthesizing unit extracts a portion of the subject and a portion around the contour of the subject from the photographed image using the second mask image, and a color background image that is an image having a color different from that of the background image. Using the first mask image, the subject image and the shadow portion of the subject are extracted from the captured image as a composite image obtained by combining the image and the background image. The image processing apparatus according to claim 1 or 2.
前記合成手段は、前記被写体の部分と前記被写体の影の部分とを前記背景画像に合成する前に、前記被写体の影の部分の色の調整を行う
請求項1乃至7のいずれかに記載の画像処理装置。
The composition unit adjusts the color of the shadow portion of the subject before combining the portion of the subject and the shadow portion of the subject with the background image. Image processing device.
前記マスク画像生成手段は、前記第1のマスク画像を加工し、
前記合成手段は、加工された前記第1のマスク画像を用いて、前記被写体の部分と前記被写体の影の部分とを抽出する
請求項1乃至8のいずれかに記載の画像処理装置。
The mask image generating means processes the first mask image;
The image processing apparatus according to claim 1, wherein the synthesizing unit extracts a portion of the subject and a shadow portion of the subject using the processed first mask image.
前記マスク画像生成手段は、前記第1のマスク画像の加工として、前記第1のマスク画像のコントラストをトーンカーブに従って調整する処理と、前記第1のマスク画像の輪郭をぼかす処理とのうちの少なくともいずれかの処理を行う
請求項9に記載の画像処理装置。
The mask image generation means, as the processing of the first mask image, includes at least one of a process of adjusting a contrast of the first mask image according to a tone curve and a process of blurring an outline of the first mask image. The image processing apparatus according to claim 9, wherein any one of the processes is performed.
撮影画像に基づいて、前記撮影画像に写る被写体の部分を透過させるとともに、撮影時に前記被写体の後方にある背景カーテンに投影した前記被写体の影の部分を、前記背景カーテンの色の明度に応じて部分的に異なる所定の透過率で透過させるマスク画像を生成し、
前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記マスク画像を用いて抽出し、前記被写体の背景となる画像である背景画像に合成する
ステップを含む画像処理方法。
Based on the photographed image, the portion of the subject that appears in the photographed image is transmitted, and the shadow portion of the subject projected on the background curtain behind the subject at the time of photographing is determined according to the lightness of the color of the background curtain. Generate a mask image to be transmitted at a predetermined partially different transmittance,
An image processing method comprising: extracting a portion of the subject and a shadow portion of the subject from the photographed image using the mask image and combining the extracted portion with a background image that is an image serving as a background of the subject.
JP2011102444A 2011-04-28 2011-04-28 Image processing apparatus and image processing method Active JP5488526B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011102444A JP5488526B2 (en) 2011-04-28 2011-04-28 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011102444A JP5488526B2 (en) 2011-04-28 2011-04-28 Image processing apparatus and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013174191A Division JP5482948B2 (en) 2013-08-26 2013-08-26 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2012235314A JP2012235314A (en) 2012-11-29
JP5488526B2 true JP5488526B2 (en) 2014-05-14

Family

ID=47435213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011102444A Active JP5488526B2 (en) 2011-04-28 2011-04-28 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP5488526B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5574031B2 (en) * 2012-12-14 2014-08-20 フリュー株式会社 Image processing apparatus and method, and program
JP5621875B1 (en) * 2013-04-26 2014-11-12 フリュー株式会社 Imaging apparatus and method, and program
JP5704205B2 (en) * 2013-09-24 2015-04-22 辰巳電子工業株式会社 Image processing apparatus, photography game apparatus using the same, image processing method, image processing program, and photo print sheet
JP6881884B2 (en) * 2015-01-19 2021-06-02 辰巳電子工業株式会社 Photography game device, image generation method, and image generation program
JP5871083B2 (en) * 2015-02-24 2016-03-01 辰巳電子工業株式会社 PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
JP6356299B2 (en) * 2017-03-31 2018-07-11 株式会社メイクソフトウェア PHOTOGRAPHY GAME DEVICE, PHOTOGRAPHY GAME DEVICE CONTROL METHOD, AND PHOTOGRAPHY GAME DEVICE CONTROL PROGRAM
CN108174109B (en) * 2018-03-15 2020-09-25 维沃移动通信有限公司 Photographing method and mobile terminal
CN111968134B (en) * 2020-08-11 2023-11-28 影石创新科技股份有限公司 Target segmentation method, device, computer readable storage medium and computer equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06339150A (en) * 1993-05-31 1994-12-06 Fuji Color Service:Kk Compositing method of shade in electronic picture
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
JP4648092B2 (en) * 2005-05-31 2011-03-09 株式会社アイ・エム・エス Photo sticker dispensing apparatus and image processing method therefor
JP5240969B2 (en) * 2006-03-29 2013-07-17 フリュー株式会社 Photo sticker creation apparatus and method, and program
JP2009218704A (en) * 2008-03-07 2009-09-24 Ricoh Co Ltd Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP2012235314A (en) 2012-11-29

Similar Documents

Publication Publication Date Title
JP5488526B2 (en) Image processing apparatus and image processing method
JP5007774B1 (en) Photo seal machine, photo seal machine processing method, and program thereof
JP6048758B2 (en) Image processing apparatus and method, and program
JP6206707B2 (en) Imaging apparatus and display control method
JP5569502B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP5482948B2 (en) Image processing apparatus and image processing method
JP7132492B2 (en) Image processing device, display control method, and program
JP5549762B1 (en) Image printing apparatus and image arrangement method
JP6255790B2 (en) Image processing apparatus and display control method
JP7140962B2 (en) Image processing device, control method, and program
JP5013203B2 (en) Photo sticker creation apparatus and method, and program
JP2015130672A (en) Imaging device and imaging method
JP5796671B2 (en) Image printing apparatus and image printing method
JP5725245B2 (en) Image printing apparatus and image printing method
JP6455550B2 (en) Photo sticker creation apparatus and display control method
JP6414276B2 (en) Photo sticker creation apparatus and method, and program
JP6982230B2 (en) Photographing game console and image processing method
JP2014170234A (en) Photograph seal creation apparatus, photograph seal creation method, and program
JP5594401B1 (en) Imaging apparatus, imaging method, and program
JP5423743B2 (en) Photo seal machine, photo seal machine processing method, and program thereof
JP6119598B2 (en) Photo sticker creation device
JP5633765B1 (en) Image printing apparatus and image printing method
JP2023040914A (en) Image processing apparatus, image processing program, and mask generation method
JP6375740B2 (en) Photo sticker creation apparatus and display method
JP2015163924A (en) Photographic seal creation device and photographic seal creation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130322

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130508

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20130521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R150 Certificate of patent or registration of utility model

Ref document number: 5488526

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250