JP5488526B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP5488526B2 JP5488526B2 JP2011102444A JP2011102444A JP5488526B2 JP 5488526 B2 JP5488526 B2 JP 5488526B2 JP 2011102444 A JP2011102444 A JP 2011102444A JP 2011102444 A JP2011102444 A JP 2011102444A JP 5488526 B2 JP5488526 B2 JP 5488526B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- subject
- background
- color
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 190
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims description 252
- 230000008569 process Effects 0.000 claims description 245
- 239000002131 composite material Substances 0.000 claims description 137
- 239000000203 mixture Substances 0.000 claims description 88
- 230000002194 synthesizing effect Effects 0.000 claims description 47
- 238000002834 transmittance Methods 0.000 claims description 47
- 239000000284 extract Substances 0.000 claims description 23
- 240000007320 Pinus strobus Species 0.000 description 44
- 230000015572 biosynthetic process Effects 0.000 description 40
- 238000003786 synthesis reaction Methods 0.000 description 40
- 238000003384 imaging method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 29
- 230000008859 change Effects 0.000 description 21
- 238000007789 sealing Methods 0.000 description 9
- 239000003086 colorant Substances 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000005192 partition Methods 0.000 description 6
- 238000012790 confirmation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002156 mixing Methods 0.000 description 4
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 235000002673 Dioscorea communis Nutrition 0.000 description 1
- 241000544230 Dioscorea communis Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 208000035753 Periorbital contusion Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Description
本発明は、特に、人物の影が写るリアリティのある合成画像を作成することができるようにした画像処理装置および画像処理方法に関する。 In particular, the present invention relates to an image processing apparatus and an image processing method capable of creating a realistic composite image in which a person's shadow is reflected.
利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。 There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.
写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集画像をシール紙に印刷して排出するという流れになる。例えば撮影空間は、写真シール機の筐体自体やカーテンなどにより外部から仕切られている。 The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is an edited image, is printed on sticker paper and discharged. For example, the shooting space is partitioned from the outside by the casing itself of the photographic sticker or a curtain.
このような写真シール機の中には、撮影空間における撮影処理時に、カメラにより取り込んだ画像から利用者の領域を抽出し、抽出した領域と、合成用画像とをリアルタイムで合成して表示する機能が搭載されているものがある。これにより、利用者は、撮影空間には実際にない風景と自分たちが合成された合成画像を見たり、静止画として保存したりすることが可能になる。 In such a photo sticker machine, a function of extracting a user's area from an image captured by a camera during a shooting process in a shooting space, and synthesizing and displaying the extracted area and a synthesis image in real time. Some are equipped with. As a result, the user can view the scenery that does not actually exist in the shooting space and the synthesized image in which the user is synthesized, or can save it as a still picture.
カメラにより取り込んだ画像から利用者の領域を抽出するための処理として、通常、マスク画像を用いたクロマキ処理が行われる。 As a process for extracting a user's area from an image captured by a camera, a chroma process using a mask image is usually performed.
特許文献1には、被写体の輪郭の外側に向かうにつれて階調を変化させたマスクパターンを使用することによって、被写体と背景画像との境界部における色調を段階的に変化させる技術が開示されている。 Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for changing the color tone in a boundary portion between a subject and a background image in a stepwise manner by using a mask pattern whose gradation is changed toward the outside of the contour of the subject. .
特許文献2には、撮影画像と背景画像を合成する際、撮影画像を2値化することによって得られたマスク画像の輪郭をぼかし、背景画像の彩度と明度が反映するようにマスク画像の輪郭の色調を補正する技術が開示されている。
In
特許文献3には、2値化したマスク画像を縮小した画像(縮小マスク画像)と、マスク画像を拡大した画像(拡大マスク画像)を作成し、縮小マスク画像と拡大マスク画像の差分領域に光彩(グロー)効果やぼかし処理等の画像処理を施す技術が開示されている。
In
上述した技術によれば、被写体の輪郭付近にぼかし処理等の画像処理を施すことによって背景画像と被写体が滑らかに合成された合成画像を得ることができるが、その合成画像は、利用者の背中側にある壁面に投影される利用者自身の影が消えてしまうことによってリアリティのない、不自然な仕上がりの画像になってしまう。 According to the above-described technique, it is possible to obtain a composite image in which the background image and the subject are smoothly synthesized by performing image processing such as blurring processing on the vicinity of the contour of the subject. The user's own shadow projected on the wall on the side disappears, resulting in an unnaturally finished image with no reality.
本発明はこのような状況に鑑みてなされたものであり、人物の影が写るリアリティのある合成画像を作成することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to create a realistic composite image in which a person's shadow is reflected.
本発明の画像処理装置は、撮影画像に基づいて、前記撮影画像に写る被写体の部分を透過させるとともに、撮影時に前記被写体の後方にある背景カーテンに投影した前記被写体の影の部分を、前記背景カーテンの色の明度に応じて部分的に異なる所定の透過率で透過させる第1のマスク画像を生成するマスク画像生成手段と、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記被写体の背景となる画像である背景画像に合成する合成手段とを備える。 The image processing apparatus of the present invention, based on the captured image, and to reflect the portion of the object caught on the captured image, a portion of the shadow of the object projected on the background curtain at the rear of the subject at the time of shooting, the background A mask image generating means for generating a first mask image that is transmitted at a predetermined transmittance that is partially different depending on the lightness of the color of the curtain, and the subject portion and the shadow portion of the subject from the photographed image; Is extracted using the first mask image, and is combined with a background image that is an image serving as a background of the subject.
前記マスク画像生成手段には、前記撮影画像の各画素の色に基づいて、前記被写体の部分と、前記被写体の影の部分と、それ以外の部分とを検出し、前記第1のマスク画像を生成させることができる。 The mask image generating means detects the subject portion, the shadow portion of the subject, and other portions based on the color of each pixel of the captured image, and the first mask image is obtained. Can be generated.
前記合成手段には、前記第1のマスク画像を用いて抽出した前記被写体の部分と前記被写体の影の部分とを前記背景画像に合成して得られた合成画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、再度、前記背景画像に合成させることができる。 The synthesizing means includes, from a synthesized image obtained by synthesizing the subject portion extracted using the first mask image and the shadow portion of the subject with the background image, the subject portion and the The shadow portion of the subject can be extracted using the first mask image, and can be combined with the background image again.
前記合成手段には、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像と色が異なる画像である色背景画像に合成して得られた合成画像を前記撮影画像として、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像に合成させることができる。 The synthesizing unit extracts the subject portion and the shadow portion of the subject from the photographed image using the first mask image, and generates a color background image that is an image having a color different from the background image. Using the composite image obtained by combining as the captured image, the subject portion and the shadow portion of the subject are extracted from the captured image using the first mask image and combined with the background image. be able to.
前記色背景画像は、前記背景画像の色と同じ色の物に投影する影の色の画像であるようにすることができる。 The color background image may be an image of a shadow color projected onto an object having the same color as the color of the background image.
前記合成手段には、前記撮影画像の撮影モードに応じて明るさを変えた前記色背景画像を用いさせることができる。 The synthesizing unit can use the color background image in which the brightness is changed according to the shooting mode of the shot image.
前記マスク画像生成手段には、前記撮影画像に基づいて、前記被写体の部分を透過させるとともに前記被写体の輪郭の周りの一定の部分を所定の透過率で透過させる第2のマスク画像を生成させ、前記合成手段には、前記撮影画像から、前記被写体の部分と前記被写体の輪郭の周りの部分とを前記第2のマスク画像を用いて抽出し、前記背景画像と色が異なる画像である色背景画像に合成して得られた合成画像を前記撮影画像として、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像に合成させることができる。 The mask image generation means generates a second mask image that transmits the portion of the subject and transmits a certain portion around the contour of the subject with a predetermined transmittance based on the captured image, The synthesizing means extracts a portion of the subject and a portion around the contour of the subject from the photographed image using the second mask image, and a color background that is an image having a color different from that of the background image. Using the first mask image to extract the subject part and the shadow part of the subject from the photographed image, using the first mask image as a composite image obtained by combining with the image as the photographed image, to the background image Can be synthesized.
前記合成手段には、前記被写体の部分と前記被写体の影の部分とを前記背景画像に合成する前に、前記被写体の影の部分の色の調整を行わせることができる。 The synthesizing unit can adjust the color of the shadow portion of the subject before synthesizing the subject portion and the shadow portion of the subject with the background image.
前記マスク画像生成手段には、前記第1のマスク画像を加工させ、前記合成手段には、加工された前記第1のマスク画像を用いて、前記被写体の部分と前記被写体の影の部分とを抽出させることができる。 The mask image generating means processes the first mask image, and the synthesizing means uses the processed first mask image to obtain the subject portion and the shadow portion of the subject. Can be extracted.
前記マスク画像生成手段には、前記第1のマスク画像の加工として、前記第1のマスク画像のコントラストをトーンカーブに従って調整する処理と、前記第1のマスク画像の輪郭をぼかす処理とのうちの少なくともいずれかの処理を行わせることができる。 The mask image generation means includes processing for adjusting the contrast of the first mask image according to a tone curve as processing of the first mask image, and processing for blurring an outline of the first mask image. At least one of the processes can be performed.
本発明の画像処理方法は、撮影画像に基づいて、前記撮影画像に写る被写体の部分を透過させるとともに、撮影時に前記被写体の後方にある背景カーテンに投影した前記被写体の影の部分を、前記背景カーテンの色の明度に応じて部分的に異なる所定の透過率で透過させるマスク画像を生成し、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記マスク画像を用いて抽出し、前記被写体の背景となる画像である背景画像に合成するステップを含む。 According to the image processing method of the present invention, based on the photographed image, the portion of the subject that appears in the photographed image is transmitted, and the shadow portion of the subject that is projected onto the background curtain behind the subject at the time of photographing is used as the background. Generates a mask image to be transmitted with a predetermined transmittance that is partially different depending on the brightness of the color of the curtain, and extracts the subject portion and the shadow portion of the subject from the photographed image using the mask image And a step of synthesizing with a background image that is an image that becomes a background of the subject.
本発明においては、撮影画像に基づいて、前記撮影画像に写る被写体の部分を透過させるとともに、撮影時に前記被写体の後方にある背景カーテンに投影した前記被写体の影の部分を、前記背景カーテンの色の明度に応じて部分的に異なる所定の透過率で透過させるマスク画像が生成される。また、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記マスク画像を用いて抽出され、前記被写体の背景となる画像である背景画像に合成される。 In the present invention, based on the photographed image, the portion of the subject that appears in the photographed image is transmitted, and the shadow portion of the subject projected on the background curtain behind the subject at the time of photographing is replaced with the color of the background curtain. A mask image to be transmitted with a predetermined transmissivity partially different depending on the brightness of the image is generated. Further, the portion of the subject and the shadow portion of the subject are extracted from the photographed image using the mask image, and are combined with a background image that is an image that is a background of the subject.
本発明によれば、人物の影が写るリアリティのある合成画像を作成することができる。 According to the present invention, a realistic composite image in which a person's shadow is reflected can be created.
以下、本発明を実施するための形態について説明する。説明は以下の順序で行う。
1.合成処理について
2.写真シール機の構成と動作について
Hereinafter, modes for carrying out the present invention will be described. The description will be made in the following order.
1. 1. About the synthesis process About the structure and operation of the photo seal machine
<合成処理について>
[画像処理部の構成例]
図1は、画像処理部1001の構成例を示すブロック図である。図1の画像処理部1001が、後述する写真シール機1において実現される。
<About composition processing>
[Configuration example of image processing unit]
FIG. 1 is a block diagram illustrating a configuration example of the
画像処理部1001は、撮影画像取得部1011、マスク画像生成部1012、合成部1013、および背景画像取得部1014により構成される。
The
撮影画像取得部1011は、カメラにより撮影された画像である撮影画像を取得する。図2はカメラによる撮影の様子を示す図であり、図2に示すように、パネルやカーテンなどを背景として、その壁面の前に立っている人物を撮影して得られた撮影画像が撮影画像取得部1011により取得される。 The captured image acquisition unit 1011 acquires a captured image that is an image captured by the camera. FIG. 2 is a view showing a state of shooting by a camera. As shown in FIG. 2, a shot image obtained by shooting a person standing in front of the wall with a panel or curtain as a background is a shot image. Acquired by the acquisition unit 1011.
図2の例においては2人の人物が撮影を行っている。撮影画像取得部1011により取得された画像には2人の人物が写り、2人の人物の背景の色は、2人の人物の後方にある背景カーテンの色と同じ色になる。背景カーテンは、例えば、緑色などの一色のカーテンである。このようにして撮影され、撮影画像取得部1011により取得された撮影画像はマスク画像生成部1012と合成部1013に供給される。
In the example of FIG. 2, two persons are shooting. In the image acquired by the captured image acquisition unit 1011, two persons are shown, and the background color of the two persons is the same as the color of the background curtain behind the two persons. The background curtain is, for example, a one-color curtain such as green. The captured image captured in this manner and acquired by the captured image acquisition unit 1011 is supplied to the mask
マスク画像生成部1012は、撮影画像取得部1011から供給された撮影画像に基づいてマスク画像を生成し、合成部1013に出力する。マスク画像生成部1012が生成するマスク画像は、人物の部分を100%の透過率で透過させるとともに、撮影時に背景カーテンに投影された人物の影の部分を所定の透過率で透過させるマスク画像である。
The mask
合成部1013は、マスク画像生成部1012により生成されたマスク画像を用いて、撮影画像取得部1011から供給された撮影画像に写る人物の部分と影の部分とを抽出する。また、合成部1013は、撮影画像から抽出した人物の部分と影の部分を、背景画像取得部1014から供給された背景画像に合成することによって合成画像を生成する。
The
合成部1013による画像の合成は、撮影画像から抽出した部分を、背景画像取得部1014から供給された背景画像の上に重ねるようにして行われる。合成画像には、人物の影の部分も含まれることになる。
The composition of the image by the
背景画像取得部1014は、白色などの所定の色の画像や、柄のある画像を取得し、背景画像として合成部1013に出力する。背景画像は、撮影画像のサイズ(画素数)と同じサイズの画像であり、予め用意されている。
The background
人物の影の部分を所定の透過率で抽出できるマスク画像を用いて合成を行うことによって、人物の影の部分を合成画像に含ませることができ、背景画像を実際に背景にして撮影したような、リアリティのある、自然な仕上がりの合成画像を作成することが可能になる。 By combining with a mask image that can extract the shadow part of the person with a predetermined transmittance, the shadow part of the person can be included in the composite image, and the background image is actually taken as the background It is possible to create a realistic and natural composite image.
[合成処理の第1の例]
図3は、画像処理部1001による合成処理の第1の例を示す図である。
[First example of composition processing]
FIG. 3 is a diagram illustrating a first example of the composition processing by the
図3に示すように、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分が撮影画像から抽出され、抽出された人物の部分と影の部分が背景画像に合成されることによって合成画像が生成される。各画像について説明する。 As shown in FIG. 3, using a mask image generated based on a photographed image, a person part and a shadow part are extracted from the photographed image, and the extracted person part and shadow part are combined with a background image. As a result, a composite image is generated. Each image will be described.
図4は、図3の撮影画像を拡大して示す図である。撮影画像には2人の人物が写り、人物の輪郭より外側であって、人物の輪郭の近くには、ところどころに、撮影時に背景カーテンに投影した人物の影が写っている。図4において影を付して示すように、2人の人物の間や、それぞれの人物の足の間などに影が多く写ることになる。 FIG. 4 is an enlarged view of the captured image of FIG. The photographed image shows two persons, and outside the outline of the person and near the outline of the person, the shadow of the person projected on the background curtain at the time of shooting is shown in some places. As shown with shadows in FIG. 4, many shadows appear between two persons or between the legs of each person.
また、撮影画像のうち、人物の輪郭の外側の部分には背景カーテンが写る。背景カーテンが写る部分の色は、人物の影が映っている部分を除いて、背景カーテンの色と同じ色になる。図4において斜めの格子を付して示す部分は背景カーテンが写っている部分を示す。背景カーテンに投影する人物の影であるから、影の部分の色は、背景カーテンの色を若干暗めにしたような色になる。 In addition, a background curtain appears in a portion outside the outline of the person in the photographed image. The color of the part where the background curtain is reflected is the same color as the color of the background curtain except for the part where the shadow of the person is reflected. In FIG. 4, a portion indicated by an oblique grid indicates a portion where the background curtain is reflected. Since it is a shadow of a person projected on the background curtain, the color of the shadow portion is a color that is slightly darker than the color of the background curtain.
図5は、図3のマスク画像を拡大して示す図である。図4の撮影画像が撮影画像取得部1011により取得された場合、マスク画像生成部1012は、撮影画像のうち、背景カーテンの色と同じ色の部分と、背景カーテンの色を若干暗めにした色の部分と、それ以外の色の部分とを、各画素の画素値に基づいて検出する。
FIG. 5 is an enlarged view of the mask image of FIG. When the captured image of FIG. 4 is acquired by the captured image acquisition unit 1011, the mask
マスク画像生成部1012は、背景カーテンの色と同じ色の部分の透過率を0%、背景カーテンの色を若干暗めにした色の部分の透過率を所定の透過率、それ以外の色の部分の透過率を100%とすることによって、図5に示すようなマスク画像を生成する。背景カーテンの色の部分と背景カーテンの色を若干暗めにした色の部分以外の部分は、人物が写る部分になる。
The mask
図5に示すマスク画像のうち、黒色の部分は、背景カーテンの色と同じ色の部分、すなわち透過率が0%である部分を表し、黒色と白色が混在している部分は、背景カーテンの色を若干暗めにした色の部分、すなわち透過率が所定の透過率である部分を表す。白色の部分(見え方によっては薄いチェック柄が付されているように見える部分)は、人物の部分、すなわち透過率が100%の部分を表す。 In the mask image shown in FIG. 5, the black portion represents the same color as the background curtain color, that is, the portion having a transmittance of 0%, and the black and white mixed portion represents the background curtain. The portion of the color where the color is slightly darkened, that is, the portion where the transmittance is a predetermined transmittance is shown. A white portion (a portion that appears to have a thin check pattern depending on how it is seen) represents a person portion, that is, a portion having a transmittance of 100%.
なお、マスク画像生成部1012は、撮影画像に写る背景カーテンの色の暗さに応じて、対応する部分の透過率を変えるようにしてマスク画像を生成する。より暗い背景カーテンの色が検出された部分、すなわち明度の小さい部分は、その明度に応じて透過率が大きくなり、より明るい背景カーテンの色が検出された部分、すなわち明度の大きい部分は、その明度に応じて透過率が小さくなる。
The mask
マスク画像生成部1012が生成するマスク画像のうちの、撮影画像において背景カーテンが写っている部分に対応する部分の透過率は、その全体が均一の透過率というわけではなく、部分的な明度の違いに応じて異なる透過率になることになる。例えば上方から照明を当てた状態で撮影画像の撮影が行われた場合、より明度の高い背景カーテンの色が検出された画像の上の方に対応する部分の透過率はより低くなるとともに、より明度の低い背景カーテンの色が検出された画像の下の方に対応する部分の透過率はより高くなり、結果として、マスク画像生成部1012が生成するマスク画像においては、上下で透過率が異なることになる。
Of the mask image generated by the mask
このように、マスク画像の生成は、背景カーテンの色と同じ色が検出された部分の透過率を0%にするようにして行われる。従来のマスク画像の生成方法によれば、背景カーテンの色として検出する色の明度の幅が広く、これにより、透過率が0%になる部分が比較的広くなるのに対して、マスク画像生成部1012は明度の幅を狭くして背景カーテンの色と同じ色の部分の検出を行うため、従来の方法により生成されるマスク画像と較べて、透過率が0%になる部分が狭いマスク画像が生成される。
As described above, the mask image is generated by setting the transmittance of the portion where the same color as the background curtain color is detected to 0%. According to the conventional mask image generation method, the brightness range of the color to be detected as the background curtain color is wide, and the portion where the transmittance is 0% is relatively wide, whereas the mask image generation is Since the
図6は、従来のマスク画像と、マスク画像生成部1012により生成されるマスク画像を示す図である。図6の左側は従来のマスク画像を表し、右側はマスク画像生成部1012により生成されるマスク画像を表す。
FIG. 6 is a diagram illustrating a conventional mask image and a mask image generated by the mask
図6の左側に示すように、従来のマスク画像においては、人物の輪郭全体を囲む一定の幅の部分が所定の透過率を有する部分となるのに対して、マスク画像生成部1012により生成されるマスク画像においては、人物の輪郭より外側であって、実際に人物の影が写っていた部分が所定の透過率を有する部分になる。例えば、人物の下方に光が当たりにくい環境で撮影を行う場合、人物の特に下半身の周りには影が多く写り、その影の部分が所定の透過率を有するマスク画像が生成されることになる。
As shown on the left side of FIG. 6, in a conventional mask image, a portion having a certain width that surrounds the entire contour of a person is a portion having a predetermined transmittance, but is generated by a mask
図7は、図3の合成画像を拡大して示す図である。合成部1013は、図5のマスク画像を用いることによって、人物が写っている部分と、実際に背景カーテンに投影された人物の影が写っている部分とを撮影画像から抽出し、抽出した画像を、背景画像取得部1014から供給された背景画像に合成することによって図7の合成画像を生成する。
FIG. 7 is an enlarged view of the composite image of FIG. The
合成部1013は、撮影画像から抽出した人物の部分と影の部分とを背景画像に重ねて合成を行う。影の部分は所定の透過率を有する形で撮影画像から抽出されているから、合成画像のうちの影の部分の画素値は、撮影画像から抽出された影の部分の画素の画素値と、背景画像の対応する画素の画素値とを透過率に応じて混合した画素値となる。
The
図7に示すように、合成画像には、マスク画像を用いることによって撮影画像から抽出された2人の人物と、撮影時に背景カーテンに投影した2人の影が写る。また、人物と影の部分以外の部分は背景画像の色の部分になる。図7において、人物の背景となる白色の部分は、その部分が背景画像の色の部分であることを表す。 As shown in FIG. 7, the composite image includes two persons extracted from the captured image by using the mask image and two shadows projected on the background curtain at the time of capturing. Further, the part other than the person and the shadow part is the color part of the background image. In FIG. 7, the white portion that is the background of the person represents that the portion is the color portion of the background image.
以上のようにして生成したマスク画像を用いることによって、人物が写っている部分と、実際に背景カーテンに投影された人物の影の部分とを撮影画像から抽出することが可能になる。また、撮影画像における影の写り方によっては半透明領域(所定の透過率を有する領域)が増えることになり、これにより、背景と人物との境界が滑らかになじんだ状態の合成画像を得ることが可能になる。 By using the mask image generated as described above, it is possible to extract from the photographed image a portion where the person is reflected and a shadow portion of the person actually projected onto the background curtain. Also, depending on how shadows appear in the captured image, the number of semi-transparent areas (areas with a predetermined transmittance) will increase, thereby obtaining a composite image in which the boundary between the background and the person is smoothly blended. Is possible.
さらに、背景画像に人物の影が写り込んだリアリティのある合成画像を生成することが可能になる。 Furthermore, it is possible to generate a realistic composite image in which a person's shadow is reflected in the background image.
[合成処理の第2の例]
図8は、画像処理部1001による合成処理の第2の例を示す図である。図8の合成処理においては、マスク画像を用いて人物の部分と影の部分を抽出し、他の画像に合成する処理が2回繰り返される。
[Second example of composition processing]
FIG. 8 is a diagram illustrating a second example of the composition processing by the
図8の上段に示す1段目の合成処理は、図3に示す合成処理と同じ処理である。図3に示す合成処理によって得られた合成画像を合成画像Aとする。 The first-stage synthesis process shown in the upper part of FIG. 8 is the same process as the synthesis process shown in FIG. A combined image obtained by the combining process shown in FIG.
図8の合成処理によって合成画像を生成する場合、合成部1013は、矢印#1の先に示すように、2段目の合成処理として、撮影画像からではなく合成画像Aから、人物の部分と影の部分をマスク画像を用いて抽出する。2段目の合成処理に用いられるマスク画像は1段目の合成処理に用いられるマスク画像と同じ画像である。また、2段目の合成処理に用いられる背景画像は1段目の合成処理に用いられる背景画像と同じ画像である。
When the composite image is generated by the composite processing in FIG. 8, the
合成部1013は、1段目の合成処理に用いたマスク画像と同じマスク画像を用いて合成画像Aから抽出した人物の部分と影の部分を背景画像に再度合成し、合成画像Bを生成する。
The
図3に示す合成処理の場合、合成画像に写る影の部分の色は、背景カーテンの色を若干暗めにした色と背景画像を混合した色になる。例えば影の部分の色が暗めの緑色であり、背景画像の色が赤色であるといったように、撮影画像から抽出された影の部分の色が、背景画像の色と同じ色の背景の前に立って撮影した場合に写る影の色と違う色である場合、合成画像に写る影が違和感のある影に見えてしまう。 In the case of the composition process shown in FIG. 3, the color of the shadow portion that appears in the composite image is a color obtained by mixing the background curtain color with a slightly darker background curtain color. For example, the color of the shadow part extracted from the photographed image is in front of the background with the same color as the background image color, such as the shadow part color is dark green and the background image color is red. If the color is different from the color of the shadow that appears when shooting while standing, the shadow that appears in the composite image will appear to be an uncomfortable shadow.
図8に示すように、1段目の合成処理によって合成画像Aを生成した後、マスク画像を用いて人物の部分と影の部分を合成画像Aから抽出し、背景画像に再度合成することにより、合成画像Bに写る影の色を、違和感のない色にすることが可能になる。 As shown in FIG. 8, after the composite image A is generated by the first-stage composite processing, a human part and a shadow part are extracted from the composite image A using the mask image and composited with the background image again. Thus, it is possible to make the color of the shadow appearing in the composite image B a color that does not cause a sense of incongruity.
以下、適宜、図8に示すように画像の合成を2回繰り返す合成処理を2段階合成処理という。 Hereinafter, the combination process in which the image combination is repeated twice as shown in FIG. 8 is referred to as a two-step combination process.
[合成処理の第3の例]
図9は、画像処理部1001による合成処理の第3の例を示す図である。図9の合成処理においては、2段目の合成処理に用いる背景画像と異なる画像が、1段目の合成処理時に背景画像として用いられる。
[Third example of composition processing]
FIG. 9 is a diagram illustrating a third example of the composition processing by the
図9の合成処理によって合成画像を生成する場合、背景画像取得部1014は、背景画像と、その背景画像に対応する影色背景画像を取得し、合成部1013に出力する。影色背景画像は、例えば背景画像の色と同じ色の平面の前に立って撮影した場合に写る影の色として想定される色の画像であり、背景画像と対応付けて背景画像取得部1014により予め管理されている。影色背景画像の色は、背景カーテンの色とは異なる色であり、例えば、背景画像の色を若干暗めにした色である。図9の影色背景画像や合成画像において垂直水平方向の格子を付して示す部分の色は、影色背景画像の色と同じ色の部分を表す。
When a composite image is generated by the composite processing in FIG. 9, the background
図9の上段に示す1段目の合成処理は、背景画像の代わりに影色背景画像を用いる点を除いて、図8の1段目の合成処理と同じ処理である。 The first stage compositing process shown in the upper part of FIG. 9 is the same as the first stage compositing process of FIG. 8 except that a shadow color background image is used instead of the background image.
合成部1013は、1段目の合成処理として、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分を撮影画像から抽出し、抽出した人物の部分と影の部分を影色背景画像に合成することによって合成画像Cを生成する。合成画像Cに写る影の部分の色は、撮影画像から抽出された影の部分の色と、影色背景画像の色とを混合した色になる。
As the first-stage composition processing, the
また、合成部1013は、矢印#11の先に示すように、2段目の合成処理として、合成画像Cから、人物の部分と影の部分をマスク画像を用いて抽出する。合成部1013は、1段目の合成処理に用いたマスク画像と同じマスク画像を用いて合成画像Cから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Dを生成する。
In addition, as indicated by the tip of
このように、背景画像に適した色の画像を影色背景画像として用意しておき、人物の影の色として背景画像の色ではなく影色背景画像の色を用いることにより、合成画像Dに写る影の色を、背景画像の色に対して違和感のない色にすることが可能になる。 In this way, an image of a color suitable for the background image is prepared as a shadow color background image, and the color of the shadow color background image is used as the shadow color of the person instead of the color of the background image. It is possible to make the color of the shadow appearing a color that does not feel uncomfortable with the color of the background image.
例えば、背景画像がピンク色である場合、その背景画像に対して、撮影画像から抽出した灰色の影の部分を合成したときには影の部分が汚れに見えてしまうが、赤色や茶色などの、ピンク色を暗めにした色の画像を影色背景画像として用いることによって、ピンク色の背景画像に合成したときに違和感のない、赤色や茶色の影を背景画像に写り込ませることが可能になる。 For example, if the background image is pink, when the gray shadow part extracted from the photographed image is combined with the background image, the shadow part looks dirty, but the red or brown or other pink By using a dark color image as a shadow color background image, it is possible to cause a red or brown shadow to appear in the background image without any sense of incongruity when it is combined with a pink background image.
[合成処理の第4の例]
撮影モードに応じて影色背景画像の色を変えるようにしてもよい。
[Fourth Example of Composition Processing]
You may make it change the color of a shadow color background image according to imaging | photography mode.
例えば、逆光の雰囲気の画像を撮影するモードである逆光モードと、順光の雰囲気の画像を撮影するモードである順光モードが撮影モードとして用意されているものとする。被写体としての利用者(後述する写真シール機1の利用者)は、逆光モードと順光モードのうちのいずれかのモードを選択し、撮影を行うことになる。
For example, it is assumed that a backlight mode, which is a mode for capturing an image with a backlight atmosphere, and a backlight mode, which is a mode for capturing an image with a backlight environment, are prepared as shooting modes. A user as a subject (a user of the
例えば、逆光モードが選択された場合、影色背景画像として、順光モードが選択された場合に用いられる影色背景画像と同系色であるが、明るめの色の画像が選択され、図9を参照して説明した1段目の合成処理が行われる。 For example, when the backlight mode is selected, a shadow color background image similar to the shadow color background image used when the follow light mode is selected, but a lighter color image is selected. The first-stage synthesis process described with reference to the reference is performed.
また、順光モードが選択された場合、影色背景画像として、逆光モードが選択された場合に用いられる影色背景画像と同系色であるが、暗めの色の画像が選択され、図9を参照して説明した1段目の合成処理が行われる。 Further, when the follow light mode is selected, an image having a color similar to that of the shadow color background image used when the backlight mode is selected as the shadow color background image but having a dark color is selected. The first-stage synthesis process described with reference to the reference is performed.
例えば、背景画像がピンク色であるとすると、順光モードにおいては、暗めの茶色の影色背景画像が用いられ、逆光モードにおいては、明るめの赤色の影色背景画像が用いられる。背景画像取得部1014は、このような影色背景画像を撮影モードに応じて取得し、合成部1013に出力する。
For example, if the background image is pink, a dark brown shadow background image is used in the follow light mode, and a bright red shadow background image is used in the backlight mode. The background
2段目の合成処理を行って最終的に得られる合成画像に写る影の部分の色は、逆光モードである場合には明るめの色になり、順光モードである場合には暗めの色になる。 The color of the shadow portion that appears in the composite image that is finally obtained by performing the second-stage compositing process is a bright color when in the backlight mode, and a dark color when in the follow light mode. Become.
これにより、逆光で撮影したときに写る影や、順光で撮影したときに写る影を表現することができ、リアリティのある合成画像を生成することが可能になる。 As a result, it is possible to express a shadow that appears when shooting with backlight and a shadow that appears when shooting with direct light, and it is possible to generate a realistic composite image.
[合成処理の第5の例]
図10は、画像処理部1001による合成処理の第5の例を示す図である。図10の合成処理においては、2段目の合成処理に用いるマスク画像と異なるマスク画像を用いて1段目の合成処理が行われる。
[Fifth example of composition processing]
FIG. 10 is a diagram illustrating a fifth example of the composition processing by the
図10の合成処理によって合成画像を生成する場合、マスク画像生成部1012は、撮影画像の画素値に基づいて、背景カーテンと同じ色の部分と、それ以外の色の部分とを検出する。
When the composite image is generated by the composite processing in FIG. 10, the mask
マスク画像生成部1012は、背景カーテンと同じ色の部分以外の部分を人物の部分として、人物の部分を100%の透過率で透過させるとともに、例えば人物の輪郭に沿って人物の周囲全体の一定の幅の部分を所定の透過率で透過させるマスク画像を生成する。背景カーテンが写る部分の透過率は0%になる。以下、適宜、人物の部分の透過率が100%、人物の輪郭に沿って確保される一定の幅の部分の透過率が所定の透過率、背景カーテンの部分の透過率が0%のマスク画像を従来のマスク画像という。
The mask
図10の上段に示す1段目の合成処理は、画像の抽出に用いるマスク画像が異なる点を除いて、図9の1段目の合成処理と同じ処理である。 The first stage compositing process shown in the upper part of FIG. 10 is the same as the first stage compositing process of FIG. 9 except that the mask image used for image extraction is different.
合成部1013は、1段目の合成処理として、撮影画像に基づいて生成された従来のマスク画像を用いて、人物の部分と人物の周りの部分を撮影画像から抽出し、抽出した人物の部分と人物の周りの部分を影色背景画像に合成することによって合成画像Eを生成する。合成画像Eに写る人物の周りの部分の色は、撮影画像から抽出された人物の周りの部分の色と、影色背景画像の色とを混合した色になる。
The
また、合成部1013は、矢印#21の先に示すように、2段目の合成処理として、合成画像Eから、人物の部分と影の部分をマスク画像(図9のマスク画像と同じマスク画像)を用いて抽出する。合成部1013は、1段目の合成処理に用いた従来のマスク画像と異なるマスク画像を用いて合成画像Eから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Fを生成する。
Further, as indicated by the tip of
従来のマスク画像は、人物の周りの部分を所定の透過率で透過させるものであるため、合成画像Eに写る人物の周りの色には影色背景画像の色が含まれる。合成画像Eから人物の部分と影の部分とをマスク画像を用いて抽出し、背景画像に合成することによっても、背景画像の色に適した色の影を背景画像に写り込ませることが可能になる。 Since the conventional mask image transmits a portion around the person with a predetermined transmittance, the color around the person shown in the composite image E includes the color of the shadow color background image. By extracting the human part and the shadow part from the composite image E using the mask image and combining it with the background image, it is possible to incorporate a shadow of a color suitable for the color of the background image into the background image. become.
[合成処理の第6の例]
図11は、画像処理部1001による合成処理の第6の例を示す図である。図11の合成処理においては、1段目の合成処理と2段目の合成処理の間に、影の色を調整する処理が行われる。
[Sixth example of composition processing]
FIG. 11 is a diagram illustrating a sixth example of the composition process performed by the
図8の1段目の合成処理と2段目の合成処理の間に影の色を調整する場合について説明するが、図9、図10の2段階合成処理においても、同様の処理を、1段目の合成処理と2段目の合成処理の間に行うようにすることが可能である。 Although the case where the shadow color is adjusted between the first-stage composition process and the second-stage composition process in FIG. 8 will be described, the same process is also performed in the two-stage composition process in FIGS. It is possible to perform the process between the stage synthesis process and the second stage synthesis process.
図11の合成処理によって合成画像を生成する場合、マスク画像生成部1012は、撮影画像に基づいて生成したマスク画像の白領域と黒領域を反転させることによって、図11に示すような背景マスク画像を生成する。
When generating a combined image by the combining process of FIG. 11, the mask
合成部1013は、図8の1段目の合成処理が終了した後、1段目の合成処理によって得られた合成画像Aから、背景の部分(人物以外の部分)を背景マスク画像に基づいて抽出する。合成部1013は、抽出した背景の部分の色を調整し、色を調整した背景の部分と人物の部分とを合成することによって、合成画像A’を生成する。背景マスク画像を用いて抽出した人物の部分以外の背景の部分の色を調整することは、人物の影の部分の色をも調整することになる。
The
背景の部分の色の調整は、色相、彩度、明度のうちの少なくともいずれかを調整するようにして行われる。背景の部分の色をどのように調整するのかは、例えば背景画像に対応付けて予め決められており、背景画像の色と同じ色の平面に写る影の色として適した色になるような調整が行われる。合成部1013は、合成画像A’を合成画像Aとして用いて、図8の2段目の合成処理を行う。
Adjustment of the color of the background portion is performed by adjusting at least one of hue, saturation, and brightness. How to adjust the color of the background portion is determined in advance in association with the background image, for example, and is adjusted so that the color is suitable as a shadow color on the same color plane as the background image color. Is done. The
このように、1段目の合成処理の合成結果から抽出した背景の部分の色相・彩度・明度を調整してから2段目の合成処理を行うことによっても、適した色の影を背景画像に写り込ませることが可能になる。 As described above, by adjusting the hue, saturation, and brightness of the background portion extracted from the synthesis result of the first-stage synthesis process, the second-stage synthesis process can also be performed to obtain a suitable color shadow. It can be reflected in the image.
[合成処理の第7の例]
2段目の合成処理に使用するマスク画像として、1段目の合成処理に使用したマスク画像を加工したマスク画像を使用するようにしてもよい。マスク画像の加工には次の処理が含まれる。
1.トーンカーブを用いたコントラスト調整
2.ぼかし処理
3.影の部分を対象としたぼかし処理
4.トーンカーブを用いたコントラスト調整とぼかし処理
5.トーンカーブを用いたコントラスト調整と影の部分を対象としたぼかし処理
[Seventh example of composition processing]
A mask image obtained by processing the mask image used for the first-stage compositing process may be used as the mask image used for the second-stage compositing process. The processing of the mask image includes the following processing.
1. 1. Contrast adjustment using
1.トーンカーブを用いたコントラスト調整
図12は、2段目の合成処理に使用するマスク画像として、1段目の合成処理に使用したマスク画像のコントラストを調整して得られたマスク画像を使用する場合の2段階合成処理の例を示す図である。図12の処理は、2段目の合成処理に使用するマスク画像が異なる点を除いて図9の処理と同様である。
1. FIG. 12 shows a case where a mask image obtained by adjusting the contrast of the mask image used in the first-stage compositing process is used as the mask image used in the second-stage compositing process. It is a figure which shows the example of 2 step | paragraph synthetic | combination processes. The process of FIG. 12 is the same as the process of FIG. 9 except that the mask image used for the second-stage compositing process is different.
すなわち、合成部1013は、1段目の合成処理として、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分を撮影画像から抽出し、抽出した人物の部分と影の部分を影色背景画像に合成することによって合成画像Cを生成する。
In other words, as the first-stage composition processing, the
マスク画像生成部1012は、矢印#31に示すように、1段目の合成処理に使用したマスク画像のコントラストを調整することによってマスク画像MA1を生成する。マスク画像MA1は、例えば、1段目の合成処理に使用したマスク画像と較べて、所定の透過率を有する部分、すなわち影の部分の面積が異なる画像であったり、各位置の透過率が異なる画像である。
The mask
合成部1013は、矢印#32の先に示すように、2段目の合成処理として、合成画像Cから、人物の部分と影の部分をマスク画像MA1を用いて抽出する。合成部1013は、マスク画像MA1を用いて合成画像Cから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Gを生成する。
As indicated by the tip of
マスク画像のコントラストを調整することによって影の濃さや広がりを調整することができ、例えば影の存在が目立つ合成画像を生成することが可能になる。 By adjusting the contrast of the mask image, the darkness and spread of the shadow can be adjusted. For example, it is possible to generate a composite image in which the presence of the shadow is conspicuous.
2.ぼかし処理
図13は、2段目の合成処理に使用するマスク画像として、1段目の合成処理に使用したマスク画像にぼかし処理を行うことによって得られたマスク画像を使用する場合の2段階合成処理の例を示す図である。図13の処理も、2段目の合成処理に使用するマスク画像が異なる点を除いて図9の処理と同様である。
2. Blur Processing FIG. 13 shows a two-stage composition when a mask image obtained by performing a blur process on the mask image used in the first-stage composition process is used as the mask image used in the second-stage composition process. It is a figure which shows the example of a process. The process of FIG. 13 is the same as the process of FIG. 9 except that the mask image used for the second-stage compositing process is different.
すなわち、合成部1013は、1段目の合成処理として、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分を撮影画像から抽出し、抽出した人物の部分と影の部分を影色背景画像に合成することによって合成画像Cを生成する。
In other words, as the first-stage composition processing, the
マスク画像生成部1012は、矢印#41に示すように、1段目の合成処理に使用したマスク画像を対象としてぼかし処理を行い、マスク画像MA2を生成する。マスク画像MA2は、例えば、1段目の合成処理に使用したマスク画像と較べて、人物の輪郭と影の輪郭がぼけた(コントラストが低い)画像である。
The mask
合成部1013は、矢印#42の先に示すように、2段目の合成処理として、合成画像Cから、人物の部分と影の部分をマスク画像MA2を用いて抽出する。合成部1013は、マスク画像MA2を用いて合成画像Cから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Hを生成する。
As indicated by the tip of
これにより、マスク画像に含まれるノイズを除去することができ、滑らかな影を合成画像Cから抽出し、背景画像に合成することができる。また、人物の輪郭と影をぼかすことによって、柔らかい雰囲気の合成画像を生成することができる。 Thereby, noise included in the mask image can be removed, and a smooth shadow can be extracted from the composite image C and combined with the background image. Also, a soft atmosphere composite image can be generated by blurring the outline and shadow of a person.
3.影の部分を対象としたぼかし処理
図14は、マスク画像の加工の例を示す図である。図14の処理により、図13に示すようにしてマスク画像全体をぼかすのとは異なり、人物の輪郭を残しつつ、影の部分のみをぼかすことが可能になる。
3. Blur Processing for Shadow Part FIG. 14 is a diagram illustrating an example of mask image processing. The process of FIG. 14 makes it possible to blur only the shadow portion while leaving the outline of the person, unlike blurring the entire mask image as shown in FIG.
はじめに、マスク画像生成部1012は、矢印#51に示すように、1段目の合成処理に使用したマスク画像を対象としてぼかし処理を行うことによって、人物の輪郭と影の輪郭がぼけた画像であるマスク画像MA2を生成する。図14のマスク画像MA2は、図13のマスク画像MA2と同じ画像である。
First, as shown by an
また、マスク画像生成部1012は、矢印#52に示すように、1段目の合成処理に使用したマスク画像と、マスク画像MA2との差(差の絶対値)を求め、差分画像を生成する。矢印#52の先に示す差分画像のうち、黒色の部分は、1段目の合成処理に使用したマスク画像とマスク画像MA2との差がない部分を表し、白色の部分は差がある部分を表す。
Further, as indicated by
マスク画像生成部1012は、矢印#53,#54,#55の先に示すように、1段目の合成処理に使用したマスク画像と差分画像とマスク画像MA2に基づいてマスク画像MA3を生成する。例えば、マスク画像生成部1012は、1段目の合成処理に使用したマスク画像に含まれる人物の輪郭を差分画像を用いて抽出し、抽出した輪郭をマスク画像MA2に合成することによってマスク画像MA3を生成する。
The mask
マスク画像MA3は、人物の輪郭がマスク画像MA2よりはっきりとしているが、影の輪郭がマスク画像MA2の影の輪郭と同様にぼけた画像になる。合成部1013は、このようにしてマスク画像生成部1012により生成されたマスク画像MA3を用いて、図13の2段目の合成処理を行うことになる。
In the mask image MA3, the outline of the person is clearer than that of the mask image MA2, but the shadow outline is blurred as with the shadow outline of the mask image MA2. The
これにより、マスク画像に含まれるノイズを除去することができ、滑らかな影を抽出し、背景画像に合成することができる。また、影のみをぼかすことによって、人物の輪郭ははっきりとしつつも、影のみが柔らかい雰囲気の合成画像を生成することができる。 Thereby, noise included in the mask image can be removed, and a smooth shadow can be extracted and synthesized with the background image. Also, by blurring only the shadow, it is possible to generate a composite image in which the outline of the person is clear but the shadow is soft.
4.トーンカーブを用いたコントラスト調整とぼかし処理
図15は、2段目の合成処理に使用するマスク画像として、1段目の合成処理に使用したマスク画像のコントラストを調整した後、さらにぼかし処理を行って得られたマスク画像を使用する場合の2段階合成処理の例を示す図である。図15の処理も、2段目の合成処理に使用するマスク画像が異なる点を除いて図9の処理と同様である。
4). Contrast adjustment and blurring process using tone curve Fig. 15 shows the mask image used for the second stage compositing process. After adjusting the contrast of the mask image used for the first stage compositing process, further blurring process is performed. It is a figure which shows the example of a 2 step | paragraph synthetic | combination process in the case of using the mask image obtained by this. The process of FIG. 15 is the same as the process of FIG. 9 except that the mask image used for the second-stage compositing process is different.
合成部1013は、1段目の合成処理として、撮影画像に基づいて生成されたマスク画像を用いて、人物の部分と影の部分を撮影画像から抽出し、抽出した人物の部分と影の部分を影色背景画像に合成することによって合成画像Cを生成する。
As the first-stage composition processing, the
マスク画像生成部1012は、矢印#61に示すように、1段目の合成処理に使用したマスク画像のコントラストを調整し、さらに、ぼかし処理を行うことによってマスク画像MA4を生成する。マスク画像MA4は、例えば、1段目の合成処理に使用したマスク画像と較べて、所定の透過率を有する部分、すなわち影の部分の面積が異なる画像であったり、各位置の透過率が異なる画像である。また、マスク画像MA4は、1段目の合成処理に使用したマスク画像と較べて、人物の輪郭と影の輪郭がぼけた画像である。
The mask
合成部1013は、矢印#62の先に示すように、2段目の合成処理として、合成画像Cから、人物の部分と影の部分をマスク画像MA4を用いて抽出する。合成部1013は、マスク画像MA4を用いて合成画像Cから抽出した人物の部分と影の部分を背景画像に合成し、合成画像Iを生成する。
As indicated by the tip of
マスク画像のコントラストを調整することにより影の濃さや広がりを調整することができ、例えば影の存在が目立つ合成画像を生成することが可能になる。また、マスク画像に含まれるノイズを除去することができ、滑らかな影を抽出し、背景画像に合成することができる。 By adjusting the contrast of the mask image, the darkness and spread of the shadow can be adjusted. For example, it is possible to generate a composite image in which the presence of the shadow is conspicuous. Further, noise included in the mask image can be removed, and a smooth shadow can be extracted and combined with the background image.
5.トーンカーブを用いたコントラスト調整と影の部分を対象としたぼかし処理
図16は、マスク画像の加工の例を示す図である。
5. FIG. 16 is a diagram illustrating an example of mask image processing. FIG. 16 is a diagram illustrating an example of mask image processing.
はじめに、マスク画像生成部1012は、1段目の合成処理に使用したマスク画像のコントラストを調整することによって生成したマスク画像MA1を対象としてぼかし処理を行い、矢印#71に示すように、人物の輪郭と影の輪郭がぼけた画像であるマスク画像MA4を生成する。図16のマスク画像MA1は、1段目の合成処理に使用したマスク画像のコントラストを調整することによって生成された、図12のマスク画像MA1と同じ画像である。また、図16のマスク画像MA4は図15のマスク画像MA4と同じ画像である。
First, the mask
また、マスク画像生成部1012は、矢印#72に示すように、マスク画像MA1とマスク画像MA4との差を表す差分画像を生成する。矢印#72の先に示す差分画像のうち、黒色の部分は、マスク画像MA1とマスク画像MA4との差がない部分を表し、白色の部分は差がある部分を表す。
Further, the mask
マスク画像生成部1012は、矢印#73,#74,#75の先に示すように、マスク画像MA1と差分画像とマスク画像MA4に基づいてマスク画像MA5を生成する。例えば、マスク画像生成部1012は、マスク画像MA1に含まれる人物の輪郭を差分画像を用いて抽出し、抽出した輪郭をマスク画像MA4に合成することによってマスク画像MA5を生成する。
The mask
マスク画像MA5は、人物の輪郭がマスク画像MA4よりはっきりとしているが、影の輪郭がマスク画像MA4の影の輪郭と同様にぼけた画像になる。合成部1013は、このようにしてマスク画像生成部1012により生成されたマスク画像MA5を用いて、図15の2段目の合成処理を行うことになる。
In the mask image MA5, the outline of the person is clearer than that of the mask image MA4, but the shadow outline is blurred as in the case of the shadow outline of the mask image MA4. The
これにより、マスク画像のコントラストを調整することによって影の濃さや広がりを調整することができ、例えば影の存在が目立つ合成画像を生成することが可能になる。また、影のみをぼかすことによって、人物の輪郭ははっきりとしつつも、影のみが柔らかい雰囲気の合成画像を生成することができる。 Accordingly, the darkness and spread of the shadow can be adjusted by adjusting the contrast of the mask image. For example, it is possible to generate a composite image in which the presence of the shadow is conspicuous. Also, by blurring only the shadow, it is possible to generate a composite image in which the outline of the person is clear but the shadow is soft.
[合成処理の第8の例]
図17は、合成処理に用いるマスク画像の組み合わせの例について説明する図である。ここでは、1段目の合成処理に用いるマスク画像をマスク画像X、2段目の合成処理に用いるマスク画像をマスク画像Yとして説明する。
[Eighth Example of Composition Processing]
FIG. 17 is a diagram illustrating an example of a combination of mask images used for the synthesis process. Here, the mask image used for the first-stage compositing process will be described as mask image X, and the mask image used for the second-stage compositing process will be described as mask image Y.
以上においては、1段目の合成処理に使用したマスク画像を加工して得られたマスク画像を2段目の合成処理に用いるものとしたが、そのように、撮影画像に基づいて生成したマスク画像を加工して得られたマスク画像を、1段目の合成処理に用いるようにすることも可能である。また、撮影画像に基づいて生成したマスク画像を加工して得られたマスク画像を、1段目の合成処理と2段目の合成処理の両方で用いるようにすることも可能である。 In the above description, the mask image obtained by processing the mask image used in the first-stage compositing process is used in the second-stage compositing process. As such, the mask generated based on the captured image is used. It is also possible to use the mask image obtained by processing the image for the first-stage compositing process. It is also possible to use a mask image obtained by processing a mask image generated based on a captured image in both the first-stage synthesis process and the second-stage synthesis process.
例えば、マスク画像X,Yとして、図16の処理によって生成したマスク画像MA5を用いて1段目の合成処理と2段目の合成処理をそれぞれ行うようにすることも可能である。 For example, as the mask images X and Y, the first-stage synthesis process and the second-stage synthesis process can be performed using the mask image MA5 generated by the process of FIG.
また、マスク画像X,Yとして、上述したマスク画像MA1乃至MA4のいずれかを用いて1段目の合成処理と2段目の合成処理をそれぞれ行うようにすることも可能である。 Further, the first-stage synthesis process and the second-stage synthesis process can be performed using any of the mask images MA1 to MA4 described above as the mask images X and Y, respectively.
1段目の合成処理と2段目の合成処理に同じマスク画像を用いることにより、より自然な状態で人物が合成された合成画像を生成することが可能になる。1段目の合成処理と2段目の合成処理で用いるマスク画像が異なる場合、例えば、2段目の合成処理で用いるマスク画像の影の部分が1段目の合成処理で用いるマスク画像の影の部分より広いときには、1段目の合成処理により得られた合成画像に含まれる背景画像の色(影色背景画像の色)が、人物の輪郭によって縁取りされたようなものになってしまうことがあるが、そのようなことを防ぐことができる。 By using the same mask image for the first-stage synthesis process and the second-stage synthesis process, it is possible to generate a synthesized image in which a person is synthesized in a more natural state. If the mask image used in the first-stage compositing process is different from the mask image used in the second-stage compositing process, for example, the shadow portion of the mask image used in the second-stage compositing process is the shadow of the mask image used in the first-stage compositing process. If it is wider than the area of, the color of the background image (color of the shadow color background image) included in the composite image obtained by the first-stage composite processing will be as if it is bordered by the outline of the person There is, but can prevent such a thing.
<写真シール機の構成と動作について>
次に、以上のような合成処理を行う写真シール機の構成と動作について説明する。
<About the structure and operation of the photo sticker>
Next, the configuration and operation of a photo sticker that performs the above-described composition processing will be described.
[写真シール機の外観構成]
図18は、本発明の一実施形態に係る写真シール機1の外観の構成例を示す斜視図である。図1の画像処理部1001が、図18の写真シール機1において実現される。
[External structure of photo sticker]
FIG. 18 is a perspective view showing a configuration example of the appearance of the
写真シール機1は、撮影や編集等の作業を利用者にゲームとして行わせ、撮影画像や編集済み画像を提供する代わりに利用者より代金を受け取るゲーム機である。写真シール機1はゲームセンタなどの店舗に設置される。利用者は1人であることもあるし、複数人であることもある。
The
写真シール機1が提供するゲームで遊ぶ利用者は、代金を投入し、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した編集対象の画像に対して、手書きの線画やスタンプ画像を合成する編集機能を用いて編集を行うことにより、撮影画像を彩り豊かな画像にする。利用者は、編集済みの画像が印刷されたシール紙を受け取って一連のゲームを終了させることになる。
The user who plays the game provided by the
図18に示すように、写真シール機1は、主に、撮影ユニット11、編集部12、および事後接客部13から構成される。撮影ユニット11と編集部12が接した状態で設置され、編集部12と事後接客部13が接した状態で設置される。
As shown in FIG. 18, the
撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間である撮影空間において撮影処理が行われる。図2の撮影の様子は、写真シール機1の撮影空間での撮影の様子を示している。
The photographing
撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に望む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42Bにより構成される。
The photographing
背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の左端に取り付けられ、側面パネル42Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の右端に取り付けられ、側面パネル42Bより横幅の狭い板状の部材である側面パネル52B(図20)から構成される。
The
撮影部21の左側面を構成する側面パネル42Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bと背景部22の側面パネル52Bは、ほぼ同一平面に設けられ、それぞれの上部が板状の部材である連結部23Bによって連結される。
The
撮影部21の側面パネル42A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口G1となる。撮影部21の側面パネル42B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口G2となる。
An opening formed by being surrounded by the
背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Bに支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用する巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。
The
複数のカーテンを1枚のクロマキ用のカーテンとし、昇降式の背景カーテンとして用意してもよい。また、クロマキ用のカーテンを予め撮影空間の背面に張り付けるとともに、合成用の背景画像を複数種類用意し、編集処理において利用者が所望する背景画像をカーテンの部分に合成することができるようにしてもよい。 A plurality of curtains may be used as one blackboard curtain, and may be prepared as an elevating type background curtain. In addition, a black curtain is attached to the back of the shooting space in advance, and multiple types of background images are prepared so that the user can synthesize the background image desired by the user in the editing process. May be.
撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。
An opening surrounded by the
図19に示すように、撮影空間の上方に形成される開口のうち、天井ストロボユニット24を挟んで前方の部分は天井前方カーテン61で覆われ、後方の部分は天井後方カーテン62で覆われる。天井前方カーテン61の少なくとも内側の色は黒色などの暗い色とされ、天井後方カーテン62の少なくとも内側の色は白色などの明るい色とされる。
As shown in FIG. 19, in the opening formed above the imaging space, the front part across the
また、図19に示すように、撮影空間の出入り口G1には側面カーテン63が取り付けられる。反対側の出入り口である出入り口G2にも図示せぬ側面カーテンが取り付けられる。撮影空間の出入り口G1およびG2に取り付けられる側面カーテンの少なくとも内側の色は黒色などの暗い色とされる。 Further, as shown in FIG. 19, a side curtain 63 is attached to the entrance G1 of the imaging space. A side curtain (not shown) is also attached to the doorway G2, which is the doorway on the opposite side. At least the inner color of the side curtains attached to the entrances G1 and G2 of the imaging space is a dark color such as black.
図18の説明に戻り、編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12は、一方の側面が撮影部21の正面パネル41の背面に接するように撮影ユニット11に連結して設けられる。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。
Returning to the description of FIG. 18, the
図18に示す編集部12の構成を正面側の構成とすると、2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。
If the configuration of the
編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集処理に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。支持部73Aの上面にはカーテンレール26を支持する支持部75が設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図20)が設けられる。
The front side of the
編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端に残りの一本のレール26Cの両端が接合される。
A
カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う編集空間となる。
A curtain is attached to the
図20は、写真シール機1を別の角度から見た斜視図である。
FIG. 20 is a perspective view of the
事後接客部13は事後接客処理を利用者に行わせる装置である。事後接客処理には、撮影画像や編集済みの画像を携帯電話機などの携帯端末に送信する処理、ミニゲームを利用者に行わせる処理、アンケートに答えさせる処理などが含まれる。
The subsequent
図20に示すように、事後接客部13は、所定の厚さを有する板状の筐体を有しており、その背面が編集部12の左側面に接するように編集部12に連結して設けられる。事後接客部13の正面には、事後接客処理時に利用者により用いられるタブレット内蔵モニタや、撮影画像や編集済みの画像が印刷されたシール紙が排出される排出口などが設けられる。事後接客部13の正面前方の空間が、シール紙への印刷が終わるのを待っている利用者が事後接客処理を行う事後接客空間となる。
As shown in FIG. 20, the
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について図21を参照して説明する。図21は、写真シール機1を上から見た平面図である。
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described with reference to FIG. FIG. 21 is a plan view of the
写真シール機1の利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理を行う。
The user of the
撮影処理を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。
The user who has finished the shooting process exits the shooting space A1 and moves to the editing space A2-1 using the doorway G1 as indicated by the
編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#5で示すように編集空間A2−1から事後接客空間A3に移動して事後接客処理を行う。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#6で示すように編集空間A2−2から事後接客空間A3に移動し、事後接客空間A3において事後接客処理を行う。
After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. During printing of the image, the user who has finished the editing process moves from the editing space A2-1 to the subsequent customer service space A3 as indicated by the
画像の印刷が終了したとき、利用者は、事後接客部13に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。
When the printing of the image is finished, the user receives the sticker paper from the outlet provided in the
[各装置の構成]
次に、各装置の構成について説明する。
[Configuration of each device]
Next, the configuration of each device will be described.
図22は、撮影部21の正面の構成例を示す図である。撮影部21は、正面パネル41、側面パネル42A、および側面パネル42Bが、箱状の形状を有するベース部43に取り付けられることによって構成される。
FIG. 22 is a diagram illustrating a configuration example of the front of the photographing
正面パネル41は撮影空間A1で撮影処理を行う利用者の正面に位置し、側面パネル42Aと側面パネル42Bは、それぞれ、撮影空間A1で撮影処理を行う利用者の左側、右側に位置する。側面パネル42Aの上方には連結部23Aが固定され、側面パネル42Bの上方には連結部23Bが固定される。
The
正面パネル41のほぼ中央には撮影・表示ユニット81が設けられる。撮影・表示ユニット81は、カメラ91、正面ストロボ92、およびタッチパネルモニタ93から構成される。
An imaging /
カメラ91は、CCD(Charge Coupled Device)などの撮像素子により構成され、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像は、タッチパネルモニタ93にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた画像は撮影画像(静止画像)として保存される。図2に示すカメラが、図22のカメラ91に相当する。
The
カメラ91を囲むように発光面が設けられた正面ストロボ92は、他のストロボと同様にカメラ91による撮影に合わせて発光し、被写体としての利用者の顔付近を正面から照射する。
The front strobe 92 provided with a light emitting surface so as to surround the
カメラ91の下側に設けられたタッチパネルモニタ93は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ93は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)画像を表示し、利用者の選択操作をタッチパネルにより受け付ける機能とを備えている。タッチパネルモニタ93には、適宜、背景等の画像が合成された後の動画像が表示される。
A touch panel monitor 93 provided on the lower side of the
また、タッチパネルモニタ93には、合成処理によって生成された合成画像が撮影処理時などの所定のタイミングで表示される。 Further, the touch panel monitor 93 displays a composite image generated by the composite process at a predetermined timing such as during the photographing process.
正面パネル41には、撮影・表示ユニット81の位置を基準として、上方に上ストロボ82が設置される。また、左方に左ストロボ83が設置され、右方に右ストロボ84が設置される。撮影・表示ユニット81の下方の位置には、ベース部43の上面が一部突出する形で下ストロボ85が設けられる。
On the
上ストロボ82は、利用者を上前方から照射する。左ストロボ83は、利用者を左前方から照射し、右ストロボ84は、利用者を右前方から照射する。下ストロボ85は、利用者を下前方から照射する。 The upper strobe 82 irradiates the user from the upper front. The left strobe 83 irradiates the user from the left front, and the right strobe 84 irradiates the user from the right front. The lower strobe 85 irradiates the user from the lower front.
ベース部43には利用者の足元を照射する足元ストロボ86も設けられる。上ストロボ82、左ストロボ83、右ストロボ84、下ストロボ85、および足元ストロボ86の内部には蛍光灯が設けられており、天井ストロボユニット24を構成するストロボの内部の蛍光灯と合わせて、撮影空間A1内の照明として用いられる。
The
足元ストロボ86の右側には、利用者がお金を投入する硬貨投入返却口87が設けられる。
On the right side of the foot strobe 86, a coin insertion /
下ストロボ85を挟んでベース部43の上面の左右に形成されるスペース43Aおよび43Bは、撮影処理を行う利用者が手荷物等を置くための荷物置き場として用いられる。正面パネル41の例えば天井付近には、撮影処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカも設けられる。
このような構成を有する撮影部21の各部のうち、正面パネル41、側面パネル42A、側面パネル42B、およびベース部43の撮影空間A1に面する部分の色と、連結部23A、連結部23Bの内側の色は、図23に色を付して示すように黒色などの暗い色とされる。図19を参照して説明したように、撮影空間A1の天井前方の開口に取り付けられる天井前方カーテン61の内側の色と、出入り口G1およびG2に取り付けられるカーテンの内側の色が暗い色であることもあって、撮影空間A1の前方の色は全体的に暗い色となる。
Of each part of the photographing
後述するように、背景部22には撮影空間A1にいる利用者を背面側から照射するストロボが設けられる。撮影空間A1の前方の色を全体的に暗い色にすることによって、背景部22に設けられるストロボからの光が撮影空間A1内で反射し、利用者を照射してしまうことを防ぐことができ、意図した明るさで撮影を行うことが可能になる。
As will be described later, the
すなわち、背景部22の両端に設けられたストロボからの光のうち、利用者にあたらない光の反射は出入り口G1およびG2に取り付けられた側面カーテンの内側で防ぐことができる。また、撮影部21の正面に設けられた例えば下ストロボ85からの光のうち、利用者にあたらない光の反射は天井前方カーテン61の内側で防ぐことができる。撮影部21の正面に設けられた左ストロボ83および右ストロボ84からの光のうち、利用者にあたらない光の反射は側面パネル42A、側面パネル42Bの内側で防ぐことができる。
That is, of the light from the strobes provided at both ends of the
また、図19を参照して説明したように、撮影空間A1の天井後方の開口に取り付けられる天井後方カーテン62の内側の色は明るい色であり、撮影空間A1の後方の色は全体的に明るい色となる。
Further, as described with reference to FIG. 19, the color inside the ceiling
撮影空間A1の後方の色を全体的に明るい色にすることによって、撮影部21に設けられるストロボからの光を撮影空間A1内で反射させ、利用者を後方から照射することが可能になる。利用者を後方から照射して撮影を行うことによって、逆光で撮影したときと同様に、利用者の輪郭が柔らかい雰囲気で写っている画像を撮影することが可能になる。
By making the color behind the imaging space A1 bright overall, it is possible to reflect the light from the strobe provided in the
図24は、背景部22の撮影空間A1側の構成例を示す図である。
FIG. 24 is a diagram illustrating a configuration example of the
上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。
As described above, the
背面パネル51の上方であって、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ102が取り付けられる。また、背面パネル51の上方であって、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ103が取り付けられる。
A rear
図25は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。 FIG. 25 is a diagram illustrating a configuration example of the front side of the editing unit 12 (the editing space A2-1 side).
斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。
The tablet built-in
編集部12の左側には事後接客部13が設けられる。
On the left side of the
図26は、事後接客部13の正面側の構成例を示す図である。
FIG. 26 is a diagram illustrating a configuration example of the front side of the
事後接客部13の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ161には、ミニゲームなどの事後接客処理に用いられる画面が表示される。
A
タブレット内蔵モニタ161の下には非接触型ICリーダ/ライタ163が設けられ、非接触型ICリーダ/ライタ163の下にはシール紙排出口164が設けられる。シール紙排出口164の下にはスピーカ165が設けられる。
A non-contact type IC reader /
非接触型ICリーダ/ライタ163は、近接された非接触型ICと通信を行い、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。
The non-contact type IC reader /
シール紙排出口164には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。
In the sticker
スピーカ165は、事後接客処理の案内音声、BGM、効果音等の音を出力する。
The
[写真シール機の内部構成]
次に、写真シール機1の内部構成について説明する。図27は、写真シール機1の内部の構成例を示すブロック図である。上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
[Internal configuration of photo sticker]
Next, the internal configuration of the
制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール機1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、撮影部208、編集部209、事後接客部210、および印刷部211の各構成も接続される。
The
制御部201においては、所定のプログラムが実行されることによって、図1の構成を有する画像処理部1001が実現される。カメラ91により撮影が行われることによって得られた撮影画像が画像処理部1001の撮影画像取得部1011により取得され、記憶部202に記憶されている背景画像や影色背景画像が背景画像取得部1014により取得される。
In the
画像処理部1001の合成部1013により生成された合成画像は、合成部1013からタッチパネルモニタ93やタブレット内蔵モニタ131に供給され、表示される。利用者は、自分の影が写り込んでいる合成画像を見ることができる。
The composite image generated by the combining
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203はインターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。
A
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
A
ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
撮影部208は、撮影空間A1における撮影処理を行う構成である硬貨処理部221、背景制御部222、照明制御部223、カメラ91、タッチパネルモニタ93、およびスピーカ224から構成される。
The
硬貨処理部221は、硬貨投入返却口87に対する硬貨の投入を検出する。硬貨処理部221は、300円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。
The
背景制御部222は、制御部201より供給される背景制御信号に従って背景カーテンユニット25に収納されている背景カーテンの上げ下ろしを行う。背景カーテンの選択が利用者により手動で行われるようにしてもよい。
The
照明制御部223は、制御部201より供給される照明制御信号に従って、撮影空間A1内の各ストロボの発光を制御する。
The
カメラ91は、制御部201による制御に従って撮影を行い、撮影によって得られた画像を制御部201に出力する。
The
編集部209Aは、編集空間A2−1における編集処理を行う構成として編集部12の正面側に設けられるタブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ231から構成される。編集部209Bも編集部209Aと同一の構成を有しており、編集空間A2−2における編集処理を行う。
The
タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。
The tablet built-in
事後接客部210は、事後接客空間A3における事後接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、非接触型ICリーダ/ライタ163、およびスピーカ165から構成される。
The subsequent
印刷部211は、印刷処理を行う構成であるプリンタ241、およびシール紙ユニット242から構成される。プリンタ241は、撮影画像、または編集処理によって得られた編集済みの画像を、プリンタ241に装着されたシール紙ユニット242に収納されているシール紙に印刷し、シール紙排出口164に排出する。一点鎖線で囲んで示す事後接客部210と印刷部211が、事後接客空間A3にいる利用者を相手とした処理を行う構成となる。
The
[写真シール機の動作]
ここで、図28のフローチャートを参照して、写真シール作成ゲームを提供する写真シール機1の処理について説明する。
[Operation of photo sticker]
Here, with reference to the flowchart of FIG. 28, the process of the
ステップS1において、写真シール機1の制御部201は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。
In step S1, the
硬貨が投入されたとステップS1において判定した場合、ステップS2において、制御部201は、撮影部208を制御し、本撮影処理を行う。本撮影処理により、撮影空間A1にいる利用者を被写体として撮影が行われる。本撮影処理については図29のフローチャートを参照して後述する。
If it is determined in step S1 that a coin has been inserted, in step S2, the
ステップS3において、制御部201は被写体の画像処理を行う。被写体の画像処理により、本撮影処理によって得られた撮影画像の明るさの調整などの各種の処理が行われる。被写体の画像処理については図32のフローチャートを参照して後述する。
In step S3, the
ステップS4において、制御部201は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。
In step S4, the
ステップS5において、制御部201は、撮影画像の画像処理を行う。撮影画像の画像処理は、編集対象画像として選択された撮影画像に合成する画像を利用者に選択させ、選択された画像を撮影画像に合成したりする処理である。撮影画像の画像処理については図35のフローチャートを参照して後述する。
In step S5, the
ステップS6において、制御部201は、編集部209Aまたは編集部209Bを制御し、編集処理を行う。制御部201は、編集画面をタブレット内蔵モニタ131に表示させ、利用者による編集操作に従って、編集対象として選択された撮影画像の編集を行う。編集が終了したとき、制御部201は、印刷する画像の選択画面をタブレット内蔵モニタ131に表示させ、印刷する画像を利用者に選択させる。印刷する画像の選択画面には、撮影画像や編集済みの画像が表示され、その中から所定の枚数の画像が選択される。
In step S6, the
ステップS7において、制御部201は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して事後接客空間A3への移動を案内する。事後接客空間A3への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。
In step S7, the
ステップS8において、制御部201は、事後接客部210を制御し、事後接客処理を行う。例えば、撮影画像や編集済みの画像を携帯端末に送信する処理を事後接客処理として行う場合、制御部201は、携帯端末の電子メールアドレスの入力画面や、送信する画像の選択画面をタブレット内蔵モニタ161に表示させ、利用者による操作に応じて画像を送信する。また、ミニゲームを利用者に行わせる処理を事後接客処理として行う場合、制御部201は、ミニゲームの画面をタブレット内蔵モニタ161に表示させる。アンケートに答えさせる処理を事後接客処理として行う場合、制御部201は、アンケート画面をタブレット内蔵モニタ161に表示させ、利用者による回答を取得する。
In step S <b> 8, the
ステップS8において事後接客処理を行うことと並行して、ステップS9において、制御部201は印刷処理を行う。制御部201は、利用者により選択された画像をプリンタ241に出力してシール紙に印刷させる。
In parallel with the post-service processing in step S8, the
印刷が終了したとき、ステップS10において、プリンタ241は、画像が印刷されたシール紙をシール紙排出口164に排出し、処理を終了させる。
When the printing is finished, in step S10, the printer 241 discharges the sticker paper on which the image is printed to the sticker
次に、図29のフローチャートを参照して、図28のステップS2において行われる本撮影処理について説明する。 Next, the main photographing process performed in step S2 of FIG. 28 will be described with reference to the flowchart of FIG.
ステップS21において、制御部201は、写り選択画面をタッチパネルモニタ93に表示させ、利用者による写り選択を受け付ける。写り選択は、色合いやシャープネス等の、撮影画像の画質の選択である。制御部201は、利用者により選択された写りに応じて、カメラ91により撮影された画像の画質を調整する。
In step S <b> 21, the
ステップS22において、制御部201は、撮影方法の案内画面をタッチパネルモニタ93に表示させる。撮影方法の案内画面を表示した後、制御部201は、カメラ91を制御し、画像の取り込みを開始させる。
In step S <b> 22, the
ステップS23において、制御部201は、カメラ91により取り込まれた動画像をタッチパネルモニタ93に表示させる(ライブビュー表示を行う)。
In step S23, the
図30は、ライブビュー表示の例を示す図である。ライブビュー表示の画面のほぼ中央にはカメラ91により取り込まれた動画像である画像501が表示され、その周りには、ポーズの取り方を案内するメッセージなどが表示されている。
FIG. 30 is a diagram illustrating an example of live view display. An
ライブビュー表示の画面に表示される画像501は、例えば1段目の合成処理を行うことによって得られた合成画像である。制御部201の画像処理部1001は、カメラ91により取り込まれた動画像を構成する各画像を撮影画像として1段目の合成処理を行うことになる。1段目の合成処理を行うことによって生成された例えば図8の合成画像A、図9の合成画像Cなどの合成画像が、タッチパネルモニタ93に供給され、画像501として表示される。
An
2段目の合成処理を行うことによって得られた合成画像がライブビュー表示の画面に表示されるようにしてもよい。合成処理に用いられる背景画像は、利用者により選択されるようにしてもよいし、写真シール機1により自動的に選択されるようにしてもよい。
A synthesized image obtained by performing the second-stage synthesis process may be displayed on a live view display screen. The background image used for the composition process may be selected by the user or may be automatically selected by the
ステップS24において、制御部201は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S <b> 24, the
撮影タイミングになったとき、ステップS25において、制御部201は、カメラ91を制御して撮影を行い、静止画像である撮影画像を取得する。
When the shooting timing comes, in step S25, the
ステップS26において、制御部201は、撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。
In step S <b> 26, the
図31は、撮影結果の確認画面の例を示す図である。撮影結果の確認画面のほぼ中央には撮影画像である画像511が表示され、その周りには、撮影結果であることを案内するメッセージなどが表示されている。
FIG. 31 is a diagram illustrating an example of a shooting result confirmation screen. An
撮影結果の確認画面に表示される画像511は、例えば2段目の合成処理を行うことによって得られた合成画像である。制御部201の画像処理部1001は、撮影タイミングに合わせてカメラ91により取り込まれた撮影画像を対象として2段階合成処理を行うことになる。2段階合成処理を行うことによって最終的に生成された例えば図8の合成画像B、図9の合成画像Dなどの合成画像が、タッチパネルモニタ93に供給され、画像511として表示される。
An
ステップS27において、制御部201は、撮影を所定回数繰り返し行ったか否かを判定する。制御部201は、撮影を所定回数行っていないとステップS27において判定した場合、ステップS23に戻り、以上の処理を繰り返し行う。
In step S27, the
一方、撮影を6回などの所定の回数繰り返し行ったとステップS27において判定した場合、ステップS28において、制御部201は、撮影可能時間内であるか否かを判定する。例えば、本撮影処理を開始してからの時間が、本撮影処理に割り当てられた時間を経過していない場合、撮影可能時間内であるとして判定される。
On the other hand, when it is determined in step S27 that the shooting has been repeated a predetermined number of times such as 6 times, in step S28, the
撮影可能時間内であるとステップS28において判定した場合、ステップS29において、制御部201は、ボーナス撮影の案内画面をタッチパネルモニタ93に表示させる。ボーナス撮影は、ステップS25において行われる通常の撮影と異なる形で行われる撮影であり、例えば、カメラ91により取り込まれた動画像に対して合成用の画像がリアルタイムで合成され、その合成結果の画像がライブビュー表示される。
If it is determined in step S28 that the time is within the shootable time, the
ステップS30において、制御部201は、動画像に合成する合成用の画像である撮影用合成用画像を例えば記憶部202から読み出す。撮影用合成用画像が予め決められているのではなく、複数種類の画像の中から撮影用合成用画像を利用者に選択させるようにしてもよい。
In step S <b> 30, the
ステップS31において、制御部201は、カメラ91により取り込まれた動画像の各画像に撮影用合成用画像を合成し、合成結果をタッチパネルモニタ93に表示させてライブビュー表示を行う。図30を参照して説明した場合と同様に、ボーナス撮影時のライブビュー表示の画面に、1段目の合成処理によって得られた合成画像、または2段目の合成処理によって得られた合成画像が表示されるようにしてもよい。
In step S <b> 31, the
ステップS32において、制御部201はボーナス撮影を行う。すなわち、制御部201は、タッチパネルモニタ93にカウントダウンインジケータを表示し、撮影タイミングを利用者に通知する。
In step S32, the
撮影タイミングになったとき、ステップS33において、制御部201は、カメラ91を制御して撮影を行い、撮影画像を取得する。
When it is time to shoot, in step S33, the
ステップS34において、制御部201は、ボーナス撮影によって得られた撮影画像をタッチパネルモニタ93に表示し、撮影結果を利用者に確認させる。図31を参照して説明した場合と同様に、ボーナス撮影時の撮影結果の確認画面に、2段階合成処理によって得られた合成画像が表示されるようにしてもよい。
In step S34, the
ボーナス撮影の結果の確認が行われた後、またはステップS28において撮影可能時間内ではないと判定された場合、図28のステップS2に戻り、それ以降の処理が行われる。 After confirming the result of the bonus shooting, or when it is determined in step S28 that the time is not within the shooting possible time, the process returns to step S2 in FIG. 28 and the subsequent processing is performed.
次に、図32のフローチャートを参照して、図28のステップS3において行われる被写体の画像処理について説明する。 Next, the subject image processing performed in step S3 of FIG. 28 will be described with reference to the flowchart of FIG.
ステップS41において、制御部201は、撮影画像に写る利用者の目のサイズの選択に用いられる目サイズ選択画面をタッチパネルモニタ93に表示させ、利用者による選択を受け付ける。例えば、制御部201は、本撮影処理によって得られた複数の撮影画像(利用者が被写体として写っている画像)の中から所定の撮影画像を選択し、選択した撮影画像に写る利用者の目を検出する。制御部201は、検出した目のサイズを変えることによって、写っている目のサイズが異なる複数の画像を生成し、目サイズ選択画面に表示させる。利用者は、自分が実際に写っている画像を見て目のサイズを選択することができる。
In step S41, the
図33は、利用者自身が写されている撮影画像を使用して、被写体(利用者)の目のサイズを選択するのに用いられる目サイズ選択画面の例を示す図である。 FIG. 33 is a diagram illustrating an example of an eye size selection screen used to select the eye size of a subject (user) using a captured image in which the user himself is photographed.
目サイズ選択画面には、本撮影処理によって得られた撮影画像521が表示される。例えば図29を参照して説明したように撮影を6回繰り返し行ったときには6枚の撮影画像が得られており、目サイズ選択画面には、6枚の撮影画像である撮影画像521−1乃至521−6が、画面の中央から左側の位置に表示される。 A captured image 521 obtained by the actual photographing process is displayed on the eye size selection screen. For example, as described with reference to FIG. 29, when the shooting is repeated six times, six shot images are obtained, and in the eye size selection screen, the shot images 521-1 to 6 that are six shot images are displayed. 521-6 is displayed at a position on the left side from the center of the screen.
撮影画像521−1乃至521−6は、例えば2段階合成処理によって最終的に得られた合成画像である。 The captured images 521-1 to 521-6 are synthesized images that are finally obtained by, for example, two-stage synthesis processing.
撮影画像521−1乃至521−6の上方には、利用者自身が写されている撮影画像521−1乃至521−6により目のサイズの確認ができることを示す「目の大きさを自分の顔で確認してね」の文字が表示されている。 Above the captured images 521-1 to 521-6, it is shown that the size of the eyes can be confirmed by the captured images 521-1 to 521-6 in which the user himself is photographed. Please check with "is displayed.
目サイズ選択画面の右側には、目サイズ選択ボタン522−1乃至522−3が上から順に表示される。目サイズ選択ボタン522−1には、「ナチュラルeye」という文字と、目のサイズが自然な大きさのモデルの目の画像とが表示されている。目サイズ選択ボタン522−2には、「パッチリeye」という文字と、目のサイズが若干大きな(例えば、自然な大きさよりも1割程度大きな)モデルの目の画像とが表示されている。また、目サイズ選択ボタン522−2には、この大きさの目サイズを選択することが推奨されることを示唆する「おすすめ」の文字がハート形の図形とともに表示されている。 On the right side of the eye size selection screen, eye size selection buttons 522-1 to 522-3 are displayed in order from the top. On the eye size selection button 522-1, characters "natural eye" and an image of a model eye with a natural eye size are displayed. In the eye size selection button 522-2, characters "Patch Lee" and an image of a model eye having a slightly larger eye size (for example, about 10% larger than the natural size) are displayed. In addition, on the eye size selection button 522-2, a “recommended” character indicating that it is recommended to select an eye size of this size is displayed together with a heart-shaped figure.
目サイズ選択ボタン522−3には、「ボリュームeye」という文字と、目のサイズが比較的大きな(例えば、自然な大きさよりも2割程度大きな)モデルの目の画像とが表示されている。また、目サイズ選択ボタン522−1乃至522−3の右方には、上から下に向かう矢印が表示されるとともに、その矢印の上方に「natural」という文字が表示され、その矢印の下方に「big」という文字が表示されている。つまり、目サイズ選択ボタン522−1、目サイズ選択ボタン522−2、および目サイズ選択ボタン522−3の順に下に向かうにしたがって、目サイズが大きくなることを示している。 On the eye size selection button 522-3, characters “volume eye” and an image of a model eye having a relatively large eye size (for example, about 20% larger than the natural size) are displayed. In addition, an arrow from the top to the bottom is displayed on the right side of the eye size selection buttons 522-1 to 522-3, and the word “natural” is displayed above the arrow, and below the arrows. The word “big” is displayed. That is, the eye size increases as the eye size selection button 522-1, the eye size selection button 522-2, and the eye size selection button 522-3 move downward.
また、目サイズ選択画面の右下には、目のサイズの選択を決定するときに操作される決定ボタン523が表示されており、決定ボタン523には、「決定」という文字が表示されている。なお、目サイズ選択画面の上辺には、目のサイズの選択に用いられる画面であることを示す「目の大きさを選んでね!」という文字が表示される。また、目サイズ選択画面の右上側の「Time」と表示されている箇所には、目のサイズの選択を行うことができる制限時間がカウントダウン方式で表示される。
In addition, a
このような目サイズ選択画面がタッチパネルモニタ93に表示され、利用者が、目サイズ選択ボタン522−1乃至522−3のいずれかを選択すると、制御部201は、利用者による選択を受け付ける。そして、制御部201は、利用者により選択されたサイズの目が写されている画像になるように、撮影画像521−1乃至521−6の被写体の目のサイズを一括して変更する。
When such an eye size selection screen is displayed on the touch panel monitor 93 and the user selects any of the eye size selection buttons 522-1 to 522-3, the
例えば、利用者が、目サイズ選択ボタン522−1を選択すると、制御部201は、画像から被写体の目を検出して、撮影画像521−1乃至521−6の被写体の目のサイズが自然な大きさとなるように変更する画像処理を施す。そして、制御部201は、その変更が反映された撮影画像521−1乃至521−6で目サイズ選択画面の表示を更新する。このとき、制御部201は、本撮影処理によって得られた全ての撮影画像521に対して、それぞれの撮影画像521に複数の被写体が写されていれば、その全ての被写体の目サイズを変更する画像処理を一括で施す画像処理を行う。
For example, when the user selects the eye size selection button 522-1, the
同様に、利用者が、目サイズ選択ボタン522−2を選択すると、制御部201は、撮影画像521−1乃至521−6の被写体の目のサイズが若干大きくなるように変更し、その変更が反映された撮影画像521−1乃至521−6を表示する。また、利用者が、目サイズ選択ボタン522−3を選択すると、制御部201は、撮影画像521−1乃至521−6に写る利用者の目のサイズが比較的大きくなるように変更し、その変更が反映された撮影画像521−1乃至521−6を表示する。
Similarly, when the user selects the eye size selection button 522-2, the
そして、利用者が、目のサイズの選択を行った後に決定ボタン523を選択すると、その時点で撮影画像521−1乃至521−6に反映されていた大きさで、被写体の目のサイズの選択が決定される。
When the user selects the
このように、写真シール機1では、目のサイズが選択されると、制御部201は、撮影画像521−1乃至521−6の被写体の目のサイズを変更する画像処理を行って、その変更が反映された撮影画像521−1乃至521−6を表示する。従って、利用者は、目のサイズの変更が反映された利用者自身が表示される撮影画像521−1乃至521−6を確認しながら、最適な目のサイズを選択することができる。これにより、写真シール機1では、所望の目サイズとなるように画像処理が施された利用者が写る撮影画像521−1乃至521−6を提供することができる。
As described above, in the
なお、図33では、予め用意されたモデルの目の画像が目サイズ選択ボタン522−1乃至522−3に表示されているが、例えば、撮影画像521−1乃至521−6に写されているいずれかの被写体(利用者自身)の目を使用してもよい。即ち、撮影画像521−1乃至521−6から、被写体の目を含む所定範囲を切り出して、その切り出した画像の目の大きさを適宜変更して目サイズ選択ボタン522−1乃至522−3に表示することができる。また、目のサイズの変更には、例えば、目の大きさ自体を変更する他、黒目の大きさを変更したり、まつ毛のボリュームを変更したりすることが含まれる。 In FIG. 33, images of the eyes of a model prepared in advance are displayed on the eye size selection buttons 522-1 to 522-3. For example, the images are captured in the captured images 521-1 to 521-6. Any subject's (user's own) eyes may be used. That is, a predetermined range including the subject's eyes is cut out from the photographed images 521-1 to 521-6, and the eye size of the cut-out image is appropriately changed to the eye size selection buttons 522-1 to 522-3. Can be displayed. The change in the eye size includes, for example, changing the size of the eye itself, changing the size of the black eye, and changing the volume of the eyelashes.
図32の説明に戻り、ステップS42において、制御部201は、利用者による操作に応じて目のサイズを選択する。
Returning to the description of FIG. 32, in step S <b> 42, the
ステップS43において、制御部201は、利用者により選択されたサイズの目が写っている画像になるように、全ての撮影画像に写る利用者の目のサイズを一括して変更する。
In step S <b> 43, the
ステップS44において、制御部201は、目のサイズを変更した撮影画像をタッチパネルモニタ93に表示し、目のサイズの変更結果を利用者に確認させる。
In step S44, the
ステップS45において、制御部201は、決定ボタン523が押されたか否かをタッチパネルモニタ93から供給された情報に基づいて判定し、押されていないと判定した場合、ステップS42に戻り、以上の処理を繰り返す。
In step S45, the
一方、決定ボタンが押されたとステップS45において判定した場合、ステップS46において、制御部201は、目のサイズを決定し、決定した目のサイズを表す情報を記憶部202などに記憶させて保存する。被写体の画像処理の終了後にタブレット内蔵モニタ131に表示される編集対象画像の選択画面や編集画面には、利用者により選択されたサイズで利用者の目が写っている撮影画像が表示される。
On the other hand, if it is determined in step S45 that the enter button has been pressed, in step S46, the
ステップS47において、制御部201は、撮影画像の明るさの選択に用いられる明るさ選択画面をタッチパネルモニタ93に表示させ、利用者による選択を受け付ける。例えば、制御部201は、本撮影処理によって得られた複数の撮影画像の中から所定の撮影画像を選択し、選択した撮影画像の明るさを変えることによって明るさの異なる複数の画像を生成する。制御部201は、生成した複数の画像を明るさ選択画面に表示させ、画像の明るさを利用者に選択させる。利用者は、自分が実際に写っている画像を見て画像の明るさを選択することができる。
In step S <b> 47, the
図34は、利用者自身が写されている撮影画像を使用して、被写体の明るさを選択するのに用いられる明るさ選択画面の例を示す図である。 FIG. 34 is a diagram illustrating an example of a brightness selection screen used to select the brightness of a subject using a captured image in which the user himself is photographed.
明るさ選択画面には、本撮影処理によって得られた撮影画像531が表示される。例えば図29を参照して説明したように撮影を6回繰り返し行ったときには6枚の撮影画像が得られており、明るさ選択画面には、6枚の撮影画像である撮影画像531−1乃至531−6が、画面の中央から左側の位置に表示される。 A captured image 531 obtained by the actual photographing process is displayed on the brightness selection screen. For example, as described with reference to FIG. 29, when the shooting is repeated six times, six shot images are obtained, and the brightness selection screen displays the shot images 531-1 to 531-1 which are six shot images. 531-6 is displayed on the left side from the center of the screen.
撮影画像531−1乃至531−6は、例えば2段階合成処理によって最終的に得られた合成画像である。 The captured images 531-1 to 531-6 are synthesized images finally obtained by, for example, two-stage synthesis processing.
また、撮影画像531−1乃至531−6の上方には、利用者自身が写されている撮影画像531−1乃至531−6により被写体の明るさの確認ができることを示す「明るさを自分の顔で確認してね」の文字が表示されている。 In addition, above the captured images 531-1 to 531-6, “the brightness is adjusted to the user's own brightness” indicating that the brightness of the subject can be confirmed by the captured images 531-1 to 531-6 in which the user himself is photographed. Please check with your face "is displayed.
明るさ選択画面の右側には、明るさ選択ボタン532−1乃至532−5が上から順に表示される。明るさ選択ボタン532−1乃至532−5には、「1」から「5」までの数値がそれぞれ表示されているとともに、明るさの異なるモデルがそれぞれ表示されている。明るさ選択ボタン532−1乃至532−5の「1」から「5」までの数値は、明るさの程度を示しており、数値が大きくなるほど被写体が暗い色合いとなる。 On the right side of the brightness selection screen, brightness selection buttons 532-1 to 532-5 are displayed in order from the top. On the brightness selection buttons 532-1 to 532-5, numerical values from “1” to “5” are respectively displayed, and models having different brightness are respectively displayed. The numerical values from “1” to “5” of the brightness selection buttons 532-1 to 532-5 indicate the degree of brightness. The larger the numerical value, the darker the subject becomes.
また、明るさ選択ボタン532−3には、標準の(自然な)明るさのモデルの画像が表示されている。そして、明るさ選択ボタン532−2には、若干明るい色合いの(例えば、自然な明るさよりも1割程度明るさを増加した)モデルの画像が表示され、明るさ選択ボタン532−1には、比較的明るい色合いの(例えば、自然な明るさよりも2割程度明るさを増加した)モデルの画像が表示される。一方、明るさ選択ボタン532−4には、若干暗い色合いの(例えば、自然な明るさよりも1割程度明るさを低減した)モデルの画像が表示され、明るさ選択ボタン532−5のモデルは、比較的暗い色合いの(例えば、自然な明るさよりも2割程度明るさを低減した)モデルの画像が表示される。 The brightness selection button 532-3 displays a standard (natural) brightness model image. The brightness selection button 532-2 displays an image of a model with a slightly brighter hue (for example, the brightness is increased by about 10% from the natural brightness), and the brightness selection button 532-1 has a brightness selection button 532-1. An image of a model having a relatively bright hue (for example, the brightness is increased by about 20% from the natural brightness) is displayed. On the other hand, the brightness selection button 532-4 displays an image of a model with a slightly darker hue (for example, the brightness is reduced by about 10% from the natural brightness), and the model of the brightness selection button 532-5 is An image of a model having a relatively dark hue (for example, the brightness is reduced by about 20% from the natural brightness) is displayed.
また、明るさ選択ボタン532−1乃至532−5の右方には、上から下に向かって順に、「美白」、「おすすめ」、および「美黒」という文字が表示されている。つまり、明るさ選択ボタン532−1乃至532−5の並びにおいて、上側が被写体を明るくし、下側が被写体を暗くすることを示している。 In addition, on the right side of the brightness selection buttons 532-1 to 532-5, characters “whitening”, “recommended”, and “beautiful black” are displayed in order from the top to the bottom. That is, in the arrangement of the brightness selection buttons 532-1 to 532-5, the upper side brightens the subject, and the lower side darkens the subject.
また、明るさ選択画面の右下側には、被写体の明るさを決定するときに操作される決定ボタン533が表示されており、決定ボタン533には、「決定」という文字が表示されている。なお、明るさ選択画面の上辺には、被写体の明るさの選択に用いられる画面であることを示唆する「好きな明るさを選んでね!」という文字が表示される。また、明るさ選択画面の右上側の「Time」と表示されている箇所には、被写体の明るさの選択を行うことができる制限時間がカウントダウン方式で表示される。
In addition, a
このような明るさ選択画面がタッチパネルモニタ93に表示され、利用者が、明るさ選択ボタン532−1乃至532−5のいずれかを選択すると、制御部201は、利用者による選択を受け付ける。そして、制御部201は、利用者により選択された明るさで被写体が写されている画像になるように、撮影画像531−1乃至531−6の被写体の明るさを一括して変更する画像処理を行う。
When such a brightness selection screen is displayed on the touch panel monitor 93 and the user selects any of the brightness selection buttons 532-1 to 532-5, the
例えば、利用者が、明るさ選択ボタン532−3を選択すると、制御部201は、画像から被写体を検出して、撮影画像531−1乃至531−6の被写体の明るさが自然な明るさとなるように変更する画像処理を施す。そして、制御部201は、その変更が反映された撮影画像531−1乃至531−6で明るさ選択画面の表示を更新する。このとき、制御部201は、本撮影処理によって得られた全ての撮影画像531に対して、それぞれの撮影画像531に複数の被写体が写されていれば、その全ての被写体の明るさを変更する画像処理を一括で施す。
For example, when the user selects the brightness selection button 532-3, the
同様に、利用者が、明るさ選択ボタン532−2を選択すると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさが若干明るくなるように変更し、その変更が反映された撮影画像531−1乃至531−6を表示する。また、利用者が、明るさ選択ボタン532−1を選択すると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさが比較的明るくなるように変更し、その変更が反映された撮影画像531−1乃至531−6を表示する。一方、利用者が、明るさ選択ボタン532−4を選択すると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさが若干暗くなるように変更し、その変更が反映された撮影画像531−1乃至531−6を表示する。また、利用者が、明るさ選択ボタン532−5を選択すると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさが比較的暗くなるように変更し、その変更が反映された撮影画像531−1乃至531−6を表示する。
Similarly, when the user selects the brightness selection button 532-2, the
そして、利用者が、被写体の明るさの選択を行った後に決定ボタン533を選択すると、その時点で撮影画像531−1乃至531−6に反映されていた明るさで、被写体の明るさの選択が決定される。
When the user selects the
このように、写真シール機1では、被写体の明るさが選択されると、制御部201は、撮影画像531−1乃至531−6の被写体の明るさを変更する画像処理を行って、その変更が反映された撮影画像531−1乃至531−6を表示する。従って、利用者は、明るさの変更が反映された利用者自身が表示される撮影画像531−1乃至531−6を確認しながら、最適な被写体の明るさを選択することができる。これにより、写真シール機1では、所望の明るさとなるように画像処理が施された利用者が写る撮影画像531−1乃至531−6を提供することができる。
As described above, in the
なお、図34では、予め用意されたモデルの顔の画像が明るさ選択ボタン532−1乃至532−5に表示されているが、例えば、撮影画像531−1乃至531−6に写されているいずれかの被写体(利用者自身)の顔を使用してもよい。即ち、撮影画像531−1乃至531−6から、被写体の顔を含む所定範囲を切り出して、その切り出した画像の被写体の明るさを適宜変更して明るさ選択ボタン532−1乃至532−5に表示することができる。 In FIG. 34, images of model faces prepared in advance are displayed on the brightness selection buttons 532-1 to 532-5, but are shown as captured images 531-1 to 531-6, for example. Any subject (user's own) face may be used. That is, a predetermined range including the face of the subject is cut out from the captured images 531-1 to 531-6, and the brightness of the subject of the cut-out image is changed as appropriate to change the brightness selection buttons 532-1 to 532-5. Can be displayed.
また、被写体の明るさを選択する処理が、上述したような被写体の目のサイズを選択する処理の後に行われる場合、撮影画像531−1乃至531−6には、目のサイズの変更が反映された被写体が表示される。 When the process of selecting the brightness of the subject is performed after the process of selecting the eye size of the subject as described above, the captured image 531-1 to 531-6 reflects the change of the eye size. The selected subject is displayed.
図32の説明に戻り、ステップS48において、制御部201は、利用者による操作に応じて明るさを選択する。
Returning to the description of FIG. 32, in step S <b> 48, the
ステップS49において、制御部201は、利用者により選択された明るさの画像になるように、全ての撮影画像の明るさを一括して変更する。
In step S49, the
ステップS50において、制御部201は、明るさを変更した撮影画像をタッチパネルモニタ93に表示し、明るさの変更結果を利用者に確認させる。
In step S50, the
ステップS51において、制御部201は、決定ボタン533が押されたか否かをタッチパネルモニタ93から供給された情報に基づいて判定し、押されていないと判定した場合、ステップS48に戻り、以上の処理を繰り返す。
In step S51, the
一方、決定ボタンが押されたとステップS51において判定した場合、ステップS52において、制御部201は、画像の明るさを決定し、決定した明るさを表す情報を記憶部202などに記憶させて保存する。被写体の画像処理の終了後にタッチパネルモニタ93に表示される編集対象の画像の選択画面やタブレット内蔵モニタ131に表示される編集画面には、利用者により選択された明るさの撮影画像が表示される。
On the other hand, if it is determined in step S51 that the enter button has been pressed, in step S52, the
このように、被写体の画像処理は、撮影画像に写る利用者の目のサイズと撮影画像の明るさを選択する処理である。その後、図28のステップS3に戻り、それ以降の処理が行われる。 As described above, the subject image processing is processing for selecting the size of the user's eyes appearing in the captured image and the brightness of the captured image. Thereafter, the process returns to step S3 in FIG. 28, and the subsequent processing is performed.
次に、図35のフローチャートを参照して、図28のステップS5において行われる撮影画像の画像処理について説明する。撮影画像の画像処理は、編集空間A2−1、または編集空間A2−2にいる利用者を対象として行われる処理である。 Next, image processing of the captured image performed in step S5 of FIG. 28 will be described with reference to the flowchart of FIG. The image processing of the captured image is processing performed for the user in the editing space A2-1 or the editing space A2-2.
ステップS61において、制御部201は、編集対象画像の選択画面をタブレット内蔵モニタ131に表示させ、利用者による選択を受け付ける。
In step S61, the
図36は、利用者自身が写されている撮影画像を使用して、編集対象の画像を選択するのに用いられる選択画面の例を示す図である。 FIG. 36 is a diagram illustrating an example of a selection screen used to select an image to be edited using a captured image in which the user himself is photographed.
編集対象画像の選択画面には、本撮影処理によって得られた撮影画像541が表示される。例えば図29を参照して説明したように撮影を6回繰り返し行ったときには6枚の撮影画像が得られており、編集対象画像の選択画面には、6枚の撮影画像である撮影画像541−1乃至541−6が、画面の中央から左側の位置に表示される。 On the selection screen for the image to be edited, a captured image 541 obtained by the actual photographing process is displayed. For example, as described with reference to FIG. 29, when the shooting is repeated six times, six shot images are obtained, and the shot image 541 that is the six shot images is displayed on the selection screen of the editing target image. 1 to 541-6 are displayed at positions on the left side from the center of the screen.
撮影画像541−1乃至541−6は、例えば2段階合成処理によって最終的に得られた合成画像である。 The captured images 541-1 to 541-6 are combined images finally obtained by, for example, two-step combining processing.
撮影画像541−1乃至541−6の上方には、利用者自身が写されている撮影画像541−1乃至541−6の中から編集対象の画像を選択できることを示す「落書きする画像を選んでね」の文字が表示されている。 Above the captured images 541-1 to 541-6, “Select a graffiti image is selected” indicating that an image to be edited can be selected from the captured images 541-1 to 541-6 in which the user himself is captured. "Ne" is displayed.
編集対象画像の選択画面の右側には、撮影画像541−1乃至541−6の全ての撮影画像を編集対象画像として選択するときに操作される全部選択ボタン542と、撮影画像541−1乃至541−6のうちの所定の撮影画像を編集対象画像として選択するときに操作される決定ボタン543とが表示される。全部選択ボタン542を押したとき、撮影画像541−1乃至541−6の全ての撮影画像が編集対象画像として保存され、撮影画像541−1乃至541−6のうちの所定の撮影画像を選択した状態で決定ボタン543を押したとき、選択している撮影画像が編集対象画像として保存される。
On the right side of the selection screen of the editing target image, an all
図35の説明に戻り、ステップS62において、制御部201は、編集対象画像として図36の選択画面から選択された撮影画像を記憶部202に記憶させて保存する。
Returning to the description of FIG. 35, in step S62, the
ステップS63において、制御部201は、撮影用合成用画像の選択画面をタブレット内蔵モニタ131に表示させる。
In step S <b> 63, the
図37は、撮影画像に写されている被写体の背景に用いる撮影用合成用画像を選択するのに用いられる撮影用合成用画像の選択画面の例を示す図である。 FIG. 37 is a diagram showing an example of a selection screen for selecting a composite image for shooting used to select a composite image for shooting used for the background of the subject captured in the captured image.
上述したように、2段階合成処理を行うことによって得られた合成画像は、本撮影処理時や被写体の画像処理時、または編集対象画像の選択時に表示される。撮影用合成用画像を選択時にも複数の背景画像に合成するようにして2段階合成処理が行われ、図37の選択画面が表示される。 As described above, the composite image obtained by performing the two-stage composition process is displayed during the main photographing process, the subject image process, or the selection of the image to be edited. A two-step composition process is performed so as to compose a plurality of background images at the time of selecting a composite image for shooting, and the selection screen shown in FIG. 37 is displayed.
撮影用合成用画像の選択画面には、撮影用合成用画像の分類ボタンの表示領域である表示領域551、合成画像の表示領域である表示領域552、および、撮影画像と選択済みの合成画像の表示領域である表示領域553が設けられる。
On the selection screen for the composite image for shooting, a
表示領域551には、ノーマルボタン554、柄ボタン555、およびセットボタン556が表示される。図37の例では、黒色で反転表示されているノーマルボタン554が選択されている。
In the
ノーマルボタン554および柄ボタン555は、予め用意された複数の撮影用合成用画像の中から、利用者が、所望の撮影用合成用画像を選択するときに操作される。ノーマルボタン554を選択することにより、各種の色からなる撮影用合成用画像の中から所望の撮影用合成用画像を選択することができる。また、柄ボタン555を選択することにより、各種の柄からなる撮影用合成用画像の中から所望の撮影用合成用画像を選択することができる。
The
セットボタン556は、複数の撮影用合成用画像のセットの中から、利用者が所望の撮影用合成用画像のセットを選択するときに操作される。撮影用合成用画像のセットは、例えば、各種の色および柄からなる複数種類の撮影用合成用画像の中から、撮影枚数(例えば、6枚)に従って、任意の種類の撮影用合成用画像が組み合わされて、予め用意されている。
The
表示領域552には複数の合成画像が表示される。合成画像は、2段階合成処理のうちの1段目の合成処理を行うことによって生成された合成結果の画像である。2段階合成処理によって最終的に得られた合成画像が表示領域552に表示されるようにしてもよい。
In the
表示領域553には、撮影画像と選択済みの合成画像が表示される。撮影画像と選択済みの合成画像は、2段階合成処理のうちの1段目の合成処理を行うことによって生成された合成結果の画像である。2段階合成処理によって最終的に得られた合成画像が表示領域553に表示されるようにしてもよい。
In the
表示領域551に表示されているボタンを操作することによって撮影用合成用画像が選択された場合、制御部201の画像処理部1001は、表示領域553において選択されている撮影画像を取得し、上述したようにしてマスク画像を生成する。画像処理部1001は、撮影画像に写る利用者の部分と影の部分をマスク画像を用いて抽出し、選択されたそれぞれの撮影用合成用画像に合成することによって複数の合成画像を生成し、表示領域552に並べて表示させる。
When a shooting composition image is selected by operating a button displayed in the
図37の例では、それぞれ異なる色の撮影用合成用画像を背景画像として用いて1段目の合成処理を行うことによって得られた27枚(3行×9列)の合成画像が表示領域552に示されている。
In the example of FIG. 37, 27 composite images (3 rows × 9 columns) obtained by performing the first-stage compositing process using the shooting compositing images of different colors as the background image are displayed in the
例えば、利用者が、合成画像の表示領域552に表示されている複数の合成画像の中から、任意の合成画像を選択すると、その合成画像に合成されている撮影用合成用画像が選択される。そして、利用者により選択された合成画像には、既に選択されたことを示唆する「済」のマークが表示される。また、直前に選択された合成画像には、利用者が選択したばかりであることを示唆する「SELECT」の文字が表示される。
For example, when the user selects an arbitrary composite image from a plurality of composite images displayed in the composite
表示領域553には、表示領域552から選択された合成画像である合成画像557と、6枚の撮影画像のうち、撮影用合成用画像がまだ選択されていない撮影画像である撮影画像558が表示される。図37の例では、表示領域553には、合成画像557−1乃至557−4と、撮影画像558−5,558−6が表示されている。また、合成画像557−1乃至557−4の下には、キャンセルボタン559−1乃至559−4がそれぞれ表示されている。
In the
例えば、撮影用合成用画像の選択画面が最初に表示されたときには、表示領域553には6枚の撮影画像558が表示される。なお、表示領域553では、本撮影処理によって撮影された順番で左側から順に撮影画像558が表示され、左端に表示された撮影画像558から順に合成画像の選択が行われる。表示領域553に表示される撮影画像558は、上述した被写体の画像処理により、被写体の目のサイズと明るさが変更された画像である。
For example, when the shooting composition image selection screen is first displayed, six captured images 558 are displayed in the
利用者が、1枚目の撮影画像558に対して、合成画像の表示領域552に表示されている複数の合成画像の中から、所望の合成画像を選択することにより、その合成画像に合成されている撮影用合成用画像が選択される。これに従って、1枚目の撮影画像558の表示が、利用者により選択された合成画像557−1に更新される。つまり、1枚目の撮影画像558に替えて、1枚目の撮影画像558の被写体の背景に、利用者により選択された撮影用合成用画像が合成された合成画像557−1が表示される。さらに、合成画像557−1の下方に、キャンセルボタン559−1が表示される。
When the user selects a desired composite image from a plurality of composite images displayed in the composite
以下、同様に、利用者が、2枚目の撮影画像558、3枚目の撮影画像558、および4枚目の撮影画像558に対して撮影用合成用画像を順番に選択すると、その選択に従って、合成画像557−2乃至557−4がそれぞれ表示される。さらに、合成画像557−2乃至557−4の下に、キャンセルボタン559−2乃至559−4がそれぞれ表示される。 In the same manner, when the user sequentially selects a photographic composite image for the second photographic image 558, the third photographic image 558, and the fourth photographic image 558, the user follows the selection. The composite images 557-2 to 557-4 are respectively displayed. Further, cancel buttons 559-2 to 559-4 are displayed below the composite images 557-2 to 557-4, respectively.
このように、図37には、4枚目の撮影画像558に対して撮影用合成用画像が選択された時点での撮影用合成用画像の選択画面が示されている。 In this way, FIG. 37 shows a selection screen for selecting a composite image for shooting when a composite image for shooting is selected for the fourth captured image 558.
従って、この撮影用合成用画像の選択画面では、撮影画像558−5に対する撮影用合成用画像の選択が行われる。そのことを示すため、撮影画像558−5を囲うように枠560が表示されるとともに、撮影画像および合成画像の表示領域553の上方に「5枚目の背景を選んでね!」という文字が表示される。
Accordingly, on the selection screen for the composite image for shooting, the composite image for shooting with respect to the captured image 558-5 is selected. In order to indicate this, a
また、撮影画像および合成画像の表示領域553の左方には、キャンセルボタン559により選択済みの撮影用合成用画像のキャンセルができることを示す「キャンセルボタンで選んだ背景をキャンセルできるよ」という文字が表示されている。即ち、キャンセルボタン559を操作することで、その上方に表示されている合成画像557に合成されている撮影用合成用画像の選択をキャンセルして、撮影用合成用画像を選び直すことができる。また、撮影用合成用画像の選択画面の右上側の「Time」と表示されている箇所には、撮影用合成用画像の選択を行うことができる制限時間がカウントダウン方式で表示される。
In addition, on the left side of the
合成画像の表示領域552の右側には、人を消すボタン561が表示されている。
On the right side of the composite
人を消すボタン561は、表示領域552に表示されている合成画像を、被写体が合成されていない状態に表示を変更する際に操作される。例えば、通常、表示領域552には、撮影画像の被写体と撮影用合成用画像とが合成された合成画像が表示されるが、被写体によって撮影用合成用画像の色や柄を確認し難い場合があると想定される。そのような場合には、利用者が人を消すボタン561を操作することで、表示領域552には撮影用合成用画像(つまり、背景のみ)が表示されることになり、利用者が、撮影用合成用画像の色や柄を確認し易くなる。
The erase
また、人を消すボタン561が操作され、表示領域552に撮影用合成用画像が表示されるのと同時に、人を消すボタン561に表示されていた文字は「人を表示する」に変更される。そして、表示領域552の表示が撮影用合成用画像であるときに、利用者が人を消すボタン561を操作すると、表示領域552が元に戻り、図37に示すように、被写体の背景に撮影用合成用画像が合成された合成画像が表示領域552に表示される。
In addition, when the
図35の説明に戻り、ステップS64において、制御部201は、図37の選択画面に対する利用者の操作に応じて撮影用合成用画像を決定する。
Returning to the description of FIG. 35, in step S <b> 64, the
ステップS65において、制御部201は、撮影画像の画像処理を開始してから所定の時間が経過したか否かを判定し、所定の時間が経過していないと判定した場合、ステップS64以降の処理を繰り返す。一方、制御部201は、所定の時間が経過したと判定した場合、図28のステップS5に戻り、それ以降の処理を行う。
In step S65, the
このように、写真シール作成ゲームを提供する一連の処理においては、利用者が写っている画像を表示するために2段階合成処理が複数回行われる。これにより、利用者の影が写り込んでいるリアリティのある合成画像を利用者に確認させることができる。なお、2段階合成処理によって生成された合成画像に対しては、適宜、編集処理において編集が施され、編集が施された合成画像がシール紙に印刷される。 Thus, in a series of processes for providing a photo sticker creation game, a two-stage composition process is performed a plurality of times in order to display an image showing a user. Thereby, it is possible to make the user confirm a realistic composite image in which the shadow of the user is reflected. Note that the composite image generated by the two-step composite process is appropriately edited in the edit process, and the composite image that has been edited is printed on a sticker sheet.
[写真シール機の外観構成]
図38は、写真シール機1の外観の他の構成例を示す斜視図である。上述した構成と同じ構成には同じ符号を付してある。図1の画像処理部1001が、図38の写真シール機1において実現される。図38の写真シール機1においても、図18の写真シール機1において行われるのと同様にして2段階合成処理が行われる。
[External structure of photo sticker]
FIG. 38 is a perspective view showing another configuration example of the appearance of the
図38に示すように、写真シール機1は、主に、撮影ユニット11、編集部12、および事中接客部301から構成される。編集部12と事中接客部301が接した状態で設置され、撮影ユニット11は、編集部12と事中接客部301から離れた位置に設置される。
As shown in FIG. 38, the
撮影ユニット11は、撮影部21と背景部22から構成される。撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される撮影空間において撮影処理が行われる。
The photographing
撮影部21は撮影処理を利用者に行わせる装置である。撮影部21は、撮影空間に入り、撮影処理を行っている利用者の正面に位置する。撮影空間を正面に望む面を構成する撮影部21の正面パネル41には、撮影処理時に利用者により用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル42Aにより構成され、右側面が側面パネル42Bにより構成される。
The photographing
背景部22は、正面を向いて撮影処理を行っている利用者の背面側に位置する板状の部材である背面パネル51から構成される。背景部22の上部には、背面パネル51に支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、色または柄の異なる、背景に利用する巻き取り式の背景カーテンが複数収納される。背景カーテンユニット25は、撮影部21に設けられたカメラ等による撮影と連動して動作し、撮影の際に、例えば利用者により選択された色のカーテンを下ろし、その他のカーテンを巻き取る。
The
撮影部21の左側面を構成する側面パネル42Aの上部と背景カーテンユニット25は、板状の部材である連結部23Aによって連結される。また、撮影部21の右側面を構成する側面パネル42Bの上部と背景カーテンユニット25は、板状の部材である連結部23Bによって連結される。
The upper part of the
撮影部21の側面パネル42A、連結部23A、および背景部22の背面パネル51に囲まれることによって形成される開口が撮影空間の出入り口G1となる。撮影部21の側面パネル42B、連結部23B、および背景部22の背面パネル51に囲まれることによって形成される開口も撮影空間の出入り口G2となる。
An opening formed by being surrounded by the
撮影空間の上方には、撮影部21の正面パネル41、連結部23A、連結部23B、および背景カーテンユニット25に囲まれる開口が形成され、その開口の一部を覆うように天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて発光するストロボを内蔵する。天井ストロボユニット24を構成するストロボの内部には蛍光灯が設けられており、撮影空間の照明としても機能する。
An opening surrounded by the
正面パネル41の背面側には、所定の距離だけ離れた位置に、正面パネル41の背面に対して正面が向くように事中接客部301が設けられる。事中接客部301は、事中接客処理を利用者に行わせる装置である。事中接客処理として、上述した被写体の画像処理が行われる。図38の写真シール機1の利用者は、撮影処理に含まれる本撮影処理と被写体の画像処理のうち、本撮影処理のみを撮影空間で行い、被写体の画像処理については、事中接客部301の正面前方に形成される事中接客空間で行うことになる。
On the back side of the
事中接客部301は、所定の厚さを有する板状の筐体を有しており、その背面が編集部12の右側面に接するように編集部12に連結して設けられる。事中接客部301の正面には、事中接客処理時に利用者により用いられるタブレット内蔵モニタが設けられる。
The
事中接客部301の上方には連結レール302が取り付けられる。連結レールは3本のレール302A乃至302Cを組み合わせて構成される。レール302Aの一端は連結部23Aに固定され、他端は、レール302Aの延長上にあるカーテンレール26のレール26Aと接合される。レール302Bの一端は連結部23Bに固定され、他端は、レール302Bの延長上にあるカーテンレール26のレール26Bと接合される。レール302Cの一端は、レール302Aとレール26Aの接合部に接合され、他端は、レール302Bとレール26Bの接合部に接合される。
A connecting
図38に示す編集部12の構成を正面側の構成とすると、レール302Cには、事中接客空間と編集部12の正面側の編集空間とを仕切る仕切りカーテン303A、および、事中接客空間と編集部12の背面側の編集空間とを仕切る仕切りカーテン303Bが取り付けられる。仕切りカーテン303Aと303Bは、事中接客部301の正面とほぼ平行に取り付けられる。
If the configuration of the
事中接客空間と編集空間を仕切るカーテンが事中接客部301の正面とほぼ平行に取り付けられることにより、事中接客部301の正面に設けられるタブレット内蔵モニタ161などを用いて事中接客処理を終えた利用者は、その向きのまま、編集空間に移動することができる。また、仕切りカーテン303Aと303Bを、各空間にいる利用者の足元が見える高さに取り付けることによって、編集空間への移動を容易に行わせることができる。仕切りカーテン303Aと303Bの代わりに、事中接客空間と編集空間を仕切るパネルを設けてもよい。
The curtain that divides the customer service space and the editing space is attached almost in parallel with the front of the
編集部12は、撮影処理によって得られた画像を編集する処理である編集処理を利用者に行わせる装置である。編集部12には、編集処理時に利用者により用いられるタブレット内蔵モニタなどの構成が設けられる。2組の利用者が同時に編集処理を行うことができるように、編集部12の正面側と背面側には編集処理に用いられる構成がそれぞれ設けられる。
The
編集部12の正面側は、床面に対して垂直な面であり、側面パネル42Aとほぼ平行な面である面71と、面71の上方に形成された斜面72から構成され、編集処理に用いられる構成が斜面72に設けられる。斜面72の左側には、柱状の形状を有し、照明装置74の一端を支持する支持部73Aが設けられる。支持部73Aの上面にはカーテンレール26を支持する支持部75が設けられる。斜面72の右側にも、照明装置74の他端を支持する支持部73B(図40)が設けられる。
The front side of the
編集部12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、上から見たときの形状がコの字状となるように3本のレール26A乃至26Cを組み合わせて構成される。レール26Aの一端は、連結レールのレール302Aと接合され、レール26Aの他端はレール26Cの一端と接合される。レール26Bの一端は、連結レールのレール302Bと接合され、レール26Bの他端はレール26Cの他端と接合される。
A
カーテンレール26には、編集部12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集部12の正面前方の空間と背面前方の空間が、利用者が編集処理を行う空間である編集空間となる。
A curtain is attached to the
図39は、カーテンを取り付けた状態の写真シール機1の外観を示す図である。
FIG. 39 is a view showing the appearance of the
図39に示すように、撮影空間の出入り口G1には側面カーテン63が取り付けられる。反対側の出入り口である出入り口G2にも図示せぬ側面カーテンが取り付けられる。撮影空間の出入り口G1およびG2に取り付けられる側面カーテンの少なくとも内側の色は黒色などの暗い色とされる。 As shown in FIG. 39, a side curtain 63 is attached to the entrance G1 of the imaging space. A side curtain (not shown) is also attached to the doorway G2, which is the doorway on the opposite side. At least the inner color of the side curtains attached to the entrances G1 and G2 of the imaging space is a dark color such as black.
また、撮影空間の上方に形成される開口のうち、天井ストロボユニット24を挟んで前方の部分は天井前方カーテン61で覆われ、後方の部分は天井後方カーテン62で覆われる。天井前方カーテン61の少なくとも内側の色は黒色などの暗い色とされ、天井後方カーテン62の少なくとも内側の色は白色などの明るい色とされる。
In addition, in the opening formed above the photographing space, the front part with the
事中接客空間の上方に設けられるレール302Aにはカーテン311Aが取り付けられ、レール302Bにはカーテン311Bが取り付けられる。編集空間の上方に設けられるレール26Aにはカーテン312Aが取り付けられ、レール26Bにはカーテン312Bが取り付けられる。
A curtain 311A is attached to the
図40は、図38の写真シール機1を別の角度から見た斜視図である。
FIG. 40 is a perspective view of the
編集部12の左側面76には、撮影画像や編集済みの画像が印刷されたシール紙が排出されるシール紙排出口164が設けられる。編集部12の左側面76の前方の空間が、利用者がシール紙の印刷が終わるのを待つ印刷待ち空間となる。
The
ここで、図38の写真シール機1により提供される写真シール作成ゲームの流れと、それに伴う利用者の移動について図41を参照して説明する。図41は、写真シール機1を上から見た平面図である。
Here, the flow of the photo sticker creation game provided by the
写真シール機1の利用者は、白抜き矢印#11で示すように出入り口G1から、または白抜き矢印#12で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影処理のうちの本撮影処理を行う。
The user of the
本撮影処理を終えた利用者は、白抜き矢印#13で示すように出入り口G1を使って撮影空間A1から出て事中接客空間A11に移動するか、白抜き矢印#14で示すように出入り口G2を使って撮影空間A1から出て事中接客空間A11に移動し、被写体の画像処理を行う。
The user who has finished the photographing process exits the photographing space A1 using the doorway G1 as indicated by the
被写体の画像処理を終えた利用者は、白抜き矢印#15で示すように事中接客空間A11から出て編集空間A2−1に移動するか、白抜き矢印#16で示すように事中接客空間A11から出て編集空間A2−2に移動する。
The user who has finished image processing of the subject either moves out of the customer service space A11 as indicated by a
編集空間A2−1は、編集部12の正面側の編集空間であり、編集空間A2−2は、編集部12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかが、事中接客部301のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方の空間が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は編集処理を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集処理を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集処理が終了した後、撮影画像や編集済みの画像の中から選択された画像の印刷が開始される。画像の印刷中、編集処理を終えた利用者は、編集空間A2−1で編集処理を行っていた場合には白抜き矢印#17で示すように編集空間A2−1から印刷待ち空間A12に移動して印刷が終わるのを待つ。また、編集処理を終えた利用者は、編集空間A2−2で編集処理を行っていた場合には白抜き矢印#18で示すように編集空間A2−2から印刷待ち空間A12に移動し、印刷待ち空間A12において印刷が終わるのを待つ。
After the editing process is finished, printing of an image selected from the photographed image and the edited image is started. The user who has finished the editing process during image printing moves from the editing space A2-1 to the print waiting space A12 as indicated by the
画像の印刷が終了したとき、利用者は、編集部12の左側面76に設けられたシール紙排出口164からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。
When the printing of the image is finished, the user receives the sticker paper from the
このように、事中接客空間A11を設け、被写体の画像処理を、本撮影処理を行う撮影空間A1とは別の空間である事中接客空間A11で行わせることにより、被写体の画像処理を利用者に集中して行わせることが可能になる。また、撮影空間A1では本撮影処理のみを行わせることにより、本撮影処理にも利用者を集中させることが可能になる。 As described above, the image processing of the subject is used by providing the customer service space A11 and performing the subject image processing in the event customer service space A11 which is a space different from the shooting space A1 in which the main shooting process is performed. It becomes possible to make it concentrate on a person. In addition, by performing only the main shooting process in the shooting space A1, it is possible to concentrate the user on the main shooting process.
本撮影処理と被写体の画像処理を撮影空間A1で行わせ、編集対象画像の選択などの、撮影画像の編集前の処理を事中接客空間A11で行わせるようにしてもよい。 The main photographing process and the subject image processing may be performed in the photographing space A1, and processing before editing of the photographed image, such as selection of an image to be edited, may be performed in the mid-customer service space A11.
[各装置の構成]
次に、各装置の構成について説明する。撮影部21の正面の構成は図22および図23に示す構成と同じである。また、背景部22の撮影空間A1側の構成は図24に示す構成と同じである。
[Configuration of each device]
Next, the configuration of each device will be described. The front configuration of the
図42は、編集部12の正面側(編集空間A2−1側)の構成例を示す図である。
FIG. 42 is a diagram illustrating a configuration example of the front side (editing space A2-1 side) of the
斜面72のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。
A tablet built-in
タブレット内蔵モニタ131は、タッチペン132Aまたは132Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。タブレット内蔵モニタ131には、例えば、編集対象画像として選択された撮影画像の編集に用いられる画面である編集画面が表示される。2人で同時に編集作業を行う場合、タッチペン132Aは一方の利用者により用いられ、タッチペン132Bは他方の利用者により用いられる。
The tablet built-in
編集部12の右側には事中接客部301が設けられる。
A
図43は、編集部12の左側面の構成例を示す図である。
FIG. 43 is a diagram illustrating a configuration example of the left side surface of the
編集部12の左側面76にはシール紙排出口164が設けられる。シール紙排出口164には、編集空間A2−1の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙、または、編集空間A2−2の利用者が編集処理を行うことによって作成した画像が印刷されたシール紙が排出される。編集部12の内部にはプリンタが設けられており、画像の印刷がそのプリンタにより行われる。
The
編集空間A2−2側の斜面77には、斜面72に設けられる図42の構成と同じ構成が設けられる。
The
図44は、事中接客部301の正面の構成例を示す図である。
FIG. 44 is a diagram illustrating a configuration example of the front of the
事中接客部301の構成は、シール紙排出口164が設けられていない点を除いて事後接客部13の構成と同じである。事中接客部301の上方中央にはタブレット内蔵モニタ161が設けられる。タブレット内蔵モニタ161を挟んで左側にタッチペン162Aが設けられ、右側にタッチペン162Bが設けられる。タブレット内蔵モニタ161もタブレット内蔵モニタ131と同様に、タッチペン162Aまたは162Bを用いて操作入力が可能なタブレットがLCDなどのモニタに重畳して設けられることによって構成される。
The configuration of the
タブレット内蔵モニタ161の下には非接触型ICリーダ/ライタ163が設けられ、非接触型ICリーダ/ライタ163の下方にはスピーカ165が設けられる。非接触型ICリーダ/ライタ163は、近接された非接触型ICと通信を行い、非接触型ICからのデータの読み出しや非接触型ICに対するデータの書き込みを行う。スピーカ165は、事中接客処理の案内音声、BGM、効果音等の音を出力する。
A non-contact type IC reader /
[写真シール機の内部構成]
図45は、図38の写真シール機1の内部の構成例を示すブロック図である。図27を参照して説明した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
[Internal configuration of photo sticker]
FIG. 45 is a block diagram showing an example of the internal configuration of the
制御部201においては、所定のプログラムが実行されることによって、図1の構成を有する画像処理部1001が実現される。カメラ91により撮影が行われることによって得られた撮影画像が画像処理部1001の撮影画像取得部1011により取得され、記憶部202に記憶されている背景画像や影色背景画像が背景画像取得部1014により取得される。
In the
事中接客部351は、事中接客空間A11における事中接客処理を行う構成であるタブレット内蔵モニタ161、タッチペン162A,162B、非接触型ICリーダ/ライタ163、およびスピーカ165から構成される。
The
[写真シール機の動作]
ここで、図46のフローチャートを参照して、写真シール作成ゲームを提供する図38の写真シール機1の処理について説明する。
[Operation of photo sticker]
Here, with reference to the flowchart of FIG. 46, the process of the
ステップS101において、写真シール機1の制御部201は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される信号に基づいて判定し、投入されたと判定するまで待機する。
In step S101, the
硬貨が投入されたとステップS101において判定した場合、ステップS102において、制御部201は、撮影部208を制御し、本撮影処理を行う。図29のフローチャートを参照して説明したように、本撮影処理により、撮影空間A1にいる利用者を被写体として撮影が行われる。
When it is determined in step S101 that a coin has been inserted, in step S102, the
ステップS103において、制御部201は、撮影空間A1にいる利用者に対して、事中接客空間A11への移動を案内する。事中接客空間A11への移動の案内は、撮影部208のタッチパネルモニタ93に画面を表示させることによって、または音声をスピーカ224から出力させることによって行われる。
In step S103, the
ステップS104において、制御部201は、事中接客部351を制御し、事中接客空間A11にいる利用者による操作に応じて被写体の画像処理を行う。図32のフローチャートを参照して説明した被写体の画像処理により、本撮影処理によって得られた撮影画像に写る利用者の目のサイズの選択と、撮影画像の明るさの選択が事中接客空間A11にいる利用者によって行われる。目のサイズの選択に用いられる選択画面と、撮影画像の明るさの調整に用いられる選択画面は事中接客部301のタブレット内蔵モニタ161に表示される。
In step S <b> 104, the
ステップS105において、制御部201は、事中接客空間A11にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、事中接客部351のタブレット内蔵モニタ161に画面を表示させることによって、または音声をスピーカ165から出力させることによって行われる。
In step S105, the
ステップS106において、制御部201は、図35のフローチャートを参照して説明した撮影画像の画像処理を行う。
In step S106, the
ステップS107において、制御部201は、編集部209Aまたは編集部209Bを制御し、編集処理を行う。制御部201は、編集画面をタブレット内蔵モニタ131に表示させ、利用者による編集操作に従って、編集対象として選択された撮影画像の編集を行う。編集が終了したとき、制御部201は、印刷する画像の選択画面をタブレット内蔵モニタ131に表示させ、印刷する画像を利用者に選択させる。印刷する画像の選択画面には、撮影画像や編集済みの画像が表示され、その中から所定の枚数の画像が選択される。
In step S107, the
ステップS108において、制御部201は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して印刷待ち空間A12への移動を案内する。印刷待ち空間A12への移動の案内は、タブレット内蔵モニタ131に画面を表示させることによって、または音声をスピーカ231から出力させることによって行われる。印刷待ち空間A12への移動を案内する前、事後接客処理が編集空間A2−1または編集空間A2−2において行われるようにしてもよい。
In step S108, the
ステップS109において、制御部201は印刷処理を行う。制御部201は、利用者により選択された画像をプリンタ241に出力してシール紙に印刷させる。
In step S109, the
印刷が終了したとき、ステップS110において、プリンタ241は、画像が印刷されたシール紙をシール紙排出口164に排出し、処理を終了させる。
When the printing is finished, in step S110, the printer 241 discharges the sticker paper on which the image is printed to the sticker
なお、非接触型ICリーダ/ライタ163を、事中接客部301ではなく編集部12に設けるようにしてもよい。また、図18の写真シール機1のように、図38の写真シール機1にも図26のような構成を有する事後接客部13を設けるようにしてもよい。
Note that the non-contact type IC reader /
以上のように、図38の外観構成を有する写真シール機1において2段階合成処理が行われるようにすることも可能である。撮影画像の画像処理が事中接客空間A11にいる利用者を対象として行われるようにしてもよい。
As described above, the two-step composition process can be performed in the
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
1 写真シール機, 11 撮影ユニット, 12 編集部, 13 事後接客部, 21 撮影部, 22 背景部, 1001 画像処理部, 1011 撮影画像取得部, 1012 マスク画像生成部, 1013 合成部, 1014 背景画像取得部
DESCRIPTION OF
Claims (11)
前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記被写体の背景となる画像である背景画像に合成する合成手段と
を備える画像処理装置。 Based on the photographed image, the portion of the subject that appears in the photographed image is transmitted, and the shadow portion of the subject projected on the background curtain behind the subject at the time of photographing is determined according to the lightness of the color of the background curtain. A mask image generating means for generating a first mask image that is transmitted at a predetermined partially different transmittance;
An image comprising: a synthesizing unit that extracts a portion of the subject and a shadow portion of the subject from the photographed image using the first mask image, and combines the extracted portion with a background image that is an image that is a background of the subject. Processing equipment.
請求項1に記載の画像処理装置。 The mask image generation means detects the subject portion, the shadow portion of the subject, and other portions based on the color of each pixel of the captured image, and generates the first mask image. The image processing apparatus according to claim 1.
請求項1または2に記載の画像処理装置。 The synthesizing unit is configured to generate the subject portion and the subject from a synthesized image obtained by synthesizing the subject portion extracted using the first mask image and the shadow portion of the subject with the background image. The image processing apparatus according to claim 1, wherein the shadow portion of the image is extracted using the first mask image, and is combined with the background image again.
請求項1または2に記載の画像処理装置。 The synthesizing unit extracts the subject portion and the shadow portion of the subject from the photographed image using the first mask image, and synthesizes the subject portion and a color background image that is an image having a color different from that of the background image. The synthesized image obtained in this manner is used as the photographed image, and the subject portion and the shadow portion of the subject are extracted from the photographed image using the first mask image and synthesized with the background image. Item 3. The image processing apparatus according to Item 1 or 2.
請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the color background image is an image of a shadow color projected onto an object having the same color as the color of the background image.
請求項4または5に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the synthesizing unit uses the color background image whose brightness is changed according to a shooting mode of the captured image.
前記合成手段は、前記撮影画像から、前記被写体の部分と前記被写体の輪郭の周りの部分とを前記第2のマスク画像を用いて抽出し、前記背景画像と色が異なる画像である色背景画像に合成して得られた合成画像を前記撮影画像として、前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記第1のマスク画像を用いて抽出し、前記背景画像に合成する
請求項1または2に記載の画像処理装置。 The mask image generating means generates a second mask image that transmits a portion of the subject and transmits a predetermined portion around the contour of the subject with a predetermined transmittance based on the captured image,
The synthesizing unit extracts a portion of the subject and a portion around the contour of the subject from the photographed image using the second mask image, and a color background image that is an image having a color different from that of the background image. Using the first mask image, the subject image and the shadow portion of the subject are extracted from the captured image as a composite image obtained by combining the image and the background image. The image processing apparatus according to claim 1 or 2.
請求項1乃至7のいずれかに記載の画像処理装置。 The composition unit adjusts the color of the shadow portion of the subject before combining the portion of the subject and the shadow portion of the subject with the background image. Image processing device.
前記合成手段は、加工された前記第1のマスク画像を用いて、前記被写体の部分と前記被写体の影の部分とを抽出する
請求項1乃至8のいずれかに記載の画像処理装置。 The mask image generating means processes the first mask image;
The image processing apparatus according to claim 1, wherein the synthesizing unit extracts a portion of the subject and a shadow portion of the subject using the processed first mask image.
請求項9に記載の画像処理装置。 The mask image generation means, as the processing of the first mask image, includes at least one of a process of adjusting a contrast of the first mask image according to a tone curve and a process of blurring an outline of the first mask image. The image processing apparatus according to claim 9, wherein any one of the processes is performed.
前記撮影画像から、前記被写体の部分と前記被写体の影の部分とを前記マスク画像を用いて抽出し、前記被写体の背景となる画像である背景画像に合成する
ステップを含む画像処理方法。 Based on the photographed image, the portion of the subject that appears in the photographed image is transmitted, and the shadow portion of the subject projected on the background curtain behind the subject at the time of photographing is determined according to the lightness of the color of the background curtain. Generate a mask image to be transmitted at a predetermined partially different transmittance,
An image processing method comprising: extracting a portion of the subject and a shadow portion of the subject from the photographed image using the mask image and combining the extracted portion with a background image that is an image serving as a background of the subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011102444A JP5488526B2 (en) | 2011-04-28 | 2011-04-28 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011102444A JP5488526B2 (en) | 2011-04-28 | 2011-04-28 | Image processing apparatus and image processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013174191A Division JP5482948B2 (en) | 2013-08-26 | 2013-08-26 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012235314A JP2012235314A (en) | 2012-11-29 |
JP5488526B2 true JP5488526B2 (en) | 2014-05-14 |
Family
ID=47435213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011102444A Active JP5488526B2 (en) | 2011-04-28 | 2011-04-28 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5488526B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5574031B2 (en) * | 2012-12-14 | 2014-08-20 | フリュー株式会社 | Image processing apparatus and method, and program |
JP5621875B1 (en) * | 2013-04-26 | 2014-11-12 | フリュー株式会社 | Imaging apparatus and method, and program |
JP5704205B2 (en) * | 2013-09-24 | 2015-04-22 | 辰巳電子工業株式会社 | Image processing apparatus, photography game apparatus using the same, image processing method, image processing program, and photo print sheet |
JP6881884B2 (en) * | 2015-01-19 | 2021-06-02 | 辰巳電子工業株式会社 | Photography game device, image generation method, and image generation program |
JP5871083B2 (en) * | 2015-02-24 | 2016-03-01 | 辰巳電子工業株式会社 | PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM |
JP6356299B2 (en) * | 2017-03-31 | 2018-07-11 | 株式会社メイクソフトウェア | PHOTOGRAPHY GAME DEVICE, PHOTOGRAPHY GAME DEVICE CONTROL METHOD, AND PHOTOGRAPHY GAME DEVICE CONTROL PROGRAM |
CN108174109B (en) * | 2018-03-15 | 2020-09-25 | 维沃移动通信有限公司 | Photographing method and mobile terminal |
CN111968134B (en) * | 2020-08-11 | 2023-11-28 | 影石创新科技股份有限公司 | Target segmentation method, device, computer readable storage medium and computer equipment |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06339150A (en) * | 1993-05-31 | 1994-12-06 | Fuji Color Service:Kk | Compositing method of shade in electronic picture |
US6157733A (en) * | 1997-04-18 | 2000-12-05 | At&T Corp. | Integration of monocular cues to improve depth perception |
JP4648092B2 (en) * | 2005-05-31 | 2011-03-09 | 株式会社アイ・エム・エス | Photo sticker dispensing apparatus and image processing method therefor |
JP5240969B2 (en) * | 2006-03-29 | 2013-07-17 | フリュー株式会社 | Photo sticker creation apparatus and method, and program |
JP2009218704A (en) * | 2008-03-07 | 2009-09-24 | Ricoh Co Ltd | Image processing apparatus and image processing method |
-
2011
- 2011-04-28 JP JP2011102444A patent/JP5488526B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012235314A (en) | 2012-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5488526B2 (en) | Image processing apparatus and image processing method | |
JP5007774B1 (en) | Photo seal machine, photo seal machine processing method, and program thereof | |
JP6048758B2 (en) | Image processing apparatus and method, and program | |
JP6206707B2 (en) | Imaging apparatus and display control method | |
JP5569502B2 (en) | Photo sticker creation apparatus, photo sticker creation method, and program | |
JP5482948B2 (en) | Image processing apparatus and image processing method | |
JP7132492B2 (en) | Image processing device, display control method, and program | |
JP5549762B1 (en) | Image printing apparatus and image arrangement method | |
JP6255790B2 (en) | Image processing apparatus and display control method | |
JP7140962B2 (en) | Image processing device, control method, and program | |
JP5013203B2 (en) | Photo sticker creation apparatus and method, and program | |
JP2015130672A (en) | Imaging device and imaging method | |
JP5796671B2 (en) | Image printing apparatus and image printing method | |
JP5725245B2 (en) | Image printing apparatus and image printing method | |
JP6455550B2 (en) | Photo sticker creation apparatus and display control method | |
JP6414276B2 (en) | Photo sticker creation apparatus and method, and program | |
JP6982230B2 (en) | Photographing game console and image processing method | |
JP2014170234A (en) | Photograph seal creation apparatus, photograph seal creation method, and program | |
JP5594401B1 (en) | Imaging apparatus, imaging method, and program | |
JP5423743B2 (en) | Photo seal machine, photo seal machine processing method, and program thereof | |
JP6119598B2 (en) | Photo sticker creation device | |
JP5633765B1 (en) | Image printing apparatus and image printing method | |
JP2023040914A (en) | Image processing apparatus, image processing program, and mask generation method | |
JP6375740B2 (en) | Photo sticker creation apparatus and display method | |
JP2015163924A (en) | Photographic seal creation device and photographic seal creation method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130322 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20130508 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20130521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130709 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140210 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5488526 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |