JP2006072418A - Image composition method and device - Google Patents

Image composition method and device Download PDF

Info

Publication number
JP2006072418A
JP2006072418A JP2004251370A JP2004251370A JP2006072418A JP 2006072418 A JP2006072418 A JP 2006072418A JP 2004251370 A JP2004251370 A JP 2004251370A JP 2004251370 A JP2004251370 A JP 2004251370A JP 2006072418 A JP2006072418 A JP 2006072418A
Authority
JP
Japan
Prior art keywords
image
background
shooting
editing
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004251370A
Other languages
Japanese (ja)
Inventor
Mariko Inaizumi
麻里子 稲泉
Hiroyuki Kumamoto
浩之 熊本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Make Software Co Ltd
Original Assignee
Make Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Make Software Co Ltd filed Critical Make Software Co Ltd
Priority to JP2004251370A priority Critical patent/JP2006072418A/en
Publication of JP2006072418A publication Critical patent/JP2006072418A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To smooth a peripheral part between a first image (an image to be combined) and a second image (an image to combine). <P>SOLUTION: A graffiti image (the image to combine) such as a background image or stamp image is combined with a taken image (the image to be combined) that is an image of editing object. Predetermined shading processing is performed to a mask image in which a combining area is discriminated from a non-combining area. Based on the mask image subjected to the predetermined shading processing, the permeability for combining the graffiti image with the taken image is set. The graffiti image is combined with the taken image at the set permeability. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は画像合成方法および画像合成装置に関し、特に合成される画像(第1の画像)と合成する画像(第2の画像)との周辺部分を滑らかに合成することを目的とする画像合成方法および画像合成装置に関する。   The present invention relates to an image synthesizing method and an image synthesizing apparatus, and in particular, an image synthesizing method for smoothly synthesizing peripheral portions of an image to be synthesized (first image) and an image to be synthesized (second image). And an image composition apparatus.

近年、ゲームセンター等の遊戯を提供する店舗において、写真を撮影してシールプリント等にする写真自動販売機が数多く設置されている。このような写真自動販売機には、一般に、利用者である被写体を写真自動販売機に付属のカメラで撮影したり、利用者が所持するデジタルカメラやカメラ付携帯電話で撮影したりして得られた撮影画像を取得して、タブレットディスプレイなどに表示して付属のタッチペンで文字や図形などを入力する、いわゆる落書きやお絵描きといわれている編集機能があるものが一般的になっている。そして、このような編集入力された画像(合成する画像)は撮影画像(合成される画像)と合成され、その合成画像がプリンタで印刷されて利用者に提供される。   2. Description of the Related Art In recent years, many photo vending machines that take pictures and make sticker prints or the like have been installed in stores that provide games such as game centers. Such a photo vending machine is generally obtained by taking a photograph of a subject that is a user with a camera attached to the photo vending machine, or with a digital camera or a camera-equipped mobile phone owned by the user. It is common to have an editing function called so-called graffiti or drawing, in which a captured image is acquired, displayed on a tablet display, etc., and characters and figures are input with an attached touch pen. The edited and input image (image to be combined) is combined with the photographed image (image to be combined), and the combined image is printed by a printer and provided to the user.

このような写真自動販売機は、上述のように編集機能を持ち、スタンプ機能やペン機能など、面白みがあり個性的な機能が搭載される傾向にある。また、簡易な入力で複雑な編集を行なえるようになされている。   Such a photo vending machine has an editing function as described above, and tends to have interesting and unique functions such as a stamp function and a pen function. In addition, complex editing can be performed with simple input.

特許文献1には、所定のテクスチャ画像(合成する画像)に対応するマスク画像を用いることで、描画される線の形状を多種多様に形成する、様々なペン機能が備わる画像処理装置が開示されている。   Patent Document 1 discloses an image processing apparatus having various pen functions that forms various shapes of drawn lines by using a mask image corresponding to a predetermined texture image (image to be synthesized). ing.

また、写真自動販売機に関する特許文献2には、マスク画像を用いて撮影画像と背景画像とを合成する方法、または撮影画像と背景画像の半透明合成に関する記載がある。
特開2003−37813号公報 特開2004−48275号公報
Patent Document 2 relating to a photo vending machine includes a method for synthesizing a captured image and a background image using a mask image, or a translucent composition of a captured image and a background image.
JP 2003-37813 A JP 2004-48275 A

特許文献1および特許文献2に開示されているように、画像の合成しない領域を特定するためにマスク画像を用いることは一般的になっている。   As disclosed in Patent Document 1 and Patent Document 2, it is common to use a mask image in order to specify a region where images are not combined.

しかしながら、上記特許文献1および特許文献2に開示されている、いずれのマスク画像を用いた合成処理においても、合成される画像と合成する画像との周辺部分が滑らかにならず、ギザギザが目立つような合成画像となってしまうという問題があった。   However, in the synthesis processing using any of the mask images disclosed in Patent Document 1 and Patent Document 2, the peripheral portion between the image to be synthesized and the image to be synthesized is not smooth, and jaggedness is noticeable. There was a problem that it would become a complex composite image.

また、特許文献2に開示されている半透明合成では、合成される画像(撮影画像)を合成する画像(背景画像、前景画像)から際立たせたり、ぼかしたりする処理を行なうことが知られているが、このような処理を行なうと合成する画像全体がぼけてしまい、合成する画像本来の色彩をきれいに表現することができないという問題があった。   Further, in the translucent composition disclosed in Patent Document 2, it is known to perform a process of making the image to be synthesized (photographed image) stand out or blur from an image (background image, foreground image) to be synthesized. However, when such processing is performed, the entire image to be combined is blurred, and there is a problem that the original color of the image to be combined cannot be expressed clearly.

本発明はこれらの問題に鑑みてなされたものであり、画像合成方法および画像合成装置に関し、特に合成される画像(第1の画像)と合成する画像(第2の画像)との周辺部分を滑らかに合成する画像合成方法および画像合成装置を提供することを目的とする。   The present invention has been made in view of these problems, and relates to an image composition method and an image composition apparatus, and in particular, a peripheral portion between an image to be synthesized (first image) and an image to be synthesized (second image). It is an object of the present invention to provide an image composition method and an image composition apparatus that perform smooth composition.

上記目的を達成するために、本発明による画像合成方法は、第1の画像に第2の画像を合成する画像合成方法において、合成する領域と合成しない領域とが区別されたマスク画像を準備するステップと、マスク画像に所定のぼかし処理を施すステップと、ぼかし処理が施されたマスク画像に基づいて、第1の画像と第2の画像とを合成するときの透過度を設定するステップと、設定された透過度で第1の画像と第2の画像とを合成するステップとを備えることを特徴とする。   In order to achieve the above object, an image composition method according to the present invention provides a mask image in which a region to be synthesized and a region not to be synthesized are distinguished in an image composition method for synthesizing a second image with a first image. A step of performing a predetermined blurring process on the mask image, a step of setting a transparency when combining the first image and the second image based on the mask image subjected to the blurring process, Synthesizing the first image and the second image with the set transparency.

上記第1の画像とは、合成される画像であって、被写体を撮影した撮影画像などである。使用する撮影画像は本画像合成装置において撮影処理を行なうことによって取得することや、利用者が所持している画像を取得手段で取得することを含む。   The first image is an image to be synthesized, such as a captured image obtained by capturing a subject. The captured image to be used includes acquiring by performing a shooting process in the image synthesizing apparatus, and acquiring an image possessed by the user by an acquiring unit.

上記第2の画像とは、合成する画像であって、スタンプ画像やペン画像やフレーム画像や背景画像などの落書き用画像(模様画像)などである。   The second image is an image to be combined, such as a stamp image, a pen image, a frame image, a background image, or a graffiti image (pattern image).

本画像合成方法は、例えば、画像合成装置や、画像合成装置の機能を有する写真自動販売機に用いることができる。   This image composition method can be used for, for example, an image composition apparatus or a photo vending machine having the function of an image composition apparatus.

上記画像合成方法によれば、第1の画像と第2の画像との周辺部分を滑らかに合成することができ、自然な美しい仕上がりの合成画像を利用者に提供することができる。   According to the image composition method, the peripheral portion of the first image and the second image can be smoothly synthesized, and a natural and beautiful composite image can be provided to the user.

好ましくは、マスク画像が第2の画像に対応する。   Preferably, the mask image corresponds to the second image.

上記画像合成方法によれば、合成する領域と合成しない領域とが区別されたマスク画像が、第2の画像(合成する画像)に対応することによって、第2の画像(合成する画像)を、第1の画像(合成される画像)に滑らかに自然に合成することができる。このため、美しい仕上がりの合成画像を利用者に提供することができる。   According to the image composition method, the mask image in which the region to be synthesized and the region not to be synthesized are distinguished from each other corresponds to the second image (image to be synthesized), whereby the second image (image to be synthesized) is The first image (the image to be combined) can be smoothly and naturally combined. Therefore, it is possible to provide the user with a beautifully finished composite image.

好ましくは、マスク画像が第1の画像に対応する。   Preferably, the mask image corresponds to the first image.

上記画像合成方法によれば、合成する領域と合成しない領域とが区別されたマスク画像が、第1の画像(合成される画像)に対応することによって、第1の画像(合成される画像)の合成しない領域には、第2の画像(合成する画像)が合成されないようにすることができる。さらに、マスク画像は所定のぼかし処理を施されているため、合成する領域と合成しない領域との周辺部分であっても、第2の画像(合成する画像)を滑らかに自然に合成することができる。このため、美しい仕上がりの合成画像を利用者に提供することができる。   According to the image synthesizing method, the mask image in which the area to be synthesized is distinguished from the area not to be synthesized corresponds to the first image (the image to be synthesized), whereby the first image (the image to be synthesized). It is possible to prevent the second image (image to be combined) from being combined in the non-combined region. Furthermore, since the mask image is subjected to a predetermined blurring process, the second image (image to be combined) can be smoothly and naturally combined even in the peripheral portion between the region to be combined and the region not to be combined. it can. Therefore, it is possible to provide the user with a beautifully finished composite image.

また、上記目的を達成するために、本発明による画像合成方法は、人物と背景とを含む撮影画像に所定の画像を合成する画像合成方法であって、所定の条件により撮影画像中の背景を特定するステップと、特定された背景に基づいて、所定の画像を合成可能な領域である背景領域と、背景領域以外の領域であって所定の画像を合成しない領域である人物領域とに区別されたマスク画像を作成するステップと、作成されたマスク画像に所定のぼかし処理を施すステップと、ぼかし処理が施されたマスク画像に基づいて、撮影画像と所定の画像を合成するときの透過度を設定するステップと、設定された透過度で撮影画像と所定の画像とを合成するステップとを備えることを特徴とする。   In order to achieve the above object, an image composition method according to the present invention is an image composition method for compositing a predetermined image with a photographed image including a person and a background, and the background in the photographed image is determined according to a predetermined condition. Based on the identified background, a distinction is made between a background region that is a region where a predetermined image can be combined and a human region that is a region other than the background region and does not combine a predetermined image based on the specified background. A step of creating a mask image, a step of applying a predetermined blurring process to the generated mask image, and a transparency when combining the photographed image and the predetermined image based on the mask image subjected to the blurring process. A setting step; and a step of synthesizing the captured image and the predetermined image with the set transparency.

上記所定の画像とは、合成する画像であって、スタンプ画像やペン画像やフレーム画像や背景画像などの落書き用画像(模様画像)などである。   The predetermined image is an image to be combined, such as a stamp image, a pen image, a frame image, a background image, or a graffiti image (pattern image).

上記画像合成方法によれば、撮影画像と所定の画像との周辺部分を滑らかに合成することができ、自然な美しい仕上がりの合成画像を利用者に提供することができる。また、背景領域以外の領域、すなわち人物領域に所定の画像が合成されないようになっているため、人物領域に被らないように所定の画像を合成することができる。   According to the image composition method, the peripheral portion between the photographed image and the predetermined image can be smoothly synthesized, and a natural and beautiful composite image can be provided to the user. In addition, since the predetermined image is not combined with the area other than the background area, that is, the person area, the predetermined image can be combined so as not to cover the person area.

好ましくは、作成されたマスク画像の人物領域を背景領域の方向に所定の比率で拡張し、拡張されたマスク画像に所定のぼかし処理を施す。   Preferably, the person area of the created mask image is expanded at a predetermined ratio in the direction of the background area, and a predetermined blurring process is performed on the expanded mask image.

上記画像合成方法によれば、人物領域に所定の画像が被る範囲を少なくすることができるため、自然な美しい仕上がりの合成画像を利用者に提供することができる   According to the above-described image composition method, it is possible to reduce a range in which a predetermined image is applied to a person area, and therefore it is possible to provide a user with a natural and beautiful composite image.

または、上記目的を達成するために、本発明による画像合成装置は、使用者である被写体を撮影する撮影手段と、被写体の後方に配置され、被写体と共に撮影される背景を含む背景手段と、撮影手段で撮影された被写体と背景とを含む撮影画像と、撮影画像に合成する所定の画像を記憶する記憶手段と、所定の条件により撮影画像中の背景を特定する特定手段と、特定された背景に基づいて、所定の画像を合成可能な領域である背景領域と、背景領域以外の領域であって所定の画像を合成しない領域である人物領域とに区別されたマスク画像を作成する作成手段と、作成手段で作成されたマスク画像に所定のぼかし処理を施すぼかし手段と、ぼかし手段でぼかされたマスク画像に基づいて、撮影画像と所定の画像とを合成するときの透過度を設定する設定手段と、設定手段で設定された透過度で撮影画像と所定の画像とを合成する合成手段とを備えることを特徴とする。   Alternatively, in order to achieve the above object, an image synthesizing apparatus according to the present invention includes a photographing unit that photographs a subject that is a user, a background unit that is disposed behind the subject and includes a background that is photographed together with the subject, and photographing. A captured image including the subject and background photographed by the means, a storage means for storing a predetermined image to be combined with the captured image, a specifying means for specifying a background in the captured image according to a predetermined condition, and a specified background Creating means for creating a mask image that is classified into a background region that is a region where a predetermined image can be combined and a person region that is a region other than the background region and does not combine the predetermined image, based on , The blurring means for applying a predetermined blurring process to the mask image created by the creating means, and the transparency when combining the photographed image and the predetermined image based on the mask image blurred by the blurring means. Characterized in that it comprises a setting means constant for, a synthesizing means for synthesizing the captured image and the predetermined image in the set transparency in the setting means.

上記画像合成装置によれば、撮影画像と所定の画像との周辺部分を滑らかに合成することができ、自然な美しい仕上がりの合成画像を利用者に提供することができる。また、背景領域以外の領域、すなわち人物領域に所定の画像が合成されないようになっているため、人物領域に被らないように所定の画像を合成することができる。     According to the image synthesizing apparatus, it is possible to smoothly synthesize the peripheral portion between the photographed image and the predetermined image, and to provide the user with a synthesized image with a natural beautiful finish. In addition, since the predetermined image is not combined with the area other than the background area, that is, the person area, the predetermined image can be combined so as not to cover the person area.

以下、図面を参照し、本発明の実施の形態を詳細に説明する。図中同一又は相当部分には同一符号を付してその説明は繰返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and the description thereof will not be repeated.

[写真自動販売機の側面の外観] [Appearance of side of photo vending machine]

図1は、本発明を適用した画像合成装置を適用した写真自動販売機1の外観の概略側面図である。写真自動販売機は、本体部2と背面部3が対向して配備されており、これらとともにフレーム枠(構造材)やパネル(壁面)やサイドカーテンなどが組み合わされて構成される。   FIG. 1 is a schematic side view of the appearance of a photo vending machine 1 to which an image composition device to which the present invention is applied is applied. In the photo vending machine, the main body 2 and the back surface 3 are arranged to face each other, and a frame frame (structural material), a panel (wall surface), a side curtain, and the like are combined therewith.

写真自動販売機1では、前述の構成要素を組み合わせることによって、本体部2と背面部3との間には適宜な広さの撮影空間6が形成される。また、便宜上、撮影空間6の天井面は天井部4、床面は床面部5と呼ぶ。本体部2の外部側の面に第1編集空間7a、背面部3の外部側の面に第2編集空間7b(これらをまとめて編集空間7という)とが形成される。第1編集空間7aには第1編集部8a、第2編集空間7bには第2編集部8bが形成される(これらをまとめて編集部8という)。   In the photo vending machine 1, a photographing space 6 having an appropriate size is formed between the main body 2 and the back surface 3 by combining the above-described components. For convenience, the ceiling surface of the imaging space 6 is referred to as a ceiling portion 4 and the floor surface is referred to as a floor surface portion 5. A first editing space 7 a is formed on the outer surface of the main body 2, and a second editing space 7 b (these are collectively referred to as an editing space 7) on the outer surface of the back surface 3. A first editing section 8a is formed in the first editing space 7a, and a second editing section 8b is formed in the second editing space 7b (these are collectively referred to as the editing section 8).

かかる写真自動販売機1を用いる際、被写体である利用者は撮影空間6に入り、本体部2の撮影操作側の面(以降、便宜上正面という)に相対する向きで撮影プレイを行なう。そして、撮影の後は所定の基準で編集空間7a、7bのいずれかを利用するかが決定され、利用者は決定された第1編集空間7aまたは第2編集空間7bに入り、撮影した画像にいわゆる落書きと呼ばれるスタンプ画像やテキストなどをペン入力する編集プレイを行なう。   When using such a photo vending machine 1, a user who is a subject enters the shooting space 6 and performs shooting play in a direction opposite to the shooting operation side surface of the main body 2 (hereinafter referred to as the front for convenience). Then, after shooting, it is determined which of the editing spaces 7a and 7b is to be used based on a predetermined standard, and the user enters the determined first editing space 7a or second editing space 7b and enters the shot image. An edit play is performed in which a so-called graffiti stamp image or text is input with a pen.

[写真自動販売機の撮影空間の構成] [Configuration of photo vending machine shooting space]

まず、写真自動販売機1の撮影空間6の構成の説明を行なう。   First, the configuration of the photographing space 6 of the photo vending machine 1 will be described.

図2は本体部2を正面から見た斜視図である。本体部2は、プリンタ11、撮影・印刷用コンピュータ装置100a、編集用コンピュータ装置100b、および制御部110などの各種機器類を収める。これらの詳細は、後に図14を用いて説明される。   FIG. 2 is a perspective view of the main body 2 viewed from the front. The main body 2 houses various devices such as the printer 11, the photographing / printing computer device 100 a, the editing computer device 100 b, and the control unit 110. These details will be described later with reference to FIG.

本体部2の正面には、被写体である利用者を撮影するためのCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)
などの撮像素子からなるカメラ12と、カメラ12から撮像される映像をリアルタイム表示して利用者に撮像される映像を視覚確認させるためのライブモニタ13とが備えられる。カメラ12は撮影手段として機能し、ライブモニタ13は、撮像表示手段として機能する。カメラ12は複数備えられたり、移動や角度調節をできるようにしてもよい。カメラ12は、一般的にデジタルカメラが用いられる。一般的なデジタルカメラで設定できる項目(たとえばシャッタースピード、絞り値、露出補正、ホワイトバランスなど)の変更や撮影タイミングは、撮影・印刷用コンピュータ装置100aから指示される。
A CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor) are used on the front of the main unit 2 to photograph a user as a subject.
And a live monitor 13 for displaying a video captured by the camera 12 in real time and allowing the user to visually check the video captured. The camera 12 functions as an imaging unit, and the live monitor 13 functions as an imaging display unit. A plurality of cameras 12 may be provided, or movement and angle adjustment may be performed. As the camera 12, a digital camera is generally used. Changes to items (for example, shutter speed, aperture value, exposure correction, white balance, etc.) that can be set with a general digital camera and shooting timing are instructed from the shooting / printing computer apparatus 100a.

また、カメラ12の左側に前面照明装置14a、カメラ12の右側に前面照明装置14b、カメラ12の下側に前面照明装置14cが備えられる(これらをまとめて前面照明装置14という)。前面照明装置14は、被写体である利用者を前面から照明する。   Further, a front illumination device 14a is provided on the left side of the camera 12, a front illumination device 14b is provided on the right side of the camera 12, and a front illumination device 14c is provided on the lower side of the camera 12 (these are collectively referred to as the front illumination device 14). The front lighting device 14 illuminates a user who is a subject from the front.

前面照明装置14に関しては、天井照明装置41、側面照明装置42L、42Rとともに後に詳細を説明する。   The front lighting device 14 will be described in detail later together with the ceiling lighting device 41 and the side lighting devices 42L and 42R.

前面照明装置14cの拡散板31cの左側には面17a、右側には面17bが配備される。面17a、17bは、左右方向が本体部2の中央方向に向かって低くなるように傾斜し、上下方向が本体部2の下方向に向かって低くなるように傾斜して配備されている。面17bの中央には、撮影操作モニタ18が備えられ、撮影操作モニタ18の上には透明なタッチパネル19が積層されている。撮影操作モニタ18には撮影指示や選択肢やプレイ時の各種の誘導などを行なう画面が表示され、タッチパネル19は、利用者の指などでタッチされる入力を検出する。利用者は、撮影操作モニタ18に表示される選択肢に対して、選択処理を行なうことができる。   A surface 17a is provided on the left side of the diffusion plate 31c of the front illumination device 14c, and a surface 17b is provided on the right side. The surfaces 17 a and 17 b are disposed so as to be inclined so that the left-right direction becomes lower toward the central direction of the main body 2 and the vertical direction becomes lower toward the lower direction of the main body 2. A photographing operation monitor 18 is provided in the center of the surface 17b, and a transparent touch panel 19 is laminated on the photographing operation monitor 18. The photographing operation monitor 18 displays a screen for performing photographing instructions, options, various guidance during play, and the like, and the touch panel 19 detects an input touched with a user's finger or the like. The user can perform a selection process on the options displayed on the photographing operation monitor 18.

このように中央方向に向かって低くなるように傾斜した面に入力操作するためのタッチパネル19を積層した撮影操作モニタ18があるため、利用者にとっては入力操作がより行ないやすく、指示画面がより見やすくなる。また面17aや17bなどに手を置いて撮影することにより撮影時のポーズなども決まりやすい。   Since there is the photographing operation monitor 18 in which the touch panel 19 for performing the input operation is laminated on the surface inclined so as to become lower toward the center direction in this way, it is easier for the user to perform the input operation and the instruction screen is easier to see. Become. In addition, a pose at the time of photographing can be easily determined by placing a hand on the surface 17a or 17b and photographing.

また左上面17aの下方の垂直な面17cの上部には撮影側スピーカ20Lが備えられ、右上面17bの下方の垂直な面17dの上部には撮影側スピーカ20Rが備えられ、撮影操作などの案内を出力する。   Further, a photographing side speaker 20L is provided above the vertical surface 17c below the left upper surface 17a, and a photographing side speaker 20R is provided above the vertical surface 17d below the right upper surface 17b. Is output.

右下面17dの下部(撮影側スピーカ20Rの下部)には対価である硬貨を投入するためのコイン投入口21と、受け付けられなかった硬貨などを排出するコイン排出口22とが備えられる。   Below the right lower surface 17d (below the photographing speaker 20R) are provided a coin insertion slot 21 for inserting coins as a consideration, and a coin discharge slot 22 for discharging unaccepted coins.

照明装置14cの下部には、写真自動販売機1の利用者がプレイ中に荷物を置くことができるように、凹状に荷物置き場23が備えられる。   Below the lighting device 14c, a luggage storage area 23 is provided in a concave shape so that a user of the photo vending machine 1 can place a luggage during play.

また、本体部2の側面の下方には、コインボックス扉24とプリント取出口25とプリント案内部26とが備えられる。コインボックス扉24は、写真自動販売機1をプレイするための対価として投入されたコインを蓄積するボックスを、写真自動販売機1の設置者が取り出すための開閉可能な扉である。プリント取出口25は、本体部2の内部にあるプリンタ11から排出するシールシートを利用者に提供するための取出口である。   A coin box door 24, a print outlet 25, and a print guide 26 are provided below the side surface of the main body 2. The coin box door 24 is an openable / closable door for an installer of the photo vending machine 1 to take out a box for storing coins inserted as a consideration for playing the photo vending machine 1. The print outlet 25 is an outlet for providing the user with a seal sheet discharged from the printer 11 inside the main body 2.

図3はプリント案内部26の具体例を示す図である。プリント案内部26は、液晶またはLED(Light Emitting Diode)などの表示装置であり、外部にどちらの編集部8のシールを印刷中であるかなどの通知、印刷完了の通知、あるいは印刷中に用紙切れ、インク切れ、用紙詰り、メカニカルエラーなどのエラーが発生していることの通知を行なう通知手段としての機能を有する。例えば、第1編集部8aのシールシートを印刷中の場合、第1編集部8aは、青色のデザインが施されているため、図示のように「青コーナー印刷中」などの表示がなされる。このような表示を点滅させることにより、注意喚起することができる。また、スクロール表示させることにより、文字数の制限なく、わかりやすく通知を行なうことができる。   FIG. 3 is a diagram showing a specific example of the print guide unit 26. The print guide unit 26 is a display device such as a liquid crystal or an LED (Light Emitting Diode), and externally notifies which editing unit 8 is printing, notification of completion of printing, or paper during printing. It has a function as notification means for notifying that an error such as running out, running out of ink, paper jam, or mechanical error has occurred. For example, when the sticker sheet of the first editing unit 8a is being printed, the first editing unit 8a has a blue design, so that “blue corner printing is in progress” is displayed as shown. It is possible to call attention by blinking such a display. In addition, by scrolling the display, it is possible to make notifications in an easy-to-understand manner without limiting the number of characters.

また、本体部2には、本体部2の内部の熱を逃がすためのファンや、外部装置への画像の配信、リモートメンテナンスなどの、外部装置との通信を行なうときにケーブルを差込むためのLAN(Local Area Network)ケーブル差込口、内部の装置のメンテナンスを行なうときに開閉可能なメンテナンスドアなどが備えられていることが好ましい。   In addition, a fan for escaping heat inside the main body 2 and a cable for plugging in the main body 2 when communicating with an external device such as image distribution to the external device and remote maintenance are provided. It is preferable that a LAN (Local Area Network) cable insertion port, a maintenance door that can be opened and closed when performing maintenance of an internal device, and the like are provided.

図4は、背面部3と天井部4と床面部5とを写真自動販売機1側から見た斜視図である。天井部4の略中央付近には前方背景装置40aが、天井部4の背面部3に近い位置には後方背景装置40bが配備される(これらをまとめて背景装置40という)。前方背景装置40aと後方背景装置40bとの間には天井照明装置41が配備される。背面部3付近には、側面照明装置42L、42Rとが配備される。床面部5には前方フットスイッチ装置43aと後方左側フットスイッチ装置43bLと、後方右側フットスイッチ装置43bRとが配備される(これらをまとめてフットスイッチ装置43という)。   FIG. 4 is a perspective view of the back surface portion 3, the ceiling portion 4, and the floor surface portion 5 as viewed from the photographic vending machine 1 side. A front background device 40a is disposed near the approximate center of the ceiling portion 4, and a rear background device 40b is disposed near the back surface portion 3 of the ceiling portion 4 (these are collectively referred to as the background device 40). A ceiling lighting device 41 is provided between the front background device 40a and the rear background device 40b. Side illumination devices 42L and 42R are provided in the vicinity of the back surface portion 3. A front foot switch device 43a, a rear left foot switch device 43bL, and a rear right foot switch device 43bR are arranged on the floor surface portion 5 (these are collectively referred to as a foot switch device 43).

[背景装置] [Background equipment]

より詳細に背景装置40の説明をする。   The background device 40 will be described in more detail.

図5は、前方背景装置40aおよび後方背景装置40bの側面図である。前方背景装置40aは、モータ46a(不図示)、巻取装置47a、様々な色や柄の背景ロールカーテン48aなどを含み、背景ロールカーテン48aに施された背景画像が撮影時の被写体の背景を形成し背景手段としての機能を有する。背景ロールカーテン48aは、プレイ時の利用者の選択によって利用者所望の背景画像を施された背景ロールカーテン48aがセットされたり、予め所定の背景ロールカーテン48aが配置されたり、各々の撮影コースに対応した方法で決定され配置される。後方背景装置40bも同様に、モータ46b(不図示)、巻取装置47b、背景ロールカーテン48bで構成される。   FIG. 5 is a side view of the front background device 40a and the rear background device 40b. The front background device 40a includes a motor 46a (not shown), a winding device 47a, a background roll curtain 48a of various colors and patterns, and the like. The background image applied to the background roll curtain 48a represents the background of the subject at the time of shooting. Forms and functions as background means. The background roll curtain 48a is set with a background roll curtain 48a on which a user-desired background image is applied according to the selection of the user at the time of play, or a predetermined background roll curtain 48a is arranged in advance. Determined and arranged in a corresponding manner. Similarly, the rear background device 40b includes a motor 46b (not shown), a winding device 47b, and a background roll curtain 48b.

前方背景装置40aは、顔アップ撮影などの近接撮影時に使用され3種類の背景ロールカーテン48aを有する。後方背景装置40bは主に全身撮影などの遠隔撮影時に使用され5種類の背景ロールカーテン48bを有する。また、背面部3の背景ロールカーテン48bの後方の面にも背景画像が施されているため合計9種類の背景画像が利用できる。   The front background device 40a is used at the time of close-up photography such as face-up photography, and has three types of background roll curtains 48a. The rear background device 40b is mainly used at the time of remote photography such as whole body photography, and has five types of background roll curtains 48b. In addition, since a background image is also provided on the back surface of the background roll curtain 48b of the back surface portion 3, a total of nine types of background images can be used.

近接撮影に用いられる前方背景装置40aの背景ロールカーテン48aは柄の入った背景画像が施される。比較的きれいに撮影したいと思う利用者は、顔アップなどの近接撮影をすることを好むため、このように柄が施されることによって豪華さを演出し、より顔が美しく映えるようにすることができる。   A background image with a pattern is applied to the background roll curtain 48a of the front background device 40a used for close-up photography. Users who want to shoot relatively beautifully prefer close-up photography such as face-up, so this pattern is used to create luxury and make the face look more beautiful. it can.

遠隔撮影に用いられる後方背景装置40bの背景ロールカーテン48bは無地の着色された背景画像が施される。背景ロールカーテン48bは無地であるため、背景柄を合成することができるため背景画像の種類を多くすることができる。   The background roll curtain 48b of the rear background device 40b used for remote photography is given a plain colored background image. Since the background roll curtain 48b is plain, a background pattern can be synthesized, so that the types of background images can be increased.

また、このように前方背景装置40aと後方背景装置40bとを用いることによって、後方背景装置40bを利用した自由な立ち位置での撮影だけでなく、前方背景装置40aを利用した立ち位置を制限した撮影が可能となる。このため、前方背景装置40aを利用した撮影では、照明設定に応じた最適な立ち位置に自然に誘導することが可能となる。   In addition, by using the front background device 40a and the rear background device 40b in this way, not only shooting at a free standing position using the rear background device 40b but also a standing position using the front background device 40a is limited. Shooting is possible. For this reason, in shooting using the front background device 40a, it is possible to naturally guide to an optimum standing position according to the illumination setting.

このような構造である以上、前方背景装置40aと後方背景装置40bとの間には、利用者が位置できる程度の空間があくことがある。このため、利用者が背景ロールカーテン48aと背景ロールカーテン48bとの間に挟まれてしまい、利用者がカメラ12に写らないという問題が考えられる。   As long as it has such a structure, there may be a space between the front background device 40a and the rear background device 40b to allow the user to be positioned. For this reason, the user is sandwiched between the background roll curtain 48a and the background roll curtain 48b, and there is a problem that the user does not appear in the camera 12.

上述のような問題を解決すべく、前方背景装置40aの背景ロールカーテン48aの配置が完了するまでの配置時間が、後方背景装置40bの背景ロールカーテン48bの配置が完了するまでの配置時間より長くなるように制御する。このようにして、利用者が背景ロールカーテン48aと背景ロールカーテン48bとの間に挟まれないようにすることができる。   In order to solve the above problems, the arrangement time until the arrangement of the background roll curtain 48a of the front background device 40a is completed is longer than the arrangement time until the arrangement of the background roll curtain 48b of the rear background device 40b is completed. Control to be. In this way, the user can be prevented from being sandwiched between the background roll curtain 48a and the background roll curtain 48b.

具体的には、CPU101aが制御部110を介して背景制御部115(図14参照)に指示信号を送信することにより、背景ロールカーテン48aの送り出し速度を背景ロールカーテン48bの送り出し速度よりも低速にするよう制御する。   Specifically, the CPU 101a transmits an instruction signal to the background control unit 115 (see FIG. 14) via the control unit 110, so that the sending speed of the background roll curtain 48a is lower than the sending speed of the background roll curtain 48b. Control to do.

すなわち、背景ロールカーテン48aを送り出す速度を、背景ロールカーテン48bを送り出す速度より遅くすることにより、背景ロールカーテン48aの配置時間を長く設定する。   That is, the arrangement time of the background roll curtain 48a is set longer by making the speed at which the background roll curtain 48a is sent out slower than the speed at which the background roll curtain 48b is sent out.

または、背景ロールカーテン48aは降下時に段階的に送り出すよう制御する。すなわち、CPU101aが制御部110を介して背景制御部115(図14参照)に指示信号を送信することにより、背景ロールカーテン48aの送り出し途中で一旦停止を何度か行なうように制御する。   Alternatively, the background roll curtain 48a is controlled to be sent out step by step when descending. That is, the CPU 101a transmits an instruction signal to the background control unit 115 (see FIG. 14) via the control unit 110, so that the CPU 101a is controlled to stop several times during the feeding of the background roll curtain 48a.

すなわち、背景ロールカーテン48aを配置する途中に一旦停止させることにより、背景ロールカーテン48aの配置時間を長く設定する。   That is, the arrangement time of the background roll curtain 48a is set long by temporarily stopping the background roll curtain 48a during the arrangement.

また、前方の背景ロールカーテン48aを使用し、次も前方のロールカーテン48aを使用する場合や、後方の背景ロールカーテン48bを使用し、次も後方のロールカーテン48bを使用する場合や、前方の背景ロールカーテン48aを使用し、次は後方の背景ロールカーテン48bを使用する場合など、背景ロールカーテン48の間に利用者が挟まれる恐れがない場合は、先に使用した背景ロールカーテン48を巻き上げるのと同時に、次に使用する背景ロールカーテン48を送り出すように制御するが、後方の背景ロールカーテン48bを使用し、次に前方の背景ロールカーテン48aを使用する場合は、後方の背景ロールカーテン48bの巻き上げが完了した後に、前方の背景ロールカーテン48aを送り出すよう制御する。   Further, when the front background roll curtain 48a is used, the front roll curtain 48a is used again, the back background roll curtain 48b is used, and the rear roll curtain 48b is used again, or the front roll curtain 48a is used. When there is no possibility that the user is caught between the background roll curtains 48, such as when the background roll curtain 48a is used and then the rear background roll curtain 48b is used, the previously used background roll curtain 48 is wound up. At the same time, the background roll curtain 48 to be used next is controlled to be sent out, but when the rear background roll curtain 48b is used and then the front background roll curtain 48a is used, the rear background roll curtain 48b is used. After the completion of winding, the front background roll curtain 48a is controlled to be sent out.

すなわち、背景ロールカーテン48bが配置されており、その次に背景ロールカーテン48aを使用する場合に、背景ロールカーテン48bの巻き取りが完了した後に、背景ロールカーテン48aを送り出すことにより、背景ロールカーテン48aの配置時間を長く設定する。   That is, when the background roll curtain 48b is arranged and then the background roll curtain 48a is used, after the winding of the background roll curtain 48b is completed, the background roll curtain 48a is sent out, thereby the background roll curtain 48a. Set a longer placement time.

このように制御することにより、背景ロールカーテン48aを完全に送り出して、所定の位置に配置する前に、背景ロールカーテン48aを送り出していることを利用者に認識させやすくすることができるため、利用者は背景ロールカーテン48aよりカメラ12寄りの位置へ移動することができる。このため、利用者が背景ロールカーテン48aと背景ロールカーテン48bとの間に挟まれないようにすることができる。   By controlling in this way, the background roll curtain 48a is completely sent out, and it can be made easier for the user to recognize that the background roll curtain 48a is being sent out before placing it in a predetermined position. The person can move to a position closer to the camera 12 than the background roll curtain 48a. For this reason, a user can be prevented from being pinched between the background roll curtain 48a and the background roll curtain 48b.

また、CPU101aは、前方の背景ロールカーテン48を送り出すときには、送り出すことの案内を、撮影操作モニタ18に表示したり、スピーカ20から音声を出力したりする。例えば、撮影操作モニタ18には、「前の背景カーテンが降りてくるから、前に出て!」などと表示して利用者に対して注意喚起する。   Further, when the CPU 101a sends out the front background roll curtain 48, the CPU 101a displays guidance for sending it out on the photographing operation monitor 18 or outputs sound from the speaker 20. For example, on the photographing operation monitor 18, “Before the background curtain comes down, come out!” Is displayed to alert the user.

このように、撮影操作モニタ18やスピーカ20は、背景ロールカーテン48aを配置することを案内する案内手段としての機能を有する。   As described above, the photographing operation monitor 18 and the speaker 20 have a function as guidance means for guiding the placement of the background roll curtain 48a.

このような案内によって利用者に注意喚起を行なうことによって、より効果的に背景カーテンが降下してくることを利用者に認識させることができる。   By alerting the user with such guidance, it is possible to make the user recognize that the background curtain descends more effectively.

また、複数回の撮影において、前方の背景ロールカーテン48aを使用する撮影の後に、後方の背景ロールカーテン48bを使用する撮影を行なうよう設定するようにしてもよい。   Further, in a plurality of times of shooting, it may be set such that shooting using the back background roll curtain 48b is performed after shooting using the front background roll curtain 48a.

すなわち、本写真自動販売機は、背景ロールカーテン48aを使用する撮影の後に、背景ロールカーテン48bを使用する撮影を行なうよう設定する設定手段を備える。   That is, the present photo vending machine includes setting means for setting to perform shooting using the background roll curtain 48b after shooting using the background roll curtain 48a.

このように設定することにより、利用者は最初に前方の背景ロールカーテン48aの前に位置しているので、次の撮影で後方の背景ロールカーテン48bが降下してきたとしても、背景ロールカーテン48aと背景ロールカーテン48bとの間に挟まれることがない。   By setting in this way, since the user is initially positioned in front of the front background roll curtain 48a, even if the rear background roll curtain 48b descends in the next shooting, the background roll curtain 48a It is not sandwiched between the background roll curtain 48b.

また、背景ロールカーテン48aの幅方向の長さは、背景ロールカーテン48bの幅方向の長さより、カメラ12の撮影範囲に収まる程度に短くする。   Further, the length in the width direction of the background roll curtain 48a is made shorter than the length in the width direction of the background roll curtain 48b so as to be within the photographing range of the camera 12.

このようにすることで、万が一、背景ロールカーテン48aと背景ロールカーテン48bとの間に挟まれてしまったとしても、背景ロールカーテン48aよりもカメラ12側に容易に移動することができる。   By doing in this way, even if it is sandwiched between the background roll curtain 48a and the background roll curtain 48b, it can be easily moved to the camera 12 side than the background roll curtain 48a.

以上が、背景装置の説明である。   The above is the description of the background device.

[照明装置] [Lighting device]

より詳細に照明装置の説明をする。   The lighting device will be described in more detail.

図6および図7は、前面照明装置14の内部構造を示す図である。前面照明装置14の内部には蛍光灯15も配備されているが、図6、図7においては図示を省略する。   6 and 7 are diagrams showing the internal structure of the front illumination device 14. A fluorescent lamp 15 is also provided inside the front illumination device 14, but is not shown in FIGS. 6 and 7.

前面照明装置14の内部は白色に塗装され、適宜な空間を有している。それぞれ蛍光灯15などの常灯照明とストロボ16などの閃光照明(フラッシュ)とストロボ16から出射した光を反射する黒色の反射板30を有しており、外部に接する面は、乳白色のアクリルパネルなどの拡散板31が配備されている。   The interior of the front illumination device 14 is painted white and has an appropriate space. Each has an ordinary lamp illumination such as a fluorescent lamp 15, a flash illumination (flash) such as a strobe 16, and a black reflecting plate 30 that reflects light emitted from the strobe 16, and the surface in contact with the outside is a milky white acrylic panel A diffusing plate 31 is provided.

ストロボ16は、利用者から撮影の開始が指示され、カメラ12のシャッタ動作が行なわれると、カメラ12のシャッタ動作のタイミングに合わせて発光する。ストロボ16から発光した光は照明装置14の内部で反射を繰り返し、拡散板31の面から光を拡散して出射することによって、被写体である利用者を前面から照明する。   The strobe 16 emits light in accordance with the timing of the shutter operation of the camera 12 when the user gives an instruction to start photographing and the shutter operation of the camera 12 is performed. The light emitted from the strobe 16 is repeatedly reflected inside the illuminating device 14, and diffuses and emits the light from the surface of the diffusion plate 31, thereby illuminating the user who is the subject from the front.

図6を参照して、前面照明装置14aと前面照明装置14bとは左右対称でカメラ12の両隣に配備され、ストロボ16a、16bはそれぞれ前面照明装置14の内部の中央付近に配備される。撮影空間への照射面である拡散板31a、31bの方向とは逆のやや斜め上方を向いて照射するよう配備され、上部照明手段として機能する。ストロボ16a、16bの照射方向の先には、それぞれ黒色に施された反射板30a、30bが配備されている。拡散板31a、31bは天井方向に向かうにつれて前方に突出して配備される。また、拡散板31a、31bは曲面で構成されている。もちろん、拡散板31a、31bは平面でも構わない。   Referring to FIG. 6, the front lighting device 14 a and the front lighting device 14 b are symmetrically arranged on both sides of the camera 12, and the strobes 16 a and 16 b are respectively arranged near the center inside the front lighting device 14. It is arranged to irradiate slightly upward and opposite to the direction of the diffusion plates 31a and 31b that are the irradiation surfaces to the imaging space, and functions as an upper illumination means. Reflecting plates 30a and 30b, which are provided in black, are provided at the ends of the strobes 16a and 16b in the irradiation direction. The diffusing plates 31a and 31b are arranged so as to protrude forward as they go toward the ceiling. Further, the diffusion plates 31a and 31b are formed of curved surfaces. Of course, the diffusion plates 31a and 31b may be flat.

前面照明装置14a、14bは、主に被写体の顔部分を照明する。被写体の顔部分を照明するとき、ストロボ16a、16bの光量が強すぎると白飛びしてしまい、美しい写り具合が実現できない。反射板30a、30bを黒色に施すことによって、ストロボ16a、16bから出射される光をある程度吸収する。このようにすることによって、顔に照射する光量を適宜な量に抑制することができる。また、顔部分の肌色に黒色が入ることによって引き締まった印象の写り具合を実現することができる。   The front illumination devices 14a and 14b mainly illuminate the face portion of the subject. When illuminating the face portion of the subject, if the light intensity of the strobes 16a and 16b is too strong, the image will be blown out and a beautiful image cannot be realized. By applying the reflectors 30a and 30b to black, the light emitted from the strobes 16a and 16b is absorbed to some extent. By doing in this way, the light quantity irradiated to a face can be suppressed to an appropriate quantity. In addition, it is possible to realize a tight impression when black is added to the skin color of the face portion.

図7を参照して、前面照明装置14cは前面照明装置14a、14bの下部に配備される。ストロボ16cは、拡散板31dの方向に照射するように配備され、下部照明手段として機能する。内部の底面の中央付近には、黒色に施された反射板30cが配備されている。拡散板31cは床方向に向かうにつれて前方に突出して配備される。また、拡散板31cは曲面で構成されている。拡散板31dは本体部2の中央下部の垂直な面の上方に配備される。   Referring to FIG. 7, front illumination device 14c is disposed below front illumination devices 14a and 14b. The strobe 16c is arranged to irradiate in the direction of the diffusion plate 31d and functions as a lower illumination unit. A black reflecting plate 30c is provided near the center of the inner bottom surface. The diffusion plate 31c is arranged to protrude forward as it goes in the floor direction. Further, the diffusion plate 31c is formed of a curved surface. The diffusion plate 31d is disposed above the vertical surface at the lower center of the main body 2.

上述のように前面照明装置14cは、拡散板31cと拡散板31dとの2つの出射面を有する。拡散板31cから出射する光は主に被写体を顔部分を下部から照明する。このようにすることで、照明装置14a、14bから出射される光と照明装置14cの拡散板31cの面から出射される光とが干渉しあい、被写体の顔部分を適宜な光量で照射することができる。一方、拡散板31dから出射する光は主に被写体の足元や下方を照明する。このようにすることで、暗くなりやすい被写体の足元付近も明るく照明することができる。   As described above, the front illuminating device 14c has two emission surfaces of the diffusion plate 31c and the diffusion plate 31d. The light emitted from the diffusing plate 31c mainly illuminates the subject from the lower part of the face. By doing so, the light emitted from the illuminating devices 14a and 14b and the light emitted from the surface of the diffusion plate 31c of the illuminating device 14c interfere with each other, and the face portion of the subject can be irradiated with an appropriate amount of light. it can. On the other hand, the light emitted from the diffusing plate 31d mainly illuminates the foot and the lower part of the subject. In this way, it is possible to illuminate the vicinity of the foot of a subject that tends to be dark.

上述の上部照明手段14a、14bと下部照明手段14cとは前面照明手段として機能する。   The upper illumination means 14a and 14b and the lower illumination means 14c described above function as front illumination means.

図8は、天井照明装置41と、側面照明装置42L、42Rの斜視図である。   FIG. 8 is a perspective view of the ceiling lighting device 41 and the side lighting devices 42L and 42R.

天井照明装置41は被写体を斜め上方の後背面から照射し、側面照明装置42L、42Rは被写体を側面から照射する。   The ceiling illuminating device 41 irradiates the subject from an obliquely upper rear surface, and the side illumination devices 42L and 42R irradiate the subject from the side surface.

天井照明装置41と、側面照明装置42L、42Rとは、いずれも内部は前面照明装置14と同様に蛍光灯15(不図示)などの常灯照明とストロボ16(不図示)などの閃光照明(フラッシュ)を有している。外部に接する面は、同様に乳白色のアクリルパネルなどの拡散板31e〜31gで形成しているが、さらに拡散板31e〜31gの前面にグリッドと呼ばれる格子状の部材を備えている。グリッドは黒色が施され、拡散板31から出射された散乱光を吸収し擬似的に平行光とする。   Both the ceiling lighting device 41 and the side lighting devices 42L and 42R are internally illuminated in the same manner as the front lighting device 14, such as a normal lamp illumination such as a fluorescent lamp 15 (not shown) and a flash illumination such as a strobe 16 (not shown). Have a flash). The surface in contact with the outside is similarly formed of diffusion plates 31e to 31g such as milky white acrylic panels, and further, a lattice-like member called a grid is provided on the front surface of the diffusion plates 31e to 31g. The grid is black and absorbs scattered light emitted from the diffusion plate 31 to make it pseudo parallel light.

このような天井照明装置41や側面照明装置42L、42Rを使用することにより、光が被写体の後背面に向かって平行に照射されるようになされている。このような照明を使用することで、被写体の髪に天使の輪を光らせたりするなど、髪の毛を美しく撮影することができる。   By using such a ceiling lighting device 41 and side lighting devices 42L and 42R, light is irradiated in parallel toward the back and back of the subject. By using such illumination, hair can be beautifully photographed, such as shining an angel's ring on the subject's hair.

上述の天井照明装置41と、側面照明装置42L、42Rとは後方照明手段として機能する。   The ceiling lighting device 41 and the side lighting devices 42L and 42R function as a back lighting means.

以上が照明装置の説明である。上述のような照明装置を利用した照明設定については後に詳細を説明する。   The above is the description of the lighting device. Details of the illumination setting using the illumination device as described above will be described later.

[背景装置と照明装置との関係] [Relationship between background device and lighting device]

再び図1を参照して、背景装置40a、40bと、前面照明装置14a、14bと、天井照明装置41との配置関係の説明をする。   Referring to FIG. 1 again, the arrangement relationship among the background devices 40a and 40b, the front lighting devices 14a and 14b, and the ceiling lighting device 41 will be described.

前面照明装置14a、14bは、本体部2に配備されるカメラ12の上方に撮影空間6側に突出するように配置され、撮影空間6への照射面である拡散板31a、31bを備える。そのさらに撮影空間6の後方側に、前方背景装置40aは配置されている。   The front illumination devices 14 a and 14 b are disposed above the camera 12 arranged in the main body 2 so as to protrude toward the imaging space 6, and include diffusion plates 31 a and 31 b that are irradiation surfaces to the imaging space 6. Further, a front background device 40a is arranged on the rear side of the photographing space 6.

前面照明装置14a、14bは、上述のような位置に配置することによって、前方背景装置40aの背景ロールカーテン48aを使用した撮影の場合に、被写体を上方から効果的に照明することができる。   By arranging the front illumination devices 14a and 14b at the positions as described above, the subject can be effectively illuminated from above in the case of shooting using the background roll curtain 48a of the front background device 40a.

天井照明装置41は、撮影空間6の略中央付近に配置され撮影時の背景となる複数の背景ロールカーテン48aを収納する前方背景装置40aと、前方背景装置40aより撮影空間6の後方側に配置され撮影時の背景となる複数の背景ロールカーテン48bを収納する後方背景装置40bとの間に配置され、撮影空間6への照射面である拡散板31eを備える。   The ceiling lighting device 41 is disposed near the center of the photographing space 6 and accommodates a plurality of background roll curtains 48a serving as a background at the time of photographing, and is disposed on the rear side of the photographing space 6 with respect to the front background device 40a. And a diffusing plate 31e that is disposed between the rear background device 40b that houses a plurality of background roll curtains 48b serving as a background at the time of photographing and is an irradiation surface to the photographing space 6.

天井照明装置41は、上述のような位置に配置することによって、後方背景装置40bの背景ロールカーテン48bを使用した撮影の場合に、被写体を上方から効果的に照明することができる。   The ceiling lighting device 41 can effectively illuminate the subject from above in the case of shooting using the background roll curtain 48b of the rear background device 40b by being arranged at the position as described above.

上述のように、前方背景装置40aと後方背景装置40bとを備えることで、バリエーション豊かな背景を提供することができる。   As described above, by providing the front background device 40a and the rear background device 40b, a rich background can be provided.

また、背景ロールカーテン48aを収納する前方背景装置40aは、略中央付近に配置されているため、撮影時に背景ロールカーテン48aを使用する場合、被写体の立ち位置を制限することが可能になる。このことによって後述するような「うる肌」などの顔アップ撮影(近接撮影)の照明を効果的に行なうことができる。   In addition, since the front background device 40a that houses the background roll curtain 48a is disposed in the vicinity of the center, it is possible to limit the standing position of the subject when the background roll curtain 48a is used during shooting. This makes it possible to effectively illuminate face-up photography (proximity photography) such as “Ulable skin” as will be described later.

[フットスイッチ装置] [Foot switch device]

より詳細にフットスイッチ装置43の説明をする。   The foot switch device 43 will be described in more detail.

フットスイッチ装置43は、後に説明する撮影コースの内「フットシャッター」コースにおいて使用される。図4が図示するように、写真自動販売機1の撮影空間6の床面部5に配備されており、利用者の踏み込み動作によって、カメラ12のシャッタ動作が行なわれる。   The foot switch device 43 is used in a “foot shutter” course among shooting courses described later. As shown in FIG. 4, the camera 12 is provided on the floor 5 of the photographing space 6 of the photo vending machine 1, and the shutter operation of the camera 12 is performed by the user's stepping operation.

図9は撮影空間6の床面部5に配備されるフットスイッチ装置43の配置を上方から見た図である。   FIG. 9 is a view of the arrangement of the foot switch device 43 provided on the floor 5 of the imaging space 6 as viewed from above.

フットスイッチ装置43は、本体部2に近い側に配備される前方フットスイッチ装置43aと、背面部3に近い側に配備される後方左側フットスイッチ装置43bLと、後方右側フットスイッチ装置43bRとがある(これらをまとめ後方フットスイッチ装置43bという)。なお、前方フットスイッチ装置43aと後方フットスイッチ装置43bとを総称してフットスイッチ装置43という。   The foot switch device 43 includes a front foot switch device 43a disposed on the side close to the main body 2, a rear left foot switch device 43bL disposed on the side close to the back surface 3, and a rear right foot switch device 43bR. (These are collectively referred to as the rear foot switch device 43b). The front foot switch device 43a and the rear foot switch device 43b are collectively referred to as a foot switch device 43.

前方フットスイッチ装置43aは、本体部3の幅方向に長い概略長方形状をなしており、後方フットスイッチ装置43bは、人足より少し大きくなっている。また、前方フットスイッチ装置43aと後方フットスイッチ装置43bとの間はカメラ12の撮影方向に向かって距離があいている。このため、各々のフットスイッチ装置43の間には適宜な空間があり、利用者は撮影操作モニタ18に表示される指示に従って、様々な位置のフットスイッチ装置43を踏込動作をすることになる。「フットシャッター」コースでは、フットスイッチ装置43が、利用者に踏込動作されることによってシャッタ動作が行なわれるため、利用者は楽しみながら様々な位置で撮影を行なうことができる。   The front foot switch device 43a has a substantially rectangular shape that is long in the width direction of the main body 3, and the rear foot switch device 43b is slightly larger than a human foot. The front foot switch device 43a and the rear foot switch device 43b are spaced from each other in the shooting direction of the camera 12. For this reason, there is an appropriate space between the foot switch devices 43, and the user steps on the foot switch devices 43 at various positions in accordance with instructions displayed on the photographing operation monitor 18. In the “foot shutter” course, the foot switch device 43 is operated by being stepped on by the user, so that the user can take pictures at various positions while having fun.

図10はフットスイッチ装置43の側面図である。   FIG. 10 is a side view of the foot switch device 43.

図示のように、フットスイッチ装置43は、スイッチ部50と、基底部51と踏込部52と基底部51と踏込部52とを回転可能に保持する回転軸部53とを含んで構成される。利用者によって踏込部52を踏込動作されることによって、回転可能な踏込部52はスイッチ部50に接触し、スイッチ部50はオン信号を制御部110に送信する。前方フットスイッチ装置43aは、踏込部52の面積が広いため、スイッチ部50が複数(ここでは2個)配備される。   As shown in the figure, the foot switch device 43 includes a switch unit 50, a base unit 51, a stepping unit 52, and a rotating shaft unit 53 that rotatably holds the base unit 51 and the stepping unit 52. When the user steps on the stepping unit 52, the rotatable stepping unit 52 contacts the switch unit 50, and the switch unit 50 transmits an ON signal to the control unit 110. Since the front foot switch device 43a has a large area of the stepping portion 52, a plurality (two in this case) of the switch portions 50 are provided.

写真自動販売機1でフットスイッチ装置43を使用する場合に、フットスイッチ装置43が小型であると、撮影時に利用者はフットスイッチ装置43に気をとられてしまい、撮影時のポーズがとりにくいという問題があった。   When the foot switch device 43 is used in the photo vending machine 1, if the foot switch device 43 is small, the user is distracted by the foot switch device 43 at the time of shooting, and it is difficult to pose at the time of shooting. There was a problem.

また、フットスイッチ装置43が小型の場合に、利用者がフットスイッチ装置43の踏込み動作をする位置が限定されてしまい、自由な位置どりで撮影ができないという問題があった。   Further, when the foot switch device 43 is small, there is a problem that the position where the user steps on the foot switch device 43 is limited, and photographing cannot be performed at a free position.

しかしながら、利用者が踏みやすい程度の大きさのフットスイッチ装置43は、製造コストが高くなるという問題があった。 However, the foot switch device 43 that is large enough to be easily stepped on by the user has a problem that the manufacturing cost is high.

本実施の形態のフットスイッチ装置43においては、上述のように市販の小さなスイッチ(スイッチ部50)より、大きな基底部51と踏込部52とを被せることによって、簡単な機構、かつ低コストで面積が広いフットスイッチ装置43を実現する。   In the foot switch device 43 of the present embodiment, as described above, by covering the large base portion 51 and the stepping portion 52 over the commercially available small switch (switch portion 50), the area is simple and the cost is low. A wide foot switch device 43 is realized.

このことによって、利用者はフットスイッチ装置43を使用して、自由な位置どりで、撮影時のポーズも気にしながら、遊戯性の高い撮影ができる。また、製造コストを低減することができる。   Thus, the user can use the foot switch device 43 to perform shooting with high playability while taking a free position and taking care of the pose at the time of shooting. In addition, the manufacturing cost can be reduced.

なお、フットスイッチ装置43は内部のスイッチ部50は同じであるため、踏込部52の形状はどのような形態でも構わない。丸型やホームベース型など様々な形状で実現できる。また、このような写真自動販売機1は、バージョンアップ等によって遊戯の形態が変更することがある。さらに、遊戯の形態によっては、踏込部52の形状や配置を変更することがある。このような場合、踏込部52の変更のみでフットスイッチ装置43の形状を変更することができるため低コストである。   In addition, since the foot switch device 43 has the same internal switch unit 50, the shape of the stepping unit 52 may be any form. It can be realized in various shapes such as round and home base. In addition, such a photo vending machine 1 may change the form of play due to version upgrade or the like. Furthermore, the shape and arrangement of the stepping portion 52 may be changed depending on the form of play. In such a case, since the shape of the foot switch device 43 can be changed only by changing the stepping portion 52, the cost is low.

以上が、フットスイッチ装置43の説明である。   The above is the description of the foot switch device 43.

[写真自動販売機の編集空間の構成] [Configuration of photo vending machine editing space]

次に写真自動販売機1の編集空間7の構成の説明を行なう。   Next, the configuration of the editing space 7 of the photo vending machine 1 will be described.

図11は、写真自動販売機1の本体部2の背面に形成される第1編集部8aを第1編集空間7a側から見た斜視図である。図12は、写真自動販売機1の背面部3の背面に形成される第2編集部5bを第2編集空間7b側から見た斜視図である。第1編集部8aと第2編集部8bは同様な構成であるため、第1編集部8aでまとめて説明をする。   FIG. 11 is a perspective view of the first editing unit 8a formed on the back surface of the main body 2 of the photo vending machine 1 as viewed from the first editing space 7a side. FIG. 12 is a perspective view of the second editing unit 5b formed on the back surface of the back surface unit 3 of the photo vending machine 1 as viewed from the second editing space 7b side. Since the first editing unit 8a and the second editing unit 8b have the same configuration, the first editing unit 8a will be described together.

第1編集部8aは、撮影により得られた画像を表示して画像の編集を受付ける透明なタッチパネル61aが積層されている編集操作モニタ60aと、画像入力を行なうための
複数のタッチペン62aL、62aRと、利用者に対し音楽や操作方法の説明などを音声で出力する編集側スピーカ63aと、夫々のタッチペンを使用しないときに置いておくタッチペンフォルダ64aL、64aRとが備えられる。編集操作モニタ60aにはデータが表示され、タッチパネル61aは、タッチペン62aL、62aRでタッチされることによって行なわれる入力を検出する。このようにして、撮影画像に落書き用画像を入力するいわゆる落書きと呼ばれる編集操作を行なうことができる。
The first editing unit 8a includes an editing operation monitor 60a on which a transparent touch panel 61a that displays an image obtained by photographing and accepts editing of the image is stacked, and a plurality of touch pens 62aL and 62aR for inputting images. The editing side speaker 63a for outputting a description of music and operation methods to the user by voice and touch pen folders 64aL and 64aR to be placed when the respective touch pens are not used are provided. Data is displayed on the editing operation monitor 60a, and the touch panel 61a detects an input made by touching with the touch pens 62aL and 62aR. In this way, it is possible to perform an editing operation called so-called graffiti in which an image for graffiti is input to the photographed image.

また、以降の説明では同様の説明を行なう場合には、編集操作モニタ60a、bをまとめて編集操作モニタ60、タッチパネル61a、bをまとめてタッチパネル61、タッチペン62aL、62aR、62bL、62bRをまとめてタッチペン62、編集側スピーカ63a、bをまとめて編集側スピーカ63、タッチペンフォルダ64aL、64aR、64bL、64bRをまとめてタッチペンフォルダ64という。   In the following description, when the same description is performed, the editing operation monitors 60a and 60b are combined and the editing operation monitor 60 and the touch panels 61a and 61b are combined. The touch pen 62 and the editing speakers 63a and 63b are collectively referred to as the editing speaker 63 and the touch pen folders 64aL, 64aR, 64bL, and 64bR are collectively referred to as a touch pen folder 64.

なお、本体部2の内部にはコンピュータ装置101などの各種機器類が配備されているため熱が篭りやすい。このため本体部2の背面にあたる第1編集部8a側には、熱排出口65a、65bが設けられている。   It should be noted that since various devices such as the computer apparatus 101 are arranged inside the main body 2, heat is easily generated. For this reason, heat exhaust ports 65 a and 65 b are provided on the first editing unit 8 a side, which is the back surface of the main body unit 2.

図13は、タッチペンフォルダ64と、タッチペン62とを示す図である。従来、タッチペン62は、使用していないときに置き場所がなくて、ぶらさがった状態のまま放置されたり、置き場所があったとしても利用者にその場所には置いてもらえなかったり、置き場所にきちんと置かれていたとしてもその位置に固定するのが難しいという問題があった。また、上述のようにぶらさがった状態であると、様々な所にタッチペン62が衝突しやすくなるため、タッチペン62が壊れやすくなってしまうという問題があった。   FIG. 13 is a diagram showing the touch pen folder 64 and the touch pen 62. Conventionally, the touch pen 62 has no place when it is not in use and is left in a hanging state, or even if there is a place, the user cannot place it there, Even if it was placed properly, there was a problem that it was difficult to fix in that position. Moreover, since the touch pen 62 easily collides with various places when it is in a hanging state as described above, there is a problem that the touch pen 62 is easily broken.

このような問題を檻みて、夫々のタッチペン62に対し図13(A)が図示するように利用者にわかりやすい位置に、タッチペン62を置きやすいタッチペンフォルダ64を設ける。このようにすることで利用者は、図13(B)が図示するようにタッチペン62をタッチペンフォルダ64に置くことができ、タッチペン62がぶらさがった状態のまま放置されることを防止し、タッチペン62の故障を抑制することができる。   Taking such problems into consideration, a touch pen folder 64 is provided for each touch pen 62 so that the user can easily place the touch pen 62 at a position that is easy for the user to understand, as shown in FIG. In this way, the user can place the touch pen 62 in the touch pen folder 64 as shown in FIG. 13B, and the touch pen 62 is prevented from being left hanging. Can be prevented.

[写真自動販売機の機能構成] [Functional configuration of photo vending machine]

次に、写真自動販売機1の機能構成の具体例を図14の概略機能ブロック図で示す。   Next, a specific example of the functional configuration of the photo vending machine 1 is shown in the schematic functional block diagram of FIG.

図14を参照して、本実施の形態にかかる写真自動販売機1は、各機能や処理動作のための演算、制御の中心部となる撮影・印刷用コンピュータ装置100a、編集用コンピュータ装置100bと(これらをまとめてコンピュータ装置100という)、基板から構成され、コンピュータ装置100からの指示を受けて、接続してある各種装置を制御、駆動する制御部110とを備える。   Referring to FIG. 14, a photo vending machine 1 according to the present embodiment includes a computer device 100a for photographing / printing and a computer device 100b for editing serving as a central part of calculation and control for each function and processing operation. (Collectively referred to as a computer device 100), which includes a control unit 110 that is configured of a board and controls and drives various devices connected thereto in response to an instruction from the computer device 100.

写真自動販売機1は、電源を必要とする蛍光灯15、ストロボ16などの電源系統を制御する電源制御部112を備え、外部からそれらの装置に対する電源の電圧を安定させるよう制御する。図示はしていないが、電源制御部112はストロボ16などの他にも電源を必要とする機器に接続し、同様の制御を行なう。さらに、そのような電源の投入および切断は、電源スイッチ111を押すことで行なわれる。しかし、電源切断によりコンピュータ装置100で動作しているプログラムを強制的に終了させることは、動作を不安定にさせる原因となる。そのため、電源が落とされても、しばらくはUPS(Uninterrupted Power Supply)113が電源をバックアップし、コンピュータ装置100に停電信号を送信する。その間に、コンピュータ装置100はプログラムの終了の手続を行ない、プログラムを正常に終了させる。一方、コンピュータ装置100を正規の手順で終了した場合は、その旨の信号がUPS113に送信される。   The photo vending machine 1 includes a power supply control unit 112 that controls a power supply system such as a fluorescent lamp 15 and a strobe 16 that require a power supply, and controls the power supply voltage for these devices from the outside to be stabilized. Although not shown, the power controller 112 is connected to a device that requires a power source in addition to the strobe 16 and performs the same control. Further, such turning on and off of the power is performed by pressing the power switch 111. However, forcibly terminating a program running on the computer device 100 by turning off the power causes the operation to become unstable. Therefore, even if the power is turned off, the UPS (Uninterrupted Power Supply) 113 backs up the power for a while and transmits a power failure signal to the computer apparatus 100. In the meantime, the computer apparatus 100 performs a program termination procedure and terminates the program normally. On the other hand, when the computer apparatus 100 is terminated in a regular procedure, a signal to that effect is transmitted to the UPS 113.

コンピュータ装置100は、コンピュータ装置100の中心部として演算処理を行なう演算装置であるCPU(Central Processing Unit)101と、装置を動作させるためのプログラムおよびプログラムで必要なグラフィックデータ、音声データ、撮影された画像や撮影画像に対して入力した編集画像その他の各種画像などを記憶する記憶部102と、プログラムの一時的な作業領域ともなるメモリ103と、カメラ、各種モニタ、プリンタどの周辺機器を制御するためのソフトウェアであるドライバ104(不図示)と、LANケーブルを介して外部機器と接続された場合に通信を行なう通信部105(不図示)とを含む。また、入出力インターフェイス106(不図示)を備え、必要に応じて、磁気ディスクや光ディスクや光磁気ディスク、または半導体メモリが装着される。   The computer apparatus 100 includes a CPU (Central Processing Unit) 101 that is an arithmetic apparatus that performs arithmetic processing as a central part of the computer apparatus 100, a program for operating the apparatus, graphic data necessary for the program, audio data, and a photograph. For controlling peripheral devices such as a storage unit 102 for storing edited images and other various images input to images and captured images, a memory 103 serving as a temporary work area for programs, and cameras, various monitors, and printers. And a communication unit 105 (not shown) that performs communication when connected to an external device via a LAN cable. Also, an input / output interface 106 (not shown) is provided, and a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is mounted as necessary.

コンピュータ装置100は、電源の投入及び切断を制御する電源スイッチ111が押され、本装置に電源プラグより電源が投入されると、プログラムが起動されて動作を開始する。撮影・印刷用コンピュータ装置100aは、接続されるカメラ12のシャッタタイミングや、ライブモニタ13および撮影操作モニタ18での表示や、プリンタ11での出力を制御する。編集用コンピュータ装置100bは、接続される編集操作モニタ60での表示を制御する。   In the computer apparatus 100, when the power switch 111 for controlling the turning on and off of the power is pressed and the power is turned on from the power plug to the apparatus, the program is started and the operation is started. The photographing / printing computer device 100 a controls the shutter timing of the connected camera 12, the display on the live monitor 13 and the photographing operation monitor 18, and the output on the printer 11. The editing computer device 100b controls display on the connected editing operation monitor 60.

なお、このような写真自動販売機は、従来はカメラ12のAV出力端子とライブモニタ13のAV入力端子を接続して、カメラ12が撮像する映像を直接ライブモニタ13に表示していた。本実施の形態においては、ライブモニタ13にカメラ12が撮像する映像だけでなく、撮影動作に関する情報を表示するため、ライブモニタ13は、撮影・印刷用コンピュータ装置100aに接続されている。   Incidentally, such a photo vending machine conventionally connects the AV output terminal of the camera 12 and the AV input terminal of the live monitor 13 and directly displays the video imaged by the camera 12 on the live monitor 13. In the present embodiment, the live monitor 13 is connected to the photographing / printing computer apparatus 100a in order to display not only the video imaged by the camera 12 but also information related to the photographing operation on the live monitor 13.

撮影・印刷用コンピュータ装置100aのCPU101aは、カメラ12が撮像する映像(ライブ映像)と、記憶部102aに記憶されている撮影動作に関する情報とをライブモニタ13に表示する。ライブモニタ13への表示は、プログラムに応じてライブ映像のみを表示したり、撮影動作に関する情報を表示したり、ライブ映像と撮影動作に関する情報とを合成して表示したりする。ライブ映像と撮影動作に関する情報との合成は撮影・印刷用コンピュータ装置100aの記憶部102aに記憶されているソフトウェアで行なってもよいし、このような合成をするための専用の制御装置(基板)をライブモニタ13に接続するなどハードウェアで行なってもよい。   The CPU 101a of the imaging / printing computer apparatus 100a displays the video (live video) captured by the camera 12 and the information related to the imaging operation stored in the storage unit 102a on the live monitor 13. The display on the live monitor 13 displays only a live video according to a program, displays information related to a shooting operation, or combines and displays live video and information related to a shooting operation. The composition of the live image and the information related to the photographing operation may be performed by software stored in the storage unit 102a of the photographing / printing computer apparatus 100a, or a dedicated control device (substrate) for performing such composition. May be performed by hardware such as connecting to the live monitor 13.

また、撮影・印刷用コンピュータ装置100aは、上記プログラムの実行や、タッチパネル19から受信した、利用者の指などでタッチされる入力操作にしたがった指示信号に基づいて、制御部110に対して制御信号を送信する。編集用コンピュータ装置100bは、タッチパネル61から受信した、タッチペン62でタッチされる入力操作にしたがった指示信号に基づいて、制御部110に対して制御信号を送信する。   The photographing / printing computer apparatus 100a controls the control unit 110 based on the instruction signal according to the execution of the program and the input operation received from the touch panel 19 and touched with the user's finger. Send a signal. The editing computer device 100 b transmits a control signal to the control unit 110 based on the instruction signal received from the touch panel 61 and according to the input operation touched with the touch pen 62.

プリンタ11は、撮影された画像を紙やシールや金属やプラスチックなどの印刷媒体に印刷するためのプリンタであって、昇華型プリンタやサーモオートクローム方式(光定着型直接感熱記録方式)等のプリンタが一般的に用いられる。なお、写真自動販売機は、プリンタ11でシールが印刷されるものとして説明を行なうが、印刷媒体はシールに限定されず、他の印刷媒体であっても同様の処理が実行される。   The printer 11 is a printer for printing a photographed image on a printing medium such as paper, sticker, metal, or plastic, and is a printer such as a sublimation type printer or a thermoautochrome type (light-fixing type direct thermal recording type). Is generally used. The photo vending machine will be described on the assumption that the sticker is printed by the printer 11, but the print medium is not limited to the sticker, and the same processing is executed even for other print media.

プリンタ11は、上述の用紙切れなどの状態を撮影・印刷用コンピュータ装置100aに通知する。撮影・印刷用コンピュータ装置100aは、その状態に応じて制御部110に制御信号を送信する。   The printer 11 notifies the photographing / printing computer device 100a of the above-described state such as running out of paper. The photographing / printing computer apparatus 100a transmits a control signal to the control unit 110 according to the state.

制御部110は、撮影・印刷用コンピュータ装置100a、編集用コンピュータ装置100bおよび電源制御部112の他に、ストロボ制御部114、撮影側スピーカー20L、R、フットスイッチ装置43a、43b、背景制御部115、サービスパネル116、コイン制御部117、編集側スピーカ63a、63b、プリント案内部26に接続される。   In addition to the photographing / printing computer device 100a, the editing computer device 100b, and the power control unit 112, the control unit 110 includes a strobe control unit 114, photographing speakers 20L and R, foot switch devices 43a and 43b, and a background control unit 115. The service panel 116, the coin control unit 117, the editing speakers 63a and 63b, and the print guide unit 26 are connected.

ストロボ制御部114はカメラ12に接続されて、カメラ12におけるシャッタタイミングに応じた同期信号を取得する。そして、カメラ12のシャッタタイミングに同期させて、ストロボ16を発光させるように制御する。ストロボ制御部114は、各々のストロボ16の発光のON・OFF、光量を制御する。   The flash control unit 114 is connected to the camera 12 and acquires a synchronization signal corresponding to the shutter timing in the camera 12. Then, the flash 16 is controlled to emit light in synchronization with the shutter timing of the camera 12. The strobe controller 114 controls ON / OFF of the light emission of each strobe 16 and the amount of light.

制御部110は、撮影・印刷用コンピュータ装置100aから受信した制御信号(指示コマンドなど)にしたがって、撮影側スピーカー20L、20Rに対して指示信号を送信し、写真自動販売機1の撮影プレイにおける操作などの案内やBGM(Back Ground Music)などを出力する。同様に制御部110は、編集用コンピュータ装置100bから受信した制御信号にしたがって、編集側スピーカ63a、63bに指示信号を送信し、写真自動販売機1の編集プレイにおける操作などの案内やBGMなどを出力する。なお、撮影側スピーカ20または編集側スピーカ63の音声のボリュームを調整する音量調整つまみは、サービスパネル116に備えられる。   The control unit 110 transmits an instruction signal to the photographing speakers 20L and 20R in accordance with a control signal (instruction command or the like) received from the photographing / printing computer apparatus 100a, and operates in the photographing play of the photo vending machine 1. Etc. and BGM (Back Ground Music) are output. Similarly, the control unit 110 transmits an instruction signal to the editing-side speakers 63a and 63b according to the control signal received from the editing computer device 100b, and provides guidance on operations in editing play of the photo vending machine 1, BGM, and the like. Output. Note that a volume adjustment knob for adjusting the sound volume of the photographing speaker 20 or the editing speaker 63 is provided in the service panel 116.

フットスイッチ装置43a、43bL、43bR(これらをまとめてフットスイッチ装置43という)は、特定の撮影コースでの撮影プレイ時(ここではフットシャッターコース)に、利用者からの踏み込み動作を検出したとき、検出信号を制御部110を介して撮影・印刷用コンピュータ装置100aに送信する。撮影・印刷用コンピュータ装置100aは該検出信号を受信したら、カメラ12にシャッタ動作を行なう指示信号を送信する。   When the foot switch device 43a, 43bL, 43bR (collectively referred to as the foot switch device 43) detects a stepping action from the user during shooting play in a specific shooting course (here, foot shutter course), The detection signal is transmitted to the photographing / printing computer apparatus 100a via the control unit 110. When receiving the detection signal, the imaging / printing computer apparatus 100 a transmits an instruction signal for performing a shutter operation to the camera 12.

また、制御部110は、撮影・印刷用コンピュータ装置100aから、タッチパネル19によって利用者が所望の背景を選択する入力操作にしたがった指示信号を受信し、該指示信号にしたがって背景制御部115を制御することにより、背景ロールカーテン48の巻取りや繰り出しを制御する。このように背景制御部115で、モータ46の動作を制御することによって、利用者が選択した背景画像が施された背景ロールカーテン48を巻取装置47から繰り出しセットする。また、撮影・印刷用コンピュータ装置100aから受信した制御信号(指示コマンドなど)によって自動的に背景画像が決定され背景ロールカーテン48のセットがなされてもよい。   In addition, the control unit 110 receives an instruction signal according to an input operation for the user to select a desired background from the photographing / printing computer apparatus 100a using the touch panel 19, and controls the background control unit 115 according to the instruction signal. By doing so, the winding and feeding of the background roll curtain 48 are controlled. In this way, the background control unit 115 controls the operation of the motor 46 to feed and set the background roll curtain 48 with the background image selected by the user from the winding device 47. Alternatively, the background roll curtain 48 may be set by automatically determining a background image by a control signal (such as an instruction command) received from the photographing / printing computer apparatus 100a.

サービスパネル116は、投入されたコインの枚数をカウントするコインカウンタ、印刷されたプリントの枚数をカウントするプリントカウンタ、撮影側スピーカ20または編集側スピーカ63から出力する音声のボリュームを調整する音量調整つまみ、テストモードを行なうためのテストボタン、コインを投入しなくても装置が利用できるようにするためのサービスボタン等を備えるパネルであって、写真自動販売機1の設置者が各種設定やメンテナンスの操作を行なう際に用いる。サービスパネル116は、サービスボタンの操作などの制御操作が行なわれると、その操作にしたがった制御信号を制御部110に対して送信する。   The service panel 116 includes a coin counter that counts the number of inserted coins, a print counter that counts the number of printed prints, and a volume adjustment knob that adjusts the volume of sound output from the photographing speaker 20 or the editing speaker 63. , A panel having a test button for performing a test mode, a service button for allowing the apparatus to be used without inserting coins, and the installer of the photo vending machine 1 can perform various settings and maintenance. Used when performing operations. When a control operation such as operation of a service button is performed, service panel 116 transmits a control signal according to the operation to control unit 110.

制御部110は、コンピュータ装置100から受信した制御信号にしたがって、サービスパネル116に対して制御信号を送信する。サービスパネル116は、該制御信号に従って、コインカウンタやプリントカウンタを動作させる(例えばカウンタを1インクリメントする)。   The control unit 110 transmits a control signal to the service panel 116 according to the control signal received from the computer device 100. The service panel 116 operates a coin counter or a print counter according to the control signal (for example, increments the counter by 1).

コイン制御部117は、コイン投入口21に投入されたコインの正当性を検出し、制御部110にコインが投入されたことを示す検出信号を送信する。   The coin control unit 117 detects the validity of the coin inserted into the coin insertion slot 21 and transmits a detection signal indicating that a coin has been inserted to the control unit 110.

制御部110はコンピュータ装置100から受信した制御信号にしたがって、コイン制御部117に対して制御信号を送信する。コイン制御部117は、該制御信号にしたがって、コインが投入されないようにコイン投入口21をブロックするか、コイン投入口21に投入されたコインをコイン排出口22から排出することができる。コイン制御部117は、前者の場合はコインブロッカとして機能し、後者の場合はコインキャンセラとして機能する。このことで、プレイ中にコイン投入を禁止することができる。   The control unit 110 transmits a control signal to the coin control unit 117 according to the control signal received from the computer apparatus 100. In accordance with the control signal, the coin control unit 117 can block the coin insertion slot 21 so that coins are not inserted, or can discharge coins inserted into the coin insertion slot 21 from the coin discharge slot 22. The coin control unit 117 functions as a coin blocker in the former case, and functions as a coin canceller in the latter case. This makes it possible to prohibit coin insertion during play.

さらに、制御部110は、コンピュータ装置100からプリンタ11の状態に応じた制御信号を受信し、該制御信号にしたがって、プリント案内部26の表示を制御する。   Further, the control unit 110 receives a control signal corresponding to the state of the printer 11 from the computer apparatus 100, and controls the display of the print guide unit 26 according to the control signal.

なお、言うまでもなく、写真自動販売機の形態は図1〜図14に示される具体例に限定されるものではない。すなわち、図1〜図14に記載されない他の機能が備えられていてもよいし、図1〜図14に記載されている機能の必ずしも全てが備えられていなくても構わない。   Needless to say, the form of the photo vending machine is not limited to the specific examples shown in FIGS. That is, other functions not described in FIGS. 1 to 14 may be provided, or not all of the functions described in FIGS. 1 to 14 may be provided.

[写真自動販売機の撮影プレイ処理] [Photograph vending machine shooting play processing]

次に、本実施の形態にかかる写真自動販売機での処理について説明する。   Next, processing in the photo vending machine according to the present embodiment will be described.

このような写真自動販売機の処理は、コンピュータ装置100のCPU101が、記憶部102に記憶されたプログラムをメモリ103に読出して実行することによって実現される。   Such processing of the photo vending machine is realized by the CPU 101 of the computer apparatus 100 reading the program stored in the storage unit 102 into the memory 103 and executing it.

写真自動販売機でのプレイ(遊戯)は主に撮影プレイと編集プレイとに分かれる。夫々のプレイは異なる空間で行なわれているため、写真自動販売機での一連の処理は、図15の撮影空間6側で行なわれる処理を示すフローチャートと、図27の編集空間7およびプリント取出口25側で行なわれる処理を示すフローチャートとを用いて説明する。   Play (play) at a photo vending machine is mainly divided into shooting play and editing play. Since each play is performed in a different space, a series of processing in the photo vending machine includes a flowchart showing processing performed on the photographing space 6 side in FIG. 15, an editing space 7 in FIG. This will be described with reference to a flowchart showing processing performed on the 25th side.

まず、撮影空間6で行なわれる撮影プレイの処理を図15のフローチャートを用いて説明する。   First, shooting play processing performed in the shooting space 6 will be described with reference to the flowchart of FIG.

まず、写真自動販売機1に備わる電源スイッチ111が投入されると、各種装置に電源が供給され、撮影・印刷用コンピュータ装置100aの記憶部102aに格納された動作プログラムが起動する。撮影・印刷用コンピュータ装置100aは、各種装置が正常に接続されているかチェックし、初期化が必要な装置に対しては初期化を行なう(S1)。   First, when the power switch 111 provided in the photo vending machine 1 is turned on, power is supplied to various devices, and an operation program stored in the storage unit 102a of the photographing / printing computer device 100a is activated. The photographing / printing computer apparatus 100a checks whether various apparatuses are normally connected, and initializes an apparatus that needs to be initialized (S1).

このとき、本装置の編集割当フラグ(f)値の初期化も同時に行なわれる。編集部割当フラグ(f)の値は変数で、前述の電源投入時の編集部割当フラグ(f)の値はf=0となる。一組の利用者の撮影プレイが終了したら、編集部割当フラグ(f)の値はf=1となり、更に次の組の利用者の撮影プレイが終了したら、再び編集部割当フラグ(f)の値はf=0となる。すなわち、CPU101aは、一組の利用者が撮影プレイを終了する度に編集部割当フラグ(f)の値をXOR演算などを用いて、“0”と“1”とに交互に切替える。編集部割当フラグ(f)は、上記CPU101aにより、メモリ103aの所定の記憶領域に記憶(セット)され、該プレイ時にどちらの編集部を使用するのか識別するためのフラグである。   At this time, initialization of the edit assignment flag (f) value of the present apparatus is also performed. The value of the editing unit allocation flag (f) is a variable, and the value of the editing unit allocation flag (f) when the power is turned on is f = 0. When the shooting play of one set of users is finished, the value of the editing section assignment flag (f) is f = 1, and when the shooting play of the next set of users is finished, the editing section assignment flag (f) is set again. The value is f = 0. That is, the CPU 101a alternately switches the value of the editing unit assignment flag (f) between “0” and “1” by using an XOR operation or the like every time a set of users finishes the shooting play. The editing part assignment flag (f) is stored (set) in a predetermined storage area of the memory 103a by the CPU 101a, and is a flag for identifying which editing part is used during the play.

また、編集部割当フラグ(f)の値がf=0の場合、撮影操作モニタ18の指示画面は青色を基調としたデザインで構成され、編集プレイは第1編集部8aを使用する。編集部割当フラグ(f)の値がf=1の場合は撮影操作モニタ18の指示画面は赤色を基調としたデザインで構成され、編集プレイは第2編集部8bを使用する。すなわち、CPU101aは、編集部割当フラグ(f)の値に応じて上記指示画面のデザインを切替えるようになっている。   When the value of the editing unit assignment flag (f) is f = 0, the instruction screen of the photographing operation monitor 18 is configured with a design based on blue, and the editing play uses the first editing unit 8a. When the value of the editing part assignment flag (f) is f = 1, the instruction screen of the photographing operation monitor 18 is configured with a design based on red, and the editing play uses the second editing part 8b. That is, the CPU 101a switches the design of the instruction screen according to the value of the editing unit assignment flag (f).

なお、編集部割当フラグ(f)の値によって、撮影プレイ前に撮影プレイ後どちらの編集部8を利用するのかを案内することもできる。このため、利用者は撮影プレイ前にどちらの編集部8を利用するのかを意識することができるため、編集部8への移動の際に迷うことが少なくなり回転がスムーズになる。   Note that it is possible to guide which editing unit 8 is used after shooting play before shooting play by the value of the editing unit assignment flag (f). For this reason, since the user can be aware of which editing unit 8 is used before shooting play, the user is less likely to get lost when moving to the editing unit 8 and the rotation is smooth.

また、第1編集部8aを構成する装置やカーテンなどを青色を基調としたデザインを施し、第2編集部8bを構成する装置やカーテンなどを赤色を基調としたデザインを施す。   In addition, a design based on blue is applied to the devices and curtains forming the first editing unit 8a, and a design based on red is applied to the devices and curtains forming the second editing unit 8b.

このように、利用者にどちらの編集部を使用するのかが自然にわかるような構成になっている。 In this way, the user can naturally understand which editing unit to use.

ついでCPU101aは、写真自動販売機1の使用を促すタイトルデモ画面を撮影操作モニタ18に表示し、それに応じて撮影側スピーカ20L、20Rから音声を出力する(S5)。   Next, the CPU 101a displays a title demonstration screen that prompts the use of the photo vending machine 1 on the photographing operation monitor 18, and outputs sound from the photographing speakers 20L and 20R accordingly (S5).

CPU101aは、タイトルデモ画面が表示されている状態で、サービスパネル116のテストボタンが押されたか否かを判別する(S10)。通常タイトルデモ画面表示中テストボタンが押下されることによって(S10でYES)、写真自動販売機のメンテナンスを行なうためのテストモードを起動することができる(S15)。テストモードは、写真自動販売機の設置者が写真自動販売機を操作するためのモードであり、このモードにおいては写真自動販売機の利用状況の確認や、カメラ12、プリンタ11など周辺機器の調整ができる。   The CPU 101a determines whether or not the test button on the service panel 116 is pressed while the title demo screen is displayed (S10). When the test button is pressed while the normal title demo screen is displayed (YES in S10), a test mode for maintaining the photo vending machine can be activated (S15). The test mode is a mode for the operator of the photo vending machine to operate the photo vending machine. In this mode, the usage status of the photo vending machine is checked and peripheral devices such as the camera 12 and the printer 11 are adjusted. Can do.

ここでいう写真自動販売機の設置者とは、当該写真自動販売機を設置し営業を行なっている店舗などの経営者、管理者、および従業員であり、営業中に、利用者に対応できる者である。なお、テストモード中はコインを受付けないようにすることが望ましい。   The owner of the photo vending machine here is the manager, manager, and employee of the store where the photo vending machine is installed and operates, and can respond to the user during business. It is a person. Note that it is desirable not to accept coins during the test mode.

タイトルデモ表示中でテストボタンが押下されておらず(S10でNO)、コイン制御部117がコインの投入を検出していない場合(S20でNO)、ステップS5ヘ戻り引き続き、テストボタンの押下やコインの投入を監視する。一方、コイン制御部117が所定の対価の受付を検出した場合は(S20でYES)、ステップS23へ進む。   If the test button is not pressed during the title demonstration display (NO in S10) and the coin control unit 117 does not detect the insertion of a coin (NO in S20), the process returns to step S5 and continues to press the test button. Monitor coin insertion. On the other hand, if the coin control unit 117 detects reception of a predetermined price (YES in S20), the process proceeds to step S23.

プレイに必要な対価は上述の通貨などのコイン投入に限定するものではない。コインの代替となる磁気カードやプリペイドカードや専用コインや非接触型電子マネーの使用や、私的なパスワード等による操作なども含み、プレイ(遊戯)に対する対価支払いであればよい。   Consideration required for play is not limited to coin insertion such as the above-mentioned currency. Compensation for play (game) may be included, including the use of magnetic cards, prepaid cards, dedicated coins, contactless electronic money, operations with private passwords, etc., as alternatives to coins.

コイン制御部117が所定の対価の受付を検出すると(S20でYES)、まずCPU101aは、図16が図示する編集部案内画面を、撮影操作モニタ18に表示する(S23)。これは、撮影プレイ後、複数の編集部8のうちいずれかで編集プレイを行なうかを案内する画面である。編集部割当フラグ(f)の値によって第1編集部8a(青コーナー)か、第2編集部8b(赤コーナー)かいずれかへの案内画面を表示する。   When the coin control unit 117 detects reception of a predetermined price (YES in S20), the CPU 101a first displays the editing unit guide screen illustrated in FIG. 16 on the photographing operation monitor 18 (S23). This is a screen that guides which of the plurality of editing units 8 performs the edit play after the shooting play. Depending on the value of the editing section allocation flag (f), a guidance screen for either the first editing section 8a (blue corner) or the second editing section 8b (red corner) is displayed.

このため、利用者は撮影プレイ前にどちらの編集部8を利用するのかを意識することができるため、編集部8への移動の際に迷うことが少なくなり回転がスムーズになる。   For this reason, since the user can be aware of which editing unit 8 is used before shooting play, the user is less likely to get lost when moving to the editing unit 8 and the rotation is smooth.

ついで、CPU101aは、図17が図示する撮影コースを選択する撮影コース選択画面を撮影操作モニタ18に表示する(S25)。これらは、複数の撮影プレイからいずれかを選択させる選択手段として機能する。   Next, the CPU 101a displays a shooting course selection screen for selecting a shooting course shown in FIG. 17 on the shooting operation monitor 18 (S25). These function as selection means for selecting one of a plurality of shooting plays.

図17が示すように「こだわり6ショット」「おまかせ10ショット」「フットシャッター」など、コース別に表示し、利用者の指などで撮影操作モニタ18に積層されたタッチパネル19の該当領域をタッチされることによって、撮影コースが選択される。   As shown in FIG. 17, “specific 6 shots”, “automatic 10 shots”, “foot shutter”, and the like are displayed for each course, and the corresponding area of the touch panel 19 stacked on the photographing operation monitor 18 is touched with a user's finger or the like. Thus, a shooting course is selected.

「こだわり6ショット」コースは、予め設定された所定の回数の撮影を、繰返し行なうように設定されているが、撮影の前に行なわれる照明や背景や明るさの選択は、選択に要する時間に個人差があるため、所定の回数の撮影が終了する時間は利用者によって異なる。このため、所定の回数の撮影終了後に所定の制限時間に達してない場合、時間調整としておまけ撮影をすることによって、「こだわり6ショット」の撮影プレイは所定の制限時間で終了する。「こだわり6ショット」の撮影プレイは第2の撮影プレイの一例である。   The “Fix 6 Shots” course is set to repeat a predetermined number of times of shooting, but the selection of lighting, background and brightness prior to shooting takes place in the time required for selection. Since there are individual differences, the time at which the predetermined number of times of shooting is different varies depending on the user. For this reason, when the predetermined time limit has not been reached after the predetermined number of times of shooting has been completed, the extraordinary shooting is performed as a time adjustment, whereby the shooting play of “Fixed 6 Shots” ends at the predetermined time limit. The shooting play of “special 6 shots” is an example of the second shooting play.

「おまかせ10ショット」コースは予め設定されたタイミングで撮影を繰返し行ない、予め設定されたタイミングで設定された撮影が自動的に行なわれるため、いつでも同じように「おまかせ10ショット」の撮影プレイは所定の制限時間で終了する。「おまかせ10ショット」の撮影プレイは第1の撮影プレイの一例である。   The “Omakase 10 Shot” course repeats shooting at a preset timing, and the shooting set at the preset timing is automatically performed. End with the time limit. “Omakase 10 Shot” shooting play is an example of a first shooting play.

「フットシャッター」コースは、利用者所望のタイミングか1回の撮影の制限時間のいずれかによって撮影が行なわれるため、撮影回数と1回の撮影の制限時間とのいずれかを調整することによって「フットシャッター」の撮影プレイは所定の制限時間で終了する。「フットシャッター」の撮影プレイは第2の撮影プレイの他の例である。   In the “foot shutter” course, shooting is performed at either the timing desired by the user or the time limit for one shooting, so by adjusting either the number of shooting times or the time limit for one shooting, The “foot shutter” shooting play ends in a predetermined time limit. “Foot shutter” shooting play is another example of the second shooting play.

このように、これらの撮影コースはプレイ方法は異なるが、プレイ状況に応じて同じ時間で終了するように調整することができる。そして、CPU101aは、利用者が選択した撮影コースの撮影処理手順で撮影処理(S30)を実行する。   As described above, these shooting courses can be adjusted to finish at the same time depending on the playing situation, although the playing method is different. Then, the CPU 101a executes the shooting process (S30) according to the shooting process procedure of the shooting course selected by the user.

なお、撮影処理の間、CPU101aは、カメラ12から取得される画像をライブモニタ13にリアルタイム表示する。利用者はライブモニタ13の表示によって、撮影時のポーズや表情などを視覚確認できるようになっている。   During the photographing process, the CPU 101a displays the image acquired from the camera 12 on the live monitor 13 in real time. The user can visually check the pose and facial expression at the time of shooting by displaying on the live monitor 13.

それぞれの撮影コースの撮影処理手順は各々別のフローチャートを用いて説明する。   The shooting process procedure for each shooting course will be described with reference to different flowcharts.

[こだわり6ショット撮影処理] [Special 6-shot shooting process]

まず、「こだわり6ショット」コースにおける撮影処理を図18のフローチャートを用いて説明する。「こだわり6ショット」では2回連続撮影を3回繰り返す(計6回)。   First, photographing processing in the “discerning 6-shot” course will be described with reference to the flowchart of FIG. In “Fix 6 Shots”, 2 continuous shootings are repeated 3 times (6 times in total).

CPU101aはステップS25の撮影コース選択で、「こだわり6ショット」が選択されたと判定すると、撮影制限時間の計時(カウント)を開始する(S101)。こうして、利用者が撮影プレイを行ない得る所定の制限時間まで計時する。   If the CPU 101a determines that “6 special shots” has been selected in the shooting course selection in step S25, the CPU 101a starts counting the shooting limit time (S101). In this way, the time is counted up to a predetermined time limit at which the user can perform shooting play.

ついで、CPU101aは、図19が示す照明選択画面を撮影操作モニタ18に表示する(S103)。図19が図示するように、照明選択画面は「うる肌」「キラ髪」「全身」というように、撮影時にどのような照明設定を行なうか選択肢が表示される。   Next, the CPU 101a displays the illumination selection screen shown in FIG. 19 on the photographing operation monitor 18 (S103). As illustrated in FIG. 19, the lighting selection screen displays options for setting the lighting at the time of photographing, such as “smooth skin”, “brilliant hair”, and “whole body”.

「うる肌」は顔アップ撮影(近接撮影)で肌が美しく写るような照明設定がなされ、「キラ髪」は髪が美しく写るような照明設定がなされ、「全身」は全身撮影(遠隔撮影)で全身が均等に美しく写るような照明設定がなされる。このように、複数の異なる照明方法の中からいずれかを利用者に選択させる。   “Ultimate skin” is set up so that the skin looks beautiful with close-up photography (close-up photography), “Kira-hair” is set up so that the hair looks beautiful, and “Whole body” is taken with full body photography (remote photography). The lighting is set so that the whole body can be seen beautifully evenly. In this way, the user is allowed to select one of a plurality of different illumination methods.

CPU101aは照明選択の選択肢のうちのいずれが選択されたかを判定し、利用者から選択された照明設定に応じて、制御部110を介して上述の通りストロボ制御部114に指示信号を送信する。   The CPU 101a determines which of the lighting selection options has been selected, and transmits an instruction signal to the strobe control unit 114 as described above via the control unit 110 in accordance with the lighting setting selected by the user.

ついで、CPU101aは、背景選択画面を撮影操作モニタ18に表示する(S105)。「うる肌」の場合は、前方背景装置40aに配備される背景ロールカーテン48aと、後方背景装置40bとに配備される背景ロールカーテン48bのいずれも選択可能にしている。「キラ髪」「全身」の場合は後方背景装置40bに配備される背景ロールカーテン48bのみ選択可能にしている。このように、照明選択で選択された照明方法に応じて選択可能な背景ロールカーテン48を制限している。   Next, the CPU 101a displays a background selection screen on the photographing operation monitor 18 (S105). In the case of “skin skin”, both the background roll curtain 48a deployed in the front background device 40a and the background roll curtain 48b deployed in the rear background device 40b can be selected. In the case of “brilliant hair” or “whole body”, only the background roll curtain 48b provided in the rear background device 40b can be selected. As described above, the selectable background roll curtain 48 is limited according to the illumination method selected in the illumination selection.

このようにすることで、照明選択で選択された照明方法において好適な背景ロールカーテン48の中から、背景ロールカーテン48を選択することができるため、最適な照明が実現できる。このことによって、美しい写り具合の撮影画像を利用者に提供することができる。   By doing in this way, since the background roll curtain 48 can be selected from the suitable background roll curtains 48 in the illumination method selected by the illumination selection, optimal illumination can be realized. This makes it possible to provide a user with a beautifully photographed image.

ストロボ16の光量や発光の有無は、撮影コースや撮影方法などによって異なるように構成されている。予め撮影・印刷側コンピュータ装置100aの記憶部102aに設定が記憶されており、撮影時にどの撮影コースや撮影方法が選択されているかによって、ストロボ制御部114(図14参照)はストロボ16の発光や光量を制御する。   The amount of light of the strobe 16 and the presence or absence of light emission are configured to differ depending on the shooting course, the shooting method, and the like. The setting is stored in advance in the storage unit 102a of the photographing / printing-side computer device 100a, and the strobe control unit 114 (see FIG. 14) determines whether the strobe 16 emits light or not depending on which photographing course and photographing method is selected at the time of photographing. Control the amount of light.

本実施の形態においては、前面照明装置の上部照明手段14a、14bのストロボ16a、16bは、照射面である拡散板31a、31bとは逆の方向に向いているため、外部へは光が弱めに出射される。前面照明装置の下部照明手段14cのストロボ16cは、照射面である拡散板31cの方向を向いているため、外部へは光が強めに出射される。また、天井照明装置41と側面照明装置42L、42Rとのストロボ16d〜16f(不図示)は、照射面である拡散板31e〜31gの方向を向いているため、外部へは光が強めに出射される。   In the present embodiment, the strobes 16a and 16b of the upper illumination means 14a and 14b of the front lighting device are directed in the opposite direction to the diffusion plates 31a and 31b that are the irradiation surfaces, so the light is weakened to the outside. Is emitted. Since the strobe 16c of the lower illumination means 14c of the front illumination device faces the direction of the diffusion plate 31c that is the irradiation surface, light is emitted to the outside with a stronger intensity. Further, the strobes 16d to 16f (not shown) of the ceiling lighting device 41 and the side lighting devices 42L and 42R face the direction of the diffusion plates 31e to 31g which are irradiation surfaces, so that the light is emitted to the outside with strong intensity. Is done.

このように、ストロボ16は備えられる位置や方向によって、同じ光量値でも拡散板31から外部へ出射する光量は異なるため、ストロボ16の配置や方向を考慮した設定を行ない記憶部102aに記憶される。該設定に基づいてストロボ制御部114はストロボ16の発光を制御する。   As described above, since the amount of light emitted from the diffusion plate 31 to the outside differs depending on the position and direction in which the strobe 16 is provided, the setting considering the arrangement and direction of the strobe 16 is performed and stored in the storage unit 102a. . Based on the setting, the strobe controller 114 controls the light emission of the strobe 16.

ストロボ16の発光時の光量値は、弱(S)、中(M)、強(L)とに分かれる。また、その中でも更に5段階の値に分かれる。弱の中で一番弱い光量値をS1、一番強い光量値をS5とし、数値が大きいほど光量は強くなる。同様に中(M)はM1〜M5、強(L)はL1〜L5などの光量値に分かれる。   The amount of light when the strobe 16 emits light is divided into weak (S), medium (M), and strong (L). Further, among them, the value is further divided into five levels. The weakest light quantity value among the weaknesses is S1, the strongest light quantity value is S5, and the larger the numerical value, the stronger the light quantity. Similarly, medium (M) is divided into light quantity values such as M1 to M5, and strong (L) is divided into light quantities such as L1 to L5.

図20は、各々の照明設定におけるストロボ16の光量設定の具体例を示す図である。光量設定は、近接撮影用の「うる肌」と、髪中心またはどの位置でも美しい写りを実現しやすい「キラ髪」と、遠隔撮影用の「全身」とがある。また、図示の光量設定は標準設定であり、後述する明るさ選択で選択された明るさによって光量値は異なる。   FIG. 20 is a diagram illustrating a specific example of the light amount setting of the strobe 16 in each illumination setting. The light amount setting includes “smooth skin” for close-up photography, “brilliant hair” that can easily achieve a beautiful image at the hair center or any position, and “whole body” for remote photography. The illustrated light amount setting is a standard setting, and the light amount value varies depending on the brightness selected in the brightness selection described later.

「うる肌」は、近接撮影で顔が美しく写るような近接撮影用の照明設定である。前面照明装置14cのストロボ16cは、照射面である拡散板31cの方向を向いているため、外部へは光が強めに出射される。拡散板31cから出射する光は、被写体の下方向から顔を照射するため、ストロボ16cの光量が強いと顔部分の上方向に向けて影ができてしまい、写り具合として好ましくないため、ストロボ16a、16bの光量は強めに発光し、ストロボ16cの光量は弱めに発光するような設定になっている。   “Ulder skin” is a lighting setting for close-up photography that makes the face look beautiful in close-up photography. Since the strobe 16c of the front illumination device 14c faces the direction of the diffusing plate 31c that is the irradiation surface, light is emitted to the outside with a stronger intensity. Since the light emitted from the diffusion plate 31c illuminates the face from below the subject, if the amount of light of the strobe 16c is strong, a shadow is formed in the upward direction of the face portion. , 16b is set to emit light stronger, and the strobe 16c emits light weakly.

具体的には、前面照明装置14a、14bのストロボ16a、16bの光量をL3、前面照明装置14cのストロボ16cの光量をS3、天井照明装置41のストロボ16d、側面照明装置42L、42Rのストロボ16e、16fの発光をOFFにする。   Specifically, the amount of light of the strobes 16a and 16b of the front lighting devices 14a and 14b is L3, the amount of light of the strobe 16c of the front lighting device 14c is S3, the strobe 16d of the ceiling lighting device 41, and the strobe 16e of the side lighting devices 42L and 42R. , 16f is turned off.

「キラ髪」は、髪が美しく写るような髪中心撮影用の照明設定である。髪を美しく撮影するには、被写体の斜め上後方から照射することにより、髪に天使の輪ができるなど美しく撮影することができるため、天井照明装置41と側面照明装置42L、42Rとを発光する設定になっている。全体的に光量が強くなりすぎるので前面照明装置14a、14b、14cの光量は弱めに発光するような設定になっている。   “Kira Hair” is an illumination setting for hair-centered photography that makes hair look beautiful. In order to photograph hair beautifully, it is possible to photograph the subject beautifully by irradiating the subject obliquely from above and behind, such as an angel's ring on the hair. Therefore, the ceiling illumination device 41 and the side illumination devices 42L and 42R emit light. It is set. Since the overall light intensity is too strong, the light intensity of the front illumination devices 14a, 14b, 14c is set to emit light weakly.

具体的には、前面照明装置14a、14bのストロボ16a、16bの光量をM1、前面照明装置14cのストロボ16cの光量をS3、天井照明装置41のストロボ16dの光量をM4、側面照明装置42L、42Rのストロボ16e、16fの光量をL3にする。   Specifically, the amount of light of the strobes 16a and 16b of the front lighting devices 14a and 14b is M1, the amount of light of the strobe 16c of the front lighting device 14c is S3, the amount of light of the strobe 16d of the ceiling lighting device 41 is M4, the side lighting device 42L, The light quantity of the 42R strobes 16e and 16f is set to L3.

「全身」は、全身が均等に美しく写るような遠隔撮影用の照明設定である。全身を美しく撮影するには、撮影空間6の後方まで光を均等に照射する必要があるため、前面照明装置14a、14b、14cの光量を強めに発光させるよう制御する。また、前述の通り前面照明装置14a、14bと前面照明装置14cとではストロボ16の向きが異なるため、前面照明装置14a、14bの光量をやや前面照明装置14cより強めに発光するような設定になっている。   “Whole body” is a lighting setting for remote shooting so that the whole body is photographed equally and beautifully. In order to photograph the whole body beautifully, it is necessary to irradiate light evenly to the rear of the photographing space 6, and therefore, the light intensity of the front illumination devices 14a, 14b, and 14c is controlled to be emitted intensely. Further, as described above, the front lighting devices 14a and 14b and the front lighting device 14c have different orientations of the strobes 16, so that the light intensity of the front lighting devices 14a and 14b is set to emit light slightly stronger than the front lighting device 14c. ing.

具体的には、前面照明装置14a、14bのストロボ16a、16bの光量をL2、前面照明装置14cのストロボ16cの光量をL1、天井照明装置41のストロボ16d、側面照明装置42L、42Rのストロボ16e、16fの発光をOFFにする。   Specifically, the amount of light of the strobes 16a and 16b of the front lighting devices 14a and 14b is L2, the amount of light of the strobe 16c of the front lighting device 14c is L1, the strobe 16d of the ceiling lighting device 41, and the strobe 16e of the side lighting devices 42L and 42R. , 16f is turned off.

写真自動販売機1では、撮影コースや撮影方法に応じて、「うる肌」「キラ髪」「全身」が適宜選ばれて撮影が行なわれる。撮影時には、CPU101aは、「うる肌」「キラ髪」「全身」の各照明設定のどれを実行するかを制御部110を介してストロボ制御部114に指示し、ストロボ制御部114は設定に従ったストロボ16の発光、光量設定を実現するよう制御する。   In the photo vending machine 1, according to the photographing course and the photographing method, “smooth skin”, “glitter hair”, and “whole body” are appropriately selected for photographing. At the time of shooting, the CPU 101a instructs the strobe control unit 114 through the control unit 110 to execute each of the lighting settings of “Ulable skin”, “Skin hair”, and “Whole body”, and the strobe control unit 114 follows the setting. The flash 16 is controlled to realize light emission and light amount setting.

なお、上述の照明選択で選択された照明方法での撮影を2回連続で行なう。このため、この背景選択では利用者に夫々の撮影で使用する背景ロールカーテン48を選択させる。すなわち、背景ロールカーテン48を2種類選択させる。   Note that shooting is continuously performed twice with the illumination method selected in the above-described illumination selection. For this reason, in this background selection, the user selects the background roll curtain 48 to be used for each photographing. That is, two types of background roll curtains 48 are selected.

ついで、CPU101aは、明るさ選択画面を撮影操作モニタ18に表示する(S107)。1〜5の5段階の明るさの中から利用者所望の明るさが選択できるようになっている。明るさは数値が大きくなるほど明るく、上述の図20の光量値の標準設定は明るさが3の設定である。   Next, the CPU 101a displays a brightness selection screen on the photographing operation monitor 18 (S107). The brightness desired by the user can be selected from among five levels of brightness from 1 to 5. The brightness becomes brighter as the numerical value increases, and the standard setting of the light amount value in FIG.

なお、ここで選択された明るさは連続して行なわれる撮影2回で共通であって、各々の撮影時には同じ明るさ調整がなされる。各々の明るさはストロボ16の発光時の光量によって調節される。上述の照明設定で選択された照明方法での照明バランスの比率を保って、明るめの設定が選択されたら光量を強くし、暗めの設定が選択されたら光量を弱くする。   It should be noted that the brightness selected here is common to two consecutive shootings, and the same brightness adjustment is performed at each shooting. The brightness of each is adjusted by the amount of light when the strobe 16 emits light. The ratio of the illumination balance in the illumination method selected by the illumination setting described above is maintained, and the light amount is increased when the bright setting is selected, and the light amount is decreased when the dark setting is selected.

より具体的には、「うる肌」で明るさ4が選択された場合、前面照明装置の上部照明手段14a、14bのストロボ16a、16cの光量をL4、前面照明装置の下部照明手段14cのストロボ16cの光量をS4とする。   More specifically, when brightness 4 is selected for “Ulable Skin”, the amount of light of the strobes 16a and 16c of the upper illumination units 14a and 14b of the front illumination device is set to L4, and the strobe of the lower illumination unit 14c of the front illumination device is used. The amount of light of 16c is set to S4.

ついで、CPU101aは、撮影方法に関する説明画面を撮影モニタ18に表示する(S109)。「うる肌」の場合は、カメラに近接して撮影すると美しい写真が得られるので「アップで撮るよ!カメラの近くに寄ってね」、「全身」の場合は、カメラから離れて遠隔で撮影すると美しい写真が得られるので「全身で撮るよ!後ろにさがってね」、「キラ髪」の場合は、どの位置でも同じような効果が得られるので「準備はいい?撮影するよ」など、スピーカ20L、20Rからの音声出力を行なう。このように、それぞれの照明設定で最適な写り具合が実現できる位置に誘導するように案内を行なう。   Next, the CPU 101a displays an explanation screen regarding the photographing method on the photographing monitor 18 (S109). In the case of “smooth skin”, you can get a beautiful picture by shooting close to the camera, so take a close-up! Take it close to the camera. Then, you can get beautiful pictures, so “Shoot with your whole body! Look back”, “Kira-hair”, you can get the same effect at any position, “Ready? Audio is output from the speakers 20L and 20R. In this way, guidance is performed so as to guide to a position where an optimum image condition can be realized with each illumination setting.

そして、CPU101aは、カメラ12のシャッタ動作(撮影)までのカウントダウンを開始し(S111)、カウントが終了してない場合は(S113でNO)、カウントが終了する(“0”になる)まで、カウントを継続する。カウントが終了したら(S113でYES)、設定された照明によりシャッタ動作(撮影)を行なう(S115)。   Then, the CPU 101a starts a countdown until the shutter operation (photographing) of the camera 12 (S111). When the count is not finished (NO in S113), the count is finished (becomes “0”). Continue counting. When the counting is completed (YES in S113), a shutter operation (photographing) is performed with the set illumination (S115).

ついで、CPU101aは、ステップS115で撮影した撮影画像のプレビュー画面を撮影操作モニタ18に表示する(S117)。このようにすることで、利用者は撮影画像のでき具合を視覚確認することができる。   Next, the CPU 101a displays a preview screen of the photographed image photographed in step S115 on the photographing operation monitor 18 (S117). By doing in this way, the user can visually confirm the state of the captured image.

ついで、CPU101aは、連続撮影における所定回数(ここでは2回)の撮影が行なわれたかを判定する(S119)。所定回数(ここでは2回)の撮影が行なわれていない場合は(S119でNO)、ステップS109へ戻る。所定回数(ここでは2回)の撮影が行なわれた場合は(S119でYES)、さらに「こだわり6ショット」における所定回数(ここでは2回×3セットで6回)の撮影が行なわれたかを判定する(S121)。所定回数(ここでは6回)の撮影が行なわれていない場合は、ステップS103へ戻る。所定回数(ここでは6回)の撮影が行なわれた場合は(S121でYES)、ステップS101から計時(カウント)を行なっている撮影制限時間に達しているかどうか判定する(S123)。   Next, the CPU 101a determines whether or not a predetermined number of times (here, twice) of continuous shooting has been performed (S119). If photographing has not been performed a predetermined number of times (here, twice) (NO in S119), the process returns to step S109. If shooting has been performed a predetermined number of times (here, 2 times) (YES in S119), whether or not shooting has been performed a predetermined number of times (here, 2 times x 3 sets, 6 times) in the “six sticking shots”. Determination is made (S121). If shooting has not been performed a predetermined number of times (six times here), the process returns to step S103. If shooting has been performed a predetermined number of times (here, 6 times) (YES in S121), it is determined whether or not the shooting time limit for counting (counting) has been reached from step S101 (S123).

「こだわり6ショット」コースでは、撮影前に照明や背景や明るさの選択を行なう。このような選択に要する時間は個人差があるため、所定の回数の撮影が終了する時間は利用者によって異なる。このため、所定の回数での撮影が終了し、撮影制限時間に達してない場合は(S123でNO)、おまけ撮影処理を行なう(S125)。   In the “Special 6 Shots” course, the lighting, background and brightness are selected before shooting. Since the time required for such selection varies from person to person, the time required to complete a predetermined number of times of shooting differs depending on the user. For this reason, if the predetermined number of times of shooting has been completed and the shooting time limit has not been reached (NO in S123), extra shooting processing is performed (S125).

すなわち、CPU101aは、所定の回数の撮影が終了した後に、タイマなどの計時手段で計時する経過時間と所定の制限時間とを比較し、計時手段で計時する経過時間が所定の制限時間(撮影制限時間)に達していない場合に、さらに利用者におまけ撮影を行なわせることによって、撮影プレイが所定の時間で終了するよう調整する。   That is, the CPU 101a compares the elapsed time measured by the time measuring means such as a timer with the predetermined time limit after the predetermined number of times of shooting is completed, and the elapsed time measured by the time measuring means is a predetermined time limit (shooting limit). If the time has not been reached, the user is allowed to perform extra shooting to adjust the shooting play to end at a predetermined time.

[おまけ撮影処理] [Bonus shooting process]

おまけ撮影処理を図21のフローチャートを用いて説明する。   The extra photographing process will be described with reference to the flowchart of FIG.

おまけ撮影処理では、「こだわり6ショット」コースで所定の撮影制限時間に達していない場合に、おまけとして撮影を行なう。すなわち、おまけ撮影によって撮影時間の調整を行なう。このようにすることで、本実施形態のように複数の撮影コースで構成される場合に効率よく時間を調整することができる。また、通常の撮影だけでなくさらに付加的に撮影を行なうことができるため、利用者にお得感を感じさせることができ、顧客満足を向上させることができる。   In the bonus shooting process, shooting is performed as a bonus when the predetermined shooting time limit is not reached in the “discerning 6-shot” course. That is, the shooting time is adjusted by extra shooting. By doing in this way, time can be adjusted efficiently, when comprised by a some imaging | photography course like this embodiment. Further, since it is possible to perform not only normal shooting but also additional shooting, it is possible to give the user a sense of profit and improve customer satisfaction.

まず、CPU101aは、今からおまけ撮影を行なう旨や、おまけ撮影の撮影方法に関する説明画面を撮影モニタ18に表示し、スピーカ20L、20Rからの音声出力を行なう(S131)。   First, the CPU 101a displays on the photographing monitor 18 an explanation screen regarding bonus photography from now on, and a photographing method for extra photography, and performs audio output from the speakers 20L and 20R (S131).

そして、CPU101aは、カメラ12のシャッタ動作(撮影)までのカウントダウンを開始し(S133)、カウントが終了してない場合は(S135でNO)、カウントが終了する(“0”になる)まで、カウントを継続する。カウントが終了したら(S135でYES)、シャッタ動作(撮影)を行なう(S137)。このとき図22が図示するようにライブモニタ13でも、カウントダウン表示を行なう。   Then, the CPU 101a starts a countdown until the shutter operation (shooting) of the camera 12 (S133). If the count is not finished (NO in S135), the count is finished ("0"). Continue counting. When the counting is completed (YES in S135), a shutter operation (photographing) is performed (S137). At this time, as shown in FIG. 22, the live monitor 13 also performs a countdown display.

図22(A)〜(C)は、撮影時のライブモニタ13におけるカウントダウン表示画面の具体例である。   22A to 22C are specific examples of countdown display screens in the live monitor 13 at the time of shooting.

図22(A)は、ライブモニタ13のカウントダウン表示の一例である。CPU101aは、カメラ12が撮像する映像を(撮影空間6に位置する被写体である利用者のライブ映像、以降はライブ映像という。)、ライブモニタ13に所定の時間表示させた後(図22(A)−1)、ライブ映像から、ライブモニタ13のライブ映像を表示する範囲(領域)内に、シャッタ動作のタイミングや案内などを含む撮影動作に関する情報に切替えて表示する(図22(A)−2〜図22(A)−5)。   FIG. 22A is an example of the countdown display of the live monitor 13. The CPU 101a displays a video imaged by the camera 12 (a live video image of a user who is a subject located in the imaging space 6, hereinafter referred to as a live video image), and then displays the video image on the live monitor 13 for a predetermined time (FIG. 22A). -1), switching from live video to information relating to shooting operation including the timing of the shutter operation and guidance within the range (area) for displaying live video on the live monitor 13 (FIG. 22A). 2 to FIG. 22 (A) -5).

ここでは、カウントダウン開始前にライブ映像から切替えるようになっているが、このようなタイミングに限定するものではなく、先の撮影終了後一定の時間はライブ映像を表示し、所定の時間が経過した後、ライブ映像を撮影を開始する旨の撮影動作に関する情報表示に切替えるような形態でもよい。   Here, the video is switched from the live video before the countdown starts. However, the timing is not limited to this, and the live video is displayed for a certain time after the end of the previous shooting, and a predetermined time has elapsed. Thereafter, the display may be switched to the information display relating to the shooting operation for starting the shooting of the live video.

このようにすることで、利用者は撮影時のポーズ確認もでき、かつ表示内容が切り替わるため、撮影に対する刺激も与えることができる。また、利用者の視線を自然にカメラ12方向に移すようにすることができる。   By doing in this way, the user can confirm the pose at the time of shooting, and the display contents are switched, so that stimulation for shooting can also be given. In addition, the user's line of sight can be naturally shifted toward the camera 12.

図22(B)は、ライブモニタ13のカウントダウン表示の他の一例である。CPU101aは、カメラ12が撮像するライブ映像に重ねて、ライブモニタ13のライブ映像を表示する範囲(領域)内に、撮影動作に関する情報を表示する(図22(B)1−5)。   FIG. 22B is another example of the countdown display of the live monitor 13. The CPU 101a displays the information related to the shooting operation within the range (area) where the live video of the live monitor 13 is displayed, superimposed on the live video captured by the camera 12 (FIG. 22 (B) 1-5).

このようにすることで、カメラ12のシャッタ動作されるまでの進行案内などの情報を、ポーズを視覚確認しながら、逐一把握することができる。このため、利用者は撮影の進行案内に自然に注目することができる。また、撮影の進行状況がわかりやすいので、シャッタ動作が行なわれるタイミングがわかりやすく、そのタイミングにあわせて意識してポーズをとることもでき、視線をカメラ方向に移すように誘導することができる。   By doing in this way, it is possible to grasp information such as a progress guide until the shutter operation of the camera 12 is performed, while visually confirming the pose. Therefore, the user can naturally pay attention to the shooting guide. In addition, since the progress of photographing is easy to understand, it is easy to understand the timing at which the shutter operation is performed, and it is possible to take a pose in consideration of the timing and to guide the line of sight toward the camera.

また、上述のように、ライブ映像に重ねて撮影動作に関する情報を表示する場合は、ライブモニタ13のライブ映像を表示する範囲(領域)の中でも、上下左右など後の編集操作でフレーム画像を入力する位置に表示しておくことがより好ましい。このようにすることで、利用者は、撮影動作に関する情報を表示している箇所を避けて位置どりを行なおうとするため、フレーム枠内に収まるような位置どりで撮影を行なうことができる。   In addition, as described above, when displaying information related to the shooting operation over a live video, a frame image is input by a subsequent editing operation such as up / down / left / right within the live video display range (area) of the live monitor 13. It is more preferable to display it at the position where it will be. By doing in this way, the user tries to perform the position avoiding the location where the information related to the image capturing operation is displayed, and thus can perform the image capturing at the position that fits within the frame.

図22(C)は、ライブモニタ13のカウントダウン表示のさらに他の一例である。CPU101aは、カメラ12が撮像するライブ映像を表示せずに、ライブモニタ13のライブ映像を表示する範囲(領域)内に、撮影開始案内およびシャッタ動作のタイミングを含む撮影動作に関する情報を表示する(図22(C)1−5)。   FIG. 22C is still another example of the countdown display of the live monitor 13. The CPU 101a does not display the live video captured by the camera 12, but displays information related to the shooting operation including the shooting start guide and the timing of the shutter operation within the range (area) where the live monitor 13 displays the live video ( FIG. 22 (C) 1-5).

このようにすることで、撮影される画像の予想が付かないため、撮影画像がどのように撮影されているか撮影時にはわからない。このため、利用者に新鮮な驚きを与え、遊戯性を高めることができる。また、利用者が、ライブモニタ13に表示された自身の映像を意識しないように撮影を行なうことができるため、利用者の自然な表情を引き出して撮影することができる。   By doing so, it is impossible to predict the image to be shot, so it is not possible at the time of shooting how the shot image is shot. For this reason, a fresh surprise is given to a user and playability can be improved. In addition, since the user can take a picture without being aware of the video displayed on the live monitor 13, the user can take a natural expression and take a picture.

このように、ライブモニタ13に、ライブ映像以外の撮影動作に関する情報を表示するよう制御することで、ライブモニタ13に表示させる内容に変化を与えることができ、撮影に対する刺激を与えることができる。また、利用者の自然な表情を引き出すことができる。   In this way, by controlling the live monitor 13 to display information related to the shooting operation other than the live video, it is possible to change the contents displayed on the live monitor 13 and to provide a stimulus for shooting. In addition, the user's natural facial expression can be brought out.

もちろん、おまけ撮影の時以外でも撮影(シャッタ動作)前のカウントダウン時に上述の3つの具体例のように、ライブモニタ13にカウントダウン表示を行なうよう制御してもよい。   Of course, it is also possible to perform control so that countdown display is performed on the live monitor 13 at the time of countdown before shooting (shutter operation) other than during bonus shooting as in the above three specific examples.

ついで、CPU101aは、ステップS137で撮影した撮影画像のプレビュー画面を撮影操作モニタ18に表示する(S139)。このようにすることで、利用者は撮影画像のでき具合を視覚確認することができる。   Next, the CPU 101a displays a preview screen of the photographed image photographed in step S137 on the photographing operation monitor 18 (S139). By doing in this way, the user can visually confirm the state of the captured image.

以上が、おまけ撮影処理の説明である。   The above is the description of the bonus shooting process.

おまけ撮影処理の1回の撮影が終了したら、図18のステップS123へ戻る。このようにして撮影制限時間に達するまで(図18のS123でYES)、おまけ撮影処理を行なう。撮影制限時間に達していたら(図18のS123でYES)、図15のメインフローへ戻る。   When one shooting of the bonus shooting process is completed, the process returns to step S123 in FIG. In this manner, extra photographing processing is performed until the photographing time limit is reached (YES in S123 of FIG. 18). If the photographing time limit has been reached (YES in S123 in FIG. 18), the process returns to the main flow in FIG.

このように、「こだわり6ショット」は、予め設定された所定の回数の撮影を、繰返し行なう。しかしながら、撮影の前に行なわれる照明や背景や明るさの選択は、選択に要する時間に個人差があるため、所定の回数の撮影が終了する時間は利用者によって異なる。このため、所定回数の撮影終了後に所定の制限時間に達してない場合、おまけ撮影処理を実行することによって撮影プレイを所定の制限時間で終了することができる。   As described above, “discretion 6 shots” are repeatedly performed for a predetermined number of times. However, the selection of the illumination, background, and brightness performed before shooting has individual differences in the time required for selection, and therefore the time at which the predetermined number of shootings is completed differs depending on the user. For this reason, when the predetermined time limit has not been reached after the predetermined number of times of shooting has been completed, the shooting play can be ended by the predetermined time limit by executing the extra shooting process.

以上が「こだわり6ショット」コースにおける撮影処理の説明である。   The above is the description of the photographing process in the “discerning 6-shot” course.

[おまかせ10ショット撮影処理] [Auto 10-shot shooting process]

次に、「おまかせ10ショット」コースにおける撮影処理を図23のフローチャートを用いて説明する。「おまかせ10ショット」では撮影操作モニタ18に表示されるアニメーションや、スピーカ20L、20Rから出力されるBGM(Back Ground Music)などの曲やアナウンスなどの音声に従って、所定のタイミングで順次撮影していく。   Next, photographing processing in the “Random 10 Shots” course will be described with reference to the flowchart of FIG. In “Omakase 10 Shot”, shooting is performed sequentially at a predetermined timing in accordance with the animation displayed on the shooting operation monitor 18 and the sound of a song or announcement such as BGM (Back Ground Music) output from the speakers 20L and 20R. .

CPU101aはステップS25の撮影コース選択で、「おまかせ10ショット」が選択されたと判定すると、明るさ選択画面を撮影操作モニタ18に表示する(S151)。5段階の明るさの中から利用者所望の明るさが選択できるようになっている。また、ここで選択された明るさは撮影5回分共通であって、各々の撮影時には同じ明るさ調整がなされる。各々の明るさはストロボ16の発光時の光量によって調節される。   If the CPU 101a determines that “10 automatic shots” has been selected in the shooting course selection in step S25, the CPU 101a displays a brightness selection screen on the shooting operation monitor 18 (S151). The brightness desired by the user can be selected from five levels of brightness. Further, the brightness selected here is common to five shootings, and the same brightness adjustment is performed at each shooting. The brightness of each is adjusted by the amount of light when the strobe 16 emits light.

ついで、CPU101aは撮影回数(n)に1をセットする(S153)。   Next, the CPU 101a sets 1 to the number of photographing (n) (S153).

ついで、CPU101aは、タイマでの計時を開始し、同時に撮影操作モニタ18へのアニメーション表示を開始し、BGMやアナウンスをスピーカ20L、20Rから出力する(S155)。上述のタイマは、アニメーション開始からの経過時間を計時する。上述のアニメーションは撮影(シャッタ動作)のタイミングや撮影の案内情報を含む。撮影の案内情報は撮影までのカウントダウンや撮影する前に撮影する旨の案内表示を含む。また、BGMやアナウンスはアニメーション表示に同期して出力される。   Next, the CPU 101a starts measuring time with a timer, simultaneously starts animation display on the photographing operation monitor 18, and outputs BGM and announcements from the speakers 20L and 20R (S155). The above timer measures the elapsed time from the start of the animation. The animation described above includes shooting (shutter operation) timing and shooting guide information. The shooting guide information includes a countdown until shooting and a guidance display for shooting before shooting. BGM and announcements are output in synchronization with the animation display.

このようなアニメーションは、1枚1枚の静止画を組み合わせて順次表示出力してもよいし、動画像を出力してもよい。また、アニメーションと音声出力が同期していれば、音声ファイルとアニメーションのデータファイルは同一であっても、別であってもよい。   Such an animation may be sequentially displayed and output by combining still images one by one, or a moving image may be output. If the animation and the audio output are synchronized, the audio file and the animation data file may be the same or different.

図24はアニメーション中の所定回数(ここでは5回)毎の撮影タイミングと各々の撮影時の背景と照明との設定の具体例を示す図である。撮影タイミングは、アニメーション画像の表示開始と同時に計時開始するタイマの経過時間で示される。前述の経過時間が図24で示される撮影時間に達したときに、自動的に撮影(シャッタ動作)が行なわれる。この撮影は図24を参照して対応する背景や照明設定で行なわれる。このような設定が記憶部102a設定ファイルとして記憶されており、撮影プレイ時には上述の設定ファイルの情報を参照してプレイが進行する。   FIG. 24 is a diagram showing a specific example of the setting of the shooting timing for each predetermined number of times (here, 5 times) during the animation and the background and lighting at the time of each shooting. The shooting timing is indicated by the elapsed time of a timer that starts timing simultaneously with the start of display of the animation image. When the elapsed time reaches the shooting time shown in FIG. 24, shooting (shutter operation) is automatically performed. This shooting is performed with the corresponding background and illumination settings with reference to FIG. Such settings are stored as a setting file of the storage unit 102a, and play proceeds with reference to the information of the setting file described above during shooting play.

ついで、CPU101aは、図24が図示する設定ファイルの背景情報を参照して、撮影回数(n)回目に対応する背景ロールカーテン48を繰り出しするよう制御部110を介して、背景制御部115に指示信号を送信し、背景制御部115は該当する背景ロールカーテン48を繰り出すように制御する。また、このときCPU101aは図24が図示する設定ファイルの照明情報を参照して、撮影回数(n)回目に対応する照明設定にするよう制御部110を介してストロボ制御部114に指示信号を送信し、ストロボ制御部114は照明情報の通りにストロボ16の発光を行なうよう制御する(S157)。   Next, the CPU 101a refers to the background information in the setting file illustrated in FIG. 24 and instructs the background control unit 115 via the control unit 110 to feed out the background roll curtain 48 corresponding to the number of times (n) of photographing. The signal is transmitted, and the background control unit 115 controls the corresponding background roll curtain 48 to be fed out. At this time, the CPU 101a refers to the illumination information in the setting file shown in FIG. 24, and transmits an instruction signal to the flash control unit 114 via the control unit 110 so as to set the illumination setting corresponding to the number of times (n). Then, the flash controller 114 controls the flash 16 to emit light according to the illumination information (S157).

そして、CPU101aは、図24が図示する設定ファイルを参照して、ステップS155で計測を開始したタイマの値(経過時間)が、現在の撮影回数(n)回目の撮影(シャッタ動作)を行なう時間(撮影タイミング)に達したかどうかを判定する(S159)。撮影時間(撮影タイミング)に達していなければ(S159でNO)、引き続き撮影時間(撮影タイミング)に達したかどうかの判定を行なう。撮影時間(撮影タイミング)に達した場合(S159でYES)、撮影(シャッタ動作)を行なう(S161)。なお、撮影(シャッタ動作)を行なう前に、撮影の案内情報をアニメーション中に表示し、アニメーションに同期してBGMやアナウンスを出力する。   Then, the CPU 101a refers to the setting file illustrated in FIG. 24, and the timer value (elapsed time) at which the measurement is started in step S155 is the time when the current number of times (n) is taken (shutter operation). It is determined whether or not (shooting timing) has been reached (S159). If the shooting time (shooting timing) has not been reached (NO in S159), it is determined whether or not the shooting time (shooting timing) has been reached. When the shooting time (shooting timing) is reached (YES in S159), shooting (shutter operation) is performed (S161). Before shooting (shutter operation), shooting guide information is displayed during animation, and BGM and announcements are output in synchronization with the animation.

ついで、CPU101aは、所定回数(ここではn=5回)の撮影が終了したかを判定する(S163)。所定回数の撮影が終了したと判定したら(S163でYES)、S165に移る。所定回数の撮影が終了していない場合は(S165でNO)、撮影回数(n)に+1加算し(S167)、ステップS157に戻る。   Next, the CPU 101a determines whether or not shooting has been completed a predetermined number of times (here, n = 5) (S163). If it is determined that the predetermined number of times of shooting has been completed (YES in S163), the process proceeds to S165. If the predetermined number of shootings has not been completed (NO in S165), +1 is added to the number of shootings (n) (S167), and the process returns to step S157.

CPU101aは、所定回数(ここではn=5回)の撮影が終了したと判定した場合(S163)アニメーションとBGMとの終了処理を行なう(S165)。アニメーションとBGMとを終了させると、CPU101aは、ステップS161で撮影した撮影画像のプレビュー画面を撮影操作モニタ18に表示する(S169)。このようにすることで、利用者は撮影画像の出来具合を視覚確認することができる。   If the CPU 101a determines that the predetermined number of times (here, n = 5) of shooting has been completed (S163), the CPU 101a performs an animation and BGM termination process (S165). When the animation and BGM are ended, the CPU 101a displays a preview screen of the captured image captured in step S161 on the imaging operation monitor 18 (S169). In this way, the user can visually check the quality of the captured image.

ついで、CPU101aは、所定回数(ここでは5回撮影×2セット)のアニメーション表示による撮影が終了したかを判定する(S171)。上述の所定回数のアニメーション表示による撮影が終了していない場合は(S171でNO)、ステップS151へ戻り、明るさ選択から始まる一連の処理を繰り返す。このとき、最初のアニメーションとは異なるアニメーション及びそのアニメーションに対応する設定ファイルで撮影を行なう。所定回数(ここでは5回撮影×2セット)のアニメーション表示による撮影が終了した場合は(S171でYES)、図15のメインフローへ戻る。   Next, the CPU 101a determines whether shooting by animation display for a predetermined number of times (here, shooting 5 times × 2 sets) is finished (S171). If the above-described shooting by the predetermined number of animation displays has not ended (NO in S171), the process returns to step S151, and a series of processes starting from brightness selection is repeated. At this time, shooting is performed with an animation different from the first animation and a setting file corresponding to the animation. When shooting by animation display for a predetermined number of times (here, 5 shots × 2 sets) is completed (YES in S171), the process returns to the main flow of FIG.

このように、「おまかせ10ショットコース」では、予め設定されたタイミングで撮影を繰返し行ない、予め設定されたタイミングで設定された撮影が自動的に行なわれるため、いつでも同じように撮影プレイを所定の制限時間で終了することができる。   In this way, in the “Omakase 10-shot course”, shooting is repeated at a preset timing, and the shooting set at the preset timing is automatically performed. It can be finished in a time limit.

また、このような構成によって、利用者は撮影指示や背景選択および背景配置などの操作を必要とせず、また撮影のタイミングに戸惑うことなく、一連のアニメーション画像、曲、音声(ナレーション)の演出に任せて、自然なポーズで、複数の背景を利用した撮影を楽しく行なうことができる。また、自動で繰返し行われる撮影の単調さ、退屈感を解消できる。それにより、集客効果が高まる。   Also, with this configuration, the user does not need operations such as shooting instructions, background selection, and background arrangement, and the production of a series of animation images, songs, and voices (narration) without being confused by the timing of shooting. You can enjoy shooting with multiple backgrounds in a natural pose. In addition, the monotonousness and boredness of automatic repeated photography can be eliminated. Thereby, the effect of attracting customers increases.

以上が「おまかせ10ショット」コースにおける撮影処理の説明である。   The above is the description of the shooting process in the “Random 10 Shots” course.

[フットシャッター撮影処理] [Foot shutter shooting processing]

次に、「フットシャッター」コースにおける撮影処理を図25のフローチャートを用いて説明する。「フットシャッター」コースはフットスイッチ装置43を用いて、撮影プレイを行なう。   Next, photographing processing in the “foot shutter” course will be described with reference to the flowchart of FIG. In the “foot shutter” course, the foot switch device 43 is used to perform a shooting play.

CPU101aは、ステップS25の撮影コース選択で、「フットシャッター」コースが選択されたと判定すると、撮影制限時間の計時(カウント)を開始する(S181)。こうして、利用者が撮影プレイを行ない得る所定の制限時間まで計時する。   When the CPU 101a determines that the “foot shutter” course has been selected in the shooting course selection in step S25, the CPU 101a starts counting the shooting limit time (S181). In this way, the time is counted up to a predetermined time limit at which the user can perform shooting play.

ついで、CPU101aは、撮影方法に関する説明画面を撮影操作モニタ18に表示する(S183)。フットスイッチ装置43を用いて撮影するように案内を行なう。   Next, the CPU 101a displays an explanation screen regarding the photographing method on the photographing operation monitor 18 (S183). The foot switch device 43 is used to guide the user to take a picture.

ついで、CPU101aは撮影操作モニタ18へのアニメーション表示を開始し、BGMをスピーカ20L、20Rから出力する(S185)。アニメーションやBGMは撮影時にテンポよく流れるため利用者の気分を向上させることができる。   Next, the CPU 101a starts displaying an animation on the photographing operation monitor 18, and outputs BGM from the speakers 20L and 20R (S185). Since animation and BGM flow at a good tempo during shooting, the user's mood can be improved.

そして、CPU101aは、どのフットスイッチ装置43を押下するかを指示する画面を撮影モニタ18に表示し(S187)、1回の撮影の制限時間のカウントを開始する(S189)。指定以外のフットスイッチ装置43が押下されたり、指定のフットスイッチ装置43が押下されない場合や、1回の撮影の制限時間に達していない場合は(S191でNO)、引き続き1回の撮影の制限時間のカウントを継続する。   Then, the CPU 101a displays a screen instructing which foot switch device 43 to press on the photographing monitor 18 (S187), and starts counting the time limit for one photographing (S189). If a foot switch device 43 other than the specified one is pressed, or if the designated foot switch device 43 is not pressed or if the time limit for one shooting has not been reached (NO in S191), the limitation for one shooting is continued. Continue counting time.

指定のフットスイッチ装置43が押下されたか、1回の撮影の制限時間に達したかのいずれかの場合(S191でYES)、撮影開始画面を撮影操作モニタ18に表示し(S193)、カメラ12のシャッタ動作(撮影)を行なう(S195)。   If either the designated foot switch device 43 is pressed or the time limit for one shooting is reached (YES in S191), a shooting start screen is displayed on the shooting operation monitor 18 (S193), and the shutter of the camera 12 is displayed. Operation (photographing) is performed (S195).

ついで、CPU101aは、ステップS195で撮影した撮影画像のプレビュー画面を撮影操作モニタ18に表示し(S197)、ステップS199へ移る。   Next, the CPU 101a displays a preview screen of the photographed image photographed in step S195 on the photographing operation monitor 18 (S197), and proceeds to step S199.

そして、ステップS181から計時(カウント)を行なっている撮影制限時間に達しているか、または撮影可能な所定回数(ここでは10回)の撮影が終了しているかどうかを判定する(S199)。撮影制限時間に達している、または撮影可能な所定の回数(ここでは10回)の撮影が終了している場合は(S199でYES)、図15のメインフローへ戻る。ここでは、撮影制限時間に達していれば、所定の回数(ここでは10回)未満しか撮影していなくても、撮影プレイは終了する。このように、撮影回数を調整することによって撮影プレイを所定の制限時間で終了することができる。   Then, it is determined whether or not the shooting limit time for which time counting (counting) has been performed from step S181 has been reached, or whether or not shooting has been completed a predetermined number of times (here, 10 times) (S199). If the shooting limit time has been reached or shooting has been completed a predetermined number of times (10 times here) that can be shot (YES in S199), the process returns to the main flow of FIG. Here, if the shooting time limit has been reached, the shooting play ends even if shooting has been performed less than a predetermined number of times (here, 10 times). In this way, the shooting play can be finished within a predetermined time limit by adjusting the number of times of shooting.

撮影制限時間に達しておらず、所定回数(ここでは10回)の撮影が終了していない場合(S199でNO)、ステップS183へ戻る。このように、撮影制限時間に達したか、撮影可能な所定回数撮影したかのいずれかで、撮影プレイは終了する。なお、撮影可能な所定回数は、撮影制限時間において撮影が行ない得る最大の回数で設定される。   If the shooting limit time has not been reached and shooting for a predetermined number of times (here, 10 times) has not ended (NO in S199), the process returns to step S183. In this way, the shooting play ends when either the shooting time limit is reached or the shooting is performed a predetermined number of times. Note that the predetermined number of times that the image can be taken is set to the maximum number of times that the image can be taken within the restricted time.

なお、1回の撮影が終了した後、次回の1回の撮影の制限時間を変更するよう制御することによって、撮影し得る最大限の回数(ここでは10回)の撮影を行なうようにすることもできる。   In addition, after the completion of one shooting, the maximum number of times (here, 10 times) that can be shot is taken by controlling to change the time limit for the next one shooting. You can also.

まず、撮影プレイの制限時間から、タイマが計時する経過時間を減算して、制限時間までの残り時間を算出する。そして、「フットシャッター」コースの撮影可能な最大限の回数(ここでは10回)から現在撮影している撮影回数を減算して、残りの撮影回数を算出する。残り時間から残りの撮影回数を割り算することによって、残りの撮影を全て撮影するための1回の撮影制限時間が算出できる。このように、1回の撮影制限時間を1回の撮影が終了する毎に繰返し算出することによって、「フットシャッター」コースで撮影し得る最大限の回数の撮影を行なうことができ、さらに所定の撮影制限時間で終了することができる。   First, the remaining time until the time limit is calculated by subtracting the elapsed time counted by the timer from the time limit for shooting play. Then, the remaining number of times of photographing is calculated by subtracting the number of currently photographed images from the maximum number of times (here, 10 times) that can be photographed in the “foot shutter” course. By dividing the remaining number of shootings from the remaining time, it is possible to calculate one shooting limit time for shooting all the remaining shootings. In this way, by repeatedly calculating the time limit for one shooting every time one shooting is completed, it is possible to perform the maximum number of shootings that can be performed in the “foot shutter” course, It can end at the time limit for shooting.

このように、「フットシャッター」コースは利用者所望のタイミングか1回の撮影の制限時間のいずれかで撮影が行なわれるため、撮影回数と1回の撮影の制限時間とのいずれかを調整することによって撮影プレイを所定の制限時間で終了することができる。   In this way, since the “foot shutter” course is shot at either the user-desired timing or the time limit for one shooting, either the number of shooting times or the time limit for one shooting is adjusted. Thus, the shooting play can be completed within a predetermined time limit.

以上が「フットシャッター」コースにおける撮影処理の説明である。   The above is the description of the photographing process in the “foot shutter” course.

上述のように各々の撮影コースでは、「こだわり6ショット」コースでは、撮影制限時間が定められ、通常撮影が早く終了し、時間が余った場合にはおまけ撮影処理を行ない時間調整を行なう。「おまかせ10ショット」コースでは、アニメーションにあわせて自動撮影されるので、はじめから定められた時間で撮影プレイが進行する。「フットシャッター」コースでは、1回の撮影制限時間と撮影可能な回数とのいずれかの調整によって時間調整を行なう。   As described above, in each of the shooting courses, the shooting limit time is determined in the “special 6 shots” course, and normal shooting ends early, and when the time is over, extra shooting processing is performed and time adjustment is performed. In the “Omakase 10 Shots” course, shooting is automatically performed according to the animation, so the shooting play proceeds at a predetermined time from the beginning. In the “foot shutter” course, time adjustment is performed by adjusting either the time limit for one shooting or the number of times that shooting is possible.

このようにすることで、利用者の好みに応じた複数種類の撮影プレイを提供することができる。また、いずれのプレイにおいても同じ対価で同じ時間のプレイを提供することができるので、利用者の満足度が向上する。また、装置はどの利用者に対しても一定の時間で稼動するために回転効率がよく、装置の稼動率が向上する。   In this way, it is possible to provide a plurality of types of shooting play according to the user's preference. Moreover, since play of the same time can be provided in the same price in any play, a user's satisfaction improves. Further, since the apparatus operates for any user in a certain time, the rotation efficiency is good, and the operation rate of the apparatus is improved.

さらに、本実施形態の写真自動販売機のように、撮影プレイをする場所と編集プレイをする場所が異なり、一度に複数組の利用者がプレイを行なう場合は、撮影プレイが早く終了したとしても、先の利用者が編集プレイを終了するまでは編集プレイができないために待ち時間が生じる。   Furthermore, as in the case of the photo vending machine of the present embodiment, when the shooting play is different from the place where the editing play is performed, and multiple sets of users play at once, even if the shooting play ends early Since the editing play cannot be performed until the previous user finishes the editing play, a waiting time occurs.

このような待ち時間を生じさせないために、撮影コースが異なっていても、上述のように撮影プレイ時間は同じになるように調整する。このようにすることによって、利用者の編集プレイ待ち時間が削減でき、例えばおまけ撮影ができるなどお得感を感じさせることもでき、顧客満足を向上させることができる。   In order not to cause such a waiting time, even if the shooting courses are different, the shooting play time is adjusted to be the same as described above. By doing so, it is possible to reduce the user's edit play waiting time, and for example, it is possible to make a sense of value, such as being able to take extra pictures, and to improve customer satisfaction.

また、本実施形態の写真自動販売機のように編集プレイをする場所が複数あり、交互に利用者を夫々の編集部に割り当てる場合には、撮影コースや撮影方法によって撮影時間が異なると、効率よく利用者を夫々の編集部に割り当てることができないという問題があった。また、編集部が1つである場合と同様に待ち時間が発生するという問題があった。   In addition, there are a plurality of places for editing play like the photo vending machine of this embodiment, and when assigning users to each editing section alternately, if the shooting time differs depending on the shooting course and shooting method, the efficiency There was a problem that users could not be assigned to each editorial department. In addition, there is a problem that a waiting time occurs as in the case where there is one editing unit.

上述のように、どの撮影コースでも同じ撮影時間になるように調整することによって、先の利用者が編集を終了したのと同時に、次の利用者は編集を開始できるため、回転効率が向上し、装置の稼働率が高まる。また、利用者は待ち時間の退屈さがなくなるため、満足度が向上する。   As described above, by adjusting the shooting time to be the same for every shooting course, the next user can start editing at the same time as the previous user finishes editing, which improves the rotation efficiency. The operating rate of the device is increased. Moreover, since the user is not bored with waiting time, satisfaction is improved.

ステップS30において、各々の撮影コースで撮影処理が終了すると、撮影画像をより美しい仕上がりにするため、マスク画像作成処理を行なう(S35)。ステップS35のマスク作成処理では、編集処理時の画像処理に使用するため複数のマスク画像(境界マスク画像、ヒカリ背景用マスク画像など)が作成される。マスク画像作成処理は図35および図37のフローチャートを参照して後に詳細を説明する。   In step S30, when the shooting process is completed for each shooting course, a mask image creation process is performed to make the shot image more beautiful (S35). In the mask creation processing in step S35, a plurality of mask images (boundary mask image, light background mask image, etc.) are created for use in image processing during editing processing. Details of the mask image creation processing will be described later with reference to the flowcharts of FIGS.

ついで、CPU101aは、図26のフローチャートを参照して説明する編集部割当処理を行なう(S40)。   Next, the CPU 101a performs an editing unit assignment process described with reference to the flowchart of FIG. 26 (S40).

[編集部割当処理] [Editor section assignment process]

まず、CPU101aは、現在の編集部割当フラグ(f)の値を参照し、当該値がf=0であるか否かを判別する(S301)。ここで、編集部割当フラグ(f)の値がf=0であると(S301でYES)、ステップS303に進み、編集部割当フラグ(f)の値がf=1であると(S301でNO)、ステップS311に進む。   First, the CPU 101a refers to the value of the current editing unit assignment flag (f) and determines whether or not the value is f = 0 (S301). If the value of the editing unit allocation flag (f) is f = 0 (YES in S301), the process proceeds to step S303, and if the value of the editing unit allocation flag (f) is f = 1 (NO in S301). ), The process proceeds to step S311.

編集部割当フラグ(f)の値がf=0であると(S301でYES)、CPU101aは、現在、撮影空間6にいる利用者が第1編集部8aを使用可能であるか否かを判別する(S303)。ここで、第1編集部8aを使用可能であると判別すると(S303でYES)、S307へ進み、第1編集部8aを使用可能でないと判別すると(S303でNO)、S305へ進む。   If the value of the editing unit assignment flag (f) is f = 0 (YES in S301), the CPU 101a determines whether or not the user currently in the shooting space 6 can use the first editing unit 8a. (S303). If it is determined that the first editing unit 8a can be used (YES in S303), the process proceeds to S307. If it is determined that the first editing unit 8a cannot be used (NO in S303), the process proceeds to S305.

「編集部を使用可能」とは、先にプレイしている別グループの利用者が編集部を使用中でない場合や、編集部が故障中でない場合を含む。   The “editing unit can be used” includes a case where a user of another group who has played before does not use the editing unit, or a case where the editing unit is not out of order.

撮影空間にいる利用者が第1編集部8aを使用可能であると(S303でYES)、CPUは、利用者を第1編集部8aへ誘導するように促す誘導案内を行なう(S307)。具体的には操作モニタに「青のブースに移動してね!」などの表示をし、撮影側スピーカ20L、20Rから音声で上述のような誘導案内を出力することにより、利用者に対して青色ブース、すなわち第1編集空間7aに移動するように促す。   If the user in the shooting space can use the first editing unit 8a (YES in S303), the CPU performs guidance guidance that prompts the user to guide to the first editing unit 8a (S307). Specifically, a message such as “Please move to the blue booth!” Is displayed on the operation monitor, and the guidance guidance as described above is output by voice from the photographing speakers 20L and 20R to the user. The user is prompted to move to the blue booth, that is, the first editing space 7a.

ついで、利用者を第1編集部8aへ誘導すると、CPU101aは、編集対象画像(撮影画像)を第1編集部へ転送する画像データ転送処理を行なう(S309)。画像データ転送処理では、撮影・印刷用コンピュータ装置100aに記憶されている利用者の撮影画像を、編集用コンピュータ装置100bの記憶部102bの第1編集部8aに対応する画像データ用の記憶領域へ転送するようになっている。   Next, when the user is guided to the first editing unit 8a, the CPU 101a performs an image data transfer process for transferring the image to be edited (captured image) to the first editing unit (S309). In the image data transfer process, the user's photographed image stored in the photographing / printing computer apparatus 100a is transferred to a storage area for image data corresponding to the first editing section 8a of the storage section 102b of the editing computer apparatus 100b. It is supposed to transfer.

そして、転送が終了したら、図15のメインフローに戻り、編集部割当フラグ(f)の値を切り替える(図15のS45)。すなわち、編集部割当フラグ(f)の値がf=0ならf=1に切り替え、編集部割当フラグ(f)の値がf=1ならf=0に切り替える。   When the transfer is completed, the process returns to the main flow of FIG. 15 to switch the value of the editing unit assignment flag (f) (S45 of FIG. 15). That is, if the value of the editing unit allocation flag (f) is f = 0, the mode is switched to f = 1, and if the value of the editing unit allocation flag (f) is f = 1, the mode is switched to f = 0.

撮影空間にいる利用者が第1編集部を使用可能でないと(S303でNO)、CPU101aは、利用者に対して第1編集部を使用可能になるまで、撮影空間外部で待機するように促す待機案内を行なう(S305)。具体的には、撮影操作モニタ18に「外に出て青のブースの横で待ってね!」などの待機表示や、エラー案内を表示し、撮影側スピーカ20L、20Rから音声で上述のような待機案内、またはエラー案内を出力することにより、利用者に対して撮影空間の外部で第1編集部8a周辺の位置に待機させるように促す。そして、第1編集部8aが使用可能となるか否かを監視する。   If the user in the shooting space cannot use the first editing unit (NO in S303), the CPU 101a prompts the user to wait outside the shooting space until the first editing unit can be used. Standby guidance is performed (S305). Specifically, a standby display such as “Please go out and wait beside the blue booth!” Or an error guide is displayed on the photographing operation monitor 18, and the above-mentioned voices are emitted from the photographing speakers 20L and 20R as described above. By outputting a simple standby guidance or error guidance, the user is urged to wait at a position around the first editing unit 8a outside the imaging space. Then, it is monitored whether or not the first editing unit 8a can be used.

CPU101aは、第1編集部8aが使用可能でなければ(S303でNO)、引き続き第1編集部8aが使用可能になるか否かを監視し、第1編集部8aが使用可能であれば(S303でYES)、撮影画像を編集側コンピュータ装置100bの記憶部102bの第1編集部8aに対応する領域へ転送する画像データ転送処理を行ない(S309)、編集部割当フラグ(f)の値を切り替える。   If the first editing unit 8a is not usable (NO in S303), the CPU 101a continuously monitors whether the first editing unit 8a can be used, and if the first editing unit 8a is usable ( (YES in S303), image data transfer processing is performed to transfer the captured image to an area corresponding to the first editing unit 8a of the storage unit 102b of the editing-side computer device 100b (S309), and the value of the editing unit allocation flag (f) is set. Switch.

一方S301において、編集部割当フラグ(f)の値がf=1であると(S301でNO)、CPU101aは、現在撮影空間にいる利用者が第2編集部8bを使用可能であるか否かを判別する(S313)。そして、以降のS311からS317までの処理は、上述の第1編集部8aのS303からS309までの処理と同様であるため、詳細な説明は繰り返さない。   On the other hand, if the value of the editing unit assignment flag (f) is f = 1 in S301 (NO in S301), the CPU 101a determines whether or not the user currently in the shooting space can use the second editing unit 8b. Is discriminated (S313). Since the subsequent processing from S311 to S317 is the same as the processing from S303 to S309 of the first editing unit 8a described above, detailed description will not be repeated.

すなわち、CPU101aは、落書き入力をどちらの編集部で実行させるかを交互に決定し、上記決定結果に応じて利用者を第1編集部8aまたは第2編集部8bへ誘導するよう、誘導手段(操作モニタ、スピーカ)を使用して制御するようになっている。   That is, the CPU 101a alternately determines which editing unit is to execute the graffiti input and guides the user to the first editing unit 8a or the second editing unit 8b according to the determination result. Control is performed using an operation monitor and a speaker.

前述のような案内に従って、利用者は第1編集部8aまたは第2編集部8bへ移動する。利用者が移動する方向を迷わないようにするために、たとえば矢印とともに「第1編集ブース」と表示し、第1編集部8aの方向を示す案内と、矢印とともに「第2編集ブース」と表示し、第2編集部8bの方向を示す案内とを撮影空間6内のパネルまたはサイドカーテンなどに表示しておくことが好ましい。   In accordance with the guidance as described above, the user moves to the first editing unit 8a or the second editing unit 8b. In order not to be confused about the direction in which the user moves, for example, “first editing booth” is displayed with an arrow, guidance indicating the direction of the first editing unit 8a, and “second editing booth” is displayed with an arrow. It is preferable to display a guide indicating the direction of the second editing unit 8b on a panel or a side curtain in the photographing space 6.

また、編集部8への誘導案内画面は、編集割当フラグ(f)の値を参照することによって、どちらの編集部8を利用するかは判定できるため、撮影処理終了後に限定されることなく、どのタイミングで表示しても構わない。このため、利用者は撮影プレイ前にどちらの編集部8を利用するのかを意識することができるため、編集部8への移動の際に迷うことが少なくなり回転がスムーズになる。   In addition, since the guide screen to the editing unit 8 can determine which editing unit 8 is used by referring to the value of the edit allocation flag (f), it is not limited after the photographing process ends. It may be displayed at any timing. For this reason, since the user can be aware of which editing unit 8 is used before shooting play, the user is less likely to get lost when moving to the editing unit 8 and the rotation is smooth.

以上が、撮影プレイ処理の説明である。   The above is the description of the shooting play process.

[写真自動販売機の編集プレイ処理] [Photo vending machine editing play processing]

次に、編集空間7で行なわれる編集プレイの処理を図27のフローチャートを用いて説明する。   Next, editing play processing performed in the editing space 7 will be described with reference to the flowchart of FIG.

なお、第1編集部8aと第2編集部8bにおいて実行される編集処理の内容は、場所や位置などは異なるが、同様な構成であり、同様な処理が行なわれるため、第1編集部8aの説明のみで、説明の重複部分は繰り返さない。各編集部の処理は編集用コンピュータ装置100bによって制御される。   The contents of the editing process executed in the first editing unit 8a and the second editing unit 8b are different in location and position, but have the same configuration and the same processing is performed. Therefore, the first editing unit 8a The description is not repeated. The processing of each editing unit is controlled by the editing computer device 100b.

上記電源スイッチ111が操作され、電源が投入されると、撮影・印刷用コンピュータ装置100aと同様に、編集用コンピュータ装置100bのCPU101bは、記憶部102bに記憶されたプログラムを起動する。ついで、CPU101bは、各種装置が正常に接続されているかチェックし、初期化処理を行なう(S51)。初期化処理では、初期化が必要な装置に対して初期化が行なわれる。   When the power switch 111 is operated and the power is turned on, the CPU 101b of the editing computer device 100b activates the program stored in the storage unit 102b, like the photographing / printing computer device 100a. Next, the CPU 101b checks whether various devices are normally connected, and performs an initialization process (S51). In the initialization process, initialization is performed on a device that needs to be initialized.

ついで、CPU101bは、利用者に編集操作を待機させるための待機画面または撮影からプレイを開始するように案内する画面を編集操作モニタ60aに表示し、それに応じて編集側スピーカ63aから、利用者に使用を待機させる案内を音声で出力する待機処理を行なう(S53)。ついで、CPU101bは、撮影・印刷用コンピュータ装置100aから転送開始された撮影画像データを受信したか否かを判別する(S55)。すなわち、CPU101bは、待機画面を表示しながら、撮影画像データの受信を開始したか否かを監視する。ここで、撮影画像データの受信を開始していないと判別すると(S55でNO)、このまま撮影画像データを受信するまで待機する。   Next, the CPU 101b displays on the editing operation monitor 60a a standby screen for allowing the user to wait for the editing operation or a screen for guiding the user to start playing from the shooting, and accordingly, from the editing speaker 63a to the user. A standby process of outputting a guidance for waiting for use by voice is performed (S53). Next, the CPU 101b determines whether or not photographic image data started to be transferred from the photographic / printing computer apparatus 100a has been received (S55). That is, the CPU 101b monitors whether reception of captured image data has started while displaying a standby screen. If it is determined that the reception of the captured image data has not started (NO in S55), the process waits until the captured image data is received.

撮影画像データの受信を開始すると(S55でYES)、CPU101bは、撮影画像データを受信中であることを、編集操作モニタ60aに案内表示し(S59)、撮影画像データの受信が終了したか否かを判別する(S61)。撮影画像データの受信が終了していないうちは(S61でNO)、引き続き撮影画像受信中の案内を表示し(S59)、撮影画像データの転送が終了したら(S61でYES)、S63に進む。   When the reception of the captured image data is started (YES in S55), the CPU 101b displays a guide on the editing operation monitor 60a that the captured image data is being received (S59), and whether or not the reception of the captured image data has ended. Is determined (S61). While the reception of the photographic image data has not been completed (NO in S61), the guidance during reception of the photographic image is continuously displayed (S59). When the transfer of the photographic image data is completed (YES in S61), the process proceeds to S63.

次に、CPU101bは、複数種類の編集コースの中から所定の編集コースを選択する編集コース選択処理を行なう(S63)。図28は、編集コース選択画面を示す図である。編集コース選択処理では、利用者が編集コースを選択するための編集コース選択画面を編集操作モニタ60aに表示し、それに応じて編集側スピーカ63aから、利用者に対して編集コースを選択する案内を音声で出力し、利用者に編集コースを選択させる。   Next, the CPU 101b performs an editing course selection process for selecting a predetermined editing course from a plurality of types of editing courses (S63). FIG. 28 shows an edit course selection screen. In the editing course selection process, an editing course selection screen for the user to select an editing course is displayed on the editing operation monitor 60a, and accordingly, the editing speaker 63a guides the user to select the editing course. Output by voice and let the user select an editing course.

編集コースは「なかよし」と「みんなで」と「ラブラブ」とがある。「なかよし」は、メッセージスタンプなど、落書き用画像が、少人数の友達同士で落書きするのに好適な素材を提供する。「みんなで」は、多人数の友達同士で落書きするのに好適な素材を提供する。「ラブラブ」は、恋人同士で落書きするのに好適な素材を提供する。   The editing courses are “Nakayoshi”, “Everyone” and “Love Love”. “Nakayoshi” provides a suitable material for graffiti images such as message stamps for doodles with a small number of friends. “Everyone” provides materials suitable for graffiti with many friends. “Love Love” provides materials suitable for graffiti between lovers.

写真自動販売機は複数人でプレイされることが多いため、友達2人でプレイを行なっている場合や、大勢でプレイを行なっている場合や、恋人同士でプレイを行なっている場合など、利用者の関係性は様々である。上述のように落書き用画像の素材をそれぞれの関係性に応じて提供することによって、編集が行ないやすくなり、出来上がりのシートも利用者の満足いくものとなりやすい。   Photo vending machines are often played by more than one person, so if you are playing with two friends, playing in large numbers, or playing with lovers, etc. There are various relationships among people. As described above, by providing the graffiti image material according to each relationship, editing is facilitated, and the completed sheet is likely to satisfy the user.

ついで、CPU101bは、撮影画像の中から編集対象とする画像(編集対象画像)を選択する編集対象画像選択処理を行なう(S65)。編集対象画像選択処理では、利用者が編集対象画像を選択するための編集対象画像選択画面を編集操作モニタ60aに表示し、それに応じて編集側スピーカ63aから、利用者に対して編集対象画像を選択する案内を音声で出力し、利用者に編集対象画像を所定枚数(ここでは4枚)選択させる。所定枚数の選択が行なわれない場合は、撮影した順で自動的に選択される。つまり、必ず所定枚数(ここでは4枚)の編集対象画像が選択される。ここで編集対象画像として選択されなかった撮影画像はおまけ画像として処理される。おまけ画像に関しては後に詳細を説明する。   Next, the CPU 101b performs an edit target image selection process for selecting an image to be edited (edit target image) from the photographed images (S65). In the editing target image selection process, an editing target image selection screen for the user to select an editing target image is displayed on the editing operation monitor 60a, and the editing target image is sent from the editing speaker 63a to the user accordingly. The guidance to be selected is output by voice, and the user is made to select a predetermined number of images to be edited (four in this case). If the predetermined number of images is not selected, the images are automatically selected in the order of shooting. In other words, a predetermined number of images (four images in this case) are always selected. Here, the captured image that has not been selected as the image to be edited is processed as a bonus image. Details of the bonus image will be described later.

編集対象画像の選択が終了したら、利用者からタッチペン62aL、62aRによる編集対象画像に対する編集入力を受け付ける編集処理を行なう(S67)。   When the selection of the editing target image is completed, an editing process for accepting an editing input to the editing target image with the touch pens 62aL and 62aR from the user is performed (S67).

[編集処理]   [Edit processing]

ステップS67で実行される編集処理の具体例について説明する。 A specific example of the editing process executed in step S67 will be described.

図29は編集画面を示す図である。図29に示すように、編集画面は、撮影画像のうちステップS65で編集対象画像として選択された画像を表示して選択可能にする編集対象画像選択領域200と、撮影画像のうちステップS65で編集対象画像として選択されなかった画像を表示して選択可能にするおまけ画像選択領域201と、この画像選択領域に表示される撮影画像の中から選択された撮影画像を表示し、利用者が編集入力するための作業領域である落書き入力領域202a、202b(これらをまとめて落書き入力領域202という。)と、編集を行なう機能を選択するための「スペシャル」、「ペン」、「スタンプ」、「フレーム&ライン」、等のいわゆる編集ツールを選択するための選択領域である落書き機能選択領域203と、いわゆるお絵描きパレットと呼ばれる落書き機能選択領域203で選択した機能の落書き用画像(模様画像)を表示して選択させるための落書き用画像選択領域204a、204b(これらをまとめて落書き用画像選択領域204という。)と、日付や落書きのヒントとなるような言葉や質問を順次表示していくヒント表示領域205とを含んで構成される。ヒントは自動的に一定間隔で切り替わるよう制御される。   FIG. 29 shows an editing screen. As shown in FIG. 29, the edit screen displays the image selected as the image to be edited in step S65 among the photographed images and allows the image to be selected, and the image to be edited in step S65 among the photographed images. An extra image selection area 201 that displays an image that has not been selected as a target image and allows selection, and a captured image selected from the captured images displayed in the image selection area are displayed, and the user inputs an edit input. Graffiti input areas 202a and 202b (collectively referred to as the graffiti input area 202) and "special", "pen", "stamp", "frame" for selecting the editing function Doodle function selection area 203, which is a selection area for selecting so-called editing tools such as “& Line” and so-called drawing palette. Graffiti image selection areas 204a and 204b (collectively referred to as the graffiti image selection area 204) for displaying and selecting a graffiti image (pattern image) of the function selected in the graffiti function selection area 203. It includes a hint display area 205 that sequentially displays words and questions that serve as hints for dates and doodles. The hints are automatically controlled at regular intervals.

また、その他には、落書き用画像入力を最初からやり直すための「はじめから」ボタンや、入力した落書き用画像を消すための「けしごむ」、入力操作を一つ前の状態に戻すための「もどる」などの様々な機能ボタンも配置されている。   In addition, there is a “start from” button to restart the graffiti image input from the beginning, “kakegomu” to erase the input graffiti image, and to return the input operation to the previous state. Various function buttons such as “Return” are also arranged.

利用者は、これらのボタンをタッチペン62aL、62aRでタッチすることで使用する機能を選択し、編集操作を行なう。落書き用画像選択領域204に該ツールの落書き用画像を表示し、さらに、色、柄、大きさなどを選択した後、落書き入力領域(描画領域)202に表示された編集対象画像の上で編集入力(落書き用画像の入力)を行なうことができる。   The user selects a function to be used by touching these buttons with the touch pens 62aL and 62aR, and performs an editing operation. The graffiti image of the tool is displayed in the graffiti image selection area 204, and after selecting the color, pattern, size, etc., editing is performed on the image to be edited displayed in the graffiti input area (drawing area) 202 Input (input of graffiti image) can be performed.

上述のスタンプなどの機能のうち、「親子スタンプ」「ヒカリ背景」「透過スタンプ」に関しては後に詳細を説明する。   Of the functions such as the above-described stamps, “parent / child stamp”, “hikari background”, and “transparent stamp” will be described in detail later.

また、図示の編集画面は、落書き入力領域202と落書き用画像選択領域204とが複数で構成されている。   The illustrated editing screen includes a plurality of graffiti input areas 202 and graffiti image selection areas 204.

上述の場合は、編集対象画像の選択操作を2人で同時に許容し、編集画面上には、それぞれの利用者により選択された撮影画像に対応して2人で同時に編集操作ができるようにいわゆる2画面の構成をとっている。このようにすることにより、複数の利用者で編集プレイを楽しむことができる。それぞれのタッチペン62はそれぞれの落書き入力領域202に対応し、それぞれが別の編集を同時に行なえるように構成している。   In the above-described case, the selection operation of the image to be edited is allowed by two people at the same time, and the editing screen is so-called so that two people can simultaneously perform the editing operation corresponding to the photographed image selected by each user. It has a two-screen configuration. In this way, editing play can be enjoyed by a plurality of users. Each touch pen 62 corresponds to each graffiti input area 202, and each touch pen 62 is configured to be able to perform different editing simultaneously.

具体的には、中央部分の編集対象画像選択領域200とおまけ画像選択領域201と機能選択領域203とは、両方のタッチペン62aL、62aRで入力操作を受け付け、落書き入力領域202a、落書き用画像選択領域204aは左側タッチペン62aLのみ入力操作を受け付け、落書き入力領域202b、落書き用画像選択領域204bは右側タッチペン62aRのみ入力操作を受け付ける。   Specifically, the editing target image selection area 200, the bonus image selection area 201, and the function selection area 203 in the central portion accept input operations with both touch pens 62aL and 62aR, and the graffiti input area 202a and graffiti image selection area. 204a accepts input operations only on the left touch pen 62aL, and the graffiti input area 202b and graffiti image selection area 204b accept input operations only on the right touch pen 62aR.

編集処理では、利用者は編集制限時間内において編集プレイを行なうことができる。編集制限時間は利用者にわかりやすいように、編集操作モニタ60aの編集画面上に残り時間を表示し、カウントダウンを行なう。   In the editing process, the user can play editing within the time limit for editing. The editing time limit is displayed on the editing screen of the editing operation monitor 60a so as to be easily understood by the user, and the countdown is performed.

利用者が編集処理を行なっている間、CPU101bは、編集処理が終了したか否かを監視する(S69)。編集時間はタイマの残り時間が“0”になり、編集制限時間に達することによって終了する。このようにすることで、利用者の1回のプレイ時間が長引くことを防止することができ、このため、本装置の稼動回転率(顧客回転率)の低下を防止することができる。   While the user is performing the editing process, the CPU 101b monitors whether the editing process has been completed (S69). The editing time ends when the remaining time of the timer reaches “0” and reaches the editing time limit. By doing in this way, it can prevent that a user's one-time play time is prolonged, For this reason, the fall of the working rotation rate (customer turnover rate) of this apparatus can be prevented.

ついで、CPU101bは、上記編集処理が終了すると、おまけ画像を選択するおまけ画像選択処理を行なう(S71)。おまけ画像は1枚から4枚、利用者の所望の画像を選択できる。ここで、選択した画像はおまけ画像としてシールシートに印刷される。このように、おまけ画像を選択できるため、利用者の好みのおまけ画像を提供することができる。   Next, when the editing process is completed, the CPU 101b performs a bonus image selection process for selecting a bonus image (S71). One to four extra images can be selected as desired by the user. Here, the selected image is printed on the sticker sheet as a bonus image. In this way, since an extra image can be selected, an extra image desired by the user can be provided.

おまけ画像は通常印刷される編集対象画像とは別に、シールシートの隅や余白などに印刷される画像である。上述の編集対象画像に選択されなかった撮影画像はおまけ画像としてシールシートの隅の方や余白などに印刷することができる。図30は印刷されたシールシートの具体例である。通常シールシートには、編集対象画像のみを印刷するが、本実施の形態においては、編集対象画像が領域Aに印刷され、編集対象画像として選択されなかった撮影画像がおまけ画像として領域Bに印刷されている。このようにすることで、利用者にお得感を感じさせることができる。   The bonus image is an image printed in the corner or margin of the sticker sheet separately from the image to be edited that is normally printed. A photographed image that has not been selected as the image to be edited can be printed as a bonus image in the corner or margin of the sticker sheet. FIG. 30 is a specific example of a printed sticker sheet. Normally, only the image to be edited is printed on the sticker sheet, but in this embodiment, the image to be edited is printed in the area A, and the photographed image not selected as the image to be edited is printed in the area B as an extra image. Has been. In this way, the user can feel a sense of profit.

おまけ画像選択処理が終了すると、CPU101bは、利用者所望のシールレイアウトの選択を行なう印刷レイアウト選択処理を行なう(S73)。印刷レイアウト選択処理では、編集対象画像の枚数に応じて、予め決められた複数の印刷レイアウトで構成された印刷レイアウト画面を表示し、上記複数の印刷レイアウトの中から利用者に対し好みの印刷レイアウトを選択させるようになっている。   When the bonus image selection process is completed, the CPU 101b performs a print layout selection process for selecting a seal layout desired by the user (S73). In the print layout selection process, a print layout screen composed of a plurality of predetermined print layouts is displayed according to the number of images to be edited, and the user can select a desired print layout from the plurality of print layouts. Is supposed to be selected.

上記印刷レイアウト選択処理が終了すると、CPU101bは、編集操作モニタ60aに「シールをプリント中です。プリント取出口の前で待ってね。」など、利用者をプリント取出口25に誘導する画面を表示すし、同時に誘導するアナウンス音声(例えば「シールは左から出るよ!」)を、編集側スピーカ63aから出力する。こうして、利用者をプリント取出口25の前に誘導する(S75)。   When the above-described print layout selection processing is completed, the CPU 101b displays a screen for guiding the user to the print exit 25, such as “Seal is being printed. Please wait before the print exit” on the editing operation monitor 60a. At the same time, the announcement voice (for example, “The sticker comes out from the left!”) Is output from the editing speaker 63a. Thus, the user is guided in front of the print outlet 25 (S75).

CPU101bは、選択されたレイアウトに基づいて撮影画像と入力された落書き用画像とを合成した合成画像とを含む印刷画像データを作成する。そして、編集用コンピュータ装置100aから撮影・印刷用コンピュータ装置100bへ作成された印刷画像データの転送を開始する(S79)。印刷データの転送が完了したら(S81でYES)、ステップS53へ戻り、次の利用者の編集操作を待機する。   The CPU 101b creates print image data including a composite image obtained by combining the captured image and the input graffiti image based on the selected layout. Then, transfer of the created print image data from the editing computer apparatus 100a to the photographing / printing computer apparatus 100b is started (S79). When the transfer of the print data is completed (YES in S81), the process returns to step S53 and waits for the next user editing operation.

以上が、編集プレイ処理の説明である。   The above is the description of the edit play process.

編集用コンピュータ装置100bから、印刷画像データが転送されると、撮影・印刷用コンピュータ装置100aのCPU101aは、印刷画像をシールシートの表面に印刷させる印刷制御を行なう印刷開始処理を行なう。すなわち、プリンタ11は撮影画像と落書き用画像との合成画像をレイアウトに応じて複数配置された印刷画像データをシールシートに印刷出力する。   When the print image data is transferred from the editing computer apparatus 100b, the CPU 101a of the photographing / printing computer apparatus 100a performs a print start process for performing print control for printing the print image on the surface of the sticker sheet. That is, the printer 11 prints and outputs on the sticker sheet print image data in which a plurality of combined images of the photographed image and the graffiti image are arranged according to the layout.

このときCPU101aは、現在出力中の印刷画像データが第1編集部8a(青コーナー)の印刷画像データである場合は「青コーナーのシートを印刷中です」、第2編集部8b(赤コーナー)の印刷画像データである場合は「赤コーナーのシートを印刷中です」とプリント案内部26に表示する。   At this time, if the print image data currently being output is the print image data of the first editing unit 8a (blue corner), the CPU 101a "prints the blue corner sheet", the second editing unit 8b (red corner) In the case of the print image data, “printing sheet at red corner” is displayed on the print guide unit 26.

印刷が終了したら、シールシートはプリント取出口25に排出される。   When printing is completed, the seal sheet is discharged to the print outlet 25.

[親子スタンプを用いた編集処理] [Editing using parent-child stamps]

次に「親子スタンプ」の編集処理を、図31のフローチャートを用いて説明する。「親子スタンプ」は、撮影画像に落書き用画像を編集入力する「スタンプ」機能の1つである。   Next, the “parent-child stamp” editing process will be described with reference to the flowchart of FIG. The “parent-child stamp” is one of the “stamp” functions for editing and inputting a graffiti image in a photographed image.

図32は親子スタンプの模様画像を示す図である。「親子スタンプ」において用いられる落書き用画像は、親画像210と子画像211とを含んで構成される。子画像211はさらに画像要素212a〜212d(これらをまとめて画像要素212という)を含んで構成される。「親子スタンプ」はタッチペン62によって現在タッチされている位置に親画像210を表示し、タッチペン62の移動する軌跡上に子画像211を配置することにより、親画像210から子画像211の画像要素212a〜212dが次々に生まれているような表現をするスタンプである。   FIG. 32 is a diagram showing a pattern image of a parent-child stamp. The graffiti image used in the “parent / child stamp” includes a parent image 210 and a child image 211. The child image 211 further includes image elements 212a to 212d (collectively referred to as image elements 212). The “parent-child stamp” displays the parent image 210 at the position currently touched by the touch pen 62, and places the child image 211 on the locus of movement of the touch pen 62, thereby causing the image element 212 a of the child image 211 from the parent image 210. ˜212d is a stamp that expresses one after another.

始めに、図29に示される編集画面に選択可能に表示されている機能の中から、用いられる機能として「スタンプ」が選択されると、「スタンプ」機能で用いられる機能がわかりやすくカテゴリ別に表示される。   First, when “stamp” is selected as a function to be used from among the functions displayed on the edit screen shown in FIG. 29, the functions used in the “stamp” function are displayed in an easy-to-understand manner by category. Is done.

表示された機能の中から「スタンプ」機能において用いる機能として「親子スタンプ」が選択されると、編集画面の落書き用画像選択領域204に「親子スタンプ」機能で用いられる落書き用画像(模様画像)を示すアイコンが選択可能に複数表示される。なお、落書き用画像選択領域204に示されるアイコンは、実際に編集対象画像上に配置される模様画像でなく、配置される模様画像をイメージできるものであればよい。そして、利用者は表示された複数のアイコンの中から編集入力に用いる模様画像をタッチペン62でタッチして選択する。   When “parent / child stamp” is selected as a function used in the “stamp” function from among the displayed functions, a graffiti image (pattern image) used in the “parent / child stamp” function in the graffiti image selection area 204 on the editing screen. A plurality of icons are displayed so as to be selectable. Note that the icon shown in the graffiti image selection area 204 is not limited to a pattern image that is actually arranged on the image to be edited, but may be any icon that can image the arranged pattern image. Then, the user touches and selects a pattern image used for editing input from the displayed icons with the touch pen 62.

CPU101bは、編集入力に用いる「親子スタンプ」の模様画像が選択されたか否かを判定する(S401)。模様画像が選択されていないと判定すると(S401でNO)、ステップS405へ移る。模様画像が選択されたと判定すると(S401でYES)、ステップS403へ移る。   The CPU 101b determines whether or not a “parent-child stamp” pattern image used for editing input has been selected (S401). If it is determined that the pattern image is not selected (NO in S401), the process proceeds to step S405. If it is determined that the pattern image has been selected (YES in S401), the process proceeds to step S403.

次に、CPU101bは、編集操作モニタ60に表示されている落書き入力領域202がタッチペン62でタッチされたか否かを判定する(S403)。落書き入力領域202がタッチペン62でタッチされていないと判定すると(S403でNO)、ステップS405へ移る。落書き入力領域202がタッチペン62でタッチされたと判定すると(S403でYES)、ステップS409へ移る。   Next, the CPU 101b determines whether or not the graffiti input area 202 displayed on the editing operation monitor 60 has been touched with the touch pen 62 (S403). If it is determined that the graffiti input area 202 is not touched with the touch pen 62 (NO in S403), the process proceeds to step S405. If it is determined that the graffiti input area 202 is touched with the touch pen 62 (YES in S403), the process proceeds to step S409.

CPU101bは、模様画像が選択されておらず、落書き入力領域202がタッチペン62でタッチされていない場合、タッチペン62で他の機能が選択されるなどの他の動作がなされたかどうか判定する(S405)。他の機能が選択されるなどの他の動作がなされた場合(S405でYES)、他の動作に従った処理が行なわれる(S407)。他の動作がなされていない場合は(S405でNO)、ステップS401へ戻る。   When the pattern image is not selected and the graffiti input area 202 is not touched with the touch pen 62, the CPU 101b determines whether another operation such as selecting another function with the touch pen 62 has been performed (S405). . When another operation such as selection of another function is performed (YES in S405), processing according to the other operation is performed (S407). If no other operation is performed (NO in S405), the process returns to step S401.

CPU101bは、落書き入力領域202がタッチペン62でタッチされたと判定すると(S403でYES)、タッチペン62でタッチされている落書き入力領域202上の現在位置座標(x、y)を検出する。そして、図33(A)が示すように、タッチペン62でタッチされている現在位置座標(x、y)上に親画像210を表示する(S409)。   When the CPU 101b determines that the graffiti input area 202 is touched with the touch pen 62 (YES in S403), the CPU 101b detects the current position coordinates (x, y) on the graffiti input area 202 touched with the touch pen 62. Then, as shown in FIG. 33A, the parent image 210 is displayed on the current position coordinates (x, y) being touched with the touch pen 62 (S409).

ついで、CPU101bは、落書き入力領域202からタッチペン62が離れたか否かを判定する(S411)。落書き入力領域202からタッチペン62が離れていない場合は(S411でNO)、ステップS413へ移る。   Next, the CPU 101b determines whether or not the touch pen 62 has left the graffiti input area 202 (S411). If the touch pen 62 is not separated from the graffiti input area 202 (NO in S411), the process proceeds to step S413.

ついで、CPU101bは、タッチペン62が落書き入力領域202上を移動したか否かを判定する(S413)。タッチペン62が落書き入力領域202上を移動した場合(S413でYES)、ステップS415へ移る。タッチペン62が落書き入力領域202上を移動していない場合(S413でNO)、ステップS411へ戻り、タッチペン62が落書き入力領域202を離れたか否かを判定する処理から始まる一連の処理を行なう。   Next, the CPU 101b determines whether or not the touch pen 62 has moved on the graffiti input area 202 (S413). If the touch pen 62 has moved on the graffiti input area 202 (YES in S413), the process proceeds to step S415. If the touch pen 62 has not moved on the graffiti input area 202 (NO in S413), the process returns to step S411, and a series of processes starting from the process of determining whether or not the touch pen 62 has left the graffiti input area 202 is performed.

CPU101bは、タッチペン62が現在位置座標から移動したと判定すると(S413でYES)、図33(B)が図示するように、表示中の親画像210を消去し、移動したタッチペン62がタッチされている現在位置座標上に親画像210を表示する(S415)。   When the CPU 101b determines that the touch pen 62 has moved from the current position coordinates (YES in S413), as shown in FIG. 33B, the displayed parent image 210 is deleted, and the moved touch pen 62 is touched. The parent image 210 is displayed on the current position coordinates (S415).

ついで、CPU101bは、タッチペン62が移動した軌跡の長さが所定値に達したかどうか判定する(S417)。ここでいう所定値とは、図32に示される子画像211の画像要素212aの長さwである。軌跡の長さが所定値に達した場合(S417でYES)、図33(C)が図示するように、子画像211の画像要素212aをタッチペン62の軌跡上に表示する(S419)。そして、ステップS411へ戻る。   Next, the CPU 101b determines whether or not the length of the locus of movement of the touch pen 62 has reached a predetermined value (S417). The predetermined value here is the length w of the image element 212a of the child image 211 shown in FIG. When the length of the trajectory reaches a predetermined value (YES in S417), the image element 212a of the child image 211 is displayed on the trajectory of the touch pen 62 as shown in FIG. 33C (S419). Then, the process returns to step S411.

さらにタッチペン62が移動し、移動した軌跡の長さが所定値に達したら、図33(D)が図示するように、子画像211の画像要素212bをタッチペン62の軌跡上に表示する。すなわち、子画像211の画像要素212が配置できる長さ分タッチペン62が移動すると図33(E)が図示するように画像要素211が所定の順番(ここでは212a→212b→212c→212dの順)で、タッチペン62の軌跡上に配置される。そして引き続きタッチペン62が移動したら、再び、図33(F)が図示するように、画像要素211が所定の順番(ここでは212a→212b→212cの順)で、タッチペン62の軌跡上に配置される。   Further, when the touch pen 62 moves and the length of the moved locus reaches a predetermined value, the image element 212b of the child image 211 is displayed on the locus of the touch pen 62 as shown in FIG. That is, when the touch pen 62 moves by a length that allows the image element 212 of the child image 211 to be arranged, the image elements 211 are in a predetermined order as shown in FIG. 33E (here, 212a → 212b → 212c → 212d) Thus, it is arranged on the locus of the touch pen 62. If the touch pen 62 continues to move, the image elements 211 are again arranged on the locus of the touch pen 62 in a predetermined order (here, 212a → 212b → 212c) as shown in FIG. 33 (F). .

各画像要素211が配置される位置は必ずしもタッチペン62が描く軌跡上でなくてもよく、たとえば親画像210が配置される位置が座標(x、y)であるときに、画像要素211aの配置される位置は座標(x、y−1)とし、画像要素211bの配置される位置は(x、y+1)とするなど、配置位置を軌跡からずらすようにしてもよい。   The position where each image element 211 is arranged does not necessarily have to be on the locus drawn by the touch pen 62. For example, when the position where the parent image 210 is arranged is the coordinates (x, y), the image element 211a is arranged. The position where the image element 211b is arranged may be (x, y + 1) and the position where the image element 211b is arranged may be (x, y + 1).

また、タッチペン62で描かれた軌跡が曲線である場合、曲線に沿って画像要素212を回転させてもよい。これはタッチペンの軌跡上の画像要素212を配置する位置における軌跡に対する法線に応じて、各画像要素212を回転させることで実現される。または、含まれる画像要素212を回転させるための制御情報を各画像要素が保持し、その制御情報の法則に従って含まれる画像要素を回転させてもよい。   When the locus drawn with the touch pen 62 is a curve, the image element 212 may be rotated along the curve. This is realized by rotating each image element 212 in accordance with the normal to the locus at the position where the image element 212 is placed on the locus of the touch pen. Alternatively, each image element may hold control information for rotating the included image element 212, and the included image element may be rotated according to the law of the control information.

このようにして、タッチペン62の移動につれてタッチペン62の現在位置上を親画像210が移動し、所定の間隔(たとえば10ms)毎に連続的に検出された座標(x、y)から成る軌跡上に、子画像211の画像要素212を繰り返し配置して、落書き入力領域202上に模様画像を表示する。   In this way, the parent image 210 moves on the current position of the touch pen 62 as the touch pen 62 moves, and on a trajectory composed of coordinates (x, y) continuously detected at predetermined intervals (for example, 10 ms). The image element 212 of the child image 211 is repeatedly arranged to display the pattern image on the graffiti input area 202.

CPU101bにおいて、タッチペン62が落書き入力領域202から離れた場合は、タッチペン62が離れた時点で表示されている親画像210、子画像211を含む模様画像を入力された落書き画像として確定する(S421)。   In the CPU 101b, when the touch pen 62 leaves the graffiti input area 202, the pattern image including the parent image 210 and the child image 211 displayed when the touch pen 62 leaves is determined as the input graffiti image (S421). .

このようにすることで、描画時に親画像210から子画像211が次々に生まれているような表現を行なうことができ、編集入力時の面白味が増す。   By doing so, it is possible to perform an expression such that the child images 211 are born one after another from the parent image 210 at the time of drawing, and the fun at the time of editing input increases.

図34は、子画像211が複数ある場合の「親子スタンプ」の模様画像を示す図である。図34(A)が示すように、子画像211は複数で構成されてもよい。このように複数の子画像211を含む「親子スタンプ」は、描画をすると、図34(B)が図示するように、子画像211bが子画像211aのアクセントになり、編集入力が多様になる。   FIG. 34 is a diagram showing a pattern image of “parent / child stamp” when there are a plurality of child images 211. As shown in FIG. 34A, a plurality of child images 211 may be configured. As described above, when a “parent-child stamp” including a plurality of child images 211 is drawn, the child image 211b becomes an accent of the child image 211a as shown in FIG.

以上が「親子スタンプ」を用いた編集処理の説明である。   The above is the description of the editing process using the “parent-child stamp”.

[ふちどり効果の画像編集処理] [Image editing processing for edge effect]

次に、「ふちどり効果」の画像編集処理を説明する。「ふちどり効果」とは、撮影画像Aに基づいて作成する境界マスク画像Eを用いて、被写体と背景との境界に画像処理等を施すものである。   Next, the “edge trimming effect” image editing process will be described. The “edge trimming effect” is to perform image processing or the like on the boundary between the subject and the background using the boundary mask image E created based on the captured image A.

[境界マスク画像作成処理] [Boundary mask image creation processing]

まず、「ふちどり効果」で用いられる境界マスク画像Eの作成処理を図35のフローチャートを用いて説明する。   First, the process of creating the boundary mask image E used for the “edge trimming effect” will be described using the flowchart of FIG.

まず、図示してはいないが、予めカメラ12などの撮影手段による撮影処理時に被写体の後方に配置され、被写体とともに撮影される背景として使用した背景ロールカーテン48の情報と、使用した照明設定の情報を保持しておく。そして、上述の情報から記憶部102aに記憶されている設定ファイルを参照して背景色情報などの所定の情報に基づいて、撮影時に記憶部102bに記憶された撮影画像の背景領域と背景領域以外の領域である被写体領域とを特定する。被写体とは主に、本写真自動販売機でプレイを行なっている利用者(人物)である。   First, although not shown in the figure, information on the background roll curtain 48 that is arranged behind the subject during photographing processing by the photographing means such as the camera 12 and used as a background to be photographed together with the subject, and information on the illumination setting used. Keep it. Based on predetermined information such as background color information with reference to the setting file stored in the storage unit 102a from the above information, the background area and the background area other than the background area of the captured image stored in the storage unit 102b at the time of shooting The subject area that is the area of the subject is specified. The subject is mainly a user (person) playing with the photo vending machine.

設定ファイルは、各々の照明設定での撮影時における各々の背景ロールカーテン48の色の背景色情報が記憶されている。背景色情報は、例えばRGB値で記憶されている。照明設定によって、撮影された背景ロールカンテーン48の発色が異なるので、背景色情報は(照明設定の種類数)×(背景ロールカーテン48の種類数)分用意される。   The setting file stores background color information of the color of each background roll curtain 48 at the time of shooting with each lighting setting. The background color information is stored as RGB values, for example. Since the color of the photographed background roll canteen 48 differs depending on the illumination setting, background color information is prepared for (number of types of illumination settings) × (number of types of background roll curtain 48).

なお、撮影時には、前面照明装置14から光を照射しているために、背景部分には被写体の影が生じる。すなわち同一の背景色でも暗くなる部分が生じるため、元の背景色情報のみによる抽出だけでは正確に全ての背景領域(被写体以外の部分)を抽出できない。このため、設定ファイルの背景色情報の各々には、被写体の影になる部分も考慮された背景色情報が複数記憶してある。そして、CPU101aは、背景特定処理時には該設定ファイルを元に段階的に複数回、複数種類の背景色情報に基づいて撮影画像の中から背景領域80を特定する(S251)。   At the time of photographing, since light is emitted from the front lighting device 14, a shadow of the subject is generated in the background portion. That is, a dark portion occurs even with the same background color, so that it is not possible to accurately extract all the background regions (portions other than the subject) only by extraction using only the original background color information. For this reason, each of the background color information in the setting file stores a plurality of pieces of background color information in consideration of a portion that becomes a shadow of the subject. Then, the CPU 101a specifies the background region 80 from the photographed image based on the plurality of types of background color information a plurality of times stepwise based on the setting file during the background specifying process (S251).

上述のように、本発明の写真自動販売機1は、複数回、複数種類の背景色情報で背景領域を特定することにより、背景領域80を正確に特定することができる。すなわち、図36(A)に図示するように、撮影画像Aを背景領域80(斜線部分)と被写体領域81(斜線以外の部分)とに区分することができる。   As described above, the photo vending machine 1 according to the present invention can accurately specify the background region 80 by specifying the background region a plurality of times with a plurality of types of background color information. That is, as shown in FIG. 36A, the captured image A can be divided into a background region 80 (shaded portion) and a subject region 81 (portion other than the shaded portion).

そして、上述の領域情報を元に図36(B)に示される第1のマスク画像(マスク画像B)を作成する(S253)。すなわち、CPU101aは、被写体領域81に含まれている画素のRGB値を(R,G,B)=(0,0,0)にして、背景領域80に含まれている画素のRGB値を(R,G,B)=(255,255,255)にして、第1のマスク画像Bを作成する。   Then, a first mask image (mask image B) shown in FIG. 36B is created based on the region information (S253). That is, the CPU 101a sets the RGB values of the pixels included in the subject area 81 to (R, G, B) = (0, 0, 0), and sets the RGB values of the pixels included in the background area 80 to ( R, G, B) = (255, 255, 255) and the first mask image B is created.

このようにして、特定された背景に対応する背景領域80と背景領域以外の領域である被写体領域81とに区別された第1のマスク画像Bを作成する。   In this way, a first mask image B is created that is distinguished from the background region 80 corresponding to the specified background and the subject region 81 that is a region other than the background region.

ついで、CPU101aは、第1のマスク画像Bの背景領域80を所定のピクセル分、被写体領域81方向(図36(C)の矢印方向)に拡張して(S255)、図36(C)が図示する第1の拡張マスク画像Cを作成する。なお、図36(C)の点線は図36(B)の背景領域80と被写体領域81との境界線、すなわち拡張前の境界線を示す。   Next, the CPU 101a expands the background area 80 of the first mask image B by a predetermined number of pixels in the direction of the subject area 81 (the arrow direction in FIG. 36C) (S255), and FIG. A first extended mask image C is created. Note that a dotted line in FIG. 36C indicates a boundary line between the background region 80 and the subject region 81 in FIG. 36B, that is, a boundary line before expansion.

このようにして、第1のマスク画像の背景領域を被写体領域の方向に所定の比率で拡張した第1の拡張マスク画像Cを作成する。   In this way, the first extended mask image C is created by extending the background area of the first mask image in the direction of the subject area at a predetermined ratio.

ついで、CPU101aは、第1のマスク画像Bの背景領域80を所定のピクセル分、被写体領域81方向(図36(D)の矢印方向)に縮小して(S257)、図36(D)が図示する第2の拡張マスク画像Dを作成する。なお、図36(D)の点線は図36(B)の背景領域80と被写体領域81との境界線、すなわち縮小前の境界線を示す。   Next, the CPU 101a reduces the background area 80 of the first mask image B by a predetermined number of pixels in the direction of the subject area 81 (the arrow direction in FIG. 36D) (S257), and FIG. A second extended mask image D is created. Note that a dotted line in FIG. 36D indicates a boundary line between the background region 80 and the subject region 81 in FIG. 36B, that is, a boundary line before reduction.

このようにして、第1のマスク画像の被写体領域を背景領域の方向に所定の比率で拡張した第2の拡張マスク画像Dを作成する。   In this way, the second extended mask image D is created by extending the subject area of the first mask image in the direction of the background area at a predetermined ratio.

つまり、背景領域を拡張することによって、第1の拡張マスク画像Cは、RGB値(255,255,255)である領域が、第1のマスク画像Bより広くなる。また、背景領域を縮小することによって、第2の拡張マスク画像Dは、RGB値(0,0,0)である領域が、第1のマスク画像Bより広くなる。   That is, by expanding the background region, the first expanded mask image C has a region where the RGB values (255, 255, 255) are wider than the first mask image B. In addition, by reducing the background area, the second extended mask image D has an area having an RGB value (0, 0, 0) wider than the first mask image B.

そして、第1の拡張マスク画像CのRGB値から第2の拡張マスク画像DのRGB値を減算する。すなわち、第1の拡張マスク画像Cと第2の拡張マスク画像Dとの差分情報を算出する。   Then, the RGB value of the second extended mask image D is subtracted from the RGB value of the first extended mask image C. That is, difference information between the first extended mask image C and the second extended mask image D is calculated.

このような減算を行なった場合、第1の拡張マスク画像Cと第2の拡張マスク画像Dとのいずれもが黒色すなわちRGB値(0,0,0)のポイントでは、C(0,0,0)−D(0,0,0)=(0,0,0)となる。第1の拡張マスク画像C、第2の拡張マスク画像Dのいずれもが白色すなわちRGB値(255,255,255)のポイントでは、C(255,255,255)−D(255,255,255)=(0,0,0)となる。第1の拡張マスク画像Cが白色で第2の拡張マスク画像Dが黒色のポイントでは、C(255,255,255)−D(0,0,0)=(255,255,255)となる。   When such subtraction is performed, when both the first extended mask image C and the second extended mask image D are black, that is, at the point of the RGB value (0, 0, 0), C (0, 0, 0) −D (0,0,0) = (0,0,0). When both the first extended mask image C and the second extended mask image D are white, that is, at a point of RGB value (255, 255, 255), C (255, 255, 255) -D (255, 255, 255) ) = (0, 0, 0). At the point where the first extended mask image C is white and the second extended mask image D is black, C (255, 255, 255) −D (0, 0, 0) = (255, 255, 255). .

このように、CPU101aは、第1の拡張マスク画像Cから第2の拡張マスク画像Dの減算処理を行なうことによって算出された差分情報によって、図36(E)が図示するように、背景領域80と被写体領域81との境界領域82(図36(E)の白の領域)を設定し、設定された境界に対応する境界領域82と境界領域82以外の領域83とに区別された境界マスク画像Eを作成する(S259)。   In this way, the CPU 101a uses the difference information calculated by performing the subtraction process of the second extended mask image D from the first extended mask image C, as shown in FIG. A boundary mask image in which a boundary area 82 (white area in FIG. 36E) is set between the subject area 81 and the subject area 81, and the boundary mask image is distinguished into a boundary area 82 corresponding to the set boundary and an area 83 other than the boundary area 82. E is created (S259).

すなわち、CPU101aは、撮影画像中の背景と被写体との境界部分を設定する設定手段としての機能を有する。   That is, the CPU 101a has a function as setting means for setting a boundary portion between the background and the subject in the captured image.

このように作成された境界マスク画像Eの境界領域82は、撮影画像の境界部分から背景領域80寄りと被写体領域81寄りとに少しずつ被るような範囲となっている。このような境界領域82の範囲は、第1の拡張マスク画像Cの作成時の拡張画素数と第2の拡張マスク画像Dの作成時の縮小画素数を調節することで、広くすることも狭くすることもできる。境界マスク画像Eは撮影画像に対する画像編集において利用することができる。   The boundary area 82 of the boundary mask image E created in this way is a range that gradually covers from the boundary portion of the captured image toward the background area 80 and the subject area 81. The range of the boundary region 82 can be widened or narrowed by adjusting the number of extended pixels at the time of creating the first extended mask image C and the number of reduced pixels at the time of creating the second extended mask image D. You can also The boundary mask image E can be used in image editing for a captured image.

なお、このようにして作成された複数のマスク画像は、撮影画像とともに記憶部102aに記憶され(S261)、処理に必要なときに適宜利用することができる。例えば、第1のマスク画像Bを利用して、背景領域にのみ合成処理でハートやチェック柄を入れたりすることができ、実際にある背景ロールカーテン48の種類よりも、より多様な背景を提供することができる。なお、境界マスク画像Eの利用方法は後に詳細を説明する。   The plurality of mask images created in this way are stored in the storage unit 102a together with the captured image (S261), and can be used as needed when necessary for processing. For example, by using the first mask image B, it is possible to insert a heart or a check pattern only in the background area by the synthesis process, and provide more various backgrounds than the actual types of the background roll curtain 48 can do. The method of using the boundary mask image E will be described later in detail.

本実施の形態にいいて、境界マスク画像Eを作成する処理は、ここでは、撮影終了後の図15のステップS35において撮影・印刷用コンピュータ装置101aで行なわれているが、編集処理前に編集用コンピュータ装置101bで行なわれてもよい。また、撮影処理中の1回の撮影毎にマスク画像を作成してもよいし、1度にまとめて複数の撮影画像からそれぞれのマスク画像を作成してもよい。   In this embodiment, the process for creating the boundary mask image E is performed in the photographing / printing computer apparatus 101a in step S35 of FIG. 15 after the photographing is finished. May be performed by the computer apparatus 101b. In addition, a mask image may be created for each photographing performed during the photographing process, or each mask image may be created from a plurality of photographed images at once.

以上が境界マスク画像作成処理の説明である。   The above is the description of the boundary mask image creation process.

[境界マスク画像を利用した画像編集処理] [Image editing process using boundary mask image]

上述のようにして作成されたマスク画像は、撮影画像に多様な画像処理を施したり、後述の編集処理に用いることができる。撮影画像に画像処理を施す一例として、境界マスク画像Eを利用して、光彩(グロー)効果を撮影画像に施す処理を説明する。   The mask image created as described above can be subjected to various image processing on the photographed image or used for editing processing described later. As an example of performing image processing on a captured image, a process of applying a glow (glow) effect to a captured image using the boundary mask image E will be described.

CPU101aは、図35のステップS259で作成された境界マスク画像Eの境界領域82を元にして、境界領域82にのみ光彩(グロー)効果を施した画像を作成し、撮影画像と合成する。このようにすることにより、撮影画像の被写体領域81を縁取るような範囲に光彩(グロー)効果が施される。このようにすることによって、図36(F)が図示するように、被写体の周囲が光に包まれて輝いているように見える美しい仕上がりの写真を提供することができる。   Based on the boundary area 82 of the boundary mask image E generated in step S259 of FIG. 35, the CPU 101a generates an image in which only the boundary area 82 is given a glow (glow) effect and combines it with the captured image. In this way, a glow (glow) effect is applied to a range that borders the subject area 81 of the captured image. By doing so, as shown in FIG. 36F, it is possible to provide a beautifully finished photograph in which the periphery of the subject appears to be shone in light.

また、境界マスク画像Eの境界領域82の情報を使用し、撮影画像の該当する領域に色味を入れる、色調を変更する、シャープにする、ぼかすなどその他の画像処理を行なうこともできる。   Further, by using the information of the boundary area 82 of the boundary mask image E, other image processing such as adding a color to the corresponding area of the captured image, changing the color tone, sharpening, or blurring can be performed.

また、後述の編集プレイ時において、境界領域82に画像処理効果を施す機能(ツール)を搭載しておくことによって、利用者が撮影画像の境界領域にどのような効果を施すかを選択できるようにしてもよい。   In addition, a function (tool) for applying an image processing effect to the boundary area 82 can be selected during editing play, which will be described later, so that the user can select what effect to apply to the boundary area of the captured image. It may be.

このように、本発明の写真自動販売機1は境界マスク画像Eで設定されている境界領域に模様画像を合成したり、撮影画像Aに直接、色調変更、シャープ、ぼかし、光彩(グロー)、明るさ変更などの画像処理を施したりする画像編集を行なう編集手段を備える。   As described above, the photo vending machine 1 of the present invention combines a pattern image with the boundary area set by the boundary mask image E, or directly changes the color tone, sharpness, blur, glow (glow), Editing means for performing image editing such as image processing such as brightness change is provided.

以上が、「ふちどり効果」の処理の説明である。   The above is the description of the “border effect” process.

[ヒカリ背景の画像編集処理] [Hikari background image editing]

次に、「ヒカリ背景」の画像編集処理の説明をする。「ヒカリ背景」は、撮影画像Aを元に作成するヒカリ背景用マスク画像に基づいて、背景画像を入力するものである。「ヒカリ背景」の機能によると、背景画像は被写体の背景となる背景領域に被写体(人物)に被らず、被写体(人物)と背景画像との境界が不自然にならないように滑らかに合成することができる。   Next, the image editing process for “light background” will be described. “Hikari background” is used for inputting a background image based on a mask image for a hikari background created based on the photographed image A. According to the “Hikari Background” function, the background image is smoothly combined so that the background of the subject does not cover the subject (person) and the boundary between the subject (person) and the background image does not become unnatural. be able to.

[ヒカリ背景用マスク作成処理] [Mask creation process for Hikari background]

まず、「ヒカリ背景」で用いられるヒカリ背景用マスク画像Gを作成する処理を図37のフローチャートを用いて説明する。   First, the process of creating the mask image G for the light background used in “light background” will be described with reference to the flowchart of FIG.

「ヒカリ背景」で用いられるヒカリ背景用マスク画像Gは、図35の境界マスク画像Eを作成する処理で作成された、第2の拡張マスク画像Dを用いる。したがって、ステップS501〜ステップS505までの背景部分の確定などを含む第2の拡張マスク画像Dを作成するまでの処理は、前述しているので詳細な説明は繰り返さない。   The second background mask image D created by the process of creating the boundary mask image E of FIG. 35 is used as the highlight background mask image G used in the “light background”. Accordingly, since the processing up to the creation of the second extended mask image D including the determination of the background portion from step S501 to step S505 has been described above, detailed description will not be repeated.

CPU101aは、背景領域80と被写体(人物)領域81との境界を円滑にするために、図36(D)に示される第2の拡張マスク画像Dにぼかし処理を施し、図38(A)に示されるヒカリ背景用マスク画像Gを作成する(S507)。   The CPU 101a performs a blurring process on the second extended mask image D shown in FIG. 36D in order to smooth the boundary between the background area 80 and the subject (person) area 81, and FIG. The light background mask image G shown is created (S507).

図38(A)はヒカリ背景用マスク画像Gを示す図である。図38(B)はヒカリ背景用マスク画像Gの一部を拡大した図である。図示のようにヒカリ背景用マスク画像Gは、ぼかし処理が施されているため、境界領域86(図の斜線部分)の色はグレーのグラデーションとなる。このため、ヒカリ背景用マスク画像Gの境界領域86はポイントによってRGB値が異なる。このようにして、図38(B)に示されるように、ヒカリ背景用マスク画像Gは、RGB値が白(255,255,255)の領域84と、黒(0,0,0)の領域85と、グレー(R1,G1,B1)の領域86とに区別される。   FIG. 38A is a diagram showing a light background mask image G. FIG. FIG. 38B is an enlarged view of a part of the light background mask image G. FIG. As shown in the drawing, the light background mask image G has been subjected to the blurring process, so that the color of the boundary region 86 (shaded portion in the figure) is a gray gradation. For this reason, the boundary region 86 of the light background mask image G has different RGB values depending on the points. In this way, as shown in FIG. 38B, the light background mask image G includes an area 84 with white (255, 255, 255) RGB values and an area with black (0, 0, 0). 85 and a gray (R1, G1, B1) region 86.

そして、CPU101aは、作成されたヒカリ背景用マスク画像Gを、記憶部101やメモリ102などの記憶手段に適宜記憶する(S509)。記憶されたヒカリ背景用マスク画像Gは、処理に必要なときに適宜使用する。   Then, the CPU 101a appropriately stores the created highlight background mask image G in a storage unit such as the storage unit 101 or the memory 102 (S509). The stored light background mask image G is appropriately used when necessary for processing.

本実施の形態にいいて、このようなヒカリ背景用マスク画像Gを作成する処理は、撮影終了後の図15のステップS35において撮影・印刷用コンピュータ装置101aで行なわれているが、編集処理前に編集用コンピュータ装置101bで行なわれてもよい。また、撮影処理中の1回の撮影毎にマスク画像を作成してもよいし、1度にまとめて複数の撮影画像からそれぞれのマスク画像を作成してもよい。   In the present embodiment, such a process for creating a light background mask image G is performed by the photographing / printing computer apparatus 101a in step S35 of FIG. 15 after photographing, but before editing processing. Alternatively, the editing may be performed by the editing computer device 101b. In addition, a mask image may be created for each photographing performed during the photographing process, or each mask image may be created from a plurality of photographed images at once.

[ヒカリ背景を用いた編集処理] [Editing process using Hikari background]

次に、図39のフローチャートを用いて「ヒカリ背景」を用いた編集処理の説明を行なう。   Next, editing processing using “light background” will be described with reference to the flowchart of FIG.

始めに、図29に示される編集画面に選択可能に表示されている機能の中から、用いられる機能として「スペシャル」が選択されると、「スペシャル」機能で用いられる機能がわかりやすくカテゴリ別に表示される。   First, when “Special” is selected as a function to be used from among the functions displayed on the edit screen shown in FIG. 29, the functions used in the “Special” function are displayed in an easy-to-understand manner by category. Is done.

表示された機能の中から、「スペシャル」機能において用いる機能として「ヒカリ背景」が選択されると、編集画面の落書き用画像選択領域204に「ヒカリ背景」機能で用いられる背景画像Hを示すアイコンが選択可能に複数表示される。なお、落書き用画像選択領域204に示されるアイコンは、実際に編集対象画像上に配置される背景画像Hでなく、配置される背景画像Hをイメージできるものであればよい。そして、利用者は表示された複数のアイコンの中から編集入力に用いる背景画像Hをタッチペン62でタッチして選択する。   When “hikari background” is selected as a function used in the “special” function from the displayed functions, an icon indicating the background image H used in the “hikari background” function is displayed in the graffiti image selection area 204 on the editing screen. Are displayed in a selectable manner. Note that the icon shown in the graffiti image selection area 204 may be any icon that can image the background image H to be placed instead of the background image H actually placed on the image to be edited. Then, the user touches and selects the background image H used for editing input from the displayed icons with the touch pen 62.

CPU101bは、編集入力に用いる背景画像Hが選択されたか否かを判定する(S551)。背景画像Hが選択されていないと判定すると(S551でNO)、ステップS555へ移る。背景画像Hが選択されたと判定すると(S551でYES)、ステップS553へ移る。   The CPU 101b determines whether or not the background image H used for editing input has been selected (S551). If it is determined that the background image H has not been selected (NO in S551), the process proceeds to step S555. If it is determined that the background image H has been selected (YES in S551), the process proceeds to step S553.

次に、CPU101bは、編集操作モニタ60に表示されている落書き入力領域202がタッチペン62でタッチされたか否かを判定する(S553)。落書き入力領域202がタッチペン62でタッチされていないと判定すると(S553でNO)、ステップS555へ移る。落書き入力領域202がタッチペン62でタッチされたと判定すると(S553でYES)、ステップS559へ移る。   Next, the CPU 101b determines whether or not the graffiti input area 202 displayed on the editing operation monitor 60 has been touched with the touch pen 62 (S553). If it is determined that the graffiti input area 202 is not touched with the touch pen 62 (NO in S553), the process proceeds to step S555. If it is determined that the graffiti input area 202 is touched with the touch pen 62 (YES in S553), the process proceeds to step S559.

CPU101bは、背景画像Hが選択されておらず、落書き入力領域202がタッチペン62でタッチされていない場合、タッチペン62で他の機能が選択されるなどの他の動作がなされたかどうか判定する(S555)。他の機能が選択されるなどの他の動作がなされた場合(S555でYES)、他の動作に従った処理が行なわれる(S557)。他の動作がなされていない場合は(S555でNO)、ステップS551へ戻る。   When the background image H has not been selected and the graffiti input area 202 has not been touched with the touch pen 62, the CPU 101b determines whether another operation has been performed such as selecting another function with the touch pen 62 (S555). ). When another operation such as selection of another function is performed (YES in S555), processing according to the other operation is performed (S557). If no other operation is performed (NO in S555), the process returns to step S551.

CPU101bは、落書き入力領域202がタッチペン62でタッチされたと判定すると(S553でYES)、タッチペン62でタッチされている落書き入力領域202上の現在位置座標(x、y)を検出する(S559)。   When the CPU 101b determines that the graffiti input area 202 is touched with the touch pen 62 (YES in S553), the CPU 101b detects the current position coordinates (x, y) on the graffiti input area 202 touched with the touch pen 62 (S559).

タッチペン62の現在位置座標(x、y)を検出すると、CPU101bは、現在位置座標における上述のヒカリ背景用マスク画像GのRGB値を参照する。本実施の形態における「ヒカリ背景」の背景画像Hの透過度(不透明度)は、ヒカリ背景用マスク画像GのRGB値に対応して設定される。   When the current position coordinate (x, y) of the touch pen 62 is detected, the CPU 101b refers to the RGB value of the above-described light background mask image G at the current position coordinate. The transparency (opacity) of the background image H of the “light background” in the present embodiment is set in correspondence with the RGB values of the mask image G for the light background.

図40(A)は背景画像Hを示す図であり、図40(B)は撮影画像Aと背景画像Hの合成画像Iを示す図であり、図40(C)は、合成画像Iの一部を拡大した図である。   40A is a diagram showing the background image H, FIG. 40B is a diagram showing a composite image I of the captured image A and the background image H, and FIG. It is the figure which expanded the part.

図40(C)を参照して、ヒカリ背景用マスク画像GのRGB値が白(255,255,255)の領域84は、背景画像Hを透過度(不透明度)100%で合成する。すなわち、落書き入力領域202には、背景画像Hが完全に表示され、合成される。ヒカリ背景用マスク画像GのRGB値が黒(0,0,0)の領域85は、背景画像Hを透過度(不透明度)0%で合成する。すなわち、落書き入力領域202には、背景画像Hが表示されず、合成されない。ヒカリ背景用マスク画像GのRGB値がグレーのグラデーションになっている(R1,G1,B1)領域86は、RGB値によって異なり、それぞれ(RGB値/255)×100%の透過度(不透明度)で表示され、合成する。例えば、RGB値(155,155,155)の場合、背景画像Hを約60.8%の透過度(不透明度)で合成する。すなわち落書き入力領域202には、60.8%の透過度で背景画像Hが表示される。   Referring to FIG. 40C, in the area 84 where the RGB value of the light background mask image G is white (255, 255, 255), the background image H is synthesized with a transparency (opacity) of 100%. That is, the background image H is completely displayed and synthesized in the graffiti input area 202. In the area 85 where the RGB value of the light background mask image G is black (0, 0, 0), the background image H is synthesized with a transparency (opacity) of 0%. That is, the background image H is not displayed in the graffiti input area 202 and is not synthesized. The R, G1, and B1 regions 86 in which the RGB values of the light background mask image G have a gray gradation vary depending on the RGB values, and each has a transparency (opacity) of (RGB value / 255) × 100%. Is displayed and synthesized. For example, in the case of RGB values (155, 155, 155), the background image H is synthesized with a transparency (opacity) of about 60.8%. That is, the background image H is displayed in the graffiti input area 202 with a transmittance of 60.8%.

こうして、撮影画像(第1の画像)に対応するマスク画像から、ヒカリ背景用マスク画像を生成し、ヒカリ背景用マスク画像GのRGB値に基づいて背景画像Hの透過度を設定し(S561)、撮影画像Aと背景画像Hとの合成画像Iを編集操作モニタ60に表示する(S563)。   In this way, a light background mask image is generated from the mask image corresponding to the photographed image (first image), and the transparency of the background image H is set based on the RGB values of the light background mask image G (S561). Then, the composite image I of the photographed image A and the background image H is displayed on the editing operation monitor 60 (S563).

上述のような構成によって、背景領域以外の領域、すなわち被写体(人物)領域に背景画像が合成されないようになっているため、簡易な入力操作で被写体(人物)領域に被らないように背景画像を合成することができる。さらに、撮影画像と背景画像との周辺部分を滑らかに合成することができ、自然な美しい仕上がりの合成画像を利用者に提供することができる。   With the configuration described above, the background image is not combined with the area other than the background area, that is, the subject (person) area, so that the background image is not covered with the subject (person) area by a simple input operation. Can be synthesized. Furthermore, it is possible to smoothly synthesize the peripheral portion of the photographed image and the background image, and to provide a user with a natural and beautifully synthesized image.

そして、CPU101bは、落書き入力領域202からタッチペン62が離れたか否かを判定する(S565)。落書き入力領域202からタッチペン62が離れていない場合は(S565でNO)、ステップS559へ戻り、入力処理を継続する。   Then, the CPU 101b determines whether or not the touch pen 62 has left the graffiti input area 202 (S565). If the touch pen 62 is not separated from the graffiti input area 202 (NO in S565), the process returns to step S559 and the input process is continued.

CPU101bは、タッチペン62が落書き入力領域202から離れたら、入力された画像を表示された内容で確定し(S567)、「ヒカリ背景」の編集処理を終了する。   When the touch pen 62 leaves the graffiti input area 202, the CPU 101b determines the input image with the displayed content (S567), and ends the editing process for “light background”.

編集処理が終了したら、CPU101aは、撮影画像Aと入力された「ヒカリ背景」の背景画像Hを含む落書き用画像とを合成する。そして、図30が図示するシールシートに印刷されて利用者に提供される。   When the editing process ends, the CPU 101a synthesizes the photographed image A with the graffiti image including the input “hikari background” background image H. Then, it is printed on the seal sheet shown in FIG. 30 and provided to the user.

以上が「ヒカリ背景」を用いた編集処理の説明である。   This completes the description of the editing process using the “light background”.

[透過スタンプを用いた編集処理] [Edit processing using transparent stamp]

次に、「透過スタンプ」の画像編集処理の説明をする。「透過スタンプ」は、スタンプ画像のマスク画像に基づいて、スタンプ画像を撮影画像に入力するものである。「透過スタンプ」の機能によると、スタンプ画像はスタンプ画像の境界が不自然にならないように滑らかに合成することができる。   Next, the “transparent stamp” image editing process will be described. The “transparent stamp” is for inputting a stamp image into a photographed image based on a mask image of the stamp image. According to the “transparent stamp” function, the stamp image can be smoothly synthesized so that the boundary of the stamp image does not become unnatural.

図41(A)は、撮影画像Aに合成することができる「透過スタンプ」のスタンプ画像Jの元画像を示す図であり、図41(B)は、「透過スタンプ」のスタンプ画像Jのマスク画像にぼかし処理を施したマスク画像Kを示す図であり、図41(C)は、合成時における「透過スタンプ」のスタンプ画像Jを示す図である。   41A is a diagram showing an original image of a stamp image J of “transparent stamp” that can be combined with the photographed image A, and FIG. 41B is a mask of the stamp image J of “transparent stamp”. FIG. 41C is a diagram illustrating a mask image K obtained by performing blur processing on an image, and FIG. 41C is a diagram illustrating a stamp image J of a “transparent stamp” at the time of synthesis.

マスク画像Kは、「透過スタンプ」のマスク画像にぼかし処理を施したものである。このようなぼかし処理を施すことによって、マスク画像Kのように、RGB値が白(255,255,255)の領域87(スタンプ画像の模様(画素)が存在する領域)と、黒(0,0,0)の領域88(スタンプ画像の模様(画素)が存在しない領域)と、グレー(R2,G2,B2)のグラデーションの領域89(境界領域)とに区別される。   The mask image K is obtained by performing a blurring process on the mask image of “transparent stamp”. By performing such blurring processing, as in the mask image K, the region 87 (region where the pattern (pixel) of the stamp image exists) in which the RGB value is white (255, 255, 255) and black (0, 0, A 0,0) area 88 (an area where no stamp image pattern (pixel) exists) and a gray (R2, G2, B2) gradation area 89 (boundary area) are distinguished.

マスク画像KのRGB値が白(255,255,255)の領域87は、スタンプ画像Jを透過度(不透明度)100%で合成する。すなわち、落書き入力領域202には、スタンプ画像Jが完全に表示される。マスク画像KのRGB値が黒(0,0,0)の領域88は、スタンプ画像Jを透過度(不透明度)0%で合成する。すなわち、落書き入力領域202には、スタンプ画像Jが表示されない。マスク画像KのRGB値がグレーのグラデーションになっている(R2,G2,B2)領域89(図の斜線部分)は、RGB値によって異なり、それぞれ(RGB値/255)×100%の透過度(不透明度)で合成する。より具体的には、RGB値(155,155,155)の場合、スタンプ画像Jを約60.8%の透過度(不透明度)で合成する。すなわち落書き入力領域202には、60.8%の透過度でスタンプ画像Jが表示される。   In the region 87 where the RGB value of the mask image K is white (255, 255, 255), the stamp image J is synthesized with a transparency (opacity) of 100%. That is, the stamp image J is completely displayed in the graffiti input area 202. In the region 88 where the RGB value of the mask image K is black (0, 0, 0), the stamp image J is synthesized with a transparency (opacity) of 0%. That is, the stamp image J is not displayed in the graffiti input area 202. The (R2, G2, B2) region 89 (hatched portion in the figure) in which the RGB value of the mask image K is a gray gradation varies depending on the RGB value, and each has a transparency (RGB value / 255) × 100% ( (Opacity). More specifically, in the case of RGB values (155, 155, 155), the stamp image J is synthesized with a transparency (opacity) of about 60.8%. That is, the stamp image J is displayed in the graffiti input area 202 with a transmittance of 60.8%.

編集処理中に、このような「透過スタンプ」のスタンプ画像Jが利用者によってタッチペン62で選択され、タッチパネル61に入力されると、スタンプ画像(第2の画像)に対応するマスク画像から、「透過スタンプ」用のマスク画像Kを生成し、マスク画像KのRGB値に基づいてスタンプ画像Jの透過度を設定し、撮影画像Aとスタンプ画像Jとの合成画像Lを編集操作モニタ60に表示する。   During the editing process, when a stamp image J of such a “transparent stamp” is selected by the user with the touch pen 62 and input to the touch panel 61, the mask image corresponding to the stamp image (second image) is “ A mask image K for “transparent stamp” is generated, the transparency of the stamp image J is set based on the RGB values of the mask image K, and the composite image L of the photographed image A and the stamp image J is displayed on the editing operation monitor 60. To do.

編集処理が終了したら、CPU101aは、撮影画像Aと入力された「透過スタンプ」のスタンプ画像Jを含む落書き用画像とを合成する。そして、図30が図示するシールシートに印刷されて利用者に提供される。   When the editing process is completed, the CPU 101a combines the photographed image A with the graffiti image including the input “transparent stamp” stamp image J. Then, it is printed on the seal sheet shown in FIG. 30 and provided to the user.

以上が「透過スタンプ」を用いた編集処理の説明である。   The above is the description of the editing process using the “transparent stamp”.

[ヒカリ背景を用いた編集処理の変形例] [Modification of editing process using Hikari background]

次に、変形例として、「ヒカリ背景」を用いた編集処理で、背景画像Hの透過度を算出する方法の他の具体例を説明する。   Next, as a modification, another specific example of a method for calculating the transparency of the background image H by editing processing using “light background” will be described.

まず、上述のマスク作成処理で、ヒカリ背景用マスク画像Gを白黒反転させ、図42(A)が図示する、ヒカリ背景用マスク画像Mを作成する。   First, in the mask creation process described above, the highlight background mask image G is reversed in black and white to create a highlight background mask image M shown in FIG.

さらに、図42(B)が図示する、背景画像Hのマスク画像Nを予め記憶部102などの記憶手段に記憶しておく。   Further, the mask image N of the background image H illustrated in FIG.

このようなマスク画像NのRGB値から、ヒカリ背景用マスク画像MのRGB値を減算し得られた値に基づいて透過度を設定する。   The transparency is set based on a value obtained by subtracting the RGB value of the mask image for light background M from the RGB value of the mask image N.

図42(C)は、マスク画像NのRGB値から、ヒカリ背景用マスク画像MのRGB値を減算したときに生成しうる合成マスク画像Oである。図42(D)は、図42(C)のマスク画像Oの一部を拡大した図である。図42(E)は、本変形例の透過度算出方法を用いた場合に、撮影画像Aと背景画像Hとを合成してできる合成画像Pの一部を拡大した図である。   FIG. 42C shows a composite mask image O that can be generated when the RGB value of the light background mask image M is subtracted from the RGB value of the mask image N. FIG. 42D is an enlarged view of a part of the mask image O in FIG. FIG. 42E is an enlarged view of a part of a composite image P formed by combining the photographed image A and the background image H when the transparency calculation method of the present modification is used.

このような合成マスク画像Oは作成されてもよいし、マスク画像NのRGB値から、ヒカリ背景用マスク画像MのRGB値を減算した情報のみであってもよい。どちらでも、透過度の設定は可能である。   Such a composite mask image O may be created, or only information obtained by subtracting the RGB value of the light background mask image M from the RGB value of the mask image N may be used. In either case, the transparency can be set.

より具体的に図42(C)〜図42(E)を用いて説明すると、マスク画像Nのポイント(a)におけるRGB値は(255,255,255)であり、ヒカリ背景用マスク画像Mのポイント(a)におけるRGB値は(0,0,0)である。マスク画像NのRGB値からヒカリ背景用マスク画像MのRGB値を減算すると、ポイント(a)においては(255,255,255)−(0,0,0)=(255,255,255)となる。すなわち、合成マスク画像Oのポイント(a)は100%の透過度(不透明度)で合成される。   More specifically, with reference to FIGS. 42C to 42E, the RGB value at the point (a) of the mask image N is (255, 255, 255). The RGB value at the point (a) is (0, 0, 0). When the RGB value of the light background mask image M is subtracted from the RGB value of the mask image N, at the point (a), (255, 255, 255)-(0, 0, 0) = (255, 255, 255). Become. That is, the point (a) of the combined mask image O is combined with 100% transparency (opacity).

同様に減算するとポイント(b)におけるRGB値は、(0,0,0)−(0,0,0)=(0,0,0)となる。すなわち、合成マスク画像Oのポイント(b)は0%の透過度(不透明度)で合成される。   When subtracted in the same manner, the RGB value at the point (b) becomes (0, 0, 0) − (0, 0, 0) = (0, 0, 0). That is, the point (b) of the combined mask image O is combined with 0% transparency (opacity).

同様に減算するとポイント(c)におけるRGB値は、(255,255,255)−(255,255,255)=(0,0,0)となる。すなわち、合成マスク画像Oのポイント(c)は0%の透過度(不透明度)で合成される。   When subtracted in the same manner, the RGB value at the point (c) becomes (255, 255, 255) − (255, 255, 255) = (0, 0, 0). That is, the point (c) of the combined mask image O is combined with 0% transparency (opacity).

同様に減算するとポイント(d)におけるRGB値は、(0,0,0)−(255,255,255)=(−255,−255,−255)となる。0未満の値が算出された場合は(0,0,0)とする。すなわち、合成マスク画像Oのポイント(c)は0%の透過度(不透明度)で合成される。   When subtracted in the same manner, the RGB value at the point (d) becomes (0, 0, 0) − (255, 255, 255) = (− 255, −255, −255). When a value less than 0 is calculated, it is (0, 0, 0). That is, the point (c) of the combined mask image O is combined with 0% transparency (opacity).

同様に減算するとポイント(e)におけるRGB値は、(255,255,255)−(100,100,100)=(155,155,155)となる。すなわち、合成マスク画像Oのポイント(e)は60.8%の透過度(不透明度)で合成される。ポイント(e)が属する領域は、グレーのグラデーションであるためにこのような値に限定されるものではない。ポイント(c)の属する領域に近接するほど、減算して得られるRGB値は(0,0,0)に近づくため、透過度(不透明度)は低くなる。一方、ポイント(a)の属する領域に近接するほど、減算して得られるRGB値は(255,255,255)に近づくため、透過度(不透明度)は高くなる。   When subtracted in the same manner, the RGB value at the point (e) becomes (255, 255, 255) − (100, 100, 100) = (155, 155, 155). That is, the point (e) of the combined mask image O is combined with a transparency (opacity) of 60.8%. Since the area to which the point (e) belongs is a gray gradation, it is not limited to such a value. The closer to the area to which the point (c) belongs, the closer the RGB value obtained by subtraction approaches (0, 0, 0), and thus the lower the transparency (opacity). On the other hand, the closer to the region to which the point (a) belongs, the closer the RGB value obtained by subtraction approaches (255, 255, 255), the higher the transparency (opacity).

上述のような算出方法によって透過度を設定し、撮影画像Aと背景画像Hとを合成する。このようにすることで、被写体と背景との境界領域も滑らかに合成することができるとともに、背景画像Hのハート型の模様部分を滑らかに合成することができる。   The transparency is set by the calculation method as described above, and the captured image A and the background image H are combined. In this way, the boundary area between the subject and the background can be synthesized smoothly, and the heart-shaped pattern portion of the background image H can be synthesized smoothly.

また、背景画像Hのマスク画像Nにも同様なぼかし処理が施されていたり、背景画像Hの特定の画像領域(模様)に対応してマスク画像NのRGB値が設定されていてもよい。このようにすることで、背景画像Hの模様を活かすことができる。   Further, the same blurring process may be applied to the mask image N of the background image H, or the RGB values of the mask image N may be set corresponding to a specific image region (pattern) of the background image H. By doing in this way, the pattern of the background image H can be utilized.

さらに、背景画像Hだけでなく、「透過スタンプ」などのスタンプ画像Jも同様な方法で合成することができる。   Furthermore, not only the background image H but also a stamp image J such as “transparent stamp” can be synthesized by the same method.

以上が、「ヒカリ背景」を用いた編集処理を行なうときの、背景画像Hの透過度算出方法の変形例の説明である。   The above is the description of the modification of the method for calculating the transparency of the background image H when the editing process using the “light background” is performed.

さらに、上述の写真自動販売機のコンピュータ装置51の制御方法を、プログラムとして提供することもできる。このようなプログラムは、コンピュータに付属するフレキシブルディスク、CD−ROM(Compact Disc-Read Only Memory)、ROM(Read Only Memory)、RAM(Random
Access Memory)およびメモリカードなどのコンピュータ読取り可能な記録媒体にて記録させて、プログラム製品として提供することもできる。あるいは、コンピュータに内蔵するハードディスクなどの記録媒体にて記録させて、プログラムを提供することもできる。また、電気通信回線や衛星通信回線などのネットワークを通じて、プログラムを提供することもできる。
Furthermore, the above-described method for controlling the computer device 51 of the photo vending machine can be provided as a program. Such programs include a flexible disk attached to the computer, a CD-ROM (Compact Disc-Read Only Memory), a ROM (Read Only Memory), a RAM (Random
It can also be recorded on a computer-readable recording medium such as an Access Memory) or a memory card and provided as a program product. Alternatively, the program can be provided by being recorded on a recording medium such as a hard disk built in the computer. The program can also be provided through a network such as a telecommunication line or a satellite communication line.

提供されるプログラム製品は、ハードディスクなどのプログラム格納部にインストールされて実行される。なお、プログラム製品は、プログラム自体と、プログラムが記録された記録媒体とを含む。   The provided program product is installed in a program storage unit such as a hard disk and executed. The program product includes the program itself and a recording medium on which the program is recorded.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明を適用した写真自動販売機1の外観の概略側面図である。1 is a schematic side view of the appearance of a photo vending machine 1 to which the present invention is applied. 本体部2を正面から見た斜視図である。It is the perspective view which looked at the main-body part 2 from the front. プリント案内部26の具体例である。This is a specific example of the print guide unit 26. 背面部3と天井部4と床面部5とを写真自動販売機1側から見た斜視図である。It is the perspective view which looked at the back part 3, the ceiling part 4, and the floor surface part 5 from the photograph vending machine 1 side. 背景装置40の側面図である。4 is a side view of the background device 40. FIG. 前面照明装置14a、14bを示す斜視図である。It is a perspective view which shows the front illuminating devices 14a and 14b. 前面照明装置14cを示す斜視図である。It is a perspective view which shows the front illuminating device 14c. 天井照明装置41と、側面照明装置42L、42Rと示す斜視図である。It is a perspective view which shows the ceiling illuminating device 41 and the side illuminating devices 42L and 42R. 床面部5のフットスイッチ装置43を上方から見た図である。It is the figure which looked at the foot switch apparatus 43 of the floor surface part 5 from upper direction. フットスイッチ装置43を側面から見た図である。It is the figure which looked at the foot switch apparatus 43 from the side surface. 写真自動販売機1の本体部2の背面に形成される第1編集部8aを第1編集空間7a側から見た斜視図である。It is the perspective view which looked at the 1st edit part 8a formed in the back surface of the main-body part 2 of the photograph vending machine 1 from the 1st edit space 7a side. 写真自動販売機1の背面部3の背面に形成される第2編集部8bを第2編集空間7b側から見た斜視図である。It is the perspective view which looked at the 2nd edit part 8b formed in the back surface of the back part 3 of the photograph vending machine 1 from the 2nd edit space 7b side. 編集部8のタッチペン62とタッチペンフォルダ64とを示す図である。It is a figure which shows the touch pen 62 and the touch pen folder 64 of the edit part 8. FIG. 写真自動販売機1の概略機能ブロック図である。1 is a schematic functional block diagram of a photo vending machine 1. FIG. 撮影プレイで行なわれる処理を示すフローチャートである。It is a flowchart which shows the process performed by imaging | photography play. 編集部案内画面の具体例である。It is a specific example of an editorial department guidance screen. 撮影コース選択画面の具体例である。It is a specific example of a photography course selection screen. 「こだわり6ショット」コースにおける撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in a "discerning 6 shot" course. 照明選択画面の具体例である。It is a specific example of an illumination selection screen. 照明設定の具体例を示す図である。It is a figure which shows the specific example of illumination setting. 「こだわり6ショット」コースにおけるおまけ撮影処理を示すフローチャートである。It is a flowchart which shows the extra imaging | photography process in a "discerning 6 shot" course. おまけ撮影処理におけるカウントダウン表示画面の具体例である。It is a specific example of a countdown display screen in bonus shooting processing. 「おまかせ10ショット」コースにおける撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in a "Random 10 shot" course. 「おまかせ10ショット」コースの設定ファイルの内容の具体例である。It is a specific example of the content of the setting file of the “Random 10 Shots” course. 「フットシャッタ」コースにおける撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process in a "foot shutter" course. 編集部割当処理を示すフローチャートである。It is a flowchart which shows an edit part allocation process. 編集プレイで行なわれる処理を示すフローチャートである。It is a flowchart which shows the process performed by an edit play. 編集コース選択画面の具体例である。It is a specific example of an edit course selection screen. 編集画面の具体例である。It is a specific example of an edit screen. シールシートの具体例である。It is a specific example of a seal sheet. 「親子スタンプ」の編集処理を示すフローチャートである。It is a flowchart which shows the edit process of a "parent-child stamp". 「親子スタンプ」の模様画像を示す図である。It is a figure which shows the pattern image of a "parent-child stamp." 「親子スタンプ」の落書き入力領域上の表示の具体例である。It is a specific example of the display on the graffiti input area of “parent-child stamp”. 「親子スタンプ」の模様画像を示す図である。It is a figure which shows the pattern image of a "parent-child stamp." 境界マスク画像作成処理を示すフローチャートである。It is a flowchart which shows a boundary mask image creation process. 撮影画像とマスク画像と合成画像とを示す図である。It is a figure which shows a picked-up image, a mask image, and a synthesized image. ヒカリ背景用マスク作成処理を示すフローチャートである。It is a flowchart which shows a hikari background mask creation process. ヒカリ背景用のマスク画像を示す図である。It is a figure which shows the mask image for Hikari background. ヒカリ背景の編集処理を示すフローチャートである。It is a flowchart which shows the edit process of a hikari background. 背景画像と、背景画像と撮影画像との合成画像とを示す図である。It is a figure which shows a background image and the synthesized image of a background image and a picked-up image. 透過スタンプのスタンプ画像とマスク画像とを示す図である。It is a figure which shows the stamp image and mask image of a transparent stamp. ヒカリ背景用のマスク画像と背景画像のマスク画像と合成マスク画像と合成画像とを示す図である。It is a figure which shows the mask image for Hikari background, the mask image of a background image, a synthetic | combination mask image, and a synthetic | combination image.

符号の説明Explanation of symbols

1 写真自動販売機、
2 本体部、
3 背景部、
4 天井部、
5 床面部、
6 撮影空間、
7a、7b 編集空間、
8a、8b 編集部、
11 プリンタ、
12 カメラ、
13 ライブモニタ、
14a、14b、14c 前面照明装置、
15 蛍光灯、
16 ストロボ、
17a、17b、17c、17d 面、
18 撮影操作モニタ
19 タッチパネル
20L、20R 撮影側スピーカ、
21 コイン投入口、
22 コイン排出口
23 荷物置き場、
24 コインボックス扉、
25 プリント取出口
26 プリント案内部、
27a、27b 印刷中LED、
28 用紙切れLED、
29 印刷エラーLED、
30 反射板
31 拡散板
40a、40b 背景装置、
41 天井照明装置、
42L、42R 側面照明装置
43a、43b フットスイッチ装置
46 モータ
47 巻取装置
48 背景ロールカーテン
60a、60b 編集操作モニタ
61a、61b タッチパネル
62aL、62aR、62bL、62bR タッチペン
63a、63b 編集側スピーカ
64aL、64aR、64bL、64bR タッチペンフォルダ
80 背景領域
81 被写体領域
82 境界領域
83 境界領域以外の領域
84 背景領域
85 被写体領域
86 境界領域
87 スタンプ画像の模様(画素)が存在する領域
88 スタンプ画像の模様(画素)が存在しない領域
89 境界領域
100a、100b コンピュータ装置
101a、101b CPU
102a、102b 記憶部
103a、103b メモリ
104 ドライバ
105 通信部
110 制御部
111 電源スイッチ
112 電源制御部
113 UPS
114 ストロボ制御部
115 背景制御部
116 サービスパネル
117 コイン制御部
200 編集対象画像選択領域
201 おまけ画像選択領域
202 落書き入力領域
203 落書き機能選択領域
204 落書き用画像選択領域
205 ヒント表示領域
210 親画像
211a、211b 子画像
212a、212b、212c、212d 子画像要素
1 Photo vending machine,
2 body part,
3 Background section,
4 Ceiling part,
5 Floor part,
6 shooting space,
7a, 7b editing space,
8a, 8b editorial department,
11 Printer,
12 cameras,
13 Live monitor,
14a, 14b, 14c Front illumination device,
15 Fluorescent light,
16 Strobe,
17a, 17b, 17c, 17d surface,
18 Shooting operation monitor 19 Touch panel 20L, 20R Shooting side speaker,
21 Coin slot,
22 coin outlet 23 luggage storage,
24 Coin box door,
25 Print outlet 26 Print guide,
27a, 27b LED during printing,
28 Out of paper LED,
29 Print error LED,
30 reflector 31 diffuser plate 40a, 40b background device,
41 Ceiling lighting device,
42L, 42R Side illumination devices 43a, 43b Foot switch device 46 Motor 47 Winding device 48 Background roll curtain 60a, 60b Editing operation monitor 61a, 61b Touch panel 62aL, 62aR, 62bL, 62bR Touch pen 63a, 63b Editing side speaker 64aL, 64aR, 64 bL, 64 bR Touch pen folder 80 Background area 81 Subject area 82 Boundary area 83 Area other than the boundary area 84 Background area 85 Subject area 86 Boundary area 87 Area where the pattern (pixel) of the stamp image exists 88 Pattern (pixel) of the stamp image Non-existent area 89 Boundary areas 100a, 100b Computer devices 101a, 101b CPU
102a, 102b Storage unit 103a, 103b Memory 104 Driver 105 Communication unit 110 Control unit 111 Power switch 112 Power control unit 113 UPS
114 Strobe control unit 115 Background control unit 116 Service panel 117 Coin control unit 200 Editing target image selection area 201 Extra image selection area 202 Graffiti input area 203 Graffiti function selection area 204 Graffiti image selection area 205 Hint display area 210 Parent image 211a, 211b Child image 212a, 212b, 212c, 212d Child image element

Claims (6)

第1の画像に第2の画像を合成する画像合成方法において、
合成する領域と合成しない領域とが区別されたマスク画像を準備するステップと、
前記マスク画像に所定のぼかし処理を施すステップと、
前記ぼかし処理が施されたマスク画像に基づいて、第1の画像と第2の画像とを合成するときの透過度を設定するステップと、
設定された透過度で前記第1の画像と前記第2の画像とを合成するステップとを備える画像合成方法。
In an image composition method for compositing a second image with a first image,
Preparing a mask image in which a region to be combined and a region not to be combined are distinguished;
Applying a predetermined blurring process to the mask image;
Setting transparency when combining the first image and the second image based on the mask image subjected to the blurring process;
A method of synthesizing the first image and the second image with a set transparency.
前記マスク画像が、前記第2の画像に対応するものである請求項1に記載の画像合成方法。   The image composition method according to claim 1, wherein the mask image corresponds to the second image. 前記マスク画像が、前記第1の画像に対応するものである請求項1または2に記載の画像合成方法。   The image composition method according to claim 1, wherein the mask image corresponds to the first image. 人物と背景を含む撮影画像に所定の画像を合成する画像合成方法において、
所定の条件により前記撮影画像中の背景を特定するステップと、
前記特定された背景に対応し、前記所定の画像を合成する領域である背景領域と、前記 背景領域以外の領域であって前記所定の画像を合成しない領域である人物領域とに区別されたマスク画像を作成するステップと、
前記作成されたマスク画像に所定のぼかし処理を施すステップと、
前記ぼかし処理が施されたマスク画像に基づいて、前記撮影画像と前記所定の画像を合成するときの透過度を設定するステップと、
前記設定された透過度で前記撮影画像と前記所定の画像とを合成するステップとを備える画像合成方法。
In an image composition method for combining a predetermined image with a photographed image including a person and a background,
Identifying a background in the captured image according to a predetermined condition;
A mask corresponding to the specified background and distinguished from a background region that is a region where the predetermined image is combined and a human region that is a region other than the background region and does not combine the predetermined image Creating an image;
Applying a predetermined blurring process to the created mask image;
Setting transparency when combining the captured image and the predetermined image based on the mask image subjected to the blurring process;
An image synthesis method comprising: synthesizing the captured image and the predetermined image with the set transparency.
前記作成されたマスク画像の人物領域を背景領域の方向に所定の比率で拡張し、前記拡張されたマスク画像に前記所定のぼかし処理を施す請求項4に記載の画像合成方法。   The image composition method according to claim 4, wherein the person area of the created mask image is expanded at a predetermined ratio in the direction of the background area, and the predetermined blurring process is performed on the expanded mask image. 使用者である被写体を撮影する撮影手段と、
前記被写体の後方に配置され、前記被写体と共に撮影される背景を含む背景手段と、
前記撮影手段で撮影された、前記被写体と前記背景を含む撮影画像と、前記撮影画像に 合成する所定の画像を記憶する記憶手段と、
所定の条件により前記撮影画像中の背景を特定する特定手段と、
前記特定された背景に対応し、前記所定の画像を合成する領域である背景領域と、前記背景領域以外の領域であって、前記所定の画像を合成しない領域である人物領域とに区別されたマスク画像を作成する作成手段と、
前記作成手段で作成されたマスク画像に所定のぼかし処理を施すぼかし手段と、
前記ぼかし手段でばかされたマスク画像に基づいて、前記撮影画像と前記所定の画像を合成するときの透過度を設定する設定手段と、
前記設定手段で設定された透過度で前記撮影画像と所定の画像を合成する合成手段とを備える画像合成装置。
Photographing means for photographing the subject as a user;
Background means disposed behind the subject and including a background photographed with the subject;
Storage means for storing a photographed image including the subject and the background photographed by the photographing means, and a predetermined image to be combined with the photographed image;
Specifying means for specifying a background in the captured image according to a predetermined condition;
Corresponding to the specified background, a distinction was made between a background area that is an area where the predetermined image is synthesized and an area other than the background area that is an area where the predetermined image is not synthesized. Creating means for creating a mask image;
Blurring means for applying a predetermined blurring process to the mask image created by the creating means;
Setting means for setting transparency when combining the photographed image and the predetermined image based on the mask image blown by the blurring means;
An image composition device comprising composition means for compositing the photographed image and a predetermined image with the transparency set by the setting means.
JP2004251370A 2004-08-31 2004-08-31 Image composition method and device Pending JP2006072418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004251370A JP2006072418A (en) 2004-08-31 2004-08-31 Image composition method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004251370A JP2006072418A (en) 2004-08-31 2004-08-31 Image composition method and device

Publications (1)

Publication Number Publication Date
JP2006072418A true JP2006072418A (en) 2006-03-16

Family

ID=36153027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004251370A Pending JP2006072418A (en) 2004-08-31 2004-08-31 Image composition method and device

Country Status (1)

Country Link
JP (1) JP2006072418A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252862A (en) * 2007-03-05 2008-10-16 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program
JP2009211362A (en) * 2008-03-04 2009-09-17 Furyu Kk Photo-seal creation apparatus, photo-seal creation method and program
JP2012208287A (en) * 2011-03-29 2012-10-25 Casio Comput Co Ltd Display controller and program
WO2014046851A1 (en) * 2012-09-18 2014-03-27 Facebook, Inc. System, method and computer program for image processing, in particular for introducing blurring effects to an image
JP2014131159A (en) * 2012-12-28 2014-07-10 Furyu Kk Image editing device, image editing method and program
JP2014134792A (en) * 2012-12-14 2014-07-24 Furyu Kk Image processing apparatus, method and program
JP2017005583A (en) * 2015-06-12 2017-01-05 株式会社メイクソフトウェア Image forming device, image forming method and computer program
JP2017129879A (en) * 2017-03-31 2017-07-27 株式会社メイクソフトウェア Photographing play machine, control method for photographing play machine, and control program for photographing play machine

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252862A (en) * 2007-03-05 2008-10-16 Ricoh Co Ltd Image processing apparatus, image processing method, and image processing program
JP2009211362A (en) * 2008-03-04 2009-09-17 Furyu Kk Photo-seal creation apparatus, photo-seal creation method and program
JP2012208287A (en) * 2011-03-29 2012-10-25 Casio Comput Co Ltd Display controller and program
WO2014046851A1 (en) * 2012-09-18 2014-03-27 Facebook, Inc. System, method and computer program for image processing, in particular for introducing blurring effects to an image
US9007402B2 (en) 2012-09-18 2015-04-14 Facebook, Inc. Image processing for introducing blurring effects to an image
US10430075B2 (en) 2012-09-18 2019-10-01 Facebook, Inc. Image processing for introducing blurring effects to an image
JP2014134792A (en) * 2012-12-14 2014-07-24 Furyu Kk Image processing apparatus, method and program
JP2014134760A (en) * 2012-12-14 2014-07-24 Furyu Kk Image processing apparatus, method and program
JP2014131159A (en) * 2012-12-28 2014-07-10 Furyu Kk Image editing device, image editing method and program
JP2017005583A (en) * 2015-06-12 2017-01-05 株式会社メイクソフトウェア Image forming device, image forming method and computer program
JP2017129879A (en) * 2017-03-31 2017-07-27 株式会社メイクソフトウェア Photographing play machine, control method for photographing play machine, and control program for photographing play machine

Similar Documents

Publication Publication Date Title
KR100527618B1 (en) Automatic photograph seal vending method, apparatus therefor, photograph seal paper unit, and photograph seal sheet
JP3801147B2 (en) PHOTOGRAPHING APPARATUS, PHOTOGRAPHING APPARATUS CONTROL METHOD, PHOTOGRAPHING APPARATUS CONTROL PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE SAME
JP2005079662A (en) Image editing method in photograph vending machine, photograph vending machine, and image editing program
JP2006106523A (en) Photograph vending machine
JP2006072418A (en) Image composition method and device
JP2006072045A (en) Automatic photographing device
JP4439204B2 (en) Photo vending machine and photo providing method in photo vending machine
JP4405344B2 (en) Photo sticker creation device
JP2005181843A (en) Photograph vending machine and control method and control program therefor
JP2006058674A (en) Automatic photographing apparatus
JP4640156B2 (en) Photography editing method and apparatus
JP3852585B2 (en) Photo sticker vending method and apparatus
JP2006060719A (en) Apparatus and method for image editing
JP2006106296A (en) Photograph automatic vending machine
JP2006065004A (en) Automatic photographing apparatus
JP2006073284A (en) Foot switch protection case and automatic photographing device
JP3524088B1 (en) Image input method, image input program, and photo vending machine
JP2006064981A (en) Automatic photographing apparatus
JP2006033155A (en) Photographic print providing apparatus, photographic print providing method, and photographic print providing program
JP2005229356A (en) Automatic photograph vending machine, control method for automatic photograph vending machine, and control program for automatic photograph vending machine
JP2006064909A (en) Automatic photographing equipment
JP2005161743A (en) Photo print providing device, method of providing photo print, photo print providing program, and printing medium
JP2006099705A (en) Photograph automatic vending device and pen holder
JP4318565B2 (en) Photo vending machine, photo vending machine control method, and photo vending machine control program
JP4579602B2 (en) Photo print providing apparatus, photo print providing method, and photo print providing program